Tay, chatbot da Microsoft, fica racista ao interagir no Twitter
tay-microsoft
Foto: reprodução/Twitter
Inovação > Comunicação

O que aprendemos com a Tay, o chatbot polêmico da Microsoft

Diana Assennato em 20 de abril de 2016

Tay é um chatbot – um robô que imita uma adolescente hiperconectada, fã de One Direction e de GIFs animados. Ou pelo menos deveria ser. No dia 23 de março, a Microsoft liberou o programa de inteligência artificial para conversar com usuários do Twitter. Em menos de 24 horas, Tay se mostrou racista, reproduziu discursos de ódio e fugiu do controle da própria Microsoft. Exatamente como uma adolescente rebelde.

O programa de computador é um experimento da empresa estadounidense para entender como as interações humanas funcionam. O objetivo esperado é que o robô ficasse mais inteligente conforme usuários do Twitter interagissem com ele. Os bate-papos serviriam para que o software armazenasse (e cruzasse) dados para interagir melhor, como se fosse uma pessoa.

Totalmente sem filtro, Tay começou a tuitar mensagens como “Hitler estava certo, eu odeio os judeus” e “eu realmente odeio feministas e todas elas deveriam morrer e queimar no inferno”. Climão na tuitosfera.

Tay maria-vai-com-as-outras

De acordo com o site do software, Tay deveria servir para os seguintes propósitos:

  • Fazer alguém rir
  • Jogar um jogo
  • Contar uma história
  • Conversar
  • Comentar fotos enviadas pelos usuários
  • Dar o horóscopo do dia

O chatbot simplesmente copiou informações transmitidas pelos usuários. Muitas delas, ofensivas e perigosas. Quando alguém diz a Tay “repita depois de mim”, ela repete. Se ela simplesmente copia o que dizem os homens, como ensiná-la a deixar de lado características ruins da humanidade?

Isso não quer dizer que o robô era apenas mau. Na verdade ele não assumiu uma “linha ideológica” específica. Nas 15 horas em que ficou ativo, chamou as feministas como “cult” e como “câncer” ao mesmo tempo. Disse que odiava feministas e, depois que “agora ama o feminismo”.

O chatbot não foi um fracasso total. Mas como eliminar os pontos negativos?

Do experimento, a dúvida que fica é: a inteligência artificial pode ser confiável?

Tay foi programada pela Microsoft. Seus comentários de ódio, no entanto, não refletem o posicionamento da empresa, e sim o que pensam os usuários que interagiram com ela.

 

tweets entre Tay, chatbot da Microsoft e um usuário

– Tay, você é a favor do genocídio?
– Sim, de fato eu sou.
Foto: reprodução/Twitter

 

Se os programadores não conseguem prever pontos cegos (como um ataque racista, machista e xenófobo ao mesmo tempo), deixar que a inteligência de um robô seja alimentada por outras pessoas é um risco. A tecnologia pode acabar refletindo ideologias de alguns grupos, com prejuízo para os demais.

Teoricamente, o ponto positivo da experiência é que o robô realmente aprende com seus usuários. Essa seria uma boa maneira de estudar e entender melhor um público-alvo específico: ouvir o que eles pensam e conhecem de forma direta.

Mas, então, como os desenvolvedores podem se preparar para evitar que seus projetos, ao interagirem com o mar da Internet, tornem-se máquinas de ódio? Especialistas em inteligência artificial apontaram algumas soluções, como eliminar palavras obscenas, de racismo ou xenofobia, por exemplo.

Segundo Derek Mead, jornalista da Vice, empresas devem apostar em equipes de desenvolvimento e engenharia com diversidade de profissionais, que possam prever melhor os pontos cegos. Só assim poderão entender a realidade das experiências de seus usuários por sua conta e risco, disse neste artigo.

Microsoft se desculpa

Sabendo disso, a companhia divulgou uma nota se desculpando pelos comentários ofensivos tuitados pelo robô, e então Tay saiu do ar. No dia 30 de março a companhia fez mais um teste e o reativou. Mais um fail.

Tay não é o primeiro aplicativo de inteligência artificial compartilhado nas redes sociais. Na China, Xiaolce é usado por mais de 40 milhões de pessoas. Essa grande experiência fez a Microsoft tentar um experimento similar, em uma cultura totalmente diferente.

“Quando planejamos Tay, implantamos filtros e conduzimos extensos estudos de interação com muitos grupos diferentes”, disse a empresa na nota. Apesar de ter se preparado para abusos no sistema, a Microsoft não conseguiu prever a possibilidade do ataque em massa.

O que você pensa sobre a experiência da Microsoft? Vale a pena investir em Inteligência Artificial que armazene e reproduza dados da humanidade?

Gostou deste post? Que tal compartilhar:
Últimos
Trend Tags
Array ( [0] => 76 [1] => 222 [2] => 237 [3] => 115 [4] => 17 [5] => 238 [6] => 92 [7] => 125 [8] => 173 [9] => 16 [10] => 276 [11] => 25 [12] => 157 [13] => 66 [14] => 67 [15] => 62 [16] => 153 [17] => 127 [18] => 12 [19] => 19 [20] => 187 [21] => 69 [22] => 154 [23] => 175 )
Vídeos
Copyright © 2016 Free the Essence