Quando a inteligência artificial é racista e sexista como os humanos
inteligência artificial
Foto: Istock/Getty Images
Inovação > Tecnologia

Quando a inteligência artificial é racista e sexista

Kaluan Bernardo em 5 de setembro de 2016

Há quem acredite que a inteligência artificial poderá ser mais racional e ética do que o ser humano. Essa é a opinião, por exemplo, de Kris Hammons, professor de Ciência da Computação na Universidade Northwestern, e que esteve palestrando no Brasil recentemente. No entanto, experiências anteriores nos mostram que a inteligência artificial corre o risco de repetir graves erros humanos, como o racismo e o sexismo.

Lembra-se da Tay, a chatbot da Microsoft que queria imitar uma adolescente no Twitter? O experimento foi um desastre. Em menos de 24 horas a inteligência artificial se tornou racista, machista e reproduziu discursos de ódio. É claro que a empresa não a projetou para ser assim. No entanto, usuários da rede social conseguiram facilmente perverter a lógica da máquina.

screenshot do perfil de Tay no twitter

Tay, chatbot da Microsoft. Foto: Reprodução/Twitter

Há consequências que podem ser ainda piores. É o caso do COMPAS, software utilizado por tribunais dos Estados Unidos para prever futuros criminosos. Embora os sistemas não tenham palavra final, eles podem influenciar em decisões judiciais, de fianças a condenações.

A ProPublica testou o COMPAS e descobriu que, além de o sistema errar várias vezes, ele tende a ser racista. O sistema analisou as notas de risco para mais de 7 mil presos em Broward Count, na Flórida, entre 2013 e 2014, e disse quem tinha mais chance de cometer um novo crime. Na sequência, os jornalistas compararam com os dados para ver quantos realmente reincidiram na criminalidade nos dois anos seguintes.

A comparação mostrou que o sistema considerava réus negros duas vezes mais perigosos do que brancos, afirmando que eles provavelmente voltariam a cometer crimes — tese que, na vida real, não se comprovou.

via GIPHY

Há outros casos relacionados a sistemas de reconhecimento facial. Em 2015, a inteligência artificial do Google classificou dois norte-americanos negros como “macacos“. Já em 2009, o software das câmeras da Nikon, que avisa quando as pessoas estão de olhos fechados em uma foto, costumava afirmar que orientais estavam sempre de olhos fechados. Isso que a Nikon tem origem japonesa.

A inteligência artificial ainda depende dos humanos

Emiel van Miltenburg, estudante de PhD em linguística computacional na Universidade de Vrije, em Amsterdã, analisou o banco de dados Flickr30kDatabase, que gera legendas para fotos no Flickr. Segundo o site Vice, o trabalho é feito parte por inteligência artificial e parte por trabalhadores humanos mal pagos e mal instruídos.

Miltenburg percebeu que as legendas também seguiam padrões discriminatórios. Em uma foto de uma conversando com um homem, por exemplo, ele encontrava legendas como “garota conversa com seu chefe” — apesar de não haver nenhum elemento que indicasse posições hierárquicas.

Para o pesquisador, o problema é como estão educando a inteligência artificial. “As pessoas estão treinando as máquinas para olharem as imagens a partir de uma perspectiva americana. E não apenas de uma perspectiva americana, mas uma perspectiva americana branca”, comentou à Vice. Para ele, uma forma de se evitar esse tipo de problema seria chamando trabalhadores de diversos lugares, idades, gêneros e culturas para treinar os robôs.

via GIPHY

Desenvolvedores da inteligência artificial deverão levar em conta essas questões e treinar as máquinas de forma mais variada, fazê-las estudarem diversos aspectos das mais diferentes culturas ou ainda programá-las para ignorar certos tipos de informação. Do contrário, poderemos apenas automatizar e intensificar alguns dos grandes problemas sociais que enfrentamos hoje, como racismo e sexismo.

Gostou deste post? Que tal compartilhar:
Últimos
Trend Tags
Array ( [0] => 76 [1] => 222 [2] => 237 [3] => 115 [4] => 17 [5] => 238 [6] => 92 [7] => 125 [8] => 173 [9] => 16 [10] => 276 [11] => 25 [12] => 157 [13] => 66 [14] => 67 [15] => 62 [16] => 153 [17] => 127 [18] => 12 [19] => 19 [20] => 187 [21] => 69 [22] => 154 [23] => 175 )
Vídeos
Copyright © 2016 Free the Essence