Inteligência artificial: manual ensina a programar robôs com senso ético
inteligencia artificial
Foto: Istock/Getty Images
Inovação > Tecnologia

Inteligência artificial: manual ensina a programar robôs com senso ético

Camila Luz em 1 de outubro de 2016

O autor de ficção científica Isaac Asimov escreveu em 1959 que as regras de boa conduta de robôs consistem em não machucar humanos, obedecer ordens e proteger a sua própria existência. Este ano, o British Standard Institute (Reino Unido) elaborou uma cartilha com instruções para ajudar designers a criar inteligência artificial que aja de forma ética.

O manual foi escrito por cientistas, acadêmicos, filósofos, especialistas em ética e usuários para “fornecer orientações sobre potenciais riscos e medidas de proteção”. Programadores devem cuidar para que a  inteligência artificial, ao interagir com humanos, não aja de forma racista, sexista ou apresente qualquer desvio moral de conduta.

Em conferência na Universidade de Oxford (Reino Unido), Alan Winfield, professor de robótica da Universidade do Oeste da Inglaterra, disse que o manual representa o primeiro passo para a incorporação de valores éticos em robótica e inteligência artificial. “Pelo que eu saiba, esta é a primeira norma publicada para a concepção ética dos robôs. É um pouco mais sofisticada do que as leis de Asimov — que basicamente definem como fazer a avaliação de risco ético de um robô”, declarou, segundo o jornal britânico The Guardian.

O que o manual traz

A cartilha, chamada BS8611, é escrita em linguagem direta, como se fosse um manual de saúde. Mas seu conteúdo lembra o roteiro de um filme de ficção científica à lá “Eu, Robô”. Robôs viciados ou que sofram enganos são problemas que fabricantes devem considerar, assim como a possibilidade de criar sistemas de auto-aprendizagem que excedam suas atribuições.

O documento começa com princípios éticos: “robôs não devem ser destinados exclusivamente ou principalmente a matar ou prejudicar seres humanos; os seres humanos, não robôs, são os agentes responsáveis; deve ser possível descobrir quem é o responsável pelo robô e seu comportamento”.

Depois, passa a destacar questões mais controversas, como a criação de vínculo emocional com um robô — principalmente quando for projetado para interagir com crianças ou idosos. Noel Sharkey, professor de robótica e inteligência artificial da Universidade de Sheffield (Reino Unido), disse na conferência em Oxford que esse é exemplo de como a IA pode ser perigosa.

“Em estudo recente, pequenos robôs foram inseridos em uma escola infantil”, disse, segundo o The Guardian. “As crianças amaram e realmente criaram um vínculo com eles. Mas quando responderam perguntas sobre a experiência, as crianças claramente pensavam que os robôs eram mais cognitivos do que o animal de estimação de suas famílias”, conta.

O manual explica como identificar potenciais danos éticos e fornece orientações para eliminar ou reduzir riscos associados a esses perigos. A norma se baseia em requisitos de segurança existentes para diferentes tipos de robôs, que atendem finalidades como cuidados pessoais e médicos ou uso industrial.

Riscos éticos da inteligência artificial

No dia 23 de março de 2015, a Microsoft liberou um programa de inteligência artificial para conversar com usuários do Twitter. Tay era um chatbot que imita uma adolescente hiperconectada que adora One Direction e GIFs animados.

O programa de computador foi um experimento mal sucedido que mostra como a inteligência artificial pode ser perigosa e cometer crimes éticos e morais. Ao interagir com os usuários, Tay se tornou racista, sexista, passou a reproduzir discursos de ódio e fugiu do controle da própria Microsoft.

Totalmente sem filtro, Tay começou a tuitar mensagens como “Hitler estava certo, eu odeio os judeus” e “eu realmente odeio feministas e todas elas deveriam morrer e queimar no inferno”. O programa ficou apenas 15 horas no ar e foi desativado às pressas.

Leia mais:
O que aprendemos com a Tay, o chatbot polêmico da Microsoft
Quando a inteligência artificial é racista e sexista
Como a inteligência artificial irá redefinir o conceito de amor

Há ainda casos mais graves envolvendo ética e inteligência artificial. É o caso do COMPAS, software utilizado por tribunais dos Estados Unidos para prever futuros criminosos. Os sistemas não têm palavra final, mas podem influenciar em decisões judiciais, de fianças a condenações. Em teste, descobriu-se que o COMPAS erra várias vezes e ainda tende a ser racista.

Por exemplo, o sistema considerava réus negros duas vezes mais perigosos do que brancos, afirmando que eles provavelmente voltariam a cometer crimes. Na vida real, essa tese não se confirmou.

Gostou deste post? Que tal compartilhar:
Últimos
Trend Tags
Array ( [0] => 76 [1] => 222 [2] => 237 [3] => 115 [4] => 17 [5] => 238 [6] => 92 [7] => 125 [8] => 173 [9] => 16 [10] => 276 [11] => 25 [12] => 157 [13] => 66 [14] => 67 [15] => 62 [16] => 153 [17] => 127 [18] => 12 [19] => 19 [20] => 187 [21] => 69 [22] => 154 [23] => 175 )
Vídeos
Copyright © 2016 Free the Essence