Por que os robôs precisam aprender a dizer não para os humanos
robôs_2
Foto: Istock/Getty Images
Inovação > Tecnologia

Por que os robôs precisam aprender a dizer não

Kaluan Bernardo em 15 de agosto de 2016

No ano passado um pequeno robô, que estava em cima de uma mesa, foi ordenado a seguir em frente sem parar. Quando ele chegou à borda e percebeu que iria cair,  desobedeceu a ordem e parou de andar.

O experimento, conduzido no Laboratório de Interação Humanos-Robôs da Universidade de Tufts, em Boston (EUA), revela uma questão que deverá se tornar cada vez mais importante no futuro: a habilidade da inteligência artificial de dizer “não”.

Calma, não estamos falando de robôs birrentos que fazem o que querem de acordo com sua própria vontade. Mas por mais paradoxal que possa parecer, eles também não devem nos servir sempre. Questões éticas e morais deverão ser resolvidas pelas máquinas, que poderão se recusar a obedecer alguém.

Pense em um robô sendo ordenado a matar uma pessoa ou mesmo se autodestruir. Ajudar um robô a dizer “não” está diretamente relacionado à necessidade de ele conseguir entender as implicações de suas ações.

“Da mesma forma que não queremos que humanos sigam cegamente as instruções de outros humanos, não queremos robôs indestrutíveis seguindo ordens de humanos sem checar quais são seus efeitos”, comenta Matthias  Scheutz, um dos pesquisadores no experimento da Universidade de Tufts ao site Digital Trends.

Como ensinar bom senso a um robô

Ensinar um robô a andar é diferente de ensiná-lo a entender quando deve atravessar uma rua. Para desenvolver uma  espécie de “bom senso” na inteligência artificial é necessário carregá-la com uma quantidade enorme de informações. No entanto, se um dia conseguirmos fazer isso, a máquina poderá analisar com rigor se a ordem que recebeu faz sentido ou não. Caso seja muito suspeita, o robô poderá até se colocar em estado de prevenção e evitar a pessoa que lhe deu as ordens.

robô azul com prata sorrindo

Foto: Istock/Getty Images

Normalmente nós sabemos que algo é perigoso porque passamos pela experiência ou porque sabemos que alguém passou por aquilo antes de nós. Já os robôs não vêm carregados com esse tipo de conhecimento. E para as máquinas desenvolverem sozinhas esse tipo de cautela pode demorar anos. Por isso, é mais provável que a inteligência artificial já seja pré-carregada com tais tipos de informação.

Leia também:
Sunspring: o filme escrito inteiramente por uma inteligência artificial
Os maiores temores com relação a inteligência artificial

É necessário que eles carreguem informações complexas, que abordam desde temas sociais e antropológicos até dados em massa, como informações de trânsito e clima, além de complexos algoritmos matemáticos, para que possam desenvolver uma espécie de ética artificial.

Tais questões já eram discutidas pelas Leis de Asimov

Isaac Asimov (1920-1992), um dos mais notáveis escritores de ficção científica de todos os tempos, discutiu em várias obras, como “Eu Robô” e “Robôs e o Império”, as implicações do desenvolvimento de uma ética artificial.

Os robôs das obras de Asimov eram programados segundo três leis, conhecidas como “Leis da Robótica” que, teoricamente, deveriam assegurar sua ética e estabilidade. Eram elas:

1º Lei: Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.

2ª Lei: Um robô deve obedecer as ordens que lhe sejam dadas por seres humanos exceto nos casos em que tais ordens entrem em conflito com a Primeira Lei.

3º Lei: Um robô deve proteger sua própria existência desde que tal proteção não entre em conflito com a Primeira ou Segunda Lei.

Mais tarde Asimov criou a “Lei Zero”, que ficava acima de todas as outras e dizia: que um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.

Suas ideias reverberam até hoje, indo muito além do campo da ficção científica e trazendo a discussão para engenheiros que trabalham com inteligência artificial. O que os pesquisadores da Universidade de Tufts querem ao ensinar um robô a dizer “não” lembra muito as Leis de Asimov. Veja o que Scheutz disse ao Digital Times sobre seu trabalho:

Instruções podem ser inapropriadas em uma situação por muitas razões. Mas o mais importante é que elas podem causar danos a humanos ou propriedades, incluindo o próprio robô. Ao refletir sobre as consequências de uma ação ordenada, o robô poderá detectar o potencial de violar as normas e os possíveis danos resultantes daquela ação, e isso pode ajudá-lo a mitiga-las.

Gostou deste post? Que tal compartilhar:
Últimos
Trend Tags
Array ( [0] => 76 [1] => 222 [2] => 237 [3] => 115 [4] => 17 [5] => 238 [6] => 92 [7] => 125 [8] => 173 [9] => 16 [10] => 276 [11] => 25 [12] => 157 [13] => 66 [14] => 67 [15] => 62 [16] => 153 [17] => 127 [18] => 12 [19] => 19 [20] => 187 [21] => 69 [22] => 154 [23] => 175 )
Vídeos
Copyright © 2016 Free the Essence