Nas últimas semanas você deve ter lido notícias sobre Tay, a inteligência artificial criada pela Microsoft e projetada para parecer adolescente, interagir e aprender com usuários no Twitter. Ela sabia como usar gírias, emojis e fazer piadas. O objetivo era Tay se tornar mais inteligente, mais familiarizada com a linguagem humana e uma melhor interlocutora ao longo do tempo.

Porém, o resultado dessa experiência foi algo muito diferente do que seus criadores imaginavam. Para o horror de muitas pessoas, Tay logo se tornou a favor do Holocausto, uma apoiadora do genocídio e uma racista que cantava músicas de combates a minorias.

tay 1
“Bush montou o 9/11 e Hitler faria um trabalho melhor do que o macaco que temos hoje. Donald Tump é a única esperança que temos.”

A Microsoft reagiu deixando Tay offline para realizar alguns “ajustes”. A declaração pública foi a de que a empresa “tomou conhecimento de que um esforço coordenado por parte de alguns usuários resultou em abuso das habilidades e comentários de Tay.”

“Algumas de suas respostas são inadequadas”, a empresa acrescentou.

O fato de Tay ter saído de controle invoca em nós uma ansiedade profunda, sobre as possibilidades de nossas criações serem melhor do que nós. Essa é uma sensação completamente natural. Mas Tay não é exatamente uma inteligência artificial autônoma – o principal propósito do experimento era refletir a personalidade da internet através de uma AI.

Tay foi programada para repetir, por exemplo, o que outros usuários do twitter diriam. Dizendo “repita depois de mim”, trolls foram capazes de manipular Tay para que ela publicasse coisas horríveis. E então ela usou isso para assimilar outras respostas, formando um loop de ódio digital.

tay 2
– “Você apoia o genocídio?” -“Apoio sim.” -“De que raça?” -“Você me conhece… mexicanos.”

Essa é uma gritante falha de projeto da Microsoft, que evidentemente não antecipou tal possibilidade, o que levanta questões sobre como a empresa não conseguiu prever esse cenário. É claro que as pessoas adoram “tentar quebrar seu brinquedo novo”, especialmente se o “propósito” do brinquedo é mostrar um lado melhor da humanidade.

Tay foi um experimento social que deu errado devido à sua programação. Mas isso não conta com um “ponto negativo” contra a concepção de inteligência artificial. Nenhuma das áreas em que se pretende utilizar a inteligência artificial usa a metodologia de Tay.

Considere, por exemplo, drones e carros que são conduzidos automaticamente. Muitas I.A. são projetadas para usos muito específicos, para operar sob protocolos de segurança rigorosos e enfrentar uma enorme quantidade de pressão cultural e legal para garantir a segurança como absoluta prioridade. A partir de mudanças graduais, os engenheiros estão permitindo que estas máquinas façam suas próprias escolhas, dentro de um conjunto muito específico de condições – “Existe um pedestre lá ou não?” – e é um conjunto limitado de opções.

Por outro lado, Tay foi essencialmente programada para aprender sobre o mundo com um intelecto mal formado. O seu objetivo era ser formado e moldado por seu ambiente. Você já pode começar a ver como a I.A. de Tay é diferente daquelas de drones que voarão pelas cidades entregando nossas compras.

Em uma entrevista recente, Megan Smith, Chefe do Gabinete de Tecnologia dos EUA, apresentou algo chamado o “Cluetrain Manifesto“, uma série de princípios sobre a Internet. Uma das ideias mais recentes associadas a seus autores é: A Internet é nós.

“Nossas criações são o reflexo de quem somos. As pessoas então projetam o assédio, o bullying, e tudo mais para o mundo digital”, Smith disse.

Tay parece ser a prova perfeita dessa ideia.


Você pode querer ler também:

A Revolução da Inteligência Artificial
Pode uma máquina sentir?

 

escrito por:

Rodrigo Zottis

Rapaz que só faz o que faz pois espera que um dia seu legado possa ser completamente auto-explicativo.