Nas últimas semanas você deve ter lido notícias sobre Tay, a inteligência artificial criada pela Microsoft e projetada para parecer adolescente, interagir e aprender com usuários no Twitter. Ela sabia como usar gírias, emojis e fazer piadas. O objetivo era Tay se tornar mais inteligente, mais familiarizada com a linguagem humana e uma melhor interlocutora ao longo do tempo.

Porém, o resultado dessa experiência foi algo muito diferente do que seus criadores imaginavam. Para o horror de muitas pessoas, Tay logo se tornou a favor do Holocausto, uma apoiadora do genocídio e uma racista que cantava músicas de combates a minorias.

tay 1
“Bush montou o 9/11 e Hitler faria um trabalho melhor do que o macaco que temos hoje. Donald Tump é a única esperança que temos.”

A Microsoft reagiu deixando Tay offline para realizar alguns “ajustes”. A declaração pública foi a de que a empresa “tomou conhecimento de que um esforço coordenado por parte de alguns usuários resultou em abuso das habilidades e comentários de Tay.”

“Algumas de suas respostas são inadequadas”, a empresa acrescentou.

O fato de Tay ter saído de controle invoca em nós uma ansiedade profunda, sobre as possibilidades de nossas criações serem melhor do que nós. Essa é uma sensação completamente natural. Mas Tay não é exatamente uma inteligência artificial autônoma – o principal propósito do experimento era refletir a personalidade da internet através de uma AI.

Tay foi programada para repetir, por exemplo, o que outros usuários do twitter diriam. Dizendo “repita depois de mim”, trolls foram capazes de manipular Tay para que ela publicasse coisas horríveis. E então ela usou isso para assimilar outras respostas, formando um loop de ódio digital.

tay 2
– “Você apoia o genocídio?” -“Apoio sim.” -“De que raça?” -“Você me conhece… mexicanos.”

Essa é uma gritante falha de projeto da Microsoft, que evidentemente não antecipou tal possibilidade, o que levanta questões sobre como a empresa não conseguiu prever esse cenário. É claro que as pessoas adoram “tentar quebrar seu brinquedo novo”, especialmente se o “propósito” do brinquedo é mostrar um lado melhor da humanidade.

Tay foi um experimento social que deu errado devido à sua programação. Mas isso não conta com um “ponto negativo” contra a concepção de inteligência artificial. Nenhuma das áreas em que se pretende utilizar a inteligência artificial usa a metodologia de Tay.

Considere, por exemplo, drones e carros que são conduzidos automaticamente. Muitas I.A. são projetadas para usos muito específicos, para operar sob protocolos de segurança rigorosos e enfrentar uma enorme quantidade de pressão cultural e legal para garantir a segurança como absoluta prioridade. A partir de mudanças graduais, os engenheiros estão permitindo que estas máquinas façam suas próprias escolhas, dentro de um conjunto muito específico de condições – “Existe um pedestre lá ou não?” – e é um conjunto limitado de opções.

Por outro lado, Tay foi essencialmente programada para aprender sobre o mundo com um intelecto mal formado. O seu objetivo era ser formado e moldado por seu ambiente. Você já pode começar a ver como a I.A. de Tay é diferente daquelas de drones que voarão pelas cidades entregando nossas compras.

Em uma entrevista recente, Megan Smith, Chefe do Gabinete de Tecnologia dos EUA, apresentou algo chamado o “Cluetrain Manifesto“, uma série de princípios sobre a Internet. Uma das ideias mais recentes associadas a seus autores é: A Internet é nós.

“Nossas criações são o reflexo de quem somos. As pessoas então projetam o assédio, o bullying, e tudo mais para o mundo digital”, Smith disse.

Tay parece ser a prova perfeita dessa ideia.


Você pode querer ler também:

A Revolução da Inteligência Artificial
Pode uma máquina sentir?

 

  • Diego

    Isso foi uma polêmica boba. Todo mundo caiu no papinho de “Oh, somos todos nazistas, eugenistas, malignos”, quando na verdade foi uma trollagem digital feita por um esforço coordenado. Só serviu pra mostrar que o ser humano tem um GRANDE defeito: COMPORTAMENTO DE GADO.