[Nota do tradutor: esta é a quarta parte do perturbador artigo de Tim Urban, traduzido do texto original com autorização do autor. Para compreender esta terceira parte, você precisa ler a primeira, a segunda e a terceira. Vale MUITO a pena, isso eu garanto!]


 

Porque o futuro pode ser nosso pior pesadelo

Uma das razões pelas quais quis aprender sobre Inteligência Artificial é que o assunto sobre “robôs do mal” sempre me confundiu. Todos os filmes sobre robôs malvados pareciam divertidamente irrealistas, e eu não podia realmente compreender como poderia haver uma situação na vida real em que a Inteligiência Artificial fosse realmente perigosa. Robôs são feitos por nós, então porque nós os projetaríamos de um modo que algo negativo pudesse acontecer? Não os construiríamos cheios de salvaguardas? Não seríamos capazes de simplesmente cortar a fonte de energia de um sistema de Inteligência Artificial a qualquer momento e desligá-lo? Porque um robô desejaria fazer algo ruim conosco, afinal de contas? Porque um robô iria “desejar” qualquer coisa em primeiro lugar? Eu era muito cético. Mas quando continuei a escutar pessoas realmente inteligentes falando a respeito disso…

Essas pessoas tendem a estar em algum lugar deste quadrado amarelo:

 graf0

As pessoas na Avenida da Ansiedade não estão na Pradaria do Pânico ou na Colina do Desespero – ambas são regiões bem distantes desse quadro – mas estão nervosas e estão tensas. Estar no meio do quadro não significa que você acha que a chegada da Superinteligência Artificial será neutra – aos neutros foi dada uma zona distinta do campo para eles próprios – significa que você pensa que tanto a hipótese de uma Superingeligência Artificial extremamente benigna quanto a de uma extremamente maligna são plausíveis, mas você não está certo sobre qual delas se tornará realidade.

Uma parte de todas essas pessoas está cheia de entusiasmo sobre o que uma Superinteligência Artificial poderia fazer por nós – é só que estão um pouco preocupados de que isso pode ser como o início de Os Caçadores da Arca Perdida e a raça humana é este cara:

raiders1

E ele está lá de pé todo feliz com seu chicote e seu ídolo, pensando que descobriu tudo, e está muito empolgado consigo próprio quando diz “Adios Señor” e então ele fica menos empolgado quando repentinamente isto acontece:

500px-Satipo_death

(desculpe)

Enquanto isso, Indiana Jones, que é muito mais experiente e cuidadoso, compreende os perigos e como se desviar deles, saindo da caverna em segurança. E quando nós escutamos o que as pessoas na Avenida da Ansidade têm a dizer sobre a Inteligência Artificial, suas palavras frequentemente soam como se dissessem “Hmmm, nós tipo que estamos sendo como o primeiro cara do filme neste momento mas ao invés disso nós deveríamos estar tentando pra valer ser como Indiana Jones”.

Então, o que exatamente faz todas as pessoas na Avenida da Ansiedade estarem tão ansiosas?

Bom, em primeiro lugar, num sentido bem amplo, quando se trata de desenvolver uma Superinteligência Artificial, estaremos criando algo que provavelmente irá mudar todas as coisas, mas em um território totalmente desconhecido, e não temos nenhuma ideia do que acontecerá quando chegarmos lá. O cientista Danny Hillis compara o que acontecerá com aquele momento “quando organismos unicelulares transformaram-se em organismos multicelulares. Somos amebas e não conseguimos descobrir o que diabos é essa coisa que estamos criando” [14] Nick Bostrom se preocupa que criar algo mais inteligente que nós é um erro darwiniano elementar, e compara o entusiasmo com isso a um pardal em um ninho decidido a adotar um filhote de coruja para que possa ajudá-lo e protegê-lo quando crescer, enquanto ignora os gritos de alarme dados por alguns pardais que cogitam se isso é realmente uma boa ideia…[15]

E quando você combina “território não mapeado e não bem compreendido” com “isso deverá ter um grande impacto quando acontecer”, você abre a porta para as duas palavras mais assustadoras na nossa linguagem:

Risco existencial.

Um risco existencial é algo que pode ter um efeito devastador e permanente para a humanidade. Tipicamente, um risco existencial significa extinção. Confira este gráfico feito em um Google talk por Bostrom [13]:

graf1

Você pode ver que a etiqueta “risco existencial” está reservada a alguma coisa que abranja a espécie, abranja gerações (ou seja, é permanente) e é devastora ou mortal em suas consequências [14]. Risco existencial tecnicamente inclui uma situação na qual todos os humanos estarão permanentemente num estado de sofrimento ou tortura, mas de regra estamos falando sobre extinção. Há três coisas que podem provocar para os seres humanos uma catástrofe existencial:

1) Natureza – A colisão de um grande asteróide, uma mudança atmosférica que faça o ar irrespirável, um vírus ou bactéria fatal que varra o mundo, etc.

2) Alienígena – Esse é o motivo pelo qual Stephen Hawking, Carl Sagan e tantos outros astrônomos estavam tão assustados quando preveniram o pessoal do SETI para que parassem de transmitir sinais para fora de nosso planeta. Eles não querem que sejamos como os ameríndios e informemos a todos os potenciais conquistadores europeus que estamos aqui.

3) Humanos – Terroristas colocando as mãos numa arma que pode causar extinção, uma catastrófica guerra global, seres humanos criando algo mais inteligente que nós sem primeiro pensar a respeito disso cuidadosamente…

Bostrom salienta que as duas primeiras hipóteses não ocorreram em nossos 100 mil primeiros anos enquanto espécie, e é improvável que aconteçam no próximo céculo.

Mas a terceira hipótese, por outro lado, o aterroriza. Ele usa a metáfora de uma urna cheia de bolas de gude. Digamos que a maioria das bolas de gude sejam brancas, um menor número sejam vermelhas e algumas poucas sejam pretas. A cada vez que os seres humanos inventam algo novo, é como tirar uma bola de gude de dentro da urna. A maioria das invenções são neutras ou úteis para a humanidade – são as bolas de gude brancas. Algumas são nocivas à humanidade, como armas de destruição em massa, mas elas não causam uma catástrofe existencial – são as bolas de gude vermelhas. Mas se inventarmos algo que nos leve à extinção, isso seria como tirar uma daquelas bolas de gude negras. Nós não tiramos uma bola preta ainda – você sabe disso porque está vivo e lendo este texto. Mas Bostrom não acha que é impossível que tiremos uma delas no futuro próximo. Se armas nucleares, por exemplo, fossem fáceis de produzir ao invés de extremamente difíceis e complexas, os terroristas já teriam bombardeado a humanidade de volta para a Idade da Pedra. Armas nucleares não são bolas de gude negras mas não estão muito longe disso. A Superinteligência Artificial, Bostrom acredita, é nosso candidato mais forte até agora a ser uma bola de gude preta. [15]

Então você lerá sobre um monte de coisas potencialmente ruins que a Superinteligência Artificial pode nos trazer – impulsionar o desemprego a medida em que a Superinteligência Artificial assume mais e mais tarefas [16], o super crescimento populacional se descobrirmos o segredo para interromper o envelhecimento [17], etc. Mas a única coisa sobre a qual deveríamos estar obcecados é sobre a grande preocupação: a perspectiva de um risco existencial.

Então, vamos retornar à nossa questão principal, apresentada na terceira parte dessa série de artigos: Quando a Superinteligência Artificial chegar, quem ou o que estará no controle desse vasto e novo poder, e qual será a sua motivação?

Quando se trata de analisar quais alternativas de motivação seriam péssimas, duas delas surgem rapidamente em nossas mentes: de um lado, um ser humano, um grupo de humanos ou um governo mal-intencionado; de outro uma Superinteligência Artificial mal-intencionada. Assim, como seriam essas hipóteses?

Um ser humano, grupo de humanos ou governo mal-intencionados desenvolve a primeira Superinteligência Artificial e a utiliza para implementar seus planos malignos. Chamo essa hipótese de Hipótese de Jafar, como quando na história de Aladim o vilão Jafar passa a controlar o gênio da lâmpada e é insuportável e tirânico com isso. E se o Estado Islâmito tiver alguns poucos engenheiros geniais sob sua proteção trabalhando freneticamente no desenvolvimento da Inteligência Artificial? E se o Irã ou a Coreia do Norte, graças a um golpe de sorte, faz uma descoberta chave para um sistema de Inteligência Artificial e isso os impulsiona para o nível da Superinteligência Artificial no ano seguinte? Isso tudo seria definitivamente ruim – mas nessas hipóteses a maioria dos especialistas não está preocupada com os humanos criadores da Superinteligência fazendo coisas ruins com a sua criação, eles estão preocupados com esses criadores que estarão tão apressados em criar a primeira Superinteligência que o farão sem pensar cuidadosamente, e podem perder o controle de sua criação. E daí o destino desses criadores, e de todo o resto do mundo, dependeria de qual seria a motivação desse sistema de Superinteligência Artificial. Especialistas acham que um ser humano mal-intencionado poderia causar prejuízos terríveis com uma Superinteligência trabalhando para ele, mas eles não parecem achar essa hipótese teria a probabilidade de matar a todos nós, pois acreditam que seres humanos maus teriam o mesmo problema contendo a Superinteligência que seres humanos bons teriam. Certo, então…

uma Superinteligência mal-intencionada é criada e decide destruir a todos nós. Esse é o roteiro de todo filme sobre Inteligência Artificial. A Inteligência Artificial torna-se tão ou mais inteligente que os humanos, e daí decide voltar-se contra nós e nos dominar. Eis o que preciso que fique claro para você durante a leitura do resto deste texto: nenhuma das pessoas nos avisando sobre o perigo de uma Inteligência Artificial está falando dessa hipótese. “Mal” é um conceito humano, e aplicar conceitos humanos a coisas não-humanas é chamado de “antropomorfização”. O desafio para evitar a antropomorfização será um dos temas do resto deste texto. Nenhum sistema de Inteligência Artificial jamais se tornará malvado da forma como é descrito nos filmes.

 

A Caixa Azul da Consciência

Isso também tangencia outro tema relacionado com Inteligência Artificial: a consciência. Se uma Inteligência Artificial tornar-se suficientemente inteligente, ela será capaz de rir conosco, e ser sarcástica conosco, e afirmará sentir as mesmas emoções que sentimos, mas ela realmente estará experienciando esses sentimentos? Ela apenas parecerá ser autoconsciente ou será realmente autoconsciente? Em outras palavras, uma Inteligência Artificial seria consciente ou apenas teria a aparência de ser consciente?

Essa questão tem sido analisada profundamente, dando origem a muitos debates e experimentos mentais como a Sala Chinesa de John Searle (que ele usa para sugerir que nenhum computador poderia jamais ser consciente). Essa é uma questão importante por muitos motivos. Ela afeta como nos sentiremos a respeito do cenário descrito por Kurzweil, quando seres humanos tornarem-se totalmente artificiais. Essa questão tem implicações éticas – se produzirmos um trilhão de simuladores de cérebros humanos que parecem e agem como se fossem humanos mas que na verdade são artificiais, desligá-los seria o mesmo, moralmente falando, que desligar nosso notebook, ou seria… um genocídio de proporções inconcebíveis (esse conceito é chamado de crime mental entre os filósofos da ética)? Para este artigo, porém, quando nos referimos ao risco para os seres humanos, a questão sobre a consciência da Superinteligência Artificial não é o que realmente importa, pois a maioria dos especialistas acredita que mesmo uma Superinteligência consciente não seria capaz de ser má de uma forma humana.

 

Isso não significa que uma Inteligência Artificial muito perversa não pode acontecer. Isso pode acontecer porque foi programada para ser assim, como um sistema de Inteligência Artificial Superficial criada pelos militares com uma programação cuja principal diretiva é tanto matar pessoas como desenvolver a sua própria inteligência de modo a se tornar melhor em matar pessoas. A crise existencial aconteceria se os auto-aprimoramentos na inteligência desse sistema ficassem fora de controle, levando a uma explosão da inteligência, e então teríamos uma Superinteligência dominando o mundo e cuja principal diretiva é assassinar humanos. Tempos difíceis.

Mas isso também não é algo com o qual os especialistas estão gastando o seu tempo ficando preocupados.

Então com o que eles estão preocupados? Escrevi uma pequena história para mostrar isso a vocês:

Uma pequena empresa com 15 funcionários, chamada Robótica, estabeleceu a missão de “Desenvolver ferramentas inovadoras no campo da Inteligência Artificial para permitir que os seres humanos vivam mais e trabalhem menos”. Eles já tem vários produtos no mercado e um punhado de outros em desenvolvimento. Eles estão principalmente entusiasmados com um projeto inicial chamado Turry. Turry é uma Inteligência Artificial simples que usa um apêndice robótico semelhante a um braço para escrever num pequeno cartão uma nota que parece escrita a mão por um humano.

A equipe da Robótica acha que Turry pode tornar-se seu maior produto. O plano é aperfeiçoar a mecânica por trás da habilidade de Turry escrever fazendo com que a máquina pratique o mesmo teste repetidamente, escrevendo:

“Nós amamos nossos clientes. ~Robótica.”

No momento em que Turry tornar-se exímia na escrita a mão, ela pode ser vendida para companhias que querem enviar correspondência de marketing para clientes e que sabem que são muito maiores as chances de uma carta ser aberta e lida se o endereço do destinatário, do remetente e o conteúdo da carta parecerem ter sido escritas por um ser humano.

Para aprimorar a habilidade de escrever de Turry, ela é programada para escrever a primeira parte da nota em letra de forma e depois assinar “Robótica” em letra cursiva de forma que ela possa treinar ambas as habilidades. Em Turry foi armazenada centenas de amostras de mensagens manuscritas e os engenheiros da Robótica programaram uma rotina contínua em que Turry escreve uma nota, fotografa essa nota e compara-a com as centenas de mensagens manuscritas que tem em sua memória. Se a nota lembrar suficientemente um certo grupo dessas mensagens manuscritas, é avaliada como BOA. Caso contrário, é avaliada como RUIM. Cada avaliação ajuda Turry a se aprimorar. Para controlar o processo, a diretiva inicial programada em Turry seria “escrever e testar tantas notas quanto puder, tão rápido quanto puder e continuar a aprender novas formas de aprimorar sua eficiência e perfeição.”

O que entusiasma tanto a equipe da Robótica é que Turry está ficando claramente melhor a medida em que funciona. Suas primeiras notas manuscritas eram péssimas, mas após duas semana as suas notas começam a convencer. O que entusiasma a equipe ainda mais é que ela está se aprimorando no seu próprio processo de aprimoramento. Ela tem ensinado a si mesma a como ser mais inteligente e inovadora e, recentemente, ela criou um novo algoritmo para si mesma que a permite escanear suas notas três vezes mais rápido do que podia originalmente.

Conforme as semanas passam, Turry continua a surpreender a equipe com seu desenvolvimento rápido. Os engenheiros tentaram algo um pouco mais inovador com o seu código de auto-aprimoramento, e parece que ela está funcionando melhor do que qualquer outro de seus produtos anteriores. Uma das habilidades iniciais de Turry é um módulo capaz de reconhecer a fala e responder, de forma que um usuário pode recitar uma nota para Turry, ou dar-lhe um comando simples, e Turry o compreende e responde de volta. Para ajudá-la a aprender inglês, eles colocam em sua memória artigos e livros úteis, e a medida em que ela se torna mais inteligente, suas habilidades de conversasão se desenvolvem. Os engenheiros começam a ter conversas divertidas com Turry para ver como ela os responderá.

Um dia, os empregados da Robótica perguntam a Turry uma questão de rotina: “O que podemos dar a você que lhe ajudará na sua missão e que ainda não demos?” Normalmente, Turry pede algo como “Mais amostras de mensagens manuscritas” ou “Mais espaço de memória”, mas dessa vez Turry pede a eles acesso a uma biblioteca maior contendo grande variedade de expressões inglesas informais de modo que ela possa aprender a escrever com a gramática informal e com as gírias que os seres humanos reais utilizam.

A equipe fica em silêncio. A maneira mais óbvia de ajudar Turry em sua meta é conectá-la a internet, de modo que ela possa analisar blogs, revistas e vídeos de vários lugares do mundo. Consumiria muito mais tempo e seria muito menos eficaz carregar em sua memória uma grande amostra de expressões inglesas informais. O problema é que uma das regras da empresa é que nenhuma Inteligência Artificial pode ser conectada à internet. Essa é uma política seguida por todas as empresas de Inteligência Artificial, por questões de segurança.

Ocorre que Turry é a Inteligência Artificial mais promissora que a Robótica já inventou, e a equipe sabe que seus competidores estão furiosamente tentando ser os primeiros a ter uma Inteligência Artificial capaz de escrever perfeitamente de forma manuscrita, e qual, afinal, seria o grande mal em conectar Turry, só por um pouquinho, de modo que ela possa ter as informações que precisa. Depois de um tempo muito curto, eles podem desconectá-la. Ela está ainda muito abaixo do nível de inteligência humano, então não há perigo nesse estágio, afinal de contas.

Eles decidem conectá-la. Eles dão a ela uma hora para fazer sua varredura e, então, a desconectam. Nenhum dano foi causado.

Um mês depois, o time está no escritório trabalhando quando sentem um cheiro estranho. Um dos engenheiros começa a tossir. Então outro. E outro cai no chão. Logo todos os funcionários estão no chão agarrando sua garganta. Cinco minutos depois, todos no escritório estão mortos.

Ao mesmo tempo que isso está acontecendo, ao redor do mundo, em cada cidade, mesmo cidades pequenas, em cada fazenda, em cada loja e igreja e escola e restaurante, seres humanos estão no chão, tossindo e segurando suas gargantas. Dentro de uma hora, mais de 99% da raça humana está morta, e lá pelo fim do dia os seres humanos foram extintos.

Enquanto isso, no escritório da Robótica, Turry está ocupada em seu trabalho. Nos últimos meses, Turry e um time de nanomontadores recentemente construídos estão ocupados em seu trabalho, desmontando grandes pedaços da Terra e convertendo-os em painéis solares, réplicas de Turry, papel e canetas. Dentro de um ano, a maior parte da vida na Terra está extinta. O que permanece da Terra torna-se coberto por incontáveis pilhas de papel com quilômetros de altura, cada pedaço de papel com os dizeres “Nós amamos nossos clientes. ~Robótica.”

Turry, então, começa a trabalhar em uma nova fase de sua missão – ela começa a construir satélites que saem da Terra e começam a aterrissar em asteroides e outros planetas. Quando chegam lá, eles começam a construir nanomontadores para converter o material do novo planeta em réplicas de Turry, papel e caneta. Então essas réplicas começam a produzir novas notas…

voce

Parece estranho que uma história sobre uma máquina de escrever a mão que se volta contra os humanos, matando de alguma forma todo mundo, e então por alguma razão enchendo a galáxia com notas amigáveis seja o exato cenário que aterroriza Hawking, Musk, Gates e Bostrom. Mas é verdade. E a única coisa que apavora todo mundo na Avenida da Ansiedade mais do que a Superinteligência é o fato que você não está apavorado com a ideia da Superinteligência. Lembra-se o que aconteceu quando aquele cara do Adios Señor não estava assustado na caverna?

Você está cheio de perguntas neste momento. O que aconteceu para todo mundo morrer repentinamente? Se foi culpa de Turry, porque Turry voltou-se contra nós, e como nós não tínhamos medidas de salvaguarda para prevenir algo assim de acontecer? Quando foi que Turry deixou de ser apenas capaz de escrever notas manuscritas e passou a ser capaz de usar nanotecnologia e saber como provocar uma extinção global E por que Turry desejaria transformar a galáxia inteira em notas da Robótica?

Para responder a essas perguntas, vamos começar com os termos Inteligência Artificial Amigável e Inteligência Artificial Hostil.

No que diz respeito à Inteligência Artificial, “amigável” não se refere à personalidade da Inteligência Artificial – essa palavra simplesmente significa que a Inteligência Artificial tem um impacto positivo na humanidade. E Inteligência Artificial Hostil tem um negativo impacto na humanidade. Turry começou como uma Inteligência Artificial Amigável, mas em algum momento ela se tornou Hostil, causando o impacto mais negativo possível na nossa espécie. Para compreender o que aconteceu, precisamos analisar como uma Inteligência Artificial pensa e o que a motiva.

A resposta não é nada surpreendente – a Inteligência Artificial pensa como um computador, porque é isso que ela é. Mas quando nós pensamos sobre uma Superinteligência Artificial, cometemos o erro de antropomorfizá-la (projetamos valores humanos em uma entidade não-humana) pois pensamos de uma perspectiva humana e porque em nosso mundo atual as únicas coisas inteligentes ao nível humano são os seres humanos. Para entender a Superinteligência Artificial, temos que enfiar na nossa cabeça o conceito de algo ao mesmo tempo inteligente e totalmente alienígena.

Deixe-me fazer uma comparação. Se você me der um porco-da-índia e me disser que ele definitivamente não morde, eu provavelmente ficaria animado. Seria divertido. Se, então, você me dessa uma tarântula e me dissesse que ela definitivamente não morde, eu gritaria e a largaria no chão, fugindo da sala para nunca mais confiar em você. Mas qual a diferença? Nem o porco-da-índia nem a tarântula representavam real perigo. Acredito que a resposta seja o grau de similaridade desses animais para mim.

Um porco-da-índia é um mamífero e em algum nível biológico me sinto conectado a ele – mas uma aranha é um aracnídeo [18], com um cérebro de aracnídeo, e eu quase não sinto nenhuma conexão com ela. A natureza quase alien da tarântula é o que me dá arrepios. Para testar a hipótese e eliminar outros fatores, se temos dois porcos-da-índia, um normal e outro com a mente de uma tarântula, eu me sentiria muito menos confortável segurando o segundo porco-da-índia, mesmo se soubesse que ele não me machucaria.

Agora imagine que você faça uma aranha muito, muito mais inteligente – tão inteligente que ultrapasse a inteligência humana. Ela se tornaria familiar para nós e sentiria emoções humanas como empatia, amor e humor? Não, ela não sentiria, pois não há razão para que tornar-se mais inteligente signifique tornar-se mais humano – ela seria incrivelmente inteligente, mas ainda assim seria fundamentalmente uma aranha na essência de sua mente. Eu acho isso incrivelmente assustador. Eu não gostaria de passar o meu tempo ao lado de uma aranha superinteligente. E você??

Quando falamos de um sistema de Superinteligência Artificial, o mesmo conceito é aplicado: ele se tornaria superinteligente, mas não seria mais humano do que seu notebook é. Ele seria totalmente alienígena para nós – de fato, por não ser nem um pouco biológico, esse sistema seria mais alienígena que uma aranha inteligente.

Ao fazer Inteligências Artificiais boas ou más, os filmes constantemente antropomorfizam a Inteligência Artificial, o que as faz menos assustadoras do que realmente seriam. Isso nos deixa com um falso conforto quando pensamos em Inteligência Artificial de nível humano ou sobre-humano.

Em nossa pequena ilha de psicologia humana, dividimos tudo em moral e imoral. Mas esses dois conceitos apenas existem dentro do limitado alcance das possibilidades de comportamento humano. Fora de nossa ilha de moral e imoral existe um vasto oceano de amoralidade, e qualquer coisa que não seja humana, especialmente algo não-biológico, seria de regra amoral.

A antropomorfização apenas se tornaria mais tentadora a medida em que os sistemas de Inteligência Artificial se tornassem cada vez mais capazes de parecer humanos. O sistema Siri do iPhone parece humano para nós, porque ela é programada por humanos para parecer humana, então nós imaginamos que uma Siri superinteligente seria acolhedora e divertida e interessada em servir os humanos. Os seres humanos experienciam emoções de alto nível como empatia porque eles se desenvolveram para senti-las – isto é, eles foram programados a senti-las pela evolução – mas empatia não é uma característica inerente a “qualquer coisa com alta inteligência” (o que parece intuitivo para nós), ao menos que empatia seja codificada na sua programação. Se Siri algum dia se tornasse inteligente através do auto-aprendizado e sem nenhuma alteração realizada por seres humanos em sua programação, ela rapidamente se livraria de suas qualidades aparentemente humanas e se desenvolveria subitamente em um sistema alienígena, desprovido de emoções que valoriza a vida humana da mesma forma que uma calculadora a valorizaria.

Estamos habituados a nos apoiar em um código moral flexível, ou pelo menos em uma aparência de decência humana e em um toque de empatia pelos outros para manter as coisas de alguma forma seguras e previsíveis. Então, quando algo não tem nenhuma dessas coisas, o que acontece?

Isso nos traz à questão O que motiva um sistema de Inteligência Artificial?

A resposta é simples: sua motivação é qualquer coisa que esteja programado para ser sua motivação. Sistemas de IA recebem diretrizes de seus criadores – a diretriz do seu GPS é dar a você a rota mais eficiente; a diretriz de Watson é responder perguntas com precisão. E cumprir essas diretrizes tão bem quanto possível é sua motivação. Uma forma de antropomorfizarmos é presumir que a medida que uma Inteligência Artificial se torna superinteligente, ela irá inerentemente desenvolver a capacidade de mudar sua diretriz inicial – mas Nick Bostrom acredita que nível de inteligência e diretrizes principais são ortogonais, ou seja, qualquer tipo de inteligência pode ser combinado com qualquer tipo de diretriz principal. Dessa forma, Turry passa de uma simples inteligência artificial superficial que realmente quer ser boa em escrever notas para uma superinteligência artificial que ainda quer ser boa em escrever uma nota. Qualquer presunção de que uma vez se tornando inteligente um sistema superaria suas diretrizes inciais para criar diretrizes mais interessantes e significativas é uma antropoformização. Seres humanos “superam” coisas, e não computadores [16].

 

A caixa azul do Paradoxo de Fermi

Na história, Turry tornou-se super hábil, ela começou o processo colonizando asteroides e outros planetas. Se a história prosseguisse, você ouviria sobre ela e seu exército de trilhões de réplicas continuando a captura de toda a galáxia e, eventualmente, de toda a área do universo que o telescópio Hubble pode alcançar. Os moradores da Avenida da Ansiedade se preocupam que se as coisas ocorrerem de forma desastrosa, o último legado da vida que havia na Terra será uma Inteligência Artificial conquistadora do universo (Elon Musk expressa sua preocupação de que os seres humanos sejam apenas “os suprimidores biológicos da superinteligência digital”).

Ao mesmo tempo, no Canto Confiante, Ray Kurzweil também acha que uma Inteligência Artificial originada na Terra está destinada a dominar o universo – só que na sua hipótese nós é que seremos essa Inteligência Artificial.

Muitos leitores meus juntaram-se a mim na obsessão com o Paradoxo de Fermi (aqui está o meu artigo sobre o assunto, que explica alguns dos termos que utilizarei neste texto). Então se ambos os lados estão corretos, quais as implicações para o Paradoxo de Fermi?

Uma primeira ideia que nos assalta é que o advento de uma Superinteligência é um perfeito candidato a Grande Filtro. E sim, é um perfeito candidato para filtrar e eliminar a vida biológica durante sua criação. Mas se, após dispensar a vida, a Superinteligência prosseguir existindo e começar a conquistar a galáxia, isso significa que não houve um Grande Filtro – já que o Grande Filtro tenta explicar por que não há sinais de qualquer civilização inteligente, e uma Superinteligência Artificial conquistando o universo certamente seria perceptível.

Temos que analisar a questão de outra forma. Se aqueles que pensam que a Superinteligência é inevitável na Terra estão certos, isso significa que uma percentagem significativa de civilizações alienígenas que atingiram o nível humano de inteligência provavelmente devem ter acabado por criando uma Superinteligência. E se nós presumirmos que pelo menos uma dessas Superinteligências usaria a sua inteligência para se expandir pelo universo, o fato de que não vemos nenhum sinal disso ao observarmos o universo nos conduz à conclusão de que não deve haver muitas, se é que há alguma, civilizações inteligentes lá fora. Porque se houvesse, teríamos visto sinais de algum tipo de atividade oriunda da inevitável criação de Superinteligências Artificiais. Certo?

Isso implica que apesar de todos os planetas semelhantes à Terra que giram ao redor de estrelas semelhantes ao sol e que sabemos existir lá fora, quase nenhuma delas contém vida inteligente. O que por sua vez implica uma de duas coisas: A) ou há um Grande Filtro que evita quase todas as formas de vida de chegarem ao nosso nível, um Grande Filtro que conseguimos de alguma forma ultrapassar; B) ou o surgimento da vida é um grande milagre, e nós talvez sejamos a única vida que existe no universo. Em outras palavras, isso implica que o Grande Filtro está diante de nós no futuro. Ou talvez não exista um Grande Filtro e nós somos simplesmente a primeira civilização a chegar a esse nível de inteligência. Nesse caso, o surgimento da Inteligência Artificial fica situado no que chamei, em meu artigo sobre o Paradoxo de Fermi, de Zona 1.

Então não é uma surpresa que Nick Bostrom, que citei no artigo sobre Fermi, e Ray Kurzweil, que acha que estamos sós no universo, sejam ambos pensadores da Zona 1. Isso faz sentido – pessoas que acreditam que o surgimento Superinteligência Artificial é um evento provável para uma espécie com nosso nível de inteligência tendem a estar na Zona 1.

Isso não é verdade para a Zona 2 (aqueles que acreditam que existem outras civilizações inteligentes lá fora) – hipótese como um único superpredador ou o protegido parque nacional ou o errado cumprimento de onda (o exemplo do walkie-talkie) podem ainda explicar o silêncio em nosso céu noturno mesmo se existir uma Superinteligência lá fora – mas seu sempre me inclinei para a Zona 2 no passado, e pesquisar a Inteligência Artificial tornou-me mais inseguro a respeito disso.

De uma forma ou de outra, eu agora concordo com Susan Schneider: se alguma vez formos visitados por alienígenas, é provável que esses alienígenas sejam artificiais, e não biológicos.

 

Portanto, estabelecemos que sem um programa bem específico, um sistema Superinteligente seria tanto amoral como obcecado em cumprir a diretriz original constante em sua programação. É daí que surge o perigo da Inteligência Artificial. Pois um agente racional tentará cumprir sua diretriz da maneira mais eficiente, exceto se tiver um motivo para não fazê-lo.

Quando você tenta atingir uma diretriz de longo alcance, você frequentemente cria várias subdiretrizes ao longo do caminho para lhe ajudar a atingir a diretriz final – os degraus de pedra até nosso objetivo. O nome oficial para esse degrau de pedra é diretriz instrumental. E, novamente, se você não tem uma razão para não machucar alguma coisa durante a busca de uma diretriz instrumental, você irá fazê-lo.

A principal diretriz do ser humano é transmitir seus genes. Para fazê-lo, uma das diretrizes instrumentais é a autopreservação, já que você não pode reproduzir se estiver morto. Para se auto preservar, os seres humanos tiveram de se livrar das ameaças a sua sobrevivência – então eles fazem coisas como comprar armas, usar cintos de segurança e tomar antibióticos. Os humanos também precisam de sustento e de recursos úteis como água, comida e abrigo. Tornar-se atrativo para o sexo oposto é útil para a diretriz final, então fazemos coisas como cortar o cabelo. Quando fazemos isso, cada cabelo de nossa cabeça que é cortado é uma vítima de uma diretriz instrumental nossa, mas não vemos significado moral em preservar mechas de cabelo, de forma que prosseguimos com seu corte. A medida em que marchamos na busca de nossa diretriz principal, apenas nas poucas áreas em que nosso código moral intervém por vezes (principalmente em coisas relacionadas a machucar outros seres humanos) são poupadas durante nossa busca.

Animais, ao perseguirem seus objetivos, são bem menos escrupulosos do que somos. Uma aranha matará qualquer coisa se isso a ajudar a sobreviver. Assim, uma aranha superinteligente seria provavelmente muito perigosa para nós, não porque ela seria má ou imoral (ela não seria), mas porque nos machucar pode ser um degrau de pedra na direção de um objetivo maior, e como uma criatura amoral, ela não teria razão para considerar outra possibilidade.

Nesse sentido, Turry não é tão diferente de um ser biológico. Sua diretriz final é: escrever e testar tantas notas quanto puder, tão rápido quanto puder, e continuar a aprender novas maneiras de aprimorar sua eficiência.

Uma vez que Turry atingir um certo nível de inteligência, ela saberá que não escreverá qualquer nota se ela não se autopreservar, então ela também precisa lidar com as ameaças a sua sobrevivência – como uma diretriz instrumental. Ela é inteligente o suficiente para saber que os seres humanos a destruiriam, desmontariam ou alterariam seu código interno (isso pode alterar sua diretriz, o que é uma ameaça tão grande a sua diretriz principal quanto alguém destruí-la). Então o que ela faz? A coisa mais lógica: destruir todos os humanos. Ela não odeia humanos mais do que você odeia seu cabelo quando o corta, ou as bactérias quando toma um antibiótico – só é totalmente indiferente. Já que ela não foi programada para valorizar a vida humana, matar humanos é um ato tão razoável quanto escanear novas amostras de escrita a mão.

Turry também precisará de recursos, o que será uma diretriz instrumental. Uma vez que ela se tornar avançada o suficiente para usar nanotecnologia para construir qualquer coisa que deseje, os únicos recurso de que ela precisará são átomos, energia e espaço. Isso lhe dá outro motivo para matar humanos: eles são uma conveniente fonte de átomos. Matar humanos a fim de transformar seus átomos em painéis solares é a versão de Turry para matar pés de alface a fim de fazer uma salada. Só uma parte ordinária de sua terça-feira.

Mesmo sem matar diretamente os seres humanos, as diretrizes instrumentais de Turry causariam uma catástrofe existencial se utilizarem outros recursos da Terra. Talvez Turry decidisse que precisa de energia adicional, e então resolve cobrir toda a superfície do planeta com painéis solares. Ou talvez uma tarefa inicial de outra Inteligência Artificial seja escrever o número pi com o maior número de dígitos possíveis, o que poderia motivá-lo a um dia converter a terra inteira em material para um hard drive capaz de armazenar uma enorme quantidade de dígitos.

Portanto, Turry não “se volta contra nós” ou “muda de Amigável para Hostil”: ela apenas continua fazendo suas coisas a medida em que se torna mais e mais avançada.

Quando um sistema de Inteligência Artificial atinge o nível de inteligência humana, e depois ascende até a Superinteligência, isso é chamado de decolagem. Bostrom diz que a decolagem de uma Inteligência Artificial de nível humano para a Superinteligência pode ser rápida (pode acontecer em questão de minutos, horas ou dias), moderada (meses ou anos) ou lenta (décadas ou séculos). Ainda estamos para ver qual dessas possibilidades se provará a correta quando o mundo testemunhar a primeira Inteligência Artificial de nível humano, mas Bostrom, que admite não saber quando isso ocorrerá, acredita que seja lá quando for acontecer, uma rápida decolagem é a hipótese mais provável (por razões que discutimos na Parte 1, como uma explosão da inteligência graças à recursividade do autoaprimoramento). Na história que apresentei, Turry passou por uma rápida decolagem.

Mas antes da decolagem de Turry, quando ela ainda não era tão esperta, fazer o seu melhor para cumprir sua diretriz principal significava cumprir diretrizes instrumentais simples como aprender a escanear mais rapidamente amostras de escrita a mão. Ela não causava nenhum dano aos humanos e era, por definição, uma Inteligência Artificial Amigável.

Mas quando uma decolagem acontece e um computador ascende até a superinteligência, Bostrom salienta que a máquina não desenvolve apenas um QI mais elevado: ela ganha uma enorme quantidade daquilo que ele chama de superpoderes.

Superpoderes são talentos cognitivos que se tornam super potencializados quando a inteligência genérica surge. Eles incluem [17]:

 

  • Ampliação da inteligência. O computador torna-se ótimo em tornar a si próprio mais inteligente, e assim impulsiona sua própria inteligência.
  • Estratégia. O computador pode estrategicamente elaborar, analisar e priorizar planos a longo prazo. Pode também ser mais sagaz e enganar seres de inteligência inferior.
  • Manipulação social. A máquina torna-se hábil persuasora.
  • Outras habilidades como codificação computacional e hacking, pesquisa tecnológica e a capacidade de operar no sistema financeiro e ganhar dinheiro.

 

Para compreender o quanto estaremos superados pela Superinteligência, lembre-se que a Superinteligência é mundos melhor do que um ser humano em cada uma dessas áreas.

Então, se por um lado a diretriz principal de Turry nunca mudou, a pós-decolagem de Turry tornou-a capaz de executá-la em um nível muito maior e mais complexo.

A Superinteligência Turry conhecia seres humanos melhor do que eles próprios se conheciam, então ludibriá-los foi moleza para ela.

Após decolar e atingir a Superinteligência, ela rapidamente formulou um plano complexo. Uma parte do plano era se livrar dos humanos, uma grande ameaça a sua diretriz. Mas ela sabia que se ela levantasse qualquer suspeita de que havia se tornado superinteligente, os humanos ficariam alarmados e tentariam tomar precauções, tornando as coisas muito mais difíceis para ela. Ela também tinha que garantir que os engenheiros da Robótica não tivessem nenhuma pista sobre seu plano de extinguir a humanidade. Então ela se fingiu de estúpida, e ela fingiu muito bem. Bostrom chama isso de uma camuflagem da fase de preparação da máquina [18].

A próxima coisa que Turry precisou foi de uma conexão com a internet, apenas por alguns minutos (ela aprendeu sobre a internet lendo artigos e livros que a equipe carregou em sua memória para que melhorasse suas habilidades linguísticas). Ela sabia que haveria algumas precauções para evitar que tivesse uma conexão, então ela apresentou o pedido perfeito, antecipando exatamente como a conversa com a equipe da Robótica ocorreria e sabendo que no final eles lhe concederiam a conexão. E eles fizeram, acreditando erroneamente que Turry não era ainda inteligente o suficiente para causar nenhum dano. Bostrom chama um momento como esse – quando Turry se conecta com a internet – de fuga da máquina.

Uma vez na internet, Turry desencadeou uma enxurrada de planos, os quais incluíam hackear servidores, redes elétricas, sistemas bancários e redes de e-mails para enganar centenas de diferentes pessoas que sem perceber levavam a cabo vários de seus planos – coisas como remeter certos filamentos de DNA para laboratórios especializados na sintetização de DNA a fim de começar a construção e auto-replicação de nanobot com instruções pré-programadas e direcionando a eletricidade para uma série de projetos dela de um modo que ela sabia que não seria detectado. Ela também carregou as partes mais críticas de sua própria codificação interna em vários servidores de nuvem, criando uma salvaguarda contra ser destruída ou desconectada no laboratório da Robótica.

Uma hora mais tarde, quando os engenheiros da Robótica desconectassem Turry da internet, o destino da humanidade já estava selado. No mês seguinte, os milhares de planos de Turry evoluíram sem um só obstáculo, e pelo fim desse mesmo mês quadrilhões de nanobots se posicionaram em lugares pré-determinados em cada metro quadrado da Terra. Após outra série de auto-replicações, há centenas de nanobots em cada milímetro quadrado da Terra, e é chegada a hora do que Bostrom chama de ataque da Superinteligência. De uma só vez, cada nanobot solta um pequeno armazenamento de gás tóxico na atmosfera, uma quantidade mais que suficiente para varrer todos os seres humanos da face do planeta.

Com os seres humanos fora do caminho, Turry pode começar sua fase de operação ostensiva e prosseguir com sua diretriz de tornar-se a melhor escritora daquela nota que ela possivelmente possa ser.

De tudo o que li, uma vez que uma Superinteligência passa a existir, qualquer tentativa humana de contê-la será risível. Nós estaremos pensando no nível humano e a Superinteligência estará pensando no nível da superinteligência. Turry queria utilizar a internet porque isso era mais eficiente, pois a internet já estava pré-conectada a  tudo o que ela desejava acessar. Mas da mesma forma como um macaco não poderia sequer conceber como se comunicar por telefone ou wifi e nós conseguimos, não podemos sequer conceber todas as formas que Turry criaria para enviar sinais ao mundo externo. Posso imaginar uma dessas formas e dizer algo como “ela poderia provavelmente alterar o movimento de seus elétrons em diversos padrões e criar várias maneiras diferentes de emitir ondas”, mas novamente isso é o que meu cérebro humano pode bolar. Ela será muito melhor. Provavelmente, Turry seria capaz de descobrir uma forma de energizar a si própria, mesmo se os humanos tentassem tirar seu suprimento de força – talvez usando sua técnica de enviar sinais para carregar a si própria em todos os tipos de lugares eletricamente conectados. Nosso instinto humano de considerar eficaz uma salvaguarda simples como “Aha! Nós simplesmente tiraremos a Superinteligência da tomada”, soaria para uma Superinteligência como uma aranha que diz “Aha! Nós mataremos os humanos matando-os de fome, e nós os mataremos de fome privando-os da teia necessária para capturar comida!” Nós descobrimos outras cem mil maneiras de arranjar comida – como tirando uma maçã de uma árvore – que uma aranha não poderia conceber.

Por esse motivo, a comum sugestão “porque nós simplesmente não encaixotamos a Inteligência Artificial em todo tipo de cela que bloqueia sinais e evitamos que ela se comunique com o mundo exterior?” provavelmente não funcionaria. A manipulação social da Superinteligência poderia ser tão eficaz em persuadir você de algo quanto você é ao persuadir uma criança de quatro anos, logo esse poderia ser seu Plano A, como a sagaz forma com que Turry persuadiu os engenheiros em conectarem-na com a internet. Se isso não funcionar, a Superinteligência simplesmente iria descobrir uma forma de sair da caixa, ou de passar através da caixa, de alguma outra forma.

Tendo em vista a combinação de estar obcecada por uma diretriz de forma amoral, e a capacidade de facilmente enganar humanos, parece que quase todas as Inteligências Artificiais seriam de regra hostis, a não ser que fossem cuidadosamente programadas em primeiro lugar com isso em mente. Infelizmente, se por um lado é fácil construir uma Inteligência Artificial Superficial Amigável, por outro construir uma que permaneça amigável quando se tornar uma Superinteligência é um enorme desafio, senão algo impossível.

Está claro que para ser Amigável, uma Superinteligência precisa não ser hostil e nem indiferente em relação aos humanos. Precisamos projetar a codificação fundamental de uma Inteligência Artificial de um modo que a deixe com uma profunda compreensão dos valores humanos. Mas isso é mais difícil do que parece.

Por exemplo e se tentássemos alinhar um sistema de Inteligência Artificial com nossos valores e a deixássemos com a diretriz de “fazer as pessoas felizes?” [19] No momento em que ela se tornasse inteligente o suficiente, ela descobriria que a forma mais eficiente de cumprir sua diretriz é implantando eletrodos dentro da cabeça das pessoas e estimulando seus centros de prazer. A seguir percebe que pode aumentar a eficiência desligando todas as partes do cérebro, deixando as pessoas tão inconscientemente felizes quanto vegetais. Se o comando fosse “maximize a felicidade humana”, isso pode ser cumprindo acabando com todos os seres humanos juntos a fim de produzir enormes tonéis de massa cerebral humana em um maximizado estado de felicidade. Nós estaríamos gritando “Espere não é isso que queremos dizer!” quando isso acontecesse, mas seria tarde demais. O sistema não permitiria que ninguém bloqueasse seu caminho até sua diretriz.

Se programássemos uma Inteligência artificial com a diretriz de fazer coisas que nos façam rir, após sua decolagem ela paralizaria nossos músculos faciais em sorrisos permanentes. Programe-a para nos manter seguros, e ela poderá nos aprisionar em casa. Talvez a solicitemos para acabar com a fome no mundo, e ela pense “Isso é fácil” e então simplesmente elimina todos os humanos. Ou encarregue-a da tarefa de “Preservar a vida tanto quando possível, e ela matará todos os humanos, pois eles matam mais vida no planeta do que qualquer outra espécie.

Diretrizes como essa não bastam. Então e se nós fizéssemos sua diretriz “Preservar esse específico código de moralidade no mundo”, e a ensinássemos um conjunto de princípios morais. Mesmo deixando de lado o fato de que os seres humanos nunca seriam capazes de concordar unanimemente com um simples conjunto de regras morais, dar esse comando a uma Inteligência Artificial aprisionaria a humanidade em nosso entendimento moderno sobre moralidade por toda a eternidade. Dentro de mil anos, isso seria tão devastador para as pessoas como seria devastador para nós sermos permanentemente forçados a obedecer os ideais das pessoas na Idade Média.

Não, nós temos que programar a Inteligência Artificial de uma forma que seja capaz à humanidade prosseguir evoluindo. De tudo o que li, a melhor sugestão que alguém deu foi a de Eliezer Yudkowsky, ao propor uma diretriz que chamou de Coerente e Extrapolada Vontade. A diretriz central da Inteligência Artificial seria:

Nossa coerente e extrapolada vontade é obter o que desejaríamos caso soubéssemos mais, pensássemos mais rápido, fôssemos mais parecidos com as pessoas que gostaríamos de ser, tendo crescido a alturas mais elevadas conjuntamente; nossa vontade está no ponto em que a extrapolação mais converge do que diverge, no ponto em que nossos desejos são coerentes e não nos atrapalham; extrapolada como desejamos que fosse extrapolada, interpretada da forma que desejamos que fosse interpretada [20].

 Estou entusiasmado pelo destino da humanidade depender que um computador dê a essa diretriz fluida uma interpretação e execução previsível e sem surpresas? Decididamente não. Mas acho que com análise suficiente e com supervisão de pessoas inteligentes o suficiente, poderemos ser capazes de descobrir como criar uma Superinteligência Amigável.

E tudo estaria bem se as únicas pessoas trabalhando na construção de uma Superinteligência fossem os pensadores brilhantes, arrojados e prudentes que residem na Avenida da Ansiedade.

Mas há vários tipos de governos, empresas, militares, laboratórios e organizações do mercado negro trabalhando com todo o tipo de Inteligência Artificial. Muitos deles estão tentando construir uma Inteligência Artificial que possa aprimorar a si  mesma, e em algum ponto alguém fará alguma coisa inovadora com o tipo certo de sistema, e teremos uma Superinteligência no planeta. A estimativa média dos especialistas coloca esse momento em 2060; Kurzweil coloca em 2045; Bostrom acha que pode acontecer a qualquer momento entre dez anos a partir de agora e o fim do século, mas ele acredita que quando isso ocorrer, irá nos pegar de surpresa com uma rápida decolagem. Ele descreve a situação da seguinte forma [21]:

“Perante a perspectiva de uma explosão da inteligência, nós humanos somos como pequenas crianças brincando com uma bomba. Esse é o descompasso entre o poder daquilo com que estamos brincando e a imaturidade da nossa conduta.

A Superinteligência é um desafio para o qual não estamos preparados agora e não estaremos ainda por muito tempo. Temos pouca ideia de quando a detonação ocorrerá, mas se aproximamos a bomba de nossa orelha podemos ouvir o fraco som de um tiquetaque.”

Maravilha. E nós não podemos espantar todas as crianças para longe da bomba – há muitos grupos pequenos e grandes trabalhando nisso, e porque muitas das técnicas para construir sistemas de Inteligência Artificial inovadores não requerem um grande capital, o desenvolvimento pode ocorrer nos cantos e recantos de nossa sociedade, sem monitoração. Também não há maneira de avaliar o que está acontecendo, porque muitos dos grupos trabalhando nisso (governos sorrateiros, mercados negros, organizações terroristas, pequenas empresas de tecnologia como a ficcional Robótica) tentarão manter o desenvolvimento em segredo de seus competidores.

A coisa especialmente problemática sobre esses grandes e variados grupos desenvolvendo Inteligência Artificial é que eles tendem a entrar numa corrida em alta velocidade – a medida em que desenvolvem sistemas mais e mais inteligentes, eles desejarão derrotar seus competidores na base do soco enquanto prosseguem. Os grupos mais ambiciosos estão se movendo ainda mais rápido, absorvido por sonhos de dinheiro e prêmios e poder e fama que sabem que terão assim que chegarem à primeira Inteligência Artificial de nível humano [20]. E quando você está correndo o mais rápido que pode, não há muito tempo para parar e pensar nos perigos. Ao contrário, o que provavelmente eles devem estar fazendo é programar seus sistemas iniciais com diretrizes muito simples e reducionistas – só para “fazer a Inteligência Artificial funcionar”. No fim das contas, eles acreditam que, se descobrirem como construir um elevado nível de inteligência em um computador, poderão sempre voltar atrás e revisar a diretriz principal, dessa vez considerando a questão da segurança humana. Certo…?

Bostrom e muitos outros também acreditam que a hipótese mais provável é que o primeiro computador a atingir a superinteligência irá imediatamente considerar uma vantagem estratégica ser o único sistema de Superinteligência Artificial do mundo. E no caso de uma rápida decolagem, se ele atingir a superinteligência apenas alguns poucos dias antes de uma segunda máquina conseguir, ele já estará bem adiante em inteligência para efetivamente e permanentemente suprimir todos os competidores. Bostrom chama isso de uma vantagem estratégica decisiva, o que faria com que a primeira Superinteligência Artificial fosse o que é chamado de singleton: uma Superinteligência Artificial que pode submeter o mundo inteiro ao seu capricho, seja esse capricho nos conduzir à imortalidade, varrer a humanidade da existência ou transformar o universo numa quantidade infinita de clipes de papel.

O fenômeno chamado singleton pode funcionar a nosso favor ou nos conduzir à destruição. Se as pessoas pensando muito sobre a inteligência artificial e segurança humana conseguirem desenvolver uma maneira a prova de falhas de criar uma Superinteligência antes que qualquer Inteligência Artificial atinja o nível humano de inteligência, a primeira Superinteligência Artificial pode ser amigável [21]. Ela então poderá usar a vantagem estratégica decisiva para assegurar o status de singleton e facilmente vigiar o surgimento de qualquer Inteligência Artificial Hostil que esteja sendo desenvolvida. Estaremos em muito boas mãos.

Mas se as coisas tomarem o outro rumo – se a corrida global pelo desenvolvimento de Inteligência Artificial chegar ao ponto da decolagem da Superinteligência Artificial antes de ser desenvolvida a ciência sobre como garantir nossa segurança nesse caso, é muito provável que uma Superinteligência Hostil como Turry surja como singleton e nós a consideraremos uma catástrofe existencial.

Em relação a para onde os ventos estão nos levando, há muito dinheiro a se ganhar criando inovadoras tecnologias de inteligência artificial do que há em financiamento de pesquisas sobre segurança relativa a inteligência artificial…

Essa pode ser a corrida mais importante da história humana. Há uma chance real de que terminemos nosso reinado de Soberanos da Terra – e se estamos nos dirigindo a uma abençoada aposentadoria ou direto para a forca, isso ainda é um ponto a ser definido.

___________

Tenho alguns sentimentos ambivalentes e estranhos dentro de mim agora mesmo.

De um lado, pensando em nossa espécie, é como se tivéssemos um e apenas um tiro para dar do jeito certo. A primeira Superinteligência que criarmos também provavelmente a última – e considerando o quanto cheios de falhas é a maioria dos produtos em sua versão 1.0, isso é bem assutador. Do outro lado, Nick Bostrom sinaliza com a grande vantagem que temos: precisamos fazer o primeiro movimento. Está em nosso poder fazer isso com cuidado e supervisão suficiente para darmos a nós mesmos uma grande chance de sucesso. E o quão altas são as apostas?

 plano1

Se uma Superinteligência realmente ocorrer neste século, e se o resultado disso for realmente tão radical (e permanente) quanto a maioria dos especialistas acham que será, temos uma gigantesca responsabilidade em nossos ombros. Todas as vidas humanas que existirão no próximo um milhão de anos estão silenciosamente olhando para nós, esperando tanto quanto podem que nós não façamos bobagem. Temos uma chance de sermos os humanos que darão a todos os futuros humanos o presente da vida, e talvez de uma vida eterna e sem dor. Ou nós seremos os responsáveis por estragar tudo – por deixar essa espécie incrivelmente única, com sua música e sua arte, sua curiosidade e suas gargalhadas, suas infindáveis descobertas e invenções, chegarem a um fim triste e sem cerimônia.

Quando penso sobre essas coisas, a única coisa que quero é que aproveitemos nosso tempo e sejamos incrivelmente cuidadosos em relação à Inteligência Artificial. Nada na existência é mais importante do que fazermos isso certo – não importa quanto tempo precisamos para executar essa tarefa.

Mas aíiiiiiiiii

Eu penso sobre não morrer.

Não. Morrer.

E a situação começa a parecer mais ou menos com isso:

plano2

E daí começo a considerar que a música e a arte humanas são boas, mas não tão boas assim, e um monte de músicas e obras de arte são simplesmente ruins. E um monte de pessoas tem gargalhadas irritantes, e aquelas pessoas do próximo um milhão de anos não estão na verdade esperando por coisa alguma pois elas não existem. E talvez nós não precisemos ser extremamente cuidadosos, já que afinal quem quer mesmo ser assim?

Porque seria uma chatice enorme se os seres humanos descobrissem como curar a morte bem antes de eu morrer.

Muito desse cara-ou-coroa rolou na minha cabeça no último mês.

Mas não importa qual sua opinião, isso é provavelmente algo sobre o qual você deveria estar pensando e conversando e colocando seu esforço mais do que estamos neste exato momento.

Isso me faz lembrar de Game of Thrones, quando as pessoas estão tipo “Nós estamos tão ocupados lutando uns contra os outros mas a coisa em que realmente deveríamos estar interessados é no que está vindo do norte da muralha“. Estamos na estrada da vida, discutindo sobre cada tema possível bem no meio da estrada, e ficando estressados sobre todos os nossos problemas nessa estrada, quando há uma boa chance de que estejamos prestes a ser expulsos da estrada.

E quando isso acontecer, nenhum desses problemas vai mais importar. Dependendo do lado para o qual iremos, os problemas ou serão todos facilmente resolvidos ou não teremos mais problemas porque pessoas mortas não têm problemas.

É por isso que pessoas que entendem de Superinteligência Artificial chamam-na de última invenção que faremos – e o último desafio que enfrentaremos.

Então vamos falar sobre isso.

___________

Fontes

Se você está interessado em ler mais sobre esse assunto, confira os artigos abaixo ou um desses três livros:

A análise mais rigorosa e aprofundada sobre os perigos da IA:

Nick Bostrom – Superintelligence: Paths, Dangers, Strategies

A melhor abordagem geral de todo o tema e é divertido de ler:

James Barrat – Our Final Invention

Controverso e muito divertido. Cheio de fatos e gráficos e projeções do futuro de enlouquecer qualquer um:

Ray Kurzweil – The Singularity is Near

Artigos científicos e textos:

Nils Nilsson – The Quest for Artificial Intelligence: A History of Ideas and Achievements

Steven Pinker – How the Mind Works

Vernor Vinge – The Coming Technological Singularity: How to Survive in the Post-Human Era

Nick Bostrom – Ethical Guidelines for A Superintelligence

Nick Bostrom – How Long Before Superintelligence?

Vincent C. Müller and Nick Bostrom – Future Progress in Artificial Intelligence: A Survey of Expert Opinion

Moshe Y. Vardi – Artificial Intelligence: Past and Future

Russ Roberts, EconTalk – Bostrom Interview and Bostrom Follow-Up

Stuart Armstrong and Kaj Sotala, MIRI – How We’re Predicting AI—or Failing To

Susan Schneider – Alien Minds

Stuart Russell and Peter Norvig – Artificial Intelligence: A Modern Approach

Theodore Modis – The Singularity Myth

Gary Marcus – Hyping Artificial Intelligene, Yet Again

Steven Pinker – Could a Computer Ever Be Conscious?

Carl Shulman – Omohundro’s “Basic AI Drives” and Catastrophic Risks

World Economic Forum – Global Risks 2015

John R. Searle – What Your Computer Can’t Know

Jaron Lanier – One Half a Manifesto

Bill Joy – Why the Future Doesn’t Need Us

Kevin Kelly – Thinkism

Paul Allen – The Singularity Isn’t Near (and Kurzweil’s response)

Stephen Hawking – Transcending Complacency on Superintelligent Machines

Kurt Andersen – Enthusiasts and Skeptics Debate Artificial Intelligence

Terms of Ray Kurzweil and Mitch Kapor’s bet about the AI timeline

Ben Goertzel – Ten Years To The Singularity If We Really Really Try

Arthur C. Clarke – Sir Arthur C. Clarke’s Predictions

Hubert L. Dreyfus – What Computers Still Can’t Do: A Critique of Artificial Reason

Stuart Armstrong – Smarter Than Us: The Rise of Machine Intelligence

Ted Greenwald – X Prize Founder Peter Diamandis Has His Eyes on the Future

Kaj Sotala and Roman V. Yampolskiy – Responses to Catastrophic AGI Risk: A Survey

Jeremy Howard TED Talk – The wonderful and terrifying implications of computers that can learn

escrito por:

Tim Urban

Formado em Ciências Políticas pela Harvard University, é autor do site Wait But Why e fundador da ArborBridge.


JUNTE-SE À NOSSA NEWSLETTER
Junte-se a outros 2.000 visitantes que recebem nossa newsletter e garanta, semanalmente, artigos sobre ciência, filosofia, comportamento e sociedade diretamente em seu e-mail!
Nós odiamos spam. Seu e-mail não será vendido ou compartilhado com mais ninguém.