[Nota do tradutor: esta é a terceira parte do perturbador artigo de Tim Urban, traduzido do texto original com autorização do autor. Para compreender esta terceira parte, você precisa ler a primeira e a segunda. Vale MUITO a pena, isso eu garanto!]

“Nós podemos ter diante de nós um problema extremamente difícil com um prazo desconhecido para resolvê-lo, e do qual possivelmente todo o futuro da humanidade depende” – Nick Bostrom

Bem-vindo à Parte 3 da série “espere, como é possível que isso o que estou lendo não esteja sendo debatido por todo mundo ao meu redor?”.

Nas partes 1 e 2 apresentei o assunto de modo inocente o bastante, à medida em que abordamos a Inteligência Artificial Superficial, ou IAS (Inteligência Artificial especializada em uma única tarefa, como montar rotas para seu automóvel ou jogar xadrez), e como ela já está ao nosso redor no mundo atual. Depois nós examinamos como é um enorme desafio partir da IAS e chegar na Inteligência Artificial Ampla, ou IAA (Inteligência Artificial que é pelo menos tão intelectualmente capaz quanto um humano, em termos gerais), e discutimos por que a taxa exponencial de progresso científico que testemunhamos no passado sugere que a IAA pode não estar tão distante quanto parece. Na parte 2 terminei agredindo você com o fato de que, assim que nossas máquinas atingirem o nível de inteligência humana, elas poderão imediatamente fazer isso:

img1-3 img2-3 img3-3 img4-3

Isso nos deixa olhando para a tela, confrontando esse poderoso conceito de uma Superinteligência Artificial, ou SA (inteligência artificial que é muito mais esperta do que qualquer humano sem exceção), desenvolver-se possivelmente enquanto você ainda está vivo, e tentando descobrir qual emoção supostamente deveríamos sentir quando pensamos a respeito disso. [1]

Antes de nos aprofundarmos no tema, vamos lembrar o que significaria para uma máquina ser superinteligente.

Uma distinção fundamental é a diferença entre superinteligência em termos de velocidade e em termos de qualidade. Frequentemente, o primeiro pensamento que ocorre a alguém quando imagina computadores super espertos é uma máquina tão inteligente quanto um ser humano mas que pode pensar muito, muito mais rápido [2] – as pessoas pensam numa máquina que pensa como um ser humano, mas um milhão de vezes mais rápido, que pode resolver em cinco minutos um problema que um ser humano levaria uma década para solucionar.

Isso parece impressionante, e uma SA realmente pensaria muito mais rápido do que um ser humano – mas a verdadeira distinção entre ela e nós seria uma vantagem de inteligência em termos de qualidade, o que é algo completamente diferente. O que faz os humanos muito mais aptos intelectualmente do que os chipanzés não é uma diferença na velocidade de seu pensamento – é que o cérebro humano contém um número de módulos cognitivos sofisticados que permitem coisas como representações linguísticas complexas, planejamento a longo prazo ou argumentação abstrata – coisas que os chipanzés não conseguem fazer. Acelerar os processos cerebrais de um chipanzé em mil vezes não o alçaria ao nosso nível – mesmo com uma década para pensar, ele não seria capaz de descobrir como criar uma ferramenta personalizada ou montar um modelo intrincado, algo que um humano pode realizar em poucas horas. Há um mundo inteiro de funções cognitivas tipicamente humanas que um chipanzé simplesmente jamais poderia desenvolver, não importa por quanto tempo ele tentasse.

Mas não é só que o chimpanzé não pode fazer o que podemos, o que ocorre é que seu cérebro é incapaz de apreender até mesmo que esse mundo inteiro de funções cognitivas existem – um chimpanzé pode se familiarizar com o que um ser humano é e o que um arranha-céu é, mas ele nunca será capaz de entender que um arranha-céu é construído por seres humanos. Em seu mundo, tudo o que é muito grande é parte da natureza, ponto final, e não apenas está além do seu alcance construir um arranha-céu, está além do seu alcance perceber que alguém pode construir um arranha-céu. Esse é o resultado de uma pequena diferença de inteligência em termos de qualidade.

E no esquema do espectro de inteligência que estamos falando hoje, ou mesmo no muito inferior espectro de inteligência que há entre as criaturas biológicas, a distância de inteligência entre um chimpanzé e um humano é minúscula. Eu ilustrei o espectro de capacidade cognitiva biológica usando uma escadaria: [3]

img5-3

Para compreender o quão grande seria uma máquina superinteligente, imagine uma delas no degrau verde escuro que está a dois degraus acima do ser humano na escadaria. Essa máquina seria apenas ligeiramente superinteligente, mas sua capacidade de ampliar sua cognição acima de nós seria tão grande quanto a distância chimpanzé-humano que acabamos de descrever. E tal qual a incapacidade do chimpanzé em assimilar que arranha-céus podem ser construídos, nós jamais seremos capazes de até mesmo compreender as coisas que uma máquina no degrau verde escuro pode fazer, mesmo se a máquina tentasse explicar a nós – e nem vamos falar sobre sermos capazes de fazer tal coisa. E isso é apenas dois degraus acima de nós. Uma máquina no penúltimo degrau dessa escadaria seria para nós assim como somos para as formigas – ela tentaria por anos nos ensinar um mero lampejo do que ela sabe e essa tentativa seria inútil.

Mas o tipo de superinteligência de que estamos falando hoje é algo muito além de qualquer coisa nesta escadaria. Em uma explosão da inteligência (em que quanto mais inteligente a máquina fica mais ela é capaz de ampliar sua própria inteligência, até ela voar escadaria acima) uma máquina pode levar anos para ascender o degrau do chimpanzé para o degrau acima, mas talvez leve apenas horas para pular um degrau assim que estiver no degrau verde escuro acima de nós, e quando estiver dez degraus acima de nós, ela pode dar pulos de quatro degraus a cada segundo que passa. E é por isso que precisamos perceber que é realmente possível que, logo após ser divulgada a notícia sobre a primeira máquina que atingiu o nível de inteligência humana, poderemos estar encarando a realidade de coexistirmos na Terra com uma coisa que está no seguinte degrau da escadaria (ou talvez um milhão de vezes mais alto):

img6-3

E já que estabelecemos ser uma atividade inútil tentar compreender o poder de uma máquina que está a apenas dois degraus acimas de nós, vamos concretamente estabelecer de uma vez por todas que não há forma de saber o que uma Superinteligência Artificial faria ou quais seriam as consequências disso para nós. Qualquer um que acha que pode saber essas coisas simplesmente não compreendeu o que uma superinteligência significa.

A evolução fez o cérebro biológico evoluir lentamente e gradualmente ao longo de centenas de milhões de anos, e nesse aspecto, se a humanidade der nascimento a uma máquina com superinteligência, estaremos turbinando dramaticamente a evolução. Ou talvez isso seja parte da evolução – talvez a forma como a evolução funcione é que a inteligência engatinha e prossegue cada vez mais até atingir o nível em que é capaz de criar máquinas superinteligentes, e nesse nível é como um gatilho que aciona uma explosiva e mundial mudança nas regras do jogo que determinam um novo futuro para todas as coisas vivas:

img7-3

 

E por razões que discutiremos mais tarde, uma grande parte da comunidade científica acredita que não é uma questão de saber se iremos apertar esse gatilho, mas sim de quando. É o tipo de informação perturbadora.

Então onde isso nos deixa?

Bem, ninguém no mundo, especialmente eu, pode dizer a você o que acontecerá quando apertarmos esse gatilho. Mas Nick Bostrom, filósofo da Universidade de Oxford e especialista em Inteligência Artificial, acredita que poderemos dividir todos os possíveis cenários futuros em duas amplas categorias.

Em primeiro lugar, olhando para a história, podemos ver que a vida funciona dessa maneira: uma espécie surge, existe por algum tempo, e após certo período, inevitavelmente, ela acabará entrando em extinção e saindo da estrada da vida em nosso planeta:

 img8-3

“Todas as espécies em algum momento se extinguem” – essa é uma regra tão confiável ao longo da história quanto tem sido a regra “todos os humanos em algum momento morrem”. Até agora, 99,9% das espécies saíram da estrada da vida, e parece bem claro que se uma espécie continua trafegando nessa estrada, é apenas questão de tempo antes que seja derrubada por outra espécie, por uma rajada de vento da natureza ou por um asteróide que faz tremer a estrada. Bostrom chama a extinção de um estado atrativo – um lugar para o qual todas as espécies tendem a ir e da qual jamais retornam.

E enquanto a maioria dos cientistas com os quais me deparei reconhecem que uma Superinteligência Artificial teria a capacidade de enviar os seres humanos para a extinção, muitos acreditam que, usadas beneficamente, as habilidades da Superinteligência Artificial poderiam ser empregadas para levar os indivíduos humanos, e todas as espécies como um conjunto, para um segundo estado atrativo – a imortalidade das espécies. Bostrom acredita que a imortalidade das espécies é um estado tão atrativo quanto a extinção das espécies, isto é, se conseguirmos chegar lá, nós estaremos protegidos da extinção para sempre – teremos conquistado a mortalidade e conquistado o acaso. Então mesmo se todas as espécies até agora tenham saído da estrada da vida e tomado um desvio que as leva até a terra da extinção, Bostrom acredita que há dois desvios da estrada da vida e apenas acontece que até o momento nada no planeta foi inteligente o suficiente para descobrir como se desviar para o outro lado, o da imortalidade.

img9-3

Se Bostrom e outros pesquisadores estiverem certos (e por tudo o que tenho lido parece que podem estar), nós temos dois fatos bem chocantes para assimilar:

1) O advento de uma Superinteligência irá, pela primeira vez, abrir a possibilidade para uma espécie animal chegar na terra da imortalidade;

2) O advento de uma Superinteligência terá um impacto tão inconcebivelmente dramático que é provável que empurre a raça humana para fora da estrada da vida, em uma ou em outra direção.

Pode muito bem ser possível que, quando a evolução apertar esse gatilho, ela encerre permanentemente a relação dos seres humanos com a estrada da vida e crie um novo mundo, com ou sem seres humanos.

Parece que a única pergunta que atualmente um ser humano deveria estar fazendo é: quando nós vamos apertar esse gatilho e para qual lado da estrada da vida nós iremos quando isso acontecer?

Ninguém no mundo sabe com certeza a resposta para nenhuma das duas partes dessa questão, mas muitas das pessoas mais inteligentes dedicaram décadas a pensar a respeito. E nós iremos passar as próximas partes deste artigo explorando o que essas pessoas concluíram a respeito.

___________

Vamos começar com a primeira parte da questão: quando nós iremos apertar esse gatilho?

Ou seja, quanto tempo temos até que a primeira máquina alcance a superinteligência?

Não é nenhuma surpresa que as opiniões variam grandemente e esse é um debate acalorado entre cientistas e pensadores. Muitos, como o professor Vernor Vinge, o cientista Ben Goertzel, o co-fundador da Sun Microsystems Bill Joy, ou o famoso inventor e futurista Ray Kurzweil, concordam com o especialista em aprendizado computacional  Jeremy Howard quando ele apresenta este gráfico durante um TED Talk:

img10b-3

Essas pessoas aderem a crenças de que isso vai acontecer logo – de que o crescimento exponencial da tecnologia está acontecendo e que o aprendizado computacional, embora apenas esteja engatinhando neste momento entre nós, irá passar a toda velocidade por nós dentro das próximas poucas décadas.

Outros, como o co-fundador da Microsof, Paul Allen, o psicólogo e pesquisador Gary Marcus, o cientista computacional da New York University Ernest Davis, e o empreendedor tecnológico Mitch Kapor, acreditam que pensadores como Kurzweil estão subestimando enormemente a magnitude do desafio e acreditam que não estamos na verdade assim tão perto do gatilho.

O time de Kurzweil rebateria que a única coisa que está sendo subestimada é o crescimento exponencial da tecnologia, e eles comparam os céticos àqueles que olhavam o lento crescimento da internet em 1985 e argumentavam que não havia maneira de que isso representasse algo impactante no futuro próximo.

O time dos céticos pode argumentar de volta que o progresso necessário para haver avanços na inteligência artificial também cresce exponencialmente, e com maior força, a cada etapa subsequente, e isso irá cancelar a natureza tipicamente exponencial do progresso tecnológico. E assim por diante.

Um terceiro time, que inclui Nick Bostrom, acredita que nenhum dos outros dois times têm qualquer base para ter certeza sobre a linha do tempo e reconhece que (A) isso pode acontecer no futuro próximo e (B) não há garantia nenhuma a respeito, de modo que pode levar muito mais tempo.

Há ainda outros que, como o filósofo Hubert Dreyfus, acreditam que esses outros três times são ingênuos em acreditar que existe um gatilho, e argumentam que o mais provável é que a Superinteligência Artificial jamais seja atingida.

Então o que você obtém quando coloca todas essas opiniões juntas?

Em 2013, Vincent C. Müller e Nick Bostrom dirigiram uma pesquisa em que perguntaram a centenas de especialistas em inteligência artificial em uma série de conferências a seguinte questão: “Para os efeitos desta questão, presuma que a atividade científica humana continue sem significativas interrupções. Em que anos você antevê 10%, 50% e 90% de probabilidade de surgir uma Inteligência Artificial de Nível Humano (IANH) entre nós?” Foi solicitado que escolhessem um ano de forma otimista (um ano em que acreditavam que havia 10% de chance de termos uma IANH), uma estimativa realista (um ano em que acreditavam haver 50% de probabilidade de surgir uma IANH – ou seja, depois desse ano eles acreditavam que era mais provável termos uma IANH do que não termos), e uma estimativa segura (o ano mais próximo em que podem dizer que há 90% de certeza de que teremos uma IANH). Reunidas todas as respostas, estes foram os resultados [2]:

Ano otimista médio (10% de probabilidade): 2022

Ano realista médio (50% de probabilidade): 2040

Ano pessimista médio (90% de probabilidade): 2075

Então o participante médio pensa que é mais provável que improvável que tenhamos uma Inteligência Artificial de Nível Humano vinte e cinco anos a contar de agora. A resposta média de 90% de chance em 2075 significa que se você é um adolescente neste momento, segundo o participante médio da pesquisa e metade dos especialistas em Inteligência Artificial, é quase certo que uma IANH acontecerá durante seu tempo de vida.

Um outro estudo, conduzido recentemente pelo autor James Barrat na Conferência Anual sobre Inteligência Artificial de Ben Goertzel’s, deixou de lado os percentuais e simplesmente perguntou quando os participantes da Conferência achavam que a IANH surgiria – em 2030, 2050, 2100, depois de 2100 ou nunca. Esses são os resultados: [3]

Em 2030: 42% dos participantes

Em 2050: 25%

Em 2100: 20%

Após 2100: 10%

Nunca: 2%

Respostas bem parecidas com os resultados de Müller e Bostrom. Na pesquista de Barrat, mais de dois terços dos participantes acreditavam que a Inteligência Artificial de Nível Humano estará entre nós em 2050 e menos da metade deles previu uma IANH dentro dos próximos quinze anos. Também é significativo que apenas 2% daqueles que participaram da pesquisa não acreditam que a Inteligência Artificial de Nível Humano seja parte de nosso futuro.

Mas a Inteligência Artificial de Nível Humano não é o gatilho, e sim a Superinteligência. Então quando os especialistas acreditam que atingiremos a Superinteligência Artificial?

Müller e Bostrom também perguntaram aos especialistas o quão provável acreditam que chegaremos à Superinteligência Artificial assim que atingirmos a Inteligência Artificial de Nível Humano: A) dentro de dois anos após atingirmos a IANH (isto é uma quase que imediata explosão de inteligência), e B) dentro dos próximos 30 anos. Estes são os resultados [4]:

A resposta média estabelece ser 10% provável que ocorra uma transição rápida (2 anos), e 75% que ocorra uma transição de 30 anos ou pouco menos.

Com esses dados não sabemos qual tempo de transição a resposta média dos participantes consideraram como 50% provável, mas para o propósito especulativo, baseado nas duas respostas acima, vamos estimar que eles diriam 20 anos. Então a opinião média – aquela bem no centro do mundo dos especialistas em Inteligência Artificial – acredita que a estimativa mais realista para quando apertaremos o gatilho da Superinteligência Artificial é [a predição de 2040 para a IANH + nossas predição estimada de uma transição de 20 anos da IANH para a Superinteligência] = 2060.

img11-3

 

Claro, todas as estimativas acima são especulativas, e elas apenas representam a opinião média da comunidade de especialistas em Inteligência Artificial, mas isso nos diz que uma grande parte das pessoas que conhecem o principal sobre esse assunto concordam que 2060 é uma estimativa bem razoável para a chegada de uma Superinteligência Artificial potencialmente transformadora do mundo. São apena 45 anos a contar de agora.

Certo, agora e quanto a segunda parte da questão acima: Quando apertarmos o gatilho, em que lado da estrada da vida acabaremos?

A Superinteligência deterá um tremendo poder – e a questão crítica para nós é:

Quem ou o que estará no controle desse poder, qual será a sua motivação?

A resposta para essa pergunta determinará se a Superinteligência é um progresso inacreditavelmente maravilhoso, um inconcebível e terrível desenvolvimento, ou algo entre ambos.

Claro, a comunidade de especialistas também está metida em um debate acalorado em relação à resposta a essa questão. A pesquisa de Müller e Bostrom pediu aos participantes para estimar a probabilidade dos possíveis impactos que a Inteligência Artificial de Nível Humano teria na humanidade, e descobriram que a resposta média é que há 52% de probabilidade de que ela seja boa ou extremamente boa e 31% de chance de que seja má ou extremamente má. Para uma Inteligência Artificial de Nível Humano relativamente neutra, a probabilidade média é de apenas 17%. Em outras palavras, as pessoas que mais sabem a respeito do assunto estão bem seguras de que o impacto será enorme. Também é digno de nota que esses números se referem ao surgimento da Inteligência Artificial de Nível Humano – se a questão fosse sobre a Superinteligência Artificial, suponho que a percentagem do impacto neutro seria ainda menor.

Antes que nos aprofundemos nessa parte da questão sobre se será algo bom ou mal, vamos combinar as partes “quando vai acontecer?” e “será bom ou mal?” que compõem a pergunta em um gráfico que representa a percepção dos principais especialistas:

img12-3 copy

Falaremos sobre a Zona Principal em um minuto, mas primeiro – qual é o seu time? Na verdade eu sei qual é, porque é a mesma que a minha antes de eu começar a pesquisar esse tema. Eis algumas razões pelas quais as pessoas não estão realmente pensando sobre esse assunto:

  • Como mencionei na Parte 1, o cinema realmente confunde as coisas ao apresentar cenários fantasiosos sobre a Inteligência Artificial, fazendo com que achemos que esse não é um assunto para ser levado a sério. James Barrat compara essa situação à reação que teríamos se em nosso futuro o Ministério da Saúde divulgasse um aviso sério a respeito de vampiros [5].
  • Devido a uma coisa chamada viés cognitivo, temos muita dificuldade em crer que uma coisa é real até que vejamos uma prova. Estou certo de que os cientistas computacionais de 1988 conversavam com frequência sobre como a internet se tornaria provavelmente uma grande coisa, mas as pessoas não pensaram realmente que ela iria mudar suas vidas até que ela mudasse mesmo suas vidas. Isso em parte se deve ao fato de que computadores não podiam fazer muitas coisas em 1988, então as pessoas olhavam para o computador e pensavam “Sério? Isso é uma coisa capaz de mudar vidas?” A imaginação deles estava limitada por aquilo que a experiência pessoal lhes ensinou sobre o que um computador era, e isso tornou muito difícil imaginar claramente o que os computadores poderiam se tornar. A mesma coisa está acontecendo agora com a Inteligência Artificial. Nós ouvimos dizer que a coisa será grande, mas porque ela ainda não aconteceu, e temos uma vivência no mundo atual com Inteligências Artificiais relativamente impotentes, temos muita dificuldade em realmente acreditar que isso irá mudar nossas vidas dramaticamente. E é contra esses vieses que os especialistas estão lutando na medida em que estão desesperadamente tentando chamar nossa atenção através do barulho coletivo da auto-absorção.
  • E mesmo se acreditamos nisso, quantas vezes hoje você pensou sobre o fato de que gastará a maior parte da eternidade não existindo? Não muitas, certo? Mesmo que esse seja um fato muito mais importante do que qualquer outra coisa que você está fazendo hoje. Isso se deve ao fato de que nossos cérebros estão normalmente focados nas pequenas coisas da vida cotidiana, não importa o quão maluca seja uma situação a longo prazo que diz respeito a nós. É assim que somos programados.

Uma das metas dessa série de artigos é tirar você da Zona do Prefiro Pensar em Outras Coisas e colocar você na zona dos especialistas, ainda que você fique na exata intersecção das duas linhas pontilhadas no quadrado acima, a zona da total incerteza.

Durante minha pesquisa, eu cruzei com dúzias de opiniões distintas sobre esse assunto, mas rapidamente percebi que a opinião da maioria das pessoas cai em algum lugar daquilo que chamei de Zona Principal, e em particular, mais que três quartos dos especialistas caem em subzonas dentro da Zona Principal:

Nós daremos um mergulho profundo nessas diversas zonas. Vamos começar com a mais divertida:

Porque o futuro pode ser nosso maior sonho

À medida em que eu estudava o mundo da Inteligência Artificial, descobri um número surpreendentemente grande de pessoas nessa zona indicada pelo quadrado azul, o Canto Confiante:

img12-4 

As pessoas no Canto Confiante estão muito entusiasmadas. Elas tem suas visões situadas no lado divertido da estrada da vida e estão convictas de que é para lá que estamos indo. Para elas, o futuro será tudo o que elas poderiam esperar que fosse, e no tempo certo.

O que separa essas pessoas dos outros pensadores sobre os quais falamos antes não é seu desejo pelo lado feliz da estrada da vida – é sua confiança de que é nesse lado que iremos parar.

De onde vem essa confiança é algo que se pode discutir. Críticos acreditam que ela vem de uma excitação tão cega que essas pessoas simplesmente ignoram ou negam as consequências potencialmente negativas. Mas elas dizem que é ingênuo invocar cenários apocalípticos quando no final das contas a tecnologia tem nos ajudado e continuará nos ajudando muito mais do que nos prejudicando.

Iremos analisar ambos os lados, e você poderá formar sua própria opinião ao longo da leitura, mas para esta parte do texto, coloque seu ceticismo de lado e vamos dar uma boa e profunda olhada no que há no lado feliz da estrada da vida – e tentar assimilar o fato de que as coisas que você estará lendo podem mesmo acontecer. Se você mostrasse a um primitivo caçador-coletor nosso mundo de conforto doméstico, tecnologia e infinita abundância, tudo isso pareceria como mágica fictícia para ele – e temos que ser humildes o suficiente para reconhecer que é possível que uma transformação igualmente inconcebível esteja em nosso futuro.

Nick Bostrom descreve três formas pelas quais uma Superinteligência Artificial poderia funcionar: [6]

  • Como um oráculo, que responde a quase todas as questões propostas com precisão, incluindo questões complexas a que seres humanos não podem facilmente responder, tais como: Como posso produzir um motor veicular mais eficiente? O Google é um tipo primitivo de oráculo.
  • Como um gênio, que executa qualquer comando de alto nível que lhe é dado – Use um montador molecular para construir um novo e mais eficiente motor veicular – e depois espera pelo próximo comando.
  • Como soberano, ao qual é atribuída uma tarefa ampla e de solução livre, sendo-lhe permitido operar livremente no mundo, tomando suas próprias decisões sobre a melhor forma de agir – Invente uma forma de transporte humano privado que seja mais rápida, mais barata e mais segura do que os carros.

Essas questões e tarefas, que parecem complicadas para nós, pareceriam a um sistema superinteligente como se alguém lhe pedisse para juntar a caneta que caiu da mesa, o que você faria pegando a caneca e colocando de volta na mesa.

Eliezer Yudkowsky, um morador da Avenida da Ansiedade no quadro acima, resumiu isso bem:

“Não há problemas difíceis, apenas problemas que são difíceis para um certo nível de inteligência. Suba só um pouco o nível da inteligência e alguns problemas parecerão se transformar de “impossíveis” para “óbvios”. Suba um substancial degrau de inteligência e todos os problemas se tornarão de solução óbvia. [7]

Há muitos cientistas, inventores e empreendedores entusiasmados habitando o Campo Confiante – mas para um tour pelo lado mais brilhante do horizonte da Inteligência Artificial, há uma só pessoa que queremos como guia turístico.

Ray Kurzweil é do tipo polarizador. Em minhas leituras, encontrei tudo sobre ele, desde a idolatria a um semideus e às suas ideias até um girar de olhos de desprezo por elas. Outros estão em algum lugar no meio – autores como Douglas Hofstadter, ao discutir as ideias apresentadas pelos livros de Kurzweil, eloquentemente descreve que “é como se você pegasse um monte de comida boa e um pouco de excremento de cão e misturasse de tal forma que você não consegue distinguir o que é bom e o que é ruim” [8]

Goste você ou não de suas ideias, todos concordam que Kurzweil impressiona. Ele começou a inventar coisas como um adolescente e nas décadas seguintes ele apresentou várias invenções inovadoras, incluíndo o primeiro scanner de mesa, o primeiro scanner que converteu texto em voz (permitindo aos cegos lerem textos padronizados), o famoso sintetizador de música do Kurzweil (o primeiro piano elétrico de verdade), e o primeiro reconhecedor de voz de amplo vocabulário produzido em escala comercial. Ele é o autor de cinco best-sellers. Ele é conhecido por suas ousadas previsões e tem recorde muito bom de tê-las confirmadas – incluindo sua previsão no final da década de 1980, uma época em que a internet era uma coisa obscura, de que pelo início do próximo século ela se tornaria um fenômeno global. Kurzweil tem sido chamado de “gênio incansável” pelo The Wall Street Journal, “a máquina pensante definitiva” pela Forbes, “o herdeiro legítimo de Edson” pela Inc. Magazine, e “a melhor pessoa que conheço quando se trata de prever o futuro da inteligência artificial”, por Bill Gates [9]. Em 2012, o co-fundador da Google, Larry Page, procurou Kurzweil e convidou-o a ser o Diretor de Engenharia da Google [5]. Em 2011, ele foi co-fundador da Singularity University, que se situa na NASA e é financiada parcialmente pela Google. Nada mal para uma só vida.

Essa biografia é importante. Quando Kurzweil expõe sua visão do futuro, ele soa um completo pirado, e a coisa mais maluca é que ele não é pirado – ele é um homem extremamente inteligente, compreensível e relevante no mundo. Você pode pensar que ele está errado sobre o futuro, mas ele não é um idiota. Saber que ele é um cara respeitado me faz feliz, porque enquanto eu lia as suas previsões sobre o futuro, eu queria muito que ele estivesse certo. E você também. Quando você ouvir as previsões de Kurzveil sobre o futuro, muitas das quais compartilhadas por outros pensadores do Canto Confiante como Peter Diamandis e Ben Goertzel, não é difícil entender por que ele tem tantos seguidores entusiasmados – conhecidos como singularitarianos. Isso é o que ele acha que vai acontecer:

Linha do Tempo

Kurzweil acredita que computadores atingirão o nível de inteligência humana em 2029, e lá por 2045 nós não teremos apenas Superinteligência Artificial, mas um mundo completamente novo – um tempo que ele chama de singularidade. Sua linha de tempo da evolução da Inteligência Artificial costumava ser considerada ofensivamente exagerada, e ainda é vista assim por muitos [6], mas nos últimos 15 anos, o avanço rápido dos sistemas de Inteligência Artificial Superficial aproximou o grande mundo dos especialistas bem perto da linha do tempo de Kurzweil. Suas previsões ainda são um pouco mais ambiciosas do que a resposta média obtida na pesquisa de Müller e Bostrom (IAS lá por 2040, SA lá por 2060), mas não muito.

A descrição de Kurzweil para a singularidade de 2045 é caracterizada por três revoluções simultâneas em biotecnologia, nanotecnologia e – a revolução mais poderosa – em Inteligência Artificial.

Antes de prosseguirmos, como a nano tecnologia está relacionada com quase tudo o que você lerá sobre o futuro da Inteligência Artificial, vamos nos dedicar a essa caixa azul por um minuto para que possamos falar sobre isso:

CAIXA AZUL DA NANOTECNOLOGIA

A nanotecnologia é como chamamos a tecnologia que lida com a manipulação da matéria em termos de 1 a 100 nanômetros de tamanho. Um nanômetro é um bilionésimo de metro, ou um milionésimo de milímetro, e essa faixa de 1 a 100 abrange vírus (100 nanômetros), DNA (10 nanômetros) e coisas tão pequenas quanto as moléculas maiores tais como a hemoglobina (5 nanômetros) e moléculas médias como glucose (1 nanômetro). Se/quando nós conquistarmos a nanotecnologia, o próximo passo será a habilidade de manipular átomos individuais, que estão apenas um nível abaixo de magnitude (algo como 0,1 nanômetros).

Para entender o desafio que é seres humanos tentando manipular a matéria nessa faixa, vamos fazer a mesma coisa em uma escala maior. A Estação Espacial Internacional está a 431 quilômetros da Terra. Se os humanos fossem gigantes tão grandes que suas cabeças ultrapassassem a EEI, eles seriam 250.000 vezes maiores do que são agora. Se você fizer a faixa de 1 a 100 nanômetros aumentar de tamanho 250.000 vezes, você chega na faixa de 0,25 mm a 2,5 cm. Então a nanotecnologia é o equivalente a humanos tão altos quanto a EEI tentando descobrir como cuidadosamente construir objetos intrincados utilizando materiais entre o tamanho de um grão de areia e um globo ocular. Para atingir o nível seguinte – manipular átomos individuais – o gigante teria que posicionar cuidadosamente objetos que são 1/40 de um milímetro – tão pequenos que um ser humano de tamanho normal precisa de um microscópio para vê-los [8].

A nanotecnologia foi discutida inicialmente por Richard Feynman em uma palestra de 1959, quando ele explicou: “Os princípios da física, tão longe quanto podemos ver, não são contrários à possibilidade de manipularmos as coisas átomo por átomo. Seria, a princípio, possível a um físico sintetizar qualquer substância química que um químico descrever. Como? Coloque os átomos onde o químico diz, e você fará a substância.” É simples assim. Se você descobrir como mover moléculas ou átomos individuais, você pode fazer literalmente qualquer coisa.

A nanotecnologia tornou-se um campo sério pela primeira vez em 1986, quando o engenheiro Eric Drexler estabeleceu suas fundações em seu livro inaugural Engines of Creation, mas Drexler sugere que aqueles que desejam aprender mais sobre as modernas ideias em nanotecnologia encontrariam mais informações em seu livro de 2013, Radical Abundance.

CAIXA AZUL ESCURA DO GRAY GOO

Nós estamos em um desvio dentro de um desvio. Isso é muito divertido. [9]

De qualquer forma, eu trouxe você aqui porque há essa parte da nanotecnologia que é realmente nada divertida e da qual preciso falar. Em versões mais antigas da teoria da nanotecnologia, um dos métodos propostos para a nanomontagem envolvia a criação de trilhões de pequenos nanobots que trabalhariam conjuntamente para construir algo. Uma forma de criar trilhões de nanobots seria fazer um que poderia se auto-replicar e então deixar o processo de reprodução tornar esse único nanobot em dois, esses dois então em quatro, quatro em oito, e no dia seguinte teríamos alguns trilhões prontos para trabalhar. Esse é o poder do crescimento exponencial. Esperto, não é?

É esperto até que cause um enorme e completo apocalipse mundial por acidente. A questão é que o mesmo poder do crescimento exponencial que o faz super conveniente para rapidamente criar um trilhão de nanobots faz a auto-replicação uma perspectiva assustadora. Pois e se esse sistema de cópias falhar, e ao invés de interromper a replicação uma vez que se atinge alguns trilhões planejados, os nanobots continuarem a se replicar? Os nanobost consumiriam todo o material baseado em carbono para alimentar o processo de replicação, e infelizmente todas as formas de vida são baseadas em carbono. A biomassa da terra contém 10 na 45ª potência átomos de carbono. Um nanobot teria 10 na 6ª potência átomos de carbono, então 10 na 39ª potência nanobots consumiriam toda a vida na Terra, o que ocorreria após 130 replicações (2 na 130 potência é quase igual a 10 na 39 potência), quando então um oceano de nanobots (esse evento é chamado de Gray Goo) varreria o planeta. Os cientistas acham que um nanobot poderia replicar-se em 100 segundos, o que significa que um simples engano inconvenientemente acabaria com toda a vida na Terra em três horas e meia.

Um cenário ainda pior seria se um terrorista de alguma forma tivesse em suas mãos a tecnologia de um nanobot e o conhecimento para programá-lo, ele poderia criar inicialmente alguns trilhões deles e programá-los para silenciosamente levar uma semana para se espalhar igualmente ao redor de todo o mundo sem serem detectados. Então, eles atacariam a uma só vez, e levaria apenas 90 minutos para consumirem todas as coisas – e com eles espalhados, não haveria jeito de combatê-los [10].

Se por um lado essa história de terro tem sido amplamente debatida por anos, por outro as boas notícias é que pode ser um exagero – Eric Drexler, que cunhou o termo “gray goo”, enviou-me um email assim que publiquei esse artigo e falou sobre sua opinião sobre o assunto: “as pessoas adoram histórias aterrorizantes, e essa é do tipo zumbi – a ideia em si mesmo devora cérebros”.

Assim que dominarmos a nanotecnologia, poderemos usá-la para fazer ferramentas tecnológicas, roupas, comida e uma série de produtos relativos à biologia (células sanguíneas artificiais, pequenos destruidores de vírus ou células cancerígenas, tecido muscular, etc.)  – qualquer coisa, na verdade. E em um mundo que usa nanotecnologia, o custo de um material não estará mais vinculado à sua escassez ou à dificuldade de seu processo produtivo, mas sim pelo quão complicada é sua estrutura atômica. Em um mundo de nanotecnologia, um diamante pode ser mais barato do que uma borracha.

Ainda não chegamos lá. E não está claro se estamos subestimando, ou superestimando o quão difícil será chegar lá. Mas não parecemos estar muito longe. Kurzweil prevê que chegaremos lá na década de 2020 [11]. Os governos da Terra sabem que a nanotecnologia pode ser um desenvolvimento capaz de abalar o mundo, e eles estão investindo bilhões de dólares em pesquisa nanotecnológica (os EUA, a União Europeia e o Japão investiram até agora uma soma de 5 bilhões de dólares) [12].

Apenas considere os possíveis cenários se um computador superinteligente tiver acesso a um robusto montador em nanoescala. Mas a nanotecnologia é algo que nós inventamos, algo que estamos para dominar, e já que tudo que podemos fazer é uma piada para um sistema de Superinteligência Artificial, temos que presumir que esse sistema criaria tecnologias mais poderosas e avançadas do que o cérebro humano pode compreender. Por isso, quando consideramos o cenário de uma Superinteligência Artificial que seja benigna para nós, é quase impossível superestimar o que realmente pode acontecer – então se as previsões sobre o futuro da Superinteligência Artificial que serão apresentadas parecerem exageradas, tenha em mente de que elas podem ser concretizadas de modos que nem sequer podemos imaginar. Mais provavelmente, nossos cérebros não são capazes de prever as coisas que podem acontecer.

 

O que a Inteligência Artificial pode fazer por nós

 

img15-5
Fonte

Municiada com superinteligência e toda a tecnologia que uma superinteligência saberia como criar, uma SA provavelmente seria capaz de resolver todos os problemas da humanidade. Aquecimento global? A Superinteligência Artificial poderia primeiramente interromper a emissão de CO2 ao apresentar formas de produzir energia muito melhores do que com qualquer combustível fóssil. Daí a SA pode criar alguma forma inovadora de remover o excesso de CO2 da atmosfera. Câncer e outras doenças? Não é um problema para a SA – a medicina será revolucionada além da imaginação. Fome mundial? A SA pode usar coisas como nanotecnologia para construir carne do nada, que seria molecularmente idêntica à carne verdadeira – em outras palavras, seria carne real. A nanotecnologia poderia transformar uma pilha de lixo em uma enorme pilha de carne fresca ou outras comidas (as quais não precisariam ter sua forma original – imagine um cubo gigante feito de maçã) e distribuir toda essa comida ao redor do mundo utilizando sistemas de transporte ultra avançados. Claro, isso será ótimo para os animais, que não precisariam mais ser mortos pelos seres humanos, e uma Superinteligência Artificial poderia fazer um monte de outras coisas para salvar espécies em extinção ou mesmo trazer de volta espécies extintas ao trabalhar com DNA preservado. A Superinteligência Artificial pode até mesmo resolver nossos principais problemas mundiais – nossos debates sobre como a economia deve ser conduzida e como o comércio mundial deve ser facilitado, e pode desvendar até mesmo as questões mais espinhosas em filosofia ou ética – tudo isso pode ser incrivelmente fácil para uma SA.

Mas há uma coisa que a Superinteligência Artificial poderia fazer por nós que é tão tantalizante que ler sobre isso mudou tudo o que eu sabia sobre qualquer coisa:

A Superinteligência Artificial poderia nos permitir conquistar a nossa mortalidade.

Alguns meses atrás, mencionei minha inveja de supostas civilizações extraterrestres que conquistaram a sua mortalidade, e não imaginava que mais tarde poderia escrever um artigo que me fizesse realmente crer que isso é algo que os seres humanos poderão fazer dentro do meu tempo de vida. Mas ler sobre Inteligência Artificial fará você reconsiderar tudo sobre o qual você achava que tinha certeza – incluindo sua noção da morte.

A evolução não tem nenhum bom motivo para ampliar nossa expectativa de vida mais do que já temos agora. Se vivermos o tempo suficiente para nos reproduzirmos e criarmos nossos filhos até uma idade em que eles podem procriar eles próprios, isso é o bastante para a evolução – de um ponto de vista evolucionário, nossa espécie pode existir com uma expectativa de vida de trinta anos, então não há motivos para que mutações tendentes a garantir uma vida mais longa fossem favorecidas pelo processo de seleção natural. Como resultado, temos o que W. B. Yeats descrevia como “uma alma aprisionada em um animal moribundo”. [13] Isso não tem graça.

E porque todo mundo sempre morre, nós vivemos sobre a presunção estatística de que a morte é inevitável. Pensamos no processo de envelhecer como pensamos no tempo – ambos se movem e não há nada que você possa fazer para interrompê-los. Mas essa presunção é errada. Richard Feynman escreve:

“É uma das coisas mais notáveis que em todas as ciências biológicas não há nenhuma pista sobre a necessidade da morte. Se você me diz nós queremos movimento perpétuo, nós descobrimos leis durante o estudo da Física o suficiente para saber que isso ou é absolutamente impossível ou as leis da física estão erradas. Mas não há nada na biologia até agora que possa indicar a inevitabilidade da morte. Isso sugere para mim que ela não é inevitável afinal de contas, e é só uma questão de tempo até biólogos descobrirem o que está nos causando esse problema e então essa terrível doença universal ou temporariedade do corpo humano será curada.”

O fato é que o envelhecimento não está preso à passagem do tempo. O tempo continuará se movendo, mas o envelhecimento não precisa. Se você pensar a respeito, isso faz sentido. Todo o processo de envelhecimento é o material físico do corpo falhando. Um carro começa a falhar ao longo do tempo também – mas seu envelhecimento é inevitável? Se você consertar perfeitamente ou substituir as partes do carro sempre que uma delas começar a falhar, o carro funcionará para sempre. O corpo humano não é diferente disso – só é mais complexo.

Kurzweil fala sobre nanobots inteligentes e conetados via wifi circulando em nossa corrente sanguínea e que poderiam realizar inúmeras tarefas para garantir a saúde humana, inclusive reparar rotineiramente ou substituir células envelhecidas em qualquer parte do corpo. Se feito com perfeição, esse processo (ou outro mais inteligente a ser criado por uma Superinteligência Artificial), não manteria nosso corpo apenas saudável: isso poderia reverter o envelhecimento. A diferença entre um corpo de 60 anos e um corpo de 30 anos é apenas um conjunto de aspectos físicos que poderíamos alterar se tivéssemos a tecnologia. A Superinteligência Artificial poderia construir um “restaurador de idade” em que uma pessoa com 60 anos entraria e da qual sairia com o corpo e a pele de uma pessoa de 30 [10].

Mesmo o sempre confuso cérebro pode ser restaurado por algo tão inteligente quanto uma Superinteligência Artificial, que poderia descobrir como fazer isso sem afetar os dados do cérebro (personalidade, memória, etc). Uma pessoa de 90 anos sofrendo de demência poderia entrar no “restaurador de idade” e sair em forma e pronta para começar uma nova carreira. Isso parece absurdo – mas o corpo é só um conjunto de átomos e uma Superinteligência Artificial presumivelmente seria capaz de facilmente manipular todo o tipo de estrutura atômica – então não é um absurdo.

Kurzweil então dá um enorme passo adiante. Ele acredita que os materiais artificiais serão integrados ao corpo mais e mais à medida em que o tempo passa. Inicialmente, órgãos seriam substituídos por versões artificiais super-avançadas que funcionariam para sempre se jamais falhar. A seguir ele acredita que poderíamos começar a redesenhar o corpo – coisas como substituir os glóbulos vermelhos por nanobots que podem impulsionar seu próprio movimento, eliminando a necessidade de um coração de uma vez por todas. Ele até mesmo fala do cérebro e acredita que nós iremos aprimorar nossas atividades cerebrais ao ponto em que humanos serão capazes de pensar bilhões de vezes mais rápido do que fazem agora, e acessarão informação externas porque os complementos cerebrais adicionados ao cérebro serão capazes de se comunicar com todas as informações que estão na nuvem.

As possibilidades para a nova experiência humana são infinitas. Os seres humanos separaram o sexo de sua finalidade evolutiva, permitindo às pessoas fazerem sexo para se divertir, e não só para reproduzir. Kurzweil acredita que seremos capazes de fazer o mesmo com a comida. Nanobots se encarregarão de providenciar a nutrição perfeita para nossas células, conduzindo inteligentemente qualquer coisa nociva de forma que passe pelo corpo sem afetar nada. Uma camisinha para o ato de comer.

O teórico da nanotecnologia Rober A. Freitas já projetou células sanguíneas que, se algum dia forem implementadas no corpo, permitirão a um ser humano mergulhar por 15 minutos sem respirar – então você pode só imaginar o que uma Superinteligência Artificial poderia fazer com nossas capacidades físicas. A realidade virtual teria um novo significado: nanobots em nosso corpo poderiam suprimir as informações vindas de nossos sentidos e substituí-las por outros sinais que nos colocariam inteiramente em um novo ambiente, um em que poderíamos ver, ouvir, sentir e cheirar.

Em algum momento, Kurzweil acredita que os seres humanos chegarão ao ponto em que serão inteiramente artificiais [11]; uma época em que olharemos para o material biológico e pensaremos em como inacreditavelmente primitivo era nós sermos constituídos por aquilo; uma época em que leremos sobre os estágios iniciais da história humana, quando micróbios ou acidentes ou doenças ou quebrar e rasgar poderiam simplesmente matar seres humanos contra sua própria vontade; uma época em que a Revolução da Inteligência Artificial poderia acabar na fusão entre seres humanos e a Inteligência Artificial [12]. É desse jeito que Kurzweil acredita que iremos conquistar definitivamente nossa biologia e nos tornar indestrutíveis e eternos – essa é sua visão a respeito do outro lado da estrada da vida. E ele está convencido de que chegaremos lá. E em breve.

Você não ficará surpreso ao saber que as ideias de Kurzweil atraem críticas significativas. Sua previsão da singularidade em 2045 e a subsequente possibilidade de vida eterna para os humanos tem sido ironizada como “o arrebatamento dos nerds” ou “design inteligente para pessoas com QI 140”. Outros questionam sua linha do tempo otimista, ou seu nível de conhecimento do corpo e do cérebro, ou sua aplicação do padrão descrito pela Lei de Moore, que é aplicada ao progresso em hardware até abranger amplamente outras coisas, inclusive software. Para cada especialista que fervorosamente acredita que Kurzweil está certo, há provavelmente três que acham que ele está bem equivocado.

Mas o que me surpreende é que a maioria dos especialistas que discordam dele não discordam realmente de que tudo o que ele diz é possível. Ao ler uma tal arrojada visão do futuro, eu esperava que seus críticos dissessem: “Obviamente coisas desse tipo não podem acontecer”. Mas ao invés disso eles dizem: “Sim, tudo isso pode acontecer se houver uma transição segura para a Superinteligência Artificial, mas essa é a parte difícil”. Bostrom, uma das vozes mais proeminentes nos prevenindo sobre os perigos da Inteligência Artificial, ainda reconhece:

“É difícil pensar em qualquer problema que a superinteligência não possa resolver ou que não possa nos ajudar a resolver. Doença, pobreza, destruição ambiental, sofrimentos desnecessários de todos os tipos: essas são as coisas que uma superinteligência equipada com nanotecnologia avançada seria capaz de eliminar. Além disso, a superinteligência poderia nos dar uma expectativa de vida infinita, seja parando e revertendo o processo de envelhecimento através do uso da nanomedicina, ou nos oferecendo a opção de realizar o upload de nós próprios. Uma superinteligência poderia também criar oportunidades para nós ampliarmos enormemente nossas capacidades emocionais e intelectuais, e ela poderia nos ajudar a criar um mundo de experiências altamente atrativas, no qual poderíamos devotar nossas vidas ao deleite de jogar, nos relacionar com as outras pessoas, ter vivências, crescer pessoalmente e viver mais próximos de nossos ideais.”

Isso é uma citação de alguém que não está no Canto Confiante, mas é com isso que me deparei: especialistas que criticam Kurzweil por um punhado de motivos mas que não acham que o que ele diz é impossível se nós fizermos uma transição segura até a Superinteligência Artificial. É por isso que achei as ideias de Kurzweil tão contaminantes – porque elas articulam o lado luminoso dessa história e porque elas são na verdade possíveis. Se a Inteligência Artificial for um bom deus.

As mais significativas críticas que li a respeito dos pensadores que estão no Canto Confiante é que eles podem estar perigosamente errados em sua avaliação sobre os aspectos negativos de uma Superinteligência Artificial. O famoso livro de Kurzweil, A Singularidade está Próxima, tem mais de 700 páginas e dedica cerca de 20 para analisar os perigos em potencial. Eu sugeri antes que nosso destino quando esse colossal novo poder nascer estará nas mãos de quem controlar esse poder e em qual será sua motivação. Kurzweil responde essas duas questões da seguinte forma:

“A Superinteligência Artificial emergirá de muitos esforços distintos e estará profundamente integrada à infraestrutura de nossa civilização. De fato, ela estará intimamente embebida em nossos corpos e cérebros. Desse modo, ela refletirá nossos valores porque ela será nós próprios.”

Mas se essa é a resposta, por que tantas das pessoas mais inteligentes do mundo estão preocupadas com isso? Porque Stephen Hawking disse que o desenvolvimento da Superinteligência Artificial “poderá ser o fim da raça humana” e Elon Musk teme que estejamos “invocando o demônio”? E por que tantos especialistas no assunto consideram a Superinteligência Artificial a maior ameaça à humanidade? Essas pessoas, e outros prensadores na Avenida da Ansiedade, não aceitam a desconsideração de Kurzweil em relação aos perigos da Inteligência Artificial. Elas estão muito, muito preocupadas com a Revolução da Inteligência Artificial, e elas não estão focando no lado divertido da estrada da vida. Elas estão ocupadas demais olhando para o outro lado, onde elas vêem um futuro aterrorizante, um do qual não estão tão certas de que escaparemos.


Leia a última e quarta parte dessa empolgante e perturbadora jornada, CLIQUE AQUI.

escrito por:

Tim Urban

Formado em Ciências Políticas pela Harvard University, é autor do site Wait But Why e fundador da ArborBridge.