Há uma discussão fascinante acontecendo em alguns dos meus blogs favoritos, sobre as implicações morais emergenciais acerca de uma hipotética inteligência artificial avançada: devemos conceder direitos morais para máquinas conscientes?

Como seremos capazes de adaptar nossas estruturas éticas nelas?

Eu me envolvi nesse dilema através de Peter Hankins, enquanto a maioria da discussão estava acontecendo no blog de Scott Bakker, já envolvidos em um diálogo permanente com Eric Schwitzgebel.

O consenso geral é que a perspectiva da inteligência artificial vai ter um impacto perturbador sobre o nosso raciocínio moral, porque irá causar problemas sem precedentes e, assim, expor a estreiteza antes oculta sobre a nossa compreensão atual.

Para Bakker, isso iria quebrar muito de nossos sistemas morais, e deixar alguns dos valores morais “padrões” em ruínas. Enquanto eu lia os posts de Hankins, me peguei pensando: “Opa, Hankins está construindo um caso pró-utilitarista? Isso seria uma reviravolta inesperada!”.

Na verdade, Hankins não estava, mas a impressão que eu tinha me manteve com uma imaginação fértil.

O meu primeiro comentário sobre o assunto sugere o seguinte: uma AI inteligente, bem como inteligências extraterrestres, ou a perspectiva da mesma, de fato, expõe os limites do nosso raciocínio moral típico, mas isso pode ser visto como uma oportunidade para fazer algum progresso, e não precisa ter um resultado exclusivamente destrutivo.

A minha posição é motivada por dois fluxos conectados de pensamentos.

  1. Estou muito bem consciente das limitações do conhecimento humano, não é uma surpresa para os meus leitores regulares, e estou constantemente irritado com muitas reivindicações arrogantes que tentam usar o argumento da racionalidade.Sim, o pensamento crítico, o ceticismo e rigor são as nossas melhores ferramentas para descobrir como navegar em nossas vidas, mas a retórica da racionalidade, ou como chamo “racionalidade Fetish”, realmente me dá nos nervos.Somos imperfeitos montes de carne, nossas habilidades cognitivas são limitadas, e podemos ter delírios de grandeza como uma ferramente de escape, devido ao fato de que os nossos próprios limites são invisíveis para nós.

    Portanto, qualquer coisa que faça nossos limites visíveis é bem-vinda para mim. Especialmente a especulação sobre eventos futuros, possivelmente prejudiciais.

  2. Eu acredito que nós precisamos encontrar rapidamente uma nova maneira de compreender e gerenciar o nosso lugar no mundo. Isso é porque a nossa rota atual está gerando riscos existenciais (devido ao nosso efeito sobre a biosfera), e a ciência pode ser capaz de nos ajudar se e somente se nós reconhecermos os seus limites.Devemos perceber rapidamente que não somos capazes de prever as consequências não intencionais de nossas ações, e devemos começar a desenvolver maneiras de conceber soluções que são especificamente projetadas de forma que reduzam a possibilidade de terem um resultado negativo.Assim, qualquer coisa que exponha nossas limitações intrínsecas é bem-vinda: obrigando-nos a encontrar soluções alternativas, em vez de acelerar em direção à auto-destruição.

    Temo que há uma corrida acontecendo: de um lado, nossas ações coletivas estão produzindo mudanças globais (poluição, aquecimento, queda da biodiversidade, etc.) e, se não for controlada, essa tendência está suscetível a gerar conseqüências terríveis.

    Por outro lado, estamos aprendendo muito de como os seres humanos funcionam, sobre a evolução e os ecossistemas e é possível que esse conhecimento vá finalmente permitir que nos auto-regulemos e paremos de pôr em causa a nossa própria existência.

    O que eu estou fazendo aqui é a minha própria pequena tentativa de facilitar esse processo.

Neste contexto, a minha reação precipitada foi:

Sermos colocados à frente de um caso que expõe claramente as nossas limitações intelectuais pode ser útil para aprendermos a superá-las. Isso talvez contrarie muitos de nossos conceitos filosóficos, mas se produzirá um resultado negativo, depende de nós.

Meu comentário foi então pego por Schwitzgebel e Bakker, e ambos, de direções opostas, colocaram a questão: se houver um caso positivo a ser feito, o que seria isso?

Boa pergunta! O que se segue é a minha resposta provisória, enriquecida com uma consideração adicional fundamental, que é o ponto que eu realmente gostaria de fazer.

 

A SOLUÇÃO PARA AS MÁQUINAS CONSCIENTES

Então, qual é a resposta? Em uma palavra: utilitarismo.

Mas o utilitarismo inteligente, informado e consciente de si mesmo, que acontece de ser muito diferente de como o utilitarismo é geralmente percebido. Mas estou me adiantando, então agora voltarei para a discussão original.

O argumento principal é: pegue uma inteligência que é radicalmente diferente da nossa, que pode pensar, perceber e sentir de formas que não podemos de início compreender, ou pode ter habilidades que nos jogam fora de equilíbrio de maneira prática.

Hankins dá o exemplo de software de controle robótico que pode ser replicado, backupado, restaurado e transferido à vontade.

Apenas a imaginação limita a nossa capacidade de propor situações desafiadoras: o que acontece quando uma única inteligência está espalhada por uma infinidade de agentes e fatores que podem se subdividir, criando mais possibilidades ao apertar de um botão?

Como podemos sequer começar a descobrir quais são os direitos fundamentais que devem ser concedidos a uma entidade desse tipo?

Homem sentado em um sofá encara um holograma de inteligência artificial.
Cena do filme “Her”, em que um homem desenvolve uma relação íntima e amorosa com uma inteligência artificial, com voz feminina e alta personalidade. Como raciocinar moralmente?

Para mim, a resposta é simples na teoria e muito difícil na prática: precisamos descobrir as consequências de estratégias alternativas, que se esforçam para avaliar, de forma tão objetiva quanto possível, o resultado que produzirá o máximo de benefícios e minimizará os danos.

Este é o pensamento utilitarista standard, e tenho certeza que vai fazer muitas pessoas se frustrarem, porque é sabido que a perspectiva utilitarista leva rapidamente à dificuldade de aprovar conclusões, tais como a obrigação moral de doar a maior parte de nosso dinheiro e, possivelmente, um rim e pulmão.

O que leva a meu ponto principal: tais conclusões utilitárias são falhas, superficiais e, em geral, imperdoavelmente estúpidas.

O utilitarismo clássico é inútil porque ignora o quanto é difícil prever as consequências das nossas decisões. Em outras palavras, os típicos “deveres” utilitários estão errados, porque:

  1. São baseados em premissas erradas. Nós não sabemos o que torna os seres humanos enganadores, e o que realmente nos faz prosperar. Nós não sabemos exatamente como outros organismos sofrem ou se alegram-se de forma semelhante ou comparáveis ​​aos seres humanos.Sem esse conhecimento, como podemos esperar sermos capazes de avaliar qual resultado final é melhor que os outros?
  2. Continuamos a subestimar nossa ignorância e a consequente imprevisibilidade do futuro. 

    Meu ponto acima menciona algumas incógnitas conhecidas, e eu aposto que há pelo menos tantas incógnitas desconhecidas que têm importância significativa em geral (não necessariamente restritas aos seres humanos) de bem-estar.Como podemos esperar fazer previsões significativas em face de tal completa ignorância?

  3. Precisamente: o mundo é complexo, repleto de caos. Mesmo se pudéssemos medir nosso conhecimento e todas as variáveis ​​relevantes (nunca fizermos isso, e muito provavelmente nunca faremos), vamos ter sempre um horizonte de previsibilidade, um momento no futuro em que a nossa capacidade de prever o que vai acontecer não é melhor que o acaso.Previsões de (totalmente compreensíveis) comportamentos caóticos dependem da precisão das nossas medidas do estado atual – quanto mais caótico for um sistema, com mais precisão ele se tornará importante.

Assim, sabemos a partir do início que é impossível tomar decisões utilitárias em bases sólidas – o utilitarismo perfeito é uma meta inatingível que só podemos tentar nos aproximar.

Nossa escolha ideal deve ser, por definição, aquela que maximiza os benefícios, mas sabemos que só podemos prever benefícios até um certo ponto no futuro.

Além disso, fora de alguns campos científicos muito estreitos, também sabemos que o nosso conhecimento atual é incompleto: não sabemos quais variáveis ​​têm efeitos significativos, não sabemos quais os efeitos que são gerados pelas variáveis ​​que suspeitamos que são importantes e temos nenhuma ideia das diferentes maneiras em que as variáveis ​​independentes podem interagir.

Conclusão provisória: pensar sobre inteligências artificiais e alienígenas nos leva a concluir que apenas o quadro utilitarista poderia nos ajudar a navegar a paisagem moral resultante. No entanto, ao mesmo tempo, devemos também reconhecer que é extremamente difícil, se não impossível, basear julgamentos utilitários em provas sólidas.

Sabemos muito pouco, e nossa capacidade de compreender e prever as consequências das nossas escolhas é fortemente limitada.

Neste ponto, estou re-afirmando apenas as conclusões de Bakker: estamos condenados, e a simples perspectiva de novas formas de inteligência é suficiente para mostrar que todos os nossos quadros morais estão quebrados (não pode ser generalizado), até mesmo a nossa melhor opção é garantida que não funcionará.

No entanto, um caso positivo pode ser proposto, e vem devido à boa e velha evolução, em mais de uma maneira.

 

PRECISAMOS CONHECER A NÓS MESMOS

Em primeiro lugar, para construir um quadro utilitarista decente que, pelo menos, seus proponentes sejam capazes de seguir, precisamos conhecer a nós mesmos.

A psicologia evolutiva, a etologia e a ciência cognitiva são campos cruciais que temos de investigar, a fim de preencher as lacunas conhecidas em nosso conhecimento.

Precisamos responder a perguntas como: o que torna uma entidade consciente? O que torna uma entidade “racional”? O que faz nós (humanos) prosperar? Como outros organismos conscientes e (hipoteticamente) AIs conscientes podem prosperar?

Sem nenhuma dessas respostas, e devido ao fato de que atualmente não temos nenhum consenso sobre respostas às questões acima, nenhum quadro utilitário pode sequer começar a ganhar credibilidade.

 

PRECISAMOS ENTENDER NOSSAS DISPOSIÇÕES MORAIS

Em segundo lugar, precisamos compreender nossas próprias disposições morais.

Eu escrevi antes que as nossas intuições morais vêm com um (auto-gerado) sentimento de justiça. Esta e outras observações de nossas disposições morais são importantes porque identificam limites que restringem quais soluções podem ser eficazes.

Propor soluções impossivelmente utópicas, como “você deve amar e fornecer recursos para perfeitos estranhos exatamente como você ama e fornece para os seus próprios filhos” não vai funcionar, todos nós sabemos disso, mas a maioria de nós não reconhece que essa não é uma objeção ao utilitarismo, é uma objeção contra a ingenuidade, um utilitarismo “superficial”.

 

PRECISAMOS EXTRAIR LIÇÕES DA MORALIDADE EXISTENTE

Em terceiro lugar, precisamos aprender lições importantes de nossas disposições morais existentes.

Por quê? Porque elas evoluíram ao longo de milhões de anos e, portanto, nós sabemos que, pelo menos, elas têm sido eficazes para garantir o sucesso reprodutivo de todos os nossos antepassados. Cada um!

Nascemos com uma bagagem de conhecimento acumulado imperfeito, mas que é necessariamente resistente: se quisermos conceber melhores soluções, a nossa melhor aposta é começar com uma sólida compreensão dos mais conhecidos, já existentes.

Por exemplo, sabe-se bem que somos inclinados a usar “dois argumentos básicos” em nossos julgamentos morais, e há razões para isso, mesmo que a prática voe na cara do racionalismo ingênuo.

Também: todos nós somos tendenciosos em julgar omissões como menos execráveis do que ações prejudiciais ativamente, isso de novo parece ser irracional, mas eu suspeito que fornece a longo prazo e/ou vantagens em toda a gama de formas indiretas.

Da mesma forma, as inclinações que produzem quadros como a deontologia, ética da virtude e perspectivas semelhantes não são, neste ponto de vista, incompatíveis com o utilitarismo adequado: elas representam características heurísticas úteis (valores morais) que nos permitem evitar de cometer erros catastróficos.

Devemos aprender o que faz com que essas heurísticas sejam eficazes, e assim ajustá-las e melhorá-las, e não jogá-las para fora da janela.

 

PRECISAMOS EXPLORAR SOLUÇÕES NATURAIS

Quarto e último: para gerar boas e sólidas soluções não-frágeis, precisamos explorar a bagagem de soluções heurísticas que a seleção natural nos proporcionou até agora.

Mas não devemos parar por aqui, porque todos os algoritmos heurísticos têm uma falha bem conhecida e inevitável: eles são propensos a cometer erros sistemáticos em circunstâncias particulares.

Isso nos traz de volta ao argumento original: a perspectiva de que uma AI forte é o suficiente para expor a estreiteza, superficialidade ou localidade de nossas atuais inclinações heurísticas.

Isso, porém, não significa que as abordagens morais devem ser rejeitadas, pelo contrário, num mundo imprevisível, onde é garantido que todas as nossas ações podem normalmente produzir consequências não intencionais, a nossa melhor aposta é a concepção do novo, de provavelmente, definir o respectivo domínio de aplicação de regras diferentes, e aplicar o que é adequado a um determinado caso. Tudo feito com o objetivo específico de minimizar a exposição a riscos catastróficos.

Isso no final fornece alguma indicação sobre como construir uma perspectiva positiva: precisamos de um conjunto de truques não frágeis e utilitários.

O que não podemos resgatar é a sensação acarinhada de que nossos julgamentos morais são auto-evidentes e obviamente certos. Eles não são, e só parece que são por causa da nossa história evolutiva.


Sugestões de leitura e créditos

Este post é uma reação relativa que correu durante uma discussão em curso; em linha com as minhas próprias aspirações, ele tenta fazer o meu argumento acessível a não especialistas. Meus próprios pensamentos têm sido naturalmente influenciados por muitos dos trabalhos que eu linko abaixo.

  1. Quanto mais erudita você for, você pode verificar o recente artigo de Michael Price que fala mais ou menos sobre o meu ponto, apoiado por alguma (pesada) bibliografia.
  2. Sobre utilitarismo com uma torção evolutiva, e suas próprias limitações, você pode querer começar a partir deste excelente review de Thomas Nagel, sobre Joshua Greene – as Tribos Morais.
  3. Uma boa crítica ao utilitarismo ingênuo também é fornecida por Julian Savulescu no blog Ética Prática (links ao paper associado).
  4. Você também pode querer rastrear o debate sobre o manifesto utilitário de Peter Singer: A Criança Afogando e o Círculo em Expansão.
  5. Finalmente, Alexander Yartsev está escrevendo uma série de posts no TheEGG sobre moralidade e psicologia evolutiva, que complementa bem as minhas próprias contribuições aqui.

Gostou? Então seja patrono do AZ para mais artigos como este.
CLIQUE AQUI e escolha sua recompensa.


Newsletter AZ | sabedoria budista


Você pode querer ler também:

A Revolução da Inteligência Artificial
Devemos buscar a extinção humana?

escrito por:

Sergio Graziosi

Ex neurobiólogo molecular, agora desenvolvedor de software. Viciado em ciência, buscador de evidências, filósofo ingênuo que, ainda por cima, é amante da música.