As famosas três leis da robótica de Isaac Asimov, dizem o seguinte:

  1. Um robô não deve ferir um ser humano ou, por inércia, permitir que um ser humano sofra algum mal;
  2. Um robô deve obedecer às ordens dadas por humanos, exceto quando essas ordens entrarem em conflito com a primeira lei;
  3. Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a primeira ou a segunda lei.

Embora essas leis pareçam muito próximas do senso comum, e indiquem o devido cuidado no desenvolvimento da robótica e inteligência artificial, muitos comentaristas têm visto problemas nelas.

Os filósofos Nick Bostrom e John Leslie, por exemplo, têm alertado que, na execução desses algoritmos, as máquinas podem interpretar que, para evitar o sofrimento humano, é necessário recorrer à esterilização em massa e, portanto, garantir que a espécie humana não se reproduza e se extinguia em paz: assim, o robô cumpriria seu dever de não permitir o sofrimento humano por inércia.

Claro, não ter filhos pode ser uma dor para uma geração de estéreis, mas os robôs podem interpretar que nos poupariam muito mais do sofrimento fazendo nossa espécie desaparecer, e assim, ante o dilema, optarem por extinguir a raça humana. Afinal, no âmbito destas ações, não haveria mais pessoas sujeitas ao sofrimento, e assim o problema estaria resolvido.

Isso parece monstruoso, é claro. Mas o fato de que os robôs, em estrita conformidade com um algoritmo aparentemente racional, possam chegar a essa conclusão, nos permite cogitar se a extinção pacífica da espécie humana não seria uma opção filosoficamente aceitável.

Na verdade, assim tem sido proposto pelos chamados filósofos “utilitaristas negativos”.

O utilitarismo é uma variante da doutrina que identifica o bem com o útil. Tradicionalmente, se pensa que o imperativo utilitarista é a maximização do prazer: criar a maior quantidade de bem para o maior número de pessoas possíveis, tal como dizia a famosa frase de Bentham.

Porém, logo os problemas surgem. Se queremos maximizar o bem, então aparentemente não seria ruim multiplicar a população humana, sem importar que se consiga um nível de bem-estar apenas tolerável. Gerando trilhões de seres humanos que apenas sentem algum prazer, você teria criado o maior bem para o maior número de pessoas possíveis.

Mas isso, como disse o filósofo Derek Parfit, é uma “conclusão repugnante”. Sabemos muito bem que um país com uma população pequena, mas com bom padrão de vida (como Luxemburgo), é preferível a um país com uma grande população, mas com condições deploráveis (tais como Bangladesh).

Isso levou alguns utilitaristas a argumentar que a diretriz não deve ser a maximização do prazer, mas a minimização da dor. Mas, precisamente para minimizar a dor, a estratégia mais fácil é simplesmente fazer as pessoas desaparecem.

Isso não implica uma morte violenta na forma de genocídio, porque essa forma de extinção geraria uma grande quantidade de dor. Implica, na verdade, a morte pacífica da geração atual, assegurando que não haveria uma geração substituta.

Para esses filósofos, o uso de métodos contraceptivos é uma obrigação moral, pois com isso se previne que novas pessoas venham ao mundo para sofrer, e, assim, minimiza-se eficazmente a dor.

David Benatar é o filósofo que mais defende essa posição. Em sua opinião, nenhum dano é feito quando à concepção de uma criança é impedida (ninguém sofre por não ter nascido), mas, ao contrário, impede-se um monte de danos.

Em certo sentido, o argumento de Benatar é semelhante ao argumento de Epicuro, segundo o qual não devemos temer a morte, pois simplesmente, quando estamos mortos, não somos mais nós, e não há mais nada para sofrer. Se não existimos, não há problema.

Eu li exortações para a extinção da espécie humana por filósofos como Arthur Schopenhauer, e elas sempre me parecem extravagantes, típicas de um tipo de filosofia alemã bombástica, mas não suficientemente analíticas. Mas os escritos de Benatar são uma outra questão, pois têm análises éticas muito precisas, e chega a uma conclusão que parece repugnante, mas que, no entanto, é difícil de refutar.

Além disso, o fato de que os robôs, que seguem ao pé da letra as diretrizes éticas com que foram programados, poderiam acabar interpretando o fim da nossa espécie como necessária, parece dar suporte à recomendação de Benatar.

Por agora, eu acho que a melhor resposta para a tese de Benatar é simplesmente rejeitar o utilitarismo negativo. Mas se seguirmos o utilitarismo (e, em qualquer caso, é duvidoso que devamos, pois o utilitarismo tem muitos problemas), devemos seguir uma diretriz combinada: maximizar o prazer e minimizar a dor.

Um mundo sem prazer e sem dor não seria bom, porque o prazer não seria exaltado. Um mundo com grande prazer e mais dor não seria aceitável, porque se pareceria a um mundo semelhante ao que Parfit descreve em sua “conclusão repugnante”. Eu procuraria um intermediário: maximizar a quantidade de pessoas que sentem prazer, mas sem chegar a um ponto em que, em média, a vida é muito próxima da miséria.

É verdade que nada pode sofrer por não existir, mas, ao mesmo tempo, não ter a possibilidade de existir (ou continuar a existir) parece ser um tipo de perda. Portanto, ao contrário de Epicuro, eu diria que a morte em si é uma tragédia, e devemos fazer todo o possível para evitá-la.

Nesse sentido, eu simpatizo com os transumanistas buscando a imortalidade. Também, ao contrário de Benatar, eu diria que, se meus filhos certamente irão sofrer neste mundo, eu espero que eles encontrem muitos momentos de prazer que, no fim das contas, tornem valiosa sua existência.

E, finalmente, eu recomendaria uma modificação nas leis de Asimov (pois elas parecem ser estritamente utilitaristas negativas): não só os robôs devem evitar o sofrimento humano, mas também devem maximizar os seus esforços para gerar prazer aos seres humanos.

Não obstante, com isso, também apareceriam outros problemas, pois como enfatiza assustadoramente Nick Bostrom, existe uma possibilidade de que os robôs interpretem que a melhor forma de maximizar os nossos prazeres é nos colocando num mundo simulado (ao estilo de Matrix) no qual nunca há dor. Mas este problema já é outra questão.


Seja patrono do AZ para mais artigos como este.
CLIQUE AQUI e escolha sua recompensa.


[optinform]


Você pode querer ler também:

A Revolução da Inteligência Artificial
Morte, o segredo desta vida

Gabriel Andrade
Gabriel Andrade vive em Maracaibo, Venezuela. Ele leva a vida na Universidade de Zulia, e é anfitrião do programa “Ágora” na Rádio Luz 102,9 FM.
COMPARTILHAR
  • Paul

    O texto me pareceu raso ao tentar conciliar o conceito do antinatalismo com o da singularidade. A decisão da humanidade de dar fim a si mesma é diferente da ideia de uma inteligência artificial decidir dar fim à humanidade. O antinatalismo não é necessariamente uma forma de utilitarismo negativo, no sentido que busca a redução da dor como no trabalho de Benatar. Está mais associada à correntes filosóficas como pessimismo e niilismo de autores como E.M Cioran e Thomas Ligotti.

    De qualquer modo, discordo da conclusão final, de que deveria haver uma lei de máquinas para maximizar a quantidade de pessoas que sentem prazer, mas sem chegar a um ponto em que, em média, a vida é muito próxima da miséria. Se for assim basta que as máquinas criem uma realidade simulada perfeita condizente aos desejos de cada ser humana, no melhor estilo pílula azul do Matrix. Além disso existe um problema computacional nesse critério: a partir do momento que programamos computadores para que possa se “auto aperfeiçoar” perdemos o controle sobre eles, pois não sabemos até onde vai esse processo de auto-aperfeiçoamento de um ponto de vista matemático. É mais ou menos como se um chipanzé tentasse escravizar Albert Einstein.

  • Ezequiel Lustosa

    Essa discussão é empolgante, mas ainda vejo que essas leis são insuficientes. Isso porque apenas impor que máquinas maximizem o prazer humano não impede que elas “extinguam pacificamente” a humanidade, pois ela pode interpretar que deve zelar pelo prazer DESSA GERAÇÃO e não da vindoura. Impedir que tenhamos filhos não diminui significativamente nosso prazer. E mesmo que fosse deixado claro que ela deve proteger todas as gerações da espécie humana, ela poderia tentar “travar” a evolução, matando pessoas com mutações para evitar que nossa espécie seja gradualmente substituída por outra. Seria algo semelhante aos Sentinelas da Marvel rs

    Sobre o lance da Matrix, realmente é a conclusão mais provável que os máquinas chegariam. Seria interessante um texto de vcs sobre o tema.
    Pessoalmente, creio que para evitar isso deveria haver uma lei semelhante a “zelar pela liberdade humana”, sendo liberdade no sentido platônico (ter domínio sobre si mesmo). Claro que teria que haver especificações, como a máquina levar em consideração nossa biologia para não considerar crianças e lunáticos tão livres quanto adultos saudáveis e haver algumas exceções, como o caso de tentativa de suicídio (pois, teoricamente deveríamos ser livres para tirar nossa vida, mas na prática sabemos que não faz sentido permitir que todos que queiram se matar consumam o ato e isso não deve ficar na mão de robos).