As famosas três leis da robótica de Isaac Asimov, dizem o seguinte:

  1. Um robô não deve ferir um ser humano ou, por inércia, permitir que um ser humano sofra algum mal;
  2. Um robô deve obedecer às ordens dadas por humanos, exceto quando essas ordens entrarem em conflito com a primeira lei;
  3. Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a primeira ou a segunda lei.

Embora essas leis pareçam muito próximas do senso comum, e indiquem o devido cuidado no desenvolvimento da robótica e inteligência artificial, muitos comentaristas têm visto problemas nelas.

Os filósofos Nick Bostrom e John Leslie, por exemplo, têm alertado que, na execução desses algoritmos, as máquinas podem interpretar que, para evitar o sofrimento humano, é necessário recorrer à esterilização em massa e, portanto, garantir que a espécie humana não se reproduza e se extinguia em paz: assim, o robô cumpriria seu dever de não permitir o sofrimento humano por inércia.

Claro, não ter filhos pode ser uma dor para uma geração de estéreis, mas os robôs podem interpretar que nos poupariam muito mais do sofrimento fazendo nossa espécie desaparecer, e assim, ante o dilema, optarem por extinguir a raça humana. Afinal, no âmbito destas ações, não haveria mais pessoas sujeitas ao sofrimento, e assim o problema estaria resolvido.

Isso parece monstruoso, é claro. Mas o fato de que os robôs, em estrita conformidade com um algoritmo aparentemente racional, possam chegar a essa conclusão, nos permite cogitar se a extinção pacífica da espécie humana não seria uma opção filosoficamente aceitável.

Na verdade, assim tem sido proposto pelos chamados filósofos “utilitaristas negativos”.

O utilitarismo é uma variante da doutrina que identifica o bem com o útil. Tradicionalmente, se pensa que o imperativo utilitarista é a maximização do prazer: criar a maior quantidade de bem para o maior número de pessoas possíveis, tal como dizia a famosa frase de Bentham.

Porém, logo os problemas surgem. Se queremos maximizar o bem, então aparentemente não seria ruim multiplicar a população humana, sem importar que se consiga um nível de bem-estar apenas tolerável. Gerando trilhões de seres humanos que apenas sentem algum prazer, você teria criado o maior bem para o maior número de pessoas possíveis.

Mas isso, como disse o filósofo Derek Parfit, é uma “conclusão repugnante”. Sabemos muito bem que um país com uma população pequena, mas com bom padrão de vida (como Luxemburgo), é preferível a um país com uma grande população, mas com condições deploráveis (tais como Bangladesh).

Isso levou alguns utilitaristas a argumentar que a diretriz não deve ser a maximização do prazer, mas a minimização da dor. Mas, precisamente para minimizar a dor, a estratégia mais fácil é simplesmente fazer as pessoas desaparecem.

Isso não implica uma morte violenta na forma de genocídio, porque essa forma de extinção geraria uma grande quantidade de dor. Implica, na verdade, a morte pacífica da geração atual, assegurando que não haveria uma geração substituta.

Para esses filósofos, o uso de métodos contraceptivos é uma obrigação moral, pois com isso se previne que novas pessoas venham ao mundo para sofrer, e, assim, minimiza-se eficazmente a dor.

David Benatar é o filósofo que mais defende essa posição. Em sua opinião, nenhum dano é feito quando à concepção de uma criança é impedida (ninguém sofre por não ter nascido), mas, ao contrário, impede-se um monte de danos.

Em certo sentido, o argumento de Benatar é semelhante ao argumento de Epicuro, segundo o qual não devemos temer a morte, pois simplesmente, quando estamos mortos, não somos mais nós, e não há mais nada para sofrer. Se não existimos, não há problema.

Eu li exortações para a extinção da espécie humana por filósofos como Arthur Schopenhauer, e elas sempre me parecem extravagantes, típicas de um tipo de filosofia alemã bombástica, mas não suficientemente analíticas. Mas os escritos de Benatar são uma outra questão, pois têm análises éticas muito precisas, e chega a uma conclusão que parece repugnante, mas que, no entanto, é difícil de refutar.

Além disso, o fato de que os robôs, que seguem ao pé da letra as diretrizes éticas com que foram programados, poderiam acabar interpretando o fim da nossa espécie como necessária, parece dar suporte à recomendação de Benatar.

Por agora, eu acho que a melhor resposta para a tese de Benatar é simplesmente rejeitar o utilitarismo negativo. Mas se seguirmos o utilitarismo (e, em qualquer caso, é duvidoso que devamos, pois o utilitarismo tem muitos problemas), devemos seguir uma diretriz combinada: maximizar o prazer e minimizar a dor.

Um mundo sem prazer e sem dor não seria bom, porque o prazer não seria exaltado. Um mundo com grande prazer e mais dor não seria aceitável, porque se pareceria a um mundo semelhante ao que Parfit descreve em sua “conclusão repugnante”. Eu procuraria um intermediário: maximizar a quantidade de pessoas que sentem prazer, mas sem chegar a um ponto em que, em média, a vida é muito próxima da miséria.

É verdade que nada pode sofrer por não existir, mas, ao mesmo tempo, não ter a possibilidade de existir (ou continuar a existir) parece ser um tipo de perda. Portanto, ao contrário de Epicuro, eu diria que a morte em si é uma tragédia, e devemos fazer todo o possível para evitá-la.

Nesse sentido, eu simpatizo com os transumanistas buscando a imortalidade. Também, ao contrário de Benatar, eu diria que, se meus filhos certamente irão sofrer neste mundo, eu espero que eles encontrem muitos momentos de prazer que, no fim das contas, tornem valiosa sua existência.

E, finalmente, eu recomendaria uma modificação nas leis de Asimov (pois elas parecem ser estritamente utilitaristas negativas): não só os robôs devem evitar o sofrimento humano, mas também devem maximizar os seus esforços para gerar prazer aos seres humanos.

Não obstante, com isso, também apareceriam outros problemas, pois como enfatiza assustadoramente Nick Bostrom, existe uma possibilidade de que os robôs interpretem que a melhor forma de maximizar os nossos prazeres é nos colocando num mundo simulado (ao estilo de Matrix) no qual nunca há dor. Mas este problema já é outra questão.


Seja patrono do AZ para mais artigos como este.
CLIQUE AQUI e escolha sua recompensa.


JUNTE-SE À NOSSA NEWSLETTER
Junte-se a outros 2.000 visitantes que recebem nossa newsletter e garanta, semanalmente, artigos sobre ciência, filosofia, comportamento e sociedade diretamente em seu e-mail!
Nós odiamos spam. Seu e-mail não será vendido ou compartilhado com mais ninguém.


Você pode querer ler também:

A Revolução da Inteligência Artificial
Morte, o segredo desta vida

escrito por:

Gabriel Andrade

Gabriel Andrade vive em Maracaibo, Venezuela. Ele leva a vida na Universidade de Zulia, e é anfitrião do programa “Ágora” na Rádio Luz 102,9 FM.


JUNTE-SE À NOSSA NEWSLETTER
Junte-se a outros 2.000 visitantes que recebem nossa newsletter e garanta, semanalmente, artigos sobre ciência, filosofia, comportamento e sociedade diretamente em seu e-mail!
Nós odiamos spam. Seu e-mail não será vendido ou compartilhado com mais ninguém.