Inteligência artificial do filme Ex Machina, olhando diretamente para você.

Devemos dar direitos a máquinas conscientes?

Em Consciência por Sergio GraziosiComentário

Há uma dis­cus­são fas­ci­nante acon­te­cendo em alguns dos meus blogs favo­ri­tos, sobre as impli­ca­ções morais emer­gen­ci­ais acerca de uma hipo­té­tica inte­li­gên­cia arti­fi­cial avan­çada: deve­mos con­ce­der direi­tos morais para máqui­nas cons­ci­en­tes?

Como sere­mos capa­zes de adap­tar nos­sas estru­tu­ras éti­cas nelas?

Eu me envolvi nesse dilema atra­vés de Peter Han­kins, enquanto a mai­o­ria da dis­cus­são estava acon­te­cendo no blog de Scott Bak­ker, já envol­vi­dos em um diá­logo per­ma­nente com Eric Schwitz­ge­bel.

O con­senso geral é que a pers­pec­tiva da inte­li­gên­cia arti­fi­cial vai ter um impacto per­tur­ba­dor sobre o nosso raci­o­cí­nio moral, por­que irá cau­sar pro­ble­mas sem pre­ce­den­tes e, assim, expor a estrei­teza antes oculta sobre a nossa com­pre­en­são atual.

Para Bak­ker, isso iria que­brar muito de nos­sos sis­te­mas morais, e dei­xar alguns dos valo­res morais “padrões” em ruí­nas. Enquanto eu lia os posts de Han­kins, me peguei pen­sando: “Opa, Han­kins está cons­truindo um caso pró-uti­li­ta­rista? Isso seria uma revi­ra­volta ines­pe­rada!”.

Na ver­dade, Han­kins não estava, mas a impres­são que eu tinha me man­teve com uma ima­gi­na­ção fér­til.

O meu pri­meiro comen­tá­rio sobre o assunto sugere o seguinte: uma AI inte­li­gente, bem como inte­li­gên­cias extra­ter­res­tres, ou a pers­pec­tiva da mesma, de fato, expõe os limi­tes do nosso raci­o­cí­nio moral típico, mas isso pode ser visto como uma opor­tu­ni­dade para fazer algum pro­gresso, e não pre­cisa ter um resul­tado exclu­si­va­mente des­tru­tivo.

A minha posi­ção é moti­vada por dois flu­xos conec­ta­dos de pen­sa­men­tos.

  1. Estou muito bem cons­ci­ente das limi­ta­ções do conhe­ci­mento humano, não é uma sur­presa para os meus lei­to­res regu­la­res, e estou cons­tan­te­mente irri­tado com mui­tas rei­vin­di­ca­ções arro­gan­tes que ten­tam usar o argu­mento da racionalidade.Sim, o pen­sa­mento crí­tico, o ceti­cismo e rigor são as nos­sas melho­res fer­ra­men­tas para des­co­brir como nave­gar em nos­sas vidas, mas a retó­rica da raci­o­na­li­dade, ou como chamo “raci­o­na­li­dade Fetish”, real­mente me dá nos nervos.Somos imper­fei­tos mon­tes de carne, nos­sas habi­li­da­des cog­ni­ti­vas são limi­ta­das, e pode­mos ter delí­rios de gran­deza como uma fer­ra­mente de escape, devido ao fato de que os nos­sos pró­prios limi­tes são invi­sí­veis para nós.Por­tanto, qual­quer coisa que faça nos­sos limi­tes visí­veis é bem-vinda para mim. Espe­ci­al­mente a espe­cu­la­ção sobre even­tos futu­ros, pos­si­vel­mente pre­ju­di­ci­ais.
  2. Eu acre­dito que nós pre­ci­sa­mos encon­trar rapi­da­mente uma nova maneira de com­pre­en­der e geren­ciar o nosso lugar no mundo. Isso é por­que a nossa rota atual está gerando ris­cos exis­ten­ci­ais (devido ao nosso efeito sobre a bios­fera), e a ciên­cia pode ser capaz de nos aju­dar se e somente se nós reco­nhe­cer­mos os seus limites.Devemos per­ce­ber rapi­da­mente que não somos capa­zes de pre­ver as con­sequên­cias não inten­ci­o­nais de nos­sas ações, e deve­mos come­çar a desen­vol­ver manei­ras de con­ce­ber solu­ções que são espe­ci­fi­ca­mente pro­je­ta­das de forma que redu­zam a pos­si­bi­li­dade de terem um resul­tado negativo.Assim, qual­quer coisa que expo­nha nos­sas limi­ta­ções intrín­se­cas é bem-vinda: obri­gando-nos a encon­trar solu­ções alter­na­ti­vas, em vez de ace­le­rar em dire­ção à auto-destruição.Temo que há uma cor­rida acon­te­cendo: de um lado, nos­sas ações cole­ti­vas estão pro­du­zindo mudan­ças glo­bais (polui­ção, aque­ci­mento, queda da bio­di­ver­si­dade, etc.) e, se não for con­tro­lada, essa ten­dên­cia está sus­ce­tí­vel a gerar con­seqüên­cias ter­rí­veis.

    Por outro lado, esta­mos apren­dendo muito de como os seres huma­nos fun­ci­o­nam, sobre a evo­lu­ção e os ecos­sis­te­mas e é pos­sí­vel que esse conhe­ci­mento vá final­mente per­mi­tir que nos auto-regu­le­mos e pare­mos de pôr em causa a nossa pró­pria exis­tên­cia.

    O que eu estou fazendo aqui é a minha pró­pria pequena ten­ta­tiva de faci­li­tar esse pro­cesso.

Neste con­texto, a minha rea­ção pre­ci­pi­tada foi:

Ser­mos colo­ca­dos à frente de um caso que expõe cla­ra­mente as nos­sas limi­ta­ções inte­lec­tu­ais pode ser útil para apren­der­mos a superá-las. Isso tal­vez con­tra­rie mui­tos de nos­sos con­cei­tos filo­só­fi­cos, mas se pro­du­zirá um resul­tado nega­tivo, depende de nós.

Meu comen­tá­rio foi então pego por Schwitz­ge­bel e Bak­ker, e ambos, de dire­ções opos­tas, colo­ca­ram a ques­tão: se hou­ver um caso posi­tivo a ser feito, o que seria isso?

Boa per­gunta! O que se segue é a minha res­posta pro­vi­só­ria, enri­que­cida com uma con­si­de­ra­ção adi­ci­o­nal fun­da­men­tal, que é o ponto que eu real­mente gos­ta­ria de fazer.

 

A SOLUÇÃO PARA AS MÁQUINAS CONSCIENTES

Então, qual é a res­posta? Em uma pala­vra: uti­li­ta­rismo.

Mas o uti­li­ta­rismo inte­li­gente, infor­mado e cons­ci­ente de si mesmo, que acon­tece de ser muito dife­rente de como o uti­li­ta­rismo é geral­mente per­ce­bido. Mas estou me adi­an­tando, então agora vol­ta­rei para a dis­cus­são ori­gi­nal.

O argu­mento prin­ci­pal é: pegue uma inte­li­gên­cia que é radi­cal­mente dife­rente da nossa, que pode pen­sar, per­ce­ber e sen­tir de for­mas que não pode­mos de iní­cio com­pre­en­der, ou pode ter habi­li­da­des que nos jogam fora de equi­lí­brio de maneira prá­tica.

Han­kins dá o exem­plo de soft­ware de con­trole robó­tico que pode ser repli­cado, bac­ku­pado, res­tau­rado e trans­fe­rido à von­tade.

Ape­nas a ima­gi­na­ção limita a nossa capa­ci­dade de pro­por situ­a­ções desa­fi­a­do­ras: o que acon­tece quando uma única inte­li­gên­cia está espa­lhada por uma infi­ni­dade de agen­tes e fato­res que podem se sub­di­vi­dir, cri­ando mais pos­si­bi­li­da­des ao aper­tar de um botão?

Como pode­mos sequer come­çar a des­co­brir quais são os direi­tos fun­da­men­tais que devem ser con­ce­di­dos a uma enti­dade desse tipo?

Homem sentado em um sofá encara um holograma de inteligência artificial.

Cena do filme “Her”, em que um homem desen­volve uma rela­ção íntima e amo­rosa com uma inte­li­gên­cia arti­fi­cial, com voz femi­nina e alta per­so­na­li­dade. Como raci­o­ci­nar moral­mente?

Para mim, a res­posta é sim­ples na teo­ria e muito difí­cil na prá­tica: pre­ci­sa­mos des­co­brir as con­sequên­cias de estra­té­gias alter­na­ti­vas, que se esfor­çam para ava­liar, de forma tão obje­tiva quanto pos­sí­vel, o resul­tado que pro­du­zirá o máximo de bene­fí­cios e mini­mi­zará os danos.

Este é o pen­sa­mento uti­li­ta­rista stan­dard, e tenho cer­teza que vai fazer mui­tas pes­soas se frus­tra­rem, por­que é sabido que a pers­pec­tiva uti­li­ta­rista leva rapi­da­mente à difi­cul­dade de apro­var con­clu­sões, tais como a obri­ga­ção moral de doar a maior parte de nosso dinheiro e, pos­si­vel­mente, um rim e pul­mão.

O que leva a meu ponto prin­ci­pal: tais con­clu­sões uti­li­tá­rias são falhas, super­fi­ci­ais e, em geral, imper­do­a­vel­mente estú­pi­das.

O uti­li­ta­rismo clás­sico é inú­til por­que ignora o quanto é difí­cil pre­ver as con­sequên­cias das nos­sas deci­sões. Em outras pala­vras, os típi­cos “deve­res” uti­li­tá­rios estão erra­dos, por­que:

  1. São base­a­dos em pre­mis­sas erra­das. Nós não sabe­mos o que torna os seres huma­nos enga­na­do­res, e o que real­mente nos faz pros­pe­rar. Nós não sabe­mos exa­ta­mente como outros orga­nis­mos sofrem ou se ale­gram-se de forma seme­lhante ou com­pa­rá­veis aos seres humanos.Sem esse conhe­ci­mento, como pode­mos espe­rar ser­mos capa­zes de ava­liar qual resul­tado final é melhor que os outros?
  2. Con­ti­nu­a­mos a subes­ti­mar nossa igno­rân­cia e a con­se­quente impre­vi­si­bi­li­dade do futuro.Meu ponto acima men­ci­ona algu­mas incóg­ni­tas conhe­ci­das, e eu aposto que há pelo menos tan­tas incóg­ni­tas des­co­nhe­ci­das que têm impor­tân­cia sig­ni­fi­ca­tiva em geral (não neces­sa­ri­a­mente res­tri­tas aos seres huma­nos) de bem-estar.Como pode­mos espe­rar fazer pre­vi­sões sig­ni­fi­ca­ti­vas em face de tal com­pleta igno­rân­cia?
  3. Pre­ci­sa­mente: o mundo é com­plexo, repleto de caos. Mesmo se pudés­se­mos medir nosso conhe­ci­mento e todas as variá­veis rele­van­tes (nunca fizer­mos isso, e muito pro­va­vel­mente nunca fare­mos), vamos ter sem­pre um hori­zonte de pre­vi­si­bi­li­dade, um momento no futuro em que a nossa capa­ci­dade de pre­ver o que vai acon­te­cer não é melhor que o acaso.Pre­vi­sões de (total­mente com­pre­en­sí­veis) com­por­ta­men­tos caó­ti­cos depen­dem da pre­ci­são das nos­sas medi­das do estado atual — quanto mais caó­tico for um sis­tema, com mais pre­ci­são ele se tor­nará impor­tante.

Assim, sabe­mos a par­tir do iní­cio que é impos­sí­vel tomar deci­sões uti­li­tá­rias em bases sóli­das — o uti­li­ta­rismo per­feito é uma meta ina­tin­gí­vel que só pode­mos ten­tar nos apro­xi­mar.

Nossa esco­lha ideal deve ser, por defi­ni­ção, aquela que maxi­miza os bene­fí­cios, mas sabe­mos que só pode­mos pre­ver bene­fí­cios até um certo ponto no futuro.

Além disso, fora de alguns cam­pos cien­tí­fi­cos muito estrei­tos, tam­bém sabe­mos que o nosso conhe­ci­mento atual é incom­pleto: não sabe­mos quais variá­veis têm efei­tos sig­ni­fi­ca­ti­vos, não sabe­mos quais os efei­tos que são gera­dos pelas variá­veis que sus­pei­ta­mos que são impor­tan­tes e temos nenhuma ideia das dife­ren­tes manei­ras em que as variá­veis inde­pen­den­tes podem inte­ra­gir.

Con­clu­são pro­vi­só­ria: pen­sar sobre inte­li­gên­cias arti­fi­ci­ais e ali­e­ní­ge­nas nos leva a con­cluir que ape­nas o qua­dro uti­li­ta­rista pode­ria nos aju­dar a nave­gar a pai­sa­gem moral resul­tante. No entanto, ao mesmo tempo, deve­mos tam­bém reco­nhe­cer que é extre­ma­mente difí­cil, se não impos­sí­vel, basear jul­ga­men­tos uti­li­tá­rios em pro­vas sóli­das.

Sabe­mos muito pouco, e nossa capa­ci­dade de com­pre­en­der e pre­ver as con­sequên­cias das nos­sas esco­lhas é for­te­mente limi­tada.

Neste ponto, estou re-afir­mando ape­nas as con­clu­sões de Bak­ker: esta­mos con­de­na­dos, e a sim­ples pers­pec­tiva de novas for­mas de inte­li­gên­cia é sufi­ci­ente para mos­trar que todos os nos­sos qua­dros morais estão que­bra­dos (não pode ser gene­ra­li­zado), até mesmo a nossa melhor opção é garan­tida que não fun­ci­o­nará.

No entanto, um caso posi­tivo pode ser pro­posto, e vem devido à boa e velha evo­lu­ção, em mais de uma maneira.

 

PRECISAMOS CONHECER A NÓS MESMOS

Em pri­meiro lugar, para cons­truir um qua­dro uti­li­ta­rista decente que, pelo menos, seus pro­po­nen­tes sejam capa­zes de seguir, pre­ci­sa­mos conhe­cer a nós mes­mos.

A psi­co­lo­gia evo­lu­tiva, a eto­lo­gia e a ciên­cia cog­ni­tiva são cam­pos cru­ci­ais que temos de inves­ti­gar, a fim de pre­en­cher as lacu­nas conhe­ci­das em nosso conhe­ci­mento.

Pre­ci­sa­mos res­pon­der a per­gun­tas como: o que torna uma enti­dade cons­ci­ente? O que torna uma enti­dade “raci­o­nal”? O que faz nós (huma­nos) pros­pe­rar? Como outros orga­nis­mos cons­ci­en­tes e (hipo­te­ti­ca­mente) AIs cons­ci­en­tes podem pros­pe­rar?

Sem nenhuma des­sas res­pos­tas, e devido ao fato de que atu­al­mente não temos nenhum con­senso sobre res­pos­tas às ques­tões acima, nenhum qua­dro uti­li­tá­rio pode sequer come­çar a ganhar cre­di­bi­li­dade.

 

PRECISAMOS ENTENDER NOSSAS DISPOSIÇÕES MORAIS

Em segundo lugar, pre­ci­sa­mos com­pre­en­der nos­sas pró­prias dis­po­si­ções morais.

Eu escrevi antes que as nos­sas intui­ções morais vêm com um (auto-gerado) sen­ti­mento de jus­tiça. Esta e outras obser­va­ções de nos­sas dis­po­si­ções morais são impor­tan­tes por­que iden­ti­fi­cam limi­tes que res­trin­gem quais solu­ções podem ser efi­ca­zes.

Pro­por solu­ções impos­si­vel­mente utó­pi­cas, como “você deve amar e for­ne­cer recur­sos para per­fei­tos estra­nhos exa­ta­mente como você ama e for­nece para os seus pró­prios filhos” não vai fun­ci­o­nar, todos nós sabe­mos disso, mas a mai­o­ria de nós não reco­nhece que essa não é uma obje­ção ao uti­li­ta­rismo, é uma obje­ção con­tra a inge­nui­dade, um uti­li­ta­rismo “super­fi­cial”.

 

PRECISAMOS EXTRAIR LIÇÕES DA MORALIDADE EXISTENTE

Em ter­ceiro lugar, pre­ci­sa­mos apren­der lições impor­tan­tes de nos­sas dis­po­si­ções morais exis­ten­tes.

Por quê? Por­que elas evo­luí­ram ao longo de milhões de anos e, por­tanto, nós sabe­mos que, pelo menos, elas têm sido efi­ca­zes para garan­tir o sucesso repro­du­tivo de todos os nos­sos ante­pas­sa­dos. Cada um!

Nas­ce­mos com uma baga­gem de conhe­ci­mento acu­mu­lado imper­feito, mas que é neces­sa­ri­a­mente resis­tente: se qui­ser­mos con­ce­ber melho­res solu­ções, a nossa melhor aposta é come­çar com uma sólida com­pre­en­são dos mais conhe­ci­dos, já exis­ten­tes.

Por exem­plo, sabe-se bem que somos incli­na­dos a usar “dois argu­men­tos bási­cos” em nos­sos jul­ga­men­tos morais, e há razões para isso, mesmo que a prá­tica voe na cara do raci­o­na­lismo ingê­nuo.

Tam­bém: todos nós somos ten­den­ci­o­sos em jul­gar omis­sões como menos exe­crá­veis do que ações pre­ju­di­ci­ais ati­va­mente, isso de novo parece ser irra­ci­o­nal, mas eu sus­peito que for­nece a longo prazo e/ou van­ta­gens em toda a gama de for­mas indi­re­tas.

Da mesma forma, as incli­na­ções que pro­du­zem qua­dros como a deon­to­lo­gia, ética da vir­tude e pers­pec­ti­vas seme­lhan­tes não são, neste ponto de vista, incom­pa­tí­veis com o uti­li­ta­rismo ade­quado: elas repre­sen­tam carac­te­rís­ti­cas heu­rís­ti­cas úteis (valo­res morais) que nos per­mi­tem evi­tar de come­ter erros catas­tró­fi­cos.

Deve­mos apren­der o que faz com que essas heu­rís­ti­cas sejam efi­ca­zes, e assim ajustá-las e melhorá-las, e não jogá-las para fora da janela.

 

PRECISAMOS EXPLORAR SOLUÇÕES NATURAIS

Quarto e último: para gerar boas e sóli­das solu­ções não-frá­geis, pre­ci­sa­mos explo­rar a baga­gem de solu­ções heu­rís­ti­cas que a sele­ção natu­ral nos pro­por­ci­o­nou até agora.

Mas não deve­mos parar por aqui, por­que todos os algo­rit­mos heu­rís­ti­cos têm uma falha bem conhe­cida e ine­vi­tá­vel: eles são pro­pen­sos a come­ter erros sis­te­má­ti­cos em cir­cuns­tân­cias par­ti­cu­la­res.

Isso nos traz de volta ao argu­mento ori­gi­nal: a pers­pec­tiva de que uma AI forte é o sufi­ci­ente para expor a estrei­teza, super­fi­ci­a­li­dade ou loca­li­dade de nos­sas atu­ais incli­na­ções heu­rís­ti­cas.

Isso, porém, não sig­ni­fica que as abor­da­gens morais devem ser rejei­ta­das, pelo con­trá­rio, num mundo impre­vi­sí­vel, onde é garan­tido que todas as nos­sas ações podem nor­mal­mente pro­du­zir con­sequên­cias não inten­ci­o­nais, a nossa melhor aposta é a con­cep­ção do novo, de pro­va­vel­mente, defi­nir o res­pec­tivo domí­nio de apli­ca­ção de regras dife­ren­tes, e apli­car o que é ade­quado a um deter­mi­nado caso. Tudo feito com o obje­tivo espe­cí­fico de mini­mi­zar a expo­si­ção a ris­cos catas­tró­fi­cos.

Isso no final for­nece alguma indi­ca­ção sobre como cons­truir uma pers­pec­tiva posi­tiva: pre­ci­sa­mos de um con­junto de tru­ques não frá­geis e uti­li­tá­rios.

O que não pode­mos res­ga­tar é a sen­sa­ção aca­ri­nhada de que nos­sos jul­ga­men­tos morais são auto-evi­den­tes e obvi­a­mente cer­tos. Eles não são, e só parece que são por causa da nossa his­tó­ria evo­lu­tiva.


Sugestões de leitura e créditos

Este post é uma rea­ção rela­tiva que cor­reu durante uma dis­cus­são em curso; em linha com as minhas pró­prias aspi­ra­ções, ele tenta fazer o meu argu­mento aces­sí­vel a não espe­ci­a­lis­tas. Meus pró­prios pen­sa­men­tos têm sido natu­ral­mente influ­en­ci­a­dos por mui­tos dos tra­ba­lhos que eu linko abaixo.

  1. Quanto mais eru­dita você for, você pode veri­fi­car o recente artigo de Michael Price que fala mais ou menos sobre o meu ponto, apoi­ado por alguma (pesada) bibli­o­gra­fia.
  2. Sobre uti­li­ta­rismo com uma tor­ção evo­lu­tiva, e suas pró­prias limi­ta­ções, você pode que­rer come­çar a par­tir deste exce­lente review de Tho­mas Nagel, sobre Joshua Gre­ene - as Tri­bos Morais.
  3. Uma boa crí­tica ao uti­li­ta­rismo ingê­nuo tam­bém é for­ne­cida por Julian Savu­lescu no blog Ética Prá­tica (links ao paper asso­ci­ado).
  4. Você tam­bém pode que­rer ras­trear o debate sobre o mani­festo uti­li­tá­rio de Peter Sin­ger: A Cri­ança Afo­gando e o Cír­culo em Expan­são.
  5. Final­mente, Ale­xan­der Yart­sev está escre­vendo uma série de posts no The­EGG sobre mora­li­dade e psi­co­lo­gia evo­lu­tiva, que com­ple­menta bem as minhas pró­prias con­tri­bui­ções aqui.

Gos­tou? Então seja patrono do AZ para mais arti­gos como este.
CLIQUE AQUI e esco­lha sua recom­pensa.


Newsletter AZ | sabedoria budista


Você pode que­rer ler tam­bém:

A Revo­lu­ção da Inte­li­gên­cia Arti­fi­cial
Deve­mos bus­car a extin­ção humana?

Sergio Graziosi
Ex neurobiólogo molecular, agora desenvolvedor de software. Viciado em ciência, buscador de evidências, filósofo ingênuo que, ainda por cima, é amante da música.

Compartilhe