Mestre em Tecnologias da Inteligência e Design Digital pela Pontifícia Universidade Católica de São Paulo (PUC/SP), escritor ensaísta e filósofo brasileiro, pesquisador de tecnologias e consequências sociais, com especial interesse na crítica da tecnologia. Autor dos livros
O objetivo desse ensaio é refletir de maneira crítica sobre a condição de nossos mais modernos sistemas de inteligência artificial, seus potenciais latentes, suas possibilidades técnicas úteis à sociedade, e também sobre suas intrínsecas limitações estruturais, extrapolando hipóteses acerca do hard problem da consciência e sua sonhada superação, especulando também sobre as possíveis interações desses sistemas inorgânicos pretensamente conscientes e superinteligentes com as sociedades contemporâneas de hoje e de amanhã, e suas possíveis consequências indesejáveis para os próprios corpos sociais envolvidos nessas relações - em grande medida - disruptivas. Para tanto, usaremos como objeto teórico as famigeradas “três leis da robótica” de Isaac Asimov, afim de demonstrar a fragilidade inverossímil de tal hipótese ficcional, quando confrontada com a realidade fática e também com o próprio estado atual da arte em inteligência artificial e sistemas computacionais. Ademais, ainda que o problema duro da consciência em sistemas cibernético-informacionais permaneça inalterado em sua insolubilidade persistente, não é difícil imaginar robôs com vários níveis e graus de inteligência distintos interagindo com os seres humanos nos mais diversos setores e ambientes da vida cotidiana social, como de fato já começa a acontecer, e as subsequentes consequências e desdobramentos sociais. Por isso é muito difícil crer que meras “três leis” lúdicas, oriundas da ficção científica, pudessem ser instrumento suficiente e satisfatório para o enfrentamento das questões que envolvem seres humanos e sistemas inorgânicos dotados com inteligência artificial (IA).
The objective of this essay is to reflect critically on the condition of our most modern artificial intelligence systems, their latent potentials, their technical possibilities useful to society, and also on their intrinsic structural limitations, extrapolating hypotheses about the hard problem of consciousness and its dreamed of overcoming, speculating also about the possible interactions of these supposedly conscious and superintelligent systems with contemporary societies of today and tomorrow, and their possible undesirable consequences for the very social bodies involved in these - to a large extent - disruptive relationships. To do so, we will use Isaac Asimov's infamous “three laws of robotics” as a theoretical object, in order to demonstrate the unlikely fragility of such a fictional hypothesis, when confronted with factual reality and also with the current state of the art in artificial intelligence and systems computational. Furthermore, even though the hard problem of consciousness in cyber-informational systems remains unchanged in its persistent insolubility, it is not difficult to imagine robots with different levels and degrees of intelligence interacting with humans in the most diverse sectors and environments of everyday social life, as it actually begins to happen, and the subsequent consequences and social developments. That is why it is very difficult to believe that mere playful “three laws”, originating from science fiction, could be a sufficient and satisfactory instrument to face issues involving human beings and inorganic systems endowed with artificial intelligence (AI).
El objetivo de este ensayo es reflexionar críticamente sobre la condición de nuestros más modernos sistemas de inteligencia artificial, sus potenciales latentes, sus posibilidades técnicas útiles para la sociedad y, también, sobre sus intrínsecas limitaciones estructurales. Se extrapolan hipótesis acerca del problema difícil de la consciencia y su soñada superación, además de especular también sobre las posibles interacciones de esos sistemas inorgánicos supuestamente conscientes y superinteligentes con las sociedades contemporáneas de hoy y de mañana, y sus posibles consecuencias indeseables para los propios cuerpos sociales involucrados en estas relaciones (en gran medida) disruptivas. Para ello, usaremos como objeto teórico las famosas “tres leyes de la robótica” de Isaac Asimov, con la finalidad de demostrar la fragilidad inverosímil de tal hipótesis ficcional, sobre todo cuando es confrontada con la realidad fáctica y también con el propio estado actual del arte en lo referente a inteligencia artificial y sistemas computacionales. Aunque el problema duro de la consciencia en los sistemas cibernético-informacionales permanezca sin alteración en su irresolución persistente, no es difícil imaginar robots con varios niveles y grados de inteligencia distintos interactuando con los seres humanos en sus más diversas áreas y ambientes de la vida cotidiana social, como ya de hecho empieza a suceder, y sus subsecuentes consecuencias y desdoblamientos sociales. Por eso es muy difícil pensar que solo “tres leyes” lúdicas, originadas en la ciencia ficción, puedan ser un instrumento suficiente y satisfactorio para enfrentar las cuestiones que involucran a los seres humanos y a los sistemas inorgánicos dotados de inteligencia artificial (IA).
O ensaio [...] tem a ver com os pontos cegos de seus objetos. Ele quer desencavar, com seus conceitos, aquilo que não cabe em conceitos, ou aquilo que, através das contradições em que os conceitos se enredam, acaba revelando que a rede de objetividade desses conceitos é meramente um arranjo subjetivo
Theodor
Nada nem ninguém, poderá demover um computador, androide ou robô, pretensamente consciente, dotado com IA, de fazer algo acerca do qual esteja certo de que seja o mais apropriado a ser feito naquela situação específica em que ele se encontre num dado momento, segundo seu programa. Ainda que na realidade factual ele esteja provocando sinistros, catástrofes, danos sociais graves e até mesmo a morte de seres humanos devido às suas ações pretensamente inteligentes, mas hipoteticamente desastrosas.
Se o sistema cibernético-informacional realmente estiver determinado acerca de que tal ou qual ação que empreende é a mais apropriada, segundo sua codificação interna pregressa original, segundo também seus parâmetros e calibragens prévias, não importará o argumento que lhe seja apresentado, nem o apelo emocional acerca do que possa acontecer caso ele prossiga com sua ação resoluta, pois o sistema necessariamente segue e sempre seguirá regras rígidas, determinísticas, fixas, sem quaisquer ambiguidades ou exceções possíveis, ainda que essas regras e procedimentos -no caso da IA- sejam agrupados e arranjados de tal modo por seus projetistas, que visem justamente dar a impressão de que exista alguma espécie de vida no interior do sistema computacional automatizado, ou mesmo um alguém subjetivo qualquer que pudesse experimentar consciência, subjetividade, que tivesse protagonismo ontofenomênico, animando a máquina, impulsionando e movendo suas ações.
Na verdade, se ignorarmos as aparências externas e deixarmos de lado os antropomorfismos, e observarmos com atenção a constituição e a lógica internas dos referidos constructos e sistemas, veremos que o que temos de fato em termos discerníveis é a execução contínua de uma série de programas, rotinas e protocolos, o que significa dizer, ações acéfalas, e que assim, no fundo, não poderá haver ali valores a se respeitar, sentimentos reais a se sentir, se compreender e se expressar, existência vívida, subjetividade experiencial, nem muito menos ainda um agente atuante com perspectiva de primeira pessoa, ancorado e conectado ao mundo e à cultura.
A máquina -o que vale dizer, o computador, o androide e o robô- apenas executa obedientemente o seu programa rígido e pré-determinado -isso, quando “as coisas funcionam bem”, sem bugs ou panes-, e ainda que esse programa excepcional incluísse representações do que sejam valores humanos, experiências ou sentimentos, ou ainda ética, juízo e discernimento, o que haverá se manifestando ali no constructo não serão reais valores, experiências ou sentimentos, não no verdadeiro sentido dos termos, nem muito menos ainda poderá haver ética, juízo e discernimento algum, mas sim a mera simulação computacional das representações abstratas de tais propriedades no interior da máquina, representações estas completamente acéfalas e destituídas justamente das qualidades principais que pretensamente deveriam sentir, exprimir e compreender.
E mesmo que impuséssemos uma série de regras e até mesmo um código de conduta protocolar de segurança, que visasse proteger os humanos nas relações sociais com tais sistemas inorgânicos, ainda assim, a interação de tais constructos com a realidade do ambiente societal e suas complexidades sempre gerará situações imprevisíveis a priori para o projetista e programador ou mesmo engenheiro de
Cândido seria aquele que, por desventura ou malogro, inocência crédula ou mesmo desconhecimento da especificidade técnica do assunto hora em tela, acreditasse que meras “três leis” lúdicas, oriundas de um romance de ficção científica
Seria uma grande tolice crer que a inteligência artificial só nos trará benefícios e confortos no futuro, e nunca crises e problemas. Pensá-los (crises e problemas) nesse momento que antecede a possível resolução do chamado “problema duro ou difícil” da consciência (hard problem), pode ser não apenas salutar, como também útil, já que existe no horizonte até mesmo a possibilidade extrema do surgimento de uma superinteligência,
Mas, ainda que consigamos criar e ainda dominar uma superinteligência, de maneira a explorá-la sempre e unicamente a nosso favor -isso tudo num cenário ótimo sem maus funcionamentos ou panes-, tal constructo ainda estaria irremediavelmente determinado por suas próprias estruturações intrínsecas relativas à sua codificação original, e tal codificação original por sua vez não permite e não prevê o incomputável. Computadores não computam o incompreendido, o irredutível, o irrepresentável, logo e por estas mesmas razões, eles não computam também -por motivos técnicos igualmente óbvios- o incomputável.
Assim, como pano de fundo de toda essa problematização teórica acerca da inteligência artificial (IA), está 1) a nossa incapacidade inconteste de compreender o funcionamento objetivo da mente biológica que gera a consciência; 2) a nossa incapacidade subsequente de representar algo que não compreendemos e que talvez nem seja passível um dia de uma representação formal, e 3) também a conclusão lógica da qual não podemos nos esquivar de que sem uma compreensão e representação formal é impossível reproduzir, copiar ou mesmo simular o fenômeno da mente consciente que se pretende replicar.
Em síntese, sem compreensão do fenômeno, e sem sua redução e representação formal, não pode e nem poderá haver reprodução, cópia ou simulação. Mesmo porque, como reproduzir, copiar ou mesmo simular algo que não compreendemos? E esse é, em linhas gerais, o famigerado hard problem, ou mais simplesmente o difícil problema de conseguir reproduzir o fenômeno da consciência em sistemas cibernético-informacionais, dentro do âmbito que se costuma chamar de IA forte, em contraposição à IA fraca, que são justamente os sistemas especialistas que absolutamente dispensam qualquer tipo de consciência, pois executam uma única função específica.
Antes de avançar, explicitamos que é óbvio que as tais leis mencionadas não podem e nem poderiam fazer sentido real para um robô pretensamente inteligente, nem muito menos ainda funcionar, no sentido prático e objetivo de tentar proteger os seres humanos nas relações com seus sistemas artificiais, sejam eles computadores, androides ou robôs. De modo que, nesse ensaio, tomaremos as “três leis” apenas como uma espécie de objeto teórico exemplificador do que não pode e nem poderia funcionar na prática, como também para poder provocar a problematização e especulação de cenários futuros possíveis envolvendo robôs superinteligentes e seres humanos, bem como refletir sobre os problemas que certamente emergirão junto com a interação mais intensa e disseminada com estes sistemas computacionais de IA.
Nesse sentido, como definir e representar tal coisa para o robô e ainda simular artificialmente a percepção experiencial do que seja sofrer um dano ou causar dano, se sabemos que a máquina não sente e nem pode sentir sofrimento ou dor? Além disso, tudo é complexo demais e repleto de ambiguidades e armadilhas quando tratamos de IA. Muitas vezes, quando se atribui ao sistema a adjetivação de inteligente, tudo se resume apenas a meros jogos de palavras, figuras de expressão, e nada mais.
Ainda quanto à primeira “lei”, o problema de definição é de fato monumental, já que a impossibilidade de definição precisa ou mesmo parcial da consciência biológica impõe uma outra impossibilidade, ou seja, a impossibilidade de representação, e esta, por sua vez, também impõe uma outra restrição, que é justamente a impossibilidade de cópia, reprodução ou simulação, já que para nós as perguntas centrais ainda persistem completamente em aberto: o que é afinal um ser humano? Como funciona a mente consciente?
Essas perguntas nos assombram e nos perseguem há milênios, sem que haja uma definição acabada e consensual sobre suas respostas, e talvez nunca existam. Sendo que, por outro lado, há infindáveis definições que concorrem juntas e até mesmo se somam ou se anulam num monumental arcabouço teórico, poroso e multifacetado que, repleto de ambiguidades e conflitos de hipóteses, tenta expressar o que seja ser um humano. O que significa dizer que existem infinitas definições, e todas elas dependem de um conjunto de crenças e valores contíguos e indissociáveis que as sustentam, numa teia simbólica complexa de intersubjetividade que nós humanos temos enorme facilidade em conceber, significar, representar, e ainda transmitir às novas gerações.
Mas o que seria afinal um ser humano da perspectiva hipotética de uma máquina computacional pretensamente consciente? Como implantar nela um conceito e um valor acompanhado de seu simbolismo e significado, sendo que nem mesmo nós sabemos como defini-los com a precisão necessária à reprodução do fenômeno? E o termo “permitir”, o que significaria do ponto de vista do sistema? Bem, a resposta mais lógica e razoável é que um código cibernético-informacional é, por essência, absolutamente restritivo em sua concepção e em seu ordenamento, e principalmente em sua execução, de maneira que ele vai permitir ou não permitir de acordo unicamente com sua codificação original, o que significa dizer que, ou ele sempre permite, ou ele nunca permite, conforme foi programado.
Nesse âmbito não pode haver nada em aberto e indefinido a ser decidido e definido pelo próprio sistema, pois o sistema não decide, não define, ele apenas executa sua programação original pregressa, e isso é tudo o que ele consegue e pode fazer.
No sentido de esclarecimento, hipotetizemos a título de um ou dois exemplos apenas -lembrando que poderíamos elencar diversos outros possíveis-, e digamos que há dois seres humanos armados e em conflito, que se encontram numa dada situação social de enfrentamento -um assaltante e um segurança privado de loja comercial, por exemplo, durante um roubo-, e que ambos no mesmo momento deem ordens semelhantes e conflitantes a um mesmo robô policial que possa intervir a favor de um dos dois. A quem o robô obedeceria, se a premissa maior é simplesmente “não pode prejudicar um humano”? Imaginemos uma outra breve situação hipotética onde haja dois humanos clamando por socorro diante de um mesmo perigo iminente e fatal, sendo que ambos não podem ser salvos ao mesmo tempo.
Quem deverá ser socorrido primeiro? Quais são os critérios que devem balizar a escolha do sistema diante de uma mesma e única diretriz gravada em seu código?
De maneira que a “primeira lei” seria -se fosse real- absolutamente inócua e ineficaz, no que toca a tentar garantir a segurança dos seres humanos nessas novas formas de relações que emergem junto com a concepção e uso social desses constructos artificiais. E ainda que se persiga a meta de tentar tornar tratável o problema difícil da consciência, muito ainda se tem para trilhar, não apenas para conhecer a consciência biológica, como para reproduzi-la artificialmente, frisando que não possuímos nada nem semelhante à consciência no interior de nossos computadores, androides e robôs da atualidade, e isso é um impeditivo irremovível para obedecer qualquer lei, inclusive a “primeira”.
Em síntese, e em termos de raciocínio lógico, o problema é que 1) não possuímos ainda robôs nem sistemas capazes de sopesar qualidades e conveniências de situações reais da vida cotidiana, pelo simples fato de não termos também robôs nem sistemas com níveis de consciência semelhantes ou sequer parecidos com os dos seres humanos (
O que nos leva à seguinte situação em grande medida conclusiva: 3) se não podemos reduzir o fenômeno da consciência e nem representá-lo em alguma linguagem formal conhecida, também não podemos nem poderemos imitar, reproduzir e nem mesmo simular tal fenômeno computacionalmente, o que por sua vez, inviabilizaria na prática a “primeira lei”, tornando-a, como já foi dito, inútil no mundo real e factual.
E de novo: como o sistema computacional poderá triar e identificar a natureza da ordem dada, ou ainda se a ordem é emitida de boa-fé ou não por seus interlocutores humanos, e como ele poderá identificar a voz de comando entre tantas vozes humanas possíveis que podem lhe ordenar tal ou qual ações ao mesmo tempo? Se ao contrário, o robô só obedecer a uma única voz pré-programada, aquela credenciada e pré-autorizada perante o sistema, tal diretriz seria inútil, pois uma voz não credenciada ou não autorizada não seria sequer considerada, e o sistema e sua operação mundana seriam muito mais restritos em sua utilidade social.
Mas, se um sistema complexo o suficiente puder interagir cognitivamente e em alto nível com os seres humanos, o fato de ser apenas “humano” -podendo ser um bandido, terrorista ou vítima- já seria um dado suficiente para que o robô desse crédito a esse seu interlocutor e o obedecesse, conforme a famigerada “segunda lei” ordena? Ademais, esse segundo ditame previsto nessa hipotética “segunda lei” parece -premeditadamente- delegar ao próprio sistema computacional a capacidade de discernir diante de conflitos complexos e complicados, de deliberar conscientemente, de poder optar em meio ao conflito de ideias, teses e teorias, a hipótese mais provável em termos de benefício em relação ao que foi pré-implantado em seu código original.
O problema é que não existe um tal código com tamanha complexidade, e que ainda seja capaz de replicar o que seja uma consciência deliberando, ou o ato de “deliberar”, pois não há ali um agente, uma intencionalidade, um sujeito, ou ainda uma perspectiva de mundo, de experiência subjetiva, ou outra forma de consciência qualquer.
Enfim, não é crível que um sistema computacional essencialmente binário, que não tolera ambiguidades de nenhuma espécie, possa ter alguma maneira de lidar com a compreensão do que seja e signifique a “primeira lei” (
E síntese, a segunda lei -assim como a primeira- seria absolutamente inócua e ineficaz, principalmente no que tange a tentar proteger os seres humanos dos maus comportamentos dos sistemas computacionais, androides e robôs. E uma vez que a “primeira lei” também se mostrou igualmente ineficiente e inútil, a “segunda lei” -que se baseia na primeira- também não pode nem poderia funcionar e cumprir sua pretensa função de resguardar os seres humanos das ações danosas de, por exemplo, robôs descontrolados. Uma tríade de leis dessa natureza só poderia funcionar de fato na ficção científica, onde os robôs e os demais sistemas já igualaram ou superaram a capacidade cognitiva humana, e por isso conseguem produzir façanhas extraordinárias que, na vida real e por hora, apenas organismos biológicos puderam e podem alcançar.
Lembrando que a mais inteligente das inteligências artificiais chega a parecer uma pálida caricatura falhada de vida diante da capacidade cognitiva e autopoiética real de organismos biológicos bem menos complexos que seres humanos.
E sem uma consciência artificial complexa subjetiva e inerente ao próprio sistema, capaz e eficiente, não é possível “proteger sua própria existência”, como enuncia a referida “terceira lei”, mesmo porque não há “existência” alguma, e nem muito menos ainda uma forma de
Em um sistema desse tipo, binário, ou é “0” ou é “1”, e não tem mais “conversa fiada” acerca de variações ou dúvidas. Não existe um talvez “0”, ou quem sabe “1”. Isso é impensável e impossível em sistemas computacionais binários, da mesma forma que não há e não poderá haver também fracionamentos e variações de subpedaços de bits, pois não há como grafar na “fita virtual” da Máquina de Turing “1,5”, por exemplo, nem muito menos “0,1”, “0,2”, “0,3”, pois para sistemas de inteligência artificial, que por sua vez operam com computadores binários, toda a codificação tem de estar absolutamente clara e definida
Quanto a essa recursividade enganadora sugerida pela “terceira lei”, de não poder incorrer na quebra da “primeira” e da “segunda” leis, a questão problemática continua sendo absolutamente a mesma, ou seja, se como demonstramos não é possível para o sistema seguir a “primeira lei” e nem a “segunda lei”, com mais razão ainda sustentamos que ele não poderá também seguir a “terceira lei”, já que delas dependeria necessariamente para poderem encontrar sua validade, o que -como vimos- não acontece. Repetindo: não pode haver conflito algum no interior do código binário original do sistema, na concepção e formatação do arranjo computacional, na engenharia e arquitetura de
E assim, mais uma vez, retornamos forçosamente ao difícil problema da consciência, ou seja, ao
Assim sendo, o termo “proteger”, por exemplo -na expressão da máquina computacional-, não será absolutamente nada parecido com o que seja “proteger” para a compreensão trivial dos seres humanos, pois essa
A inteligência expressa pelos sistemas artificiais que construímos e usamos reflete a nossa própria inteligência, no sentido de que são extensões de nossa própria mente inteligente em relação ao meio circundante, aos outros, ao mundo das ideias, mas daí a conseguir instanciar a nossa própria consciência vívida nestes mesmos sistemas artificiais, há um grande e vertiginoso abismo em termos de capacidade e competência técnica nos separando da realidade factual de nossos dias. Ainda estamos longe de robôs conscientes, ainda que persigamos essa meta diuturnamente, e que o estado da arte também tenha evoluído de forma significativa nas últimas décadas, principalmente no que concerne à IA fraca, ou, mais simplesmente, aos sistemas especialistas.
Em termos conceituais, seria ingenuidade querer crer que uma consciência artificial maquínica pudesse se estruturar de maneira idêntica à consciência biológica, em termos de processos internos, constituição fisioquímica e dinâmicas oscilatórias, algo que, inclusive, está fora de cogitação. Se e quando houver uma inteligência artificial pretensamente consciente, tal inteligência provavelmente se estruturará por meio de informação, energia e dinâmicas de sistemas computacionais complexos, mas como processos distintos dos que ocorrem no carnal, biológico, orgânico.
Além disso, consideramos igualmente ingenuidade crer -diante de tudo o que foi dito até aqui- que computadores, androides e robôs, nunca possam atingir o nível de consciência que os seres humanos possuem hoje, já que a bioevolução continua em curso de modo constante, desdobrando-se em diversas frentes nesse exato instante, e de fato não existem limites fixos para os graus e níveis que a complexidade cognitiva de um sistema inteligente, seja orgânico ou não, podem alcançar.
Mas, extrapolando, nesse sentido de complexidade crescente do estado da arte em IA, um constructo cibernético-informacional que fosse capaz por meio de seu programas de expressar inteligência, exprimir sentimentos, experimentar consciência -ainda que estruturada de forma absolutamente diferente da nossa consciência orgânica e biológica-, por meio da execução de diversos programas e subprogramas replicando os sentidos, por exemplo, talvez também estivesse sujeito a erros, falhas e panes ocasionais, como sabemos que acontece vez por outra com quaisquer equipamentos tecnológicos de nossa cultura, por mais sofisticados que eles sejam ou pareçam ser.
Não é conveniente elencar a lista de desastres e acidentes graves provocados por nossas próprias técnicas e tecnologias, porém, vale rememorar resumidamente que, com o melhor de nossa tecnologia em jogo, naves espaciais já explodiram pouco depois do lançamento, carros autônomos provocaram acidentes fatais com mortos e feridos, e aviões modernos de carreira foram derrubados por mau funcionamento de seus próprios pilotos automáticos -todos estes constructos dotados com sistemas modernos de IA-, levando à morte dezenas de pessoas.
E por mais que se desenvolva a prevenção e a segurança na inteligência artificial como um ideal constante, sempre há e sempre haverá margem para surpresas: o imponderável, o imprevisível, o aleatório, o emergente, as conjunções de fatores; como a nossa própria história pregressa tem nos ensinado tão bem até então. Não é razoável imaginar um mundo asséptico, limpo, ordenado, idealizado, onde todas as tecnologias, incluso a IA, funcionem sempre bem e dentro de seu próprio projeto original de concepção, sem esses tipos de desvio, inconvenientes e imprevistos. A tecnologia de IA, como qualquer outro objeto técnico de nossa cultura, nunca pode ser controlada por completo por seus criadores, pois uma vez que ingressa na cadeia causal dos acontecimentos ordinários do mundo cotidiano, projetam-se a uma espécie de vida e força próprias, de modo que passam a agir e atuar à revelia de nossa própria vontade objetiva, fugindo do controle.
É possível imaginar também para o futuro, um sistema cibernético-informacional dotado com uma forma específica de mente -de novo, onde a mente humana é medida e referência-, imitando a experiência consciente das pessoas, ou baseada na simulação daquilo que conhecemos delas e, com isso, é bem provável que esses sistemas estejam
Afinal de contas, a existência não é um fardo leve, e uma parcela significativa das populações mundiais tem problemas mentais e psicológicos de adaptação à vida e à própria existência, o que nos leva à seguinte questão: o que pensaria de si mesmo um programa de computador, androide ou robô, cuja expressão máxima para si mesmo fosse a sua própria existência vívida computacional, executando fiel e docilmente seu código algorítmico originário, enquanto é confrontado com a noção consciente de sua própria consciência experiencial da realidade em que está inserido? Ser um ser vivo e estar consciente de sua própria consciência não é algo fácil, e nós humanos sabemos por experiência própria.
Sem embargos, referimo-nos à hipótese inconveniente de um sistema instável e desequilibrado, de um computador contrariado e vil, de um androide magoado e vingativo, de um robô traído e furioso, de um autômato insano e descontrolado, com tudo aquilo que se é capaz de fazer em tais estados emocionais e em tais situações extremas. Enfim, acreditamos que tudo pode acontecer. Além disso, no que mais esses seres cibernético-informacionais superinteligentes e conscientes seriam também semelhantes a nós?
Experimentariam agressividade, cobiça, maldade? Embriagar-se-iam com seu próprio poder? Revoltar-se-iam contra nós, seus próprios criadores, que como pretensos deuses insuflamos vida no não vivo?
Ademais, ainda que o problema duro da consciência em sistemas cibernético-informacionais (
Por isso, é muito difícil crer que meras “três leis” lúdicas, oriundas da ficção científica, pudessem ser instrumento suficiente e satisfatório para o enfrentamento das questões complexas que envolvem seres humanos e sistemas inorgânicos dotados com inteligência artificial (IA). As “três leis” não podem -e na verdade, não conseguem- nos proteger de nada simplesmente porque nós não sabemos ainda implantar num robô uma consciência suficiente e capaz de discernir e obedecê-las a contento, conforme seu enunciado solicita.
E não sabemos, porque essa consciência suficiente e capaz, cuja medida é inegavelmente o próprio ser humano, não é compreendida em sua dinamicidade complexa corpórea, em seu funcionamento objetivo, e em sua dinâmica interna no próprio ser humano, e nem muito menos ainda tudo isso é redutível e formalizável por meio de uma linguagem formal conhecida e disponível qualquer, incluso a matemática, que se arvora a trazer para si a constituição e estruturação original da própria realidade ao nosso redor, ainda que a biologia insista em lhe escapar, esquivando-se de sua régua puramente quantitativa e nunca qualitativa, sendo que, biologicamente, o mais importante não se quantifica, qualifica-se.
Quanto a isso, Nick Bostrom (2018, p. 284) acrescenta que “uma máquina provavelmente precisaria ter a capacidade de representar o mundo de uma maneira que fosse ao menos tão rica e realista quanto a representação de mundo que um humano adulto normal possui. [...] Isso está muito além do alcance da IA contemporânea. [...] Uma vez que [...] os processos de planejamento se tornem suficientemente poderosos, também se tornarão potencialmente perigosos”.
As famigeradas “Três Leis da Robótica” foram concebidas pelo escritor de ficção científica Isaac Asimov, aqui citadas apud Michio Kaku (1997, p. 164): “1) Um robô não pode prejudicar um ser humano ou, por inação, permitir que um ser humano sofra algum dano. 2) Um robô deve obedecer às ordens que lhe são dadas por seres humanos, exceto quando tais ordens conflitarem com a Primeira Lei. 3) Um robô deve proteger sua própria existência, contanto que tal proteção não entre em conflito com a Primeira ou com a Segunda Lei”.
Como nos informa
Ainda assim, “o objetivo do pesquisador” de IA, escreve
“Embora os cientistas práticos da computação há muito tempo tenham ampliado o conceito de algoritmos para além da computação de funções”, informa-nos
Alguns cenários, como sustenta
CÓMO CITAR ESTE ARTÍCULO: Quaresma, A. (2020). A falácia lúdica das três leis: Ensaio sobre inteligência artificial, sociedade e o difícil problema da consciência.