Introdução

O ensaio [...] tem a ver com os pontos cegos de seus objetos. Ele quer desencavar, com seus conceitos, aquilo que não cabe em conceitos, ou aquilo que, através das contradições em que os conceitos se enredam, acaba revelando que a rede de objetividade desses conceitos é meramente um arranjo subjetivo

Theodor Adorno (2003, p. 44)

Nada nem ninguém, poderá demover um computador, androide ou robô, pretensamente consciente, dotado com IA, de fazer algo acerca do qual esteja certo de que seja o mais apropriado a ser feito naquela situação específica em que ele se encontre num dado momento, segundo seu programa. Ainda que na realidade factual ele esteja provocando sinistros, catástrofes, danos sociais graves e até mesmo a morte de seres humanos devido às suas ações pretensamente inteligentes, mas hipoteticamente desastrosas.

Se o sistema cibernético-informacional realmente estiver determinado acerca de que tal ou qual ação que empreende é a mais apropriada, segundo sua codificação interna pregressa original, segundo também seus parâmetros e calibragens prévias, não importará o argumento que lhe seja apresentado, nem o apelo emocional acerca do que possa acontecer caso ele prossiga com sua ação resoluta, pois o sistema necessariamente segue e sempre seguirá regras rígidas, determinísticas, fixas, sem quaisquer ambiguidades ou exceções possíveis, ainda que essas regras e procedimentos –no caso da IA– sejam agrupados e arranjados de tal modo por seus projetistas, que visem justamente dar a impressão de que exista alguma espécie de vida no interior do sistema computacional automatizado, ou mesmo um alguém subjetivo qualquer que pudesse experimentar consciência, subjetividade, que tivesse protagonismo ontofenomênico, animando a máquina, impulsionando e movendo suas ações.

Na verdade, se ignorarmos as aparências externas e deixarmos de lado os antropomorfismos, e observarmos com atenção a constituição e a lógica internas dos referidos constructos e sistemas, veremos que o que temos de fato em termos discerníveis é a execução contínua de uma série de programas, rotinas e protocolos, o que significa dizer, ações acéfalas, e que assim, no fundo, não poderá haver ali valores a se respeitar, sentimentos reais a se sentir, se compreender e se expressar, existência vívida, subjetividade experiencial, nem muito menos ainda um agente atuante com perspectiva de primeira pessoa, ancorado e conectado ao mundo e à cultura.

A máquina –o que vale dizer, o computador, o androide e o robô– apenas executa obedientemente o seu programa rígido e pré-determinado –isso, quando “as coisas funcionam bem”, sem bugs ou panes–, e ainda que esse programa excepcional incluísse representações do que sejam valores humanos, experiências ou sentimentos, ou ainda ética, juízo e discernimento, o que haverá se manifestando ali no constructo não serão reais valores, experiências ou sentimentos, não no verdadeiro sentido dos termos, nem muito menos ainda poderá haver ética, juízo e discernimento algum, mas sim a mera simulação computacional das representações abstratas de tais propriedades no interior da máquina, representações estas completamente acéfalas e destituídas justamente das qualidades principais que pretensamente deveriam sentir, exprimir e compreender.

E mesmo que impuséssemos uma série de regras e até mesmo um código de conduta protocolar de segurança, que visasse proteger os humanos nas relações sociais com tais sistemas inorgânicos, ainda assim, a interação de tais constructos com a realidade do ambiente societal e suas complexidades sempre gerará situações imprevisíveis a priori para o projetista e programador ou mesmo engenheiro de software, já que a realidade “lá fora”, além do mundo abstrato das ideias e reflexões, é extremamente dinâmica e complexa, fluida, e essa fluidez complexa e dinâmica não é computável.1

Cândido seria aquele que, por desventura ou malogro, inocência crédula ou mesmo desconhecimento da especificidade técnica do assunto hora em tela, acreditasse que meras “três leis” lúdicas, oriundas de um romance de ficção científica2 do século passado, pudessem –na vida real e de fato, no século XXI– nos proteger dos comportamentos imprevisíveis e/ou indesejáveis de nossos próprios constructos cibernético-informacionais dotados com inteligência artificial (IA).

Seria uma grande tolice crer que a inteligência artificial só nos trará benefícios e confortos no futuro, e nunca crises e problemas. Pensá-los (crises e problemas) nesse momento que antecede a possível resolução do chamado “problema duro ou difícil” da consciência (hard problem), pode ser não apenas salutar, como também útil, já que existe no horizonte até mesmo a possibilidade extrema do surgimento de uma superinteligência,3 ou mesmo de várias, o que eleva potencialmente o risco para um outro patamar por hora pouco preciso ou mensurável, cujas consequências periclitantes não podemos de modo algum prever a priori.

Mas, ainda que consigamos criar e ainda dominar uma superinteligência, de maneira a explorá-la sempre e unicamente a nosso favor –isso tudo num cenário ótimo sem maus funcionamentos ou panes–, tal constructo ainda estaria irremediavelmente determinado por suas próprias estruturações intrínsecas relativas à sua codificação original, e tal codificação original por sua vez não permite e não prevê o incomputável. Computadores não computam o incompreendido, o irredutível, o irrepresentável, logo e por estas mesmas razões, eles não computam também –por motivos técnicos igualmente óbvios– o incomputável.

Assim, como pano de fundo de toda essa problematização teórica acerca da inteligência artificial (IA), está 1) a nossa incapacidade inconteste de compreender o funcionamento objetivo da mente biológica que gera a consciência; 2) a nossa incapacidade subsequente de representar algo que não compreendemos e que talvez nem seja passível um dia de uma representação formal, e 3) também a conclusão lógica da qual não podemos nos esquivar de que sem uma compreensão e representação formal é impossível reproduzir, copiar ou mesmo simular o fenômeno da mente consciente que se pretende replicar.

Em síntese, sem compreensão do fenômeno, e sem sua redução e representação formal, não pode e nem poderá haver reprodução, cópia ou simulação. Mesmo porque, como reproduzir, copiar ou mesmo simular algo que não compreendemos? E esse é, em linhas gerais, o famigerado hard problem, ou mais simplesmente o difícil problema de conseguir reproduzir o fenômeno da consciência em sistemas cibernético-informacionais, dentro do âmbito que se costuma chamar de IA forte, em contraposição à IA fraca, que são justamente os sistemas especialistas que absolutamente dispensam qualquer tipo de consciência, pois executam uma única função específica.

Antes de avançar, explicitamos que é óbvio que as tais leis mencionadas não podem e nem poderiam fazer sentido real para um robô pretensamente inteligente, nem muito menos ainda funcionar, no sentido prático e objetivo de tentar proteger os seres humanos nas relações com seus sistemas artificiais, sejam eles computadores, androides ou robôs. De modo que, nesse ensaio, tomaremos as “três leis” apenas como uma espécie de objeto teórico exemplificador do que não pode e nem poderia funcionar na prática, como também para poder provocar a problematização e especulação de cenários futuros possíveis envolvendo robôs superinteligentes e seres humanos, bem como refletir sobre os problemas que certamente emergirão junto com a interação mais intensa e disseminada com estes sistemas computacionais de IA.

Ipso facto, nosso objetivo será demonstrar o quão falaciosas são as “três leis da robótica” no que tange à vida real e as relações que travamos com nossos sistemas, usando ainda sua hipótese improvável e inverossímil para demonstrar, por consequência, a quantas anda o nosso estado atual da arte em sistemas de inteligência artificial. Tomemos então uma a uma as próprias leis e suas formulações enunciativas, e constatemos suas principais fragilidades e inconsistências não apenas filosóficas, mas também objetivamente práticas e técnicas.

Sobre a “primeira lei”

Um robô não pode prejudicar um ser humano ou, por inação, permitir que um ser humano sofra algum dano. Ora, o problema dessa primeira lei começa imediatamente com a própria formulação e a terminologia utilizada, e também com a definição do significado objetivo desta mesma terminologia na própria elaboração enunciativa da referida lei. Num só termo, tudo isso referenciado e enunciado nessa primeira lei dependeria necessariamente da superação da restritiva barreira do hard problem da consciência em sistemas cibernético-informacionais, o que sabidamente ainda não se concretizou e nem há previsões para a sua concretização.4 E sem uma consciência instanciada no sistema, como fazer o robô compreender o que significa “prejudicar”, por exemplo? Ou ainda explicar a ele o que seja causar dano, ou o significado da expressão “sofra dano”? Mais difícil ainda seria definir o que seja ser “um ser humano”.

Nesse sentido, como definir e representar tal coisa para o robô e ainda simular artificialmente a percepção experiencial do que seja sofrer um dano ou causar dano, se sabemos que a máquina não sente e nem pode sentir sofrimento ou dor? Além disso, tudo é complexo demais e repleto de ambiguidades e armadilhas quando tratamos de IA. Muitas vezes, quando se atribui ao sistema a adjetivação de inteligente, tudo se resume apenas a meros jogos de palavras, figuras de expressão, e nada mais.

Ainda quanto à primeira “lei”, o problema de definição é de fato monumental, já que a impossibilidade de definição precisa ou mesmo parcial da consciência biológica impõe uma outra impossibilidade, ou seja, a impossibilidade de representação, e esta, por sua vez, também impõe uma outra restrição, que é justamente a impossibilidade de cópia, reprodução ou simulação, já que para nós as perguntas centrais ainda persistem completamente em aberto: o que é afinal um ser humano? Como funciona a mente consciente?

Essas perguntas nos assombram e nos perseguem há milênios, sem que haja uma definição acabada e consensual sobre suas respostas, e talvez nunca existam. Sendo que, por outro lado, há infindáveis definições que concorrem juntas e até mesmo se somam ou se anulam num monumental arcabouço teórico, poroso e multifacetado que, repleto de ambiguidades e conflitos de hipóteses, tenta expressar o que seja ser um humano. O que significa dizer que existem infinitas definições, e todas elas dependem de um conjunto de crenças e valores contíguos e indissociáveis que as sustentam, numa teia simbólica complexa de intersubjetividade que nós humanos temos enorme facilidade em conceber, significar, representar, e ainda transmitir às novas gerações.

Mas o que seria afinal um ser humano da perspectiva hipotética de uma máquina computacional pretensamente consciente? Como implantar nela um conceito e um valor acompanhado de seu simbolismo e significado, sendo que nem mesmo nós sabemos como defini-los com a precisão necessária à reprodução do fenômeno? E o termo “permitir”, o que significaria do ponto de vista do sistema? Bem, a resposta mais lógica e razoável é que um código cibernético-informacional é, por essência, absolutamente restritivo em sua concepção e em seu ordenamento, e principalmente em sua execução, de maneira que ele vai permitir ou não permitir de acordo unicamente com sua codificação original, o que significa dizer que, ou ele sempre permite, ou ele nunca permite, conforme foi programado.

Nesse âmbito não pode haver nada em aberto e indefinido a ser decidido e definido pelo próprio sistema, pois o sistema não decide, não define, ele apenas executa sua programação original pregressa, e isso é tudo o que ele consegue e pode fazer.

No sentido de esclarecimento, hipotetizemos a título de um ou dois exemplos apenas –lembrando que poderíamos elencar diversos outros possíveis–, e digamos que há dois seres humanos armados e em conflito, que se encontram numa dada situação social de enfrentamento –um assaltante e um segurança privado de loja comercial, por exemplo, durante um roubo–, e que ambos no mesmo momento deem ordens semelhantes e conflitantes a um mesmo robô policial que possa intervir a favor de um dos dois. A quem o robô obedeceria, se a premissa maior é simplesmente “não pode prejudicar um humano”? Imaginemos uma outra breve situação hipotética onde haja dois humanos clamando por socorro diante de um mesmo perigo iminente e fatal, sendo que ambos não podem ser salvos ao mesmo tempo.

Quem deverá ser socorrido primeiro? Quais são os critérios que devem balizar a escolha do sistema diante de uma mesma e única diretriz gravada em seu código?[5] A resposta desconcertante é que tal situação não é computável e nem previsível a priori, e é exatamente por isso que ainda não temos robôs conscientes trabalhando como policiais ou seguranças armados nas ruas e cidades do mundo. Por hora, apenas no mundo lúdico da ficção científica o robô pode ser consciente, ter subjetividade, superando assim com facilidade o hard problem, de modo a poder também distinguir num átimo a qual humano deveria obedecer.

De maneira que a “primeira lei” seria –se fosse real– absolutamente inócua e ineficaz, no que toca a tentar garantir a segurança dos seres humanos nessas novas formas de relações que emergem junto com a concepção e uso social desses constructos artificiais. E ainda que se persiga a meta de tentar tornar tratável o problema difícil da consciência, muito ainda se tem para trilhar, não apenas para conhecer a consciência biológica, como para reproduzi-la artificialmente, frisando que não possuímos nada nem semelhante à consciência no interior de nossos computadores, androides e robôs da atualidade, e isso é um impeditivo irremovível para obedecer qualquer lei, inclusive a “primeira”.

Em síntese, e em termos de raciocínio lógico, o problema é que 1) não possuímos ainda robôs nem sistemas capazes de sopesar qualidades e conveniências de situações reais da vida cotidiana, pelo simples fato de não termos também robôs nem sistemas com níveis de consciência semelhantes ou sequer parecidos com os dos seres humanos ( hard problem). E mesmo que tivéssemos robôs superpotentes e superinteligentes, 2) ainda não existe uma forma conhecida para a redutibilidade do fenômeno da consciência –nem da própria, nem da dos outros–, sendo a consciência um fenômeno absolutamente subjetivo, e necessariamente de primeiríssima pessoa, e que não pode ser mensurado nem experienciado por outrem.

O que nos leva à seguinte situação em grande medida conclusiva: 3) se não podemos reduzir o fenômeno da consciência e nem representá-lo em alguma linguagem formal conhecida, também não podemos nem poderemos imitar, reproduzir e nem mesmo simular tal fenômeno computacionalmente, o que por sua vez, inviabilizaria na prática a “primeira lei”, tornando-a, como já foi dito, inútil no mundo real e factual.

Sobre a “segunda lei”

Um robô deve obedecer às ordens que lhe são dadas por seres humanos, exceto quando tais ordens conflitarem com a Primeira Lei. Essa segunda lei nos parece um tanto tautológica, no sentido de que robôs, como máquinas computacionais que são, apenas e tão somente seguem ordens rígidas da lógica e da matemática que lhe são dadas por seres humanos a priori, e até aí não há e nem haveria necessidade de nenhuma diretriz nova ou mesmo lei, e é isso que elas fazem afinal: seguem seu código, executam suas rotinas rígidas e protocolos, e na verdade não é absolutamente disso que se trata. O real problema diz respeito às referidas “ordens que lhes são dadas por seres humanos” verbalmente, incluso aí todas as outras implicações que emergem junto com a asserção ordenativa em quaisquer atos de fala.

E de novo: como o sistema computacional poderá triar e identificar a natureza da ordem dada, ou ainda se a ordem é emitida de boa-fé ou não por seus interlocutores humanos, e como ele poderá identificar a voz de comando entre tantas vozes humanas possíveis que podem lhe ordenar tal ou qual ações ao mesmo tempo? Se ao contrário, o robô só obedecer a uma única voz pré-programada, aquela credenciada e pré-autorizada perante o sistema, tal diretriz seria inútil, pois uma voz não credenciada ou não autorizada não seria sequer considerada, e o sistema e sua operação mundana seriam muito mais restritos em sua utilidade social.

Mas, se um sistema complexo o suficiente puder interagir cognitivamente e em alto nível com os seres humanos, o fato de ser apenas “humano” –podendo ser um bandido, terrorista ou vítima– já seria um dado suficiente para que o robô desse crédito a esse seu interlocutor e o obedecesse, conforme a famigerada “segunda lei” ordena? Ademais, esse segundo ditame previsto nessa hipotética “segunda lei” parece –premeditadamente– delegar ao próprio sistema computacional a capacidade de discernir diante de conflitos complexos e complicados, de deliberar conscientemente, de poder optar em meio ao conflito de ideias, teses e teorias, a hipótese mais provável em termos de benefício em relação ao que foi pré-implantado em seu código original.

O problema é que não existe um tal código com tamanha complexidade, e que ainda seja capaz de replicar o que seja uma consciência deliberando, ou o ato de “deliberar”, pois não há ali um agente, uma intencionalidade, um sujeito, ou ainda uma perspectiva de mundo, de experiência subjetiva, ou outra forma de consciência qualquer.6 O que há pragmaticamente é apenas uma máquina seguindo o seu programa pré-implantado, e isso é tudo o que pode acontecer no interior de um computador, androide ou robô.7

Enfim, não é crível que um sistema computacional essencialmente binário, que não tolera ambiguidades de nenhuma espécie, possa ter alguma maneira de lidar com a compreensão do que seja e signifique a “primeira lei” ( Um robô não pode prejudicar um ser humano ou, por inação, permitir que um ser humano sofra algum dano), nem muito menos lidar com a tarefa monumental de tentar discernir entre possíveis ações futuras conflitantes, hipotéticas e concorrentes –o que acontece o tempo todo no cotidiano dos humanos–, e nem muito menos ainda poder extrair delas a melhor e mais apropriada ação a ser empreendida, à revelia das demais existentes e possíveis, como fazem trivialmente os organismos biológicos.

E síntese, a segunda lei –assim como a primeira– seria absolutamente inócua e ineficaz, principalmente no que tange a tentar proteger os seres humanos dos maus comportamentos dos sistemas computacionais, androides e robôs. E uma vez que a “primeira lei” também se mostrou igualmente ineficiente e inútil, a “segunda lei” –que se baseia na primeira– também não pode nem poderia funcionar e cumprir sua pretensa função de resguardar os seres humanos das ações danosas de, por exemplo, robôs descontrolados. Uma tríade de leis dessa natureza só poderia funcionar de fato na ficção científica, onde os robôs e os demais sistemas já igualaram ou superaram a capacidade cognitiva humana, e por isso conseguem produzir façanhas extraordinárias que, na vida real e por hora, apenas organismos biológicos puderam e podem alcançar.

Lembrando que a mais inteligente das inteligências artificiais chega a parecer uma pálida caricatura falhada de vida diante da capacidade cognitiva e autopoiética real de organismos biológicos bem menos complexos que seres humanos.8 Mesmo porque, não seria crível a emergência de um fenômeno tão complexo e extraordinário como a consciência, ou mesmo seu engendramento, por meio simplesmente de um arranjo tecnológico de sistemas inanimados, no interior de uma máquina de computar energizada com eletricidade. Notoriamente, nem a vida e nem a consciência enquanto fenômenos se resumem a apenas isso. Se o hard problem da consciência é um empecilho irremovível para a hipotética funcionalidade útil da “primeira lei”, o mesmo se dá e se daria com a dita “segunda lei”, e pelas mesmíssimas razões, estando assim irremediavelmente aprisionada no mundo ficcional, proibida de se adentrar na realidade factual mundana da concretude, sob pena de ser classificada apropriadamente como falácia.

Sobre a “terceira lei”

Um robô deve proteger sua própria existência, contanto que tal proteção não entre em conflito com a Primeira ou com a Segunda Lei. Livrando-nos definitivamente da falácia lúdica das “três leis”, qual seria o robô capaz de tamanha potência cognitiva, senão o da ficção científica de Asimov? Capaz também de resolver crises e dirimir conflitos internos? Segundo consta na literatura especializada internacional, superar o hard problem da consciência continua sendo um desafio a ser vencido, e isso num futuro incerto que ainda não é passível de precisão alguma em termos de data.9

E sem uma consciência artificial complexa subjetiva e inerente ao próprio sistema, capaz e eficiente, não é possível “proteger sua própria existência”, como enuncia a referida “terceira lei”, mesmo porque não há “existência” alguma, e nem muito menos ainda uma forma de saber se sua ação pretensamente consciente entra “em conflito” ou não com quaisquer outras regras ou leis que se possa imaginar, pois, mais uma vez, é importante frisar: não existe “conflito” no interior do sistema computacional, mas apenas um arranjo tecnológico que executa uma série de rotinas, protocolos e comando específicos, onde não pode e nem poderia haver ambiguidades, dúvidas, divergências, sob pena de se perder a computabilidade do próprio sistema, como também sua operacionalidade objetiva e funcional.10

Em um sistema desse tipo, binário, ou é “0” ou é “1”, e não tem mais “conversa fiada” acerca de variações ou dúvidas. Não existe um talvez “0”, ou quem sabe “1”. Isso é impensável e impossível em sistemas computacionais binários, da mesma forma que não há e não poderá haver também fracionamentos e variações de subpedaços de bits, pois não há como grafar na “fita virtual” da Máquina de Turing “1,5”, por exemplo, nem muito menos “0,1”, “0,2”, “0,3”, pois para sistemas de inteligência artificial, que por sua vez operam com computadores binários, toda a codificação tem de estar absolutamente clara e definida a priori nos bits, onde esteja matematicamente programado e determinado também o que seja cada bit de informação, sua função, seu ordenamento, sem que se perca, troque de lugar ou altere, um só bit sequer.

Quanto a essa recursividade enganadora sugerida pela “terceira lei”, de não poder incorrer na quebra da “primeira” e da “segunda” leis, a questão problemática continua sendo absolutamente a mesma, ou seja, se como demonstramos não é possível para o sistema seguir a “primeira lei” e nem a “segunda lei”, com mais razão ainda sustentamos que ele não poderá também seguir a “terceira lei”, já que delas dependeria necessariamente para poderem encontrar sua validade, o que –como vimos– não acontece. Repetindo: não pode haver conflito algum no interior do código binário original do sistema, na concepção e formatação do arranjo computacional, na engenharia e arquitetura de software, de maneira que o programa –reversamente– vai executar apenas o seu código determinístico e finito original, formalizado e representado pelo programador de antemão, e isso é tudo o que pode acontecer.

E assim, mais uma vez, retornamos forçosamente ao difícil problema da consciência, ou seja, ao hard problem, pois somente um robô extremamente sofisticado e desenvolvido, e de alguma maneira insólita consciente –não apenas de si, mas também do mundo e dos complexos sistemas de valores–, poderia enfrentar problemas dinâmicos e complexos como estes, que exigem uma complicada interpretação das famigeradas “leis”.

Assim sendo, o termo “proteger”, por exemplo –na expressão da máquina computacional–, não será absolutamente nada parecido com o que seja “proteger” para a compreensão trivial dos seres humanos, pois essa proteção –no caso a humana– está irremediavelmente atrelada a valores relativos à vida, à própria pessoa humana viva, à dignidade dessa pessoa, o respeito conferido culturalmente à ela, diz respeito também a um corpo biológico que performa no mundo físico e químico, que sente dor, fome, medo, afeto, e que também, no extremo, pode morrer a qualquer instante, e isso vai concedendo significado à própria existência, e tudo isso é absolutamente estranho e de fato inacessível para o sistema cibernético-informacional, seja ele um computador, androide ou robô. Quanto a isso, não há ainda qualquer solução em vista.11

Considerações finais

A inteligência expressa pelos sistemas artificiais que construímos e usamos reflete a nossa própria inteligência, no sentido de que são extensões de nossa própria mente inteligente em relação ao meio circundante, aos outros, ao mundo das ideias, mas daí a conseguir instanciar a nossa própria consciência vívida nestes mesmos sistemas artificiais, há um grande e vertiginoso abismo em termos de capacidade e competência técnica nos separando da realidade factual de nossos dias. Ainda estamos longe de robôs conscientes, ainda que persigamos essa meta diuturnamente, e que o estado da arte também tenha evoluído de forma significativa nas últimas décadas, principalmente no que concerne à IA fraca, ou, mais simplesmente, aos sistemas especialistas.12

Em termos conceituais, seria ingenuidade querer crer que uma consciência artificial maquínica pudesse se estruturar de maneira idêntica à consciência biológica, em termos de processos internos, constituição fisioquímica e dinâmicas oscilatórias, algo que, inclusive, está fora de cogitação. Se e quando houver uma inteligência artificial pretensamente consciente, tal inteligência provavelmente se estruturará por meio de informação, energia e dinâmicas de sistemas computacionais complexos, mas como processos distintos dos que ocorrem no carnal, biológico, orgânico.

Além disso, consideramos igualmente ingenuidade crer –diante de tudo o que foi dito até aqui– que computadores, androides e robôs, nunca possam atingir o nível de consciência que os seres humanos possuem hoje, já que a bioevolução continua em curso de modo constante, desdobrando-se em diversas frentes nesse exato instante, e de fato não existem limites fixos para os graus e níveis que a complexidade cognitiva de um sistema inteligente, seja orgânico ou não, podem alcançar.13 Vale frisar que a mente do ser humano mais rude, tosco e menos preparado intelectual e cognitivamente, está a anos luz à frente de nosso melhor computador com IA, principalmente no quesito experiência consciente, subjetiva, intencional, agenciadora, meta perseguida com obstinação pela IA forte desde os anos 1940.14

Mas, extrapolando, nesse sentido de complexidade crescente do estado da arte em IA, um constructo cibernético-informacional que fosse capaz por meio de seu programas de expressar inteligência, exprimir sentimentos, experimentar consciência –ainda que estruturada de forma absolutamente diferente da nossa consciência orgânica e biológica–, por meio da execução de diversos programas e subprogramas replicando os sentidos, por exemplo, talvez também estivesse sujeito a erros, falhas e panes ocasionais, como sabemos que acontece vez por outra com quaisquer equipamentos tecnológicos de nossa cultura, por mais sofisticados que eles sejam ou pareçam ser.

Não é conveniente elencar a lista de desastres e acidentes graves provocados por nossas próprias técnicas e tecnologias, porém, vale rememorar resumidamente que, com o melhor de nossa tecnologia em jogo, naves espaciais já explodiram pouco depois do lançamento, carros autônomos provocaram acidentes fatais com mortos e feridos, e aviões modernos de carreira foram derrubados por mau funcionamento de seus próprios pilotos automáticos –todos estes constructos dotados com sistemas modernos de IA–, levando à morte dezenas de pessoas.

E por mais que se desenvolva a prevenção e a segurança na inteligência artificial como um ideal constante, sempre há e sempre haverá margem para surpresas: o imponderável, o imprevisível, o aleatório, o emergente, as conjunções de fatores; como a nossa própria história pregressa tem nos ensinado tão bem até então. Não é razoável imaginar um mundo asséptico, limpo, ordenado, idealizado, onde todas as tecnologias, incluso a IA, funcionem sempre bem e dentro de seu próprio projeto original de concepção, sem esses tipos de desvio, inconvenientes e imprevistos. A tecnologia de IA, como qualquer outro objeto técnico de nossa cultura, nunca pode ser controlada por completo por seus criadores, pois uma vez que ingressa na cadeia causal dos acontecimentos ordinários do mundo cotidiano, projetam-se a uma espécie de vida e força próprias, de modo que passam a agir e atuar à revelia de nossa própria vontade objetiva, fugindo do controle.

É possível imaginar também para o futuro, um sistema cibernético-informacional dotado com uma forma específica de mente –de novo, onde a mente humana é medida e referência–, imitando a experiência consciente das pessoas, ou baseada na simulação daquilo que conhecemos delas e, com isso, é bem provável que esses sistemas estejam ipso facto susceptíveis à falibilidade, ao erro, aos descontroles emocionais, às crises de ansiedade, às falhas de caráter, e até mesmo à própria loucura e a insanidade.

Afinal de contas, a existência não é um fardo leve, e uma parcela significativa das populações mundiais tem problemas mentais e psicológicos de adaptação à vida e à própria existência, o que nos leva à seguinte questão: o que pensaria de si mesmo um programa de computador, androide ou robô, cuja expressão máxima para si mesmo fosse a sua própria existência vívida computacional, executando fiel e docilmente seu código algorítmico originário, enquanto é confrontado com a noção consciente de sua própria consciência experiencial da realidade em que está inserido? Ser um ser vivo e estar consciente de sua própria consciência não é algo fácil, e nós humanos sabemos por experiência própria.

Sem embargos, referimo-nos à hipótese inconveniente de um sistema instável e desequilibrado, de um computador contrariado e vil, de um androide magoado e vingativo, de um robô traído e furioso, de um autômato insano e descontrolado, com tudo aquilo que se é capaz de fazer em tais estados emocionais e em tais situações extremas. Enfim, acreditamos que tudo pode acontecer. Além disso, no que mais esses seres cibernético-informacionais superinteligentes e conscientes seriam também semelhantes a nós?

Experimentariam agressividade, cobiça, maldade? Embriagar-se-iam com seu próprio poder? Revoltar-se-iam contra nós, seus próprios criadores, que como pretensos deuses insuflamos vida no não vivo?15 Há que se estar atento e observar com discernimento os acontecimentos, para que possamos estar à altura dos desafios que estão por vir, oriundos de forças poderosas e desconhecidas que nós mesmos estamos colocando em ação.

Ademais, ainda que o problema duro da consciência em sistemas cibernético-informacionais (hard problem) permaneça inalterado em sua insolubilidade, não é difícil imaginar robôs com vários níveis e graus distintos de inteligência, interagindo com os seres humanos nos mais diversos setores e ambientes da vida cotidiana social. E, tendo em vista que nossas sociedades se automatizam e informatizam sempre mais, e que a tendência é que seres humanos interajam cada vez mais com sistemas inorgânicos e artificiais, de maneira que, com o próprio aumento das interações, e a complexidade de possibilidades circunstanciais de toda ordem envolvendo seres humanos e, por exemplo, robôs, torna-se relevante a discussão teórica sobre o difícil problema da consciência ( hard problem) em sistemas cibernético-informacionais, e também sobre os riscos envolvidos nessa disruptiva tecnologização que experimentamos na atualidade.

Por isso, é muito difícil crer que meras “três leis” lúdicas, oriundas da ficção científica, pudessem ser instrumento suficiente e satisfatório para o enfrentamento das questões complexas que envolvem seres humanos e sistemas inorgânicos dotados com inteligência artificial (IA). As “três leis” não podem –e na verdade, não conseguem– nos proteger de nada simplesmente porque nós não sabemos ainda implantar num robô uma consciência suficiente e capaz de discernir e obedecê-las a contento, conforme seu enunciado solicita.

E não sabemos, porque essa consciência suficiente e capaz, cuja medida é inegavelmente o próprio ser humano, não é compreendida em sua dinamicidade complexa corpórea, em seu funcionamento objetivo, e em sua dinâmica interna no próprio ser humano, e nem muito menos ainda tudo isso é redutível e formalizável por meio de uma linguagem formal conhecida e disponível qualquer, incluso a matemática, que se arvora a trazer para si a constituição e estruturação original da própria realidade ao nosso redor, ainda que a biologia insista em lhe escapar, esquivando-se de sua régua puramente quantitativa e nunca qualitativa, sendo que, biologicamente, o mais importante não se quantifica, qualifica-se.