Muito se tem ouvido falar na atualidade de inteligências artificiais (IA) e máquinas inteligentes, mas muito pouco sobre os limites da computação que fazem ou não possíveis essas mesmas simulações de inteligências em sistemas artificiais. Se por um lado avançaram muito os suportes técnicos computacionais, o que vale dizer, os hardwares -que de fato ficaram mais rápidos, menores e mais potentes-, por outro, pouco ou nada avançaram as técnicas de engenharia dos programas que fazem funcionar estes mesmos suportes técnicos computacionais, ou seja, os softwares, bem como as teorias conceituais que subjazem a eles, estruturando-os, que têm sua origem e gênese. O objetivo desse artigo é tentar aclarar os possíveis equívocos propalados pelas mídias de massa, e, em última instância, pelos próprios cientistas e entusiastas das IA, a saber: o fato de anunciar-se ‘aos quatro ventos’ a eminência do surgimento de sistemas cibernético-informacionais realmente inteligentes, pretensamente vivos, conscientes de si mesmos e também do mundo que os cerca, algo que, definitivamente, não encontra eco na realidade factual, nem muito menos ainda nos limites atuais da computação.
Much has been heard in the present of artificial intelligences (IA) and intelligent machines, but very little about the limits of computing that make or not possible these same simulations of intelligences in artificial systems. If on the one hand advanced computational technical support, which is to say, the hardware-that actually got faster, smaller and more potent-, on the other, little or nothing advanced the engineering techniques of the programs that make these same work Computer technical supports, i.e. the softwares, as well as the conceptual theories that lie to them, structuring them, which have their origins and genesis. The purpose of this article is to try to clarify the possible misconceptions of mass media, and, ultimately, by the scientists themselves and enthusiasts of IA, namely: the fact of announcing ' to the four Winds ' the eminence of the emergence of systems Cybernetic-Informational really intelligent, pretensionally alive, aware of themselves and also the world that surrounds them, something that definitely does not find echo in factual reality, nor much less still in the current limits of computing.
Desde o fim da Segunda Guerra Mundial (1945), teóricos e pesquisadores das
inteligências artificiais (IA
a inteligência artificial começou como um campo cujo objetivo era replicar inteligência de nível humano em uma máquina. As primeiras esperanças diminuíram à medida que a magnitude e a dificuldade desse objetivo foram apreciadas. Lento progresso foi feito ao longo dos 25 anos seguintes, demonstrando aspectos isolados da inteligência. Trabalhos recentes tendem a se concentrar em aspectos comercializáveis de “assistentes inteligentes” para trabalhadores humanos.
Isso tem levado a uma aceleração dos avanços em determinadas áreas das pesquisas em IA, progresso esse que não aconteceu analogamente em outras. Todavia, o que fez com que as pesquisas em IA arrefecessem, na segunda metade do século XX, foi a experiência prática desfavorável que explicitou as suas limitações e contingências. Muitas promessas foram feitas, e, de fato, várias delas não foram cumpridas.
Ou seja, engendrar uma real inteligência não se mostrou tarefa fácil na labuta cotidiária dos pesquisadores e engenheiros das IA, e pouco a pouco a dura realidade começava a se impor, o que significa dizer, tornavam-se mais nítidos os limites da computação. Mas, retornando ao âmbito das conceitualizações e definições, colhemos da lavra de Frederick Brooks (1986, pp. 14-15) a seguinte afirmação:
Duas definições bastante diferentes de IA são comuns hoje em dia. AI-I: O uso de computadores para resolver problemas que antes só podiam ser resolvidos aplicando inteligência humana. AI-2: O uso de um conjunto específico de técnicas de programação conhecidas como heurísticas ou baseadas em regras. Nessa abordagem, os efeitos humanos são estudados para determinar quais heurísticas ou regras práticas usam na solução de problemas... O programa é desenhado para resolver um problema da maneira como os humanos parecem resolvê-lo codificados na base de regras de maneira uniforme, e ferramentas são fornecidas para desenvolver, alterar, testar e documentar a base de regras. Isso regula grande parte da complexidade do próprio aplicativo. O poder de tais sistemas não vem de mecanismos de inferência cada vez mais sofisticados, mas de bases de conhecimento cada vez mais ricas que refletem o mundo real com mais precisão.
Tais sistemas são chamados de sistemas especialistas. E, como escreve Frederick Brooks (1986, p. 15) “o pré-requisito essencial para a construção de um sistema especialista é ter um especialista”, ou seja, o primeiro problema de relativa robustez e complexidade a ser enfrentado para a concepção de uma verdadeira inteligência artificial (i), é conseguir encontrar um especialista extraordinariamente competente, que seja capaz de resumir e sintetizar todas as possibilidades potenciais que o sistema artificial irá encontrar em situações reais que requeiram a inteligência de sua área de especialidade. Transformar esse contexto indeterminado numa coleção de axiomas, então, torna-se mais complicado ainda.
Mas a pergunta espinhosa ainda é: como representar bom senso e inseri-lo num sistema cibernético-informacional? Um segundo problema, não menos sério e também difícil de enfrentar nesse âmbito das limitações (ii), é conseguir formalizar tais conhecimentos em linguagem computacional, ou seja, transformar tudo isso que o especialista pretensamente definiria em dados computáveis, de forma bem definida e determinada, sem ruídos ou ambiguidades, e em seguida implantar com eficiência esse conhecimento na máquina por meio de um software que replique a própria inteligência do especialista humano.
Além disso, (iii) seria necessário que ele (software) fosse capaz também de atualizar esses seus conhecimentos e saberes heuristicamente, autonomamente, através de erros e acertos, fazendo novas descobertas, classificando memórias continuamente, de modo a acompanhar a dinamicidade do ambiente em que está inserido. Infelizmente, tais metas, hoje, parecem realmente inatingíveis, principalmente se considerarmos que um software é uma ideia, um conceito, uma abstração, e que, como tal, possui características intrínsecas das quais eles não podem escapar de nenhuma maneira, o que impõe limitações significativas ao próprio processo.
O ser humano continua sendo o modelo de inteligência que uma máquina pretensamente inteligente deve sempre procurar simular, pois só será considerado de fato inteligente um sistema que exiba características comportamentais e de faculdades e propriedades muito semelhantes às nossas.
Porém, como sabemos, certas propriedades biológicas são simplesmente insimuláveis num sistema artificial. Pelo menos, por enquanto (2018) e, principalmente, se o referido sistema for concebido e construído segundo a teoria computacional que possuímos até agora. Num só termo, ainda é impossível fazê-lo, tendo em vista o estado da arte atual dos sistemas cibernético-informacionais mais avançados de nossos dias.
Ainda assim, e seguindo a mesma linha de raciocínio, como implantar nela (IA) uma
autoimagem de si mesma, um horizonte de compreensão e significação sensível da
amplíssima realidade que 'aí está' no mundo, a englobar tudo no âmbito societal?
Como ensiná-la o que significa sentido? A resposta é óbvia e um tanto quanto
desconcertante: isso é impossível, pelo menos por enquanto. Se “não há ninguém 'ali
dentro' ainda” -como diz Daniel Dennett
Nós mesmos, os seres humanos, quando interagimos com o mundo que nos circunscreve,
estamos sempre a redescobri-lo, a resignificá-lo, já que a realidade em si é sempre
volátil e arredia, constituída no movimento e na duração, como exprimiu muito bem
Henri Bergson,
O previsível sim, quem sabe possa ser computado, pré-programado, mas o imprevisível,
o que ainda não aconteceu, as possibilidades recursivas inimagináveis, as
propriedades emergentes e o próprio acaso, por exemplo, são impossíveis de se
conceber a priori e de se pré-implantar num sistema de IA qualquer. O nosso cérebro,
que funciona como um extraordinário antecipador de cenários, é bioevolutivamente
preparado e constituído para enfrentar exatamente esse tipo de ambiente incerto e
oscilante,
um sistema de sistemas. Cada sistema compõe-se de uma elaborada interligação de regiões corticais pequenas porém macroscópicas e de núcleos subcorticais, os quais são compostos por circuitos locais microscópicos, compostos, por sua vez, de neurônios, todos ligados por sinapses.
Enfim, um sistema bioevolutivamente constituído justamente para interação e interface
com esse complexo e dinâmico ambiente externo. Ou seja, em termos teóricos mas
também práticos, não bastaria um robô, androide e/ou software, que ‘lembrasse’ de
tudo o que experiencia em seu cotidiano, seria necessário também triar, descartar e
atualizar o conhecimento que se adquire
É por isso também que não pode haver no referido sistema cibernético-informacional
hipotético emoção, dor, prazer, medo, amor e assim por diante, pois tudo isso é não
computável, e advém única e exclusivamente da biologia, isso se, e somente se,
houver corpo, e sempre através da mente e da inteligência que são imanentes desses
rebuscamentos e complexificações bioevolutivas dos organismos vivos. Tudo o que
existe é a nossa própria engenhosidade e inteligência estendida nos objetos técnicos
que concebemos e usamos.
Sem essa monumental teia que entretece o sujeito e a sociedade, o indivíduo e a
cultura, o corpo e os sentidos, simplesmente não se pode ter as faculdades e
propriedades da vida, consciência, e, nem muito menos ainda, inteligência. Mesmo
porque, no âmbito biológico -como nos informa
Assim sendo, mesmo que se tenha um software simulando uma pseudo-consciência, num nível avançado de minúcias e detalhes, ainda assim, qual seria a finalidade útil desse sistema cibernético-informacional, se não houver humanos para doar-lhes sentido, utilidade, para demanda-lo, incitá-lo à ação, à resolução de problemas? Para nada, novamente, é a resposta. Simplesmente os computadores não se moveriam, não agiriam, pois não teriam ‘motivos’ para isso. E não se moveriam, agiriam e nem processariam absolutamente nada, simplesmente porque não existiriam na realidade factual ontológica do mundo, como entes animados, como agentes inteligentes e conscientes de si, pois não possuiriam ontologia de vivo, e seriam apenas objetos inanimados do mundo físico.
Nós humanos, por nosso turno, como seres vivos e animados, emotivos e sensitivos, somos motivados e movidos por forças intrínsecas que não nos abandonam nunca enquanto estamos vivos; e tudo isso, triado e interpretado por uma mente consciente e inteligente que vai driblando as ambiguidades e irrelevâncias da realidade dinâmica, acaba conferindo um sentido à própria existência de cada ser individual.
Referimo-nos à ontologia, tão cara à filosofia, ou, como diria Martin Heidegger, do acoplamento estrutural do ser-aí-no-mundo que, definitivamente, as máquinas e sistemas de IA de nossos dias -ainda- não têm. O que nos move (seres vivos), por outro lado, é uma complexidade extraordinária, bem mais ampla e sistêmica do que uma mera sequência numérica qualquer. Isso é um tanto quanto óbvio, mas muitos ainda insistem nesse tipo de especulações.
Os algoritmos são muitíssimo úteis e versáteis, mas, por enquanto, ainda possuem
limitações intrínsecas referentes à maneira como são processados e lidos por um
computador, e também ao que pode ou não ser representado matematicamente, enfim, ao
que pode ser simulado e reproduzido num computador concebido nos moldes da máquina
universal de Alan Turing. Como nos informa Robert
um algoritmo pode ser considerado como consistindo em um componente lógico, que especifica o conhecimento a ser usado na solução de problemas e um componente de controle, que determina as estratégias de solução de problemas por meio das quais esse conhecimento é usado. O componente lógico determina o significado do algoritmo, enquanto o componente de controle afeta apenas sua eficiência.
Como lemos em
Nesse sentido, como conseguir reduzir o incomensurável não determinado e dinâmico da realidade mundana que nos circunscreve e reduzi-lo ao mensurável, representável e determinístico em termos computacionais?
A propósito, a respeito disso (ou seja, das tentativas de tentar traduzir o humano em
linguagem matemática), e ao contrário do que muitos acreditam, o universo e a
natureza viva não são entes matemáticos.
Isso não impede que usemos as matemáticas e os poderosos computadores algorítmicos para fazer aproximações e representações probabilísticas úteis e cada vez mais precisas dessas mesmas realidades que encontramos no mundo físico, na natureza, no universo conhecido, e que tentamos conhecer e explicar.
A informação sem a mente é só informação e nunca poderá se tornar sozinha
conhecimento
No âmbito biológico, por sua vez, as complexidades do cérebro e da mente, sustentando
a inteligência e a consciência, são de fato enormes, extraordinárias, de maneira que
representá-las formalmente seria de fato bastante improvável, segundo os limites
conceituais atuais.
O conjunto de nosso encéfalo se compõe de cerca de cem bilhões de neurônios, o que é, de certo modo, um número elevado! Esses neurônios encontram-se ligados entre si por zonas de contato descontínuo, ou sinapses. Há em média por volta de dez mil por célula nervosa. Isso significa um número total de sinapses, em nosso cérebro, da ordem de 10 [elevado à décima quinta potência (15)]. É uma cifra astronômica.
Ou seja, é um volume conexional extraordinário, para o qual não há ainda uma representação satisfatória e minimamente reproduzível. A teoria não pode se impor -ou não deveria se impor- à manifestação física do próprio fenômeno. E o fenômeno em questão exibe uma complexidade que desafia as mais arrojadas teorias e representações que possuímos.
O organismo humano é um sistema biológico de altíssima complexidade que possui propriedades e faculdades fisioquímicas extraordinárias, que permitem a ele a recursividade e a retroalimentação, a homeostase, e também objetivam permitir a ele refinar a melhor emoção, que, por sua vez, propiciará uma ação coordenada no mundo em que está inserido e deve performar.
Sobre a complexíssima atividade cerebral,
Se não bastasse a complexidade da atividade neuronal em si, por assim dizer, vista como ‘localmente’, enfim, a comunicação entre os neurônios que estão próximos espacialmente uns dos outros, há também as interações de módulos distantes, de regiões não imediatamente conectadas, que se conectam com outras regiões e módulos não-localmente, o que de fato aumenta muito a complexidade de todo o sistema neuronal que se deseja compreender e representar. Nesse âmbito de complexidade, nessa dimensão de indeterminação, a pergunta que não quer calar é a seguinte: como replicar uma dinâmica tão complexa como essa numa linguagem formal computável no interior de um computador ou robô? Ou seja, como modelar um software que compute o que é teoricamente incomputável? Irrepresentável? Não quantificável? Eis a questão posta.
Vejamos uma hipótese relativamente simples e pouco ambiciosa -em termos do estado atual da arte das ciências computacionais, robóticas, mecatrônicas, da engenharia de novos materiais, IA e assim por diante- e juntemos num só corpo cibernético-informacional pernas e braços biônicos, superfortes e flexíveis; que fossem amparados por um esqueleto de titânio muito mais leve e resistente do que os ossos humanos são; e que fosse recoberto por musculatura e tecidos de fibra sintética indeformável e ultra resistente, graças à nanoestruturação de novos materiais, mais fortes que o titânio e o kevlar, por exemplo; cuja sensibilidade tátil pudesse ser em muitos graus aumentada, e também alimentada, mantida e distribuída informacionalmente através do sistema por feixes de fibras óticas muitíssimo finos, sensíveis e também potentes, capazes de sustentar um tráfego brutal de dados e informações, algo que certamente seria necessário para a consumação de sua sensorialidade, otimizando os comandos internos e captando e processando estímulos externos; e que fosse dotado com uma estrutura mecatrônico-robótica robusta e igualmente sofisticada, para centralizar todas as operações e ações.
Adicione a esse corpo, no que fosse a sua cabeça, o sistema ótico-imagético-visual mais moderno e sofisticado que existir; bem como um de emissão e captação de sons de última geração; e certamente já teríamos uma máquina que -pelo menos teoricamente- poderia nos superar em muitas atividades pontuais do nosso dia a dia. Não todas, mas em muitas delas, com certeza.
Todavia, mesmo possuindo um corpo tão resistente e poderoso, tão flexível e
durável, versátil e capaz, tão veloz e forte, faltar-lhe-ia o principal. Ou
seja, para que esse nosso ser robótico cibernético-informacional hipotético
pudesse se tornar de fato um ente vivo, um ser pensante e criativo, capaz de
atualizar constantemente seus próprios conhecimentos e saberes, seria
absolutamente necessário equipá-lo com um processador que fizesse as vezes de
cérebro, um constructo cibernético-informacional igualmente potente e
extraordinariamente capaz como o nosso biológico, o que não seria uma tarefa
fácil nos dias atuais.
Mas, ainda assim, imaginemos hipoteticamente que o nosso robô de fato pudesse ser
construído segundo a nossa estatura média, no que for possível, à nossa imagem e
semelhança, e que ele possuísse um processador tão capaz quanto os nossos
cérebros,
Ou seja, seria necessário obter algo de fato extraordinário, o que vale dizer, um
simulacro perfeito do órgão mais misterioso e complexo do corpo humano -o
cérebro-, órgão esse bioevolutivamente constituído através das eras imemoriais
para ‘chegar’ exatamente ao que é capaz de realizar atualmente, ou seja, esse
aglomerado de massa neuronal de aproximadamente um quilo e meio, fortificado
dentro de nosso sólido crânio, estrutura essa que ‘graciosamente’ produz e
ampara a nossa existência física e intelectiva. E fazê-lo -o que é muitíssimo
complicado, senão impossível- de forma artificial. De modo que seria necessário
conceber e construir, em tempo infinita e incomparavelmente menor -em algumas
poucas décadas,
Como já mencionamos superficialmente nas seções anteriores, há limites irremovíveis no que tange à computação e ao âmbito da modelagem e engenharia de software. Um computador, seja ele qual for, é uma máquina concebida segundo a lógica de máquinas universais Turing, o que vale dizer, que são modelos representativos conceituais abstratos, que operam segundo quatro regras básicas, a saber: avançar, recuar, incluir e excluir, que se dão numa espécie de fita infinita que é a memória.
Daí advém o fato de serem chamadas de máquinas universais. Em certo sentido, elas são abstrações descritivas conceituais, capazes de suportar outras representações descritivas conceituais também abstratas -que são os programas-, que, por sua vez, simulam de forma limitada e pré-programada tal ou qual inteligência, faculdade ou propriedade, estritamente de acordo com as instruções inscritas em seu programa, ou seja, em seu software.
Além disso, as máquinas Turing também operam segundo a arquitetura de Von Neumann, o
que significa dizer que são compostas de unidades de memória, de controle e
executiva. Como escreve
Von Neumann definiu um construtor universal como uma máquina capaz de (a) ler a descrição de um conjunto de células quiescentes arbitrárias a partir de uma fita, (b) produzir excitações em um campo de células no estado em branco para construir a célula quiescente descrita na montagem e, finalmente, (c) ativar esse conjunto de células por uma excitação de partida. A máquina de auto-reprodução [...] é obtida de um construtor universal, fornecendo-lhe uma descrição do próprio construtor e adicionando a ele a capacidade de copiar a descrição fornecida.
“Uma das principais deficiências dos autômatos celulares de von Neumann, no que diz
respeito ao processamento paralelo [informa-nos ainda
Lembrando que até aqui tratamos apenas do hardware, o que vale dizer, da estrutura técnica necessária à computação, estrutura essa que, para poder funcionar, precisa ser dotada também de softwares que estejam em conformidade com as mesmas potencialidades e limitações dessas máquinas computacionais. Nesse sentido, no que se refere ao software, ou ao que poderia ser chamado de sua ‘natureza’ intrínseca, existe uma característica importante chamada essência. Como nos informa Frederick Brooks (1986, p. 11),
a essência de uma entidade de software é um conjunto de conceitos interligados: conjuntos de dados, relações entre dados, algoritmos e invocações de funções. Essa essência é abstrata na medida em que tal construção conceitual é a mesma sob muitas representações diferentes. No entanto, é altamente preciso e ricamente detalhado.
Assim sendo, continua Frederick Brooks (1986, p. 11), “as descrições de uma entidade de software que abstraem sua complexidade geralmente abstraem sua essência”, ou seja, o mesmo pode ser dito no sentido inverso, do limite de sua complexidade, enfim, querer imaginar que um software ou programa pode adquirir inteligência e consciência por si, seria o mesmo que sugerir que ele pode atuar além de sua programação original, o que seria o mesmo que abstrair sua essência mais estruturante.
Mas, o que é afinal um computador? Uma boa definição é que ele é uma máquina de estados discretos que torna acessível matemáticas avançadas, executando cálculos extraordinários, muito rápido, fundamentados em conceitos igualmente complexos, equipamentos que usamos no dia a dia para as mais diversas finalidades, sem que nem mesmo saibamos disso. Em última instância, e no extremo, um computador universal do tipo Turing/Von Newmann é um constructo que trabalha matematicamente, com a ressalva de que ele trabalha apenas uma parte da matemática humana que pode ser computacional, ou seja, computada. Ou, em outros termos, a matemática de números computáveis, que não é absolutamente idêntica à matemática humana.
Diante disso, em primeiro lugar, o problema que se coloca à nossa reflexão -na dicção
de
O que precisa ser retido é que uma máquina Turing trabalha com um espectro limitado
de números computáveis, ou seja, os que estejam ao alcance dessas teorias e
arquiteturas. Para superar algo assim tão estruturante, tornar-se-ia necessário
conceber um computador que fosse capaz de computar o que hoje é incomputável, como
sentido, valor, significado e assim por diante. Necessário também seria que ele
exibisse um alto grau de sensibilidade e autoconsciência, e que pudesse, acima de
tudo, se autocorrigir e se atualizar heuristicamente. Segundo
Todavia, enquanto isso não acontecer, podemos defender a posição relativamente sólida
de que estamos bastante distantes de um contexto assim, em que máquinas sejam
pretensamente inteligentes, conscientes, autopoiéticas
O que impressiona é o fato de, ainda hoje -cinquenta anos depois-, muitas dessas
suposições continuarem residindo na mera prematuridade das hipóteses. No que se
refere à teoria de Von Neumann do Self-reproducing automata,
a extensão conceitual de von Neumann é relevante do ponto de vista bio-teórico, uma vez que proporcionou pela primeira vez as condições necessárias para que um sistema seja capaz de auto-reprodução. No entanto, devido ao rígido determinismo que governa as máquinas de Von Neumann, bem como a falta de tolerância a falhas, elas não são bons modelos de seres vivos.
Ou seja, como referenciamos reiteradamente ao longo desse ensaio, existe um vertiginoso abismo separando a capacidade e potência de computação atual, por um lado, e da modelagem objetiva de sistemas vivos, inteligentes e conscientes, por outro, já que não se compreende completamente a fenomenologia biológica.
Conclusivamente, as afirmações que fizemos no decorrer desse artigo sobre os limites
da computação e sobre a impossibilidade de mensurar o fenômeno complexo humano em
linguagem computacional de forma conceitual, seja formalmente, seja matematicamente,
também têm origem no próprio conhecimento formal que possuímos hoje, como o problema
enunciado no teorema da incompletude de Gödel, por exemplo. Socorremo-nos novamente
na lavra de
O teorema da incompletude de Gödel [...] afirma que, quaisquer que sejam os axiomas, em número finito ou dados de maneira recorrente, existem sempre questões às quais não podemos responder, que permanecem indecidíveis, e para as quais nos faltarão informações. Em outros termos, o teorema de Gödel especifica que é impossível tomar um número finito de axiomas de tal modo que toda questão seja decidível. O que não significa que não podemos analisar uma questão a partir do que sabemos, mas que o número de questões interessantes e novas que precisarão ser adicionadas à resposta é infinito.
Assim sendo, diante de possibilidades infinitas, não é possível depreender quaisquer
representações finitas que possam, ainda assim, ser fiéis à realidade biológica.
Além disso, como lemos em Von Neumann, há outros problemas potenciais que se
apresentam sob a forma de paradoxo. Poderia, por exemplo, uma inteligência qualquer
criar uma inteligência igual ou superior à sua própria. Nesse sentido, muito se fala
de máquinas dotadas com IA concebendo e produzindo outras máquinas de IA mais
inteligentes que elas mesmas, geração após geração, mas o próprio
todos sabem que uma máquina-ferramenta é mais complicada que os elementos que podem ser feitos com ela, e que, em geral, um autômato A, que pode fazer um autômato B, deve conter uma descrição completa de B e as regras sobre como comportar-se enquanto efetua a síntese. Assim, dá-se uma impressão muito forte de que a complicação, a potencialidade produtiva de uma organização, é degenerativo, que uma organização que sintetiza algo é necessariamente mais complicada, de uma ordem superior, do que a organização que sintetiza.
Diante do relato exposto ao longo desse artigo, é fácil perceber que as promessas demasiado auspiciosas de alguns entusiastas provocaram uma expectativa no imaginário popular no que diz respeito a um possível engendramento de inteligências artificiais complexas em um meio cibernético-informacional. Todavia, tais promessas definitivamente não encontram eco na realidade factual dos dias atuais, principalmente se levamos em conta o estado da arte de fazer computadores e programas. Se ainda não temos robôs andando por aí, indubitavelmente inteligentes e conscientes, assim como nós, é simplesmente porque esse tipo de realização ainda está longe de nosso alcance objetivo em termos técnicos e tecnológicos. Assim sendo, uma coisa de fato simples é sonhar com um robô de inteligência superior semelhante à nossa, consciente de si e do mundo, e outra completamente diferente é construí-lo na realidade factual com a potência e a performance necessárias para resistir a quaisquer comparações com um organismo humano bioevolutivamente estruturado e constituído.
É relativamente fácil, por outro lado, perceber o quanto falta às ciências para
alcançar o complexo biológico, no sentido de compreender na plenitude o que seja e
signifique ser um humano. Assim, no sentido de uma possível conclusão de nossas
reflexões até aqui, acreditamos ser pertinente sustentar que, para que possa surgir
uma forma realmente complexa de inteligência artificial em sistemas
cibernético-informacionais, faz-se necessário conceber primeiro novas maneiras de
processar informações e dados, enfim, novas maneiras de computar, que não seja a já
exaustivamente mencionada máquina universal Turing, associada à arquitetura Von
Neumann. Martin
O que vale dizer que, não basta apenas conceber novas abordagens na engenharia de software, na elaboração de programas, nem muito menos avanços progressivos de potência e velocidade nos hardwares, faz-se necessário também algo muito mais desafiador e extraordinário, que seria a concepção de novas formas de computação, numa linguagem diferente da dos algoritmos, pois, como afirmamos logo no início de nossas argumentações, certas qualidades e propriedades do humano biológico vivo são impossíveis de serem representadas fidedignamente por meio da linguagem mais universal, versátil e poderosa que possuímos na atualidade: a matemática.
Ademais, como acrescentam Dina
O que percebemos, é que existem possibilidades latentes em alguns aspectos para avançar nas técnicas de processamento de dados e modelagem de IA complexas, mas todas elas esbarram ou acabam esbarrando nas limitações do não computável, do não determinável, do imensurável dos sistemas biológicos vivos, por exemplo, que se auto-organizam e se auto-atualizam constantemente, ou seja, que atualizam seus próprios conhecimentos durante o ato de conhecer.
Martin
supondo que [...] [um] observador possa alimentar problemas a um dispositivo
sujeito a essa compressão de um tempo infinito, tal dispositivo poderia de fato
resolver o insolúvel sem recorrer ao milagre de Kieu[
Notemos que Martin Davis situa tais teses no campo meramente hipotético, ou seja,
como uma especulação um tanto distante da realidade mundana em que estamos
inseridos, onde ainda reinam absolutas certas limitações. Nesse sentido, concluímos
nosso raciocínio e argumentações juntamente com Dina
embora os cientistas práticos da computação há muito tempo tenham ampliado o conceito de algoritmos para além da computação de funções, a ciência da computação teórica manteve a cosmovisão matemática. Apesar do trabalho teórico de complexidade avançada que se aventura fora dessa visão de mundo, como algoritmos on-line e distribuídos, jogos Arthur-Merlin e provas interativas, nosso tratamento da Teoria da Computação no nível de graduação não mudou. Os princípios matemáticos continuam a enquadrar a computação como baseada em funções e a delimitar nossa noção de problema computacional.
“O campo científico da inteligência artificial (IA) [informa-nos Edward Wilson
(1999, p. 115)] surgiu na década de 1950 logo depois da invenção dos primeiros
computadores eletrônicos. É definido por seus profissionais como o estudo da
computação necessária para o comportamento inteligente e a tentativa de
reproduzir tal comportamento usando computadores”. Ou ainda, nas palavras de
Marvin Minsky apud
Vejamos o que afirma
“A ciência [escreve o referido autor (1979, p. 290)] considera sempre momentos, sempre paradas virtuais, sempre, em resumo, imobilidades. O que vale dizer que o tempo real, considerado como um fluxo ou, em outras palavras, como a própria mobilidade do ser, escapa no caso ao domínio do conhecimento científico”.
Como está em
Segundo Charles Sanders Peirce (1839-1914), filósofo e lógico estadunidense, criador da teoria semiótica pragmaticista, o objeto dinâmico é aquele que se transforma o tempo todo e, por isso mesmo, nunca pode ser previsto e determinado a priori.
E, para tanto, o cérebro não se limita a abordagens lineares e perfeitamente
lógicas, podendo adotar, caso necessário, estratégias bastante diversas, mas
altamente eficientes,
Como escreve
Nas palavras de
“Dizer a um computador o que é uma ‘boa razão’ [informa-nos
“[Os computadores, como escreve
Enfim, seria absolutamente necessário que esse cérebro artificial tivesse a
capacidade de chegar a conclusões novas por si, ou seja, que pudesse atualizar
seus conhecimentos autonomamente, sendo capaz também de raciocinar, no sentido
que compreendemos esse termo hoje, ainda que por via de outros meios, em termos
de suporte.
“Porque [indaga-nos
“Dagognet, Serres, McLuhan falam-nos constantemente [informa-nos Lucien
Autopoiético: o mesmo que auto-sustentação; conjunto de princípios definidores da vida e pertinentes aos sistemas envoltos por membranas, auto-delimitados e internamente organizados, que mantêm dinamicamente sua identidade em um meio ambiente qualquer. Além disso, a autopoiese faz referência a sistemas que se auto-produzem e se auto-organizam autonomamente.
O autor faz referência à unidade de memória nas máquinas tipo Turing/Von Newmann, onde essa unidade é – teoricamente – infinita.