o zumbido coletivo

O zumbido inteligente que você ouve por aí, você lê por aqui!

Alexandre Ferreira

Servidor das letras, funcionário das palavras... ama escrever, escreve porque ama, vive porque escreve... aquele que respira a poesia das coisas cotidianas e procura diagramá-las em alfabeto.

Máquinas que pensam: O problema de Turing.

Para o brilhante matemático inglês Alan Turing, Máquinas podem, sim, pensar. Mas o que seria realmente pensar?

Com a palavra, o Filósofo americano John Searle, com o seu Quarto Chinês, pronto para discordar.


stock-photo--d-rendering-robot-learning-or-solving-problems-680929729.jpg Extraída livremente de https://www.shutterstock.com/

Máquinas podem pensar?

Para o brilhante matemático inglês Alan Turing, sim.

O inglês introduziu em 1950 um teste que levou seu sobrenome e ainda hoje é utilizado para determinar se sistemas computacionais de qualquer espécie são capazes ou não de pensar de modo similar a humanos, com base em suas respostas comportamentais.

Para Turing, a positividade no teste garantia a eficácia do modelo que sugeria que sistemas que executassem determinadas funções por meio de programas, similares àquelas atividades que somos capazes de desempenhar, combinado ao fato de que pessoas desconhecedoras do executante dessas ações não tivessem condições de afirmar se se tratava de uma máquina ou de um homem, então esse modelo computacional poderia ser descrito como pensante.

O homem hoje famoso por ter sido responsável pela decodificação de modelos criptográficos em computadores nazistas na segunda-guerra mundial nos apresentou a tese da Inteligência Artificial Forte.

Seria essa tese tão forte assim?

Há, todavia, uma objeção – aí, sim - bastante forte a esse argumento, a do experimento do Quarto Chinês, proposto em 1980, pelo filósofo americano John Searle.

Resumidamente, Searle imaginou que, trancado num quarto, alguém poderia receber símbolos em chinês e mesmo os desconhecendo completamente, apenas com base em um livro de regras escrito em inglês e em comandos externos de chineses nativos, formasse palavras que nunca soubesse o significado, mas que, ainda assim, poderiam estar em chinês compreensível a um nativo do idioma.

castle-groussay-1159433_1280.jpg Extraído livremente de https://pixabay.com/pt/

Obviamente, esse experimento imaginário descreveu uma falha fundamental no modelo proposto por Alan Turing, pois consideremos, em análise ampla ao experimento de Searle, que programas têm sintaxe e podem obedecer a comandos baseados em regras, mas a esses resultados não está aliada uma semântica, ou seja, compreensão. Como exemplo, podemos dizer que um programa pode simular o som de um choro, mas não vai chorar do ponto de vista fisiológico.

Assim, trocando em miúdos, programas de computador executam comandos, sem que para isso entendam determinado resultado, mas apenas as regras de execução, já as mentes são baseadas em organismos fisiológicos complexos, que ponderam e são infinitamente diversos, não podendo ser destacadas da sua arquitetura física em si: a execução do pensamento está intimamente ligada a um conjunto fisiológico do qual não faz parte apenas o conteúdo sintático, mas um conglomerado de subsistemas orgânicos que, por qualquer motivo desconhecido ainda, abrangem também uma semântica altamente seletiva.

É cediço, então, que o que Searle pretendeu provar foi que pessoas escolhem sobre o que pensar e selecionam as coisas que se encaixam com seus pensamentos dentro de contextos interpretativos somente delas, já as máquinas, apenas executam comandos que simulam, não sendo capazes de se duplicar, por exemplo. Pensamento inclui muito mais do que simplesmente executar um choro, abrange chorar porque se sentiu mal com alguma coisa que pode advir de diversos motivos ou estímulos, alguns até em cadeia, e mesmo assim, diante do comando fisiológico para desabar em choro, ainda ser capaz de reprimir esse desejo e conter as lágrimas, tão simplesmente.

Por agora, tratemos de lembrar a título de exemplo de um filme não muito famoso dos últimos anos: Chappie. Nele, um Robô desenvolvido para atividades policiais acaba desenvolvendo sentimentos por meio de programações que envolvem a consciência humana gravada em um sistema computacional.

chappie-im-des-600x400.jpg Extraído livremente de https://www.planocritico.com/critica-chappie/

Claro que não é difícil perceber que a máquina não é capaz de desenvolver cognição pura e simplesmente, e que necessário se faz que algo de humano lhe seja introduzido em alguma linguagem computacional para que consiga desenvolver aptidões mentais de aprendizado, o que nesse filme é descrito de forma extremamente simplória, até infantil. Há uma passagem do filme em que são vistos arquivos nomeados de consciência.dat ou memória.dat, algo do tipo, e que teriam sido, supostamente, extraídos da mente.

Essa revelação fantasiosa, dentro de um contexto altamente complexo, é justamente o que nos empurra a uma reflexão ampla sobre a dificuldade de naturalizarmos a inteligência artificial como algo passível de deter cognição, a ponto de se ter de simplificar a atuação da mente, reduzindo-a a simples arquivos do tipo banco de dados com inferências lógicas, como se a atuação do intelecto humano dependesse apenas do aspecto lógico, sintático, porque de outra forma não se conseguiria uma explicação minimamente razoável para o fato daquele robô aprender coisas e ser capaz de refletir sobre elas.

Não chega a ser um contrassenso, porque nem senso tem.

Conclusivamente, o exemplo supracitado traduz um elemento fundamental que torna quase irrelevante o teste de Turing em sua capacidade de se chegar à conclusão acerca da capacidade cognitiva de sistemas computacionais, muito embora, possa ter inúmeras aplicações interessantíssimas, algumas extremamente úteis para o desenvolvimento da robótica.

Além do mais, pela obviedade do pensamento de Turing, mentes não poderiam fazer parte dos corpos e, no entanto, sabemos que programas precisam de um meio físico para serem executados, logo, o argumento é em si inválido, já que há uma contraposição forte ao argumento que faz parte do próprio argumento.

A esse ponto, não estamos nada distantes de perceber que máquinas ainda não pensam, humanos, entretanto, é que já pensam as máquinas.


Alexandre Ferreira

Servidor das letras, funcionário das palavras... ama escrever, escreve porque ama, vive porque escreve... aquele que respira a poesia das coisas cotidianas e procura diagramá-las em alfabeto..
Saiba como escrever na obvious.
version 1/s/sociedade// @obvious, @obvioushp //Alexandre Ferreira