A realidade é uma só. As divisões que se fazem nela são criações da nossa mente para melhor entendê-la. Mostra disso é que uma teoria sobre a realidade, quando correta, invariavelmente converge, ou se encaixa, em outras, ou com outras, que se ocupam dos mesmos fenômenos, ou de aspectos correlatos. Tal como quando se preenche um jogo de palavras cruzadas, e as entradas corretas de algumas palavras vão fornecendo as letras necessárias ao preenchimento das demais que com ela se cruzam.
Vejamos, aqui, um ponto que talvez seja exemplo disso.
A mente humana é estudada por diversas ciências. Neurologia. Psiquiatria. Psicologia. E por ramos do conhecimento que não são propriamente científicos, mas filosóficos (não vamos entrar na questão da diferença entre ciência e filosofia aqui): epistemologia, hermenêutica.
Da reunião delas, que permite que umas supram as omissões das outras - como cada uma olha para as mesmas coisas por ângulos diferentes... - são obtidos avanços surpreendentes. Costumou-se chamar essa reunião de "neurociências", assim no plural. Ou de "ciências cognitivas".
Reconhecendo a relatividade das classificações (algo que também decorre de a realidade ser una), pode-se falar também em "ciências cognitivas", também no plural, para designar igual reunião de saberes, inclusive com larga zona de sobreposição com as "neurociências". Mas, aqui, a tônica é a parte do que a mente faz (o conhecimento), e não tanto a mente enquanto estrutura física. E se acresce a ciência da computação, no que toca à chamada "inteligência artificial". Para estudar a IA, é preciso saber, antes, o que é inteligência (sendo aí a maior dificuldade, não tanto no "artificial").
Pois bem. Os achados de umas podem explicar os achados de outras. Ou refutar. Se refutam, no jogo das palavras cruzadas, tem alguma que está dando respostas erradas. Resta saber qual é.
Miguel Nicolelis, um médico que estuda a mente (com foco no cérebro enquanto estrutura físico-corporal) tem sustentado que a inteligência artificial, pelo menos se continuar pretendendo replicar a mente humana com computadores puramente digitais (que usam linguagem que, ao fim e ao cabo, se traduz em sequências de zeros e uns), nunca o conseguirá. Isso porque o cérebro humano não é digital. É analógico. Usa a linguagem, que pode ser traduzida em zeros e uns, mas usa também outras formas de fazer e recuperar registros informacionais.
Parece complicado? Pense na sensação do adulto quando sente, na atualidade, o cheiro da loção pós-barba que décadas antes era usada pelo seu avó, quando iam juntos passear no centro da cidade. Ou nas sensações a que lhe remete a lembrança de alguém querido (ou odiado). Ou o que se sente quando se ouve música usualmente reproduzida em algum momento marcante, bom ou ruim, do passado. A linguagem não chega. E, precisamente por isso, a IA não reproduz.
Nicolelis explica que, matematicamente, para um computador replicar esse caráter complexo e analógico do cérebro humano, de forma digital, seria necessária uma quantidade infinitiva de energia, e um tempo infinito de processamento. Inviável.
Não que não se possa criar um computador inteligente. Até pode ser possível. Mas não meramente acrescentando mais dados e mais potência aos que existem hoje, se continuarem realizando inferências da mesma maneira.
Isso é o que diz um médico, a partir do conhecimento que tem das estruturas do cérebro.
Vamos então à palavra cruzada.
No terreno da Epistemologia, Karl Popper escreveu, há muitos anos, que a indução, como inferência lógica, é falha e conduz a falácias. Tem problemas lógicos e epistemológicos. Há um texto seu, célebre, "o problema da indução", em que isso é aprofundado. A ideia, a rigor, foi originalmente defendida por Hume, e aprofundada por Kant. Popper a expandiu para a Filosofia da Ciência e para servir de base ao seu "falibilismo".
E as máquinas, hoje, fazem indução. Quando mais dados tiverem como material de treinamento, ou como matéria prima, para fazerem a indução, melhores serão os resultados. Mas eles sempre poderão incorrer em erros graves, principalmente quando o futuro não for igual ao passado, quando o contexto atual discrepar daquele de onde foram extraídos os dados do treinamento. Ou, dito de forma mais simples: diante de situações IMPREVISTAS, em que seja necessário o IMPROVISO.
Essa entrada da palavra cruzada converge e confirma a de Nicolelis. E torna errada a resposta dos teóricos de IA que dizem ser uma questão de tempo para, com algum aprimoramento quantitativo (e não qualitativo), termos uma Inteligência Artificial Geral (artificial general intelligence - AGI), igual ou, depois, superior à humana.
Com amparo nela, há autores explicando por que, por usar inferência indutiva, a IA nunca conseguirá igualar a mente humana. Pode superá-la em algumas funções específicas (fazer contas, jogar xadrez...) mas nunca de forma "geral". É o caso de "O Mito da Inteligência Artificial", de Erik J Larson.
Outra "horizontal" da palavra cruzada que desmente a "vertical" segundo a qual bastará esperar mais algumas versões do GPT para termos uma AGI.
E no terreno da psicologia (sobretudo da psicologia comportamental), há autores que sustentam que o
conhecimento humano é "corpóreo". É embodied. As imagens se formam na mente, e dão origem a ideias, pensamentos, conceitos, a partir de analogias com sensações corporais. Daí decorrem duas limitações para a AGI: computadores não têm corpo e, mais emblemático, o conhecimento humano, analógico porque gravado no corpo, responde por mais de 90% do conhecimento humano. O conhecimento consciente, ou racional, é um percentual muito pequeno do nosso conhecimento. Nesse sentido, livros de divulgação científica como o "subliminar" ilustram bem a ideia.
Outra horizontal a infirmar a vertical da possibilidade de uma AGI digital, armazenada em uma nuvem.
Eu meio que já apontava para essa dificuldade em meu livro, que inclusive se ampara em alguns desses autores. É o caso deste trecho:
O pensamento, aliás, talvez seja formado a partir de sensações, as quais de algum modo dão matéria prima a que se façam analogias para a construção de ideias abstratas. Dizer que um sistema normativo está cheio de contradições pressupõe que ele possui um espaço a ser fisicamente preenchido, tal como um estômago. O mesmo ocorre quando se afirma que os propósitos de determinada lei foram esvaziados, ou que a inflação corroeu um crédito ao longo dos anos. Os exemplos são incontáveis: a ideia brilhante, o raciocínio claro, a cegueira ideológica etc. Tudo isso deve ser lembrado quando se trata de programar máquinas (desprovidas de corpos) a fazer o mesmo.
Será assim mesmo? Ou será que somos ludistas presos no paradigma neuro-biológico? Deposite aqui nos comentário o que pensa sobre o tema!
2 comentários:
No plano em que se compreende a IA como “espelho” de quem a utiliza, evidencia-se que a qualidade da interação depende menos do acúmulo de dados e mais do contexto humano que a sustenta — entendido aqui como o conjunto de condições cognitivas, emocionais e situacionais do sujeito. Isso se aproxima das críticas à indução destacadas por Popper: tanto a ciência quanto a tecnologia podem produzir resultados consistentes dentro de padrões conhecidos, mas enfrentam severas limitações diante do imprevisto.
Portanto, a dificuldade não é apenas técnica (a tradução do analógico em digital), mas estrutural: a ausência de corporeidade e de enraizamento simbólico. A inteligência humana está ancorada em experiências sensoriais, afetivas e culturais que ultrapassam a lógica computacional.
Nesse sentido, a IA deve ser vista não como réplica, mas como ferramenta de apoio, cuja eficácia depende de como é situada pelo humano. Reconhecer essa condição instrumental preserva o espaço da consciência e da experiência viva — elementos insubstituíveis, que não podem ser capturados por modelos digitais.
Justamente por isso, é fascinante perceber como a IA, quando bem utilizada, pode ampliar nossa capacidade de compreender, criar e avançar, oferecendo contribuições valiosas ao desenvolvimento humano.
Exato! Não se trata de crítica à IA, mas de reconhecimento da impossibilidade (dentro dos modelos atuais) de uma IAG.
Postar um comentário