As vezes o Chat-GPT acerta, às vezes erra. O mesmo vale para carros guiados, tradutores, e uma série de outros exemplos ou manifestações da inteligência artificial. E o grande problema, que leva a esses erros, e os torna perigosos, é que a máquina muitas vezes não é capaz de percebê-lo. Daí a necessidade de supervisão e correção humanas.
E por que isso?
Porque ainda são, os aparatos de IA, salas chinesas, na metáfora de Searle.
Vamos pedir ao Chat-GPT para explicar a metáfora (foi também ele que fez a imagem):
Esta metáfora é uma crítica ao conceito de inteligência artificial forte, que sugere que uma máquina pode ter uma mente, consciência e compreensão semelhantes às humanas.
A Metáfora da Sala Chinesa:
Imagine que você está em uma sala fechada com uma pequena abertura. Você não fala chinês, mas dentro da sala há um grande manual de instruções que você pode usar para responder a perguntas em chinês que são passadas pela abertura.
Aqui está como funciona:
- Entrada: Alguém fora da sala passa perguntas escritas em chinês através da abertura.
- Processamento: Você pega essas perguntas e consulta o manual, que contém regras detalhadas sobre como responder com caracteres chineses, sem que você precise entender o que os caracteres significam. Você segue as instruções do manual para compor uma resposta.
- Saída: Você escreve a resposta em chinês e a devolve pela abertura.
O Argumento de Searle:
- Simulação sem Compreensão: Mesmo que você consiga fornecer respostas que são indistinguíveis das respostas de um falante nativo de chinês, Searle argumenta que você não entende chinês. Você está apenas manipulando símbolos de acordo com regras formais.
- Inteligência Artificial Forte: Searle usa essa metáfora para argumentar que, da mesma forma, um computador pode simular a compreensão de uma língua ou de outras tarefas cognitivas sem realmente "entender" ou ter consciência. Ele está apenas executando operações de acordo com programas predefinidos.
- Conclusão: Portanto, um programa de computador pode passar no teste de Turing (ser indistinguível de um humano na comunicação), mas isso não significa que ele tenha uma mente ou compreensão genuína.
Críticas e Discussões:
A metáfora da sala chinesa gerou muitas discussões no campo da filosofia da mente e da inteligência artificial. Algumas críticas incluem:
- Sistema de Resposta: Argumenta-se que o sistema como um todo (você, o manual e o ambiente) poderia ser visto como "entendendo" chinês.
- Consciência Emergente: Outros sugerem que a consciência pode emergir de sistemas suficientemente complexos, mesmo que os componentes individuais não tenham consciência.
Como explico em meu livro (clique aqui), de fato se pode dizer que todo o sistema entende o chinês, ou que a consciência pode emergir do sistema, como ocorre com os neurônios e com o cérebro humano. Essa será uma discussão para o dia em que tivermos - se ele chegar - uma IA forte ou geral. Por enquanto nos interessa saber que artefatos como o Chat-GPT, carros autoguiados e o google tradutor são salas chinesas. Daí, não têm consciência do que fazem, para assim poderem avaliar o que fazem, corrigir o que fazem... Nós os antromorfizamos e esquecemos disso.
Nenhum comentário:
Postar um comentário