quarta-feira, 8 de janeiro de 2020

Inteligência Artificial e Teoria do Direito

Aos oito anos, ganhei do meu irmão Sócrates um TK-90X. Esse que aparece na foto:







Para a época, já não era tão avançado, mas permitia muita diversão, e fornecia espaço para o exercício da curiosidade. Eram 48Kb de memória RAM, capacidade de exibir gráficos em até 10 cores, linguagem BASIC e a possibilidade de ler e gravar programas em fitas K7. A ele se seguiram o MSX, depois um PC-XT, um 386, um 486, um Pentium... até chegarmos nos computadores de hoje.

Apesar do precoce gosto por computadores, não me interessei por cursos superiores nessa área. Fiz Direito, e desde os primeiros semestres, nas aulas de Introdução ao Estudo do Direito e de Teoria do Direito, impressionou-me a semelhança entre a estrutura como se teorizam as normas jurídicas (antecedente, consequente...) e a linguagem de programação (if... then... else...), semelhança que me pareceu, de início, apenas uma curiosidade, um aspecto comum aos dois tipos de linguagem.

Estudando inteligência artificial e suas implicações jurídicas, contudo, percebe-se que essa semelhança tem consequencias e implicações muito mais profundas do que à primeira vista pode parecer.

Sempre que se simula algo, é preciso entender melhor aquilo que se pretende simular, para construir simulador digno desse nome, com um mínimo de fidelidade à realidade simulada. Não há como construir e programar um simulador de voo, por exemplo, sem uma compreensão adequada de física, particularmente de aerodinâmica.

No campo da hermenêutica, isso talvez tenha ficado claro há mais tempo, sendo o motivo pelo qual filósofos, neurologistas, psicólogos, teóricos da cognição e especialistas em ciência da computação têm estudos cada vez mais convergentes. Só quando se tenta ensinar uma máquina a interpretar textos, por exemplo, se percebe que essa é uma tarefa muito mais complexa do que parece, pois muitas de suas etapas são feitas por nós de maneira inconsciente ou automática, sem que percebamos. A esse respeito, recomendo a leitura de "O Humano mais humano", livro a respeito do qual já fiz um vídeo em meu canal do Youtube:



Outro livro que trata magistralmente do tema é "Louder Than Words", a quem também remeto o leitor. Esse livro é rico em exemplos, mas, para ilustrar a forma como usamos conhecimentos externos à sentença interpretada para atribuir-lhe sentido, algo que torna dificílimo para as máquinas a tarefa de interpretar, nada melhor do que esta figura: 




Todos sabem que cachorros não andam de moto, e por isso parece óbvio o sentido da frase dita pela mulher, obviedade contrastada pela resposta do cachorro, que confere o arremate de humor do meme.  Ou, pelo menos quase todos sabem, pois há exceções:


Um pouco mais sobre isso pode ser lido, também, no "Direito e sua Ciência" (clique aqui). Mas, brincadeiras a
parte, quando se começou a tentar programar máquinas para interagir com humanos, a exemplo de carros de condução autônoma, por exemplo, colocou-se de maneira mais clara a necessidade de fazer com que elas, as máquinas, seguissem normas. Põe-se, então, o problema: seguir apenas regras, ou também princípios?

A resposta a essa pergunta, por enquanto, parece ser a de que máquinas devem seguir apenas regras.A aplicação de princípios, por exigir atenção às particularidades do caso, deveria ser reservada a humanos. Apenas tarefas mais repetitivas, ou mecânicas, passíveis de serem resolvidas apenas seguindo-se regras, poderiam ser delegadas a máquinas. Mas isso não resolve o problema. Primeiro, porque a separação entre tais espécies normativas está longe de ser tranquila, como a literatura jurídica fartamente o demonstra. Segundo, porque mesmo as regras, eventualmente, podem exigir ponderação. No caso dos carros autônomos: um limite de velocidade pode ser ultrapassado se os passageiros estiverem gravemente doentes e precisarem chegar logo ao hospital? A proibição de subir em calçadas pode ser superada se isso for necessário para abrir espaço à passagem de uma ambulância? Aplicar princípios, e ponderar regras, exige a consideração de fatores complexos e impossíveis de serem previstos antecipadamente (do contrário, teriam dado cabimento à feitura de regras e de exceções explícitas a essas regras).

Isso não significa que as máquinas não sejam capazes - senão hoje, um dia - de realizar tais tarefas. Mas deixa claro que, para que as possamos ensinar a fazê-las, teremos de entender melhor como nós, humanos, as levamos a efeito. Assim como físicos especialistas em aerodinâmica são essenciais à fabricação de um bom simulador de voo, o avanço da inteligência artificial depende, necessariamente, de um intenso diálogo entre teóricos da computação e filósofos e teóricos do Direito.

4 comentários:

João Luis Nogueira Matias Filho disse...

Interessante reflexão Professor.
Hoje em dia, com os avanços das redes neurais e do aprendizado de máquina (machine learning), poderíamos questionar até mesmo se esse conhecimento prévio de princípios não seria prescindível as inteligências artificiais, que os „aprenderiam“ da mesma forma subconsciente que nós.

Não estou certo, no entanto, sobre o quanto essas evoluções poderiam ser efetivamente chamadas de aprendizado, na esteira do Quarto Chinês de John Searle. Fiquei curioso pela sua opinião, p que o senhor acha do tema?

Abraço,

Hugo de Brito Machado Segundo disse...

Obrigado por comentar, JLF.
Não sei se concordo com a ideia do quarto chinês de Searle. Se a levarmos às últimas consequencias, ela se aplica aos nossos neurônios também. Acho que podem ser chamadas de aprendizado, sim. Mas isso não é relevante. O importante é saber se poderão aplicar princípios. Acho que sim, e a solução talvez passe pelo Modelo Toulmin. Mas o post não pretendeu problematizar, ainda, esse ponto, e sim mostrar que a TGD será tão importante para a IA como a física é para os simuladores de voo.
Abraço,

Dea disse...

Só pra deixar uma marca que passei por aqui e sou a mais nova seguidora...rs

Rebecca disse...
Este comentário foi removido por um administrador do blog.