quarta-feira, 8 de janeiro de 2020

Inteligência Artificial e Teoria do Direito

Aos oito anos, ganhei do meu irmão Sócrates um TK-90X. Esse que aparece na foto:







Para a época, já não era tão avançado, mas permitia muita diversão, e fornecia espaço para o exercício da curiosidade. Eram 48Kb de memória RAM, capacidade de exibir gráficos em até 10 cores, linguagem BASIC e a possibilidade de ler e gravar programas em fitas K7. A ele se seguiram o MSX, depois um PC-XT, um 386, um 486, um Pentium... até chegarmos nos computadores de hoje.

Apesar do precoce gosto por computadores, não me interessei por cursos superiores nessa área. Fiz Direito, e desde os primeiros semestres, nas aulas de Introdução ao Estudo do Direito e de Teoria do Direito, impressionou-me a semelhança entre a estrutura como se teorizam as normas jurídicas (antecedente, consequente...) e a linguagem de programação (if... then... else...), semelhança que me pareceu, de início, apenas uma curiosidade, um aspecto comum aos dois tipos de linguagem.

Estudando inteligência artificial e suas implicações jurídicas, contudo, percebe-se que essa semelhança tem consequencias e implicações muito mais profundas do que à primeira vista pode parecer.

Sempre que se simula algo, é preciso entender melhor aquilo que se pretende simular, para construir simulador digno desse nome, com um mínimo de fidelidade à realidade simulada. Não há como construir e programar um simulador de voo, por exemplo, sem uma compreensão adequada de física, particularmente de aerodinâmica.

No campo da hermenêutica, isso talvez tenha ficado claro há mais tempo, sendo o motivo pelo qual filósofos, neurologistas, psicólogos, teóricos da cognição e especialistas em ciência da computação têm estudos cada vez mais convergentes. Só quando se tenta ensinar uma máquina a interpretar textos, por exemplo, se percebe que essa é uma tarefa muito mais complexa do que parece, pois muitas de suas etapas são feitas por nós de maneira inconsciente ou automática, sem que percebamos. A esse respeito, recomendo a leitura de "O Humano mais humano", livro a respeito do qual já fiz um vídeo em meu canal do Youtube:



Outro livro que trata magistralmente do tema é "Louder Than Words", a quem também remeto o leitor. Esse livro é rico em exemplos, mas, para ilustrar a forma como usamos conhecimentos externos à sentença interpretada para atribuir-lhe sentido, algo que torna dificílimo para as máquinas a tarefa de interpretar, nada melhor do que esta figura: 




Todos sabem que cachorros não andam de moto, e por isso parece óbvio o sentido da frase dita pela mulher, obviedade contrastada pela resposta do cachorro, que confere o arremate de humor do meme.  Ou, pelo menos quase todos sabem, pois há exceções:


Um pouco mais sobre isso pode ser lido, também, no "Direito e sua Ciência" (clique aqui). Mas, brincadeiras a
parte, quando se começou a tentar programar máquinas para interagir com humanos, a exemplo de carros de condução autônoma, por exemplo, colocou-se de maneira mais clara a necessidade de fazer com que elas, as máquinas, seguissem normas. Põe-se, então, o problema: seguir apenas regras, ou também princípios?

A resposta a essa pergunta, por enquanto, parece ser a de que máquinas devem seguir apenas regras.A aplicação de princípios, por exigir atenção às particularidades do caso, deveria ser reservada a humanos. Apenas tarefas mais repetitivas, ou mecânicas, passíveis de serem resolvidas apenas seguindo-se regras, poderiam ser delegadas a máquinas. Mas isso não resolve o problema. Primeiro, porque a separação entre tais espécies normativas está longe de ser tranquila, como a literatura jurídica fartamente o demonstra. Segundo, porque mesmo as regras, eventualmente, podem exigir ponderação. No caso dos carros autônomos: um limite de velocidade pode ser ultrapassado se os passageiros estiverem gravemente doentes e precisarem chegar logo ao hospital? A proibição de subir em calçadas pode ser superada se isso for necessário para abrir espaço à passagem de uma ambulância? Aplicar princípios, e ponderar regras, exige a consideração de fatores complexos e impossíveis de serem previstos antecipadamente (do contrário, teriam dado cabimento à feitura de regras e de exceções explícitas a essas regras).

Isso não significa que as máquinas não sejam capazes - senão hoje, um dia - de realizar tais tarefas. Mas deixa claro que, para que as possamos ensinar a fazê-las, teremos de entender melhor como nós, humanos, as levamos a efeito. Assim como físicos especialistas em aerodinâmica são essenciais à fabricação de um bom simulador de voo, o avanço da inteligência artificial depende, necessariamente, de um intenso diálogo entre teóricos da computação e filósofos e teóricos do Direito.