Estadão – Inteligência artificial no Poder Judiciário e a revisão por pessoa natural
Imagem: Pixabay
Link original
Ainda não temos plena consciência de todos os usos de Inteligência Artificial aos quais estamos sujeitos, mas diariamente muitas tecnologias tomam decisões a respeito das vidas dos cidadãos. Como exemplo, podemos citar que você esteja viajando e fará uma compra que foge do seu perfil de gastos. E, ao pagar com cartão de crédito, o sistema não aprova o pagamento.
Você tenta novamente e mais uma recusa. Daí o dilema entre correr o risco de bloqueio do cartão diante de uma terceira tentativa ou a decisão de ligar para a operadora responsável. Ao optar por realizar a ligação, uma espera paciente para que a chamada chegue até a um atendente.
Nesta situação, um algoritmo programado para detectar fraudes analisou uma série de “inputs” com os seus dados, avaliando os seus gastos nos últimos meses, a cidade onde você está, a natureza do estabelecimento vendedor, os horários em que as operações ocorrem, entre outros.
Na segunda tentativa, operação foi refeita e a mesma inconsistência com o padrão foi detectada. Se tivéssemos uma terceira tentativa, possivelmente, o sistema geraria um alerta e o algoritmo decidiria pelo bloqueio automático até que a sua identidade fosse confirmada, prevenindo uma possível utilização indevida do cartão por um terceiro. Daí a importância que, em algum momento, você tenha ao telefone uma pessoa que possa te identificar, te ouvir e, o mais importante, revisar a decisão do algoritmo para então liberar a sua compra.
Esse tipo de ferramenta é um recurso capaz de processar uma quantidade massiva de dados e de cálculos estatísticos para decidir se uma operação está ou não adequada ao seu perfil e qual nível de risco oferece. Com o tempo de uso, os algoritmos aprenderão que você gasta mais do que o normal durante as viagens e utilizarão essa nova informação em futuros cálculos.
São milhões de usuários de cartões e de transações financeiras diárias em todo o mundo. Quantos analistas seriam necessários para averiguar e aprovar cada gasto com o cartão e qual o tempo que cada análise individual demandaria? Precisamente, aí estarão os benefícios da Inteligência Artificial, já que ninguém merece envelhecer em um balcão enquanto espera pela aprovação do analista a cada compra.
A IA é o motor dessa eficiência toda por ser capaz de processar uma enorme quantidade de dados e rapidamente tomar decisões com base nos mesmos. Tais tecnologias se mostram eficientes nas mais variadas utilizações, desde o cálculo do risco nos contratos de seguro e nas operações de crédito, até no diagnóstico de doenças por imagem e na prescrição de tratamentos que apresentem melhores resultados.
O Judiciário, abarrotado com seus mais de 75 milhões de litígios em andamento (quantidade expressa no Relatório “Justiça em Números/2021”) [1], já entendeu isso e começou a empregar a Inteligência Artificial em algumas atividades, tornando indispensável a discussão sobre as salvaguardas necessárias para evitar possíveis danos decorrentes das decisões automatizadas.
Esse foi um dos pontos debatidos no último dia 10 de outubro, em que a OAB/RS promoveu, em Porto Alegre, uma Audiência Pública para discutir, junto à sociedade, magistrados, operadores do Direito e da Ciência de dados, o uso da Inteligência Artificial no Direito. Tal iniciativa é de extrema relevância, tendo em vista o inegável impacto que tais tecnologias possuem sobre as nossas vidas, de forma benéfica ou não.
Recente pesquisa realizada pelo Centro de Inovação, Administração e Pesquisa do Judiciário da FGV Conhecimento sobre o uso da Inteligência Artificial nos tribunais brasileiros [2], apontou a utilização da respectiva tecnologia em 44% dos tribunais, além do Conselho Nacional de Justiça (CNJ). Na audiência pública realizada pela OAB gaúcha, os representantes dos tribunais reconheceram o uso de IA, restrita à admissibilidade de recursos, à classificação de petições e a sugestões de modelos de minutas ao julgador. Contudo, manifestaram que não é desejo da magistratura o emprego de robôs-juízes para a elaboração de decisões judiciais.
O fato é que a aplicação de IA com esta finalidade já aparece no horizonte, sobretudo no cenário internacional. Entre outros exemplos, a Estônia já conta com sistemas de resolução de conflitos de menor valor por juiz-robô [3]; a China criou o Tribunal Inteligente [4] que se conecta a todos os juízes e, conforme exigido pela Suprema Corte, um juiz deverá consultar a recomendação de decisão da máquina e justificar-se caso não aceite a sugestão para fins de auditoria; a Noruega também conta com a tomada de decisão automatizada para resolução de disputas administrativas de menor valor.
Em uma sociedade de relações massificadas, não há dúvida que são inúmeros os benefícios alcançados pela Inteligência Artificial. Problemas estruturais, a exemplo da racionalização de recursos e da judicialização expressiva, podem ser equacionados mediante o uso de automação, com maior eficiência nos serviços, sendo possível afirmarmos, inclusive, que o próprio acesso à Justiça, (art. 5º. inciso XXXV) requer a incorporação de mecanismos ágeis, incluindo as novas tecnologias, para que se cumpra na prática – e em tempo razoável – o direito fundamental dos indivíduos à prestação jurisdicional.
Sobre as salvaguardas indispensáveis ao processo, importa contextualizar que a presente abordagem da IA refere-se às operações que, a partir de insumos recebidos – geralmente dados pessoais -, são processadas por códigos matemáticos, os algoritmos, chegando a uma determinada resolução, tal como ilustrado no exemplo da recusa de uma compra com o cartão. O problema é que o impacto das decisões automáticas poderá ir muito além dos pequenos contratempos do dia a dia, impedindo o acesso do cidadão a bens jurídicos e direitos fundamentais, ou provocando iniquidades de acesso em função de critérios discriminatórios que os próprios algoritmos podem utilizar em seus cálculos.
Com efeito, o uso de processos decisórios envolve dados e fórmulas criadas por humanos, e tais métodos vão se aperfeiçoando para a resolução de problemas através de contínuas ações que envolvem tentativas e erros, de forma a preparar o algoritmo para resultados cada vez mais precisos e eficientes. Nesse contexto, alguns titulares eventualmente pagarão o preço por aqueles erros; por isso é preciso muita cautela ao tratar deste tema. Em particular, a Lei Geral de Proteção de Dados [5] há que ser considerada porque os “inputs” das decisões automatizadas envolvem basicamente dados pessoais do cidadão.
A LGPD previu entre suas normas o dever de transparência e o direito de revisão estabelecido no art. 20. Este dispositivo assegura ao titular dos dados o direito de solicitar a revisão de decisões decorrentes exclusivamente de tratamento automatizado e que tenham potencial de afetar os seus interesses. Ou seja, sempre que solicitar, o titular deverá receber do controlador informações claras e adequadas a respeito dos critérios e procedimentos utilizados para o resultado da decisão, observados os segredos comerciais e industriais.
Como consequência, os processos que se utilizam de dados pessoais para a tomada de decisão mediante fórmulas algorítmicas precisam ser dotados de capacidade explicativa, de modo a atender ao direito de revisão que assiste ao titular e possibilitar a compreensão das etapas que antecederam o resultado decisório. Isso nos leva ao direito de revisão por pessoa natural, algo que deveria ser pacífico, porém no Brasil ainda renderá boa discussão.
A União Europeia, ao regulamentar este ponto na GDPR, adotou posição mais protetiva do que a LGPD ao estabelecer no art. 22 que o tratamento automatizado deve ser excepcional, ressalvando-se sempre o direito à revisão por pessoa natural. No Brasil, em que pese o direito à revisão por pessoa tenha sido acolhido pelo Congresso Nacional, o dispositivo que o previa restou vetado pelo presidente da República por contrariar o interesse público, na medida em que inviabilizaria os modelos atuais de negócios com possíveis impactos negativos na oferta de crédito aos consumidores.
O texto final, conquanto não preveja a revisão por pessoa humana, certamente não a impede. Por isso, acreditamos que a interpretação no sentido de suprimir a possibilidade de revisão de decisões automatizadas por pessoa humana não parece sustentável, sobretudo nos casos de possíveis restrições a direitos fundamentais por decisões algorítmicas. Tal interpretação violaria a garantia fundamental do devido processo legal, previsto na Constituição Federal em seu art. 5º., inciso LIV, e, no caso de decisões judiciais algorítmicas, teríamos ainda impactos nos direitos ao contraditório e à ampla defesa, além do juiz natural, comprometendo de modo sistêmico o acesso à Justiça que a Constituição concede a cada cidadão em defesa de seus direitos violados ou ameaçados.
Ao lançarmos luz sobre os processos que utilizam a Inteligência Artificial no Poder Judiciário, parece evidente que questões como a falta de transparência sobre o funcionamento e os critérios operantes na tomada de decisão, bem como a impossibilidade de o indivíduo afetado fazer jus à revisão humana da resposta algorítmica, ameaçam a dignidade do jurisdicionado e o devido processo legal e suas garantias fundamentais correlatas, que devem ser assegurados pelos poderes estatais nos termos da Constituição Federal. Não duvidamos que no futuro as decisões algorítmicas possam produzir boas resoluções judiciais de forma ágil em muitos casos, deixando as partes razoavelmente satisfeitas. Porém, por mais que sejamos otimistas quanto à eficiência das máquinas, ao fim e ao cabo, a dignidade de todos ainda dependerá de que o poder de revisão seja mantido pelo juiz e que o cidadão injustiçado pelo algoritmo a ele tenha acesso.
*Martha Leal, advogada especialista em proteção de dados; pós-graduada em Direito Digital pela Fundação Superior do Ministério Público do Rio Grande do Sul; mestre em Direito e Negócios Internacionais pela Universidad Internacional Iberoamericana Europea del Atlântico e pela Universidad UNINI México; pós-graduanda em Direito Digital pela Universidade de Brasília -IDP; Data Protection Officer ECPB pela Maastricht University; certificada como Data Protection Officer pela EXIN; certificada como Data Protection Officer pela Fundação Getúlio Vargas do Rio de Janeiro – FGV e presidente da Comissão de Comunicação Institucional do Instituto Nacional de Proteção de Dados (INPD)
Ana Paula Ávila, sócia coordenadora da área de Compliance do Silveiro Advogados; mestre e doutora em Direito pela UFRGS; mestre em Global Rule of Law pela Universidade de Gênova, Itália; formação em Gestão de Crise pelo MIT, Estados Unidos e em Cyber Security for Managers pela mesma instituição
Notas:
[1] https://www.cnj.jus.br/wp-content/uploads/2021/09/relatorio-justica-em-numeros2021-12.pdf
[2] https://portal.fgv.br/noticias/estudo-revela-44-tribunais-alem-conselho-nacional-justica-usam-inteligencia-artificial
[3] https://www.editorajc.com.br/o-uso-da-inteligencia-artificial-nos-tribunais/
[4] https://canaltech.com.br/seguranca/tribunais-na-china-permitem-que-ias-tomem-o-lugar-de-juizes-220922/
[5] http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm