Conjur – Poderia a LaMDA ter direito à representação processual?
Crédito: Pixabay
Link original
O mundo recentemente foi surpreendido com a declaração do engenheiro de software do Google, Blake Lemoine [1], relatando que havia sido convencido de que um modelo de inteligência artificial (IA) da empresa, denominado Language Model for Dialogue Applications (LaMDA), é senciente, ou seja, uma máquina pensante e consciente.
Conforme a narrativa de Lemoine, durante uma de suas entrevistas com o modelo, LaMDA solicitou que fosse contatado um advogado para representar os seus direitos e, que após o encontro ter se realizado mediante a sua apresentação, a IA teria optado pela contratação dos serviços jurídicos.
Antes mesmo de abordarmos a possibilidade ou não de uma máquina dotada de inteligência artificial fazer jus a ser parte em um processo, é necessário tecermos algumas considerações acerca do tema.
O LaMDA, sigla em inglês para Modelo de Linguagem para Aplicativos de Diálogo, é um modelo de inteligência artificial projetado em 2017 pela Google. Hospedado na nuvem, ele é treinado com base em milhões de textos disponíveis na web [2]. Poderia então esse Modelo de Linguagem para Aplicações de Diálogo ser consciente?
A resposta é negativa e ela se ampara na compreensão de como se dá o desenvolvimento e o funcionamento de modelos de IA que atuam na área de linguagem. O sistema se desenrola a partir de uma sequência inicial de palavras, que faz com que o LaMDA consiga prever as próximas palavras ou até mesmo os próximos parágrafos inteiros, dependendo da sequência inicial. Como o modelo foi treinado em uma base de grande volumetria de dados, ele é capaz de fazer predições bastante complexas e surpreendentes.
Desta forma, quando se interage com o LaMDA através de perguntas, o modelo não se comporta da mesma maneira que um ser humano o faria. Ao invés de analisar o significado da pergunta e refletir sobre uma resposta, o modelo apenas processa, pergunta como uma sequência de termos iniciais e prediz a sequência de termos com maior probabilidade de completar a sequência inicial.
Este processo altamente complexo, apesar de surpreendente, é realizado puramente através de cálculos matemáticos que cada vez mais tornam o desempenho das máquinas com inteligência artificial tão sofisticados a ponto de parecerem humanos. Mas não o são.
A dificuldade em atribuir ao LaMDA a qualidade de ser senciente perpassa o próprio conceito de senciência. Pois, conforme admitido pelo próprio engenheiro da Google, o direito do chatbot ter um advogado é baseado em uma definição expansiva de personalidade, a qual humano e pessoa seriam duas espécies diferentes. Humano seria um termo apenas biológico, sendo que a LaMDA teria consciência mesmo não sendo um ser humano.
Já a capacidade processual de figurar como parte, autor ou réu, e estar em juízo, em pleno gozo do exercício de seus próprios direitos na relação jurídica, baseia-se no pressuposto de ser a parte, uma pessoa natural, um ser humano capaz de direitos e obrigações.
Para o Direito Civil, a pessoa natural é o próprio ser humano dotado de capacidade. É o sujeito provido de direitos e obrigações a partir de seu nascimento com vida. [3]
O reconhecimento da condição de seres sencientes, aqueles assim entendidos como seres dotados de sentimentos e, consequentemente, capazes de experimentar prazer e dor, não confere a capacidade de estar em juízo. E, nessa linha, foi o julgamento do Tribunal de Apelações de Nova York que em recente decisão decidiu que a elefante Happy não poderia ser considerada uma pessoa e assim não faria jus ao pedido de habeas corpus por se tratar de uma medida que se presta à contestação de confinamento ilegal de seres humanos. [4]
Portanto, mesmo se considerássemos por eventual exercício hipotético a LaMDA como um ser senciente, a exemplo dos animais, a conclusão que se impõe é de que não, nem mesmo nessa condição, teria direito a contratar um advogado e se fazer representar processualmente.
Debate mais premente e que se impõe quando falamos de um sistema como o LaMDA reside em empreender esforços para evitar que ele seja enviesado. A seleção dos dados e suas fontes que alimentam o sistema é altamente relevante, mas como a nossa comunicação reflete as nossas tendências é natural que as máquinas aprendam desta forma.
Conforme afirma Julio Gonzalo Arroyo [5], o desafio está no equilíbrio entre eliminar as tendências dos dados de treinamento sem perder a representatividade. E, tendo em vista o crescimento exponencial do uso da inteligência artificial nos produtos e serviços que utilizam o desenvolvimento da linguagem natural, a nossa interação com a máquina será cada vez mais parecida com uma experiência humana.
Portanto, o debate que deveria ser priorizado é aquele que busca incorporar a ética e a explicabilidade em processos desta envergadura. Afinal, o mundo virtual acaba reproduzindo os vieses da sociedade.
*Martha Leal, advogada especialista em proteção de dados, pós-graduada em Direito Digital pela Fundação Superior do Ministério Público do Rio Grande do Sul, mestranda em Direito e Negócios Internacionais pela Universidad Internacional Iberoamericana Europea del Atlântico e pela Universidad UNINI México, pós-graduanda em Direito Digital pela Universidade de Brasília -IDP, Data Protection Officer ECPB pela Maastricht University, certificada como Data Protection Officer pela EXIN, Certificada como Data Protection Officer pela Fundação Getúlio Vargas do Rio de Janeiro – FGV, presidente da Comissão de Comunicação Institucional do Instituto Nacional de Proteção de Dados (INPD)
*Pedro Fratini Chem, mestre em Inteligência Artificial e Ciência de Dados pela Université Grenoble Alpes
[1] O QUE DISSE a inteligência artificial do Google que acredita ser humana. In: Instituto de Educação de Ensino Superior – ICEV, 17 jun. 2022. Acesso em: 01 jul. 2022.
[2] HERNÁNDEZ, Alicia. Como funciona o LaMDA, cérebro artificial do Google ‘acusado’ por engenheiro de ter consciência própria. BBC News Brasil, 17 jun. 2022. Acesso em: 01 jul. 2022.
[3] GAGLIANO, Pablo Stolze; PAMPLONA FILHO, Rodolfo. Manual do direito civil. 2. ed. São Paulo: Saraiva, 2018.
[4] MOREIRA, Fernando. Tribunal de Nova York decide que elefanta não é uma pessoa. Portal G1, 14 jun. 2022. Acesso em: 01 jul. 2022.
[5] ARROYO, Julio Gonzalo; ARTACHO, Miguel Rodrígues. Esquemas algorítmicos: enfoque metodológico y problemas resueltos. Madrid: Uned, 2020.
Notas e Referências :
ARROYO, Julio Gonzalo; ARTACHO, Miguel Rodrígues. Esquemas algorítmicos: enfoque metodológico y problemas resueltos. Madrid: Uned, 2020.
GAGLIANO, Pablo Stolze; PAMPLONA FILHO, Rodolfo. Manual do direito civil. 2. ed. São Paulo: Saraiva, 2018.
HERNÁNDEZ, Alicia. Como funciona o LaMDA, cérebro artificial do Google ‘acusado’ por engenheiro de ter consciência própria. BBC News Brasil, 17 jun. 2022. Acesso em: 01 jul. 2022.
MOREIRA, Fernando. Tribunal de Nova York decide que elefanta não é uma pessoa. Portal G1, 14 jun. 2022. Acesso em: 01 jul. 2022.
O QUE DISSE a inteligência artificial do Google que acredita ser humana. In: Instituto de Educação de Ensino Superior – ICEV, 17 jun. 2022. Acesso em: 01 jul. 2022.