Jota – Inteligência Artificial e Centralidade do ser humano: Princípios e Diálogos entre as fontes legislativas
Imagem: Pixabay
Link original
Somos a geração que nasce no analógico e atravessa para o digital [1]. Vivemos para ver o despertar e os avanços da Quarta Revolução Industrial, marcada pela experiência combinada de novas tecnologias, como a Internet das Coisas, a Robótica, a Nanotecnologia e o protagonismo da Inteligência Artificial (IA) [2]. Experimentamos um salto do cenário ficcional para um verdadeiro choque de realidade, na medida em que soluções concretas para problemas diários se desvelam pelas novas funcionalidades. Torna-se difícil mensurar o quão imersos e dependentes estamos nos tornando destas tecnologias [3].
A Inteligência Artificial e o seu exponencial desenvolvimento têm apresentado inúmeros desafios sob a ótica de preservação dos direitos e garantias fundamentais dos seres humanos, da sociedade, do planeta e do ecossistema, ao mesmo tempo em que reconhecemos os inegáveis benefícios desfrutados em decorrência desta evolução.
No campo da Saúde, da Segurança Pública, da Educação, do Agronegócio e de muitos outros, experienciamos os acréscimos trazidos e que impactam significativamente em nossa qualidade de vida. Paralelamente aos avanços da Inteligência Artificial em seus diferentes níveis, observamos com certa apreensão os possíveis riscos que vão desde as distorções que a IA pode incorporar, acarretando discriminação, desigualdade e exclusão digital, e os seus possíveis impactos negativos sobre a dignidade e sobre os direitos humanos. Entretanto, a convicção da relevância dos sistemas que fazem uso da Inteligência Artificial em nosso dia a dia e a conscientização dos riscos decorrentes do seu mau uso, endereça ao tema a necessidade de uma regulação que propicie segurança para usuários e desenvolvedores, orquestrada pela colaboração de todos os seus atores.
O inspirador é que as primeiras iniciativas em regular as interações entre seres humanos e os robôs, curiosamente, não nasceram nas casas legislativas, mas são frutos da ficção científica, como ocorreu na obra “Eu, Robô”, de Isaac Asimov, quando são descritas pelo autor as Três Leis da Robótica: a primeira, “um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano venha a ser ferido”; a segunda, que “um robô deve obedecer às ordens dadas por seres humanos, exceto nos casos em que tais ordens entrem em conflito com a Primeira Lei”, e, a terceira e última, “um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou com a Segunda Lei” [4]. As mencionadas leis são carregadas de significação, na medida em que Asimov nos faz inferir “que a vida humana está em primeiro lugar, mesmo que implique na destruição da máquina”, posicionando o ser humano de forma central [5].
E, como se vê, o que residia no campo da ficção científica, por meio da Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, que contêm disposições de Direito Civil sobre Robótica, passa a figurar no quadro jurídico, na medida em que as Leis de Asimov se incorporam ao Direito Eurounitário como “Princípios Gerais”. Ao figurar no texto como “Considerando” da mencionada Resolução, as leis de Asimov passam a desempenhar “função de orientação interpretativa” [6]. Outrossim, o diploma europeu adverte literalmente que ao “legislador que pondere as suas implicações e os seus efeitos a nível jurídico e ético, sem pôr entraves à inovação” [7]. É o balanço entre o que deve ser perseguido, para não prejudicar o avanço, sem também sacrificar a pessoa humana.
Em 20 de outubro de 2020, em nova iniciativa, o Parlamento Europeu, divulga o “Regime relativo aos aspetos éticos da inteligência artificial, da robótica e das tecnologias conexas”, afirmando que a Inteligência Artificial deve ser “antropocêntrica e antropogénica”, ou seja, “plena supervisão humana em qualquer momento”, bem como no sentido de “permitir a recuperação do controlo humano quando necessário”, com a possibilidade de “alteração ou interrupção dessas tecnologias [8].
Pertinente revisitarmos o documento denominado “Recomendação sobre a Ética da IA”, formulado pela Unesco, em 2021, e cujo objetivo foi fornecer uma diretriz geral para que os sistemas de Inteligência Artificial funcionem em prol do bem da humanidade, do ambiente e ecossistemas e prevenção a danos. Mais recentemente, a Resolução do Parlamento Europeu, de 3 de maio de 2022, que trata sobre os diferentes níveis de riscos da Inteligência Artificial, classificando em camadas que vão do “baixo”, ao “alto”, até o “inaceitável”, inclusive, para fins de formulação normativa e soluções práticas acerca da responsabilidade civil [9].
Na União Europeia, a Proposta de Regulamentação – EU AI ACT- encontra-se em fase de amadurecimento, tendo o Parlamento Europeu chegado a um acordo político provisório sobre a proposta, estando a votação do Plenário prevista para este primeiro semestre. O mundo atento aos avanços e à complexidade da Inteligência Artificial, enfim, está focado em estabelecer os princípios gerais que abordarão as preocupações éticas sem impedir o crescimento, a inovação e o desenvolvimento.
Em harmonia ao cenário europeu, conclui-se que o Brasil apresenta firme tendência em inscrever a “Centralidade no Ser Humano” entre os elementos fundantes da base principiológica da disciplina de tratamento da Inteligência Artificial. No texto do Projeto de Lei sob o nº 21 de 2020, por exemplo, lê-se, em seu artigo 6º, II, importante definição: “Centralidade no Ser Humano: respeito à dignidade humana, à privacidade e à proteção de dados pessoais e aos direitos trabalhistas”.
No recentíssimo Projeto de Lei nº 2338/2023, protocolado no Senado, em substituição aos Projetos de Lei nºs 5.051/2019 e 872/2022, o artigo 2º, I, da mesma forma, expressamente refere “a Centralidade da pessoa humana”, tendo sido apresentado como fundamento. O princípio significa posicionar o ser humano como centro, “no sentido pragmático de que conflitos aparentes que relevem a necessidade de ponderações entre o sacrifício da pessoa humana e questionamentos acerca da implementação de avanços tecnológicos devem ser decididos em prol da pessoa humana” [10].
O PL 2338/2023 é fruto de um aprofundado trabalho da Comissão de Juristas do Senado e estabelece normas gerais para o desenvolvimento, implementação e uso responsável de sistemas de Inteligência Artificial no Brasil. Em suas recomendações foram apresentados os princípios e as ações orientadoras aos Estados na formulação de suas legislações relativas à Inteligência Artificial, em consonância com o direito internacional.
À luz da proposta de regulação do uso da Inteligência Artificial nacional é possível encontrar a recepção de alguns dos principais princípios endereçados pela União Europeia e Unesco. São eles: a participação e a supervisão humana em todo o ciclo da IA, a não discriminação, a transparência, a explicabilidade, inteligibilidade e audibilidade algorítmica, e a confiança e robustez dos sistemas de Inteligência Artificial e Segurança da Informação. No que tange aos princípios elencados, a supervisão humana é necessária para a garantia da atribuição da responsabilidade ética e legal em qualquer fase do ciclo de vida dos sistemas de IA. As decisões automatizadas nesses sistemas não substituem a responsabilidade e a prestação de contas humana.
A transparência e a explicabilidade dos sistemas de Inteligência Artificial são requisitos essenciais à garantia do respeito à promoção dos direitos humanos e princípios éticos. A ausência da transparência poderá prejudicar o direito à contestação das decisões com base nos resultados gerados pela IA, violando assim o devido processo legal, a contestabilidade e o contraditório. A implementação do princípio da transparência permite que seja tomada uma decisão segura, a partir do amplo conhecimento das regras do jogo que o indivíduo pretende executar. Aliás, Frank Pasquale refere, entre as novas leis da robótica e da IA, que “Robotic systems and AI should not counterfeit humanity” [11], ou seja, que o ser humano receptor de bens e serviços deve saber inequivocamente que está se relacionando com Inteligência Artificial, “não pode o software se camuflar de ser humano para enganar aqueles que com ele interagem” [12]. Muito oportuno, em tempos de LLM (Large Language Models), como o Chat GPT.
A autonomia da vontade que perpassa o disposto no art. 5, II da Constituição Federal está condicionada à liberdade de escolhas, e que pressupõe amplo conhecimento dessas decisões por parte de quem está aderindo à contratação do serviço ou produto, razão pela qual a transparência sob essa ótica é inegociável. Como medida prática, por exemplo, a obrigação daquele que oferta o produto ou serviço no mercado autodeclarar que sua iniciativa é resultante de aplicação de Inteligência Artificial. Isto, inclusive, permitirá ao destinatário, como mencionado, que escolha fruir bens e serviços “artesanalmente” preparados ou de cunho sintético. Além disso, as pessoas devem ser plenamente informadas quando estiverem diante de uma decisão fundamentada em algoritmos.
Com referência ao princípio da não discriminação, os atores devem empreender todos os esforços para evitar reforçar resultados que reflitam segregação ou que sejam tendenciosos, ficando ao encargo do princípio da auditabilidade dos complexos de Inteligência Artificial garantir a responsabilização pelos sistemas e seus impactos ao longo do ciclo de vida [13]. Da leitura do Projeto de Lei nº 2338/2023, em seu Capítulo II, artigos 5º ao 2º., e que trata dos direitos das pessoas afetadas por sistemas de IA, é possível concluir que se torna inexequível o atendimento aos direitos conferidos pela proposição legislativa sem a efetiva internalização e implementação dos princípios elencados no art. 3º., por parte dos agentes denominados pelo art. 4, II, de fornecedores e operadores de Inteligência Artificial do mesmo projeto.
Inobstante as prováveis alterações que as propostas legislativas sofrerão, tanto a nível nacional, como da União Europeia, parece ser inegociável a adoção dos princípios éticos ora mencionados, posto que, conforme a própria orientação normativa do Parlamento Europeu e a Recomendação sobre a Ética da IA formulada pela Unesco, devem nortear as legislações sobre o uso da Inteligência Artificial.
Ainda, diante da instantaneidade das mudanças tecnológicas, é recomendável que se promova construções normativas baseadas em princípios, e que estão menos impactadas pela depreciação de regras que se voltam a tecnologias específicas. A Inteligência Artificial não se encontra em um campo hermético em que pese um Marco Legal para a área, sempre deverá ser exercitado um diálogo com as fontes legislativas e deontológicas setoriais, como ocorrerá com a Saúde e a Justiça, por exemplo.
O desafio, de fato, será de ordem prática, uma vez que, muitos dos direitos dos indivíduos afetados pela IA encontrarão obstáculos em sua própria complexidade e opacidade.
*Martha Leal, advogada especialista em Proteção de Dados, mestre em Direito e Negócios Internacionais pela Universidad Internacional Iberoamericana Europea del Atlántico e pela Universidad Unini México, Data Protection Officer ECPB pela Maastricht University, certificada como Data Protection Officer pela EXIN e pela FGV-RJ e presidente da Comissão de Comunicação Institucional do Instituto Nacional de Proteção de Dados (INPD)
Cristiano Colombo, Advogado e Professor. Pós-Doutor pela PUCRS. Doutor e Mestre em Direito pela UFRGS. É Professor do Mestrado Profissional em Direito da Empresa e dos Negócios da UNISINOS, Professor dos cursos de graduação em Direito, Análise de Sistemas e Relações Internacionais da UNISINOS, bem como na Faculdade Verbo Jurídico. Pesquisador FAPERGS
Nota
[1] FLORIDI, Luciano. Etica dell’intelligenza artificiale. 1ª ed. Milano: Raffaelo Cortina Editore, 2022.
[2] SCHWAB, Klaus. A quarta revolução industrial. Tradução Daniel Moreira Miranda. São Paulo: EDIPRO, 2016.
[3] COLOMBO, Cristiano; SOUZA, Maique Barbosa de. Metaverso e a Presença Profunda pelo Olhar Imersivo: Riscos ao Corpo Eletrônico e Guidelines para uma proteção eficiente. In: Cristiano Colombo; Wilson Engelmann; José Luiz de Moura Faleiros. (Org.). Tutela Jurídica do Corpo Eletrônico: Novos Desafios ao Direito Digital. 1ed.Indaiatuba, São Paulo: Editora Foco, 2022, v. 1, p. 245-262.
[4] ASIMOV, Isaac. Eu robô. Tradução de Aline Sotoria Pereira. São Paulo: Editora Aleph, 2017, posição 2929-3397.
[5] COLOMBO, Cristiano; GOULART, Guilherme Damásio. Inteligência artificial em softwares que emulam perfis dos falecidos e dados pessoais de mortos. In: SARLET, Gabrielle Bezerra Sales; TRINDADE, ManoelGustavo Neubarth; MELGARÉ, Plínio (org.). Proteção de Dados: temas controvertidos. Indaiatuba: Foco,2021, v. 1, p. 95-114.
[6] COLAPIETRO, Carlo. Il diritto alla protezione dei dati personali. In: UN SISTEMA delle Fonti Multilivello. Napoli: Scientifica, 2018.
[7] PARLAMENTO EUROPEU. Resolução de 16 de fevereiro de 2017. Disponível em: https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_PT.html#def_1_3 . Acesso em: 2 abr. 2021.
[8] UNIÃO EUROPEIA. Regime relativo aos aspetos éticos da inteligência artificial, da robótica e das tecnologias conexas. Disponível em: https://www.europarl.europa.eu/doceo/document/TA-9-2020-0275_PT.html Acesso em: 11 mai 2023.
[9] UNIÃO EUROPEIA. Resolução do Parlamento Europeu, de 3 de maio de 2022, sobre a inteligência artificial na era digital. Disponível em: https://www.europarl.europa.eu/doceo/document/TA-9-2022-0140_PT.htmll Acesso em: 11 mai 2023.
[10] COLOMBO, Cristiano; GOULART, Guilherme Damásio. Inteligência artificial em softwares que emulam perfis dos falecidos e dados pessoais de mortos. In: SARLET, Gabrielle Bezerra Sales; TRINDADE, Manoel
Gustavo Neubarth; MELGARÉ, Plínio (org.). Proteção de Dados: temas controvertidos. Indaiatuba: Foco, 2021, v. 1, p. 95-114.
[11] PASQUALE, Frank. New Law of Robotics. Defending Human Expertise in the Age of AI. Cambridge, Massachusetts: The Belknap Press of Harvard University Press, 2020.
[12] COLOMBO, Cristiano; GOULART, Guilherme Damásio. Inteligência artificial em softwares que emulam perfis dos falecidos e dados pessoais de mortos. In: SARLET, Gabrielle Bezerra Sales; TRINDADE, Manoel Gustavo Neubarth; MELGARÉ, Plínio (org.). Proteção de Dados: temas controvertidos. Indaiatuba: Foco, 2021, v. 1, p. 95-114.
[13] COLOMBO, Cristiano; FACCHINI NETO, Eugênio. Decisões automatizadas em matéria de perfis e riscos algorítmicos: diálogos entre Brasil e Europa acerca dos direitos das vítimas de dano estético digital. In: MARTINS, Guilherme Magalhães; ROSENVALD, Nelson (coord). Responsabilidade civil e novas tecnologias. Indaiatuba: Foco, 2020. “Eis o espaço para a efetivação dos princípios da transparência e da não discriminação, uma vez que a partir deles, será possível obter as informações úteis e necessárias para auditar se o algorítmico padece de qualquer violação ao princípio da igualdade, com discriminações em relação a dados étnicos, filosóficos, religiosos, partidários e de saúde.”