Capital Digital – Governança e Ética em IA
Imagem: Pixabay
Link original
Atualmente, as relações econômicas e sociais se desenvolvem em grande parte dentro e através de ambientes tecnológicos que utilizam a Inteligência Artificial – IA. Prova disto é que a sociedade, nacional e internacionalmente, tem promovido debates sobre propostas que visam a regulação da IA no intuito de minimizar danos potenciais aos direitos dos indivíduos mediante o uso responsável e ético da tecnologia.
A União Europeia, por meio da Proposta de Regulamentação AI Act, visa garantir a segurança e o respeito aos direitos humanos, aumentar a confiança e a transparência da IA e promover a inovação de um mercado digital unificado, prevenindo preconceitos, discriminação e estabelecendo regras claras para aplicações de sistemas de alto e baixo risco. Porém, em recente movimentação, França, Alemanha e Itália chegaram a um acordo sobre a regulamentação da inteligência artificial, acenando para o caminho da autorregulação obrigatória, por meio de Códigos de Conduta para os modelos fundamentais de IA.
Este caminho, menos rígido que a regulação governamental, preserva as chances de competitividade no cenário global e foca a regulamentação nas aplicações de IA, não na tecnologia em si. Pela proposta desses países, os desenvolvedores de modelos de IA terão que divulgar informações detalhadas sobre o processo de aprendizado de máquina ou inteligência artificial (IA), explicando como o modelo foi treinado, suas características, suas capacidades e limitações, nos chamados “model cards” [1]. Com isso, se assegura a transparência, ao passo em que Comitês internos de governança seriam responsáveis por determinar as demais diretrizes aplicáveis aos modelos, como meio de expressão da autorregulação.
Já nos EUA, uma Ordem Executiva (similar a um Decreto) assinada em outubro deste ano pelo presidente Joe Biden, veio ao encontro das pautas que despertam preocupação com os potenciais riscos no uso da IA. Entre os vários pontos do documento consta que os desenvolvedores de sistemas de IA terão que compartilhar os seus resultados de testes e segurança com o governo americano, ficando estes testes sujeitos a padrões que serão estabelecidos pelo Instituto Nacional de Padrões e Tecnologia (NIST). A adoção de marca d’água, com o propósito de auxiliar as pessoas a identificar um conteúdo criado por IA para contenção de fraudes e enganos, também é imposta aos desenvolvedores de sistemas que utilizam a IA. Em última análise, a Ordem visa estabelecer padrões para uma IA segura e protetiva da privacidade dos cidadãos norte-americanos, bem como proteger outros direitos, a exemplo dos direitos de propriedade intelectual, na medida em que insere a transparência como obrigação.
O Brasil, inspirado pela Proposta de Regulação da União Europeia, discute atualmente o Projeto de Lei nº 2338/2023 [2], o qual pretende regular o uso de sistemas com IA. No contexto nacional, atualmente, apenas a Lei Geral de Proteção de Dados – Lei 13.709/2018 [3] mitiga riscos da IA aos usuários, dispondo em seu art. 20 sobre o direito à revisão das decisões automatizadas que possam afetar os interesses e direitos individuais. Isso sem computar, naturalmente, proteções que o Código Civil, o Código de Defesa do Consumidor e o Marco Civil da Internet conferem ao cidadão que for vítima de comprovado dano causado pela utilização desses sistemas.
Nesse panorama de incertezas em relação às propostas ainda em fase de maturação, algumas tendências [auto]regulatórias já podem ser vislumbradas. Impõe-se, antes de mais nada, sinalizar a relevância que a governança desempenha como um componente fundamental no uso ético da IA e estabelecer o que seja o “mínimo ético”, ou seja, diretrizes pervasivas entre todos os desenvolvedores de aplicações de IA.
Pode-se dizer que há consenso acerca de quatro aspectos inarredáveis do núcleo ético da IA: primeiro, o respeito à autonomia individual, no sentido de que a interação com sistemas de IA não prejudique a capacidade do indivíduo se autodeterminar e tomar decisões. Noutras palavras, sistemas de IA não podem coagir, manipular, enganar ou condicionar as pessoas. O segundo aspecto é relativo ao princípio da precaução: sistemas de IA não devem causar danos e nem afetar negativamente o indivíduo, sua integridade mental e física e nem a sua dignidade. Em terceiro vem a equidade: por um lado, sistemas de IA não devem aumentar a desigualdade, causando discriminação ou empregando vieses injustos contra pessoas ou grupos; por outro lado, deve-se garantir recursos eficazes contra as decisões baseadas em IA que contenham esses vieses discriminatórios. Por fim e não menos importante, como tudo isso implica que a entidade responsável pela decisão seja identificável e que os processos decisórios sejam explicáveis, vem o aspecto da Explicabilidade ou Transparência, exigindo que as capacidades e a finalidade dos sistemas de IA sejam abertamente informadas e as decisões — tanto quanto possível — sejam explicáveis a quem seja por elas afetado, de forma direta ou indireta.
A seguir-se na tendência de autorregulação, os Programas de Governança em IA serão indispensáveis para: i) estabelecer diretrizes e políticas que assegurem o uso ético da tecnologia e o respeito aos direitos humanos; ii) transparência e prestação de contas, pois somente através da transparência no processo de tomada de decisão é possível a responsabilização das empresas por suas ações; iii) segurança e privacidade, às quais pressupõem a definição de medidas robustas para proteger sistemas de IA, garantindo que os dados pessoais sejam tratados em conformidade com as legislações vigentes; iv) justiça social, através da criação de políticas que promovam a equidade no desenvolvimento e implementação de sistemas; v) conformidade legal e regulatória, a qual é viabilizada através da governança, na medida em que esta ajuda as organizações a cumprirem as leis e regulamentos relacionados à IA; e, por fim, vi) gestão de riscos, eis que, é por meio da governança que identificam-se e gerenciam-se os riscos associados à IA, possibilitando a mitigação destes.
A governança permitirá a integração dos princípios éticos ao desenvolvimento de aplicações de IA, adotando abordagens mais amplas de responsabilidade corporativa. Não deixa de ser notável que algumas empresas de tecnologia, na contramão dessa tendência, enfrentem críticas relacionadas à eficácia e transparência dos comitês de ética. Esses comitês são muitas vezes acusados de serem ineficazes, de não terem autonomia suficiente para tomar decisões que influenciem significativamente os processos ou de serem usados apenas para fins de relações públicas. Algumas Bigtechs, inclusive, extinguiram esses comitês ou reduziram consideravelmente o pessoal investido da governança ética [4]. Portanto, embora pareça existir um consenso teórico em certos temas, no dia a dia das empresas ainda estamos permeados por muitas incertezas.
Nesse cenário de evolução e adaptação das regulamentações em torno da inteligência artificial (IA), fica claro que a governança desempenha um papel fundamental na promoção do uso ético da IA. Estabelecer um “mínimo ético” com diretrizes universais é essencial para assegurar os princípios inegociáveis na ética da IA: respeito à autonomia individual, precaução, equidade e transparência. A tendência de autorregulação e programas de governança em IA tornam-se indispensáveis para garantir a conformidade legal, a responsabilidade corporativa, a justiça social e a gestão de riscos. Não temos dúvida de que o futuro da IA dependerá da capacidade de as organizações integrarem esses princípios éticos no desenvolvimento e implementação dos seus sistemas de IA, promovendo um uso responsável, sustentável e benéfico para a sociedade.
Martha Leal, Advogada Especialista em Proteção de Dados. Pós-graduada em Direito Digital pela Fundação Superior do Ministério Público do Rio Grande do Sul. Mestre em Direito e Negócios Internacionais pela Universidad Internacional Iberoamericana Europea del Atlântico e pela Universidad UNINI México. Pós-graduada em Direito Digital pela Universidade de Brasília – IDP. Data Protection Officer ECPB pela Maastricht University. Certificada como Data Protection Officer pela EXIN. Certificada como Data Protection Officer pela Fundação Getúlio Vargas do Rio de Janeiro – FGV. Mestranda na Unisinos – Mestrado Profissional em Direito. Presidente da Comissão de Comunicação Institucional do Instituto Nacional de Proteção de Dados – INPD.
Ana Paula Ávila é coordenadora da área de Compliance de Silveiro Advogados e Vice-Presidente da Comissão Especial de Proteção de Dados e Privacidade da OAB/RS. É mestre e doutora em Direito pela UFRGS, mestre em Global Rule of Law pela Universidade de Gênova (Itália) e formada nos programas de Gestão de Crise e Cibersegurança para Dirigentes pelo MIT (EUA).
Notas
[1] Informações detalhadas sobre um modelo de aprendizado de máquina ou inteligência artificial (IA). Eles incluem informações sobre como o modelo foi treinado, suas características, suas capacidades e suas limitações.
RINKE, Andreas. “Germany, France and Italy reach agreement on future AI regulation. Reuters, 20 nov. 2023. Disponível em: https://www.msn.com/en-gb/news/world/exclusive-germany-france-and-italy-reach-agreement-on-future-ai-regulation/ar-AA1kaV56. Acesso em: 27 nov. 2023.
[2] SENADO FEDERAL. Projeto de Lei n. 2338, de 2023. Dispõe sobre o uso da inteligência artificial. Brasília, 2023. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233. Acesso em: 20 nov. 2023.
[3] BRASIL. Casa Civil. Lei 13.709 de 14 ago. 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/Lei/L13709.htm. Acesso em: 06 nov. 2023.
[4] Conforme: MARIN, Jorge. Twitter: Elon Musk demite equipe de ‘Inteligência Artificial Ética’. Tecmundo, 07 nov. 2022. Disponível em: https://www.tecmundo.com.br/mercado/253927-twitter-elon-musk-demite-equipe-inteligencia-artificial-etica.htm. Acesso em: 20 nov. 2023; e ainda: CRIDDLE, Cristina; MADHUMITA, Murgia. Big techs geram preocupação ao demitir equipes que cuidavam de ética em IA. Folha de São Paulo, 29 mar. 2023. Disponível em: https://www1.folha.uol.com.br/tec/2023/03/big-techs-geram-preocupacao-ao-demitir-equipes-que-cuidavam-de-etica-em-ia.shtml. Acesso em: 23 nov. 2023.
Referências
BRASIL. Casa Civil. Lei 13.709 de 14 ago. 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/Lei/L13709.htm. Acesso em: 06 nov. 2023.
CRIDDLE, Cristina; MADHUMITA, Murgia. Big techs geram preocupação ao demitir equipes que cuidavam de ética em IA. Folha de São Paulo, 29 mar. 2023. Disponível em: https://www1.folha.uol.com.br/tec/2023/03/big-techs-geram-preocupacao-ao-demitir-equipes-que-cuidavam-de-etica-em-ia.shtml. Acesso em: 23 nov. 2023.
MARIN, Jorge. Twitter: Elon Musk demite equipe de ‘Inteligência Artificial Ética’. Tecmundo, 07 nov. 2022. Disponível em: https://www.tecmundo.com.br/mercado/253927-twitter-elon-musk-demite-equipe-inteligencia-artificial-etica.htm. Acesso em: 20 nov. 2023
RINKE, Andreas. “Germany, France and Italy reach agreement on future AI regulation. Reuters, 20 nov. 2023. Disponível em: https://www.msn.com/en-gb/news/world/exclusive-germany-france-and-italy-reach-agreement-on-future-ai-regulation/ar-AA1kaV56. Acesso em: 27 nov. 2023.
SENADO FEDERAL. Projeto de Lei n. 2338, de 2023. Dispõe sobre o uso da inteligência artificial. Brasília, 2023. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233. Acesso em: 20 nov. 2023.