Mídia

Estadão – O uso controverso da IA na criação de conteúdos e as implicações para os direitos individuais

Estadão – O uso controverso da IA na criação de conteúdos e as implicações para os direitos individuais
3 de abril de 2024 | Notícias | admin | Tags: , , , ,

Imagem: Pixabay

Link original

A evolução da tecnologia, particularmente no uso da inteligência artificial, já é uma realidade que demanda a nossa reflexão enquanto sociedade sobre as maneiras mais eficazes de enfrentarmos os seus desafios.

Eventos recentes demonstraram o uso controverso da inteligência artificial na criação de conteúdos, trazendo implicações significativas para os direitos individuais fundamentais, consagrados pela Constituição Federal. No ano passado, um comercial em que foi utilizada a Inteligência Artificial para unir a cantora Elis Regina e a sua filha Maria Rita em uma performance, dividiu opiniões e gerou debates sobre os limites e a licitude do uso da criação de imagens de pessoas falecidas e, principalmente, críticas ante a ausência de sinalização do uso da inteligência artificial na geração da peça publicitária.

Outro exemplo foi o da princesa Kate Middleton, duramente criticada por publicar em suas redes sociais uma foto editada com a sua família e que evidenciaram uma clara manipulação das imagens sugerindo uma realidade distorcida. O mal-estar foi tamanho, principalmente em se tratando de assuntos pertinentes à coroa britânica, que a princesa de Galles veio a público e desculpou-se pela edição, excluindo a imagem.

Esses casos levantam questões sobre a falta de transparência no uso da tecnologia e a violação de princípios fundamentais como a boa-fé, sem mencionar potenciais infrações aos direitos de imagem e direitos autorais. Em um patamar de maior gravidade, no atual momento, surgem cada vez mais modalidades nocivas de usos de “deepfakes”.

No último ano, uma escola particular no Rio de Janeiro foi cenário de um triste acontecimento, onde um grupo de alunos utilizou um software de inteligência artificial para criar imagens forjadas utilizando os rostos de colegas da mesma instituição. Ainda mais recente, registrou-se um caso em Porto Alegre, onde alunos de uma escola privada criaram e divulgaram vídeos falsos, simulando nudez de dezesseis estudantes, utilizando tecnologia de inteligência artificial. Este incidente está sob investigação, dispositivos móveis foram confiscados e um inquérito para apurar a infração está em andamento.

O Estatuto da Criança e do Adolescente (ECA) é claro ao proibir a simulação e envolvimento de menores de idade em cenas de conteúdo sexual explícito ou pornográfico, o que inclui a falsificação, montagem ou alteração de fotos, vídeos ou qualquer tipo de representação visual.

O Tribunal Superior Eleitoral tomou medidas para regular o uso de “deepfakes” no contexto eleitoral brasileiro, proibindo o seu uso e exigindo identificação de conteúdos multimídias sintéticos e ampliando a responsabilidade das plataformas na identificação e remoção de temas que representem riscos.

Embora ainda não exista a nível nacional uma regulação específica sobre o uso da inteligência artificial, o sistema jurídico oferece mecanismos para lidar com os abusos, observados os contextos em que ocorreram e os direitos violados. O Código Civil – Lei nº. 10.406/2002 – protege os direitos de personalidade, como a imagem, assegurando através do seu art. 20 o direito de se exigir que cessem a divulgação de materiais que a ela se referem, além da obrigação de reparação por parte daquele que causou o dano, segundo art. 927 do mesmo diploma legal.

O Código Penal em seus artigos 138 e 139 tipifica os crimes de injúria e difamação. O artigo 171 ao definir o crime de estelionato prevê que a sua materialização também possa ocorrer através do uso de “deepfakes” na obtenção de vantagem ilícita ou prejuízo alheio. Os provedores de aplicações, em caso de não remoção de conteúdos gerados por terceiros após ordem judicial, segundo o art. 19 do Marco Civil da Internet – responsabilizam-se por eventuais danos decorrentes da sua inércia.

A Lei Geral de Proteção de Dados (LGPD), Lei nº 13.709/2018, define diretrizes para a manipulação de dados pessoais. Ainda que a legislação não mencione diretamente os “deepfakes”, suas disposições são aplicáveis quando tais técnicas envolvem a utilização inadequada de informações pessoais. É crucial recordar que qualquer processamento de dados pessoais — como a geração, o compartilhamento e a publicação de imagens manipuladas — deve ser respaldado por hipóteses legais que autorizem o tratamento e deve respeitar os princípios orientadores da lei, destacando-se a importância da transparência e da finalidade.

Internacionalmente, a proposta de regulamentação da inteligência artificial, na Europa, o IA ACT, recém aprovada, requer transparência dos criadores de “deepfakes”, exigindo a divulgação da natureza artificial dos conteúdos e técnicas empregadas.

Embora tenhamos em nosso arsenal regulamentações capazes de lidar com os dilemas impostos por “deepfakes”, devemos expandir nossa visão para além da mera aplicação da tecnologia e concentrar-nos na urgente necessidade de promover uma ética robusta em seu uso. O Estado deve agir decisivamente, aplicando consequências legais não apenas aos criadores de “deepfakes”, mas também aos usuários finais, para desestimular práticas prejudicais.

Paralelamente, é essencial estabelecer medidas alternativas que englobem o desenvolvimento de uma consciência ética sobre o uso da tecnologia. Isso inclui investir em educação digital e incentivar habilidades críticas que permitam aos cidadãos diferenciar entre a realidade e manipulação, reconhecendo os impactos negativos do mau uso da tecnologia.

Enfrentar os problemas trazidos pelo uso impróprio da inteligência artificial exige mais do que apenas focar na tecnologia; é crucial direcionar esforços legais e regulatórios contra a sua utilização indevida de forma a coibir comportamentos lesivos.

É indispensável promover a conscientização pública sobre as consequências legais e éticas do mau uso da tecnologia. Isso capacita as pessoas a discernir informações falsas, fortalecendo a integridade da comunicação e da confiança social.

*Martha Leal, Advogada, Especialista em Direito Digital e Proteção de Dados, Mestre em Direito e Negócios Internacionais, Certificada como CDPO pela Maastricht University e Vice-presidente do Instituto Nacional de Proteção de Dados – INPD

Compartilhe!

Categorias

Ultimas Notícias

Whatsapp