Advogado especialista em copyright e tecnologia analisa a parte do regulamento que fala do uso de obras protegidas pelo ChatGPT e outros sistemas
Por Cláudio Lins de Vasconcelos, do Rio*
Em 13 de março último, após três anos de debate público, o Parlamento Europeu aprovou o European Artificial Intelligence Act, primeira iniciativa regulatória abrangente e internacionalmente relevante sobre inteligência artificial (IA). O Regulamento – um colosso de 450 páginas, com preâmbulo de 180 considerandos, 113 artigos e 13 anexos – alcança desenvolvedores e provedores de aplicações de IA disponibilizadas no mercado europeu ou que utilizem dados de seus cidadãos, ainda que sediados em outros países.
O texto não está livre de críticas, por exemplo quanto à ambiguidade de certas regras, mas a tendência é que as maiores empresas do setor busquem se adequar. Todos querem operar no mercado europeu, e as multas por descumprimento são pesadas: de € 7,5 milhões a € 35 milhões, ou 3% a 7% do faturamento mundial do infrator, o que for maior. Uma vez adequadas, as políticas corporativas se tornarão globais como as próprias corporações e seus mercados, influenciando legisladores mundo afora.
É o chamado “Efeito Bruxelas”. Foi assim com as normas de proteção de dados pessoais, e assim deve ser com a IA. Há um componente geopolítico aqui. Se não pode competir pela liderança tecnológica, disputada por Estados Unidos e China, a União Europeia busca a vanguarda regulatória. Isso explica o interesse com que o mundo vem acompanhando a construção dessa normativa, desde a origem.
O ponto central do EU AI Act é a classificação das ferramentas em categorias de risco: baixo/limitado; alto e inaceitável. As que oferecem riscos inaceitáveis – reconhecimento facial indiscriminado, social scoring (sistema de avaliação dos cidadãos por seus hábitos e atitudes) etc. – são proibidas. As demais se sujeitam a diferentes níveis de regulação, com maior ênfase nas ferramentas de alto risco. Para implementar a normativa, criou-se uma autoridade regulatória, o AI Office, que também deverá detalhar os critérios objetivos de conformidade.
E os direitos autorais?
Originalmente, o documento não tratava de questões relativas a direitos autorais, mas o tema se impôs ao longo do ano passado, com a popularização das ferramentas de IA generativa e seu impacto nas dinâmicas de criação. Não por acaso, acabou inserido no capítulo dedicado às obrigações dos provedores de “modelos de IA de Propósito Geral”, definidos como aqueles treinados com uma grande quantidade de dados, usando autossupervisão em escala, caso do ChatGPT, do Midjourney, entre outros.
O Regulamento obriga os desenvolvedores a elaborar uma “política de conformidade” em face das diretrizes europeias de direito autoral, inclusive quanto à identificação e observância de ferramentas tecnológicas e outras formas de reserva de direitos feita por titulares. O dispositivo se refere em especial à Diretiva Europeia de direitos autorais digitais, que estabelece uma exceção aos direitos autorais para fins mineração de texto e dados, a menos que os titulares tenham optado pela exclusão de suas obras da base de treinamento.
Em outras palavras, o Regulamento reafirma que o titular tem direito ao opt-out, e o desenvolvedor da ferramenta tem a obrigação de identificar e respeitar essa opção. A notícia é boa para os titulares de direitos autorais, que já se valem desse tipo de ferramenta para retirar obras exibidas sem autorização de plataformas de vídeo online, por exemplo. Mas o volume de dados utilizados por uma ferramenta de IA generativa é de outra escala. Em seu processo de treinamento, o ChatGPT-3 consumiu 175 bilhões de “parâmetros”, como são chamados os “blocos” de informação processados pela máquina. É possível assegurar a eficácia da declaração de opt-out nesse universo de dados?
Seja como for, o Regulamento transfere para o desenvolvedor da ferramenta o ônus de disponibilizar publicamente um resumo detalhado sobre o conteúdo utilizado para o treinamento do modelo, de acordo com um template a ser elaborado pelo AI Office. O texto fornece, desde logo, alguns parâmetros. O resumo deve ser “simples e efetivo”, e deve conter uma listagem das “principais coleções ou conjuntos de dados usados para treinar o modelo”, notadamente “grandes bancos de dados públicos e privados”.
O Regulamento aborda, ainda, a questão das deep fakes, definidas como imagens, áudio ou vídeo gerados ou manipulados por IA, cuja semelhança com pessoas, objetos, lugares, entidades ou eventos reais seja capaz de confundir um observador comum. Os desenvolvedores devem declarar o uso da IA nesses e em todos os casos em que o conteúdo foi gerado ou manipulado por essas ferramentas. Em países como o Brasil, cuja legislação condiciona a autoria à origem humana da criação, isso pode ser determinante para definir o que pode ou não ser protegido por direitos autorais.
Conclusão
É cedo para dizer se o EU AI Act cumprirá sua missão de estabelecer um quadro jurídico uniforme, que harmonize os sistemas de IA com os valores da democracia e outros direitos fundamentais previstos na Carta Europeia e nos instrumentos do direito internacional dos direitos humanos. Entre eles, a saúde física e mental dos usuários, a segurança de grupos vulnerabilizados e a valorização da criação artístico-literária, elemento essencial da condição humana e objetivo primordial do próprio instituto dos direitos autorais.
Ainda assim, parece ser um avanço importante, que coloca a transparência no centro dos debates sobre IA. Sem transparência, é mais difícil encontrar pontos de convergência, sinergias, objetivos compartilhados e tudo mais que torna um mercado sustentável no longo prazo. Talvez, mais importante, o EU AI Act representa a aposta europeia em um projeto de desenvolvimento tecnológico baseado em regras. Não deixa de ser uma esperança, em um tempo em que os EUA apelam para a pressão econômica como freio à expansão tecnológica da China, que por sua vez não tem na transparência seu ponto forte.
LEIA MAIS: Compositores perderão quase € 3 bilhões até 2028 por conta da IA, diz estudo
LEIA MAIS: 2024, o ano que definirá o limite do direito autoral na inteligência artificial
*Cláudio Lins de Vasconcelos é advogado especialista em direito autoral. Mestre em direito pela Universidade Notre Dame (EUA) e doutor em direito pela Uerj, é sócio sênior do escritório Lins de Vasconcelos e Carboni Advocacia, especializado em mídia, propriedade intelectual, tecnologia e indústrias culturais e criativas.