Instagram Feed

ubcmusica

No

cias

Notícias

Decisão em ação contra ChatGPT abre precedente negativo para autores
Publicado em 04/03/2024

Para juíza americana, escritores não conseguiram provar que OpenAI usa trechos de suas obras nos resultados do chatbot; entenda

De São Paulo

Uma juíza de primeira instância da Califórnia proferiu uma decisão há alguns dias que poderia passar despercebida no resto do mundo, se não fosse seu caráter inédito e a eventual influência sobre casos semelhantes em outros países. Em três ações nas quais escritores acusavam a OpenAI, criadora do ChatGPT, de violação de direitos autorais ao usar seus livros sem autorização para treinar sistemas de inteligência artificial generativa, a magistrada Araceli Martínez-Olguín ficou do lado da gigante tech.

As três ações independentes - movidas pelos escritores Sarah Silverman, Michael Chabon e Paul Tremblay - começaram no ano passado e acabaram julgadas do mesmo modo por Martínez-Olguín. Na época em que os processos começaram, a OpenAI prontamente se manifestou, dizendo que pretendia derrubar cada uma das alegações dos autores. Basicamente, eram quatro:

  • Violação indireta de direitos autorais por varrer conteúdos protegidos e usar micropartes deles ao construir novos textos nos resultados dos chatbots de inteligência artificial;
  • Violação da Lei americana de Direitos Autorais Digitais do Milêncio (DMCA), pelo fato de o ChatGPT ocultar de propósito informações sobre as obras, títulos e autores que a ferramenta usa no treinamento do seu sistema;
  • Prejuízo econômico aos autores e conduta fraudulenta por parte da OpenAI;
  • E varredura sem autorização de conteúdos protegidos por copyright para o treinamento da ferramenta.

Das quatro, apenas a última foi acatada. Para cada uma das outras três, a juíza argumentou de maneira contrária, posicionando-se a favor da OpenAI.

“Os autores, segundo ela, não conseguiram fornecer evidências que sustentem suas alegações. Acho que a parte mais significativa da sentença é aquela em que Martínez-Olguín diz não concordar com os autores quando eles dizem que cada resultado do ChatGPT é uma obra derivada que infringe os direitos autorais. De acordo com ela, para isso seria necessário que os resultados do ChatGPT fossem substancialmente similares, ou similares de alguma forma, às obras originais. E não é assim, já que os sistemas rearranjam as informações para fornecer textos supostamente originais”, disse a jornalista e analista americana Ashley Belanger, comentando o caso.

Numa parte da sentença, de fato, a magistrada sustenta:

“Os autores não alegaram que os resultados do ChatGPT são cópias diretas dos livros deles protegidos por direitos autorais. Por não alegarem cópia direta, eles deveriam mostrar alguma semelhança substancial entre os resultados (do chatbot) e seus conteúdos. E falharam nisso.”

Para a juíza, os autores também não puderam demonstrar prejuízos econômicos ou conduta fraudulenta nem, tampouco, que a OpenAI ocultou as informações sobre as obras, títulos e autores de propósito dos dados de treinamento. Portanto, a única alegação com a qual ela concordou é que, de fato, a OpenAI varre conteúdos protegidos por copyrights para treinar seus sistemas, algo que a empresa reconhece e que, dado o vazio legal atual sobre o tema, não é passível de uma punição automática. A ação continuará para tentar julgar esse uso.

Na prática, ao não acatar os argumentos dos autores, a juíza deixa livres as empresas criadoras de ferramentas de IA para usar as obras que quiserem no treinamento dos sistemas - inclusive músicas - sem precisar pedir autorização aos autores ou pagar pelo uso. Cabe recurso, e os autores já anunciaram que o farão.

No Brasil, a advogada especialista em propriedade intelectual e proteção de dados Cristiane Monzueto, sócia do escritório Tauil & Chequer, vê grande importância na decisão.

“De alguma forma, essa juíza da Califórnia inverte o ônus da prova: você tem uma obra sua, ou um trecho de uma obra, usado por uma empresa para gerar outros conteúdos, algo que a própria empresa reconhece, e cabe a você provar por que aquele uso é ilegal. Isso gera um problema para os autores: se não demonstrarem, através de trechos inteiros, que tiveram suas obras mineradas, simplesmente poderão ter suas criações usadas livremente”, ela afirmou, lembrando que uma situação assim poderia perfeitamente ser replicada no mundo da criação musical.

A advogada citou outro caso recente de demanda à OpenAI (e também à Microsoft) nos EUA. O diário “The New York Times”, alegando mineração de seus conteúdos, pede uma indenização às empresas responsáveis pelas ferramentas de IA generativa. No caso, o jornalão diz poder provar que trechos inteiros de reportagens suas estariam sendo utilizados nas respostas dos chatbots, algo que os autores das ações da Califórnia não foram capazes de fazer. A ação do NYT contra a OpenAI e a Microsoft ainda está em andamento.

Sobre a dificuldade de acessar os dados sobre obras, títulos e autores inseridos nas ferramentas de treinamento dos chatbots, Monzueto afirma que ela se insere num contexto mais amplo: a ausência de clareza sobre como funcionam os algoritmos das gigantes tech. Hoje em dia, é muito difícil para um autor provar o uso da sua obra simplesmente porque os algoritmos, tal como estão treinados, não fornecem as informações sobre de onde retiram os conteúdos.

“Como detectar o trecho usado? Como o algoritmo compila os trechos para criar algo ‘novo’ nos resultados dos chatbots? Este é um segredo de negócio, e a lei protege os segredos de negócio. Por outro lado, a lei protege os titulares de direitos autorais. Essa disputa precisará ser resolvida através de uma nova legislação que aborde diretamente as questões que não existiam quando as atuais leis foram feitas”, diz Monzueto.

Na Europa e nos EUA, novas leis parecem estar se debruçando sobre essas questões. No Brasil, o Marco Civil da Inteligência Artificial, atualmente em tramitação, falha em não se aprofundar no tema do direito autoral no contexto da IA.

“Vejo esse projeto de lei muito mais focado na tecnologia em si, e em questões como a difusão de fake news e deepfakes, do que nos direitos autorais das pessoas humanas. A gente precisa de uma lei que abranja e garanta esses direitos”, finaliza a advogada.

LEIA MAIS: Lei de Inteligência Artificial da União Europeia avança

LEIA MAIS: Compositores perderão bilhões de euros até 2028 por conta da IA, diz estudo


 

 



Voltar