A poderosa Anthropic era acusada de usar cópias não oficiais de livros para treinar o conhecido chatbot Claude
Por Ricardo Silva, de São Paulo
Foto: Shutterstock
A Anthropic concordou em pagar US$ 1,5 bilhão (cerca de R$ 8,1 bilhões) para encerrar uma ação coletiva movida por escritores que acusavam a empresa de usar centenas de milhares de livros pirateados no treinamento de seu chatbot de inteligência artificial, o conhecido Claude. O acerto, submetido à aprovação do juiz distrital William Alsup, de São Francisco, nos Estados Unidos, foi anunciado em agosto, mas somente agora teve os valores e termos divulgados.
Segundo os advogados dos autores, trata-se da maior recuperação de direitos autorais desviados já registrada — e o primeiro acordo do tipo na era da inteligência artificial.
“Esse acordo envia uma mensagem poderosa para as empresas de IA e para os criadores de que retirar trabalhos protegidos de sites piratas é errado”, afirmaram em comunicado.
Analistas concordam com a importância, mas ressaltam um ponto fundamental do caso: a Anthropic só concordou em pagar porque estava sendo acusada de usar cópias físicas piratas de livros. O uso de material protegido em si para treinar os sistemas de IA — atualmente sem remuneração ou autorização prévia de escritores, compositores, designers e outros criadores — não teve o mérito julgado. E este é, na opinião de muitos, o principal problema do direito autoral na era da IA generativa.
COMO FOI O CASO
Além do pagamento, a Anthropic se comprometeu a destruir os livros baixados sem permissão. Cada obra pirateada foi avaliada em US$ 3 mil (cerca de R$ 16,2 mil), considerando o cálculo de 500 mil títulos, mas o valor pode subir caso mais obras sejam identificadas. Embora tenha concordado em pagar, a empresa não chegou a admitir em nenhuma momento sua responsabilidade legal.
A Anthropic também ainda poderá enfrentar processos relacionados a eventuais violações cometidas por meio dos resultados gerados por seus modelos de IA, estes sim frequentemente associados à pirataria, na medida em que utilizam microtrechos de obras reais.
Os escritores Andrea Bartz, Charles Graeber e Kirk Wallace Johnson iniciaram a ação coletiva em 2023, alegando que a companhia — apoiada por gigantes como Amazon e Alphabet — usou ilegalmente milhões de livros piratas para treinar o Claude. As acusações se somaram a dezenas de processos semelhantes abertos por autores, jornalistas e artistas visuais contra empresas como OpenAI, Microsoft e Meta. The New York Times, Folha de S. Paulo e Le Monde são só alguns dos muito diários mundo afora que vêm movendo essas ações.
A Anthropic sustentou que seu uso dos textos estaria protegido pelo princípio do uso justo, que permite empregar material com direitos autorais em contextos de transformação criativa. Em junho, o juiz Alsup deu razão parcial à empresa, admitindo o uso justo no treinamento do Claude, mas determinou que a empresa havia violado direitos autorais ao manter uma “biblioteca central” com mais de 7 milhões de livros pirateados. Um julgamento sobre os danos seria iniciado em dezembro, com risco de condenação a centenas de bilhões de dólares.
REAÇÕES
Mary Rasenberger, presidente-executiva do Authors Guild, o grêmio dos escritores dos Estados Unidos, celebrou o acordo:
“É um passo vital no reconhecimento de que as empresas de IA não podem simplesmente roubar o trabalho criativo dos autores para construir sua IA.”
Já a Anthropic declarou em nota que continua “comprometida com o desenvolvimento de sistemas de IA seguros que ajudem pessoas e organizações a ampliar suas capacidades, promover descobertas científicas e resolver problemas complexos”. Nos EUA, na Europa, no Brasil e em outros lugares onde leis de IA vêm debatendo os limites do uso de materiais protegidos no treinamento dos sistemas, cada vez mais as empresas têm batido na tecla da “inovação” e da “descoberta científica” para tentar sedimentar no grande público a ideia de que apropriar-se dos trabalhos criativos alheios sem pagar está justificado em nome de um suposto “bem maior”.
“Esse argumento, claro, é completamente falacioso. A cada novo salto tecnológico, as plataformas insistem em tentar atribuir ao direito autoral um papel de freio à inovação. Foi assim com o YouTube, por exemplo, que alegava não poder derrubar os muitos conteúdos sem licença que seus usuários subiram ao longo dos primeiros anos da plataforma. Hoje eles têm o ContentID, um modelo de varredura de usos irregulares, e não consta que tenham perdido dinheiro, ao contrário, só cresceram desde então”, afirma a advogada paulistana Elaine Brandão.
Nos EUA, Vince Chhabria, um juiz da Califórnia julgando um caso de uso irregular de conteúdos pela Meta, a empresa de Mark Zuckerberg dona de Facebook, Instagram e WhatsApp, disse algo semelhante em junho:
“A alegação da Meta de que conceder uma vitória aos autores pararia a inovação em IA é ‘ridícula’. “Se usar obras protegidas por direitos autorais para treinar os modelos é tão necessário quanto as empresas dizem, elas devem encontrar uma forma de compensar os detentores dos direitos autorais por isso.”
Ao mesmo tempo, Chhabria acatou parcialmente, nesse julgamento, os argumentos da Meta de “uso justo” no treinamento dos sistemas, mostrando como esse debate é complexo e cheio de contradições. Nos últimos dias, duas notícias reforçam isso: primeiro, a startup de criação de música por IA Beatoven.ai afirmou que seu modelo de geração automatizada Maestro passará a pagar direitos autorais aos donos das obras usadas no seu treinamento. E, agora, o anúncio da Anthropic. Em comum, ambas dão um indicativo de que, no momento, os ventos parecem estar soprando um pouco mais a favor dos autores.
LEIA MAIS: Big techs da IA vencem duas batalhas na Justiça dos EUA em só uma semana
LEIA MAIS: Justiça americana decide: obra criada por IA não está sujeita a direito autoral
LEIA MAIS: Comissão do PL da inteligência artificial na Câmara já apresenta desafios ao direito autoral