Authors sue AI startup Anthropic, accusing it of using pirated books for chatbot training. Los autores demandan a AI startup Anthropic, acusándolo de usar libros pirateados para el entrenamiento de chatbot.
In a first-of-its-kind lawsuit, authors have accused AI startup Anthropic of using pirated copies of copyrighted books to train its chatbot, Claude. En una demanda de primera clase, los autores han acusado a IA startup Anthropic de usar copias pirateadas de libros con copyright para entrenar a su chatbot, Claude. The startup, which markets itself as a responsible AI developer, is facing allegations of "large-scale theft" and undermining its claims to be safety-focused. La startup, que se comercializa como desarrollador responsable de IA, se enfrenta a acusaciones de "robo a gran escala" y socava sus afirmaciones de estar centrada en la seguridad. This case joins a growing number of lawsuits against developers of AI large language models, as tech companies argue that the training of AI models falls under the "fair use" doctrine, while authors dispute this and accuse Anthropic of using a pirated dataset called The Pile. Este caso se une a un creciente número de demandas contra desarrolladores de grandes modelos de lenguaje de IA, ya que las compañías tecnológicas argumentan que la formación de modelos de IA cae bajo la doctrina del "uso justo", mientras que los autores discuten esto y acusan a Anthropic de usar un conjunto de datos pirata llamado The Pile.