SAN FRANCISCO / LONDON (IT BOLTWISE) – Anthropic, ein führendes Unternehmen im Bereich der Künstlichen Intelligenz, hat sich mit einer Gruppe von US-Autoren auf einen Vergleich geeinigt. Diese hatten das Unternehmen wegen angeblicher Urheberrechtsverletzungen verklagt, da Anthropic Millionen von Büchern von Piratenseiten heruntergeladen haben soll. Der Vergleich könnte wegweisend für zukünftige Rechtsstreitigkeiten in der KI-Branche sein.

Anthropic, ein bedeutendes Unternehmen im Bereich der Künstlichen Intelligenz, hat kürzlich einen Vergleich mit einer Gruppe von US-Autoren erzielt, die das Unternehmen wegen Urheberrechtsverletzungen verklagt hatten. Die Autoren behaupteten, dass Anthropic Millionen von Büchern von Piratenseiten heruntergeladen habe, um seine KI-Modelle zu trainieren. Diese Einigung markiert den ersten Vergleich in einer Reihe von ähnlichen Klagen gegen die KI-Industrie.
Der Fall wurde von einem Bundesrichter in Kalifornien überwacht, der im Juni feststellte, dass Anthropic möglicherweise bis zu sieben Millionen Bücher illegal heruntergeladen hat. Wäre der Fall zugunsten der Autoren entschieden worden, hätte das Unternehmen mit Schadensersatzforderungen in Milliardenhöhe rechnen müssen. Die genauen Bedingungen des Vergleichs wurden jedoch nicht bekannt gegeben.
Die Klage war eine von mehreren, die von Autoren, Nachrichtenagenturen und anderen Urheberrechtsinhabern gegen Unternehmen wie OpenAI, Microsoft und Meta Platforms eingereicht wurden. Diese Unternehmen stehen ebenfalls im Verdacht, urheberrechtlich geschütztes Material ohne Genehmigung für das Training ihrer KI-Modelle verwendet zu haben. Der Vergleich könnte daher als Präzedenzfall für zukünftige Rechtsstreitigkeiten in der Branche dienen.
Die Autoren, darunter Andrea Bartz, Charles Graeber und Kirk Wallace Johnson, argumentierten, dass Anthropic, unterstützt von Amazon und Alphabet, ihre Werke ohne Erlaubnis genutzt habe, um den KI-Assistenten Claude zu trainieren. Obwohl der Richter feststellte, dass Anthropic die Werke der Autoren für das KI-Training fair genutzt habe, verletzte das Unternehmen dennoch ihre Rechte, indem es die Bücher in einer zentralen Bibliothek speicherte.

- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Gruppenleiter*in Embedded AI – Hardwareentwicklung

Duales Studium Data Science und Künstliche Intelligenz 2026 (m/w/d)

Presales Consultant (gn) Microsoft AI Services

Rechtsanwaltsfachangestellte (w/m/d) – Legal Tech, KI & Kleos

- Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Anthropic einigt sich mit US-Autoren auf Vergleich wegen Urheberrechtsverletzung" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Anthropic einigt sich mit US-Autoren auf Vergleich wegen Urheberrechtsverletzung" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Anthropic einigt sich mit US-Autoren auf Vergleich wegen Urheberrechtsverletzung« bei Google Deutschland suchen, bei Bing oder Google News!