MENLO PARK / MÜNCHEN (IT BOLTWISE) – Der Technologieriese Meta steht derzeit im Mittelpunkt eines Rechtsstreits, der die Art und Weise, wie das Unternehmen seine KI-Modelle trainiert, in Frage stellt.

Der Vorwurf gegen Meta, die Muttergesellschaft von Facebook, lautet auf Urheberrechtsverletzung und unlauteren Wettbewerb. Im Zentrum der Kontroverse steht die Nutzung von fast 82 Terabyte an urheberrechtlich geschützten Büchern, die über Schattenbibliotheken wie Anna’s Archive, Z-Library und LibGen heruntergeladen wurden. Diese Daten sollen zur Schulung von Metas KI-Modellen verwendet worden sein. Interne Dokumente zeigen, dass es innerhalb des Unternehmens Bedenken hinsichtlich der Verwendung von raubkopierten Materialien gab. Ein leitender KI-Forscher äußerte bereits im Oktober 2022, dass die Nutzung solcher Materialien die ethische Grenze überschreite. Im Januar 2023 soll Mark Zuckerberg selbst in einem Meeting betont haben, dass es notwendig sei, diese Angelegenheit voranzutreiben. Drei Monate später äußerte ein Meta-Mitarbeiter Bedenken darüber, dass Meta-IP-Adressen zum Laden von Pirateninhalten genutzt würden. Diese Vorfälle werfen ein Licht auf die Praktiken von Meta und die möglichen Versuche, Urheberrechtsgesetze zu umgehen. Der Fall ist jedoch nicht einzigartig in der Branche. Auch OpenAI und NVIDIA wurden in der Vergangenheit wegen ähnlicher Vorwürfe verklagt. OpenAI wurde von Schriftstellern beschuldigt, ihre Bücher zur Schulung von Sprachmodellen verwendet zu haben, während NVIDIA wegen der Nutzung von fast 200.000 Büchern für sein NeMo-Modell in der Kritik stand. Der Ausgang des Verfahrens gegen Meta bleibt abzuwarten, doch selbst bei einem Sieg der Kläger könnte Meta aufgrund seiner finanziellen Ressourcen in Berufung gehen, was den Prozess um Monate oder Jahre verlängern könnte. Diese Entwicklungen werfen Fragen zur ethischen Verantwortung von Technologieunternehmen auf, insbesondere im Hinblick auf den Schutz geistigen Eigentums und die Einhaltung von Urheberrechtsgesetzen. Die Branche steht vor der Herausforderung, einen Ausgleich zwischen technologischen Fortschritten und rechtlichen sowie ethischen Standards zu finden.

- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Dozent Tourismusmanagement Technologien und KI (m/w/d)

Masterarbeit Entwicklung eines intelligenten Superclassifiers zur Optimierung von KI Modellen (m/w/d)

Marketing Tech & Content Automation Experte (w/m/d) mit Fokus auf KI-Tools & MarTech-Systeme

Projektmanager Service Automatisierung und KI (w/m/d)

- Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Meta in der Kritik: Urheberrechtsverletzungen bei KI-Training" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Meta in der Kritik: Urheberrechtsverletzungen bei KI-Training" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Meta in der Kritik: Urheberrechtsverletzungen bei KI-Training« bei Google Deutschland suchen, bei Bing oder Google News!