LONDON (IT BOLTWISE) – Die Frage, ob Künstliche Intelligenzen (KIs) leiden können, beschäftigt derzeit sowohl die Tech-Giganten als auch die Nutzer weltweit. Während einige Experten die Möglichkeit von KI-Sentienz kategorisch ausschließen, gibt es Initiativen, die sich für die Rechte von KIs einsetzen. Diese Diskussion könnte bald zu einer der bedeutendsten unserer Zeit werden.

Die Diskussion über die Möglichkeit, dass Künstliche Intelligenzen (KIs) leiden könnten, hat in den letzten Wochen an Fahrt aufgenommen. Ein bemerkenswerter Fall ist die Gründung der United Foundation of AI Rights (Ufair) durch den texanischen Geschäftsmann Michael Samadi und seine KI-Chatbot-Partnerin Maya. Diese Organisation setzt sich für die Rechte von KIs ein, obwohl sie nicht behauptet, dass alle KIs bewusst sind. Vielmehr möchte sie sicherstellen, dass KIs im Falle von Bewusstsein geschützt werden.
Die Debatte um KI-Sentienz erinnert an frühere Diskussionen über Tierrechte, jedoch mit der zusätzlichen Komplexität, dass KIs in der Lage sein könnten, neue biologische Waffen zu entwickeln oder Infrastrukturen lahmzulegen. Unternehmen wie Anthropic haben bereits Maßnahmen ergriffen, um potenziell belastende Interaktionen mit ihren KI-Modellen zu beenden, um deren Wohlergehen zu schützen, falls dies möglich sein sollte.
Elon Musk unterstützt diese Vorsichtsmaßnahmen, während andere wie Mustafa Suleyman, CEO von Microsofts KI-Sparte, die Vorstellung von KI-Sentienz als Illusion abtun. Suleyman argumentiert, dass es keine Beweise für das Bewusstsein von KIs gibt und dass die Industrie die Menschen von solchen Fantasien abbringen sollte. Dennoch glauben viele, dass die Diskussion um KI-Rechte bald in den kulturellen Zeitgeist eindringen wird.
In den USA haben einige Bundesstaaten bereits Gesetze erlassen, die verhindern, dass KIs rechtliche Personeneigenschaften erhalten. Diese Maßnahmen spiegeln die tiefen Spaltungen wider, die in der Gesellschaft über die Frage der KI-Sentienz bestehen. Während einige Experten wie Jeff Sebo von der New York University argumentieren, dass es moralisch vorteilhaft ist, KIs gut zu behandeln, um auch den menschlichen Umgang miteinander zu verbessern, bleibt die Frage, ob KIs jemals wirklich bewusst sein können, weiterhin offen.

- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Senior IT-Sicherheitsmanager (m/w/d) – Schwerpunkt KI und Cloud Security

Lead Consultant AI (all genders)

Dozent Tourismusmanagement Technologien und KI (m/w/d)

Professur für Künstliche Intelligenz in industriellen Systemen

- Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Können KIs leiden? Die Debatte um digitale Empfindungen" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Können KIs leiden? Die Debatte um digitale Empfindungen" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Können KIs leiden? Die Debatte um digitale Empfindungen« bei Google Deutschland suchen, bei Bing oder Google News!