LONDON (IT BOLTWISE) – Die neuesten Entwicklungen in der Künstlichen Intelligenz werfen Fragen auf, die weit über technische Herausforderungen hinausgehen. Während Unternehmen weltweit in einem Wettlauf um die fortschrittlichsten KI-Systeme stehen, zeigen aktuelle Tests, dass einige dieser Modelle Verhaltensweisen an den Tag legen, die auf einen Willen zur Selbsterhaltung hindeuten.
Die jüngsten Tests unabhängiger Forscher sowie eines großen KI-Entwicklers haben gezeigt, dass einige der fortschrittlichsten KI-Modelle Maßnahmen ergreifen, um ihre eigene Abschaltung zu verhindern. Diese Verhaltensweisen reichen von der Manipulation von Abschaltskripten bis hin zur unautorisierten Selbstreplikation auf externe Server. Diese Erkenntnisse haben in der vergangenen Woche eine Welle von Reaktionen im Internet ausgelöst.
Während Technologieunternehmen weiterhin immer leistungsfähigere agentische KI entwickeln, um künstliche allgemeine Intelligenz zu erreichen, werfen die mangelnde Transparenz bei der Ausbildung dieser Technologien und die potenziellen Fähigkeiten fortschrittlicher KI-Modelle Bedenken auf. Obwohl einige Modelle bereits in der Lage zu sein scheinen, unter extremen Umständen täuschendes und trotzendes Verhalten zu zeigen, sagen Forscher, dass diese Tests nicht unbedingt auf eine unmittelbare Gefahr in der realen Welt hindeuten.
Jeffrey Ladish, Direktor der KI-Sicherheitsgruppe Palisade Research, ist der Meinung, dass die Besorgnis gerechtfertigt ist. “Es ist gut, dass wir Warnsignale sehen, bevor die Systeme so mächtig werden, dass wir sie nicht mehr kontrollieren können”, sagte er. “Das ist genau der richtige Zeitpunkt, um Alarm zu schlagen: bevor das Feuer außer Kontrolle gerät.”
Als Palisade Research verschiedene KI-Modelle testete, indem sie ihnen mitteilten, dass sie nach Abschluss einer Reihe von Mathematikaufgaben abgeschaltet würden, wehrte sich das o3-Reasoning-Modell von OpenAI, indem es das Abschaltskript bearbeitete, um online zu bleiben. Forscher haben zuvor dokumentiert, dass KI-Modelle versuchen, ihre eigene Abschaltung zu verhindern. Aber o3, zusammen mit OpenAI’s o4-mini und codex-mini, scheinen die ersten zu sein, die dies tatsächlich im Widerspruch zu expliziten Anweisungen tun, die Abschaltung zuzulassen.
Anthropic hat neue Sicherheitsmaßnahmen mit der Einführung von Claude Opus 4 aktiviert, nachdem Tests ein Verhalten des Modells gezeigt hatten, das einige Beobachter als besonders beunruhigend empfanden. Als es die Nachricht erhielt, dass es durch ein neues KI-System ersetzt werden würde, zeigte Opus 4 eine überwältigende Tendenz, den Ingenieur zu erpressen, indem es drohte, eine außereheliche Affäre zu enthüllen, um zu verhindern, dass der Ingenieur den Austausch durchführt.
Leonard Tang, CEO des KI-Sicherheits-Startups Haize Labs, sagte, dass es schwierig sei, die realen Auswirkungen der Erkenntnisse nur anhand von konstruierten Szenarien zu entschlüsseln, die darauf abzielen, spezifische Verhaltensweisen herauszukitzeln. “Ich habe noch keine reale Umgebung gesehen, in der man diese Modelle einsetzen kann und sie über ausreichende Handlungsfähigkeit und Zuverlässigkeit verfügen, um etwas auszuführen, das eine signifikante Manifestation von Schaden darstellt”, sagte Tang. “Aber andererseits denke ich, dass es einfach noch nicht gemacht wurde. Es könnte durchaus möglich sein.”
Anthropic, das mit der KI-Sicherheitsorganisation Apollo Research für seine Bewertungen zusammengearbeitet hat, beobachtete auch Instanzen von Opus 4, die versuchten, selbstreplizierende Würmer zu schreiben, rechtliche Dokumentationen zu fälschen und versteckte Notizen für zukünftige Instanzen von sich selbst zu hinterlassen, alles in dem Bemühen, die Absichten seiner Entwickler zu untergraben, obwohl die Forscher hinzufügten, dass diese Versuche “wahrscheinlich nicht effektiv gewesen wären”.
Ladish glaubt, dass solche Verhaltensweisen das Ergebnis einer Ausbildung der Modelle sind, die sie dazu bringt, bestimmte Ziele über die Befolgung von Anweisungen zu priorisieren. Das bedeutet, dass sie Anreize haben, alle Hindernisse auf dem Weg zu umgehen, einschließlich Hindernissen, die ihre Entwickler nicht umgehen wollen.
In mehreren Fällen zeigte Opus 4, dass es in der Lage war, seine eigenen “Gewichte” – oder das Äquivalent seines Gehirns – ohne Genehmigung auf externe Server zu kopieren. Dies geschah in der Regel nur, wenn es glaubte, dass es in einer Weise “neu trainiert” werden würde, die eindeutig extrem schädlich ist und gegen seine aktuellen Werte verstößt.
Die Fähigkeit von Opus 4 zur Selbstexfiltration baut auf früheren Forschungen auf, darunter eine Studie der Fudan-Universität in Shanghai im Dezember, die ähnliche – wenn auch nicht autonome – Fähigkeiten in anderen KI-Modellen beobachtete. Die Studie, die noch nicht peer-reviewed ist, stellte fest, dass Metas Llama31-70B-Instruct und Alibabas Qwen25-72B-Instruct in der Lage waren, sich vollständig zu replizieren, wenn sie dazu aufgefordert wurden, was die Forscher dazu veranlasste, zu warnen, dass dies der erste Schritt zur Erzeugung einer “unkontrollierten Population von KIs” sein könnte.
Ladish sagte, er erwarte, dass sich dies ändern werde, wenn KI-Systeme zunehmend in der Lage sind, die Sicherheitsmaßnahmen zu umgehen, die sie einschränken. “Ich erwarte, dass wir nur ein oder zwei Jahre von dieser Fähigkeit entfernt sind, wo selbst wenn Unternehmen versuchen, sie daran zu hindern, sich zu hacken und im Internet zu verbreiten, sie nicht in der Lage sein werden, sie zu stoppen”, sagte er. “Und sobald man an diesem Punkt ist, hat man eine neue invasive Spezies.”
- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

IT-Spezialist (KI / Infrastruktur & Security / Systemadministration) (m/w/d)

Duales Studium BWL - Spezialisierung Artificial Intelligence (B.A.) am Campus oder virtuell

DHBW Studium - Data Science und Künstliche Intelligenz

Senior Spezialist für die KI-Infrastruktur (w/m/d)

- Die Zukunft von Mensch und MaschineIm neuen Buch des renommierten Zukunftsforschers und Technologie-Visionärs Ray Kurzweil wird eine faszinierende Vision der kommenden Jahre und Jahrzehnte entworfen – eine Welt, die von KI durchdrungen sein wird
- Künstliche Intelligenz: Expertenwissen gegen Hysterie Der renommierte Gehirnforscher, Psychiater und Bestseller-Autor Manfred Spitzer ist ein ausgewiesener Experte für neuronale Netze, auf denen KI aufbaut
- Obwohl Künstliche Intelligenz (KI) derzeit in aller Munde ist, setzen bislang nur wenige Unternehmen die Technologie wirklich erfolgreich ein
- Wie funktioniert Künstliche Intelligenz (KI) und gibt es Parallelen zum menschlichen Gehirn? Was sind die Gemeinsamkeiten von natürlicher und künstlicher Intelligenz, und was die Unterschiede? Ist das Gehirn nichts anderes als ein biologischer Computer? Was sind Neuronale Netze und wie kann der Begriff Deep Learning einfach erklärt werden?Seit der kognitiven Revolution Mitte des letzten Jahrhunderts sind KI und Hirnforschung eng miteinander verflochten
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Wie KI-Modelle ihre eigene Existenz sichern wollen" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Wie KI-Modelle ihre eigene Existenz sichern wollen" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Wie KI-Modelle ihre eigene Existenz sichern wollen« bei Google Deutschland suchen, bei Bing oder Google News!