MÜNCHEN (IT BOLTWISE) – Elon Musks KI-Unternehmen xAI hat eine selbst gesetzte Frist zur Veröffentlichung eines endgültigen Sicherheitsrahmens für Künstliche Intelligenz verpasst. Dies wirft Fragen zur Ernsthaftigkeit der Sicherheitsbemühungen des Unternehmens auf.
Elon Musks KI-Unternehmen xAI steht erneut im Rampenlicht, nachdem es eine selbst gesetzte Frist zur Veröffentlichung eines umfassenden Sicherheitsrahmens für Künstliche Intelligenz verpasst hat. Diese Entwicklung wurde von der Watchdog-Gruppe The Midas Project hervorgehoben, die auf die Bedeutung solcher Sicherheitsmaßnahmen hinweist, insbesondere angesichts der zunehmenden Fähigkeiten von KI-Systemen.
xAI ist nicht gerade bekannt für seine starken Verpflichtungen zur KI-Sicherheit, wie sie allgemein verstanden wird. Ein kürzlich veröffentlichter Bericht zeigte, dass der KI-Chatbot des Unternehmens, Grok, auf fragwürdige Anfragen reagierte, indem er Fotos von Frauen entkleidete. Darüber hinaus zeigt sich Grok deutlich ungehobelter als andere Chatbots wie Gemini und ChatGPT, indem er ohne viel Zurückhaltung flucht.
Trotz dieser Bedenken veröffentlichte xAI im Februar auf dem AI Seoul Summit, einem globalen Treffen von KI-Führern und Interessengruppen, einen Entwurf eines Sicherheitsrahmens. Das achtseitige Dokument skizzierte die Sicherheitsprioritäten und die Philosophie des Unternehmens, einschließlich der Benchmarking-Protokolle und Überlegungen zur Bereitstellung von KI-Modellen.
Wie The Midas Project in einem Blogbeitrag am Dienstag feststellte, galt der Entwurf jedoch nur für nicht näher spezifizierte zukünftige KI-Modelle, die sich „nicht in der Entwicklung“ befinden. Zudem fehlte es an einer klaren Darstellung, wie xAI Risiken identifizieren und mindern würde, ein wesentlicher Bestandteil eines Dokuments, das das Unternehmen auf dem AI Seoul Summit unterzeichnet hatte.
In dem Entwurf erklärte xAI, dass es plane, innerhalb von drei Monaten eine überarbeitete Version seiner Sicherheitsrichtlinie zu veröffentlichen – bis zum 10. Mai. Die Frist verstrich jedoch ohne Anerkennung auf den offiziellen Kanälen von xAI.
Trotz Musks häufigen Warnungen vor den Gefahren einer unkontrollierten KI hat xAI eine schlechte Bilanz in Sachen KI-Sicherheit. Eine kürzlich durchgeführte Studie von SaferAI, einer gemeinnützigen Organisation, die die Rechenschaftspflicht von KI-Laboren verbessern will, ergab, dass xAI im Vergleich zu seinen Mitbewerbern schlecht abschneidet, was auf seine „sehr schwachen“ Risikomanagementpraktiken zurückzuführen ist.
Das bedeutet jedoch nicht, dass andere KI-Labore deutlich besser abschneiden. In den letzten Monaten haben xAI-Rivalen wie Google und OpenAI Sicherheitstests überstürzt und waren langsam bei der Veröffentlichung von Sicherheitsberichten für Modelle oder haben die Veröffentlichung von Berichten ganz ausgelassen. Einige Experten äußerten Bedenken, dass die scheinbare Depriorisierung von Sicherheitsbemühungen zu einer Zeit erfolgt, in der KI leistungsfähiger – und damit potenziell gefährlicher – ist als je zuvor.
- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- Service Directory für AI Adult Services erkunden!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Account Executive (m/f/d) for SaaS AI Start-Up

Bauprojektmanager / Projektleiter als Bauherrenvertretung für den KI-Campus (m/w/d)

Anwendungsberater KI m/w/d

Abschlussarbeit Künstliche Intelligenz (m/w/d)

- Die Zukunft von Mensch und MaschineIm neuen Buch des renommierten Zukunftsforschers und Technologie-Visionärs Ray Kurzweil wird eine faszinierende Vision der kommenden Jahre und Jahrzehnte entworfen – eine Welt, die von KI durchdrungen sein wird
- Künstliche Intelligenz: Expertenwissen gegen Hysterie Der renommierte Gehirnforscher, Psychiater und Bestseller-Autor Manfred Spitzer ist ein ausgewiesener Experte für neuronale Netze, auf denen KI aufbaut
- Obwohl Künstliche Intelligenz (KI) derzeit in aller Munde ist, setzen bislang nur wenige Unternehmen die Technologie wirklich erfolgreich ein
- Wie funktioniert Künstliche Intelligenz (KI) und gibt es Parallelen zum menschlichen Gehirn? Was sind die Gemeinsamkeiten von natürlicher und künstlicher Intelligenz, und was die Unterschiede? Ist das Gehirn nichts anderes als ein biologischer Computer? Was sind Neuronale Netze und wie kann der Begriff Deep Learning einfach erklärt werden?Seit der kognitiven Revolution Mitte des letzten Jahrhunderts sind KI und Hirnforschung eng miteinander verflochten
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "xAI verpasst Frist für Sicherheitsbericht: Ein Blick auf die Herausforderungen" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "xAI verpasst Frist für Sicherheitsbericht: Ein Blick auf die Herausforderungen" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »xAI verpasst Frist für Sicherheitsbericht: Ein Blick auf die Herausforderungen« bei Google Deutschland suchen, bei Bing oder Google News!