Gemini und sein verzerrtes Weltbild: Googles KI zwischen Diversität und historischer Genauigkeit - IT BOLTWISE® x Artificial Intelligence

MÜNCHEN (IT BOLTWISE) – Die Debatte um Künstliche Intelligenz und seinen politischen Maulkorb erreicht einen neuen Höhepunkt.

Google Geminis neue bildgenerierende KI-Komponente hat für Aufsehen gesorgt, indem sie Bilder historischer Persönlichkeiten in einer Weise präsentiert, die viele als mehr als nur ungenau und voreingenommen kritisierten. Die Gründerväter Amerikas, der Papst, historisch homogene Gruppen wie Wikinger, als Menschen unterschiedlicher Ethnizität dargestellt, Nazi-Offiziere afrikanischer Herkunft, sind nur einige von zahllosen Beispielen, wie Geminis Bilder-Outputs für Kontroverse gesorgt haben. Überagressives und verzerrendes Guardrailing der KI, willkürliche System-Prompts, die vom Produkt-Team implementiert wurden und damit das Verhalten der Modelle signifikant verändern können – Google Gemini wirft Fragen übe gesellschaftliche Programmierung und die Macht der KI, unsere Wahrnehmung der Geschichte zu verändern, auf, und es stellt sich die Frage, ob es ein Symptom eines viel tieferreichenden Problems darstellt, das nicht notwendig mit der Funktionsweise der KI-Modelle zu tun hat als mit der Kultur und den philosophischen Subjektivitäten, die Unternehmen oder Teams hinter Produkten wie Gemini stehen.

Gemini wurde mit dem Ziel entwickelt, implizite menschliche Vorurteile zu überwinden, indem es „maschinelles Lernen für Fairness“ einsetzt. Doch die Ergebnisse zeigen eine neue Form von Voreingenommenheit, die durch menschliche Eingriffe in die Maschinen verstärkt wird. Googles Bilder zeigen eine verzerrte Sicht auf Rasse, Geschlecht und sexuelle Orientierung, die viele als „absurd wach“ kritisieren.

Diese Vorfälle unterstreichen ein größeres Problem in der Technologiewelt: Die Gefahr, dass die KI unsere Vorstellungen von der Vergangenheit und Gegenwart verzerrt. Die Ironie dabei ist, dass die Technologie, die uns unvoreingenommene Bilder liefern soll, selbst von Vorurteilen durchdrungen ist. Die sogenannte „Gemini-Affäre“ hat nicht nur Googles interne Kultur beleuchtet, sondern auch die Notwendigkeit, die Werte und Normen, die die Entwicklung von KI leiten, zu hinterfragen.

Google hat am Donnerstag bekannt gegeben, dass es die Bildgenerierung von Personen durch den KI-Chatbot Gemini vorübergehend einstellt, nachdem es sich einen Tag zuvor für „Ungenauigkeiten“ bei historischen Darstellungen entschuldigt hatte, die es erstellt hatte. Kritiker hatten Bedenken geäußert, ob das Unternehmen das Risiko einer rassistischen Voreingenommenheit in seinem KI-Modell überkorrigiert. Google arbeitet bereits daran, die jüngsten Probleme mit der Bildgenerierungsfunktion von Gemini zu beheben und wird eine verbesserte Version bald wieder veröffentlichen.

Frühere Studien haben gezeigt, dass KI-Bildgeneratoren rassische und geschlechtsspezifische Stereotypen aus ihren Trainingsdaten verstärken können und ohne Filter wahrscheinlicher hellhäutige Männer generieren, wenn sie aufgefordert werden, eine Person in verschiedenen Kontexten zu generieren. Google hat zugegeben, dass Gemini „Ungenauigkeiten bei einigen historischen Bildgenerierungsdarstellungen“ bietet und dass sie daran arbeiten, diese Art von Darstellungen sofort zu verbessern.

Die Einführung von Googles Gemini KI war holprig. Trotz der Tatsache, dass es sich um den leistungsfähigsten öffentlich verfügbaren Chatbot von Google handelt, ist er direkt auf ein für viele große Technologieunternehmen unüberwindbares Hindernis gestoßen: den Kulturkampf. Das Unternehmen gab an, dass es die Bildgenerierungsfähigkeiten von Gemini pausieren würde, nachdem es historisch ungenaue Bilder wie schwarze Nazi-Soldaten und amerikanische Ureinwohner als US-Senatoren erstellt hatte.

Darghya Das, ein ehemaliger Google-Suchmaschinen-Ingenieur, schrieb auf X, dass es „peinlich schwer“ sei, Google Gemini dazu zu bringen, anzuerkennen, dass weiße Menschen existieren. Er fügte Screenshots des Bots bei, der Bilder von amerikanischen, australischen, britischen und deutschen Frauen generierte, die meist Menschen mit Migrationshintergrund darstellten. Das Problem ist – Google war sich all dessen bewusst.

Die Debatte geht über Google hinaus und berührt grundlegende Fragen über die Ethik in der KI. Wie wir mit der Vergangenheit umgehen, beeinflusst unser Verständnis der Gegenwart und der Zukunft. Durch die Veränderung unserer Wahrnehmung der Geschichte mit KI, riskieren wir, die Lektionen zu verlieren, die sie uns lehren kann. Die Auseinandersetzung mit diesen Themen ist entscheidend, um sicherzustellen, dass die KI als Werkzeug dient, das unsere Gesellschaft bereichert, anstatt sie zu spalten.

Googles KI-Ethik: Zwischen Diversität und historischer Genauigkeit
Googles KI-Ethik: Zwischen Diversität und historischer Genauigkeit (Foto:DALL-E, IT BOLTWISE)
Hinweis: Teile dieses Textes könnten mithilfe Künstlicher Intelligenz generiert worden sein.



Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de
Stichwörter
Alle Märkte in Echtzeit verfolgen - 30 Tage kostenlos testen!


#Abo
LinkedIn
Facebook
Twitter
#Podcast
YouTube
Spotify
Apple

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert



Es werden alle Kommentare moderiert!

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.

Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.

Du willst nichts verpassen?

Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.