SAN FRANCISCO / MÜNCHEN (IT BOLTWISE) – Die jüngsten Fortschritte in der KI-Technologie haben nicht nur positive Anwendungen, sondern auch potenzielle Risiken hervorgebracht. Ein neuer Bildgenerator von ChatGPT, der in der Lage ist, realistisch aussehende Texte in Bildern zu erzeugen, hat die Aufmerksamkeit auf sich gezogen, da er zur Erstellung gefälschter Belege genutzt werden kann.

Die Einführung eines neuen Bildgenerators durch ChatGPT, der Teil des 4o-Modells ist, hat die Fähigkeit zur Erstellung von Texten in Bildern erheblich verbessert. Diese Entwicklung hat jedoch auch Bedenken hinsichtlich der Sicherheit aufgeworfen, da Betrüger diese Technologie nutzen könnten, um gefälschte Restaurantbelege zu erstellen. Solche Belege könnten dann verwendet werden, um unrechtmäßige Erstattungen zu beantragen, was die ohnehin schon umfangreiche Palette an KI-gestützten Betrugsmethoden erweitert.
Ein prominenter Nutzer sozialer Medien und Risikokapitalgeber, Deedy Das, hat auf der Plattform X ein Bild eines gefälschten Belegs für ein echtes Steakhouse in San Francisco geteilt, das mit dem 4o-Modell erstellt wurde. Andere Nutzer konnten ähnliche Ergebnisse erzielen, einschließlich Belegen mit Essens- oder Getränkeflecken, um sie noch authentischer wirken zu lassen. Ein besonders realistisch aussehendes Beispiel stammt aus Frankreich, wo ein LinkedIn-Nutzer einen zerknitterten, KI-generierten Beleg für eine lokale Restaurantkette veröffentlichte.
TechCrunch hat das 4o-Modell ebenfalls getestet und konnte einen gefälschten Beleg für ein Applebee’s in San Francisco erstellen. Allerdings wies dieser Versuch einige offensichtliche Fehler auf, die auf eine Fälschung hinwiesen. Zum einen wurde ein Komma anstelle eines Punktes verwendet, um den Gesamtbetrag darzustellen, und zum anderen stimmten die mathematischen Berechnungen nicht. Dass große Sprachmodelle immer noch Schwierigkeiten mit grundlegender Mathematik haben, ist nicht überraschend.
Es wäre jedoch für einen Betrüger nicht schwer, einige der Zahlen schnell mit Bildbearbeitungssoftware oder präziseren Eingabeaufforderungen zu korrigieren. Die Möglichkeit, gefälschte Belege einfach zu erstellen, bietet enorme Chancen für Betrug. Es ist leicht vorstellbar, dass diese Technologie von Kriminellen genutzt wird, um Erstattungen für völlig erfundene Ausgaben zu erhalten.
Ein Sprecher von OpenAI, Taya Christianson, erklärte gegenüber TechCrunch, dass alle von ChatGPT erstellten Bilder Metadaten enthalten, die ihre Herkunft kennzeichnen. Christianson fügte hinzu, dass OpenAI Maßnahmen ergreift, wenn Nutzer gegen die Nutzungsrichtlinien verstoßen, und dass das Unternehmen ständig aus der realen Nutzung und dem Feedback lernt.
Auf die Frage, warum ChatGPT überhaupt die Erstellung gefälschter Belege erlaubt und ob dies mit den Nutzungsrichtlinien von OpenAI im Einklang steht, die Betrug verbieten, antwortete Christianson, dass das Ziel von OpenAI darin besteht, den Nutzern so viel kreative Freiheit wie möglich zu geben. Gefälschte KI-Belege könnten in nicht betrügerischen Situationen verwendet werden, wie zum Beispiel beim Lehren von Finanzkompetenz oder beim Erstellen von Originalkunst und Produktanzeigen.

- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Lead AI Engineer - Digital Product Development (f/m/x)

Bauprojektmanager/Projektleiter als Bauherrenvertretung für KI-Rechenzentrumprojekte (m/w/d) HN o. B

IT-Projektleiter (m/w/d) – Schwerpunkt Künstliche Intelligenz in der Immobilienwirtschaft

W2 Professorship for AI Infrastructure (f/m/d)

- Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Gefälschte Belege durch KI: Neue Herausforderungen für die Sicherheit" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Gefälschte Belege durch KI: Neue Herausforderungen für die Sicherheit" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Gefälschte Belege durch KI: Neue Herausforderungen für die Sicherheit« bei Google Deutschland suchen, bei Bing oder Google News!