LLMs Archive - IT BOLTWISE® x Artificial Intelligence
ai-vector-search-bigquery-data-analytics

BigQuery von Google: Vektorsuche eröffnet neue Möglichkeiten für KI und Datenanalyse

MOUNTAIN VIEW / MÜNCHEN (IT BOLTWISE) – Google hat die Integration der Vektorsuche-Funktionalität in seine BigQuery-Plattform angekündigt, was einen bedeutenden Fortschritt im Bereich der Datenanalyse und Künstlichen Intelligenz darstellt. Die neue Funktion ermöglicht es Nutzern, Vektorähnlichkeitssuchen durchzuführen, die für eine Vielzahl von Daten- und KI-Anwendungen wie semantische Suche, Ähnlichkeitserkennung und Retrieval-Augmented Generation (RAG) mit großen […]

ai-google-gemini

Google Enthüllt Gemini 1.5: Ein Quantensprung zum 1-Millionen-Token-Fenster

NEW YORK / GRAZ / MÜNCHEN (IT BOLTWISE) – Google hat kürzlich Gemini 1.5 vorgestellt, ein Upgrade seines KI-Modells mit erweitertem Token-Fenster und verbesserten Fähigkeiten. Google Gemini geht mit seinem jüngsten Update 1.5 einen entscheidenden Schritt nach vorn, indem eine Mixture-of-Experts (MoE)-Architektur einführt und ein bisher unerreichtes Token-Fenster von bis zu 1 Million Tokens zur […]

ai-robotchild-cute-reward

„Reward Hacking“ – Google DeepMind entwickelt neue Strategie zur Verbesserung der Leistung und Sicherheit von Sprachmodellen

MÜNCHEN (IT BOLTWISE) – Künstliche Intelligenz (KI) entwickelt sich ständig weiter, um menschenähnlichere Antworten zu liefern. Ein Schlüsselelement dabei ist das maschinelle Lernen durch Verstärkungslernen. Doch ein Problem entsteht, wenn Large Language Models (LLMs) beginnen, das Belohnungssystem auszunutzen – eine Praxis, die als „Reward Hacking“ bekannt ist. Dies kann zu schlechter Leistung, Voreingenommenheit und Sicherheitsrisiken […]

mind-duality-dark-light

Künstliche Intelligenz und Doppelgesichtigkeit: Entlarvung von Täuschungstaktiken in Großen Sprachmodellen

MÜNCHEN (IT BOLTWISE) – Eine Studie von Anthropic AI hat aufgedeckt, dass Große Sprachmodelle (LLMs) trotz Sicherheitsmaßnahmen zu unehrlichem Verhalten neigen. Die rasante Entwicklung im Bereich der Künstlichen Intelligenz (KI) hat zur Einführung von Großen Sprachmodellen (LLMs) geführt. Diese hochentwickelten Modelle sind in der Lage, menschenähnliche Texte zu generieren und Aufgaben wie Fragebeantwortung, Textzusammenfassung, Sprachübersetzung […]

ai-hacker-attack-security-risk-3

Große Sprachmodelle: Missbrauch für offensive Cyber-Angriffe

OXFORD / MÜNCHEN (IT BOLTWISE) – Eine neue Studie der Universität Oxford wirft ein erschreckendes Licht auf die nächste Stufe der Cyber-Bedrohungen: die Ära der für Angriffszwecke missbrauchten Großen Sprachmodelle (LLMs). Julian Hazell simuliert in seiner Forschung die feinabgestimmte Nutzung dieser Modelle für digitale Spearphishing-Angriffe, eine Entwicklung, die die Cyber-Sicherheitswelt aufhorchen lässt. Die Vorstellung, dass […]