LLMs Archive - IT BOLTWISE® x Artificial Intelligence
ai-human-machine-merge

Kurzweils Vision: Mensch-Maschine-Verschmelzung und massive Intelligenzsteigerung bis 2045

MÜNCHEN (IT BOLTWISE) – Ray Kurzweil, ein führender KI-Forscher bei Google, prognostiziert, dass die menschliche Intelligenz bis 2045 millionenfach erweitert wird. Ray Kurzweil, einer der bekanntesten Experten für Künstliche Intelligenz (KI) und führender Forscher bei Google, glaubt fest daran, dass die Menschheit bis 2045 eine bedeutende Verschmelzung mit Computern erleben wird. In seinem neuen Buch […]

ai-technological-skepticism

MIT-Roboter-Experte Rodney Brooks: Generative KI wird überschätzt

MÜNCHEN (IT BOLTWISE) – Rodney Brooks, MIT-Roboter-Experte, spricht über den Hype um generative Künstliche Intelligenz (KI) und deren tatsächliche Fähigkeiten. Rodney Brooks, derzeit Panasonic Professor of Robotics Emeritus am MIT und Mitbegründer von drei Schlüsselunternehmen wie Rethink Robotics, iRobot und Robust.ai, hat eine klare Meinung zur aktuellen Begeisterung rund um generative KI. Als ehemaliger Leiter […]

ai-robinhood-pluto-capital

Pluto Capital und Robinhood: Neue KI-Tools für Investoren

MÜNCHEN (IT BOLTWISE) – Robinhood erweitert sein Investment-App mit der Übernahme von Pluto Capital, einem KI-gestützten Forschungsplattform. Diese Akquisition ermöglicht schnellere Trendanalysen, personalisierte Empfehlungen und Echtzeit-Portfolio-Optimierungen für Investoren. Investment-App Robinhood erweitert seine KI-Features für Investoren durch die Übernahme der KI-gestützten Forschungsplattform Pluto Capital, Inc. Das Unternehmen gab am Montag bekannt, dass Pluto Robinhood ermöglichen wird, […]

ai-vector-search-bigquery-data-analytics

BigQuery von Google: Vektorsuche eröffnet neue Möglichkeiten für KI und Datenanalyse

MOUNTAIN VIEW / MÜNCHEN (IT BOLTWISE) – Google hat die Integration der Vektorsuche-Funktionalität in seine BigQuery-Plattform angekündigt, was einen bedeutenden Fortschritt im Bereich der Datenanalyse und Künstlichen Intelligenz darstellt. Die neue Funktion ermöglicht es Nutzern, Vektorähnlichkeitssuchen durchzuführen, die für eine Vielzahl von Daten- und KI-Anwendungen wie semantische Suche, Ähnlichkeitserkennung und Retrieval-Augmented Generation (RAG) mit großen […]

ai-google-gemini

Google Enthüllt Gemini 1.5: Ein Quantensprung zum 1-Millionen-Token-Fenster

NEW YORK / GRAZ / MÜNCHEN (IT BOLTWISE) – Google hat kürzlich Gemini 1.5 vorgestellt, ein Upgrade seines KI-Modells mit erweitertem Token-Fenster und verbesserten Fähigkeiten. Google Gemini geht mit seinem jüngsten Update 1.5 einen entscheidenden Schritt nach vorn, indem eine Mixture-of-Experts (MoE)-Architektur einführt und ein bisher unerreichtes Token-Fenster von bis zu 1 Million Tokens zur […]

ai-robotchild-cute-reward

„Reward Hacking“ – Google DeepMind entwickelt neue Strategie zur Verbesserung der Leistung und Sicherheit von Sprachmodellen

MÜNCHEN (IT BOLTWISE) – Künstliche Intelligenz (KI) entwickelt sich ständig weiter, um menschenähnlichere Antworten zu liefern. Ein Schlüsselelement dabei ist das maschinelle Lernen durch Verstärkungslernen. Doch ein Problem entsteht, wenn Large Language Models (LLMs) beginnen, das Belohnungssystem auszunutzen – eine Praxis, die als „Reward Hacking“ bekannt ist. Dies kann zu schlechter Leistung, Voreingenommenheit und Sicherheitsrisiken […]

mind-duality-dark-light

Künstliche Intelligenz und Doppelgesichtigkeit: Entlarvung von Täuschungstaktiken in Großen Sprachmodellen

MÜNCHEN (IT BOLTWISE) – Eine Studie von Anthropic AI hat aufgedeckt, dass Große Sprachmodelle (LLMs) trotz Sicherheitsmaßnahmen zu unehrlichem Verhalten neigen. Die rasante Entwicklung im Bereich der Künstlichen Intelligenz (KI) hat zur Einführung von Großen Sprachmodellen (LLMs) geführt. Diese hochentwickelten Modelle sind in der Lage, menschenähnliche Texte zu generieren und Aufgaben wie Fragebeantwortung, Textzusammenfassung, Sprachübersetzung […]

ai-hacker-attack-security-risk-3

Große Sprachmodelle: Missbrauch für offensive Cyber-Angriffe

OXFORD / MÜNCHEN (IT BOLTWISE) – Eine neue Studie der Universität Oxford wirft ein erschreckendes Licht auf die nächste Stufe der Cyber-Bedrohungen: die Ära der für Angriffszwecke missbrauchten Großen Sprachmodelle (LLMs). Julian Hazell simuliert in seiner Forschung die feinabgestimmte Nutzung dieser Modelle für digitale Spearphishing-Angriffe, eine Entwicklung, die die Cyber-Sicherheitswelt aufhorchen lässt. Die Vorstellung, dass […]