LONDON (IT BOLTWISE) – Google hat mit EmbeddingGemma ein neues KI-Modell vorgestellt, das speziell für On-Device-Anwendungen entwickelt wurde. Mit 308 Millionen Parametern bietet es eine beeindruckende Leistung und ermöglicht es Entwicklern, Anwendungen wie Retrieval Augmented Generation (RAG) und semantische Suche direkt auf der Hardware auszuführen. Diese Technologie verspricht nicht nur hohe Effizienz, sondern auch Datenschutz, da sie ohne Internetverbindung funktioniert.

Google hat mit EmbeddingGemma ein neues KI-Modell auf den Markt gebracht, das speziell für On-Device-Anwendungen konzipiert wurde. Mit einer Größe von 308 Millionen Parametern bietet es eine beeindruckende Leistung, die mit Modellen vergleichbar ist, die fast doppelt so groß sind. EmbeddingGemma ermöglicht es Entwicklern, Anwendungen wie Retrieval Augmented Generation (RAG) und semantische Suche direkt auf der Hardware auszuführen, was nicht nur die Effizienz steigert, sondern auch den Datenschutz verbessert, da keine Internetverbindung erforderlich ist.
Das Modell generiert Einbettungen, die numerische Repräsentationen von Texten darstellen. Diese Einbettungen sind entscheidend für die Qualität von RAG-Pipelines, da sie die Grundlage für die Kontextualisierung von Benutzeranfragen bilden. EmbeddingGemma zeichnet sich durch seine Fähigkeit aus, hochwertige Einbettungen zu liefern, die für präzise und zuverlässige On-Device-Anwendungen erforderlich sind.
Mit einem kompakten Design von 308 Millionen Parametern, bestehend aus etwa 100 Millionen Modellparametern und 200 Millionen Einbettungsparametern, ist EmbeddingGemma sowohl schnell als auch effizient. Es nutzt Matryoshka Representation Learning (MRL), um verschiedene Einbettungsgrößen aus einem Modell bereitzustellen, was Entwicklern Flexibilität bietet. Die Einbettungsinferenzzeit beträgt weniger als 15 ms bei 256 Eingabetokens auf EdgeTPU, was Echtzeitreaktionen ermöglicht.
EmbeddingGemma ist darauf ausgelegt, offline zu arbeiten, was Entwicklern die Möglichkeit gibt, datenschutzfreundliche Anwendungen zu erstellen. Es nutzt denselben Tokenizer wie Gemma 3n, was den Speicherbedarf in RAG-Anwendungen reduziert. Die Möglichkeit, EmbeddingGemma für spezifische Domänen oder Aufgaben anzupassen, eröffnet neue Möglichkeiten für personalisierte und branchenspezifische Anwendungen.

- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Werkstudent Innovation durch KI im Rahmen von Projektmanagement (m/w/d)

Praktikant KI-Governance & Regulatorik (w/m/d)

Duales Studium BWL - Spezialisierung Artificial Intelligence (B.A.) am Campus oder virtuell

Werkstudent*in / Praktikant*in (m/w/d) –Sales mit Fokus KI

- Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "EmbeddingGemma: Effiziente KI-Modelle für On-Device-Anwendungen" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "EmbeddingGemma: Effiziente KI-Modelle für On-Device-Anwendungen" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »EmbeddingGemma: Effiziente KI-Modelle für On-Device-Anwendungen« bei Google Deutschland suchen, bei Bing oder Google News!