SAN FRANCISCO / LONDON (IT BOLTWISE) – Clarifai hat eine neue Engine entwickelt, die KI-Modelle schneller und kostengünstiger macht. Diese Innovation verspricht eine Verdopplung der Geschwindigkeit und eine Reduzierung der Kosten um 40 Prozent. Die Engine ist flexibel einsetzbar und optimiert die Nutzung bestehender Hardware.

Clarifai, ein führendes Unternehmen im Bereich der Künstlichen Intelligenz, hat kürzlich eine neue Engine vorgestellt, die die Effizienz von KI-Modellen erheblich steigern soll. Diese Entwicklung verspricht, die Geschwindigkeit der Modelle zu verdoppeln und die Betriebskosten um 40 Prozent zu senken. Die Engine ist so konzipiert, dass sie mit einer Vielzahl von Modellen und Cloud-Hosts kompatibel ist und durch verschiedene Optimierungstechniken die Rechenleistung der bestehenden Hardware maximiert.
Matthew Zeiler, CEO von Clarifai, betont, dass die Engine eine Reihe von Optimierungen nutzt, die von CUDA-Kernels bis hin zu fortschrittlichen spekulativen Decodierungstechniken reichen. Diese Maßnahmen ermöglichen es, mehr Leistung aus den vorhandenen Grafikkarten herauszuholen, was besonders in Zeiten steigender Nachfrage nach Rechenleistung von Vorteil ist.
Die Leistungsfähigkeit der neuen Engine wurde durch unabhängige Benchmark-Tests der Firma Artificial Analysis bestätigt. Diese Tests zeigten branchenführende Ergebnisse sowohl in Bezug auf den Durchsatz als auch auf die Latenz. Die Engine konzentriert sich speziell auf die Inferenz, also die Rechenanforderungen beim Betrieb eines bereits trainierten KI-Modells, was besonders bei agentischen und reasoning Modellen von Bedeutung ist.
Clarifai begann ursprünglich als Anbieter von Computer-Vision-Diensten, hat sich jedoch zunehmend auf die Orchestrierung von Rechenleistungen spezialisiert. Dies ist eine Reaktion auf den KI-Boom, der die Nachfrage nach GPUs und Rechenzentren drastisch erhöht hat. Die neue Engine ist das erste Produkt von Clarifai, das speziell für mehrstufige agentische Modelle entwickelt wurde.
Die Einführung dieser Engine erfolgt in einer Zeit, in der der Druck auf die KI-Infrastruktur enorm ist. Große Unternehmen wie OpenAI planen milliardenschwere Investitionen in neue Rechenzentren, um der nahezu unbegrenzten Nachfrage nach Rechenleistung gerecht zu werden. Doch während der Hardware-Ausbau intensiv voranschreitet, sieht Clarifai noch großes Potenzial in der Optimierung der bestehenden Infrastruktur.
Zeiler ist überzeugt, dass neben Software-Tricks wie der Clarifai-Engine auch algorithmische Verbesserungen helfen können, den Bedarf an riesigen Rechenzentren zu reduzieren. Er betont, dass wir noch lange nicht am Ende der algorithmischen Innovationen angekommen sind, was für die Zukunft der KI-Entwicklung vielversprechend ist.

- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Product Owner - KI-Anwendungen für Personalisierung (m/w/d)

Werkstudent KI-gestützte Datenoptimierung (m/w/d)

Disponent - Koordination / Kommunikation / KI (m/w/d)

Fullstack-(AI)-Entwickler*in – ERP & Custom Modules (m/w/d)

- Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Clarifai optimiert KI-Modelle: Schneller und kostengünstiger" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Clarifai optimiert KI-Modelle: Schneller und kostengünstiger" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Clarifai optimiert KI-Modelle: Schneller und kostengünstiger« bei Google Deutschland suchen, bei Bing oder Google News!