SAN FRANCISCO / LONDON (IT BOLTWISE) – Tensormesh, ein neues Unternehmen im Bereich der KI-Infrastruktur, hat 4,5 Millionen US-Dollar in einer Seed-Finanzierungsrunde gesammelt. Mit dieser Investition plant das Unternehmen, seine Open-Source-Technologie LMCache in ein kommerzielles Produkt zu verwandeln, das die Effizienz von KI-Inferenzprozessen erheblich steigern soll.

 Heutige Tagesdeals bei Amazon!  ˗ˋˏ$ˎˊ˗

In der heutigen Zeit, in der die Nachfrage nach KI-Infrastruktur exponentiell wächst, stehen Unternehmen unter dem Druck, die Effizienz ihrer GPU-Nutzung zu maximieren. Tensormesh, ein aufstrebendes Unternehmen, das kürzlich aus dem Stealth-Modus hervorgetreten ist, hat sich dieser Herausforderung angenommen. Mit einer Seed-Finanzierung von 4,5 Millionen US-Dollar, angeführt von Laude Ventures und unterstützt durch den Datenbankpionier Michael Franklin, plant Tensormesh, seine Open-Source-Technologie LMCache in ein kommerzielles Produkt zu verwandeln.

LMCache, entwickelt von Tensormesh-Mitbegründer Yihua Cheng, ist ein Schlüsselwert-Cache-System, das die Inferenzkosten um bis zu das Zehnfache senken kann. Diese Technologie hat bereits in der Open-Source-Community Fuß gefasst und wurde von Branchengrößen wie Google und NVIDIA integriert. Tensormesh zielt darauf ab, diese akademische Anerkennung in ein tragfähiges Geschäftsmodell zu überführen.

Das Herzstück von LMCache ist ein Schlüsselwert-Cache (KV-Cache), der in traditionellen Architekturen nach jeder Abfrage verworfen wird. Tensormesh-CEO Junchen Jiang argumentiert, dass dies eine enorme Quelle der Ineffizienz darstellt. Anstatt diesen Cache zu verwerfen, speichert Tensormesh ihn, um ihn bei ähnlichen Prozessen in separaten Abfragen wiederzuverwenden. Da GPU-Speicher so wertvoll ist, kann dies bedeuten, Daten über mehrere Speicherebenen zu verteilen, aber die Belohnung ist eine signifikant höhere Inferenzleistung bei gleicher Serverlast.

Diese Änderung ist besonders für Chat-Schnittstellen von Vorteil, da Modelle kontinuierlich auf das wachsende Chat-Protokoll zurückgreifen müssen, während das Gespräch fortschreitet. Agentensysteme haben ein ähnliches Problem mit einem wachsenden Protokoll von Aktionen und Zielen. Theoretisch könnten KI-Unternehmen diese Änderungen selbst umsetzen, aber die technische Komplexität macht dies zu einer entmutigenden Aufgabe. Angesichts der Forschungsarbeit des Tensormesh-Teams und der Komplexität der Details wettet das Unternehmen darauf, dass es eine große Nachfrage nach einem sofort einsatzbereiten Produkt geben wird.

Junchen Jiang betont, dass es eine große Herausforderung ist, den KV-Cache in einem sekundären Speichersystem effizient wiederzuverwenden, ohne das gesamte System zu verlangsamen. „Wir haben gesehen, dass Unternehmen 20 Ingenieure einstellen und drei bis vier Monate damit verbringen, ein solches System zu bauen. Oder sie können unser Produkt nutzen und es sehr effizient umsetzen“, sagt Jiang.

*Amazon-Kreditkarte ohne Jahresgebühr mit 2.000 Euro Verfügungsrahmen bestellen! a‿z




Hat Ihnen der Artikel bzw. die News - Tensormesh optimiert KI-Inferenz mit innovativer Cache-Technologie - gefallen? Dann abonnieren Sie uns doch auf Insta: AI News, Tech Trends & Robotics - Instagram - Boltwise

Unseren KI-Morning-Newsletter «Der KI News Espresso» mit den besten KI-News des letzten Tages gratis per eMail - ohne Werbung: Hier kostenlos eintragen!


Tensormesh optimiert KI-Inferenz mit innovativer Cache-Technologie
Tensormesh optimiert KI-Inferenz mit innovativer Cache-Technologie (Foto: DALL-E, IT BOLTWISE)



Folgen Sie aktuellen Beiträge über KI & Robotik auf Twitter, Telegram, Facebook oder LinkedIn!
Hinweis: Teile dieses Textes könnten mithilfe Künstlicher Intelligenz generiert worden sein. Die auf dieser Website bereitgestellten Informationen stellen keine Finanzberatung dar und sind nicht als solche gedacht. Die Informationen sind allgemeiner Natur und dienen nur zu Informationszwecken. Wenn Sie Finanzberatung für Ihre individuelle Situation benötigen, sollten Sie den Rat von einem qualifizierten Finanzberater einholen. IT BOLTWISE® schließt jegliche Regressansprüche aus.









Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de. Da wir bei KI-erzeugten News und Inhalten selten auftretende KI-Halluzinationen nicht ausschließen können, bitten wir Sie bei Falschangaben und Fehlinformationen uns via eMail zu kontaktieren und zu informieren. Bitte vergessen Sie nicht in der eMail die Artikel-Headline zu nennen: "Tensormesh optimiert KI-Inferenz mit innovativer Cache-Technologie".
Stichwörter AI Artificial Intelligence Cache GPU Inferenz KI Künstliche Intelligenz Optimierung Speicher Tensormesh
Alle Märkte in Echtzeit verfolgen - 30 Tage kostenlos testen!

Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Tensormesh optimiert KI-Inferenz mit innovativer Cache-Technologie" für unsere Leser?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

  • Die aktuellen intelligenten Ringe, intelligenten Brillen, intelligenten Uhren oder KI-Smartphones auf Amazon entdecken! (Sponsored)


  • Es werden alle Kommentare moderiert!

    Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.

    Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.

    Du willst nichts verpassen?

    Du möchtest über ähnliche News und Beiträge wie "Tensormesh optimiert KI-Inferenz mit innovativer Cache-Technologie" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
    Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Tensormesh optimiert KI-Inferenz mit innovativer Cache-Technologie« bei Google Deutschland suchen, bei Bing oder Google News!

    638 Leser gerade online auf IT BOLTWISE®
    KI-Jobs