LONDON (IT BOLTWISE) – NVIDIA plant, Ende 2026 mit dem Rubin CPX einen spezialisierten Beschleunigerchip für KI-Anwendungen auf den Markt zu bringen. Dieser Chip soll insbesondere Anwendungen mit hohen Context-Anforderungen beschleunigen, die als besonders profitabel gelten. Rubin CPX gehört zur kommenden Vera-Rubin-Generation von Rechenzentrumsbeschleunigern und hat bereits seinen Tape-Out hinter sich.

 Heutige Tagesdeals bei Amazon!  ˗ˋˏ$ˎˊ˗

NVIDIA hat angekündigt, Ende 2026 mit dem Rubin CPX einen neuen Beschleunigerchip für KI-Anwendungen auf den Markt zu bringen. Dieser Chip ist speziell darauf ausgelegt, Anwendungen mit hohen Context-Anforderungen zu beschleunigen, die als besonders profitabel gelten. Dazu gehören KIs, die Programmcode generieren oder Filme erstellen können. Rubin CPX wird Teil der Vera-Rubin-Generation von Rechenzentrumsbeschleunigern sein, die bereits ihren Tape-Out-Prozess abgeschlossen hat.

Die Technik, die hinter diesen KI-Modellen steht, nennt sich Mixture-of-Experts (MoE). Dabei werden spezialisierte neuronale Netze für unterschiedliche Anfragen eingesetzt, was die Anforderungen an Speicher und Rechenleistung reduziert. Die Herausforderung besteht darin, die optimale Verteilung der Anfragen auf die Experten zu gewährleisten, insbesondere wenn Reasoning-Komponenten integriert sind. Dies führt zu einer exponentiellen Zunahme der zu berücksichtigenden Token, was die Komplexität der Antworten erhöht.

Ein neuer Ansatz zur Optimierung ist das entkoppelte Beantworten der Anfragen, bekannt als disaggregated serving. Hierbei werden verschiedene Stufen der Anfragebearbeitung unterschiedlichen Beschleunigern zugewiesen. NVIDIA nutzt diese Technik bereits in seinen aktuellen GB200-Blackwell-Systemen. In optimierten Einreichungen zu den KI-Benchmarks der MLCommons MLPerf Inference v5.1 arbeiten 56 von 72 GPUs eines NVL72-Racks nur am Context, während die restlichen 16 GPUs die Inhalte erzeugen. Diese Optimierung führt zu einem geschätzten Performance-Sprung von 40 bis 45 Prozent.

Der Rubin CPX wird im Vergleich zu den heutigen GB300-Systemen den dreifachen Exponential-Durchsatz erreichen und mit 128 GByte GDDR7-Speicher ausgestattet sein, um die Anforderungen der Context-Phase zu erfüllen. NVIDIA plant, mit Rubin NVL144 eine Leistung von 3,6 EFlops zu erreichen, während ein Rubin-CPX-Rack auf 8 EFlops projektiert wird. Diese Fortschritte versprechen eine erhebliche Beschleunigung der KI-Inferenzierung und könnten die Effizienz in Rechenzentren maßgeblich steigern.

*Amazon-Kreditkarte ohne Jahresgebühr mit 2.000 Euro Verfügungsrahmen bestellen! a‿z




Hat Ihnen der Artikel bzw. die News - NVIDIA kündigt Rubin CPX für KI-Inferencing an - gefallen? Dann abonnieren Sie uns doch auf Insta: AI News, Tech Trends & Robotics - Instagram - Boltwise

Unseren KI-Morning-Newsletter «Der KI News Espresso» mit den besten KI-News des letzten Tages gratis per eMail - ohne Werbung: Hier kostenlos eintragen!


NVIDIA kündigt Rubin CPX für KI-Inferencing an
NVIDIA kündigt Rubin CPX für KI-Inferencing an (Foto: DALL-E, IT BOLTWISE)



Folgen Sie aktuellen Beiträge über KI & Robotik auf Twitter, Telegram, Facebook oder LinkedIn!
Hinweis: Teile dieses Textes könnten mithilfe Künstlicher Intelligenz generiert worden sein. Die auf dieser Website bereitgestellten Informationen stellen keine Finanzberatung dar und sind nicht als solche gedacht. Die Informationen sind allgemeiner Natur und dienen nur zu Informationszwecken. Wenn Sie Finanzberatung für Ihre individuelle Situation benötigen, sollten Sie den Rat von einem qualifizierten Finanzberater einholen. IT BOLTWISE® schließt jegliche Regressansprüche aus.









Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de. Da wir bei KI-erzeugten News und Inhalten selten auftretende KI-Halluzinationen nicht ausschließen können, bitten wir Sie bei Falschangaben und Fehlinformationen uns via eMail zu kontaktieren und zu informieren. Bitte vergessen Sie nicht in der eMail die Artikel-Headline zu nennen: "NVIDIA kündigt Rubin CPX für KI-Inferencing an".
Stichwörter AI Artificial Intelligence Beschleuniger Context-länge Disaggregated Serving KI Künstliche Intelligenz Mixture-of-experts Nvidia Rechenzentrum Rubin Cpx
Alle Märkte in Echtzeit verfolgen - 30 Tage kostenlos testen!
Nächster Artikel

Microsoft führt neue Büroanwesenheitspflicht ein

Vorheriger Artikel

Militärhunde trainieren für den Einsatz im Wasser


Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "NVIDIA kündigt Rubin CPX für KI-Inferencing an" für unsere Leser?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

  • Die aktuellen intelligenten Ringe, intelligenten Brillen, intelligenten Uhren oder KI-Smartphones auf Amazon entdecken! (Sponsored)


  • Es werden alle Kommentare moderiert!

    Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.

    Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.

    Du willst nichts verpassen?

    Du möchtest über ähnliche News und Beiträge wie "NVIDIA kündigt Rubin CPX für KI-Inferencing an" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
    Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »NVIDIA kündigt Rubin CPX für KI-Inferencing an« bei Google Deutschland suchen, bei Bing oder Google News!

    325 Leser gerade online auf IT BOLTWISE®
    KI-Jobs