NVIDIA und Intel verdreifachen bzw. verdoppeln KI-Inferenzleistung in neuesten MLPerf-Benchmarks - IT BOLTWISE® x Artificial Intelligence

MÜNCHEN (IT BOLTWISE) – Die jüngsten MLPerf 4.0 Benchmarks zeigen beeindruckende Fortschritte bei NVIDIA und Intel im Bereich der KI-Inferenzleistung.



Die MLCommons hat heute ihre MLPerf 4.0 Benchmarks für Inferenz veröffentlicht, welche erneut das unermüdliche Tempo der Verbesserungen in Software und Hardware aufzeigen. Da generative KI weiterentwickelt wird und zunehmend Anwendung findet, besteht ein klarer Bedarf an herstellerunabhängigen Leistungsbenchmarks, die MLCommons mit dem MLPerf-Set an Benchmarks bietet. Die neuen MLPerf 4.0 Inferenzergebnisse sind das erste Update der Inferenzbenchmarks seit der Veröffentlichung der MLPerf 3.1 Ergebnisse im September 2023.

In den letzten sechs Monaten hat sich viel in der Welt der KI getan, und große Hardware-Anbieter wie NVIDIA und Intel waren damit beschäftigt, sowohl Hardware als auch Software weiter zu optimieren, um die Inferenz zu verbessern. Die MLPerf 4.0 Inferenzergebnisse zeigen deutliche Verbesserungen bei den Technologien von NVIDIA und Intel.

Der MLPerf Inferenz-Benchmark hat sich ebenfalls verändert. Im MLPerf 3.1 Benchmark wurden große Sprachmodelle (LLMs) mit dem GPT-J 6B (Milliarden) Parametermodell zur Textzusammenfassung einbezogen. Mit dem neuen MLPerf 4.0 Benchmark wird das beliebte Llama 2 70 Milliarden Parameter offene Modell für Fragen und Antworten (Q&A) sowie zum ersten Mal ein Benchmark für generative KI-Bildgenerierung mit Stable Diffusion einbezogen. „MLPerf ist wirklich so etwas wie der Branchenstandard-Benchmark, um die Geschwindigkeit, Effizienz und Genauigkeit für KI zu verbessern“, sagte David Kanter, Gründer und Geschäftsführer von MLCommons, in einem Pressebriefing.

Mit MLCommons ist ein weiteres Ziel, die gesamte Branche zu vereinen. Die Benchmark-Ergebnisse werden alle anhand ähnlicher Datensätze und Konfigurationsparameter über verschiedene Hardware- und Softwareplattformen hinweg durchgeführt. Die Ergebnisse werden allen Einreichern eines bestimmten Tests zur Verfügung gestellt, so dass Fragen von einem anderen Einreicher geklärt werden können.

Letztendlich geht es bei dem standardisierten Ansatz zur Messung der KI-Leistung darum, Unternehmen zu ermöglichen, informierte Entscheidungen zu treffen.

NVIDIA dominiert einmal mehr die MLPerf-Benchmarks mit einer Reihe beeindruckender Ergebnisse. Obwohl zu erwarten ist, dass neue Hardware eine bessere Leistung erbringt, konnte NVIDIA auch eine bessere Leistung aus seiner bestehenden Hardware herausholen. Mit NVIDIAs TensorRT-LLM Open-Source-Inferenztechnologie konnte NVIDIA die Inferenzleistung für Textzusammenfassung mit dem GPT-J LLM auf seiner H100 Hopper GPU fast verdreifachen.

Intel beteiligt sich ebenfalls sehr aktiv an den MLPerf 4.0 Benchmarks mit sowohl seiner Habana AI-Beschleunigertechnologie als auch den Xeon CPU-Technologien.

Mit Gaudi liegen die tatsächlichen Leistungsergebnisse von Intel hinter der NVIDIA H100, obwohl das Unternehmen eine bessere Preis-Leistungs-Relation beansprucht. Besonders interessant sind die beeindruckenden Gewinne, die mit dem 5. Gen Intel Xeon Prozessor für Inferenz erzielt werden.

NVIDIA und Intel verdreifachen bzw. verdoppeln KI-Inferenzleistung in neuesten MLPerf-Benchmarks
NVIDIA und Intel verdreifachen bzw. verdoppeln KI-Inferenzleistung in neuesten MLPerf-Benchmarks (Foto: DALL-E, IT BOLTWISE)
Hinweis: Teile dieses Textes könnten mithilfe Künstlicher Intelligenz generiert worden sein.



Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de
Stichwörter
Alle Märkte in Echtzeit verfolgen - 30 Tage kostenlos testen!


#Abo
LinkedIn
Facebook
Twitter
#Podcast
YouTube
Spotify
Apple

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert



Es werden alle Kommentare moderiert!

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.

Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.

Du willst nichts verpassen?

Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.