STANFORD / LONDON (IT BOLTWISE) – Ein Team der Stanford University hat gezeigt, dass große Sprachmodelle in der Lage sind, überraschend effiziente GPU-Kernels zu erzeugen, die in mehreren Tests die Standardfunktionen des populären KI-Frameworks PyTorch übertreffen.
Die jüngsten Forschungen der Stanford University haben das Potenzial von großen Sprachmodellen zur automatischen Erzeugung von GPU-Kernels aufgezeigt. Diese kleinen, spezialisierten Programme, die direkt auf NVIDIA-GPUs ausgeführt werden, sind darauf ausgelegt, Rechenschritte wie Matrixmultiplikationen oder Bildverarbeitung effizient umzusetzen. In mehreren Tests liefen die automatisch generierten Varianten schneller als die Standardroutinen in PyTorch, einem weit verbreiteten Framework für maschinelles Lernen.
Besonders beeindruckend war die Beschleunigung der Layer-Normalisierung, einem wichtigen Zwischenschritt in neuronalen Netzwerken, um das 4,8-Fache. Auch bei der Bildfaltung (Conv2D), der Softmax-Funktion und einer Kombination aus Bildfaltung, ReLU-Aktivierung und Max-Pooling zeigten die KI-generierten Codes deutliche Geschwindigkeitsvorteile. Diese Ergebnisse basieren auf einem Benchmark namens KernelBench, bei dem ein Sprachmodell PyTorch-Operatoren durch eigene CUDA-Implementierungen ersetzt, um die Ausführung auf der GPU zu beschleunigen.
Die Experimente nutzten die großen Sprachmodelle OpenAI o3 und Gemini 2.5 Pro, die in mehreren Runden parallelisierte Optimierungsstrategien verfolgten. Diese strukturierte Suche führte zu einer Vielfalt an Lösungsansätzen, die bekannte Optimierungsstrategien wie effizientere Speicherzugriffe und die gleichzeitige Ausführung von Rechen- und Speicheroperationen nutzten. Die leistungsfähigsten Varianten profitierten von fortgeschrittenen Programmiertechniken, die normalerweise nur von erfahrenen CUDA-Entwicklern umgesetzt werden.
Ein konkretes Beispiel zeigt, wie sich ein automatisch erzeugter Kernel für eine Bildfaltung innerhalb von 13 Varianten von 20 Prozent auf fast 180 Prozent der PyTorch-Leistung steigern ließ. Zu den Verbesserungen zählte unter anderem die Umwandlung der Faltung in eine Matrixmultiplikation, die auf spezialisierte Tensor-Cores der GPU zugreift. Auch das Vorberechnen von Speicherzugriffsindizes in einem schnellen Zwischenspeicher trug zur Leistungssteigerung bei.
Trotz der Erfolge gibt es Einschränkungen. Besonders bei modernen KI-Operationen mit geringerer Datenpräzision wie FP16 zeigten sich noch Leistungsdefizite. So erreichte ein automatisch erzeugter Kernel für die Matrixmultiplikation mit FP16 nur 52 Prozent der PyTorch-Leistung. Dennoch stellt das aktuelle Verfahren bereits einen Fortschritt dar, da solche Operationen zuvor nicht zuverlässig erzeugt werden konnten.
Die Forschenden betonen, dass dieser Ansatz ergänzend und nicht als Ersatz für weiteres Training gedacht ist. Durch die gezielte Suche entstehen auch synthetische Daten, die für das Training künftiger Modelle genutzt werden können. Der Ansatz ist somit ein Werkzeug zur Optimierung zur Laufzeit und gleichzeitig ein Beitrag zur datenbasierten Modellverbesserung.
- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- Service Directory für AI Adult Services erkunden!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Duales Studium Informatik/Künstliche Intelligenz (B.Sc.), Campusmodell Bremen/Stuttgart 2026 (w/m/d)

Bachelorand / Masterand (m/w/d) – Potenziale und Risiken von Einkaufsplattformen in Verbindung mit KI-Features

Duales Studium BWL - Spezialisierung Artificial Intelligence (B.A.) am Campus oder virtuell

AI-affine:r Aktuar:in

- Die Zukunft von Mensch und MaschineIm neuen Buch des renommierten Zukunftsforschers und Technologie-Visionärs Ray Kurzweil wird eine faszinierende Vision der kommenden Jahre und Jahrzehnte entworfen – eine Welt, die von KI durchdrungen sein wird
- Künstliche Intelligenz: Expertenwissen gegen Hysterie Der renommierte Gehirnforscher, Psychiater und Bestseller-Autor Manfred Spitzer ist ein ausgewiesener Experte für neuronale Netze, auf denen KI aufbaut
- Obwohl Künstliche Intelligenz (KI) derzeit in aller Munde ist, setzen bislang nur wenige Unternehmen die Technologie wirklich erfolgreich ein
- Wie funktioniert Künstliche Intelligenz (KI) und gibt es Parallelen zum menschlichen Gehirn? Was sind die Gemeinsamkeiten von natürlicher und künstlicher Intelligenz, und was die Unterschiede? Ist das Gehirn nichts anderes als ein biologischer Computer? Was sind Neuronale Netze und wie kann der Begriff Deep Learning einfach erklärt werden?Seit der kognitiven Revolution Mitte des letzten Jahrhunderts sind KI und Hirnforschung eng miteinander verflochten
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "KI-generierte GPU-Kernels übertreffen PyTorch in Effizienz" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "KI-generierte GPU-Kernels übertreffen PyTorch in Effizienz" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »KI-generierte GPU-Kernels übertreffen PyTorch in Effizienz« bei Google Deutschland suchen, bei Bing oder Google News!