SEOUL / LONDON (IT BOLTWISE) – Die rasante Entwicklung von KI-Technologien führt zu einem signifikanten Anstieg des Energieverbrauchs in Rechenzentren. Forscher des koreanischen Instituts KAIST prognostizieren, dass in den nächsten zehn Jahren KI-Beschleunigermodule bis zu 15.000 Watt Leistung benötigen werden.
Die kontinuierliche Weiterentwicklung von KI-Technologien stellt die Infrastruktur von Rechenzentren vor neue Herausforderungen. Forscher des Terabyte Interconnection and Package Laboratory (Teralab) am koreanischen Institut KAIST haben eine Roadmap vorgestellt, die den steigenden Energiebedarf von KI-Beschleunigern aufzeigt. In den kommenden zehn Jahren könnten diese Module bis zu 15.000 Watt Leistung benötigen, was erhebliche Anforderungen an die Kühlung und Energieversorgung stellt.
Ein Großteil dieser Energie wird von den KI-Prozessorchiplets verbraucht. Acht dieser Chiplets könnten jeweils 1,2 kW benötigen, was insgesamt fast 10 kW ausmacht. Die restlichen 5 kW werden von 32 Speicherchipstapeln benötigt, die aus 24 einzelnen DRAM-Dies bestehen. Diese Speichertechnologie, bekannt als High Bandwidth Memory der siebten Generation (HBM7), soll eine beeindruckende Datentransferrate von rund 1 Petabyte pro Sekunde bieten.
Bereits heute gibt es Sonderlösungen wie die Wafer Scale Engines von Cerebras, die eine Leistungsaufnahme von rund 15 kW aufweisen. Diese unterscheiden sich jedoch grundlegend von den gängigen KI-Beschleunigern von NVIDIA und AMD. Die Roadmap des KAIST Teralab zielt nicht darauf ab, genaue Erscheinungstermine vorherzusagen, sondern technische Herausforderungen und mögliche Lösungen aufzuzeigen.
Ein zentrales Thema ist die Kühlung der Komponenten. Die Forscher erwarten, dass neue Kühlmethoden entwickelt werden müssen, um die angestrebten Packungsdichten zu erreichen. Die aktuelle HBM-Roadmap zeigt, wie sich die Kapazität und Datentransferrate von DRAM weiterentwickeln könnten und welche neuen Techniken für das Chip-Packaging erforderlich sind.
Die Roadmap von KAIST Teralab basiert auf der Nvidia-Roadmap für KI-Beschleuniger. NVIDIA nutzt bereits nahezu die maximale Größe für einen Einzelchip, die die Lithografiesysteme belichten können. Zukünftige Generationen von KI-Beschleunigern könnten aus mehreren GPU-Chiplets bestehen, was die Leistungsaufnahme pro Chiplet von 800 auf 1200 Watt erhöhen könnte.
Um die steigenden Anforderungen zu erfüllen, müssen Kapazität und Geschwindigkeit von HBM-Speichern zunehmen. Die Entwicklung von HBM4 wird die Anzahl der Datensignalleitungen pro Stack verdoppeln, was Änderungen an den Speicher-Controllern und den Silizium-Interposern erfordert. Diese Fortschritte sind notwendig, um die Leistungsfähigkeit zukünftiger KI-Systeme sicherzustellen.
Die Forscher von KAIST Teralab haben ihre HBM-Roadmap in einer Präsentation auf YouTube vorgestellt und bieten eine PDF-Version zur Einsicht an. Diese Roadmap ist ein wichtiger Schritt, um die zukünftigen Herausforderungen im Bereich der KI-Infrastruktur zu bewältigen und die Entwicklung effizienter und leistungsfähiger Systeme zu fördern.
- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- Service Directory für AI Adult Services erkunden!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

IT-Anwendungsentwickler | Schwerpunkt: Künstliche Intelligenz (m/w/d)

Bachelorand (d/m/w) im Bereich Künstliche Intelligenz im Produktmarketing

Senior Python Engineer (m/w/d) für AI Services

Trainee (m/w/d) Controlling mit Schwerpunkt Business Intelligence (BI) und Künstliche Intelligenz (KI)

- Die Zukunft von Mensch und MaschineIm neuen Buch des renommierten Zukunftsforschers und Technologie-Visionärs Ray Kurzweil wird eine faszinierende Vision der kommenden Jahre und Jahrzehnte entworfen – eine Welt, die von KI durchdrungen sein wird
- Künstliche Intelligenz: Expertenwissen gegen Hysterie Der renommierte Gehirnforscher, Psychiater und Bestseller-Autor Manfred Spitzer ist ein ausgewiesener Experte für neuronale Netze, auf denen KI aufbaut
- Obwohl Künstliche Intelligenz (KI) derzeit in aller Munde ist, setzen bislang nur wenige Unternehmen die Technologie wirklich erfolgreich ein
- Wie funktioniert Künstliche Intelligenz (KI) und gibt es Parallelen zum menschlichen Gehirn? Was sind die Gemeinsamkeiten von natürlicher und künstlicher Intelligenz, und was die Unterschiede? Ist das Gehirn nichts anderes als ein biologischer Computer? Was sind Neuronale Netze und wie kann der Begriff Deep Learning einfach erklärt werden?Seit der kognitiven Revolution Mitte des letzten Jahrhunderts sind KI und Hirnforschung eng miteinander verflochten
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Der steigende Energiebedarf von KI-Beschleunigern: Eine technische Herausforderung" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Der steigende Energiebedarf von KI-Beschleunigern: Eine technische Herausforderung" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Der steigende Energiebedarf von KI-Beschleunigern: Eine technische Herausforderung« bei Google Deutschland suchen, bei Bing oder Google News!