MÜNCHEN (IT BOLTWISE) – In der Welt der Künstlichen Intelligenz (KI) sind Grafikprozessoren (GPUs) oft das Herzstück der Diskussionen. Doch während GPUs für ihre Fähigkeit, große Datenmengen parallel zu verarbeiten, gefeiert werden, gibt es eine andere, oft übersehene Ressource: die Central Processing Units (CPUs).
In der aktuellen Diskussion um die Infrastruktur für Künstliche Intelligenz (KI) dominieren Grafikprozessoren (GPUs) die Schlagzeilen. Diese spezialisierten Chips sind bekannt für ihre Fähigkeit, große Datenmengen parallel zu verarbeiten, was sie ideal für das Training großer Sprachmodelle macht. Unternehmen wie OpenAI, Google und Meta investieren massiv in GPU-Cluster, um ihre KI-Modelle zu betreiben. Doch diese Fokussierung auf GPUs hat eine wichtige Ressource in den Hintergrund gedrängt: die Central Processing Units (CPUs).
CPUs sind keineswegs veraltet. Sie sind in Millionen von Maschinen weltweit vorhanden und könnten viele KI-Aufgaben effizient und kostengünstig bewältigen, wenn man ihnen die Chance dazu gäbe. Während GPUs für parallele Verarbeitung optimiert sind, glänzen CPUs bei flexiblen, logikbasierten Operationen. Sie sind ideal für Aufgaben, die nicht nur auf reiner Rechenleistung basieren, sondern auch auf logischem Denken und Entscheidungsfindung.
Ein Beispiel für die Stärke von CPUs in der KI ist der Einsatz in autonomen Agenten. Diese Tools nutzen KI, um Aufgaben wie die Websuche, das Schreiben von Code oder die Projektplanung zu erledigen. Während das eigentliche Sprachmodell auf einer GPU laufen könnte, werden die umgebenden logischen und planenden Prozesse oft von CPUs übernommen. Auch die Inferenz, also die Anwendung eines trainierten Modells, kann auf CPUs erfolgen, insbesondere wenn die Modelle kleiner oder optimiert sind.
Ein weiterer vielversprechender Ansatz ist die Nutzung dezentraler physischer Infrastrukturnetzwerke (DePINs). Diese Netzwerke ermöglichen es, ungenutzte Rechenleistung, wie etwa brachliegende CPUs, in ein globales Netzwerk einzuspeisen, das für KI-Aufgaben genutzt werden kann. Anstatt teure GPU-Zeit bei einem zentralen Cloud-Anbieter zu mieten, könnten KI-Workloads über ein dezentrales Netzwerk von CPUs weltweit verteilt werden.
Diese dezentralen Netzwerke bieten mehrere Vorteile. Sie sind kostengünstiger, da keine hohen Gebühren für GPU-Zeit anfallen. Sie skalieren natürlich, da mehr Rechenleistung verfügbar wird, wenn mehr Menschen ihre Maschinen in das Netzwerk einbringen. Zudem bringen sie die Rechenleistung näher an den Rand, was die Latenz verringert und die Privatsphäre erhöht.
Es ist an der Zeit, CPUs nicht länger als zweitklassige Bürger in der KI-Welt zu behandeln. Während GPUs zweifellos wichtig sind, sind CPUs allgegenwärtig und untergenutzt, aber dennoch in der Lage, viele der KI-Aufgaben zu bewältigen, die uns wichtig sind. Mit der zunehmenden Verbreitung dezentraler Rechenplattformen, die brachliegende CPUs mit der KI-Wirtschaft verbinden, haben wir die Chance, die Art und Weise, wie wir KI-Infrastruktur skalieren, neu zu überdenken.
- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- Service Directory für AI Adult Services erkunden!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Duales Studium BWL - Spezialisierung Artificial Intelligence (B.A.) am Campus oder virtuell

Fachinformatiker KI-Testingenieur & High Performance-Computing (m/w/d)

IT-Revisor für aufsichtsrechtliche Anforderungen nach DORA mit Erfahrungen in Cloud und KI (m/w/d)

Projektmitarbeiter (m/w/d) „Generative KI in Studium und Lehre“

- Die Zukunft von Mensch und MaschineIm neuen Buch des renommierten Zukunftsforschers und Technologie-Visionärs Ray Kurzweil wird eine faszinierende Vision der kommenden Jahre und Jahrzehnte entworfen – eine Welt, die von KI durchdrungen sein wird
- Künstliche Intelligenz: Expertenwissen gegen Hysterie Der renommierte Gehirnforscher, Psychiater und Bestseller-Autor Manfred Spitzer ist ein ausgewiesener Experte für neuronale Netze, auf denen KI aufbaut
- Obwohl Künstliche Intelligenz (KI) derzeit in aller Munde ist, setzen bislang nur wenige Unternehmen die Technologie wirklich erfolgreich ein
- Wie funktioniert Künstliche Intelligenz (KI) und gibt es Parallelen zum menschlichen Gehirn? Was sind die Gemeinsamkeiten von natürlicher und künstlicher Intelligenz, und was die Unterschiede? Ist das Gehirn nichts anderes als ein biologischer Computer? Was sind Neuronale Netze und wie kann der Begriff Deep Learning einfach erklärt werden?Seit der kognitiven Revolution Mitte des letzten Jahrhunderts sind KI und Hirnforschung eng miteinander verflochten
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "CPUs als unterschätzte Ressource in der KI-Entwicklung" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "CPUs als unterschätzte Ressource in der KI-Entwicklung" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »CPUs als unterschätzte Ressource in der KI-Entwicklung« bei Google Deutschland suchen, bei Bing oder Google News!