Maschinelles Lernen mit Licht beschleunigen

Ein internationales Forscherteam fand heraus, dass sogenannte photonische Computer-Prozessoren, bei denen Daten mittels Licht transportiert werden, Informationen sehr viel schneller und parallel verarbeiten als herkömmliche elektronische Chips. Die Ergebnisse sind in der Fachzeitschrift „Nature“ veröffentlicht.

Im Digital-Zeitalter wachsen Datenmengen exponentiell. Besonders die Anforderungen von Muster- und Spracherkennungen oder dem autonomen Fahren übersteigen oftmals die Kapazitäten herkömmlicher Computer-Prozessoren. Wissenschaftlerinnen und Wissenschaftler der Westfälischen Wilhelms-Universität Münster (WWU) entwickeln in Zusammenarbeit mit einem internationalen Forscherteam neue Ansätze und Prozessor-Architekturen, die diesen Aufgaben gewachsen sind. Nun fanden sie heraus, dass sogenannte photonische Prozessoren, bei denen Daten mittels Licht transportiert werden, Informationen sehr viel schneller und parallel verarbeiten als elektronische Chips. Die Ergebnisse sind in der Fachzeitschrift „Nature“ veröffentlicht.

Hintergrund und Methodik

Lichtbasierte Prozessoren zur Beschleunigung von Aufgaben im Bereich des maschinellen Lernens erlauben komplexe Rechenaufgaben mit enorm hohen Geschwindigkeiten (10¹² -10¹⁵ Operationen pro Sekunde – also eine Billion bis eine Billarde) zu verarbeiten. Herkömmliche Chips, wie zum Beispiel Grafikkarten oder spezielle Hardware wie die TPU (Tensor Processing Unit) von Google basieren auf einer elektronischen Datenübertragung und sind wesentlich langsamer.

Das Forscherteam um Prof. Dr. Wolfram Pernice vom Physikalischen Institut und dem Center for Soft Nanoscience der WWU implementierte einen Hardwarebeschleuniger für sogenannte Matrixmultiplikationen, die die Hauptrechenlast in der Berechnung von neuronalen Netzen darstellen. Neuronale Netze sind eine Reihe von Algorithmen, die das menschliche Gehirn nachahmen. Das ist beispielsweise hilfreich für Objektklassifizierungen in Bildern oder der Spracherkennung.

Die Wissenschaftler kombinierten die photonischen Strukturen mit Phasenwechselmaterialien (PWMs) als energieeffiziente Speicherelemente. PWMs werden üblicherweise in der optischen Datenspeicherung mit DVDs oder Blu-Rays eingesetzt. Im vorgestellten Prozessor ermöglicht dies die Speicherung und den Erhalt der Matrixelemente, ohne die Notwendigkeit Energie zuzuführen. Als Lichtquelle nutzten die münsterschen Physiker einen chip-basierten Frequenzkamm. Ein Frequenzkamm bietet verschiedene optische Wellenlängen, die unabhängig voneinander im selben System verarbeitet werden. Dadurch ergibt sich eine parallele Datenverarbeitung; auch Wellenlängenmultiplexverfahren genannt. „Unsere Studie ist die erste, die Frequenzkämme im Bereich der künstlich neuronalen Netze anwendet“, sagt Wolfram Pernice.

Im Experiment verwendeten die Physiker ein „Convolutional Neural Network“ (zu Deutsch: faltendes neuronales Netzwerk) zur Erkennung handgeschriebener Ziffern. Bei diesen Netzwerken handelt es sich um ein von biologischen Prozessen inspiriertes Konzept im Bereich des maschinellen Lernens. Anwendung finden sie vor allem bei der Verarbeitung von Bild- oder Audiodaten, da sie aktuell die höchsten Klassifizierungsgenauigkeiten erreichen.

„Die Faltungsoperation zwischen Eingangsdaten und einem oder mehreren Filtern, die zum Beispiel eine Hervorhebung von Kanten in einem Bild sein kann, lässt sich sehr gut auf unsere Matrixarchitektur übertragen. Das Ausnutzen von Licht für die Signalübertragung erlaubt dem Prozessor eine parallele Datenverarbeitung durch Wellenlängenmultiplexen, die zu einer höheren Rechendichte führt. Dabei werden viele Matrixmultiplikationen in nur einem Zeitschritt durchgeführt. Anders als bei herkömmlicher Elektronik, die üblicherweise im niedrigen Gigahertz-Bereich arbeitet, können optisch Modulationsgeschwindigkeiten im Bereich von 50 bis 100 Gigahertz realisiert werden“, erklärt Johannes Feldmann, Erstautor der Studie. Das Verfahren ermöglicht somit bisher unerreichte Datenraten und Rechendichten, also Operationen pro Prozessorfläche.

Die Ergebnisse sind vielfältig einsetzbar: Im Bereich der künstlichen Intelligenz können mehr Daten zeitgleich und energieeffizient verarbeitet werden. Der Einsatz von größeren neuronalen Netzen erlaubt zudem genauere und bisher unerreichte Vorhersagen sowie präzisere Datenanalysen. Beispielsweise unterstützen photonische Prozessoren die Auswertung großer Datenmengen in der medizinischen Diagnostik, etwa bei hochaufgelösten 3-D-Daten spezieller Bildgebungsverfahren. Weitere Anwendungsgebiete sind zum anderen das autonome Fahren, das auf eine schnelle und genaue Auswertung der Sensordaten angewiesen ist, sowie IT-Infrastrukturen wie „Cloud Computing“, die unter anderem Speicherplatz, Rechenleistung oder Anwendungssoftware bereitstellen.

Forschungsbeteiligung

Neben Forschern der Universität Münster trugen Wissenschaftler der Universitäten Oxford und Exeter in England sowie der Eidgenössischen Technischen Hochschule Lausanne und des IBM-Forschungslabors in Zürich zu dieser Arbeit bei.

Finanzierung

Die Studie erhielt finanzielle Unterstützung durch das EU-Projekt „FunComp“ und durch den Europäischen Forschungsrat (ERC Grant „PINQS“).

Originalpublikation

Johannes Feldmann, Nathan Youngblood, Maxim Karpov, Helge Gehring, Xuan Li, Maik Stappers, Manuel Le Gallo, Xin Fu, Anton Lukashchuk, Arslan Raja, Junqiu Liu, David Wright, Abu Sebastian, Tobias Kippenberg, Wolfram Pernice, and Harish Bhaskaran (2021). Parallel convolution processing using an integrated photonic tensor core. Nature. Doi: 10.1038/s41586-020-03070-1

Links zu dieser Meldung

Der wissenschaftliche Gastbeitrag Maschinelles Lernen mit Licht beschleunigen erschien als erstes auf IT BOLTWISE.




Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de
34 Shares

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.