Neuromorphe Chips – das Gehirn als Vorbild
München, 14. Dezember 2022
Neuromorphe Computerarchitektur, die von der Vernetzung im menschlichen Gehirn inspiriert ist, verspricht sehr leistungsfähig und gleichzeitig energieeffizient zu sein. Da die bisherige Rechnerarchitektur bald an physikalische Grenzen der Leistungsoptimierung stoßen wird, sieht die Halbleiterindustrie Neuromorphe Chips als die Zukunft der Computertechnologie. Doch wie weit ist die Entwicklung neuromorpher IT fortgeschritten? Erreichen wir mit neuromorphen Chips eine neue Stufe der Künstlichen Intelligenz (KI) und der Digitalisierung? Diese Fragen wurden gemeinsam mit Expertinnen und Experten aus Wissenschaft und Wirtschaft bei „acatech am Dienstag“ am 22. November diskutiert.
Neuromorphe Chips seien ein faszinierendes Beispiel für Dinge, die wir von der Natur lernen können, so Reinhard Ploss, Co-Vorsitzender der Plattform Lernende Systeme, in seiner Begrüßung. Vor allem im Zusammenhang mit Künstlicher Intelligenz sei es erstaunlich, wie wenig Energie das menschliche Gehirn benötige, um große Leistungen zu vollbringen.
acatech Mitglied Artur Zrenner (Universität Paderborn, Sprecher des acatech Themennetzwerks Nano- und Quantentechnologien) führte durch die Veranstaltung. Er begann seinen Impuls mit einer Einführung in die Herausforderungen der aktuellen Prozessor-Architektur. Die heutigen Computer basierten noch immer auf der von-Neumann-Architektur, jener Technologie, die seit Mitte des 20. Jahrhunderts als praktikable Lösung für Rechnersysteme entwickelt wurde. Diese trenne Speicherung und Verarbeitung von Daten durch ein BUS-System, einer physischen Engstelle, über die Steuersignale und Daten ausgetauscht werden müssen. Die Kommunikation über dieses BUS-System benötigt Zeit und Energie. Sie begrenzt die Leistungsfähigkeit der Rechner, die zwar in den letzten Jahrzehnten dem Mooreschen Gesetz folgend stetig gewachsen ist, nun aber zunehmend an physikalische Grenzen im Bereich atomarer Längenskalen stößt. Auch wenn diese Architektur mit vielen Vorteilen, wie einer hohen Zuverlässigkeit und Präzision, verbunden sei, so seien damit auch Nachteile verbunden, erklärte Artur Zrenner. So begrenze der sogenannte von-Neumann-Flaschenhals die Leistungsfähigkeit der Computer. Gerade für KI-Anwendungen seien enorm leistungsfähige Neuronale Netze bisher nur als Emulation bei sehr hohem Energieaufwand erreichbar. Diese hohe Leistungsfähigkeit sei jedoch in Neuronalen Netzwerken der Künstlichen Intelligenz, bei Bild- und Spracherkennung sowie Übersetzung oder in der medizinischen Diagnostik notwendig. Folglich steige der Bedarf nach energieeffizienter leistungsfähiger Hardware, wie sie beispielweise Neuromorphe Chips liefern können, so Artur Zrenner abschließend.
Die unterschiedliche Energieeffizienz klassischer Systeme und neuromorpher Systeme zeigte Martin Ziegler (TU Ilmenau) anschaulich anhand des Vergleichs mit dem menschlichen Gehirn. Dieses verbrauche trotz seiner Leistungsfähigkeit nur 20-25 Watt. Ein vergleichbar leistungsfähiger Computer benötige dagegen mit rund einem Megawatt ein Vielfaches davon – und eine ganze Lagerhalle an Platz. Der unterschiedliche Energieverbrauch wird vor allem dann spürbar, wenn es um das Erkennen von Mustern geht: Zwar hat die Künstliche Intelligenz „Google DeepMind“ vor einiger Zeit einen Menschen im Schach-ähnlichen Spiel „Go“ geschlagen – der für den Rechner notwendige Energie- und Platzbedarf war jedoch immens höher als beim unterlegenen Menschen. Laut Martin Ziegler mache dieses Beispiel deutlich, dass die aktuelle CPU-Architektur wenig energieeffizient sei und man ein neues Hardwaremodell benötige. Bei der bisherigen von-Neumann-Architektur finden Speicherung und Verarbeitung von Daten getrennt voneinander statt. Im Vergleich dazu, falle mit Blick in das menschliche Gehirn auf, dass hier beim Lernen lokal und dezentral Neuronen zu komplexen Netzwerken vernetzt werden – also Speicherung und Verarbeitung von Daten am selben Ort stattfinden. Die Entwicklung solcher Neuromorphen IT-Systeme stecke mitten in der Entwicklung. Schätzungsweise um 2025 könne mit ersten hybriden IT-Systemen gerechnet werden, vollständig neuromorphe Hardware sei frühestens 2030 zu erwarten, erklärte Martin Ziegler in seinem Impuls weiter.
Computer für Künstliche Intelligenz und Neuromorphes Computing standen im Zentrum des Impulses von Heike Riel (IBM Research). Je stärker Künstlicher Intelligenz zum Einsatz komme, desto mehr Daten würden generiert. Jedoch seien neue, leistungsstärkere Computer notwendig, damit diese Datenmenge und daraus abgeleitete Anwendungen auch genutzt werden können. Als Annäherung hin zu leistungsstarken und gleichzeitig energieeffizienten Systemen setze man laut Heike Riel bei IBM auf „Approximate Computing“. Dabei kommt eine reduzierte Präzision der KI-Arithmetik zum Einsatz, die aber die Genauigkeit des Modells kaum beeinflusst. Durch diese Reduktion, beispielsweise von 32-bit-Systemen auf 4-bit-Systeme, führt jede Halbierung der Wortbreite zu einer quadratischen Verbesserung der Energieeffizienz, obwohl diese Systeme noch immer auf der von-Neumann-Architektur basieren. Weitere Steigerungen, so Heike Riel, ließen sich durch analoges in-memory Computing erreichen, wobei neue elektronische und auch photonische Bauteile zum Einsatz kommen. In ihrem Fazit zeichnete Heike Riel die Zukunft des Computing als eine Kombination etablierter und neuartiger Technologien (Bits (Hybrid Cloud)), Neuronen (KI) und Qubits (Quantum Computing).
acatech Mitglied Klaus Mainzer (TU München) erinnerte daran, dass theoretische Ansätze zur Lösung der Probleme mit der von-Neumann-Architektur bereits 1971 in Form des „Memristor“ (memory-resistor) von Leon Chua (UC Berkeley) vorhergesagt worden seien. Eine Weiterentwicklung dieser Memristoren auf Grundlage optischer Technologien beschleunige die Reaktionszeit von Milli-Sekunden auf Nano-Sekunden. Auch Klaus Mainzer regte an, klassisches, neuromorphes und Quantencomputing in hybridem Computing zu integrieren, um die Probleme einer immer komplexer werdenden Zivilisation energieeffizient lösen zu können.
Reinhard Ploss kommentierte die Entwicklungen der neuromorphen Chips und prognostizierte, dass doch noch ein langer Weg zu gehen sei, bis diese tatsächlich zur Anwendung kämen. Insbesondere sei dies auf die Tatsache zurückzuführen, dass mit den erforderlichen (Rechen-) Zellen im unteren Nanometer-Bereich eine Unschärfe entstehe, für die Softwareingenieure erst noch eine Lösung finden müssen. Daher sei es zunächst attraktiv, die Leistung neuromorpher Chips in größeren Einheiten zu nutzen und anschließend die Verkleinerung der Chips voranzutreiben. Hierfür seien, so Reinhard Ploss, noch große Architektur-Entwicklungen notwendig, damit die Anwendungen in der Praxis ankommen. Sie bieten aufgrund ihrer Leistungsfähigkeit und Energieeffizienz zukünftig aber ein enormes Potential für „Edge-AI-Anwendungen“ wie Smart City, Smart Mobility und in der Medizinischen Diagnostik.