Technik: Spintronik für neuromorphe Computer
Künstliche Intelligenz (KI) ist aus unserem alltäglichen Leben kaum noch wegzudenken: Die Algorithmen sortieren E-Mails, sind nützliche Sprachassistenten, analysieren den Inhalt von Texten oder Bildern – und das manchmal sogar besser als ein Mensch. Zum Beispiel besiegte 2017 das Programm AlphaGo von DeepMind den koreanischen Go-Weltmeister Ke Jie. Mit dieser Leistung hatten Experten in frühestens zehn Jahren gerechnet.
Um derart beeindruckende Ergebnisse zu erzielen, verbrauchen die Algorithmen jedoch sehr viel Energie, weitaus mehr als das menschliche Gehirn bei gleichwertigen Aufgaben. Ein Spracherkennungsprogramm wie Bert von Google erfordert für ein Training beispielsweise etwa 1000 Kilowattstunden Strom; eine solche Energiemenge würde dem menschlichen Gehirn für sechs Jahre reichen!
Moderne Algorithmen der künstlichen Intelligenz basieren häufig auf tiefen neuronalen Netzen, deren Struktur teilweise an die des visuellen Kortex angelehnt ist. Warum unterscheidet sich ihre Leistungsfähigkeit also so stark von unserem Denkorgan? Das Problem ist die Hardware, auf der die Programme laufen. Der Aufbau von herkömmlichen Computern und Grafikkarten weicht deutlich von dem des Gehirns ab.
Deshalb arbeiten viele Forscher und Firmen an neuen Ansätzen, um effizientere Geräte zu entwickeln. Eine aussichtsreiche Möglichkeit bietet die so genannte Spintronik, bei der man quantenmechanische Eigenschaften von Elektronen nutzt …
Schreiben Sie uns!
Beitrag schreiben