Tiefe Netzwerke: Wie komplex sind Neurone wirklich?
Auf den ersten Blick hat unser eher breiiges Gehirn rein gar nichts mit den harten Siliziumchips in Computerprozessoren gemeinsam. Trotzdem vergleichen Wissenschaftler und Wissenschaftlerinnen beide seit geraumer Zeit miteinander. Der britische Mathematiker und Logiker Alan Turing formulierte es 1952 so: Uns interessiert nicht, dass das Gehirn die Konsistenz von kaltem Porridge hat. Mit anderen Worten: Das Medium spielt keine Rolle. Es zählt nur die Rechenleistung. Die leistungsfähigsten Systeme künstlicher Intelligenz (KI) nutzen heute eine Art des maschinellen Lernens, das als Deep Learning bezeichnet wird. Die Algorithmen hierfür sind vom menschlichen Gehirn inspiriert und lernen, indem sie riesige Datenmengen mit Hilfe so genannter tiefer neuronaler Netze (deep neuronal networks) verarbeiten. Diese bestehen aus mehreren Schichten miteinander verbundener Knoten beziehungsweise Verarbeitungseinheiten, die an echte Neurone erinnern.
Zumindest sind sie dem nachempfunden, was Neurowissenschaftler in den 1950er Jahren über Nervenzellen wussten. Damals wurde ein einflussreiches Neuronenmodell namens Perzeptron entwickelt. Seitdem hat sich unser Verst ndnis von der Rechenleistung einzelner Hirnzellen dramatisch verbessert. Wir wissen jetzt, dass sie deutlich komplexer sind als ihre künstlichen Vertreter – aber wie sehr genau?
Schreiben Sie uns!
Beitrag schreiben