Direkt zum Inhalt

Künstliche Intelligenz: Algorithmen als Teilchenentdecker

Maschinelles Lernen könnte die Suche nach neuer Physik am Teilchenbeschleuniger LHC vorantreiben, doch die Technologie ruft bei den beteiligten Wissenschaftlern auch Bedenken hervor.
Datenspeicher

Teilchenphysiker und Wissenschaftler auf dem Gebiet der künstlichen Intelligenz (KI) haben sich zusammengeschlossen und überlegen, ob und wie sich die besten denkenden Maschinen dieser Welt künftig in Beschleunigerexperimenten einsetzen ließen. Dank solcher Maschinen könnten Entdeckungen mit nur wenig menschlichem Zutun gelingen – eine Vision, die manchem Physiker nicht ganz geheuer ist.

Doch es gibt gute Gründe für eine Zusammenarbeit: Einerseits brennen die Forscher am Large Hadron Collider (LHC) nahe Genf darauf, weitere Entdeckungen zu machen, und andererseits wissen sie, dass in den kommenden zehn Jahren unvorstellbare Datenmengen anfallen werden. Im November 2015 trafen sich führende Köpfe der beiden Fachgebiete auf einem Workshop – dem ersten seiner Art – und diskutierten darüber, wie fortschrittliche KI-Techniken die Suche nach spannenden Ereignissen am LHC beschleunigen könnten. Teilchenphysiker haben "erkannt, dass sie das nicht allein schaffen", so die Informatikerin Cécile Germain von der Universität Paris-Süd in Orsay, die auf dem Workshop am Forschungszentrum CERN einen Vortrag hielt.

Nachweis des Higgs-Bosons | Im Juli 2012 war es endlich so weit. Am Large Hadron Collider (LHC) fand man, wonach man seit den 1960er Jahren gesucht hatte: das Higgs-Boson. Die Sehnsucht der Forschergemeinde nach diesem Teilchen speist sich aus der Hoffnung, damit ein physikalisches Modell zu komplettieren, das alle bekannten Elementarteilchen und deren Wechselwirkungen beschreibt. Hätten sie das vorhergesagte Higgs-Boson nicht ausfindig machen können, wäre womöglich ihr gesamtes Theoriegebäude – das so genannte Standardmodell der Teilchenphysik – ins Wanken geraten.
Sieht man von Raumfahrtmissionen ab, handelt es sich wohl um das aufwändigste Experiment, das die Menschheit bislang konzipiert hat. Am LHC in Genf werden in kilometerlangen unterirdischen Anlagen winzige Teilchen auf enorme Geschwindigkeiten beschleunigt, um sie dann zerschellen zu lassen. In den Trümmern fahndeten tausende Wissenschaftler nach den Grundbausteinen unserer Materie.
Die Entdeckung des Higgs-Teilchens hat zwar Probleme gelöst, aber gleichzeitig weitere Fragen aufgeworfen. Beispielsweise ist das Teilchen leichter als erwartet. Ein bisher nicht entdecktes Partnerteilchen könnte dafür verantwortlich sein. Es bleiben also genügend Rätsel, die in zukünftigen, noch leistungsfähigeren Teilchenbeschleunigeranlagen erforscht werden können.

Die Resonanz unter Informatikern ist enorm. 2014 organisierte Germain gemeinsam mit anderen einen Wettbewerb, bei dem es ein Programm zu entwickeln galt, das Spuren des Higgs-Bosons in simulierten Daten aufspüren kann. Mehr als 1700 Teams reichten Vorschläge ein.

Schon jetzt nutzen Teilchenphysiker bestimmte Formen der künstlichen Intelligenz. Um mit ATLAS und CMS, den beiden größten Experimenten am LHC, das Higgs-Boson zu entdecken (was 2012 gelang), griffen die Physiker teilweise auf maschinelles Lernen zurück – dabei erkennen Algorithmen selbstständig Muster in den Daten. Zunächst fütterte man die Algorithmen dafür mit Daten aus simulierten Teilchenkollisionen und brachte ihnen so bei, unter Millionen von eher banalen Ereignissen genau jene Muster zu erkennen, die auf den Zerfall von seltenen Higgs-Teilchen zurückgehen. Erst dann ließen die Forscher sie auf die echten Daten los.

Hunderte von Millionen Teilchenkollisionen pro Sekunde

Doch schon in naher Zukunft müssen die Experimente in der Lage sein, die von ihnen gesammelten Daten gezielt auszuwählen – und nicht einfach ungefiltert zu verarbeiten. In CMS und ATLAS finden derzeit Hunderte von Millionen Teilchenkollisionen pro Sekunde statt, wobei man nach recht simplen Kriterien nur eines von 1000 Ereignissen aufzeichnet. Die Anzahl der Kollisionen werde nach einem für das Jahr 2025 geplanten Upgrade jedoch um das 20-Fache ansteigen, und die Detektoren müssten dann ausgeklügeltere Verfahren verwenden, um relevante Ereignisse auszuwählen, so Maria Spiropulu vom California Institute of Technology in Pasadena. "Wir betreten Neuland", sagt die CMS-Physikerin, die an der Organisation des CERN-Workshops beteiligt war.

Der ATLAS-Detektor am Teilchenbeschleuniger des CERN | ATLAS (Akronym für "A Toroidal LHC ApparatuS") hat einen Durchmesser von 25 Metern und eine Länge von 46 Metern. Er vermisst die Teilchen, die als Produkte bei einer Teilchenkollision entstehen. Ihre Spuren werden aufgezeichnet und ihre Energien und die Teilchensorte bestimmt.

Inspiration könnte ein weiteres LHC-Experiment liefern: Bei LHCb suchen die Wissenschaftler nach winzigen Asymmetrien zwischen Teilchen und ihren Gegenstücken aus Antimaterie. Seit April 2015 – damals begann die zweite Laufzeit des LHC bei höheren Energien – setzt das LHCb-Team maschinelles Lernen ein, um zu entscheiden, welche Daten der Detektor behalten und welche er verwerfen soll.

Das Experiment reagiert empfindlich auf winzige Temperatur- und Druckschwankungen, so dass sich die Kriterien für relevante Daten während des Betriebs verändern können – dank maschinellen Lernens passt sich der Detektor diesen variablen Kriterien in Echtzeit an. "Niemand hat das zuvor gemacht", sagt Physiker Vladimir Gligorov vom CERN, der das KI-Projekt am LHCb leitete.

"Das wird die Datenanalyse revolutionieren"Maria Spiropulu

Es braucht für gewöhnlich Monate, berichtet Gligorov, um Experimente der Teilchenphysik nach einem Upgrade neu zu kalibrieren. Doch der LHCb-Detektor spürte bereits zwei Wochen nach der letzten Umrüstungsphase ein Teilchen namens J/Ψ-Meson auf – erstmals wurde es 1974 durch zwei unabhängige US-Experimente nachgewiesen, wofür später der Nobelpreis verliehen wurde.

Neue Hardware am LHC | Der mit neuer Technik aufgerüstete LHC wird Protonenstrahlen mit höheren Energien und schneller hintereinander abfeuern können als in den bisherigen Experimenten.

In den kommenden Jahren dürften CMS und ATLAS sich LHCb zum Vorbild nehmen, meinen Spiropulu und andere. Die in den beiden Experimenten verwendeten Algorithmen würden dann ebenfalls in Echtzeit auf die einströmenden Daten reagieren können. "Das wird die Datenanalyse revolutionieren", sagt Spiropulu.

Was, wenn die künstliche Intelligenz etwas übersieht?

Vertraut man vermehrt auf das Urteil einer künstlichen Intelligenz, bringt das jedoch auch neue Herausforderungen mit sich. Im Gegensatz zu LHCb, bei dem sich Forscher auf die Suche nach bekannten Teilchen konzentrieren, um diese im Detail zu untersuchen, sollen ATLAS und CMS neue Teilchen entdecken. Und die Vorstellung, dass Algorithmen in einer nicht nachvollziehbaren Weise die Filterkriterien festlegen und so eventuell Daten verwerfen, die womöglich interessante Ereignisse enthalten, macht laut Germain vielen Physikern Sorgen. Die Wissenschaftler wollen verstehen, wie die Algorithmen arbeiten, so die Informatikerin, und sicherstellen, dass sie auf physikalischen Prinzipien fußen. "Es ist ein Albtraum für sie."

Befürworter des Ansatzes müssen ihre Kollegen davon überzeugen, auf erprobte und bewährte Techniken zu verzichten, sagt Gligorov. "Das sind riesige Kollaborationen, und bis eine neue Methode genehmigt wird, dauert es so lange, wie das Universum alt ist." Das Team am LHCb umfasst etwa 1000 Mitglieder; bei ATLAS und CMS sind es jeweils rund 3000.

Simulierte Teilchenkollision | Teilchen verraten sich im Detektor oft nur durch ihre längerlebigen Zerfallsprodukte. So etwa sähe ein Ereignis mit den noch hypothetischen supersymmetrischen Teilchen im Atlas-Detektor aus.

Ungeachtet dieser Herausforderungen wurde auf dem Workshop rege diskutiert, ob und wie sich Teilchenphysiker eine noch anspruchsvollere Form der KI zu Nutze machen könnten – "Deep Learning" oder "tiefes Lernen". Simplere Algorithmen für maschinelles Lernen werden mit Hilfe von Musterdaten wie etwa Bildern geschult, wobei man jeweils den Inhalt des Bilds "verrät" – beispielsweise ob ein Haus oder eine Katze zu sehen ist. Beim Deep Learning, das bereits bei Software wie dem Google-Übersetzer und bei Spracherkennungssystemen wie Siri von Apple zum Einsatz kommt, erhält der Computer üblicherweise kein solches Training, sondern lernt selbstständig, Objekte zu kategorisieren.

Forscher geben die Kontrolle ungern an einen Algorithmus ab

Zwar betonten mehrere Redner auf dem CERN-Workshop, dass ihnen nicht ganz wohl dabei sei, dieses Maß an Kontrolle an einen Algorithmus abzugeben. Dennoch diskutierten sie, wie sich Deep Learning in der Physik einsetzen ließe. Pierre Baldi von der University of California in Irvine wendete maschinelles Lernen bereits in verschiedenen Wissenschaftszweigen an. Eine von ihm und seinen Mitarbeitern durchgeführte Studie lege nahe, so berichtete der KI-Forscher, dass eine als "Dunkles Wissen" bezeichnete Form des Deep Learning – passenderweise – bei der Suche nach Dunkler Materie helfen könne.

Deep Learning könne sogar zur Entdeckung von Teilchen führen, meint CMS-Mitglied und Mitveranstalter des Workshops Maurizio Pierini vom CERN, die bisher noch kein Theoretiker vorausgesagt habe. "Es wäre also eine Absicherung für den Fall, dass der Theoretiker, der die entsprechende Vorhersage macht, noch nicht geboren wurde."

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.