Wenn Algorithmen kreativ werden
Ein besseres Verständnis von Lernmechanismen trägt dazu bei, die Funktionsweise unseres Gehirns besser zu verstehen und intelligente, anpassungsfähige Maschinen zu bauen. Um dies zu erreichen, schlagen Forscher der Universität Bern einen neuen Ansatz vor, in dem Algorithmen die biologische Evolution nachahmen und durch kreative Weiterentwicklung besser lernen.
Unsere Gehirne sind unglaublich anpassungsfähig. Jeden Tag bilden wir Erinnerungen, erwerben neues Wissen oder verfeinern bestehende Fähigkeiten. Dies steht im Gegensatz zu unseren heutigen Computern, die in der Regel nur vorprogrammierte Aktionen ausführen können. Unsere eigene Anpassungsfähigkeit ist das Ergebnis der sogenannten synaptischen Plastizität. Die Synapsen sind die Verbindungsstellen zwischen Nervenzellen. Sie können sich auf verschiedene Weise verändern, abhängig davon, wie sie verwendet werden.
Diese Plastizität der Synapsen ist ein wichtiger Forschungsgegenstand der Neurowissenschaften, da sie zentral ist für Lernprozesse und das Gedächtnis. Um diese Prozesse des Gehirns besser zu verstehen und anpassungsfähige Maschinen zu bauen, erstellen Forschende aus den Gebieten der Neurowissenschaften und der künstlichen Intelligenz (KI) Modelle der Mechanismen, die diesen Prozessen zugrunde liegen. Solche Lern- und Plastizitätsmodelle tragen dazu bei, die biologische Informationsverarbeitung zu verstehen sollen es zusätzlich Maschinen ermöglichen, schneller zu lernen.
Algorithmen ahmen die biologische Evolution nach
Im Rahmen des Human Brain Project der EU haben nun Forscher des Instituts für Physiologie der Universität Bern einen neuen Ansatz entwickelt, der auf sogenannten evolutionären Algorithmen basiert. Diese Computerprogramme suchen nach Lösungen für Probleme, indem sie den Prozess der biologischen Evolution nachahmen, wie etwa das Konzept der natürlichen Selektion. So wird die biologische Fitness, die den Grad der Anpassung eines Organismus an seine Umgebung beschreibt, ein Vorbild für evolutionäre Algorithmen. Bei den evolutionären Algorithmen besteht die «Fitness» eines Lösungskandidaten darin, wie gut er das zugrunde liegende Problem löst.
Überraschende Kreativität
Der neu entwickelte Ansatz wird als «evolving-to-learn» (E2L-Ansatz) oder «lernfähig werden» bezeichnet. Das Forschungsteam um Dr. Mihai Petrovici vom Institut für Physiologie der Universität Bern und Kirchhoff-Institute for Physics der Universität Heidelberg, konfrontierte dabei die evolutionären Algorithmen mit drei typischen Lernszenarien. Im ersten musste der Computer ein sich wiederholendes Muster in einem kontinuierlichen Strom von Eingaben erkennen, ohne dass er eine Rückmeldung darüber erhielt, wie gut er dabei war. Im zweiten Szenario erhielt der Computer virtuelle Belohnungen, wenn er sich in der gewünschten Weise verhielt. Im dritten Szenario des «geführten Lernens» schliesslich wurde dem Computer genau mitgeteilt, wie stark sein Verhalten vom gewünschten Verhalten abweicht.
«Für jedes dieser Szenarien waren die evolutionären Algorithmen in der Lage, Mechanismen der synaptischen Plastizität zu entdecken, und dadurch eine neue Aufgabe erfolgreich zu lösen», sagt Dr. Jakob Jordan, der Ko-Erstautor vom Institut für Physiologie der Universität Bern. Dabei zeigten die Algorithmen überraschende Kreativität: «Beispielsweise hat der Algorithmus ein neues Plastizitätsmodell gefunden, in dem von uns definierte Signale zu einem neuen Signal kombiniert werden. Tatsächlich beobachten wir, dass Netzwerke, die dieses neue Signal benutzen, schneller lernen als mit bisher bekannten Regeln», betont Dr. Maximilian Schmidt vom RIKEN Center for Brain Science in Tokyo, Ko-Erstautor der Studie. Die Ergebnisse wurden im Journal eLife publiziert.
«Wir sehen E2L als vielversprechenden Ansatz, um Einblicke in biologische Lernprinzipien zu gewinnen und den Fortschritt hin zu leistungsstarken Maschinen zu beschleunigen», sagt Mihai Petrovici. «Wir hoffen, dadurch die Forschung zur synaptischen Plastizität im Nervensystem voranzutreiben», ergänzt Jakob Jordan. Die neu gewonnenen Erkenntnisse ermöglichen neue Einblicke in die Funktionsweise von gesunden und erkrankten Gehirnen. Sie können auch den Weg für die Entwicklung intelligenter Maschinen ebnen, die sich besser an die Bedürfnisse ihrer Nutzer anpassen können.
Diese Arbeit wurde von der Europäischen Union (Human Brain Project) und der Manfred Stärk Stiftung unterstützt. Das Gauss Center for Supercomputing e.V. kofinanzierte dieses Projekt durch die Bereitstellung von Rechenzeit durch das John von Neumann Institute for Computing (NIC) auf dem GCS Supercomputer JUWELS am Jülich Supercomputing Center (JSC). Die Ressourcen von Fenix Infrastructure wurden verwendet und teilweise aus dem Forschungs- und Innovationsprogramm Horizon 2020 der Europäischen Union durch das ICEI-Projekt finanziert. Alle Netzwerksimulationen wurden mit NEST durchgeführt.
Berner Beitrag am Human Brain Project
Das Human Brain Project (HBP) ist das grösste Projekt für Hirnforschung in Europa und gehört zu den umfangreichsten Forschungsprojekten, die jemals von der Europäischen Union finanziert wurden. An der Schnittstelle von Neurowissenschaften und Informationstechnologie erforscht das HBP das Gehirn und seine Krankheiten mit Hilfe hochmoderner Methoden der Informatik, Neuroinformatik und künstlichen Intelligenz und treibt damit Innovationen in Bereichen wie Brain-Inspired Computing und Neurorobotik voran. Langfristiges Ziel des Human Brain Projects ist die Schaffung von EBRAINS, einer dauerhaften gemeinsamen Plattform für Neurowissenschaften und Computing in Form einer europäischen Forschungsinfrastruktur, die über den Projektzeitraum 2023 hinaus bestehen bleibt.
Das Institut für Physiologie der Universität Bern ist am HBP mit den Gruppen von Dr. Mihai Petrovici und Prof. Dr. Walter Senn beteiligt. 2020 erhielt es dafür einen Förderbeitrag von 2.5 Mio Euro. Die Gruppen entwickeln theoretische Modelle von Nervenzellen und Netzwerken im Hirn, welche eine Verbindung zwischen Verhalten, Lernen, und den entsprechenden Vorgängen und Veränderungen im Hirn herstellen. Die Theorien sind auf biophysikalischen Begriffen aufgebaut und erlauben eine Rekonstruktion der biologischen Vorgänge in sogenannter neuromorpher Hardware, also in Computer-Chips, die ähnlich funktionieren wie das Gehirn selbst.
Originalpublikation:
Jakob Jordan, Maximilian Schmidt, Walter Senn und Mihai A. Petrovici: Evolving interpretable plasticity for spiking networks, eLife, 28. Oktober 2021, doi: 10.7554/eLife.66273, https://elifesciences.org/articles/66273
Weitere Informationen:
https://tinyurl.com/unibe-kreative-Algorithmen
https://ebrains.eu/services/brain-inspired-technologies/
https://physio.unibe.ch/~petrovici/group/
https://physio.unibe.ch/~senn/group/