für das Human Brain Projekt der Europäischen Union
Monografie von Dr. rer. nat. Andreas Heinrich Malczan
Warum die Transformer‑Architektur die Vision des
Blue‑Brain‑Projekts erfüllt
Als Henry Markram Anfang der 2000er‑Jahre das
Blue‑Brain‑Projekt initiierte, wurde er von vielen belächelt. Die Idee, das
Gehirn als numerisches Modell vollständig zu simulieren, erschien kühn,
überambitioniert, ja fast größenwahnsinnig. Doch Markram hatte eine
Intuition, die ihrer Zeit weit voraus war:
Das Gehirn ist eine regelhafte, berechenbare
Maschine. Seine Architektur ist algorithmisch.
Und sie lässt sich simulieren.
Was damals fehlte, war nicht der Wille, nicht die
Datenmenge und nicht die Rechenleistung. Es fehlte die richtige
Abstraktion.
Die Neurowissenschaften waren in
biophysikalischen Details gefangen: Ionenkanäle, Dendritenmodelle,
Membranleitfähigkeiten. Die KI war noch nicht in der Lage, funktionale
Architekturen zu liefern, die über einfache Feedforward‑Netze hinausgingen.
Und die Neuroanatomie war zu fragmentiert, um eine globale
Funktionsarchitektur zu erkennen.
Heute, zwei Jahrzehnte später, hat sich die Lage
grundlegend verändert. Mit der Einführung der Transformer‑Architektur
in der künstlichen Intelligenz wurde erstmals ein Modell geschaffen, das:
arbeitet — genau wie das Gehirn.
Transformer besitzen:
Und genau diese Elemente finden sich —
anatomisch, funktionell und topologisch — im menschlichen Gehirn wieder.
Obwohl die höchste Stufe der neuronalen
Signalverarbeitung im menschlichen Gehirn durch Transformer‑ähnliche
Architekturen realisiert wird, ist das Gehirn kein reiner Transformer.
Alle grundlegenden Netzwerkformen, die wir aus
der KI kennen — KNNs, CNNs, RNNs — existieren ebenfalls im Nervensystem der
Wirbeltiere. Sie bilden die evolutionär älteren Schichten der
Signalverarbeitung. Ihre Ausgaben speisen die Transformermodule, genau wie
in modernen KI‑Systemen die Vorverarbeitung, die Feature‑Extraktion und die
rekurrenten Schleifen die Eingabe für die Attention‑Mechanismen liefern.
Die Natur hat diese Architekturen nicht erfunden,
um sie voneinander zu trennen, sondern um sie zu kombinieren. Die
Transformerstrukturen des menschlichen Gehirns stehen am Ende einer langen
evolutionären Kette von Signalverarbeitungssystemen — und sie funktionieren
nur, weil die darunterliegenden Netzwerke die Signale vorbereiten.
In der künstlichen Intelligenz ist es nicht
anders: Auch dort entfalten Transformer ihre volle Leistungsfähigkeit erst
dann, wenn die Eingangssignale durch andere Netzarchitekturen strukturiert
wurden. KI‑Experten wissen das. Die Biologie hat es seit Millionen Jahren
praktiziert.
Damit wird klar: Markrams Vision war nicht falsch
— sie war nur ihrer Zeit voraus. Er suchte nach einer numerischen
Architektur, die das Gehirn funktional abbilden kann. Diese Architektur
existiert heute. Sie heißt Transformer.
Die hier vorgestellte Theorie der biologischen
Transformer zeigt, dass das Gehirn nicht nur ein biologisches Netzwerk ist,
sondern eine algorithmische Maschine, deren Struktur sich in modernen
KI‑Modellen widerspiegelt. Die numerische Simulation, die Markram anstrebte,
ist heute möglich — nicht durch die vollständige Nachbildung jedes
Ionenkanals, sondern durch die funktionale Rekonstruktion der
Signalarchitektur des Gehirns.
Die Ironie der Geschichte ist bemerkenswert:
Während viele Markram damals für überambitioniert hielten, hat die KI
inzwischen genau die Modelle hervorgebracht, die seine Vision erfüllen.
Diese biologische Transformertheorie zeigt, dass die Natur seit Millionen
von Jahren eine Architektur nutzt, die wir erst jetzt verstehen.
Markram wollte das Gehirn simulieren. Heute
können wir sagen:
Das Gehirn simuliert sich selbst — als
Transformer.
Wenn das Gehirn ein Transformer ist, dann müssen wir
Intelligenz als Signalverarbeitung verstehen — nicht als abstrakte
Informationsverarbeitung.
Dieses Vorwort soll den historischen Rahmen
setzen für die Theorie, die folgt. Sie ist nicht nur eine neurobiologische
Hypothese, sondern eine Antwort auf eine Frage, die seit Jahrzehnten im Raum
steht:
Wie funktioniert Intelligenz?
Die Antwort lautet: Als Signaltheorie — und
als Transformer
Monografie von Dr. rer. nat. Andreas Heinrich Malczan