für das Human Brain Projekt der Europäischen Union
Monografie von Dr. rer. nat. Andreas Heinrich Malczan
Künstliche neuronale Netze bestehen aus Knoten und Kanten. In biologischen neuronalen Netzen entsprechen ihnen Neuronen und Axone; Dendriten werden im Modell meist integriert, um die Darstellung nicht unnötig zu verkomplizieren. Um die späteren Mechanismen der Intelligenz präzise zu formulieren, analysieren wir zunächst das Fähigkeitsspektrum biologischer neuronaler Netze und führen zentrale Begriffe ein, deren exakte Definition spätere Missverständnisse vermeidet.
Wirbeltiere interagieren mit ihrer Umwelt, indem sie Signale empfangen, transformieren und auswerten. Rezeptoren bilden die Grundlage dafür, dass sie ein reichhaltiges Abbild der äußeren und inneren Umwelt konstruieren können. Sie übersetzen physikalische oder chemische Reize in Feuerraten und erregen damit Neuronen, die diese Signale über ihre Axone weiterleiten.
Bereits auf dieser Ebene entstehen durch Konvergenz, Divergenz, Mittelwertbildung, Inversion, Laufzeitverzögerungen, Signalrotation in Schleifen und entfernungsabhängige Dämpfung vielfältige Möglichkeiten der Signalverarbeitung. Diese Mechanismen bilden zusammen mit den später beschriebenen intelligenzstiftenden Eigenschaften neuronaler Netzwerke die Grundlage für intelligente Reaktionen, die Konstruktion eines inneren Umweltmodells und die Ansammlung von Wissen.
Konvergenz und Divergenz sind grundlegende Algorithmen neuronaler Netze – biologisch wie künstlich. In künstlichen Netzen spricht man von Knoten und Kanten; biologisch entsprechen ihnen Neuronen und Axone. Wir verwenden jeweils die Terminologie, die für den Kontext am passendsten ist.
Während künstliche Netze Laufzeitverzögerungen und entfernungsabhängige Dämpfung meist ignorieren, besitzen biologische Axone genau diese Eigenschaften. Sie erweitern das Fähigkeitsspektrum erheblich und werden dort berücksichtigt, wo sie funktional relevant sind.
Wirbeltiere nutzen Lebenserhaltungssysteme, die auf der Auswertung vieler Rezeptorsignale beruhen. Diese Systeme bilden regionale oder globale Mittelwerte, etwa für Blutdruck, Sauerstoffsättigung oder Blutzuckergehalt. Im Verlauf der Evolution fanden solche Mittelwerte Eingang in die neuronalen Systeme und übernahmen dort wichtige signaltheoretische Aufgaben.
Es entstanden zwei Formen der Mittelwertbildung:
Damit entsteht ein funktionaler Übergang: Von der physiologischen Überwachung hin zu signaltheoretischen Operationen, die später für Divergenzmodule und On-Off-Paare entscheidend werden.
Viele Rezeptoren haben sich im Verlauf der Evolution in zwei komplementäre Gruppen aufgespalten:
Beispiele:
Die Aufspaltung in On- und Off-Signale verbessert die Fähigkeit des Nervensystems, die Stärke einer Urgröße präzise zu beurteilen. In Divergenzmodulen wird diese Fähigkeit später systematisch ausgebaut.
On- und Off-Signale können ineinander überführt werden. Die biologische Signalinversion erfolgt in zwei Schritten:
Das resultierende Restsignal ist das invertierte Signal. Die Summe aus Original- und invertiertem Signal ist eine Konstante und entspricht ungefähr dem Doppelten des statistischen Mittelwerts der Feuerraten.
Die gleichzeitige Verfügbarkeit beider Komponenten eines On-Off-Paares ermöglicht eine präzise Bestimmung der absoluten Stärke der zugrunde liegenden Urgröße. Dies ist ein zentraler Baustein für Divergenzmodule und damit für spätere intelligenzstiftende Mechanismen.
Für die Analyse neuronaler Schaltungen ist eine mengentheoretische Sicht hilfreich. Da Signale zeitabhängig sind, bezeichnen wir ein Signal als Zustand zu einem bestimmten Zeitpunkt oder in einem kurzen Intervall konstanter Stärke. Alternativ schreiben wir s = s(t).
Wir unterscheiden:
In künstlichen Netzen repräsentieren Knoten Elementarsignale oder Komplexsignale; in biologischen Netzen übernehmen Inputneuronen bzw. Outputneuronen diese Rollen.
Damit lassen sich neuronale Netze als Konvergenzschaltungen interpretieren, in denen Elementarsignale auf Komplexsignale konvergieren. In mehrschichtigen Netzen tritt ebenso häufig Divergenz auf, bei der Komplexsignale wieder in Elementarsignale zerlegt werden.
Zur vollständigen Charakterisierung eines neuronalen Netzes genügt die graphentheoretische Struktur nicht. Jede Verbindung besitzt eine synaptische Stärke, die als reelle Zahl angegeben wird:
In der Netzwerktheorie spricht man von Gewichten. In künstlichen Netzen werden sie durch Lernalgorithmen bestimmt, die biologische Lernprozesse nachbilden oder ersetzen sollen.
Damit ist das Fundament gelegt, um im nächsten Kapitel die Lernmechanismen zu analysieren, die diese Gewichte verändern und damit die Grundlage für Intelligenz schaffen.
Monografie von Dr. rer. nat. Andreas Heinrich Malczan