• Home
  • Autor
    • Porträt
    • Lebenslauf
    • Kontakt
    • Widmung
    • Thesen
  • Inhaltsverzeichnis
  • Veröffentlichungen
    • Theorie der neuronalen Schaltung des Gehirns
    • Das limbische System
    • Gehirntheorie der Wirbeltiere
    • Gehirntheorie des Menschen
    • Signaltheorie der Intelligenz
  • Impressum
  • englisch

Signaltheorie der Intelligenz

für das Human Brain Projekt der Europäischen Union

Monografie von Dr. rer. nat. Andreas Heinrich Malczan

1 Das Fähigkeitsspektrum biologischer neuronaler Netze

Künstliche neuronale Netze bestehen aus Knoten und Kanten. In biologischen neuronalen Netzen entsprechen ihnen Neuronen und Axone; Dendriten werden im Modell meist integriert, um die Darstellung nicht unnötig zu verkomplizieren. Um die späteren Mechanismen der Intelligenz präzise zu formulieren, analysieren wir zunächst das Fähigkeitsspektrum biologischer neuronaler Netze und führen zentrale Begriffe ein, deren exakte Definition spätere Missverständnisse vermeidet.

1.1 Rezeptoren und Signale

Wirbeltiere interagieren mit ihrer Umwelt, indem sie Signale empfangen, transformieren und auswerten. Rezeptoren bilden die Grundlage dafür, dass sie ein reichhaltiges Abbild der äußeren und inneren Umwelt konstruieren können. Sie übersetzen physikalische oder chemische Reize in Feuerraten und erregen damit Neuronen, die diese Signale über ihre Axone weiterleiten.

Bereits auf dieser Ebene entstehen durch Konvergenz, Divergenz, Mittelwertbildung, Inversion, Laufzeitverzögerungen, Signalrotation in Schleifen und entfernungsabhängige Dämpfung vielfältige Möglichkeiten der Signalverarbeitung. Diese Mechanismen bilden zusammen mit den später beschriebenen intelligenzstiftenden Eigenschaften neuronaler Netzwerke die Grundlage für intelligente Reaktionen, die Konstruktion eines inneren Umweltmodells und die Ansammlung von Wissen.

1.2  Signalkonvergenz und Signaldivergenz

Konvergenz und Divergenz sind grundlegende Algorithmen neuronaler Netze – biologisch wie künstlich. In künstlichen Netzen spricht man von Knoten und Kanten; biologisch entsprechen ihnen Neuronen und Axone. Wir verwenden jeweils die Terminologie, die für den Kontext am passendsten ist.

  • Divergenz: Ein Neuron erregt über Interneurone viele andere Neuronen.
  • Konvergenz: Viele Neuronen projizieren auf ein gemeinsames Zielneuron.

Während künstliche Netze Laufzeitverzögerungen und entfernungsabhängige Dämpfung meist ignorieren, besitzen biologische Axone genau diese Eigenschaften. Sie erweitern das Fähigkeitsspektrum erheblich und werden dort berücksichtigt, wo sie funktional relevant sind.

1.3  Mittelwertbildung mit und ohne asymptotische Begrenzung

Wirbeltiere nutzen Lebenserhaltungssysteme, die auf der Auswertung vieler Rezeptorsignale beruhen. Diese Systeme bilden regionale oder globale Mittelwerte, etwa für Blutdruck, Sauerstoffsättigung oder Blutzuckergehalt. Im Verlauf der Evolution fanden solche Mittelwerte Eingang in die neuronalen Systeme und übernahmen dort wichtige signaltheoretische Aufgaben.

Es entstanden zwei Formen der Mittelwertbildung:

  • Mittelwerte ohne asymptotische Begrenzung Sie besitzen eine annähernd lineare Kennlinie und dienen primär der Überwachung physiologischer Größen.
  • Mittelwerte mit asymptotischer Begrenzung Sie erzeugen Signale, deren Feuerrate sich einem konstanten Maximalwert annähert. Diese Form ist für die Signalinversion essenziell und erweitert die Möglichkeiten der Signalverarbeitung erheblich.

Damit entsteht ein funktionaler Übergang: Von der physiologischen Überwachung hin zu signaltheoretischen Operationen, die später für Divergenzmodule und On-Off-Paare entscheidend werden.

1.4  On- und Off-Signale

Viele Rezeptoren haben sich im Verlauf der Evolution in zwei komplementäre Gruppen aufgespalten:

  • On-Rezeptoren: Feuerrate steigt mit der Stärke der Urgröße (monoton wachsend).
  • Off-Rezeptoren: Feuerrate sinkt mit der Stärke der Urgröße (monoton fallend).

Beispiele:

  • Motorik: Sehnenorgane (On) vs. Signale des motorischen Gegenspielers (Off).
  • Helligkeitssehen: Hell-On- und Hell-Off-Rezeptoren.
  • Farbsehen: Rot-On/Grün-Off-Ganglienzellen.

Die Aufspaltung in On- und Off-Signale verbessert die Fähigkeit des Nervensystems, die Stärke einer Urgröße präzise zu beurteilen. In Divergenzmodulen wird diese Fähigkeit später systematisch ausgebaut.

1.5 Signalstärke und Signalinversion

On- und Off-Signale können ineinander überführt werden. Die biologische Signalinversion erfolgt in zwei Schritten:

  1. Umschalten des Signals auf einen hemmenden Transmitter (oft GABA).
  2. Hemmung eines asymptotisch begrenzten Mittelwertsignals, dessen Feuerrate etwa dem Doppelten des neuronalen Mittelwerts entspricht.

Das resultierende Restsignal ist das invertierte Signal. Die Summe aus Original- und invertiertem Signal ist eine Konstante und entspricht ungefähr dem Doppelten des statistischen Mittelwerts der Feuerraten.

Die gleichzeitige Verfügbarkeit beider Komponenten eines On-Off-Paares ermöglicht eine präzise Bestimmung der absoluten Stärke der zugrunde liegenden Urgröße. Dies ist ein zentraler Baustein für Divergenzmodule und damit für spätere intelligenzstiftende Mechanismen.

1.6 Elementarsignale und Komplexsignale

Für die Analyse neuronaler Schaltungen ist eine mengentheoretische Sicht hilfreich. Da Signale zeitabhängig sind, bezeichnen wir ein Signal als Zustand zu einem bestimmten Zeitpunkt oder in einem kurzen Intervall konstanter Stärke. Alternativ schreiben wir s = s(t).

Wir unterscheiden:

  • Elementarsignale
  • Komplexsignale: Mengen von Elementarsignalen, die durch Indizierung als Vektor aufgefasst werden können.

In künstlichen Netzen repräsentieren Knoten Elementarsignale oder Komplexsignale; in biologischen Netzen übernehmen Inputneuronen bzw. Outputneuronen diese Rollen.

Damit lassen sich neuronale Netze als Konvergenzschaltungen interpretieren, in denen Elementarsignale auf Komplexsignale konvergieren. In mehrschichtigen Netzen tritt ebenso häufig Divergenz auf, bei der Komplexsignale wieder in Elementarsignale zerlegt werden.

1.7  Synaptische Stärke und Gewichte

Zur vollständigen Charakterisierung eines neuronalen Netzes genügt die graphentheoretische Struktur nicht. Jede Verbindung besitzt eine synaptische Stärke, die als reelle Zahl angegeben wird:

  • positive Werte → erregend
  • negative Werte → hemmend

In der Netzwerktheorie spricht man von Gewichten. In künstlichen Netzen werden sie durch Lernalgorithmen bestimmt, die biologische Lernprozesse nachbilden oder ersetzen sollen.

Damit ist das Fundament gelegt, um im nächsten Kapitel die Lernmechanismen zu analysieren, die diese Gewichte verändern und damit die Grundlage für Intelligenz schaffen.

  •  
  • Kapitel 2

Monografie von Dr. rer. nat. Andreas Heinrich Malczan