zum Directory-modus

Neuronale Netze - komplett

Neuronen des Perzeptrons

Die Neuronen der Eingabeschicht werden in diesem Modell nicht spezifiziert. Es genügt, wenn man sie als binäre Eingaben betrachtet. Ein einzelnes Neuron von Ebene 0 oder 1 des Perzeptrons hat das in (Abb. 1) rechts dargestellte Verhalten.

Abb.1
Struktur des Perzeptrons

Es summiert seine Eingaben auf, die sich als Ausgaben der Vorgängerneuronen o i multipliziert mit dem jeweiligen Gewicht w i j ergeben und wendet auf diese Netzeingabe net j eine binäre Schwellenwertfunktion an. Die Ausgabe o j ist 1, falls die Netzeingabe größer ist als der Schwellenwert j oder den gleichen Wert besitzt, andernfalls ist die Ausgabe 0.

net j = i o i w i j o j = a j = 1 falls net j Θ j 0 sonst

Es ist offensichtlich, dass ein Perzeptron nicht nur ein Ausgabeneuron haben kann, sondern beliebig viele Neuronen in Ebene 1, ohne dass sich an dem Prinzip des Perzeptrons viel ändert.

Um die folgende Diskussion besser verstehen zu können, müssen hier noch zwei Termini eingeführt werden, die für die Abschätzung der Leistungsfähigkeit von neuronalen Netzen notwendig sind:

Repräsentierbarkeit bezeichnet die Fähigkeit eines Netzes, eine gegebene Funktion (Prädikat) mit dem neuronalen Netz realisieren zu können. Hierbei ist die Topologie des Netzes vorgegeben, es dürfen aber alle Gewichte und Schwellenwerte korrekt bzw. optimal gewählt werden.

Lernfähigkeit ist die Fähigkeit eines Lernalgorithmus, ein Netzwerk eine repräsentierbare Funktion (Prädikat) lernen zu lassen, d.h. die Gewichte und Schwellenwerte durch den Algorithmus korrekt zu bestimmen.

Die Unterscheidung zwischen Repräsentierbarkeit und Lernfähigkeit ist sehr wichtig: Während Repräsentierbarkeit eine Fähigkeit eines Netzes darstellt und nur von der Topologie und den gewählten Aktivierungs- und Ausgabefunktionen des Netzes abhängt, jedoch unabhängig ist von einem gewählten Lernalgorithmus, ist Lernfähigkeit eine Eigenschaft eines speziellen Lernalgorithmus. Die Unterscheidung ist auch aus historischen Gründen sehr wichtig, weil sie in der ersten Blütephase neuronaler Netze noch nicht bekannt war und daher ein berühmtes Theorem, das Perzeptron-Lern-Theorem (perceptron convergence theorem) von F. Rosenblatt über die Fähigkeit des Perzeptron-Lernalgorithmus, meist falsch verstanden wurde.

Perzeptron-Lern-Theorem
Der Lernalgorithmus des Perzeptrons konvergiert in endlicher Zeit, d.h. das Perzeptron kann in endlicher Zeit alles lernen, was es repräsentieren kann.

Problematisch ist nur, dass ein einstufiges Perzeptron nur sehr wenige Funktionen repräsentieren kann. Dies wird in den folgenden Abschnitten deutlich.

Seite 24 von 33