zum Directory-modus

Tutorial MenueNeuronale Netze - Eine EinführungLerneinheit 1 von 5

Neuronale Netze - Einführung

Eigenschaften Neuronaler Netze

Vorteile

Neuronale Netze haben gegenüber herkömmlichen Ansätzen viele positive Eigenschaften:

Lernfähigkeit
Neuronale Netze werden zumeist nicht programmiert, sondern durch ein Lernverfahren mit einer großen Klasse von Trainingsmustern trainiert. Damit sind sie eher als fest programmierte Algorithmen in der Lage, ihr Verhalten (d.h. ihre Ausgaben) geänderten Eingaben anzupassen.
Parallelität
Neuronale Netze sind bereits vom Ansatz her massiv parallel und daher für eine Implementierung oder Simulation auf Parallelrechnern sehr geeignet.
Verteilte Wissensrepräsentation
Bei fast allen neuronalen Modellen ist das Wissen des neuronalen Netzes in den Gewichten verteilt gespeichert. Zum einen ermöglicht dies erst die hochgradig parallele Verarbeitung, zum anderen bewirkt es eine höhere Fehlertoleranz des Gesamtsystems gegenüber Ausfall einzelner Neuronen oder Verbindungen.
Höhere Fehlertoleranz
Durch die verteilte Repräsentation können neuronale Netze eine höhere Fehlertoleranz bei Ausfall einzelner Komponenten als herkömmliche Algorithmen besitzen. Dies gilt allerdings nur, wenn Fehlertoleranz beim Entwurf des Systems (z.B. bei der Dimensionierung des Netzes, der Kodierung der Werte und beim Lernverfahren) mit berücksichtigt wurde. Nicht jedes trainierte neuronale Netz ist automatisch fehlertolerant.
Assoziative Speicherung von Information
Information wird hier inhaltsbezogen, d.h. assoziativ gespeichert und nicht adressenbezogen, wie in konventionellen Rechnerarchitekturen und Programmen. Mit neuronalen Netzen ist es leicht, ein zum eingegebenen Muster ähnliches Muster abzurufen.
Robustheit gegen Störungen oder verrauschte Daten
Neuronale Netze haben den Vorteil, dass sie, wenn sie richtig trainiert wurden, bei verrauschten Daten oder Störungen in den Eingabemustern meist weniger empfindlich reagieren als konventionelle Algorithmen.
Default-Werte und spontane Generalisierung
Neuronale Netze bilden oft automatisch Prototypen von Eingabemustern, die derselben Klasse zugeordnet werden. Diese automatische Generalisierung liefert auch quasi umsonst Default-Werte für nicht vollständig spezifizierte Parameter von Mustern, die als Eingabe an ein neuronales Netz angelegt werden.
Aktive Repräsentation
Neuronale Netze realisieren eine aktive Repräsentation, d.h. die Repräsentation ist nicht passiv, sondern eine aktive Komponente (Programm) greift auf sie zu. Die Repräsentation des Wissens in den Verbindungsgewichten ist gleichzeitig an der Verarbeitung beteiligt.

Nachteile

Allerdings muss man in einer Wertung auch die negativen Eigenschaften neuronaler Netze berücksichtigen. Dies sind beispielsweise:

Wissenserwerb ist nur durch Lernen möglich
Speziell bei einer verteilten Repräsentation ist es sehr schwer, einem neuronalen Netz ein gewisses Basiswissen bereits mitzugeben, wie dies etwa bei lernfähigen symbolischen 1)-Systemen in Form einer Wissensbasis möglich ist. Es gibt nur ganz wenige Anwendungen neuronaler Netze, bei denen die Gewichte durch einen externen Algorithmus vorbestimmt sind (z.B. bei Hopfield-Netzen für Optimierungsprobleme), normalerweise geschieht der Wissenserwerb nur durch Lernen.
Keine Introspektion möglich
Neuronale Netze können keine Introspektion, d.h. keine Analyse ihres eigenen Wissens oder Problemlösevorgangs durchführen, wie dies etwa die Erklärungskomponenten von Expertensystemen tun können. Auch die Analyse des Wissens eines Netzwerks ist sehr schwierig.
Logisches (sequentielles) Schließen ist schwierig
Sequentielles logisches Schließen in Form von Inferenzketten ist mit neuronalen Netzen nur schwierig durchzuführen. Es gibt zwar bereits Ansätze, Theorembeweise mit neuronalen Netzen zu bauen, diese sind aber alleine schon wegen der kombinatorischen Explosion der Anzahl der dafür benötigten Neuronen und Verbindungen in der vorgeschlagenen Form praktisch nicht einsetzbar.
Lernen ist relativ langsam
Fast alle populären Lernverfahren, wie beispielsweise auch die Varianten des bekannten Backpropagation-Algorithmus, lernen sehr langsam. Dies ist insbesondere dann der Fall, wenn Netzwerke verwendet werden, die vollständig ebenenweise verbunden sind, d.h. bei denen jedes Neuron einer Ebene mit allen Neuronen der nächsten Ebene verbunden ist. Auch die vielen Verbesserungen und Optimierungen der bekannten Verfahren können dieses Problem zwar reduzieren, aber nicht vollständig lösen.
Seite 5 von 6