zum Directory-modus

Neuronale Netze - komplett

Lernverfahren des Perzeptrons

Das Lernverfahren des Perzeptrons wird hier nur für den einstufigen Fall vorgestellt, für den mehrstufigen Fall gibt es andere, bessere Lernverfahren. Das hier vorgestellte Lernverfahren basiert auf der Hebb'schen Regel. Es kann als Programm in Pseudo-Notation folgendermaßen formuliert werden:


while Menge der Eingabemuster nicht leer do
  lege neues Eingabemuster I an und berechne Ausgabemuster O
  for each j in OutputNeurons do
    if oj = tj then "tue nichts"
    else
      if oj = 0 then
        {Ausgabe ist 0, sollte 1 sein, also wij erhöhen}
        for each i in InputNeurons do
          wij:= wij + oi
        endfor
      endif
      if oj = 1 then
        {Ausgabe ist 1, sollte 0 sein, also wij verringern}
        for each i in InputNeurons do
          wij:= wij - oi
        endfor
      endif
    endif
  endfor
endwhile

Wenn Ausgabe und erwartete Ausgabe (teaching input) übereinstimmen, führt das Programm keine Gewichtsänderung bei einem Ausgabeneuron durch. Sind sie unterschiedlich und hat die Ausgabezelle j den Wert 0, dann wird das Gewicht zwischen i und j um die Ausgabe von i (0 oder 1) erhöht. Ist die Ausgabe falsch und hat den Wert 1, dann wird das Gewicht zwischen i und j um die Ausgabe von i (0 oder 1) verringert. Eine Gewichtsänderung erfolgt also nur, wenn die Ausgabe o j einen falschen Wert hat ( o j t j ) und die Ausgabe o i des Vorgängerneurons den Wert 1 hat.

Seite 28 von 33