Information Technology Reference
In-Depth Information
von dieser Matrix abgezogen werden, um sicherzustellen, dass die Diagonale der
Gewichtsmatrix 0 ist, denn in einem Hopfield-Netz gibt es ja keine Selbstrückkopp-
lungen der Neuronen. Mit dieser Matrix W haben wir für das Muster p :
( =
W p =( pp T ) p E p
= p
p ( p T p )
=| p | 2 = n
p
= np
p =( n 1 ) p .
() gilt, weil Matrix- und Vektormultiplikationen assoziativ sind, wir folglich die
Klammern versetzen können. Mit versetzten Klammern muss man zuerst das Ska-
larprodukt (auch: inneres Produkt) des Vektors p mit sich selbst bestimmen. Dies
liefert gerade seine quadrierte Länge. Wir wissen nun aber, dass p {1, 1} n und
daher, dass p T p = |
p | 2 = n .Dawir n 2vorausgesetzthaben,ist,wieerforderlich,
c =( n 1) > 0. Also ist das Muster p ein stabiler Zustand des Hopfield-Netzes.
Schreibt man die Berechnungen in einzelnen Gewichten, so erhält man:
0,
falls u = v ,
falls u = v ,act ( p u = act ( p )
w uv =
1,
,
v
1,
sonst.
Diese Regel nennt man auch die Hebbsche Lernregel [Hebb 1949]. Sie wurde ursprüng-
lich aus einer biologischen Analogie abgeleitet: Verstärkt wird die Verbindung zwi-
schen zwei gleichzeitig aktiven Neuronen.
Man beachte allerdings, dass mit diesem Verfahren auch das zu dem Muster p
komplementäre Muster
p stabiler Zustand wird. Denn mit
W p =( n 1) p
W (
p )=( n 1)(
p ).
gilt natürlich auch
Diese Speicherung des Komplementmusters lässt sich leider nicht vermeiden.
Sollen mehrere Muster p 1 ,..., p m , m < n ,gespeichertwerden,soberechnetman
für jedes Muster p i eine Matrix W i (wie oben angegeben) und berechnet die Ge-
wichtsmatrix W als Summe dieser Matrizen, also
m
i = 1 W i =
m
i = 1 p i p T
W =
m E .
i
Sind die zu speichernden Muster paarweise orthogonal (d. h., stehen die zugehö-
rigen Vektoren senkrecht aufeinander), so erhält man mit dieser Matrix W für ein
beliebiges Muster p j , j { 1, . . . , m } :
m
i =1 W i p j =
m
i =1 ( p i p i ) p j
W p j =
m E p j
= p j
m
i = 1 p i ( p i p j )
=
mp j
Search WWH ::




Custom Search