Aprendizaje asociativo
Problema P15.1
En forma escalar
Iterando dos veces
sustituyendo
Sustituyendo los valores 0 y 1
Hay estabilidad, ¿por?
Para valores pequeños de γ, respecto a α, los valores del peso se aproximan a infinito
[LR,DR] = meshgrid(dr,lr);
MW = LR ./ (DR .* (2 - DR));
Problema P15.2
p = [1 -1 -1]'; % siempre activo
a = hardlim(w0*p0 + W*p - 2)
a = hardlim(w0*p0 + W*p - 2)
a = hardlim(w0*p0 + W*p - 2)
a = hardlim(w0*p0 + W*p - 2)
a = hardlim(w0*p0 + W*p - 2)
a = hardlim(w0*p0 + W*p - 2)
En la iteración 17
Problema P15.3
- Tres entradas una para cada componente
- Dos salidas una para cada neurona
Se eleigen los pesos igual alos vectores para que cuando se tenga la entrada se tenga el máximo producto punto
Observamos que las entradas tienen la misma magnitud
la relación exacta ocurrira si las desviaciones se eligen como
a = hardlim(W*p1 + b) % respode en la asociación a p1
a = hardlim(W*p3 + b) % como no es ninguna entrada deseada no hay respuesta
Problema P15.4
La salida de la neurona
Solo se activará si
para los datos
Un vector en la formatera de asociación
Se elige la primer componente a cero (puede ser otra opción, y otra componente)
Resolviendo la cuadrática
eligiendo un valor
Entonces el vector
Probamos la asociación, se verifica la frontera
Problema P15.5
p = [-1 1]'; % siempre activo
a1 = hardlim(w0*p0 + W*p - 2)
W1 = W0' + alpha * a1 * (p-W0')
a2 = hardlim(w0*p0 + W1'*p - 2)
W2 = W1 + alpha * a2 * (p-W1)
a3 = hardlim(w0*p0 + W2'*p - 2)
W3 = W2 + alpha * a3 * (p-W2)
a4 = hardlim(w0*p0 + W3'*p - 2)
W4 = W3 + alpha * a4 * (p-W3)
Continuando con esto, se llega a 
App
Unsupervised Hebb Rule
nnd13uh % Versiones del libro, en 2014 este cap es el 15 antes 13
Hebb with Decay
Effect of Decay Rate
Graphical Instar
Outstar Rule
Referencias
El material se toma del libro de Martin Hagan et. al. enlace