Redes Neurais Artificiais
Memória BAM
nExemplo - continuação
–Tomemos X0=[-1,-1,-1,1,-1,1,1,-1,-1,1]T
–h(X0,X1)=1 e h(X0,X2)=7 (distância de Hamming)
–Fazemos Y0 igual a um dos vetores exemplares (ou usamos um vetor bipolar aleatório) Y0=Y2=[1,1,1,1,-1,-1]T.
–Propagamos de X para Y, já que a “chave” é X0.
–netY=W.X0=[4,-12,-12,-12,4,12]T
–Calculamos o novo vetor Y, Ynew=[1,-1,-1,-1,1,1]T
–Propagamos agora de Y para X.
–netX=[4,-8,-8,8,-4,8,4,-8,-4,8]T
–Calculamos o novo vetor X, Xnew=[1,-1,-1,1,-1,1,1,-1,-1,1]T
–Novas propagações não alterarão o resultado e portanto consideramos a memória estabilizada e com o padrão X1 recuperado.
–
–
–
n