La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Redes Neuronales Perceptron, Backpropagation, Adaline, Hopfield.

Presentaciones similares


Presentación del tema: "Redes Neuronales Perceptron, Backpropagation, Adaline, Hopfield."— Transcripción de la presentación:

1 Redes Neuronales Perceptron, Backpropagation, Adaline, Hopfield.
Algoritmos y ejemplos. Parte 2 M.C. Ernesto Cortés Pérez. Apuntes de la materia

2 Similitudes entre una neurona biológica y una artificial
Las entradas Xi representan las señales que provienen de otras neuronas y que son capturadas por las dendritas Los pesos Wi son la intensidad de la sinápsis que conecta dos neuronas; tanto Xi como Wi son valores reales.  es la función umbral que la neurona debe sobrepasar para activarse; este proceso ocurre biológicamente en el cuerpo de la célula.

3 Neurona Artificial Cada señal de entrada pasa a través de una ganancia o peso, llamado peso sináptico o fortaleza de la conexión cuya función es análoga a la de la función sináptica de la neurona biológica. Los pesos pueden ser positivos (excitatorios), o negativos (inhibitorios). Las señales de entrada a una neurona artificial X1, X2,.., Xn son variables continuas en lugar de pulsos discretos, como se presentan en una neurona biológica. El nodo sumatorio acumula todas las señales de entradas multiplicadas por los pesos o ponderadas y las pasa a la salida a través de una función umbral o función de transferencia. La entrada neta a cada unidad puede escribirse de la siguiente manera:

4 Neurona Artificial El valor de salida (único) se obtiene como
Cada neurona calcula su entrada neta como: Cada entrada es multiplicada por el peso de arco correspondiente.

5 Funciones de Transferencia
Hardlim (limitador fuerte) Esta función crea neuronas que clasifican las entradas en dos categorías diferentes.

6 Funciones de Transferencia
Hardlims (limitador fuerte simétrico) Esta función crea neuronas que clasifican las entradas en dos categorías diferentes.

7 Funciones de Transferencia
Purelin (Lineal) A diferencia de las anteriores, esta función no es acotada.

8 Funciones de Transferencia
Logsig (Sigmoide) Es acotada y derivable

9 Funciones de Transferencia

10 Arquitecturas formadas por una neurona
Comenzaremos trabajando con arquitecturas simples formadas por un único elemento de procesamiento. La neurona trabaja como una función discriminante lineal.

11 Perceptrón

12 Ejemplo Verifique si la siguiente neurona se comporta como la función lógica AND

13 Graficar la función discriminante (recta)
AND Graficar la función discriminante (recta)

14 Entrenamiento del perceptrón
Se busca una estrategia iterativa que permita adaptar los valores de las conexiones a medida que se presentan los datos de entrada. Ver que el estímulo de entrada se corresponde con el producto interior de los vectors X y W.

15 Ajuste del vector de pesos con taza de aprendizaje (Learning rate)
Recordemos que la salida del perceptrón es hardlim En general, si llamamos t al valor esperado y al valor obtenido Utilizando la siguiente expresión para cálcular W wnuevo = w +  (t - y) x

16 Present network with next inputs from epoch Err = t – y
While epoch produces an error Present network with next inputs from epoch Err = t – y If Err <> 0 then Wj = Wj + LR * Err * Ij End If End While

17 Entrenamiento del Perceptrón
Seleccionar el valor de  y  Inicializar los pesos de las conexiones con valores random (vector W) Mientras no se clasifiquen todos los patrones correctamente Ingresar un patrón a la red. Si fue clasificado incorrectamente Wnuevo = W +  (t - y) x

18 Ejemplo 1 Entrenar un perceptrón para que se comporte como la función lógica AND. Utilice  = 0.3  = 1.5 W1 = 0 W2 = 0.25

19 El proceso se repite hasta comprobar que todos los patrones son clasificados correctamente
Si Y  T, W1new= W (T-Y) X1 W2new= W (T-Y) X2 Si Y = T, W no se actualiza Wnew= W +  (T-Y) X AND X1 X2 T W W Y W1new W2new

20 Perceptrón Hardlim

21 Ejercicio Entrenar un perceptrón para que se comporte como la función lógica AND. Utilice  = 0.3 W0 = 0 W1 = 0 W2 = 0.25

22 Ejercicio X0 X1 X2 T W W W2 Salida NewW0 NewW1 NewW

23 Solución X0 X1 X2 T W W W2 Salida NewW0 NewW1 NewW

24 Red Neurona Artificial, Representación con ganancia (bias)
la nueva entrada b es una ganancia que refuerza la salida del sumador n, la cual es la salida neta de la red.

25 Regla de aprendizaje del Perceptron con ganancia
There are three conditions that can occur for a single neuron once an input vector p is presented and the network’s response a is calculated: CASE 1. If an input vector is presented and the output of the neuron is correct (a = t, and e = t – a = 0), then the weight vector w is not altered. CASE 2. If the neuron output is 0 and should have been 1 (a = 0 and t = 1, and e = t – a = 1) the input vector p is added to the weight vector w. CASE 3. If the neuron output is 1 and should have been 0 (a = 1 and t = 0, and e = t – a = –1) the input vector p is subtracted from the weight vector w.

26 The perceptron learning rule can be written in terms of the error:
e = t – a And the change will be made to the weight vector Δw

27 CASE 1. If e = 0, then make a change Δw equal to 0.
CASE 2. If e = 1, then make a change Δw equal to pT. CASE 3. If e = –1, then make a change Δw equal to –pT. All three cases can then be written with a single expression:

28 We can get the expression for changes in a neuron’s bias, which always has an input of 1:
For the case of a layer of neurons we have:

29 The Perceptron Learning Rule can be summarized as follows:

30 Soluciones obtenidas con la ganancia “b”, a las funciones “and” y “or”

31 El algoritmo de entrenamiento del Perceptrón con bias (ganancia)
Se inicializa la matriz de pesos y el valor de la ganancia, por lo general se asignan valores aleatorios a cada uno de los pesos wi y al valor b Se presenta el primer patrón a la red, junto con la salida esperada en forma de pares entrada/salida Se calcula la salida de la red por medio de: puede ser la función hardlim o hardlims

32 Bias: por lo general se le asigna un valor inicial de 1 y se ajusta durante la etapa de aprendizaje de la red.

33 4.- Cuando la red no retorna la salida correcta, es necesario alterar el valor de los pesos y el bias, tratando de aumentar las posibilidades de que la clasificación sea correcta.

34 Ejemplo 2 1 -> 1 0 -1 -> 1 -2 1 -> -1 0 2 -> -1
> 1 > 1 > -1 > -1 En este caso las salidas toman valores bipolares de 1 o –1

35 Los valores iniciales asignados aleatoriamente a los parámetros de la red son:

36 Iteración 0 Interceptos con los ejes:

37 Iteración 1

38 Iteración 1 De la iteración 1 p1 esta mal clasificado, la actualización de pesos permite que este patrón sea clasificado correctamente.

39 Iteración 1 La iteración 1 lleva a la característica de decisión

40 Iteración 2 Se presenta p2 a la red, y es clasificado correctamente, como se observo gráficamente.

41 Iteración 2 Este patrón ha sido clasificado correctamente y por lo tanto no hay actualización del conjunto de entrenamiento:

42 Iteración 3 Se presenta p3 a la red y es clasificado correctamente, como se observó gráficamente

43 Iteración 3 Como se esperaba, no hubo error en la clasificación de este patrón, y esto lleva a que no haya actualización de los pesos de la red

44 Iteración 4 Se presenta a la red p4

45 Iteración 4 La red ha clasificado incorrectamente este patrón y por lo tanto deben modificarse pesos y ganancias

46 Iteración 4 En esta iteración la red se comportara de acuerdo a la característica de decisión

47 La red ha clasificado correctamente los patrones de entrenamiento, después de entrenada la red con los pesos y ganancias finales, cualquier otro valor de entrada será clasificado según la característica de decisión mostrada. Ejercicio: verificar a que clase pertenecen los siguientes patrones: [-2 3] [ 3 3] [ 1 1] [-1 -1] [3 2] [ 5 -2]

48 Ejercicio 1

49 The output a does not equal the target value t1, so we use the perceptron rule to find the incremental changes to the weights and biases based on the error.

50 You can calculate the new weights and bias using the Perceptron update rules shown previously.

51

52

53 Ejercicio 2 Sobre una cinta transportadora circulan naranjas y melones. Se busca obtener un clasificador de frutas que facilite su almacenamiento. Para cada fruta se conoce su diámetro en centímetros, su intensidad de color naranja, medida entre 0 y 255, y su peso en gramos. Ejemplos: Naranjas = { (10,200,150), (8,150,100), (7,170,200), (15,250,180)} Melón = {(20,30,500), (26,30,780), (24,32,900), (19,31,500)} Entrenar un perceptrón que permita resolver el problema. Utilice como W inicial (0,0,0), y b =0. Nota: etiqueta naranjas =1, Melón =0. Una vez entrenado el perceptron verificar la clase a la que pertenecen los siguientes patrones desconocidos: (14,210,150) (180,199,23)

54 Ejercicio 3 Una agencia de modelos publicó los resultados de la última selección de postulantes. En ella se habían presentado seis mujeres. Cada una de ellas ha sido caracterizada sólo por su peso y altura. El resultado fue el siguiente: Aceptadas = {(52,1.79), (53,1.81), (55,1.75)} Rechazadas ={(65,1.70), (68,1.65),(58,1.71)} A) Represente el criterio de selección a través de una RN formada por un único perceptrón. B) Cuál sería la respuesta del perceptrón si se presentaran estas postulantes: {(56,1.73), (70,1.60), (45,1.80)} Resuelva el problema anterior en un programa en matlab

55 Ejercicio 4 Se cree que los niños aprenden mediante un proceso llamado razonamiento por analogías, en el que intentan asociar objetos parecidos a otros que ya conocen, y los intentan agrupar por categorías. Supón que un niño ha visto alguna vez un león en el zoológico y que sabe que es peligroso, y lo ha representado internamente por el patrón ( ) Un día va por la calle y se encuentra a un gato, que representaremos por el patrón ( ), despues se encuentra con animal parecido a los dos anteriores y lo asocia con el siguiente patrón ( ) ¿Debe salir corriendo el niño porque cree al verlo que se parece demasiado a un león? Modela ésta situación mediante un perceptrón.

56

57

58

59

60

61 Perceptrón con Matlab (etapa de aprendizaje)
] t =[ ] plotpv(p, t)

62 Perceptrón con Matlab (etapa de aprendizaje)
net=newp([-2 2;-2 2],1,'hardlims','learnp'); net.adaptParam.passes = 1; net.iw{1,1}= [ ]; net.b{1} = [0.5];

63 Iteración 1 [net,a,e]=adapt(net,p{1},t{1}); a e pesos=net.iw{1,1}
bias=net.b{1}

64 Resultados iteración 1 a = -1 e = 2 pesos = 3.3000 2.2000 bias =
bias = 2.5000

65 Iteración 2 net.iw{1,1}= pesos; net.b{1} = bias;
[net,a,e]=adapt(net,p{2},t{2});

66 Resultados iteración 2 a = 1 e = pesos = bias = 2.5000

67 Iteración 3 net.iw{1,1}= pesos; net.b{1} = bias;
[net,a,e]=adapt(net,p{3},t{3});

68 Resultados iteración 3 a = -1 e = pesos = bias = 2.5000

69 Iteración 4 net.iw{1,1}= pesos; net.b{1} = bias;
[net,a,e]=adapt(net,p{4},t{4});

70 Resultados iteración 4 a = 1 e = -2 pesos = 3.3000 -1.8000 bias =
bias = 0.5000

71 Aprendizaje completo Perceptrón con Matlab (1 época)
net=newp([-2 2;-2 2],1,'hardlims','learnp'); net.adaptParam.passes = 1; net.iw{1,1}= [ ]; net.b{1} = [0.5]; [net,a,e]=adapt(net,p,t);

72 1era época a = [-1] [1] [-1] [1] e = [2] [0] [0] [-2] pesos =
[-1] [1] [-1] [1] e = [2] [0] [0] [-2] pesos = bias = 0.5000

73 Resultado en 2 épocas net.adaptParam.passes = 2; t = [1] [1] [-1] [-1]
[1] [1] [-1] [-1] a = e = [0] [0] [0] [0] pesos = bias = 0.5000

74 Patrones ya clasificados
plotpc(pesos, bias)

75 Etapa de reconocimiento
a1=sim(net,p1) a1 = -1

76 Perceptrón Multicapa Un Perceptrón multicapa es una red con alimentación hacia delante, compuesta de varias capas de neuronas entre la entrada y la salida de la misma, esta red permite establecer regiones de decisión mucho más complejas.

77 Esquema

78 Un esquema simplificado del modelo del Perceptrón Multicapa
Donde W: Matriz o vector de pesos asignada a cada una de las entradas de la red de dimensiones SxR, con S igual al número de neuronas, y R la dimensión del vector de entrada p: Vector de entradas a la red de dimensiones Rx1 b: Vector de ganancias de la red de dimensiones Sx1

79 Las capacidades del Perceptrón multicapa con dos y tres capas y con una única neurona en la capa de salida

80 Redes multicapa Ver que el perceptrón no puede resolver el problema del XOR porque no es linealmente separable. > 0 > 1 1 -1 -> 1 1 1 -> 0

81 XOR usando mas de un perceptrón
w11=1 w12=1; w21=1 w22=1; w31=1 w32=-1.5 b1=-0.5 b2=-1.5 b3=-0.5

82 Función de activación en la capa oculta
a = tansig(n) = 2/(1+exp(-2*n))-1 purelin en la capa de salida 0.0107 Capa oculta f(((-1  1) + (-1  1))+(-0.5)) = f(-2 + (-0.5)) = f(-2.5)= f(((-1  1) + (-1  1))+(-1.5)) = f(-2 + (-1.5)) = f(-3.5)= Capa de salida f(((  1) + (  -1.5))+(-0.5)) = f( (-0.5)) = f(0.0107)=

83 Adaline Al mismo tiempo que Frank Rosenblatt trabajaba en el modelo del Perceptrón Bernard Widrow y su estudiante Marcian Hoff introdujeron el modelo de la red Adaline.

84 Adaline La red Adaline es similar al Perceptrón, excepto en su función de transferencia, la cual es una función de tipo lineal en lugar de un limitador fuerte como en el caso del Perceptrón.

85 Adaline La red Adaline presenta la misma limitación del Perceptrón en cuanto al tipo de problemas que pueden resolver, ambas redes pueden solo resolver problemas linealmente separables.

86 Adaline Sin embargo el algoritmo LMS (Least Mean Square) es más potente que la regla de aprendizaje del Perceptrón ya que minimiza el error medio cuadrático.

87 Perceptron vs Adaline

88 Regla «delta» de aprendizaje de Adaline

89 Regla «delta» de aprendizaje de Adaline

90 Algoritmo LMS (Least Mean squares)
w(k+1)=w(k) + alpha*error(k)*entrada b(k+1)=b(k) + alpha*error(k)

91 Diferencias perceptron - adaline
ADALINE calcula el error a partir de la entrada neta, y el PERCEPTRON usa la salida. El error total del ADALINE nunca será nulo, por lo que la condición de terminación del algoritlno LMS suele ser: Error(t)- Error(t-1) < ξ Aparece el parámetro alpha=tasa de aprendizaje alpha debe poseer en teoría valores infinitamente pequeños. Se obtienen buenos resultados con valores en torno a 0.1. ADALINE garantiza no sólo una solución válida para problemas linealmente separables sino la que produce un error mínimo.

92 Backpropagation (antecedentes)
El primer algoritmo de entrenamiento para redes multicapa fue desarrollado por Paul Werbos en 1974, Fue solo hasta mediados de los años 80 cuando el algoritmo Backpropagation o algoritmo de propagación inversa fue re-descubierto.

93 Backpropagation La importancia de esta red consiste en que, las neuronas de las capas intermedias se organizan a sí mismas de tal modo que las distintas neuronas aprenden a reconocer distintas características del espacio total de entrada.

94 Backpropagation Después del entrenamiento, cuando se les presente un patrón arbitrario de entrada que contenga ruido o que esté incompleto, las neuronas de la capa oculta de la red responderán con una salida activa si la nueva entrada contiene un patrón que se asemeje a aquella característica que las neuronas individuales hayan aprendido a reconocer durante su entrenamiento.

95 Backpropagation Y a la inversa, las unidades de las capas ocultas tienen una tendencia a inhibir su salida si el patrón de entrada no contiene la característica para reconocer, para la cual han sido entrenadas.

96 Backpropagation Varias investigaciones han demostrado que, durante el proceso de entrenamiento, la red Backpropagation tiende a desarrollar relaciones internas entre neuronas con el fin de organizar los datos de entrenamiento en clases.

97 Arquitectura

98 Regla de Aprendizaje mediante reducción del error
q: Equivale al número de componentes el vector de entrada. m: Número de neuronas de la capa oculta l: Número de neuronas de la capa de salida

99 Para iniciar el entrenamiento se le presenta a la red un patrón de entrenamiento, el cual tiene q componentes:

100 Cuando se le presenta a la red una patrón de entrenamiento, este se propaga a través de las conexiones existentes produciendo una entrada neta n en cada una las neuronas de la siguiente capa. W: Peso que une la componente i de la entrada con la neurona j de la capa oculta p: Componente i del vector p que contiene el patrón de entrenamiento de q componentes b: Ganancia de la neurona j de la capa oculta

101 Compute the Sensitivities (Backpropagation)
Sensitivity

102 Backpropagation (Sensitivities)
The sensitivities are computed by starting at the last layer, and then propagating backwards through the network to the first layer.

103 Initialization (Last Layer)

104 Summary Forward Propagation Backpropagation Weight Update

105 Example: Function Approximation with logsig
- e + 1-2-1 Network a

106 Network 1-2-1 Network a p

107 Initial Conditions ∞=0.1

108 Forward Propagation

109 Transfer Function Derivatives
1 n ( ) d e + - è ø æ ö 2 a = f 2 n ( ) d 1 =

110 Backpropagation s F n t a s F n W ( ) – f 1.261 1 2.522 = ( ) a – 0.09
0.09 0.17 2.522 =

111 Weight Update

112 Choice of Architecture
p ( ) 1 i 4 - è ø æ ö sin + = 1-3-1 Network i = 1 i = 2 i = 4 i = 8

113 Choice of Network Architecture
p ( ) 1 6 4 - è ø æ ö sin + = 1-2-1 1-3-1 1-4-1 1-5-1

114 Convergence t p ( ) 1 sin + = 5 1 5 3 3 4 2 4 2 1

115 Generalization t p ( ) 1 4 - è ø æ ö sin + = 1-2-1 1-9-1

116 Ejemplo con tangente sigmoidal
Tansig ó

117 Derivadas de tansig y purelin
TanSig Purelin

118 Los valores de las derivadas del error medio cuadrático son:
tansig purelin

119

120 Aproximar la siguiente función

121 Conjunto de entrenamiento

122

123 Valores iniciales función 1

124 Aproximar la siguiente función 2

125 p = -1:0.1:1; t = [-.9602, , , , , , , , .3072, , , , , , ];

126 ρ=0.01; w1 = [3.5000; ; ; ; ]; b1 = [ ; ; ; ; ]; w2 = [0.2622, , , , ]; b2 = [0.1326];

127 Función 3

128 Clasificador de vocales
Representación de letras A=[ ; ; ; ];

129 A=[ ; ; ; ]; E=[ ; ; ]; I=[ ; ; ]; O=[ ; ; ]; U=[ ; ; ];

130 Matriz de patrones A E I O U 1 1 1 1 1

131 Matriz de etiquetas

132 Patrón letra “A” t 1 0.1 0.0

133 Aproximación de función con Newff (matlab)
t=sin(pi*p/4); %p=[ ]; %t=[ ]; net =newff(p, t ,[5 1],{'tansig','purelin'},'traingdx','learngdm','mse');

134 net.divideFcn = ''; net.trainParam.show = 10; net.trainParam.epochs = 100; net.trainParam.lr = 0.01; net.trainparam.goal=0.001;

135 net = train(net,p,t); y2 = sim(net,p); plot(p,t,'-b',p,y2,'-r');

136 Clasificador de vocales
; ; ]; figure(1),imagesc(A) AA=A(:); %Convierte la matriz a vector

137 Crea matriz de patrones
matriz=cat(2,AA,EE,II,OO,UU);

138 meta=[ ; ; ; ; ];

139 net = newff(matriz, meta,[50 5],{'tansig', 'purelin'},'trainscg');
net.divideFcn = ''; net.trainParam.show = 10; net.trainParam.epochs = 200; net.trainParam.lr = 0.001; net.trainparam.min_grad=1e-20; net.trainparam.goal= ;

140 ENTRENA LA RED CON LAS CARACTERISTICAS ANTES ESTABLECIDAS
[net,tr] = train(net,matriz,meta);

141 Patrón de prueba X=[1 1 1 1 1; 1 0 0 0 1; 1 1 1 1 1; 1 0 1 0 1;
]; figure(6),imagesc(X) XX=X(:); y=sim(net,XX) [a, clase_obtenida]=max(y)

142 Clasificador alfabético

143

144 Hopfield Uno de los principales responsables del desarrollo que ha experimentado la computación neuronal ha sido J. Hopfield. Este modelo consiste en una red monocapa con N neuronas cuyos valores de salida son binarios : 0/1 ó -1/+1

145 Las funciones de activación son del tipo escalón
Las funciones de activación son del tipo escalón. Se trata, por tanto, de una red discreta con entradas y salidas binarias. f(x) = +1 si x > 0i f(x) = -1 si x < 0ii f(x) = x si x = 0ii

146 0i es el umbral de disparo de la neurona i, que representa el desplazamiento de la función de transferencia. En este modelo suele adoptar un valor proporcional a la suma de los pesos de las conexiones de cada neurona con el resto: donde : ∑ es la sumatoria desde j = 1 hasta N k es la constante de proporcionalidad

147 Existen conexiones laterales (cada neurona se encuentra conectada a todas las demás) pero no autorrecurrentes (no consigo misma). Los pesos asociados a las conexiones entre pares de neuronas son simétricos (wij = wji)

148 Funcionamiento Se trata de una red autoasociativa. Por tanto, diferentes patrones pueden ser almacenados en la red, como si de una memoria se tratase, durante la etapa de aprendizaje.

149 Aprendizaje El mecanismo de aprendizaje utilizado es de tipo OFF LINE, por lo que existe una etapa de aprendizaje y otra de funcionamiento de la red. Utiliza aprendizaje no supervisado.

150 Utilizando una notación matricial, para representar los pesos de la red se puede utilizar una matriz de dimensión NxN (N es el número de neuronas de la red y por tanto de componentes del vector de entrada). Esta matriz es simétrica (wij = wji) y con la diagonal con valores nulos (wii = 0) al no haber conexiones autorecurrentes.

151 Utilizando esta notación, el aprendizaje consistiría en la creación de la matriz de pesos W a partir de los k vectores de entrada que se enseñan a la red. W = (T(Ek). Ek - I) Donde es la sumatoria para k igual a 1 hasta el número de neuronas, N T(Ek) es la transpuesta de la matriz Ek I es la matriz identidad que anula los pesos de las conexiones autorecurrentes wii

152 Ejemplo: Hopfield Patrón 1 Patrón 2
El entrenamiento va a consistir en el aprendizaje de dos patrones de cuatro pixeles cada una. Los pixeles se representan mediante el valor -1 si es blanco y 1 si es negro. Patrón 1  Patrón 2

153 Los valores de los vectores de entrada que representan cada patrón son:
E1= [1,1,-1,-1] y E2 = [-1,-1,1,1] Por tanto, los patrones de entrada a la red van a ser dos vectores (M=2) de 4 elementos (N=4) conteniendo los valores de los píxeles.

154 Etapa de aprendizaje El aprendizaje de estos dos patrones consiste en la obtención de los pesos de la red (matriz W). Para la entrada E1, la salida W1 es:  W1 1 -1 TE1.E1-I = . - =

155 Para la entrada E2, la salida W2 es:
-1 1 TE2.E2-I = . - =

156 Sumando W1 y W2 se obtiene la matriz de pesos definitiva, W:
2 -2 W=W1+W2 =

157 Etapa de funcionamiento
Si aplicamos a la red la entrada:

158 E = [1 -1 -1 -1] , el vector de salida seria:

159 Como suponemos una función de activación de cada neurona de tipo escalón con desplazamiento sobre el origen, ß=0, la salida de la red después de la primera iteración es: S(t) = [ ]

160 Repitiendo el proceso, tomando como entrada la salida anterior, S
S(t)

161 Aplicando igualmente la función de activación la salida obtenida es:
S(t+1) = [ ] Al repetirse la salida, la red se ha estabilizado, generándose el patrón más parecido al que se ha presentado como entrada.

162 Cálculo de energía para cada patrón

163 Distancia de Hamming En Teoría de la Información se denomina distancia de Hamming a la efectividad de los códigos de bloque y depende de la diferencia entre una palabra de código válida y otra. Por ejemplo: La distancia Hamming entre y es 2. La distancia Hamming entre y es 3. La distancia Hamming entre "toned" y "roses" es 3.

164 Calculo de distancias Hamming Euclidea Distancia Minkowski, p=2
Distancia Manhatan o City-Block

165 Ejercicio 1 Patrones de entrada (7 X 6):
y comprobar su funcionamiento para la figura distorsionada

166 Ejercicio 2 Distorsionar en 20% la letra A

167 Ejercicio 3

168 Gracias!

169 Cada una de las neuronas de la capa oculta tiene como salida a
f: Función de transferencia de las neuronas de la capa oculta

170 La salida de la red de cada neurona a se compara con la salida deseada t para calcular el error en cada unidad de salida

171 El error medio cuadrático para patrón es:

172 Calculo del error en la capa de salida:
Calculo del error en la capa oculta:

173 Actualización de los pesos que conectan la capa oculta con la capa de salida:
Para los pesos conectados de la capa oculta con la entrada:

174 Backpropagation (sentividad)

175 Las sensitividades, empezando desde la última hasta la primera capa.
tansig purelin

176 Luego de encontrar el valor del gradiente del error se procede a actualizar los pesos.
Para la actualización de los pesos que conectan la capa oculta con la capa de salida: Para la actualización de los pesos que conectan la capa de entrada con la capa oculta:


Descargar ppt "Redes Neuronales Perceptron, Backpropagation, Adaline, Hopfield."

Presentaciones similares


Anuncios Google