Redes Neuronales Artificiales 3 - Perceptrones Dr. Juan José Flores Romero División de Estudios de Posgrado Facultad de Ingeniería Eléctrica
Curso Redes Neuronales Artificiales CONTENIDO Introducción Aprendizaje Perceptrones mono-nivel Perceptrones multi-nivel Otras Arquitecturas
Separación Lineal Perceptrones Monocapa Condición crítica de clasificación: Para 2-D: Despejando: Tutorial Matlab: ch 2 – 1 ch 2 – 2 ch 3 – 1
Separación Lineal Hyperplanos
Separación Lineal Enfoque Vectorial Condición crítica de clasificación:
Aprendizaje Falso Negativo Conjunto de Entrenamiento: {v,t} Supongamos que t=1, pero y=0 Necesitamos que w apunte en dirección de v Con cambios no muy bruscos
Aprendizaje Falso Positivo Ahora supongamos que t=0, pero y=1 Necesitamos que w apunte en dirección de -v Con cambios no muy bruscos
Aprendizaje Generalización t=1, y=0 t=0, y=1 Repeat para cada (v, t) y=f(v) if y t calcular w’ until y=t para todo el TS Tutorial Matlab: ch 4 – 1 ch 4 – 2
Clasificadores con +2 Clases
Clases linealmente separables Separables por hyperplanos
Clases No Separables Linealmente
Tutorial Matlab: ch 11 – 1
Regla Delta
Regla Delta - Multicapa BACKPROP: La neurona oculta j es responsable de parte del error i
Algoritmo BackPropagation
Learning Tutorial Matlab: ch 10 – 3 ch 11 – 2 ch 11 – 3
Overfitting – Demasiadas Neuronas
Overfitting – Mala Generalización
Mínimos Locales
Momento Si el incremento en t es positivo y en t+1 también, el paso en t+1 es mayor Si en t el incremento es positivo y en t+1 es negativo, el paso en t+1 es menor Si el incremento en t es positivo y en t+1 también, el paso en t+1 es mayor Si en t el incremento es positivo y en t+1 es negativo, el paso en t+1 es menor