Descargar la presentación
La descarga está en progreso. Por favor, espere
1
INTRODUCCION A TECNICAS DE MINERIA DE DATOS
Redes Neuronales Mg. Samuel Oporto Díaz Lima, 28 de Diciembre 2005
2
Tabla de Contenido Neuronas Artificiales
Análisis de las Redes Neuronales
3
NEURONAS ARTIFICIALES
Redes Neuronales
4
Redes Neuronales Modelo matemático inspirados en el funcionamientos de las neuronas biológicas. Aprendizaje basado en la experiencia. Compuesta por unidades de procesamiento (neuronas) Las unidades están ligadas por conexiones (sinapsis) Modela funciones complejas y no-lineales. Herramienta matemática, similar al análisis estadístico. Apoyada por computadoras de alta velocidad.
5
Neuronas Artificiales
Súper-simplificación Analogía Metafórica Sorprendente poder de cómputo
6
Características El estilo de procesamiento como el de procesamiento de señales, no simbólico. No hay instrucciones. La información se almacena en un conjunto de pesos, no en un programa. Los pesos se adaptan. Tolerantes a ruido: pequeños cambios en la entrada no afecta drásticamente la salida de la red. La memoria se trata como patrones de actividad almacenada en toda la red y no como el contenido de pequeños grupos de celdas de memoria. La red puede generalizar el conjunto de entrenamiento y así tratar con ejemplos no conocidos. Son buenas para tareas perceptuales y asociaciones. Difícil para la computación tradicional.
7
TIPOS DE REDES NEURONALES
8
Redes Neuronales Artificiales
Interconexión entre neuronas Decide flujo de información en red Total genera lazos en flujo de datos redes recurrentes Parcial en capas: entrada, internas, salida Recurrente: contiene lazos Feedforward: no contiene lazos Junto con pesos y funciones de salida de cada neurona definen comportamiento global de la red Se debe definir la forma de actualización de estados de cada neurona en la red secuencial, asíncrono, sincrónico especialmente importante en redes recurrentes o con dinámica temporal u y
9
Perceptron Perceptron Separa espacio con hiperplano
y = f ( w1 u1 + w2 u wn un ), f(s) = { 1 si s0, 0 si s<0 } Puede incluir offset w0. Importante históricamente estudiado muy detalladamente (Minsky y Papert ‘69) Es un clasificador lineal en 2 clases. bueno si patrones linealmente separables XOR problem Análogo a clasificador de Bayes gaussiano. minimiza probabilidad de error clasificador denominado paramétrico wt.u=0 u1 u2
10
Perceptron
11
Perceptron
12
Adaline Adaptive Linear Element Estructura:
y=0 Adaptive Linear Element Estructura: Como un Perceptron pero con función lineal a la salida. Permite trabajar con problemas mas generales Widrow y Hoff propusieron un método más eficiente computacionalmente denominado LMS para determinar parámetros del Adaline (1962). similar a aplicar gradiente descendente muy intuitivo
13
ADALINE
14
ADALINE
15
Perceptron Multicapa 1 2 3 4 5 7 6 Wij1 Wij2 u1 u2 y1 y2 Wij3
Representación ordenada Werbos (1972) Red lineal Activaciones dependen: entradas activaciones de neuronas precedentes Derivadas ordenadas backpropagation 1 2 3 4 5 7 6 Wij1 Wij2 u1 u2 y1 y2 Wij3 u1 u2 y1 y2 1 2 3 4 5 6 7
16
Perceptron Multicapa w11=1 w12=1 w21=1 w22=1 w31=1 w32=-1.5 b1=0.5 b2=1.5 b3=0.5
17
Retropropagación Procedimiento para encontrar el vector gradiente de una función error asociada a la salida de la red con respecto a los parámetros de la misma El nombre backpropagation surge pues el cálculo se hace en el sentido inverso de la red, propagándose desde los nodos de salida hacia los nodos de entrada Esto permite poder aplicar a posteriori alguno de los muchos métodos de optimización con gradiente para obtener el comportamiento deseado de la red
18
Retropropagación b net =ok(n) yk(n) dk(n) f() constante wk1 (n) x1(n)
función de transferencia resultado net =ok(n) salida calculada yk(n) salida deseada dk(n) f() wk2 (n) x2(n) sumatoria ek(n) wk3 (n) x3(n) ek(n) = dk(n) – yk(n) Pesos k = capa entradas
19
Función de transferencia
20
Funciones de transferencia
21
Aprendizaje j i entrada neta a i salida de i error de la salida k
error total regla de aprendizaje η: velocidad de aprendizaje
22
Regla de Aprendizaje Si j es una unidad de salida Si no
23
ANALISIS DE LAS ANN
24
Propiedades: Mapeo Universal
Pregunta: Qué tipo de funciones puedo representar con una ANN? La idea se remonta al problema #13 de Hilbert (1900). Representar función de N variables como combinación lineal de funciones en una variable (bajar dimensionalidad del problema) Respuesta: Puedo representar el conjunto de funciones “suaves”. Hay varias pruebas para diferentes arquitecturas Kolgomorov (1957) Cybenko (1960) Hornik (1989) Chen (1991)
25
Propiedades: Mapeo Universal
Idea: Usando red con 2 capas ocultas es posible crear funciones tipo localizadas que combinadas pueden formar cualquier función “suave” Prueba intuitiva: Fácil de ver en R2 R. Red: y = ANN (x1,x2) Paso 1: Que mapeo obtengo con una sola neurona? y = logsig(.x1) y = logsig(.x2)
26
Propiedades: Mapeo Universal
x1 1 y b -b -1 Paso 2: Uso Perceptron Multicapa Puedo lograr “pico” en cualquier valor de x1 con red de 1 sola capa oculta el ancho del pico depende del valor de b. Puedo hacer lo mismo con x2.
27
Propiedades: Mapeo Universal
Paso 3: Agrupo redes en cada entrada en una sola red para combinar picos en x1 y x2. Ajustando parámetros puedo obtener un pico bien definido centrado en cualquier punto de R2. x1 1 y b -b -2 x2
28
Propiedades: Mapeo Universal
x1 Paso 4: Agregando una capa adicional 2 capas ocultas Combinando estos picos se puede aproximar cualquier función de R2 R con el grado de error que desee. -a b1 1 1 c1 1 a x2 1 -a d1 f1 1 e1 1 -2 y a x1 -a bn 1 fn 1 cn 1 a x2 1 -a dn 1 1 en -2
29
Teorema de Kolmogorov Dada cualquier función continua f: [0 1] n R m, y = f(x), f puede ser implementada exactamente por una red neuronal de tres capas sin retroalimentación que tiene una capa de entrada de n elementos que unicamente copian las entradas a la siguiente capa, (2n + 1) elementos de procesamiento en la capa intermedia y me elementos de procesamiento en la capa de salida
30
Mapeo no lineal Una red de retropropagación intenta encontrar un mapeo no lineal entre el espacio de entradas de n dimensiones y el espacio de salida de m dimensiones. Este mapeo se induce a través de patrones de entrenamiento que son puntos correspondientes en los espacios de entrada y salida. x1 y1 x3 y3 y2 x2 x4 y4
31
Sobreajuste y subajuste
La red de retropropagación es en cierta medida un método de ajuste de curvas. La red ya entrenada implementa un mapeo no lineal entre el espacio de entradas y salidas de manera que entradas cercanas entre sí producen salidas cercanas, por lo tanto una ANN es interpolativa.
32
Subajuste La red produce un mapeo mas sencillo de lo que se requiere para implementar la relación entrada/salida Sintoma. Error alto. Solución. Aumentar los ciclos de entrenamiento, más neuronas capa intermedia, más capas
33
Sobreajuste La red produce un mapeo más complicado de lo que se requiere para implementar la relación entrada/salida. Sintoma. Error ante patrones de entrenamiento pequeño y error ante patrones de prueba alto. Solución. Menos ciclos de entrenamiento, menos capas, menos neuronas
34
Epoca Pasar varias veces los patrones de entrada a la red.
35
Offset de f’ Normalización de datos
Las funciones de transferencia sigmoidal o tangente hiperbólica se pueden saturar, se saturan cuando los valores absolutos de sus entradas son grandes. Dado que la derivada participa en la regla de aprendizaje, puede suceder que ya no aprendan. Normalización de datos
36
PREGUNTAS
37
Mg. Samuel Oporto Díaz soporto@aurigacorp.com.pe
38
PARTE III APRENDIZAJE ARTIFICIAL
39
Aprendizaje Supervisado Por Corrección de Error
wk1 (n) x1(n) Activation function Local Field vk(n) Output yk(n) wk2 (n) x (n) x2(n) Summing function wk3 (n) ek(n) = dk(n) – yk(n) x3(n) Synaptic weights
40
A.S. Por Corrección de Error
Si n es SIGMOIDEA : n = ( 1+ e –m) –1 ∂ n = - ( 1+ e –m ) -2 e -m (-1) = n (1 – n ) ∂ m ∂ Y = W11 n ( 1 – n ) X1 ∂ V11 ∂ J = (Y1-y1 ) W11 n11 (1- n11) X11 + (Y2 - y2 ) W11 n12 (1- n12) X12 + …. A.S. Por Corrección de Error ∂ J = (Y1- y1 ) ∂Y1 / ∂V (Y2 - y2 ) ∂Y2 / ∂V11 + …. ∂ V11 ∂ Y = W11 ∂n1 / ∂V11+ W21 ∂n2 / ∂V11+ W31 ∂n3 / ∂V11 ∂ n1 = ∂ n ∂ m1 = ∂ n1 x1 ∂ V ∂ m1 ∂ V ∂ m11 m1 Pesos o Coeficientes Vij , Wij v11 n1 x1 w11 v12 v13 m2 n2 w21 Y w31 v21 v22 m3 n3 x2 v23 Y = f(n1w11 + n2w21 + n3w31) m1 = x1 . v11 + x2 . v21 Error(n) = y(n) - Y(n) n1 = f ( m1)
41
A.S. Por Corrección de Error
Dados Iniciales = Experiencia de la RN
42
A.S. Por Corrección de Error
: Umbral de aprendizaje que regula la velocidad de precisión (0 < <= 1) Yi : Salida del i-esimo Nodo Yj : Salida del j-esimo Nodo dj : Valor de salida deseado de la j-esima unidad de procesamiento
43
A.S. Por Corrección de Error
El aprendizaje consiste en mejorar los coeficientes de la red hasta minimizar la FUNCION DE ERROR dada por J = Σ 1 / 2 (Yk - y k ) 2 Wij = Wij - η ∂ J ∂Wij Ratio de Aprendizaje
44
Algoritmo BackPropagation
+1 +1 P a t r o n e s ej(n) = dj(n) - yj(n) Camada de Entrada Camada de Saída Camada Escondida
45
Algoritmo BackPropagation (W)
En Particular : W11 = W11 - η ∂ J ∂W11 ∂ J = (Y1-y1 ) ∂Y1 / ∂W (Y2 - y2 ) ∂Y2 / ∂W11 + …. ∂ W11 = (Y1 - y1 ) n (Y2 - y2 ) n12 + …. En General : ∂ J = Σ(Yk - yk ) njk ∂ Wj1
46
Algoritmo BackPropagation (V)
En Particular : V11 = V11 - η ∂ J ∂V11 ∂ J = (Y1- y1 ) ∂Y1 / ∂V (Y2 - y2 ) ∂Y2 / ∂V11 + …. ∂ V11 ∂ Y = W11 ∂n1 / ∂V11+ W21 ∂n2 / ∂V11+ W31 ∂n3 / ∂V11 ∂ n1 = ∂ n ∂ m1 = ∂ n1 x1 ∂ V ∂ m1 ∂ V ∂ m11 Si n es SIGMOIDEA : n = ( 1+ e –m) –1 ∂ n = - ( 1+ e –m ) -2 e -m (-1) = n (1 – n ) ∂ m ∂ Y = W11 n ( 1 – n ) X1 ∂ V11 ∂ J = (Y1-y1 ) W11 n11 (1- n11) X11 + (Y2 - y2 ) W11 n12 (1- n12) X12 + ….
47
Algoritmo BackPropagation
REGLA DELTA : ∂ J . ∂ V11 Error Retropropagado Entrada Correspondiente = * Error * Peso * f ’ X1 = * (Y1 – y1) * W11 * n1 (1 –n1) X1 = *
48
Ejemplo x1 y1 x2 y2 u11 m1 n1 w11 w12 u12 u21 w21 u22 m2 n2 w22
W11 = W11 + η (y1 - ÿ1) n W12 = W12 + η (y2 - ÿ2) n2 U11 = U η [ (y1 - ÿ1) W (y2 - ÿ2) W12 ] * n1(1-n1) * x1
49
Ejercicios x1 y1 x2 y2 u11 m1 n1 v11 p1 q1 w11 w12 u12 v12 u21 v21 w21
U12 = U η [ error * peso * f’ ] * x1 U12 = U12 + η [ ( (y1-ÿ1) W11 + (y2-ÿ2) W12 )* q1(1-q1) * V21 + ( (y1-ÿ1) W21 + (y2-ÿ2) W22 )* q2(1-q2) * V22 ] n2 (1-n2) * x1
Presentaciones similares
© 2025 SlidePlayer.es Inc.
All rights reserved.