La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

MÓDULO: X A TEMA: LOJA - 2O10 DOCENTE: INTEGRANTES:

Presentaciones similares


Presentación del tema: "MÓDULO: X A TEMA: LOJA - 2O10 DOCENTE: INTEGRANTES:"— Transcripción de la presentación:

1

2 MÓDULO: X A TEMA: LOJA - 2O10 DOCENTE: INTEGRANTES:

3

4 Esta aplicación nos permite comprender como es el funcionamiento de una neurona artificial. El usuario puede variar el valor de los pesos, el valor de las entradas a la neurona y el tipo de función de activación. Con el botón evaluar se actualiza el valor de la neta que tiene la neurona y la salida de la misma.

5 Modificación de entradas: Se pueden editar x1,x2,x3

6 Modificación de pesos: Las regiones de edición marcadas con w1,w2,w3 y bias (tendencia) constituyen los pesos de la neurona.

7 Modificación de la función de Activación: La función de activación de la neurona se puede escoger entre la escalón, la lineal y la sigmoidal. Puede ser una función lineal o no lineal de n, y que es escogida dependiendo de las especificaciones del problema que la neurona tenga que resolver.

8 Evaluación del funcionamiento de la neurona: Al oprimir el botón evaluar se hace el cálculo de la salida de la neurona con la función de activación que el usuario haya elegido. Para calcular la salida de la neurona primero se debe calcular la entrada neta de la neurona, cuyo valor se puede visualizar en la región de edición marcada como neta

9 Aplicación

10

11 Demostración de como un Perceptrón ya entrenado es capaz de reconocer el carácter definido en la matriz de píxeles de la entrada

12 Aplicación: Reconocedor de caracteres.

13 Numero de patrones Numero de entradas Numero de salidas

14 Como va evolucionando el error del aprendizaje a medida que transcurren la iteraciones; el entrenamiento se detiene cuando el error se hace cero. 1 2

15 Aplicación: Reconocedor de caracteres. EJECUTAR

16 Perceptron Multicapa

17 Caracter í sticas Presentar una no-linealidad en la salida, capas de neuronas ocultas y un alto grado de conectividad Es de entrenamiento supervisado.

18 Utiliza el algoritmo de retro-propagación del error Su operación consta de dos fases FASE DIRECTA FASE INVERSA Se ingresa el patrón de actividad en la capa de entrada de la red (vector de entrada) Se obtiene la respuesta real de la red en la capa de salida Los pesos sinápticos son ajustados de acuerdo con la regla de corrección del error Minimiza el cuadrado de las diferencias entre la respuesta o salida deseada y la salida real de la red

19 Recomendaciones

20 A la hora de evaluar el perceptron, no s ó lo es importante saber si la RN ha aprendido con é xito los patrones de entrenamiento, sino que es imprescindible, conocer el comportamiento de la misma ante patrones no usados durante este. De nada sirve que una RN aprenda correctamente los patrones de entrenamiento y no responda de forma adecuada ante patrones nuevos. Es necesario que durante el aprendizaje la RN extraiga las caracter í sticas de las muestras que le permitan responder correctamente a patrones diferentes.

21 Ejemplo Ejecuta r


Descargar ppt "MÓDULO: X A TEMA: LOJA - 2O10 DOCENTE: INTEGRANTES:"

Presentaciones similares


Anuncios Google