La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Introducción Calculabilidad clásica Computación celular

Presentaciones similares


Presentación del tema: "Introducción Calculabilidad clásica Computación celular"— Transcripción de la presentación:

1 Introducción Calculabilidad clásica Computación celular
Autómatas finitos, máquina de Turing Computación celular Autómatas celulares, redes neuronales. Reseña histórica RNAs Neurona biológica, aprendizaje humano Definición Propiedades

2 Calculabilidad clásica
Objetivo de un Ingeniero en Informática: Resolver los problemas de los usuarios, utilizando siempre que se pueda y sea adecuado un ordenador. Requerimientos Modelos de computación en los que basar la solución a los problemas. Máquinas que implementen dichos modelos o algún tipo de ejecución equivalente a los mismos. Información sobre los tipos de problemas que se pueden resolver con los modelos.

3 Calculabilidad clásica
Máquinas de estados finitos Modelos de computación centralizados, compuestos de elementos de memoria, proceso y entrada/salida. K M

4 Calculabilidad clásica
Autómatas finitos determinísticos Equivalentes a los no determinísticos Reconocen los lenguajes regulares. Máquina de Turing determinística Equivalente a la no determinística. Resuelve problemas que puedan formalizarse en base a funciones µ-recursivas. Teorema de Church-Turing: Máquina de Turing = Algoritmo Problema de la parada

5 Computación celular Principios: Red de autómatas M1 M2 M3
Simplicidad de la unidades de proceso Paralelismo inmenso Localidad del conocimiento. Red de autómatas M1 M2 M3

6 Computación celular Autómatas celulares Redes neuronales
Idéntico modelo de computación en todas las células Grafo de conexión regular: rejilla. Redes neuronales Cada arco del grafo tiene un peso asociado. El modelo de computación se basa en la suma ponderada de las entradas y en una función de activación. Resuelven el problema de la parada. Pero no el de la estabilidad. Equivalentes a la máquina de Turing si limitamos las unidades de proceso a un número finito.

7 Reseña histórica McCulloch y Pitts publican “A logical calculus of the ideas immanent in nervous activity” (1943) Hebb diseña la primera ley de aprendizaje (1949) Rosenblatt presenta el perceptrón(1962) Problema XOR. Crisis en neurocomputación (1969) Kohonen y Carpenter trabajan en redes autoorganizadas y memorias asociativas(70s)

8 Reseña histórica Hopfield presenta su red(80s)
Perceptrón multicapa con regla delta generalizada. Solución al problema XOR(1986) Afianzamiento de la neurocomputación IEEE International Conference on Neural Networks(1987) Neural Networks(1988) Neural Computation(1989) IEEE Transaction on Neural Networks(1990)

9 Neurona biológica Morfología: Fisiología: Dendritas Soma Axón Sinapsis
Pesos sinápticos Potencial sináptico Umbral Activación/Inhibición (Despolarización)

10 Neurona artificial Pesos sinápticos: matriz de pesos W
Potencial sináptico: entrada Xn Umbral:  Activación/Inhibición: función de activación o de transferencia f

11 Redes Neuronales Red Neuronal: Características:
Modelos computacionales paralelos con unidades de proceso (neuronas) adaptativas y masivamente interconectadas. Características: El procesamiento de la información lo realizan elementos simples (unidades de proceso o neuronas artificiales) Los resultados se transmiten entre neuronas a través de sus conexiones sinápticas (localidad) Los enlaces tienen un peso (peso sináptico) que potencia/atenúa la señal emitida. Cada unidad de proceso aplica una función de activación a la entrada para determinar la salida

12 Aprendizaje humano El cerebro se puede contemplar como un ordenador complejo, no lineal y paralelo, en el que las neuronas están organizadas según la tarea a ejecutar. La experiencia juega un papel importante en el conocimiento adquirido por los humanos. Las RNA se parecen al cerebro en dos aspectos: La red adquiere el conocimiento mediante un proceso de aprendizaje (aprendizaje mediante ejemplos) Los pesos de las conexiones entre las unidades de proceso se utilizan para almacenar el conocimiento.

13 Definiendo modelos neuronales
Arquitectura: estructura de la red o patrón de conexión entre sus elementos.

14 Definiendo modelos neuronales
Algoritmo de entrenamiento o aprendizaje procedimiento para determinar los pesos de las conexiones. Tipos: Supervisado: un experto asesora el entrenamiento. (Xi,Yi) i = 1,..,p Por refuerzo: premios y castigos. (Xi, Ri) i = 1,..,p No supervisado: sin información sobre los resultados (Xi) i = 1,..,p

15 Definiendo modelos neuronales
Dinámica de la computación Evolución de las unidades de proceso desde que se les da una entrada hasta que generan la salida calculada para dicha entrada. La salida la determina la función de activación: Neuronas binarias: función paso Neuronas bipolares: función signo Neuronas continuas: funciones logística y tangente hiperbólica.

16 Propiedades de RNA No linealidad.
Permiten la representación de aplicaciones o correspondencias entre las entradas y salidas. Adaptabilidad: Acomodan sus pesos sinápticos a los cambios del entorno. Información contextual: El conocimiento viene representado por el estado de activación de la red neuronal. Cada neurona está afectada potencialmente por la actividad global de las otras neuronas de la red. Tolerancia a fallos: Si una neurona o un enlace de la red neuronal son dañados, la respuesta de la red probablemente no quedará afectada. Por otra parte, una red es capaz de reconocer señales de entrada diferentes a las señales entrenadas cuando difieren moderadamente.   Implementación VLSI: utilizadas en el reconocimiento de patrones, procesamiento de señales y control en tiempo real.


Descargar ppt "Introducción Calculabilidad clásica Computación celular"

Presentaciones similares


Anuncios Google