La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Inteligencia artificial Benasque 2004 José Ignacio Latorre Dept. ECM, UB.

Presentaciones similares


Presentación del tema: "Inteligencia artificial Benasque 2004 José Ignacio Latorre Dept. ECM, UB."— Transcripción de la presentación:

1 Inteligencia artificial Benasque 2004 José Ignacio Latorre Dept. ECM, UB

2 Un poquito de historia Alan Turing (37), Church, Post : Turing Machine McCullough and Pitts (43) : neuronas binarias John von Neumann : computadora de von Neumann Dos escuelas de pensamiento, 50 ~ 60: Manipulación simbólica Comportamiento inteligente consiste en reglas de manipulación de símbolos Reconocimiento de patrones Aprendizaje a partir de ejemplos Orígenes

3 top reglas serial booleana frágil experto down top ejemplos paralelo difuso robusto general down Prolog, Lisp, IA Sistemas expertos basados en reglas 1980s : éxitos mediocres reexamen del trabajo de los 60s en redes neuronales Orígenes

4 Algoritmos genéticos

5 Idea básica Problema Solución complejo ideal Algoritmo conocido A menudo este esquema no es realista Problemas NP Algoritmo desconocido Solución buena y rápida es aceptable... Deseamos hallar un método alternativo para analizar un gran número de soluciones posibles Aprendamos de la Naturaleza Algoritmos genéticos

6 ADN (cristal aperiódico, Schrödinger ) Guanina Adenina Tiamina Citosina 20 aminoácidos + stops codón Operón off/on gen proteínas mRNA mRNA tRNA Humanos: bases 1 molécula ADN bases 1 gen pero 30000/40000 genes ADN basura secuencias repetidas genes con multiples copias transposición de genes exones, intrones transposones Algoritmos genéticos

7 La reproduccion no preserva la forma exacta del material genético Meiosis Recombinación de material genético crossover Mutaciones Mecanismos de corrección protegen parcialmente la fidelidad de la copia del ADN copiado 1 error / bases - correcciones = 1 error / 10 9 bases + Selección Natural Surpervivencia del mejor adaptado antes de la reproducción Crossover aleatorio y mutaciones filtrados por selección natural a lo largo de muchas generaciones lleva a especies mejor adaptadas. Grandes poblaciones vienen de unos pocos individuos Algoritmos genéticos

8 Estrategia de un Algoritmo Genético Problema Solución Complejo óptima Población de soluciones mutaciones bajo ritmo crossover frecuencia alta selección natural ruleta Buena Los algoritmos genéticos son potentes AGs trabajan con una parametrización del problema AGs usan una función premio AGs usan reglas de transición probabilísticas Algoritmos genéticos

9 Problema del viajante (Travelling Salesman Problem) Hallar el camino que visita n ciudades sólo una vez 1 2 n Problema NP Hay n! soluciones que explorar No existe un algoritmo eficiente para hallar la solución Mínimos locales, frustración Uso práctico frecuente si se añaden ligaduras (rutas, llamadas de teléfono,..) Parametrización e.g. A 1 = {1,7,4,3,8,2,6,9,5} mutación A 2 = {1,7,3,4,8,2,6,9,5} crossover A 3 = {1,8,2,6,7,4,3,9,5} premio dist = d(1,7) + d(7,4) d(9,5) + d(5,1) Algoritmos genéticos

10 10 ciudades soluciones ~ Mínimo exacto t ~ 1 min dist = AG mínimo t < 1s dist AG = ciudades soluciones ~ Mínimo exacto t ~ 10 min dist = AG mínimo t < 1s dist AG = generaciones Algoritmos genéticos TSP resultados

11 101 ciudades soluciones ~ Búsqueda aleatoria entre un millón de recorridos (t ~ 30s) encuentra una solución de dist = AG mínimo t < 1s dist AG = Exploración de 10 6 soluciones Algoritmos genéticos

12 ¿Por qué funcionan los AGs? Esquema H = * * 1 * Orden de un esquema O(H) = O(011**1*) =4 (# dígitos fijos) Longitud de un esquema (H) = (011**1*) = 7 (longitud de un patrón) Palabra A i bits l ex: A = { {1,0,1},...} población A = {A 1, A 2,..., A n } esquema: 101, 10*,1*1, # esquemas posibles 3 l *01, 1**, *0*, # esquemas presentes en una población de n palabras n 2 l **1,*** Algoritmos genéticos

13 A tiempo t empezamos con m ejemplos de esquema H dentro de la población A ( hay n palabras en A y l bits en cada palabra ) Reproducción Cada palabra es copiada de acuerdo a su adecuación A i El destino de un esquema depende de Adecuación promedio de H Adecuación promedio total C>0 vida crecimiento exponencial C<0 muerte muerte exponencial Algoritmos genéticos

14 Crossover + mutación destruye y crea nuevos esquemas Crossover Si el crossover es seleccionado al azar uniformemente, el esquema H es destruido Con probabilidad La probabilidad de supervivencia es Mutación O(H) posiciones deben mantenerse inalteradas crossover con probabilidad p c mutación con probabilidad p m << 1 Algoritmos genéticos

15 Teorema fundamental de los Algoritmos Genéticos Esquemas de bajo orden tienen exponencialmente más descendientes en subsiguientes generaciones n 2 l (de entre 3 l ) esquemas son explorados (sólo n 3 son procesados eficientemente: paralelismo implícito) Algoritmos genéticos

16 Un día en Las Vegas 01 El bandido de dos brazos (Loaded two-arm bandit) Juega una población de estrategias mutación-crossover-selección: Beneficio óptimo LL LR LL RL RR LR RR LL Algoritmos genéticos

17 ... y otro día dedicado a las quinielas 4 partidos: 3 4 =81 apuestas posibles Problema: halla el número mínimo de apuestas que aciertan tres resultados como mínimo DNA= propuesta de apuestas Mutación y crossing Fiteness= errores + #apuestas 10 6 generaciones: solución óptima= 4apuestas !!! Problema 1: 13 partidos – 1 error ? Problema 2: 11 partidos – 2 errores ? Reducción = problema diofántico

18

19 Realidad Ficción Redes Neuronales Imitemos a una neurona activación pesos entrada umbral pesos salida i

20 ... y la estructura de una red neuronal Redes Neuronales activación capa pesosumbral Número de neuronas en la capa l-1 Función de activación

21 saturación Respuesta lineal Función de activación: sigmoide Redes Neuronales

22 ¿Qué controla el flujo de información? las sinápsis = pesos los umbrales y la arquitectura !!!! Redes Neuronales

23 ¡Hemos aprendido a aprender! En el año 1985 se ideó un método para encontrar los pesos y los umbrales a partir de ejemplos. No es necesario entender cómo se resuelve un problema. Podemos entrenar una red neuronal artificial con ejemplos. Redes Neuronales Construimos una función error ejemplo: ( in(p) ; out(p) ) p=1,...,patterns run NN: z (1) (p) = in(p) z (n) (p) = F( z (1) (p) ) error:

24 E = w + t E w E t w = - E w t = - E t E = - E w 2 E w 2 0 Redes Neuronales +

25 Cambio de pesos Energía (error) Activación Para la última capa L=n h i Redes Neuronales

26 L L l l BACK-PROPAGATION Regla de la cadena Redes Neuronales

27 Créditos Seguros Logística Sociología Control Optimización Fidelidad Bolsa Data Mining Aplicaciones Redes Neuronales

28 Ejemplo: pérdida de clientes 1.Entrenamos una red neuronal con un subconjunto de datos de clientes perdidos y no perdidos 2.Predecimos la fidelidad del resto Una compañía desea saber qué clientes puede perder Facturación Antigüedad Líneas de pedido Localización Sí / No Aplicaciones Redes Neuronales

29 Reconocimiento de imágenes Una red neuronal ha sido entrenada para reconocer aviones militares. La red detecta que hay un avión militar escondido bajo el ala de otro avión de pasajeros Belgrado 19/04/1999

30 Reconocimiento de voz Aplicaciones Redes Neuronales Dos personas dicen Hello Hacemos un análisis de frecuencias (60) Entrenamos una red con hellos Discrimnación de la red con hellos conocidos = 100% Discriminación de la red con hellos desconocidos = 100% Steve John Buen reconocimiento de voz requiere entrenamiento

31 Alarmas Arbitraje …. Aplicaciones Redes Neuronales Promedios sobre redes entrenadas a partir de pesos aleatorios Si existe un modelo subyacente, las redes son equivalentes Si no existe un modelo subyacente, las redes producen dispersión Lanzamos 100 redes sobre datos entrenar/validar Para cada dato tenemos un promedio y una dispersión Descartamos 3 sigma -1 sigma + 1 sigma NN Real Series temporales de cotizaciones Futuro ibex35 a 60 días Opciones Alarmas Arbitraje Estrategias ….

32 Predicción enfermedades coronarias ventas divorcios Clasificación clientes de un banco economía Interpolación control de producción reconocimiento Las redes neuronales Son aproximantes universales que implementan inferencia bayesiana Aplicaciones Redes Neuronales

33 ¿Estoy divorciado? Una red es entrenada con superficie de su primera vivienda virginidad nivel económico visitas de los suegros enfermedades... ¿Está usted divorciado? acierto de la red neuronal: 88% Aplicaciones Redes Neuronales ¿Soy matemático o filósofo? acierto: 100% ¿Seré anoréxica/o? ¿Terminaré la carrera? ¿Lloverá mañana? ¿Ganará el Barça? Estamos entrando en la era de la información


Descargar ppt "Inteligencia artificial Benasque 2004 José Ignacio Latorre Dept. ECM, UB."

Presentaciones similares


Anuncios Google