Sistemas Inteligentes Distribuidos Sistemas Inteligentes Distribuidos Sesión 8 Eduardo Morales / L. Enrique Sucar Sesión 8 Eduardo Morales / L. Enrique.

Slides:



Advertisements
Presentaciones similares
Complejidad Computacional
Advertisements

INTELIGENCIA ARTIFICIAL
IDEAS ACERCA DEL PROCESO DE CAMBIO Adaptado del trabajo de Michael Fullan.
Inteligencia Artificial
Premio Nobel de Literatura 1907
También conocido como Diseño Lógico Rodrigo Salvatierra Alberú.
Planificación de Monoprocesadores
INTELIGENCIA ARTIFICIAL
La resolución de los conflictos
EL PLAN DE TRABAJO: MÁS ALLÁ DE LOS CRONOGRAMAS Y LOS PRESUPUESTOS
Ingeniería del Conocimiento
INSTITUTO TECNOLOGICO DE MINATITLAN
Investigación Algorítmica
INTELIGENCIA ARTIFICIAL
Técnicas de Capacitación
Modelo de Relaciones.
Inteligencia artificial
Trabajo en Equipo.
LA INSTRUMENTACIÓN DIDÁCTICA Hablar de instrumentación o de implementación en el proceso de enseñanza aprendizaje es hablar de didáctica. Con este término.
Capítulo 3 Etapas de un Proyecto de simulación
Sistemas Evolutivos Introduccion.
Sesión 12: Procesos de Decisión de Markov
ADECUADA ASIGNACIÓN DE RECURSOS EN LAS ACTIVIDADES MISIONALES
EQUIPO 1 INTEGRANTES: Laura Josefina Galván Hernández Martha Guadalupe Galván Hernández Julissa Nereyda García Núñez Beatriz Urieta Acevedo Magdalena Villarreal.
Administración Financiera
PROFESORADO DE DEINFORMÁTICA Metodología Especial y Observación PROFESORA: Liliana Homilka 2010.
Agentes Inteligentes Capítulo 2.
DISEÑO DE SOFTWARE 1ª. Parte
Toma de Decisiones Gerenciales
Sesión 12: Procesos de Decisión de Markov. Incertidumbre - MDP, L.E. Sucar2 Procesos de Decisión de Markov Procesos de Decisión Secuenciales Procesos.
5.3 APROXIMACIONES AL DISEÑO
Aprendizaje (Machine Learning)  Pregunta interesante: Podemos hacer que las computadoras aprendan?  Aprender: mejorar automáticamente con la experiencia.
Procedimiento para el establecimiento de indicadores de gestión
Sistemas Inteligentes Distribuidos Sistemas Inteligentes Distribuidos Sesión 13 L. Enrique Sucar / Marco López Sesión 13 L. Enrique Sucar / Marco López.
UNIDAD 2. ALGORITMOS Y ESTRUCTURAS DE DATOS.
Administración Proyectos Jorge Baracaldo Robin Ochoa.
BIG SIX ALIX M. MELENDEZ LEONOR HERNANDEZ PATRICIA DE JESUS.
Parte II. Algorítmica. 5. Backtracking. 1. Análisis de algoritmos.
Simular: Representar una cosa, fingiendo o imitando lo que no es.
Robótica Inteligente L. Enrique Sucar Leonardo Romero Marco López ITESM Cuernavaca.
Yo soy responsable de mi bienestar
Integración de Redes Bayesianas con Programas Lógicos para Música Eduardo Morales L.Enrique Sucar Roberto Morales.
Una introducción a la computación evolutiva
Sesión 12: Procesos de Decisión de Markov
Sistemas, Procesos y Modelos
 En el siguiente trabajo se explicará cuales son los fundamentos de la planeación, la toma de decisiones.  La toma de decisiones es un paso fundamental.
Tema 6: Programación L. Enrique Sucar Marco López ITESM Cuernavaca
Sesión 12: Procesos de Decisión de Markov
L. E. Sucar / Alberto Reyes
 DISEÑO ORGANIZACIONAL  EMPLEADOS CON EMPOWERMENT  EQUIPO: DIEZ CORREA ALEJANDRO ESTRADA HERRERA JOSE NAPOLEON.
 El uso de sistemas de agentes móviles es el resultado de la evolución y la unión de sus los agentes, del campo de la inteligencia artificial, y del.
PRESENTACIÓN Este trabajo se desarrolla sobre el tema de competencias, y basado en el Marco de Fundamentacion Conceptual Especificaciones de la Pruebas.
Combinación de Programas Lógicos y Redes Bayesianas y su Aplicación a Música Eduardo Morales Enrique Sucar Roberto Morales.
Robótica Inteligente L. Enrique Sucar Marco López ITESM Cuernavaca.
Definición de IA Ana Lila Laureano-Cruces Universidad Autónoma Metropolitana - Azacapotzalco.
ADMINISTRACIÓN FINANCIERA
PRESENTADO POR: LINA MARCELA IGUA TORRES SONIA MOYANO ESPINOSA DAVID MAHECHA MEDINA CRISTIAN HERNÁNDEZ GERMAN RAMÍREZ.
Agentes e IA Distribuida L. E. Sucar / Alberto Reyes Robótica Inteligente.
Leidy Constanza Bermeo Roa. La encuesta está conformada por un grupo de preguntas que se dirigen a personas específicas que nos permitirán.
Introducción al proceso de verificación y validación.
Los métodos de aprendizaje colaborativo comparten la idea de que los estudiantes trabajan juntos para aprender y son responsables del aprendizaje de.
Estimación de proyectos de software
Programa Herramientas de Vida y Aprendizajes Efectivos para el Emprendimiento en 20 comunas de la Región de Los Lagos.
Autoeficacia.
Marco de Trabajo para Indexación, Clasificación y Recopilación Automática de Documentos Digitales Javier Caicedo Espinoza Gonzalo Parra Chico.
Taller de investigación 1
Procesos de Planeación
DIAGRAMAS DE SECUENCIA. UML está compuesto por los siguientes diagramas:
GESTIÓN DE PROYECTOS.
Transcripción de la presentación:

Sistemas Inteligentes Distribuidos Sistemas Inteligentes Distribuidos Sesión 8 Eduardo Morales / L. Enrique Sucar Sesión 8 Eduardo Morales / L. Enrique Sucar Fundamentos de Inteligencia Artificial

Se puede ver como continuación en la línea de los sistemas de pizarrón. Estudia cómo un grupo de agentes inteligentes (no necesariamente computacionales) debe de coordinar sus actividades para lograr sus metas Se puede ver como continuación en la línea de los sistemas de pizarrón. Estudia cómo un grupo de agentes inteligentes (no necesariamente computacionales) debe de coordinar sus actividades para lograr sus metas Inteligencia Artificial Distribuida (DAI)

Un agente es cualquier ente que se pueda ver como percibiendo su ambiente a través de sensores y actuando en el ambiente por medio de efectores. Un agente racional es un agente que hace “buenas” acciones. Para ésto, necesitamos saber cómo y cuándo evaluar al agente. Un agente es cualquier ente que se pueda ver como percibiendo su ambiente a través de sensores y actuando en el ambiente por medio de efectores. Un agente racional es un agente que hace “buenas” acciones. Para ésto, necesitamos saber cómo y cuándo evaluar al agente. Agentes

Usamos una medida de desempeño para el cómo. Hay que tomar en cuenta lo que puede percibir y las acciones que puede tomar. Usamos una medida de desempeño para el cómo. Hay que tomar en cuenta lo que puede percibir y las acciones que puede tomar.

Agente Percepciones Acciones Conocimiento Metas Razonamiento AMBIENTE

Una medida de desempeño que define su grado de éxito Todo lo que el agente ha percibido o secuencia de percepción ( percept sequence ) Lo que sabe del ambiente Las acciones que puede tomar Una medida de desempeño que define su grado de éxito Todo lo que el agente ha percibido o secuencia de percepción ( percept sequence ) Lo que sabe del ambiente Las acciones que puede tomar Un agente racional depende en todo momento de:

Para cada posible secuencia de percepción, un agente racional toma la acción con la que espera maximizar su medida de desempeño, en base a la evidencia dada por su secuencia de percepción y cualquier conocimiento incorporado que tenga. Las acciones se pueden usar para obtener información útil. Para cada posible secuencia de percepción, un agente racional toma la acción con la que espera maximizar su medida de desempeño, en base a la evidencia dada por su secuencia de percepción y cualquier conocimiento incorporado que tenga. Las acciones se pueden usar para obtener información útil.

Idealmente, hay que hacer un mapeo entre (i) las posibles secuencias de percepción y (ii) las posibles acciones (en la práctica pueden ser infinitos). A veces se pueden dar especificaciones (más que enumerarlas) de lo que hay que hacer. Idealmente, hay que hacer un mapeo entre (i) las posibles secuencias de percepción y (ii) las posibles acciones (en la práctica pueden ser infinitos). A veces se pueden dar especificaciones (más que enumerarlas) de lo que hay que hacer.

Un sistema es autónomo en la medida en que su comportamiento está determinado por sus propias experiencias. Inicialmente se le tiene que proveer de cierto conocimiento para no actuar de manera aleatoria. Un sistema es autónomo en la medida en que su comportamiento está determinado por sus propias experiencias. Inicialmente se le tiene que proveer de cierto conocimiento para no actuar de manera aleatoria.

Podemos describir agentes en términos de sus percepciones, acciones, metas y ambiente (e.g., taxista). Estructura de un Agente Agente = Arquitectura + Programa No importa tanto si es ambiente “real” o “artificial” (e.g., softbots ) sino la interacción entre percepción, comportamiento, ambiente y metas. No importa tanto si es ambiente “real” o “artificial” (e.g., softbots ) sino la interacción entre percepción, comportamiento, ambiente y metas.

Requiere tablas muy grandes El usar una tabla acciones - secuencia de percepciones en general no es adecuada porque: Requiere mucho tiempo para construir la tabla Requiere mucho tiempo para construir la tabla

No hay autonomía, por lo que si cambia el ambiente el agente deja de saber qué hacer No hay autonomía, por lo que si cambia el ambiente el agente deja de saber qué hacer Aunque se le dé aprendizaje, necesitaría mucho tiempo para aprender todas las entradas de la tabla Aunque se le dé aprendizaje, necesitaría mucho tiempo para aprender todas las entradas de la tabla

Agentes de reflejos simples: Construir una tabla es imposible, pero podemos considerar algunas asociaciones comunes en términos de reglas situación-acción. e.g., Agentes de reflejos simples: Construir una tabla es imposible, pero podemos considerar algunas asociaciones comunes en términos de reglas situación-acción. e.g., Para construir un mapeo entre percepciones y acciones podemos pensar en varios tipos de agentes. IF el coche de enfrente está frenando THEN empieza a frenar IF el coche de enfrente está frenando THEN empieza a frenar

Esto es muy simple, y normalmente se necesita un estado interno para (i) ver como cambia el ambiente independientemente del agente y (ii) como afectan las acciones del agente al ambiente. Agentes de reflejos simples y estado interno.

El agente necesita información de sus metas para escoger qué acciones las pueden cumplir (pueden usarse técnicas de búsqueda y planificación). Esto lo puede hacer más flexible (v.g., si está lloviendo ajustar la efectividad de los frenos). El agente necesita información de sus metas para escoger qué acciones las pueden cumplir (pueden usarse técnicas de búsqueda y planificación). Esto lo puede hacer más flexible (v.g., si está lloviendo ajustar la efectividad de los frenos). Agentes con información de metas.

Las metas por si solas no son suficientes para generar un comportamiento de buena calidad. Para esto necesitamos una medida de utilidad (función que mapea un estado o secuencia de estados con un número real). Las metas por si solas no son suficientes para generar un comportamiento de buena calidad. Para esto necesitamos una medida de utilidad (función que mapea un estado o secuencia de estados con un número real). Agentes con medida de utilidad.

La idea es que las percepciones no se usen sólo para actuar, sino también para mejorar su desempeño en el futuro. La idea es que las percepciones no se usen sólo para actuar, sino también para mejorar su desempeño en el futuro. Agentes con aprendizaje.

Accesibles o inaccesibles Determinísticos o no determinísticos Episódicos o no espisódicos Estáticos, dinámicos, o semidinámicos Discretos o continuos Ambientes

En cada paso, cada ficha puede quedarse donde está o moverse hacia arriba, abajo, izquierda o derecha Los azules ganan si ocupan los 4 cuadros alrededor del rojo Los azules pierden si el rojo llega a un borde En cada paso, cada ficha puede quedarse donde está o moverse hacia arriba, abajo, izquierda o derecha Los azules ganan si ocupan los 4 cuadros alrededor del rojo Los azules pierden si el rojo llega a un borde Ejemplo: Una ficha roja (R) y 4 fichas azules (A1, A2, A3, A4) en un tablero de NxN. Ejemplo: Una ficha roja (R) y 4 fichas azules (A1, A2, A3, A4) en un tablero de NxN. Reglas:

En general, cada agente tiene una representación interna (que puede ser parcial o incorrecta) del problema y que puede diferir de la de los otros agentes. Por ejemplo, si un agente es el que controla todo, el resto puede no tener ninguna representación del problema. En general, cada agente tiene una representación interna (que puede ser parcial o incorrecta) del problema y que puede diferir de la de los otros agentes. Por ejemplo, si un agente es el que controla todo, el resto puede no tener ninguna representación del problema.

Esquemas de Control 1) Control central: Algoritmo: Un agente (A ) controla todo y ordena a los demás (A, A y A ) qué hacer A ve la posición de R y de los A 's 2. A cálcula cuadrantes y asigna uno por agente (dependiendo de su posición) 1. A ve la posición de R y de los A 's 2. A cálcula cuadrantes y asigna uno por agente (dependiendo de su posición) k k

4. Los esclavos se mueven 3. A dice cómo moverse para entrar a los cuadrantes 3. A dice cómo moverse para entrar a los cuadrantes 1 1

IF R no se mueve, moverse más cerca a R IF R se mueve (a un cuadrante) entonces: IF R no se mueve, moverse más cerca a R IF R se mueve (a un cuadrante) entonces: Para determinar los movimientos: Si se mueve junto a A, A no se mueve El A en el cuadrante opuesto debe de seguir a R Los otros, se deben de mover perpendicularmente a R y dentro de su cuadrante Si se mueve junto a A, A no se mueve El A en el cuadrante opuesto debe de seguir a R Los otros, se deben de mover perpendicularmente a R y dentro de su cuadrante k k k k k k

Requerimientos: Los esclavos deben de percibir comandos A debe de poder calcular cuadrantes 1 1 A puede calcular movimientos adecuados 1 1 A sabe la posición de R y de los A 's todo el tiempo 1 1 k k A sabe qué comandos obedecen los A 's y cómo comunicarlos 1 1 k k

2) Control central + agentes con percepción: Los agentes pueden percibir su posición y se la reportan a A el cual debe de poder combinarla para decidir cómo actuar. Los agentes pueden percibir su posición y se la reportan a A el cual debe de poder combinarla para decidir cómo actuar. 1 1

3) Control central + agentes buscan a R : Todos los agentes tienen la capacidad de detectar la posición de R dentro de un rango limitado. Variación al algoritmo: 1. Cada A informa su posición 2. A asigna una región a cada A 3. A comanda a que cada A “patrulle” su región 4. Cada A busca a R y si lo detecta le informa a A 1. Cada A informa su posición 2. A asigna una región a cada A 3. A comanda a que cada A “patrulle” su región 4. Cada A busca a R y si lo detecta le informa a A k k k k k k k k

Requerimientos: Los esclavos pueden transmitir la posición de R al controlador Los esclavos pueden transmitir la posición de R al controlador A sabe el rango de visibilidad de cada A y puede calcular su región de patrullaje A sabe el rango de visibilidad de cada A y puede calcular su región de patrullaje 1 1 k k

4) Control central con comandos abstractos: Los agentes pueden ejecutar comandos más complejos y tienen cierta planeación limitada A no necesita saber las acciones de los A 's Los agentes pueden ejecutar comandos más complejos y tienen cierta planeación limitada A no necesita saber las acciones de los A 's 1 1 k k

A calcula los comandos de alto nivel para los esclavos y los de bajo nivel para él. El esclavo transmite su posición sólo cuando se le pide o cuando se mueve a una nueva región. A calcula los comandos de alto nivel para los esclavos y los de bajo nivel para él. El esclavo transmite su posición sólo cuando se le pide o cuando se mueve a una nueva región. 1 1

Todos los agentes pueden participar en las decisiones globales. Una simplificación es que cada agente comunica toda su información a los otros agentes y todos usen el mismo método global para decidir qué tareas hacer. Todos los agentes pueden participar en las decisiones globales. Una simplificación es que cada agente comunica toda su información a los otros agentes y todos usen el mismo método global para decidir qué tareas hacer. 5) Control distribuido:

Todos los agentes dan su posición a los otros Todos los agentes dan su posición a los otros Algoritmo: Cada agente calcula la asignación global de agentes a regiones para patrullar y sigue su propia tarea Cada agente calcula la asignación global de agentes a regiones para patrullar y sigue su propia tarea El que detecta a R lo anuncia Cada agente calcula los cuadrantes y se va al que le corresponde Cada agente calcula los cuadrantes y se va al que le corresponde

Cada agente anuncia a los otros Cada agente calcula una asignación global (siempre viendo lo óptimo desde una perspectiva global) Cada agente anuncia a los otros Cada agente calcula una asignación global (siempre viendo lo óptimo desde una perspectiva global) Requerimientos:

Los agentes calculan sus costos locales (información local) pero tratan de optimizar sobre estimaciones globales. 6) Control distribuido + agentes individuales: Se asume que los agentes son “honestos”.

Cada agente hace una estimación global Algoritmo: Cada agente estima su propio costo de ocupar diferentes regiones en el tablero Cada agente estima su propio costo de ocupar diferentes regiones en el tablero Cada agente anuncia su estimación a los otros agentes

La información de cada agente puede ser: El estado del medio ambiente (de acuerdo al agente) El estado del medio ambiente (de acuerdo al agente) El problema que el agente quiere resolver El plan abstracto de su ejecución Una agenda de tareas por hacer y de tareas actuales Una agenda de tareas por hacer y de tareas actuales

Los recursos disponibles (protocolo de acceso, métrica de costo, modelo de uso del recurso, el estado del recurso) Los recursos disponibles (protocolo de acceso, métrica de costo, modelo de uso del recurso, el estado del recurso) Las transiciones de estados legales y las restricciones en el estado del ambiente Las transiciones de estados legales y las restricciones en el estado del ambiente Las habilidades de los agentes (razonamiento, percepción, comunicación, acciónes permisibles) Las habilidades de los agentes (razonamiento, percepción, comunicación, acciónes permisibles) La organización de los agentes

Sistemas Multiagentes Grupos de agentes que interactuan para resolver en forma conjunta un problema Aspectos importantes: – Esquemas de control (arquitectura) – Comunicación – Negociación – Manejo de conflictos – Interacción agentes computacionales – agentes humanos

Combinación de métodos centralizados y distribuidos Combinación de métodos centralizados y distribuidos Tendencias: Investigación en la interacción Humanos - Agentes Computacionales. Investigación en la interacción Humanos - Agentes Computacionales.

IA distribuida Fin