Agentes e IA Distribuida L. E. Sucar / Alberto Reyes Robótica Inteligente.

Slides:



Advertisements
Presentaciones similares
INTELIGENCIA ARTIFICIAL
Advertisements

Complejidad Computacional
INTELIGENCIA ARTIFICIAL
IDEAS ACERCA DEL PROCESO DE CAMBIO Adaptado del trabajo de Michael Fullan.
Inteligencia Artificial
TEORIA DE SISTEMAS Prof. Henry Coello Abril 2009.
Planificación de Monoprocesadores
INTELIGENCIA ARTIFICIAL
Ingeniería del Conocimiento
COMPONENTIZACIÓN DE ALGORITMOS GENETICOS Y SU IMPLEMENTACIÓN EN UNA PLATAFORMA ABIERTA PARA APRENDIZAJE COMPUTACIONAL.
Investigación Algorítmica
Modelo de Relaciones.
Inteligencia artificial
LA INSTRUMENTACIÓN DIDÁCTICA Hablar de instrumentación o de implementación en el proceso de enseñanza aprendizaje es hablar de didáctica. Con este término.
Capítulo 3 Etapas de un Proyecto de simulación
Sistemas Evolutivos Introduccion.
Sesión 12: Procesos de Decisión de Markov
Sesión 2: Métodos Probabilísticos Básicos
Tesis para Grado de Ms.C. Optimización de Portafolios de Inversión en Bienes Raíces Mediante Algoritmos de Solución de Restricciones (Chile)
EQUIPO 1 INTEGRANTES: Laura Josefina Galván Hernández Martha Guadalupe Galván Hernández Julissa Nereyda García Núñez Beatriz Urieta Acevedo Magdalena Villarreal.
Ing. Fabián Ruano.  Definición  Diferencias con BD Centralizadas.
Solución de problemas por Búsqueda
PROFESORADO DE DEINFORMÁTICA Metodología Especial y Observación PROFESORA: Liliana Homilka 2010.
Agentes Inteligentes Capítulo 2.
DISEÑO DE SOFTWARE 1ª. Parte
Toma de Decisiones Gerenciales
Sesión 12: Procesos de Decisión de Markov. Incertidumbre - MDP, L.E. Sucar2 Procesos de Decisión de Markov Procesos de Decisión Secuenciales Procesos.
(Organización y Manejo de Archivos)
5.3 APROXIMACIONES AL DISEÑO
Planificación de Procesos
Sistemas Inteligentes Distribuidos Sistemas Inteligentes Distribuidos Sesión 13 L. Enrique Sucar / Marco López Sesión 13 L. Enrique Sucar / Marco López.
UNIDAD 2. ALGORITMOS Y ESTRUCTURAS DE DATOS.
Sistemas Inteligentes Distribuidos Sistemas Inteligentes Distribuidos Sesión 8 Eduardo Morales / L. Enrique Sucar Sesión 8 Eduardo Morales / L. Enrique.
Aprendizaje en la acción Un principio metodológico Profesor j. Miguel Huerta M 2010.
Parte II. Algorítmica. 5. Backtracking. 1. Análisis de algoritmos.
Simular: Representar una cosa, fingiendo o imitando lo que no es.
Robótica Inteligente L. Enrique Sucar Leonardo Romero Marco López ITESM Cuernavaca.
Yo soy responsable de mi bienestar
Capacidad de Proceso.
Inteligencia Artificial
Administrador de procesos
ECOVOL Grupo de Economía Evolucionista e Institucional HANS SEBASTIAN OSORIO TORRES Grupo de Investigación en Vida Artificial.
Sesión 12: Procesos de Decisión de Markov
AGENTES INTELIGENTES TRABAJO TEÓRICO DE LA ASIGNATURA DE
Sistemas, Procesos y Modelos
 En el siguiente trabajo se explicará cuales son los fundamentos de la planeación, la toma de decisiones.  La toma de decisiones es un paso fundamental.
Tema 6: Programación L. Enrique Sucar Marco López ITESM Cuernavaca
Sesión 12: Procesos de Decisión de Markov
conjunto de elementos que interactúan con un objetivo común
L. E. Sucar / Alberto Reyes
Villahermosa, Tab. 21 septiembre MATERIA: Investigacion de operaciones TEMA: Lineas de espera ALUMNOS: Maria isabel vega chanona HORA: 11:00 am a.
Introducción a la Robótica mecanismos avanzados Coordinación de Ciencias Computacionales, INAOE Dra Angélica Muñoz Dr Eduardo Morales
 DISEÑO ORGANIZACIONAL  EMPLEADOS CON EMPOWERMENT  EQUIPO: DIEZ CORREA ALEJANDRO ESTRADA HERRERA JOSE NAPOLEON.
Métodos de Investigación
 El uso de sistemas de agentes móviles es el resultado de la evolución y la unión de sus los agentes, del campo de la inteligencia artificial, y del.
Robótica Inteligente L. Enrique Sucar Marco López ITESM Cuernavaca.
Robótica Inteligente L. Enrique Sucar Marco López ITESM Cuernavaca.
PRESENTADO POR: LINA MARCELA IGUA TORRES SONIA MOYANO ESPINOSA DAVID MAHECHA MEDINA CRISTIAN HERNÁNDEZ GERMAN RAMÍREZ.
Leidy Constanza Bermeo Roa. La encuesta está conformada por un grupo de preguntas que se dirigen a personas específicas que nos permitirán.
Introducción al proceso de verificación y validación.
Los métodos de aprendizaje colaborativo comparten la idea de que los estudiantes trabajan juntos para aprender y son responsables del aprendizaje de.
Estimación de proyectos de software
Autoeficacia.
Marco de Trabajo para Indexación, Clasificación y Recopilación Automática de Documentos Digitales Javier Caicedo Espinoza Gonzalo Parra Chico.
Ms. C. Marco Vinicio Rodríguez
Fundamentos de Computación
Taller de investigación 1
Hernández Camacho Víctor Jesus Islas Sánchez Karla Vanessa
Procesos de Planeación
DIAGRAMAS DE SECUENCIA. UML está compuesto por los siguientes diagramas:
Transcripción de la presentación:

Agentes e IA Distribuida L. E. Sucar / Alberto Reyes Robótica Inteligente

Un agente es cualquier cosa que se pueda ver como percibiendo su ambiente a través de sensores y actuando en el ambiente por medio de efectores. Un agente racional es un agente que hace “buenas” acciones. Para ésto, necesitamos saber cómo y cuándo evaluar al agente. Un agente es cualquier cosa que se pueda ver como percibiendo su ambiente a través de sensores y actuando en el ambiente por medio de efectores. Un agente racional es un agente que hace “buenas” acciones. Para ésto, necesitamos saber cómo y cuándo evaluar al agente. Agentes

Usamos una medida de desempeño para el cómo. Hay que tomar en cuenta lo que puede percibir y las acciones que puede tomar. Usamos una medida de desempeño para el cómo. Hay que tomar en cuenta lo que puede percibir y las acciones que puede tomar.

Una medida de desempeño que define su grado de éxito Todo lo que el agente ha percibido o secuencia de percepción ( percept sequence ) Lo que sabe del ambiente Las acciones que puede tomar Una medida de desempeño que define su grado de éxito Todo lo que el agente ha percibido o secuencia de percepción ( percept sequence ) Lo que sabe del ambiente Las acciones que puede tomar Un agente racional depende en todo momento de:

Para cada posible secuencia de percepción, un agente racional toma la acción con la que espera maximizar su medida de desempeño, en base a la evidencia dada por su secuencia de percepción y cualquier conocimiento incorporado que tenga. Las acciones se pueden usar para obtener información útil. Para cada posible secuencia de percepción, un agente racional toma la acción con la que espera maximizar su medida de desempeño, en base a la evidencia dada por su secuencia de percepción y cualquier conocimiento incorporado que tenga. Las acciones se pueden usar para obtener información útil.

Idealmente, hay que hacer un mapeo entre (i) las posibles secuencias de percepción y (ii) las posibles acciones (en la práctica pueden ser infinitos). A veces se pueden dar especificaciones (más que enumerarlas) de lo que hay que hacer. Idealmente, hay que hacer un mapeo entre (i) las posibles secuencias de percepción y (ii) las posibles acciones (en la práctica pueden ser infinitos). A veces se pueden dar especificaciones (más que enumerarlas) de lo que hay que hacer.

Un sistema es autónomo en la medida en que su comportamiento está determinado por sus propias experiencias. Inicialmente se le tiene que proveer de cierto conocimiento para no actuar de manera aleatoria. Un sistema es autónomo en la medida en que su comportamiento está determinado por sus propias experiencias. Inicialmente se le tiene que proveer de cierto conocimiento para no actuar de manera aleatoria.

Podemos describir agentes en términos de sus percepciones, acciones, metas y ambiente. Estructura de un Agente Agente = Arquitectura + Programa No importa tanto si es ambiente “real” o “artificial” (e.g., softbots ) sino la interacción entre percepción, comportamiento, ambiente y metas. No importa tanto si es ambiente “real” o “artificial” (e.g., softbots ) sino la interacción entre percepción, comportamiento, ambiente y metas.

Requiere tablas muy grandes El usar una tabla acciones - secuencia de percepciones en general no es adecuada porque: Requiere mucho tiempo para construir la tabla Requiere mucho tiempo para construir la tabla

No hay autonomía, por lo que si cambia el ambiente el agente deja de saber qué hacer No hay autonomía, por lo que si cambia el ambiente el agente deja de saber qué hacer Aunque se le dé aprendizaje, necesitaría mucho tiempo para aprender todas las entradas de la tabla Aunque se le dé aprendizaje, necesitaría mucho tiempo para aprender todas las entradas de la tabla

Agentes de reflejos simples: Construir una tabla es imposible, pero podemos considerar algunas asociaciones comunes en términos de reglas situación-acción. e.g., Agentes de reflejos simples: Construir una tabla es imposible, pero podemos considerar algunas asociaciones comunes en términos de reglas situación-acción. e.g., Para construir un mapeo entre percepciones y acciones podemos pensar en varios tipos de agentes. IF promedio lecturas sensores frontales >  THEN avanzar IF promedio lecturas sensores frontales >  THEN avanzar

¿Que pasa si el agente se enfrenta a esta situación?

Esto es muy simple, y normalmente se necesita un estado interno para (i) ver como cambia el ambiente independientemente del agente y (ii) como afectan las acciones del agente al ambiente. Agentes de reflejos simples con estado interno (memoria).

¿Que pasa si el agente se enfrenta a esta situación? meta

El agente necesita información de sus metas para escoger qué acciones las pueden cumplir (pueden usarse técnicas de búsqueda y planificación). Esto lo puede hacer más flexible (v.g., si está lloviendo ajustar la efectividad de los frenos). El agente necesita información de sus metas para escoger qué acciones las pueden cumplir (pueden usarse técnicas de búsqueda y planificación). Esto lo puede hacer más flexible (v.g., si está lloviendo ajustar la efectividad de los frenos). Agentes con información de metas.

¿Que pasa si el agente se enfrenta a esta situación? $ $ $

Las metas por si solas no son suficientes para generar un comportamiento de buena calidad. Para esto necesitamos una medida de utilidad (función que mapea un estado o secuencia de estados con un número real). Las metas por si solas no son suficientes para generar un comportamiento de buena calidad. Para esto necesitamos una medida de utilidad (función que mapea un estado o secuencia de estados con un número real). Agentes con medida de utilidad.

La idea es que las percepciones no se usen sólo para actuar, sino también para mejorar su desempeño en el futuro. La idea es que las percepciones no se usen sólo para actuar, sino también para mejorar su desempeño en el futuro. Agentes con aprendizaje.

Accesibles o inaccesibles Determinísticos o no determinísticos Episódicos o no espisódicos Estáticos, dinámicos, o semidinámicos Discretos o continuos Ambientes

Demostración

Se puede ver como continuación en la línea de los sistemas de pizarrón. Estudia cómo un grupo de agentes inteligentes (no necesariamente computacionales) debe de coordinar sus actividades para lograr sus metas Se puede ver como continuación en la línea de los sistemas de pizarrón. Estudia cómo un grupo de agentes inteligentes (no necesariamente computacionales) debe de coordinar sus actividades para lograr sus metas Inteligencia Artificial Distribuida (DAI)

En cada paso, cada ficha puede quedarse donde está o moverse hacia arriba, abajo, izquierda o derecha Los azules ganan si ocupan los 4 cuadros alrededor del rojo Los azules pierden si el rojo llega a un borde En cada paso, cada ficha puede quedarse donde está o moverse hacia arriba, abajo, izquierda o derecha Los azules ganan si ocupan los 4 cuadros alrededor del rojo Los azules pierden si el rojo llega a un borde Ejemplo: Una ficha roja (R) y 4 fichas azules (A1, A2, A3, A4) en un tablero de NxN. Ejemplo: Una ficha roja (R) y 4 fichas azules (A1, A2, A3, A4) en un tablero de NxN. Reglas:

En general, cada agente tiene una representación interna (que puede ser parcial o incorrecta) del problema y que puede diferir de la de los otros agentes. Por ejemplo, si un agente es el que controla todo, el resto puede no tener ninguna representación del problema. En general, cada agente tiene una representación interna (que puede ser parcial o incorrecta) del problema y que puede diferir de la de los otros agentes. Por ejemplo, si un agente es el que controla todo, el resto puede no tener ninguna representación del problema.

Esquemas de Control 1) Control central: Algoritmo: Un agente (A ) controla todo y ordena a los demás (A, A y A ) qué hacer A ve la posición de R y de los A 's 2. A cálcula cuadrantes y asigna uno por agente (dependiendo de su posición) 1. A ve la posición de R y de los A 's 2. A cálcula cuadrantes y asigna uno por agente (dependiendo de su posición) k k

4. Los esclavos se mueven 3. A dice cómo moverse para entrar a los cuadrantes 3. A dice cómo moverse para entrar a los cuadrantes 1 1

IF R no se mueve, moverse más cerca a R IF R se mueve (a un cuadrante) entonces: IF R no se mueve, moverse más cerca a R IF R se mueve (a un cuadrante) entonces: Para determinar los movimientos: Si se mueve junto a A, A no se mueve El A en el cuadrante opuesto debe de seguir a R Los otros, se deben de mover perpendicularmente a R y dentro de su cuadrante Si se mueve junto a A, A no se mueve El A en el cuadrante opuesto debe de seguir a R Los otros, se deben de mover perpendicularmente a R y dentro de su cuadrante k k k k k k

Requerimientos: Los esclavos deben de percibir comandos A debe de poder calcular cuadrantes 1 1 A puede calcular movimientos adecuados 1 1 A sabe la posición de R y de los A 's todo el tiempo A sabe la posición de R y de los A 's todo el tiempo 1 1 k k A sabe qué comandos obedecen los A 's y cómo comunicarlos A sabe qué comandos obedecen los A 's y cómo comunicarlos 1 1 k k

2) Control central + agentes con percepción: Los agentes pueden percibir su posición y se la reportan a A el cual debe de poder combinarla para decidir cómo actuar. Los agentes pueden percibir su posición y se la reportan a A el cual debe de poder combinarla para decidir cómo actuar. 1 1

3) Control central + agentes buscan a R : Todos los agentes tienen la capacidad de detectar la posición de R dentro de un rango limitado. Variación al algoritmo: 1. Cada A informa su posición 2. A asigna una región a cada A 3. A comanda a que cada A “patrulle” su región 4. Cada A busca a R y si lo detecta le informa a A 1. Cada A informa su posición 2. A asigna una región a cada A 3. A comanda a que cada A “patrulle” su región 4. Cada A busca a R y si lo detecta le informa a A k k k k k k k k

Requerimientos: Los esclavos pueden transmitir la posición de R al controlador Los esclavos pueden transmitir la posición de R al controlador A sabe el rango de visibilidad de cada A y puede calcular su región de patrullaje A sabe el rango de visibilidad de cada A y puede calcular su región de patrullaje 1 1 k k

4) Control central con comandos abstractos: Los agentes pueden ejecutar comandos más complejos y tienen cierta planeación limitada A no necesita saber las acciones de los A 's Los agentes pueden ejecutar comandos más complejos y tienen cierta planeación limitada A no necesita saber las acciones de los A 's 1 1 k k

A calcula los comandos de alto nivel para los esclavos y los de bajo nivel para él. El esclavo transmite su posición sólo cuando se le pide o cuando se mueve a una nueva región. A calcula los comandos de alto nivel para los esclavos y los de bajo nivel para él. El esclavo transmite su posición sólo cuando se le pide o cuando se mueve a una nueva región. 1 1

Todos los agentes pueden participar en las decisiones globales. Una simplificación es que cada agente comunica toda su información a los otros agentes y todos usen el mismo método global para decidir qué tareas hacer. Todos los agentes pueden participar en las decisiones globales. Una simplificación es que cada agente comunica toda su información a los otros agentes y todos usen el mismo método global para decidir qué tareas hacer. 5) Control distribuido:

Todos los agentes dan su posición a los otros Todos los agentes dan su posición a los otros Algoritmo: Cada agente calcula la asignación global de agentes a regiones para patrullar y sigue su propia tarea Cada agente calcula la asignación global de agentes a regiones para patrullar y sigue su propia tarea El que detecta a R lo anuncia Cada agente calcula los cuadrantes y se va al que le corresponde Cada agente calcula los cuadrantes y se va al que le corresponde

Cada agente anuncia a los otros Cada agente calcula una asignación global (siempre viendo lo óptimo desde una perspectiva global) Cada agente anuncia a los otros Cada agente calcula una asignación global (siempre viendo lo óptimo desde una perspectiva global) Requerimientos:

Los agentes calculan sus costos locales (información local) pero tratan de optimizar sobre estimaciones globales. 6) Control distribuido + agentes individuales: Se asume que los agentes son “honestos”.

Cada agente hace una estimación global Algoritmo: Cada agente estima su propio costo de ocupar diferentes regiones en el tablero Cada agente estima su propio costo de ocupar diferentes regiones en el tablero Cada agente anuncia su estimación a los otros agentes Cada agente anuncia su estimación a los otros agentes

Los agentes pueden actuar concurrentemente entre ellos y con los eventos del ambiente Los agentes pueden actuar concurrentemente entre ellos y con los eventos del ambiente Sistemas multiagentes “Reactivos” El ambiente cambia rápidamente y de manera impredecible El ambiente cambia rápidamente y de manera impredecible Los agentes tienen razonamiento limitado Los agentes pueden percibir una pequeña parte del ambiente Los agentes pueden percibir una pequeña parte del ambiente

Agentes que dan servicios a otros son vistos como recursos. Si un agente no interactúa con otro es mejor ignorarlo o tratarlo como parte del medio ambiente. Agentes que dan servicios a otros son vistos como recursos. Si un agente no interactúa con otro es mejor ignorarlo o tratarlo como parte del medio ambiente.

La información de cada agente puede ser: El estado del medio ambiente (de acuerdo al agente) El estado del medio ambiente (de acuerdo al agente) El problema que el agente quiere resolver El plan abstracto de su ejecución Una agenda de tareas por hacer y de tareas actuales Una agenda de tareas por hacer y de tareas actuales

Los recursos disponibles (protocolo de acceso, métrica de costo, modelo de uso del recurso, el estado del recurso) Los recursos disponibles (protocolo de acceso, métrica de costo, modelo de uso del recurso, el estado del recurso) Las transiciones de estados legales y las restricciones en el estado del ambiente Las transiciones de estados legales y las restricciones en el estado del ambiente Las habilidades de los agentes (razonamiento, percepción, comunicación, acciónes permisibles) Las habilidades de los agentes (razonamiento, percepción, comunicación, acciónes permisibles) La organización de los agentes

Combinación de métodos centralizados y distribuidos Combinación de métodos centralizados y distribuidos Tendencias: Investigación en la interacción Humanos - Agentes Computacionales. Investigación en la interacción Humanos - Agentes Computacionales.

Demos Planificación cooperativa Soccer con agentes teleo-reactivos

Actividad Dado que ya se tiene una arquitectura seleccionada, especificar el enfoque de agentes para su proyecto. Puntos extras al equipo que demuestre con una simulación (preferentemente usando el lenguaje de su plataforma) el comportamiento esperado de su agente.

Agentes Fin