Cadenas De Markov.

Slides:



Advertisements
Presentaciones similares
Introducción Las cadenas de markov son modelos probabilísticos que se usan para predecir la evolución y el comportamiento a corto y a largo plazo de determinados.
Advertisements

Tema 4. Juegos simultáneos con información incompleta.
Procesos estocásticos 1
CONTENIDOS Teoría del muestreo ¿Cómo seleccionar una muestra?
Pruebas de significancia para datos cualitativos
FACTORIZACIÓN LU Bachilleres:
MATERIA: INVESTIGACIÓN DE OPERACIONES 2 EQUIPO : EQUIP 4 CATEDRATICO: ZINATH JAVIER JERONIMO INTEGRANTES: Yesenia Contreras Magaña Widman Antonio Hernández.
MATRICES DE PROBABILIDADES Dr. José Gpe. Ríos Alejandro ITESM Campus Monterrey 5 de Noviembre del 2012.
Bivariadas y Multivariadas
INSTITUTO TECNOLOGICO DE VILLAHERMOSA
INSTITUTO TECNOLÒGICO UNIDAD IV CADENAS DE MARKOV
Instituto tecnológico de Villahermosa
De Ocurrencia de Uno, de Dos Eventos
Investigación de Operaciones II
ANALISIS DE DECISIONES
Ingeniería en Ciencias Económicas y Financieras
Ingeniería Matemática
Ingeniería en Ciencias Económicas y Financieras
Hugo Jimenez Miguel Galicia Manuel Wiechers. Introducción No solo considera el edo. del proceso en el instante t El costo puede depender de más variables.
Clouds by Chance: Improving Atmosphere Models with Random Numbers
Karen Junieth Zeledón Urrutia
Econometria 2. Modelo de Regresión Lineal Simple
Mario Bidegain (FC) – Alvaro Diaz (FI) – Marcelo Barreiro (FC)
Instituto San Lorenzo Departamento de Matemática Probabilidades.
DESARROLLO SOCIAL basado en el CONOCIMIENTO
EL CONCEPTO DE PROBABILIDAD
Distribuciones de Probabilidad
Redes Múltiples Redes Sociales: Conceptos Básicos IV.
Características básicas de los datos económicos de series temporales
Probabilidad condicional
Prueba de hipótesis Equivalencia entre la prueba de hipótesis y los intervalos de confianza Valor de probabilidad Valor de probabilidad unilateral Prueba.
UNIVERSIDAD TECNICA DE COTOPAXI
Biograma Introducir datos en una matriz. Elegir método para máximos y mínimos. Calcular los máximos y mínimos observados. Límites.
Informática empresarial
MODELOS DETERMINÍSTICOS VS MODELOS ESTOCÁSTICOS
Cadenas de Markov de Tiempo Discreto
E Experimentos aleatorios. Espacio muestral
Sesión 6: Campos de Markov
CLASE 3 - Probabilidad condicional Independencia de sucesos
Bioinformática: Fundamentos y aplicaciones de actualidad Curso de verano 2005 Revisión de algunos modelos probabilísticos de evolución genética (Procesos.
Control Estadístico de Procesos Introducción a la Probabilidad.
Teoría de Probabilidad
Ecuaciones de Chapman Kolmogorov
Continuación Unidad 3 Generación de variables aleatorias.
Tema 7: Regresión Simple y Múltiple. EJEMPLO: Aproxima bien el número de préstamos que efectúa una biblioteca a lo largo de su primer año de vida. Nos.
M. Angélica Maulén-Yañez (1) y Eduardo González-Olivares (2)
Primas: Costos. Prima Una prima es simplemente el precio de una cobertura de seguro (pero no expresamos por unidad – normalmente) Esto implica que los.
Universidad Nacional de Colombia Curso Análisis de Datos Cuantitativos.
Capacidad de Proceso.
Razonamiento probabilistico
Capítulo 1. Conceptos básicos de la Estadística
Econometría Procesos Estocásticos Capitulo IV
INVESTIGACIÓN OPERATIVA
8. Distribuciones continuas
Villahermosa, Tab. 21 septiembre MATERIA: Investigacion de operaciones TEMA: Lineas de espera ALUMNOS: Maria isabel vega chanona HORA: 11:00 am a.
Probabilidades Históricamente, el propósito original de la teoría de probabilidades se limitaba a la descripción y estudios de juegos de azar. Girolamo.
Distribuciones probabilísticas discretas
Investigación de Operaciones 2
PLAN MAESTRO PRODUCCION
Las fórmulas más usadas en excel
2.1 DEFINICIONES CARACTERÍSTICAS Y SUPOSICIONES.
Alumno: Hebert Rangel Gutierrez Matricula: Tutor: Leonardo Olmedo Asignatura: Estadistica Descriptiva Licenciatura en Tecnologías de la Información.
MANUAL DE LABORATORIO DE CÓMPUTO ECONOMETRÍA I MODELO DE REGRESIÓN GENERAL 1 Profesor: Barland A. Huamán Bravo 2011 UNIVERSIDAD NACIONAL AGRARIA DE LA.
1 2  La Teoría de la Probabilidad constituye la base o fundamento de la Estadística, ya que las ingerencias que hagamos sobre la población o poblaciones.
Matrices Pág. 1. Matrices Pág. 2 Se llama matriz traspuesta de A, y se representa por A t a la matriz que resulta de intercambiar las filas y las columnas.
MODELOS DE PRONOSTICOS Primer semestre 2010 Modelo de Regresión con dos variables.
MATRICES.
P y E 2014 Clase 4Gonzalo Perera1 Repaso de clase anterior Probabilidad condicional, independencia de sucesos. Distribución Binomial e Hipergeométrica.
GESTIÓN DE RECURSOS BIOLÓGICOS EN EL MEDIO NATURAL
INFERENCIA ESTADÍSTICA
Transcripción de la presentación:

Cadenas De Markov

Aplicación de la Cadena De Markov El análisis de Markov, llamado así en honor de un matemático ruso que desarrollo el método en 1907, permite encontrar la probabilidad de que un sistema se encuentre en un estado en particular en un momento dado. Algo más importante aún, es que permite encontrar el promedio a la larga o las probabilidades de estado estable para cada estado. Con esta información se puede predecir el comportamiento del sistema a través del tiempo Su introducción de la cadena de Markov como un modelo para el estudio de variables aleatorias hecho enormes cantidades de investigación posible en los procesos estocásticos [un proceso estocástico es una familia o una colección de variables aleatorias indexadas por un proceso de parámetros también se le llama suerte o azar

Que es la Cadena De Markov Las cadenas de markov son una herramienta para analizar el comportamiento de determinados procesos estocásticos, estos procesos evolucionan de forma determinantica a lo largo del tiempo en torno a un conjunto  de estados. Es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. Recuerdan el último evento y esto condiciona las posibilidades de los eventos futuros Nota Memoria es la ultima situación de un hecho que ya fue concluido

en que consta la Cadena De Markov La cadena de Markov costa de una secuencia X1, X2, X3, … de variables aleatorias. El rango de estas variables, es llamado espacio estado, el valor de Xn es el estado del proceso en el tiempo n. Si la distribución de probabilidad condicional de Xn+1 en estados pasados es una función de Xn por sí sola, entonces: Donde xi es el estado del proceso en el instante i. La identidad mostrada es la Propiedad de Markov Nota Sea x1 = un evento o algún suceso que directamente afecte a nuestro estado Xn = espacio algun suceso que pueda pasar tomando en cuenta el suceso en el que esta o que pueda suceder

Aplicación de la Cadena De Markov Las cadenas de markov se usan en muchos campos de la industria entre estos el reparto del mercado entre marcas, dinámica de las averías de máquinas para decidir politica de mantenimiento, evolución de una enfermedad, etc. Otra de las aplicaciones de las cadenas de markov es la administración Dentro del las cadenas de markov existen dos categorías las cuales son Continuas Discretas

Problema de la Cadena De Markov Después de mucho estudio sobre el clima, hemos visto que si un día está soleado, en el 70% de los casos el día siguiente continua soleado y en el 30% se pone nublado. En términos de probabilidad, lo que nos sirve entonces para predecir el clima, vemos que la probabilidad de que continúe soleado el día siguiente es .7 y la probabilidad de que al día siguiente esté nublado es .3. También nos fijamos en que si un día está nublado, la probabilidad de que esté soleado el día siguiente es .6 y la probabilidad de que se ponga nublado es .4 XN Estado Actual = Día Soleado (x1) 70 % 30 % Variable aleatoria ( x1) Tiempo N Variable aleatoria ( x2 ) Mañana Pasado mañana

Problema de la Cadena De Markov Hoy está nublado, ¿cuál es la probabilidad de que mañana continúe nublado? ¿cuál es la probabilidad de que está nublado pasado mañana? Pasado mañana Tiempo de hoy Mañana 7 Soleado 6 Soleado 3 Nublado Nublado 6 Soleado 4 Nublado 4 Nublado podemos predecir qué ocurrirá mañana si sabemos que hoy está nublado. Vemos que la probabilidad de que mañana continúe nublado es .4, es decir, si hiciéramos esta predicción muchas veces estaríamos en lo correcto cerca del 40% de las veces

Problema de la Cadena De Markov Si hoy está nublado, para que pasado mañana esté nublado, podríamos tener un día de mañana soleado o nublado. Así tenemos las siguientes secuencias en orden de (hoy, mañana, pasado mañana): (nublado, soleado, nublado) o (nublado, nublado, nublado) donde pasado mañana es nublado. Estas secuencias son mutuamente excluyentes, corresponden a caminos distintos en el árbol, así tenemos que: P(pasado mañana nublado | hoy nublado) = P((nublado, soleado, nublado) o (nublado, nublado, nublado)) = P(nublado, soleado, nublado) + P (nublado, nublado, nublado) = (.6 ´ .3) + (.4 ´ .4) = .34

Problema de la Cadena De Markov Este resultado se obtuvo multiplicando las probabilidades condicionales a lo largo de los caminos desde hoy nublado hasta pasado mañana nublado. No es necesario que seamos tan específicos en términos de hoy, mañana o pasado mañana, podemos darnos cuenta que lo realmente importante es el número de días que pasa entre una predicción y otra Tiempo de hoy Nublado Mañana Pasado mañana Soleado

Problema de la Cadena De Markov Hoy está nublado, ¿cuál es la probabilidad de que esté nublado tres días después? El proceso de este ejemplo sólo puede adquirir uno de dos estados posibles x1 = nublado y x2 = soleado. La probabilidad con que se va de un estado a otro depende del estado en que estamos en el presente. Dejemos que X1 represente el estado del clima del día número 1, X2 el estado del clima del día número 2 y así sucesivamente. En general, para n = 1, 2, ... sea Xn el estado del clima La sucesión de observaciones X1, X2, ... se llama un proceso estocástico o proceso aleatorio. La primera observación X1 se conoce como el estado inicial del proceso y para n = 2, 3, ... , Xn es el estado del proceso en el tiempo n

Matriz de Transición La forma más cómoda de expresar la ley de probabilidad condicional de una cadena de Markov es mediante la llamada matriz de probabilidades de transición P Dicha matriz es cuadrada con tantas filas y columnas como estados tiene el sistema, y los elementos de la matriz representan la probabilidad de que el estado próximo sea el correspondiente a la columna si el estado actual es el correspondiente a la fila.

Como el sistema debe evolucionar de t a alguno de los n estados posibles, las probabilidades de transición cumplirán con la propiedad siguiente: Además, por definición de probabilidad, cada una de ellas ha de ser no negativa:

Supongamos que la población de un país, está clasificada de acuerdo con los ingresos en Estado 1: pobre Estado 2: ingresos medios Estado 3: rico Supongamos que en cada período de 20 años tenemos los siguientes datos para la población y su descendencia: De la gente pobre, el 19% pasó a ingresos medios, y el 1% a rica. De la gente con ingresos medios, el 15% pasó a pobre, y el 10% a rica. De la gente rica, el 5% paso a pobre, y el 30%, a ingresos medios.

Podemos armar una matriz de transición de la siguiente manera: