La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

UNIVERSIDAD INSURGENTES

Presentaciones similares


Presentación del tema: "UNIVERSIDAD INSURGENTES"— Transcripción de la presentación:

1 UNIVERSIDAD INSURGENTES
Integrantes Vanesa Zaragoza Miguel Estefany García Medina “CADENA DE MARKOV”

2 CADENAS DE MARKOV Definición
Una cadena de Markov es una sucesión de ensayos similares u observaciones en la cual cada ensayo tiene el mismo número finito de resultados posibles y en donde la probabilidad de cada resultado para un ensayo dado depende sólo del resultado del ensayo inmediatamente precedente y no de cualquier resultado previo.

3 Introducción Un proceso o sucesión de eventos que se desarrolla en el tiempo en el cual el resultado en cualquier etapa contiene algún elemento que depende del azar se denomina proceso aleatorio o proceso estocástico. El caso más simple de un proceso estocástico en que los resultados dependen de otros, ocurre cuando el resultado en cada etapa sólo depende del resultado de la etapa anterior y no de cualquiera de los resultados previos Tal proceso se denomina proceso de Markov o cadena de Markov (una cadena de eventos, cada evento ligado al precedente) Estas cadenas reciben su nombre del matemático ruso Andrei Andreevitch Markov ( ). Como mencionamos antes, estas cadenas tiene memoria, recuerdan el último evento y eso condiciona las posibilidades de los eventos futuros. Se utilizan, por ejemplo, para analizar patrones de compra de deudores morosos, para planear necesidades de personal, para analizar el reemplazo de un equipo, entre otros.

4 Proceso estocástico: Es un conjunto o sucesión de variables aleatorias: {X(t)CG } definidas en un mismo espacio de probabilidad. Normalmente el índice t representa un tiempo y X(t) el estado del proceso estocástico en el instante t. El proceso puede ser de tiempo discreto o continuo si G es discreto o continuo. Si el proceso es de tiempo discreto, usamos enteros para representar el índice: {X1, X2, ...}

5 Ejemplos de procesos estocásticos:
Serie mensual de ventas de un producto Estado de una máquina al final de cada semana (funciona/averiada) Nº de clientes esperando en una cola cada 30 segundos Marca de detergente que compra un consumidor cada vez que hace la compra. Se supone que existen 7 marcas diferentes Nº de unidades en almacén al finalizar la semana

6 LAS CADENAS DE MARKOV SON UN CASO PARTICULAR DE MODELOS DE MARKOV
Tipos de modelos de Markov: Procesos de Markov (Modelos semi-markovianos): Las probabilidades de transición entre estados pueden variar a medida que transcurren más ciclos Ejemplo: para modelizar la esperanza de vida, el riesgo de muerte aumenta con la edad Cadenas de Markov: Las probabilidades de transición se suponen constantes a lo largo del tiempo

7 PROPIEDAD MARKOVIANA Ejemplos:
Comportamiento (sube/baja) del precio de las acciones hoy depende de lo ocurrido ayer Problema de la ruina de un jugador de casino Elección de marca: Con qué línea aérea volar a Madrid?

8


Descargar ppt "UNIVERSIDAD INSURGENTES"

Presentaciones similares


Anuncios Google