Ingeniería en Ciencias Económicas y Financieras

Slides:



Advertisements
Presentaciones similares
Introducción Las cadenas de markov son modelos probabilísticos que se usan para predecir la evolución y el comportamiento a corto y a largo plazo de determinados.
Advertisements

Tema 7: Probabilidad 1. Introducción. 2. Variables aleatorias.
Procesos estocásticos 1
Profesor : Rodrigo Sanchez H.
Capítulo 2 Cadenas de Markov
Alumna: Mayra Isabel Zurita Rivera
Investigación de Operaciones
INVESTIGACIÓN DE OPERACIONES II
Bivariadas y Multivariadas
INSTITUTO TECNOLOGICO DE VILLAHERMOSA
Instituto Tecnológico
INSTITUTO TECNOLÒGICO UNIDAD IV CADENAS DE MARKOV
Objetivo Comprender cómo se determinan simultáneamente la producción, la tasa de paro y la tasa de interés en el corto y en el medio plazo. Comprender.
UNIDAD 2 CARRERA: ALUMNO: CATEDRATICO:
Instituto tecnológico de Villahermosa
Ingeniería en Ciencias Económicas y Financieras
Ingeniería Matemática
Ingeniería en Ciencias Económicas y Financieras. Considere el caso de un vendedor que debe decidir cuántos diarios ordenar cada día a la planta de periódicos.
Tema 1: Programación dinámica
Son problemas secuenciales: El problema se puede dividir en etapas. Definición: Método que permite determinar de manera eficiente las decisiones que optimizan.
Unidad académica: Ingenierías
Procesos Estocásticos
Representación en espacio de estado
Hugo Jimenez Miguel Galicia Manuel Wiechers. Introducción No solo considera el edo. del proceso en el instante t El costo puede depender de más variables.
Karen Junieth Zeledón Urrutia
DEFINICIONES Y TERMINOLOGÍA
Tema 4: Cadenas de Markov
PROPIEDADES DE LAS REDES DE PETRI
Sesión 2: Métodos Probabilísticos Básicos
MODELOS DETERMINÍSTICOS VS MODELOS ESTOCÁSTICOS
Cadenas de Markov de Tiempo Discreto
Proceso estocástico Cadena de Markov Estado Transición
Procesos Estocásticos
Variables Aleatorias Unidimensionales
Capítulo 9 Modelos de Espera
Sesión 6: Campos de Markov
Bioinformática: Fundamentos y aplicaciones de actualidad Curso de verano 2005 Revisión de algunos modelos probabilísticos de evolución genética (Procesos.
Taller de Base de Datos Minería de Datos en la Web Descubrimiento de patrones y modelos en la Web Minería de Contenido –Contenido de páginas y fuentes.
Programación Dinámica
Ecuaciones de Chapman Kolmogorov
Teoría de Colas.
Departamento de Informática Universidad Santa María
1.Introducción a la Estadística 2.Descripción de los conjuntos de datos 3.Uso de la Estadística para sintetizar conjuntos de datos 4.Probabilidad 5.Variables.
Raúl Monroy (de las notas de Jane Hilston)
Los Inventarios ÍNDICE 1.1. Introducción
Teoría de Trafico en Redes
Capítulo 1. Conceptos básicos de la Estadística
Teoría Cinética. Mecánica Estadística Lunes 11 de junio de 2007.
Econometría Procesos Estocásticos Capitulo IV
INVESTIGACIÓN OPERATIVA
Procesos Estocásticos Edgar H Criollo V Mayo 2010
8. Distribuciones continuas
Villahermosa, Tab. 21 septiembre MATERIA: Investigacion de operaciones TEMA: Lineas de espera ALUMNOS: Maria isabel vega chanona HORA: 11:00 am a.
CLIENTES INTERNO Y EXTERNO
Unidad 2:Lineas de espera 2
2.1 DEFINICIONES LINEAS DE ESPERA, CARACTERISTICAS Y SUPOSICIONES
Investigación de Operaciones 2
Cadenas De Markov.
Unidad IV Cadenas de Markov
Procesos de Nacimiento y Muerte
2.1 DEFINICIONES CARACTERÍSTICAS Y SUPOSICIONES.
1.Introducción a la Estadística 2.Descripción de los conjuntos de datos 3.Uso de la Estadística para sintetizar conjuntos de datos 4.Probabilidad 5.Variables.
Alumno: Hebert Rangel Gutierrez Matricula: Tutor: Leonardo Olmedo Asignatura: Estadistica Descriptiva Licenciatura en Tecnologías de la Información.
UNIDAD II LINEAS DE ESPERA
Hernández Camacho Víctor Jesus Islas Sánchez Karla Vanessa
Villahermosa, Tab. 24 noviembre del 2010 ING. INDUSTRIAL INVESTIGACIÓN DE OPERACIONES II CATEDRATICO: Zinath Javier Gerónimo UNIDAD 4 CADENAS DE MARKOV.
Definición. Una Cola es una línea de espera y la teoría de colas es una colección de modelos matemáticos que describen sistemas de líneas de espera particulares.
Gestión Logística Clase 3 Clases de Productos
Investigación Operativa II.  Se dice que el estado j es accesible desde el estado i, si para alguna etapa n≥0 Que el estado j sea ACCESIBLE desde el.
UNIVERSIDAD INSURGENTES
Transcripción de la presentación:

Ingeniería en Ciencias Económicas y Financieras Cadenas de Markov Ingeniería en Ciencias Económicas y Financieras

Proceso estocástico: • Es un conjunto o sucesión de variables aleatorias: {Xt} definidas en un mismo espacio de probabilidad. • Normalmente el índice t ϵT representa un tiempo y Xt el estado del proceso estocástico en el instante t. • El proceso puede ser de tiempo discreto o continuo si T es discreto o continuo. • Si el proceso es de tiempo discreto, usamos enteros para representar el índice: {X0, X1, ...}

Ejemplos de procesos estocásticos: Serie mensual de ventas de un producto Estado de una máquina al final de cada semana (funciona/averiada) Nº de clientes esperando en una cola cada 30 segundos Marca de detergente que compra un consumidor cada vez que hace la compra. Se supone que existen 7 marcas diferentes Nº de unidades en almacén al finalizar la semana

Introducción Las cadenas de Markov son modelos probabilísticos que se usan para predecir la evolución y el comportamiento a corto y a largo plazo de determinados sistemas. Ejemplos: reparto del mercado entre marcas; dinámica de las averías de máquinas para decidir política de mantenimiento; evolución de una enfermedad, etc.

1. Definición de Cadena de Markov Una Cadena de Markov (CM) es: Un proceso estocástico Con un número finito de estados (M) Con probabilidades de transición estacionarias Que tiene la propiedad markoviana

ELEMENTOS DE UNA CADENA DE MARKOV Un conjunto finito de M+1 estados, exhaustivos y mutuamente excluyentes (ejemplo: estados de la enfermedad) Ciclo de markov (“paso”) : periodo de tiempo que sirve de base para examinar las transiciones entre estados (ejemplo, un mes) Probabilidades de transición entre estados, en un ciclo (matriz P) Distribución inicial del sistema entre los M estados posibles

PROPIEDAD MARKOVIANA Un proceso estocástico tiene la propiedad markoviana si las probabilidades de transición en un paso sólo dependen del estado del sistema en el período anterior (memoria limitada o falta de memoria)

PROPIEDAD MARKOVIANA

PROPIEDAD MARKOVIANA

PROPIEDAD MARKOVIANA Otros ejemplos: Comportamiento (sube/baja) del precio de las acciones hoy depende de lo ocurrido ayer El modelo de mercado de acciones cambia de tal manera que el que suba o no mañana depende de si subió o no hoy y ayer.( Implícitamente se puede recoger información de más de un período, es decir recolectar una cantidad arbitraria de historia, pero se incrementan el número de estados) Problema de la ruina de un jugador de casino

Ecuaciones de Chapman-Kolmogorov Casos especiales: Si m=1 Si m=n-1

La matriz de transición a n pasos se puede obtener de la siguiente manera:

En el ejemplo de inventarios visto inicialmente encuentre : Dado que se tiene una cámara al final de una semana, la probabilidad de que no haya cámaras en inventario dos semanas después Dado que se tienen dos cámaras al final de una semana, la probabilidad de que haya tres cámaras en el almacén dos semanas después. Dado que queda una cámara al final de una semana, la probabilidad de que no hayan cámaras en inventario 4 semanas más tarde.

Un caso práctico: Un estudio realizado por el INEC: Proyecto de matrices de transición laboral

Pregunta del estudio: ¿cuántas personas trabajan en su establecimiento?

Probabilidades incondicionales del estado Las probabilidades de transición de uno o n pasos son probabilidades condicionales. Si se desea la probabilidad incondicional P{Xn}=j, es necesario especificar la distribución de probabilidad del estado inicial, o sea P{X0=i}, para i=0, 1, … ,M. Entonces P{Xn=j}=P{X0=0}p0j(n)+P{X0=1}p1j(n)+…+P{X0=M}pMj(n)

En el ejemplo de inventarios, se supuso que se tenían tres unidades en inventario. Encuentre la probabilidad incondicional de que hayan tres cámaras en inventario dos semanas después de que el sistema se puso en marcha. En el caso práctico de data-crédito, se le pide a Ud. encontrar el porcentaje de gente que mantiene el crédito calificado como excelente luego de tres períodos de haber iniciado el proceso. ¿Cuál sería una visión general del estado de la economía a futuro?

Clasificación de estados de una cadena de Markov Los estados de las cadenas de Markov, se clasifican de acuerdo a las propiedades de sus probabilidades de transición. Se dice que el estado j es accesible desde el estado i si pij(n)>0, para alguna n ≥0. Se dice que los estados i y j se comunican, si el estado j es accesible desde el estado i y el estado i es accesible desde el estado j.

De manera general Cualquier estado se comunica consigo mismo Si el estdo i se comunica con el estado j, entonces el estado j se comunica con el estado i. Si el estado i se comunica con el estado j y el estado j se comunica con el estado k, entonces el estado i se comunica con el estado k.

Como consecuencia de estas propiedades de comunicación, se puede hacer una partición del espacio de estados en clases ajenas, en las cuales, dos estados que se comunican pertenecen a una misma clase. Si existe solo una clase, es decir todos los estados se comunican, se dice que la cadena de Markov es irreducible.

Ejemplos:

Encuentre las clases ajenas en el segundo ejemplo de acciones y en el ejemplo de la ruina del jugador de casino.

Un estado se llama transitorio si, después de haber entrado a este estado, el proceso nunca regresa a él, es decir un estado es transitorio si y solo si existe un estado j (j≠i) que es accesible desde el estado i, pero no viceversa, esto es, el estado i no es accesible desde el estado j. Se dice que un estado es recurrente si, después de haber entrado a este estado, el proceso definitivamente regresará a ese estado. Un estado es recurrente si y solo si no es transitorio.

Un tipo especial de estado recurrente es aquel estado al cual el proceso una vez que entró en él nunca saldrá de este estado, este tipo de estado se dice absorbente. Por lo tanto, el estado i es absorbente si y solo si pii=1 La recurrencia es una propiedad de clase, es decir, todos los estados de una clase son recurrentes o transitorios.

El periodo de un estado i se define como el entero t (t>1) si pii(n)=0 para todos los valores de n distintos de t, 2t, 3t, … y t es el entero más grande con esta propiedad.

Propiedades a largo plazo de las cadenas de Markov Existe una probabilidad límite de que el sistema se encuentre en el estado j después de un número grande de transiciones, y esta propiedad es independiente del estado inicial. Para una cadena de Markov irreducible ergódica

Donde las πj satisfacen de manera única las siguientes ecuaciones de estado estable: Los valores πj reciben el nombre de probabilidades de estado estable.