Identificación de Sistemas Señales y Sistemas Estocásticos
Contenido Variables aleatorias Caracterización Estadistica de las variables aleatorias Distribuciones de Probabilidad comunes Función de distribución de probabilidad conjunta Procesos estocásticos Procesos Estacionarios Procesos ergodicos Procesos estocásticos de tiempo discreto Procesos quasi-estacionarios Sistemas lineales discretos con excitación aleatoria Ejemplos
Variables aleatorias
Definición de variable aleatoria Una Variable aleatoria es una función (o regla) x( w) que asocia un número real x con cada resultado en el espacio muestral S de un experimento.
Ejemplo de una variable aleatoria Supongamos que estámos arrojando una moneda. El espacio muestral de nuestro experimento es: Asumamos que tenemos una función x con las siguientes propiedades: S = { cara, sello } x es una variable aleatoria (discreta).
Función densidad de probabilidad Si “x” es una variable aleatoria continua podemos asociar una probabilidad a que su magnitud se encuentre entre dos niveles cualquiera, esto es x1 y x + dx1, como sigue: px(x1)dx ≡ probabilidad que x1 ≤ x ≤ x1 + dx px(x1) es la densidad de probabilidad de la variable en x = x1.
Función densidad de probabilidad Ya que pueden ocurrir todos los valores de x: Y la probabilidad de que x1 ≤ x ≤ x2 se convierte en
Función densidad de probabilidad Ejemplo: la Función densidad de probabilidad “normal”
función de masa de probabilidad Si tenemos una variable que sólo tiene valores discretos la probabilidad es descrita en términos de la función de masa de probabilidad 0 ≤ r(x) ≤ 1 for all x
Función de distribución de probabilidad Esta función define la probabilidad de que x sea más pequeña o igual a un cierto valor a, entonces: función de la distribución acumulativa.
Caracterización Estadistica de las variables aleatorias
Teoría de los momentos Momentos respecto al Origen El nesimo momento respecto al origen para una variable continua x es Momentos respecto a la Media
Valor Medio o Valor Esperado El valor esperado es la media o valor promedio de la variable Si tenemos N muestras de la variable x, es decir el x1, x2, . . ., xN, la estimación de la media es; primer momento respecto al origen Con N muestras solo es posible hacer una “estimación”
Valor Cuadrático medio El Valor Cuadrático medio es el valor promedio de x2(t), Segundo momento respecto al origen
La varianza La Varianza es el valor cuadrático medio de la diferencia con la media Si tenemos N muestras de la variable x , es decir x1, x2, . . ., xN, la estimación de la varianza es Segundo momento respecto a la media Con N muestras solo es posible hacer una “estimación”
La varianza La varianza de una variable aleatoria es en cierta forma una medida del grado de aleatoriedad de la variable, que tanto se aleja de su valor medio La desigualdad de Chebyshev: Varianza alta Varianza baja
Distribuciones de Probabilidad comunes
Origen de las funciones de distribucion Las distribuciones de Probabilidad provienen de experimentos dónde el resultado está sujeto al azar. La naturaleza del experimento dicta cuales distribuciones de probabilidad pueden ser apropiadas para modelar los resultados aleatorios resultantes. Hay muchas distribuciones de uso común: uniforme, exponencial, normal, beta, gamma, etc.
Estimacion práctica de la distribución de probabilidad Un histograma es una esquema que da la frecuencia relativa de ocurrencia de la variable x en diferentes intervalos de x. Si hemos ordenado M valores de la variable x en un histograma y digamos Ni de estos caen dentro de un intervalo entre el xi and xi + Δx entonces, es un estimado de la probabilidad que xi ≤ x ≤ xi + Δx
Estimacion práctica de la distribución de probabilidad Si la variable “x” es continua y Δx pequeño, es decir Δx → dx, la estimación de la densidad de probabilidad es
La distribución uniforme La distribución de probabilidad continua más fundamental es la distribución uniforme
Momentos de la distribución uniforme Media Varianza
La distribución uniforme Un uso importante de la distribución uniforme es la simulación numérica de las distribuciones que pueden ser transformadas a partir de la distribución uniforme. El generador uniforme de MATLAB es llamado rand Genera números aleatorios en el intervalo [0,1], escalar, vectorial o arreglos más generales
La distribución uniforme De manera más general, en MATLAB para generar N muestras uniformes en en intervalo [a,b ] La distribución aproximada se grafica por medio de la función hist(x). x = a – (b – a)*rand(N,1)
La distribución uniforme Histogramas de simulaciones de distribución uniforme en (0,1) usando MATLAB para dos tamaños de muestra diferentes N.
La función Normal o Gaussiana La Función Normal o Gaussiana de densidad de probabilidad y su funcion de distribución son definidas como: se denota:
La función Normal o Gaussiana Distribucion normal con E[x] = 5 y distintos valoes de σ
La función Normal o Gaussiana Histogramas de simulaciones de la distribución estándar normal con media 0 y varianza 1 usando 50 bloques para dos medidas de muestreo N.
Función de distribución de probabilidad conjunta
Función de densidad de probabilidad conjunta Sean dos variables aleatorias, x y y, definidas sobre el espacio muestra de un experimento Podemos definir una probabilidad conjunta como Ya que pueden ocurrir todos los valores de x y y: p(x1,y1)dxdy ≡ probabilidad que x1 ≤ x ≤ x1 + dx y y1 ≤ y ≤ y1 + dy
Función de densidad de probabilidad conjunta La probabilidad de que (x,y) asuman un valor en la región R es igual al volumen de la región sombreada p(x,y)
Probabilidad conjunta La probabilidad conjunta para x y y para cualquier conjunto A de dos dimensiones es: La probabilidad conjunta de dos variables aleatorias x y y se define como
Funciones de densidad de probabilidad marginal Las funciones de densidad de probabilidad marginal de x y y, estan dadas por:
variables aleatorias independientes Dos variables aleatorias continuas x y y se dice que son estadísticamente independientes si su probabilidad conjunta es igual al producto de sus probabilidades individuales, Si esta condicion no se satisface para todo (x,y), entonces x y y son dependientes
Probabilidad condicional Dadas dos variables aleatorias x y y, denotamos la probabilidad condicional
Densidad condicional Usando las funciones de densidad correspondientes La funcion densidad condicional es funcion de densidad de probabilidad marginal de y
variables aleatorias independientes Es decir, para dos variables aleatorias continuas x y y estadísticamente independientes
Correlacion La correlación Rxy de dos variables aleatorias x y y está definida por Si E[xy] = 0, se dice que x y y son ortogonales
Covariancia La covarianza está definida como
Covariancia Cuando x y y son completamente independientes Si x y y son independientes entonces la esperanza del producto es el producto de las esperanzas
Fuentes FUENTES Van den Hof Paul M.J., Bombois Xavier, System Identification for Control. Lecture Notes DISC Course. Delft Center for Systems and Control. Delft University of Technology. March, 2004 Carroll Michael L., Overview of Kalman Filter Theory and Navigation Applications. Course Materials. A week-long course given of in Warner Robins, GA. 23-27 Feb 2004. Lagunas Miguel Angel, Procesado de Señal. Centro Tecnologic de Telecomunicacions de Catalunya, Barcelona, España. 25 de Octubre de 2004 Novak M., (expanded by N. Isyumov) “Dynamics of Structures”, Lecture Notes - CEE490. The University of Western Ontario - Faculty of Engineering Science Department of Civil And Environmental Engineering. 2003-2004 Olver Peter J. and Shakiban Chehrzad, Applied Mathematics. School of Mathematics, University of Minnesota and Department of Mathematics, University of St. Thomas. 1999. Perez Tristan, Essentials of Random Variables and Stochastic Processes (Complementary Notes for TMR4240–Marine Control Systems). Centre for Ships and Ocean Structures—CeSOS. Norwegian University of Science and Technology. March 10, 2005 Roberts Clive, Fundamentals of Signals and Systems. University of Birmingham. 2003. Zanini Aníbal, Control Digital y Estocástico. Notas de clase. Ingeniería en Automatización y Control Industrial, Universidad Nacional de Quilmes. Abril, 2000. Hanson Floyd and Westman Jhon, Applied Stochastic Processes and Control for Jump-Diffusions: Modeling, Analysis and Computation. Society for Industrial and Applied Mathematics. May 1, 2004. Belaustegui Goitia Carlos, Orda César, Galarza Cecilia. Procesos Estocásticos, notas de clase. Departamento de Electrónica, FIUBA, Universidad de Buenos Aires. 17 de Marzo 2005
ULTIMA DIAPOSITIVA