Descargar la presentación
La descarga está en progreso. Por favor, espere
1
Identificación de Sistemas
Señales y Sistemas Estocásticos
2
Contenido Variables aleatorias
Caracterización Estadistica de las variables aleatorias Distribuciones de Probabilidad comunes Función de distribución de probabilidad conjunta Procesos estocásticos Procesos Estacionarios Procesos ergodicos Procesos estocásticos de tiempo discreto Procesos quasi-estacionarios Sistemas lineales discretos con excitación aleatoria Ejemplos
3
Variables aleatorias
4
Definición de variable aleatoria
Una Variable aleatoria es una función (o regla) x( w) que asocia un número real x con cada resultado en el espacio muestral S de un experimento.
5
Ejemplo de una variable aleatoria
Supongamos que estámos arrojando una moneda. El espacio muestral de nuestro experimento es: Asumamos que tenemos una función x con las siguientes propiedades: S = { cara, sello } x es una variable aleatoria (discreta).
6
Función densidad de probabilidad
Si “x” es una variable aleatoria continua podemos asociar una probabilidad a que su magnitud se encuentre entre dos niveles cualquiera, esto es x1 y x + dx1, como sigue: px(x1)dx ≡ probabilidad que x1 ≤ x ≤ x1 + dx px(x1) es la densidad de probabilidad de la variable en x = x1.
7
Función densidad de probabilidad
Ya que pueden ocurrir todos los valores de x: Y la probabilidad de que x1 ≤ x ≤ x2 se convierte en
8
Función densidad de probabilidad
Ejemplo: la Función densidad de probabilidad “normal”
9
función de masa de probabilidad
Si tenemos una variable que sólo tiene valores discretos la probabilidad es descrita en términos de la función de masa de probabilidad 0 ≤ r(x) ≤ 1 for all x
10
Función de distribución de probabilidad
Esta función define la probabilidad de que x sea más pequeña o igual a un cierto valor a, entonces: función de la distribución acumulativa.
11
Caracterización Estadistica de las variables aleatorias
12
Teoría de los momentos Momentos respecto al Origen
El nesimo momento respecto al origen para una variable continua x es Momentos respecto a la Media
13
Valor Medio o Valor Esperado
El valor esperado es la media o valor promedio de la variable Si tenemos N muestras de la variable x, es decir el x1, x2, . . ., xN, la estimación de la media es; primer momento respecto al origen Con N muestras solo es posible hacer una “estimación”
14
Valor Cuadrático medio
El Valor Cuadrático medio es el valor promedio de x2(t), Segundo momento respecto al origen
15
La varianza La Varianza es el valor cuadrático medio de la diferencia con la media Si tenemos N muestras de la variable x , es decir x1, x2, . . ., xN, la estimación de la varianza es Segundo momento respecto a la media Con N muestras solo es posible hacer una “estimación”
16
La varianza La varianza de una variable aleatoria es en cierta forma una medida del grado de aleatoriedad de la variable, que tanto se aleja de su valor medio La desigualdad de Chebyshev: Varianza alta Varianza baja
17
Distribuciones de Probabilidad comunes
18
Origen de las funciones de distribucion
Las distribuciones de Probabilidad provienen de experimentos dónde el resultado está sujeto al azar. La naturaleza del experimento dicta cuales distribuciones de probabilidad pueden ser apropiadas para modelar los resultados aleatorios resultantes. Hay muchas distribuciones de uso común: uniforme, exponencial, normal, beta, gamma, etc.
19
Estimacion práctica de la distribución de probabilidad
Un histograma es una esquema que da la frecuencia relativa de ocurrencia de la variable x en diferentes intervalos de x. Si hemos ordenado M valores de la variable x en un histograma y digamos Ni de estos caen dentro de un intervalo entre el xi and xi + Δx entonces, es un estimado de la probabilidad que xi ≤ x ≤ xi + Δx
20
Estimacion práctica de la distribución de probabilidad
Si la variable “x” es continua y Δx pequeño, es decir Δx → dx, la estimación de la densidad de probabilidad es
21
La distribución uniforme
La distribución de probabilidad continua más fundamental es la distribución uniforme
22
Momentos de la distribución uniforme
Media Varianza
23
La distribución uniforme
Un uso importante de la distribución uniforme es la simulación numérica de las distribuciones que pueden ser transformadas a partir de la distribución uniforme. El generador uniforme de MATLAB es llamado rand Genera números aleatorios en el intervalo [0,1], escalar, vectorial o arreglos más generales
24
La distribución uniforme
De manera más general, en MATLAB para generar N muestras uniformes en en intervalo [a,b ] La distribución aproximada se grafica por medio de la función hist(x). x = a – (b – a)*rand(N,1)
25
La distribución uniforme
Histogramas de simulaciones de distribución uniforme en (0,1) usando MATLAB para dos tamaños de muestra diferentes N.
26
La función Normal o Gaussiana
La Función Normal o Gaussiana de densidad de probabilidad y su funcion de distribución son definidas como: se denota:
27
La función Normal o Gaussiana
Distribucion normal con E[x] = 5 y distintos valoes de σ
28
La función Normal o Gaussiana
Histogramas de simulaciones de la distribución estándar normal con media 0 y varianza 1 usando 50 bloques para dos medidas de muestreo N.
29
Función de distribución de probabilidad conjunta
30
Función de densidad de probabilidad conjunta
Sean dos variables aleatorias, x y y, definidas sobre el espacio muestra de un experimento Podemos definir una probabilidad conjunta como Ya que pueden ocurrir todos los valores de x y y: p(x1,y1)dxdy ≡ probabilidad que x1 ≤ x ≤ x1 + dx y y1 ≤ y ≤ y1 + dy
31
Función de densidad de probabilidad conjunta
La probabilidad de que (x,y) asuman un valor en la región R es igual al volumen de la región sombreada p(x,y)
32
Probabilidad conjunta
La probabilidad conjunta para x y y para cualquier conjunto A de dos dimensiones es: La probabilidad conjunta de dos variables aleatorias x y y se define como
33
Funciones de densidad de probabilidad marginal
Las funciones de densidad de probabilidad marginal de x y y, estan dadas por:
34
variables aleatorias independientes
Dos variables aleatorias continuas x y y se dice que son estadísticamente independientes si su probabilidad conjunta es igual al producto de sus probabilidades individuales, Si esta condicion no se satisface para todo (x,y), entonces x y y son dependientes
35
Probabilidad condicional
Dadas dos variables aleatorias x y y, denotamos la probabilidad condicional
36
Densidad condicional Usando las funciones de densidad correspondientes
La funcion densidad condicional es funcion de densidad de probabilidad marginal de y
37
variables aleatorias independientes
Es decir, para dos variables aleatorias continuas x y y estadísticamente independientes
38
Correlacion La correlación Rxy de dos variables aleatorias x y y está definida por Si E[xy] = 0, se dice que x y y son ortogonales
39
Covariancia La covarianza está definida como
40
Covariancia Cuando x y y son completamente independientes
Si x y y son independientes entonces la esperanza del producto es el producto de las esperanzas
41
Fuentes FUENTES Van den Hof Paul M.J., Bombois Xavier, System Identification for Control. Lecture Notes DISC Course. Delft Center for Systems and Control. Delft University of Technology. March, 2004 Carroll Michael L., Overview of Kalman Filter Theory and Navigation Applications. Course Materials. A week-long course given of in Warner Robins, GA Feb 2004. Lagunas Miguel Angel, Procesado de Señal. Centro Tecnologic de Telecomunicacions de Catalunya, Barcelona, España. 25 de Octubre de 2004 Novak M., (expanded by N. Isyumov) “Dynamics of Structures”, Lecture Notes - CEE490. The University of Western Ontario - Faculty of Engineering Science Department of Civil And Environmental Engineering Olver Peter J. and Shakiban Chehrzad, Applied Mathematics. School of Mathematics, University of Minnesota and Department of Mathematics, University of St. Thomas Perez Tristan, Essentials of Random Variables and Stochastic Processes (Complementary Notes for TMR4240–Marine Control Systems). Centre for Ships and Ocean Structures—CeSOS. Norwegian University of Science and Technology. March 10, 2005 Roberts Clive, Fundamentals of Signals and Systems. University of Birmingham Zanini Aníbal, Control Digital y Estocástico. Notas de clase. Ingeniería en Automatización y Control Industrial, Universidad Nacional de Quilmes. Abril, 2000. Hanson Floyd and Westman Jhon, Applied Stochastic Processes and Control for Jump-Diffusions: Modeling, Analysis and Computation. Society for Industrial and Applied Mathematics. May 1, Belaustegui Goitia Carlos, Orda César, Galarza Cecilia. Procesos Estocásticos, notas de clase. Departamento de Electrónica, FIUBA, Universidad de Buenos Aires. 17 de Marzo 2005
42
ULTIMA DIAPOSITIVA
Presentaciones similares
© 2025 SlidePlayer.es Inc.
All rights reserved.