03 - El Modelo Probabilístico en Geoestadística

Slides:



Advertisements
Presentaciones similares
DISTRIBUCIONES DE PROBABILIDAD
Advertisements

Carlos A. Andújar Rojas, Ph.D. 1. Razonamiento estadístico  Es el proceso por el que se utiliza la lógica para tratar de describir, explicar, predecir.
BIOESTADÍSTICA Y ESTADÍSTICA BÁSICA CHILLÁN, SEGUNDO SEMESTRE PROF. SOC. M© KEVIN VILLEGAS.
Métodos Cuantitativos de Análisis de Datos I. Medidas de Variación.
Presentado por Karina Yuliet Preciado Mosquera Estadística II.
ESTADÍSTICA ÍNDICE 1.Introducción.Introducción. 2.Población y muestra.Población y muestra. 3.Variables estadísticas:Variables estadísticas: Cualitativas.
TEMA 1: TEMA 1: INTRODUCCIÓN A LA ESTADÍSTICA Por: Denise Muñoz Belmonte Claudia Morales Cerezuela.
T – Student teoria de las muestras pequeñas Paola Andrea Palacio Montero Estadística.
DISTRIBUCIONES ESTADÍSTICAS Realizado por: Claudia Morales y Denise Muñoz.
Bioestadística Escala Cuantitativa.. Trabajadores en una fábrica. RegistroSexoEdad (años)Talla (m)Peso (kg) 1Fem Masc Masc
TEMA 3. ESTADÍSTICA BIDIMENSIONAL. INDICE 1.- Relación estadística: correlación 2.- Diagramas de dispersión o nube de puntos 3.- Tablas de frecuencia.
Estadística inferencial. ¿Qué es? La Estadística inferencial o Inferencia estadística estudia cómo sacar conclusiones generales para toda la población.
Aplicaciones de las matemáticas en la Informática Estudio de las Funciones Feria de Ciencias Agrarias Escuela de Computación E Informática Primero “A”
TEMA 2: PARÁMETROS ESTADÍSTICOS. INDICE 1. Parámetros estadísticos: 1.1 Definición 1.2 Medidas de Centralización: Medias, moda y Mediana 1.3 Medidas de.
Tema 2. Parámetros estadísticos. Indice 1. Parámetros estadísticos. Tipos: 1.1 Medidas de centralización(medias y moda) 1.2 Medidas de posición(mediana,
Estadística Aplicada y Diseño de Experimentos Clase 1 continuación.
República Bolivariana de Venezuela Instituto Universitario Politécnico “Santiago Mariño" Estadísticas I - OV Estadística Profesor : Bachiller: Pedro Beltrán.
Tipos de funciones Marcela mayen#14 4b.
Funciones y gráficas ITZEL ALEJANDRA LOZOYARODRIGUEZ
Tema 6 Cristhian Lopez..
FUNCIONES, PROCESAMIENTO ELEMENTAL DE DATOS
Medidas de tendencia central
Clase 4: Medidas de Tendencia Central y Medidas de Variación
DISTRIBUCION F DE FISHER.
Modelos probabilísticos
PRUEBAS DE BONDAD DE AJUSTE estas pruebas permiten verificar que la población de la cual proviene una muestra tiene una distribución especificada o supuesta.
Facultad de Ciencias Sociales
02 - Estudio Exploratorio de Datos: Univariable y Multivariable
TEMA 3: Distribuciones bidimensionales: relación entre dos variables estadísticas. Cristhian Lopez.
DISTRIBUCIONES EN EL MUESTREO
FUNCIONES, PROCESAMIENTO ELEMENTAL DE DATOS
Características estáticas de los elementos del sistema de medición
ANÁLISIS E INTERPRETACIÓN DE DATOS
TEMA 6 : DISTRIBUCIONES ESTADÍSTICAS.
Convergencia de variables aleatorias
LA DERIVADA Autor: Victor Manuel Castro González
Características estáticas de los elementos del sistema de medición
Clase 5: Medidas de Variación
ESTADÍSTICA UNIDIMENSIONAL
ASIMETRÍA.
CORRELACIÓN CAP 8 DE Peña y Romo.
NOTAS TECNICAS 1 METODO DE NEWTON-RAPHSON
REGRESIÓN LINEAL SIMPLE
Distribución normal o de Gauss
DISTRIBUCIÓN MUESTRAL DE UNA MEDIA.
CONTENIDO Teoría del muestreo ¿Cómo seleccionar una muestra?
Intervalos de confianza Muestras pequeñas
Aplicaciones Estadísticas a las Finanzas
ESTADÍSTICA BÁSICA.
Más allá de la regresión lineal de medias
ESTADÍSTICA DESCRIPTIVA
Distribuciones de Probabilidad DISTRIBUCIÓN BINOMIAL
DISEÑO Y ANALISIS DE EXPERIMENTOS
TEMA 1.- INTRODUCCIÓN A LA INFERENCIA
MEDIDAS DE DISPERSIÓN.
REGRESION LINEAL SIMPLE
Apuntes Matemáticas 2º ESO
Dr. Carlomagno Araya Alpízar
Distribución Uniforma Continua Distribución Normal
Operador de Suma La Letra Griega ∑ (sigma) se usa para indicar una suma, de manera qué:
Elementos Básicos de Probabilidad y Estadística
Apuntes de Matemáticas 3º ESO
ESTADISTICA DESCRIPTIVA
“Medidas de dispersión”
Distribución chi-cuadrado Distribución F de Fisher-Snedecor
MODELOS DE PRONOSTICOS
Estadística Descriptiva
ANALISIS DE REGRESION SIMPLE
REGRESION LINEAL SIMPLE
Distribución Normal. La Normal Estándar El modelo normal estándar es el de una variable aleatoria continua cuya imagen son todos los números reales.
Transcripción de la presentación:

03 - El Modelo Probabilístico en Geoestadística Interpretación probabilística Variables aleatorias Funciones de distribución y de densidad de probabilidad Momentos Ejemplos de distribuciones Distribuciones bivariables y multivariables Noción de función aleatoria

Interpretación Los fenómenos en Ciencias de la Tierra involucran procesos complejos, luego, parecen aleatorios. Sin embargo, los datos verdaderos no son resultado de un proceso aleatorio: se trata solamente de una interpretación por nuestro desconocimiento de la realidad. El valor de la variable regionalizada en un punto z(u) se interpreta como la realización (outcome) de una variable aleatoria Z(u). Algunos problemas: ¿Cómo hacer inferencia acerca de la variable aleatoria si sólo disponemos de una realización? Inferencia y Modelamiento

Variable aleatoria Variable aleatoria: Una función Z desde un espacio muestreal S en los números reales. Una forma de representar un valor z no muestreado (desconocido). Se denota con letra mayúscula La variable aleatoria Z puede tomar cualquier valor dado por su distribución de probabilidad. Ésta modela la incertidumbre respecto a su realización z. La variable puede ser continua o discreta: Variable continua: puede tomar valores en forma continua entre dos valores dados: ley, densidad, concentración, precio,... Variable discreta o categórica: pertenece a una clase. Ejemplo: códigos de litología ¿Cómo caracterizar una variable aleatoria?

Función de distribución acumulada Función de Distribución Acumulada (fda) de una variable aleatoria Z: Está definida para todos los valores de z Puede ser una función discontinua y es una función no-decreciente Esta fórmula entrega el área bajo la función de densidad de probabilidad de la variable aleatoria Z, y equivale a la probabilidad de que la variable aleatoria Z sea menor o igual a un valor de corte z. Probabilidad acumulada

Función de distribución acumulada La probabilidad de superar cualquier valor de corte z se escribe: La probabilidad de que Z pertenezca a un intervalo [a,b] (donde b>a) es la diferencia entre los valores de la función de distribución acumulada evaluada en los puntos b y a:

Función de distribución acumulada Teorema: (importante para entender porqué la simulación de Monte-Carlo funciona): Sea Z una variable aleatoria con función de distribución acumulada continua y definamos la variable aleatoria Y como . Entonces Y está distribuida uniformemente entre 0 y 1, es decir,

Función de densidad de probabilidad La función de densidad de probabilidad (fdp) es la derivada de la fda, si es derivable: La fda se obtiene integrando la fdp:

Función de densidad de probabilidad Propiedades de la función de densidad de probabilidad: f(z)  0

Gráfico de probabilidad acumulativo Permite ver todos los datos en un gráfico, reconocer y separar poblaciones estadísticas Permite también detectar valores extremos Puede usarse para verificar modelos de distribución: Línea recta en escala aritmética  distribución normal Línea recta en escala logarítmica  distribución lognormal Pequeñas divergencias pueden ser importantes (especialmente en los extremos)

Valores extremos Afectan considerablemente las estadísticas básicas ¿Qué hacer con ellos?: Declarar los valores extremos como erróneos y eliminarlos Clasificarlos en poblaciones estadísticas separadas Usar estadísticas robustas, que son menos sensibles a los valores extremos: mediana, coeficiente de correlación de posición Transformar los datos para reducir su influencia Bajarlos a un máximo “razonable” Outliers: Observaciones que parecen no pertenecer a la misma población constituida por el resto de los datos. Generan considerables problemas al aplicar regresión, debido a que tienen un efecto desproporcionado sobre los valores estimados Se puede eliminar los datos considerados extremos (outliers) sólo si se ha comprobado que están errados. En caso de ser datos verdaderos, proveen información que puede ser crítica para la respuesta del modelo.

Suavizamiento de distribuciones experimentales Pocos datos: estadísticas y gráficos erráticos Suavizamiento de la distribución experimental permite reducir las fluctuaciones, aumentar la resolución de clases y extender la distribución mas allá de los valores mínimo y máximo de la muestra Técnicas de suavizamiento más flexibles (programación cuadrática) se han aplicado para suavizar histogramas y gráficos de dispersión: mantienen las estadísticas de la muestra.

Momentos Esperanza: (primer momento) es un promedio ponderado por las probabilidades, si existe. Da una idea del centro de la distribución Caso discreto donde: E{Z} = valor esperado o “media” de Z wi = probabilidad de ocurrencia del i-ésimo valor n = número de datos Caso continuo

Momentos Propiedades de la esperanza: La varianza (segundo momento centrado). Nos da una idea de la dispersión de la distribución de la variable aleatoria Z. Se define como la esperanza de la desviación de Z respecto de su media al cuadrado:

Momentos Caso discreto Caso continuo

Momentos La varianza es una medida de la dispersión de los datos en torno a la media. Propiedades de la varianza La desviación estándar, , que es la raíz cuadrada de la varianza, también es una medida de la variabilidad de los datos respecto a la media. Se escribe en las mismas unidades de la variable. El coeficiente de variación (CV), que es adimensional, es la razón entre la desviación estándar y la media (s/m).

Distribución Uniforme fdp fda Momentos

Distribución Dirac z = a (constante, sin incertidumbre) fda fdp Momentos: E{Z} = m = a 2 = 0

Distribución Normal (Gaussiana) La distribución Gaussiana queda completamente caracterizada por dos parámetros, la media m y la varianza 2: La fdp normal estándar tiene una media de cero y una desviación estándar de uno:

Distribución Normal (Gaussiana) La fda de la distribución gaussiana G(z) no tiene una expresión analítica simplificada, pero la fda normal estándar Go(z) está tabulada en la literatura: Si y definimos: , entonces: La distribución gaussiana es simétrica: La media y mediana son iguales La fdp g(m+z) = g(m-z)

Distribución Lognormal Si Z es una variable aleatoria cuyo logaritmo está distribuido como una normal, entonces Z tiene distribución lognormal. Muy interesante en Ciencias de la Tierra Distribución sesgada hacia la derecha (cola larga de valores altos): asimétricas

Distribución Lognormal Las distribuciones lognormales también se caracterizan por dos parámetros: media y varianza. Sin embargo, pueden caracterizarse ya sea por los parámetros aritméticos (m y 2) o por los parámetros logarítmicos ( y 2). La fda y fdp lognormal se expresan mas fácilmente en función de sus parámetros logarítmicos: Las relaciones entre los parámetros aritméticos y logarítmicos son:

Combinación de distribuciones De la combinación de distribuciones resulta una nueva distribución. F(z) =kkF'k(z) es un modelo de distribución si las F'k(z) son funciones de distribución y si los k son positivos y suman 1. Codificación disyuntiva de un histograma experimental de datos z1, z2… zn: Una suma de n distribuciones Dirac de parámetros zi e igual amplitud 1/n

Teorema del Límite Central La suma o la media de un gran número de variables aleatorias estandarizadas independientes igualmente distribuidas (no necesariamente Gaussianas) tiende a distribuirse en forma normal. Es decir, si n variables aleatorias Zi tienen la misma fda y medias m, su media tiende hacia una fda normal, cuando n tiende a infinito. Corolario: el producto de un gran número de variables aleatorias positivas, independientes e idénticamente distribuidas tiende a distribuirse en forma lognormal

Distribución bivariable Función de densidad de probabilidad conjunta: de R2 en R es la función de densidad de probabilidad conjunta del vector aleatorio bivariable (Z1,Z2) si para cada :

Distribución bivariable Funciones de distribución acumulada y densidad conjunta: Distribuciones marginales (univariables): Distribuciones condicionales (Ley de Bayes):

Distribución bivariable

Distribución bivariable El momento de segundo orden de una distribución bivariable es la covarianza, definida como: La covarianza entre la variable y ella misma es su varianza: Cov{Z1,Z2} = Var{Z1}; Cov{Z2,Z2} = Var{Z2} El coeficiente de correlación entre dos variables se define como la covarianza estandarizada por las desviaciones estándar:

Distribución multivariable Función de distribución acumulada: Caracteriza cómo se distribuyen conjuntamente las distintas variables aleatorias Se utiliza para describir la distribución de los valores de la variable regionalizada en el espacio, al considerar el conjunto de las variables aleatorias en el dominio de interés:

Noción de función aleatoria Función Aleatoria: el conjunto de las variables aleatorias en un dominio: La variable regionalizada es una realización de una función aleatoria Es importante caracterizar cómo se correlacionan estas variables aleatorias, de modo de modelar la continuidad espacial de los valores de la variable regionalizada → “análisis variográfico”

Noción de función aleatoria Ejemplo: mismos conjuntos de valores, pero distribuidos de forma diferente en el espacio. Las variables aleatorias se modelarán con altas correlaciones en el primer caso, y con bajas correlaciones en el segundo caso.