Curso básico de física computacional

Slides:



Advertisements
Presentaciones similares
DISEÑO DE EXPERIMENTOS EXPERIMENTOS DE COMPARACIÓN SIMPLE
Advertisements

Tema 6: Regresión lineal.
Estadística I. Finanzas Y Contabilidad
Estadística Unidad III
Unidad de competencia II Estadística descriptiva:
Distribuciones de probabilidad bidimensionales o conjuntas
Pronósticos, Series de Tiempo y Regresión
Auto-organización En el estudio del caos, ya hemos observado que la estadística de procesos caóticos no es Gaussiana. Esto quiere decir: Hay orden (estructura),
Bivariadas y Multivariadas
INTEGRACIÓN.
} LISSET BÁRCENAS MONTERROZA
Conocimiento de la escala de probabilidad
PRECISION DE LOS SISTEMAS DE MEDICION EN EL ESTADO ESTABLE
La prueba U DE MANN-WHITNEY
Procesos Estocásticos
KRIGING.
La ley de los grandes números
ELECTROTECNIA Circuitos de Corriente Alterna (Elementos de circuito)
CARACTERÍSTICAS ESTADÍSTICAS
Especialista en Business Intelligence Analysis Services SSAS (Sesión 14) Microsoft SQL Server 2008 R2 Suscribase a o escríbanos a
Mario Bidegain (FC) – Alvaro Diaz (FI) – Marcelo Barreiro (FC)
Análisis espectral avanzado
Índice Estadística Aplicada Unidad II: Probabilidades
DERIVADAS PARCIALES Gráficas.
Diseño de experimentos
Adversidades Climáticas: Heladas
Modelo de partícula en la superficie de una esfera
Econometría I Tema 1 Introducción
FUNCIONES DE DENSIDAD DE PROBABILIDAD
PROBABILIDAD Y ESTADISTICA
Sesión 2: Métodos Probabilísticos Básicos
Clases 4 Pruebas de Hipótesis
Población y Muestra.
Sesión 2: Teoría de Probabilidad “Considero que la probabilidad representa el estado de la mente con respecto a una afirmación, evento u otra cosa para.
Representación de Señales y Ruido por medio de Series Ortogonales
Análisis de series de tiempo Cuarta semana Abril Julio 2009.
Sesión 6: Campos de Markov
ERROR EN LA MEDIDA.
ESTIMACION En varios pasajes de este libro hemos planteado la dificultad que se confronta en las investigaciones, de llegar a conclusiones sobre una población.
Datos: Estadística.
DISTRIBUCION NORMAL Mario Briones L. MV, MSc 2005.
El promedio como variable aleatoria: error estándar e intervalo de confianza para la media de la muestra Mario Briones L. MV, MSc 2005.
FACILITADOR JOSE HERIBERTO CRUZ GARCÍA
Métodos de calibración: regresión y correlación
Introducción La inferencia estadística es el procedimiento mediante el cual se llega a inferencias acerca de una población con base en los resultados obtenidos.
Grupo Continental Control de Procesos.
Previsión de Ventas. Métodos no paramétricos Previsión de Ventas. Tema 2. 1 Antonio Montañés Bernal Curso
Concepto Según la estrategia de medidas repetidas, las unidades son observadas a lo largo de una serie reducida de intervalos de tiempo u ocasiones.
MEDICION La medición es un proceso básico de la ciencia que consiste en comparar un patrón seleccionado con el objeto o fenómeno cuya magnitud física se.
Tema 3: Filtros.
Unidad II: Variables Aleatorias Concepto Discreta y Continua Fun. de densidad Fun. de probabilidad F. de distribución Esperanza y Varianza Propiedades.
Índice: Introducción Conceptos básicos Procesos elementales
Pronósticos por ensambles
Procesamiento Digital de Imágenes
Normalidad Preparado por: Dr. Juan José García García.
Distribuciones de probabilidad bidimensionales o conjuntas
coeficientes de correlación de
Estimación y contraste de hipótesis
ESTIMACIÓN DE PARÁMETROS
Alicia De Gyves López Licenciatura Tecnologías de la Información y Comunicación 3º. Cuatrimestre Estadística Descriptiva Distribuciones de Probabilidad.
RIESGO, RENDIMIENTO Y VALOR
MEDIDAS DE TENDENCIA CENTRAL
Distribuciones de Probabilidad
Clase N°9 Análisis de output en el largo plazo (Parte II) ICS3723 Simulación Profesor Pedro Gazmuri.
PRESIONES MÍNIMAS Y VELOCIDADES MÁXIMAS INSTANTÁNEAS EN UN DISIPADOR A RESALTO HIDRÁULICO OSCILANTE Raúl Antonio Lopardo Instituto Nacional del Agua Autopista.
Técnicas numéricas para el procesamiento de datos reales Antonio Turiel Instituto de Ciencias del Mar de Barcelona.
ESTADISTICA DESCRIPTIVA BIVARIADA MEDIDAS DE RELACIÓN ENTRE VARIABLES CUANTITATIVAS.
Simulacion. Simulación Es la construcción de modelos informáticos que describen la parte esencial del comportamiento de un sistema de interés, así como.
Estimación Estadística Tares # 3. Estimación Estadística Conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a.
PRECISION DE LOS SISTEMAS DE MEDICION EN EL ESTADO ESTABLE 1.ERROR DE MEDICION DE UN SISTEMA DE ELEMENTOS IDEALES En la figura No. 12, se observa n elementos.
Transcripción de la presentación:

Curso básico de física computacional B.Ph. van Milligen II. Análisis de Datos En este apartado del curso trataremos métodos de análisis de señales experimentales provenientes de un experimento de fusión. Considerar que las aplicaciones de estos métodos son muy generales y que son relevantes en muchas situaciones experimentales y de computación. Los datos sujetos del análisis no sólo provienen de experimentos, sino también, en su caso, de modelos de ordenador (por ejemplo, de turbulencia) que producen grandes cantidades de datos que deben ser sometidos a tratamientos estadísticos que nos permiten comprenderlos.

Tipos de datos Centrándonos en datos experimentales: ¿qué tipos de datos produce un experimento de fusión? Datos espaciales Cero-dimensional (punto) Uni-dimensional (línea / cuerda) Bi-dimensional (plano / superficie) Etc. (en fusión, hasta la fecha no hay datos tri-dimensionales) Datos temporales Un canal Múltiples canales (correspondiendo, por ejemplo, a varias posiciones) Datos espacio-temporales Combinaciones de los dos tipos de arriba

Datos espaciales: ejemplo Ejemplo de una línea de datos (en un único instante temporal): Thomson Scattering.

Datos espacio-temporales: ejemplo Ejemplo de múltiples canales de datos (en una serie de instantes temporales): Tomografía de Rayos X. Las líneas de visión cruzadas permiten reconstruir, con cierta aproximación, la emisión local de rayos X en el plasma en un plano (mediante un proceso numérico conocido como “inversión de Abel”): cada línea proporciona información sobre la integral de la emisión a lo largo de la línea. (Ver curso “Diagnósticos de plasmas”)

Datos temporales: ejemplos Sin embargo, el tipo de datos más común es la serie temporal: Campo magnético en un punto (Mirnov coils) Corriente en ciertas bobinas Integral de la densidad (densidad de línea, interferometría) Potencial flotante de una sonda de Langmuir Etc. Nos concentraremos en este tipo de datos, por ser el más común Flujo de partículas calculado a partir de señales medidas con una sonda de Langmuir

Datos temporales: análisis A la derecha, una ampliación de la señal anterior. Hay una doble discretización (tiempo y valor) Ambas tienen consecuencias para los cálculos posteriores basados en estos datos. El registro de señales contínuas es posible pero no se abordará aquí por ser poco común; en todo caso para poder tratar señales contínuas por medio de cálculos de ordenador se requiere su digitalización. La discretización se puede tomar en cuenta considerando que las medidas tienen (al menos) un error Dt en tiempo y un error Dy en valor. Las consecuencias de estos “errores” se pueden estimar cuando la estadística es Gaussiana (normal), pero es muy difícil cuando la estadística no es Guassiana (por ej., fractal).

Análisis básico: distribución de probabilidad La función de distribución se obtiene dividiendo el rango de valores [ymin,ymax] en un número N de intervalos y contando cuántos elementos hay en cada intervalo. 100 200 300 400 500 600 700 Counts Se pierde toda información sobre la correlación temporal.

Análisis básico: distribución de probabilidad La función de distribución de probabilidad (PDF) es la función de distribución (de los valores) dividida entre el número total de valores. Para una señal y(t), la probabilidad de que el valor y(t) esté entre y y y+dy está dado por: p(y) dy, donde p(y) es la función de probabilidad. p(y) está normalizado tal que su integral es 1. Ejemplo: y(t) = y0 sin (wt)  p(y) = 1/[p√(y02 – y2)] Muchos procesos físicos tienen un ingrediente “aleatorio”. Consideramos que un proceso es verdaderamente aleatorio cuando no hay correlación alguna entre un valor y(t) y el siguiente y(t+D) (se discutirá más adelante). El proceso “no tiene memoria”. Un ejemplo de un proceso así es el “random walk” (tomar un paso hacia adelante o hacia atrás según lo decide una moneda echada), o la moción Browniana. Para estos procesos, la distribución de probabilidad es una Gaussiana o “normal”:

Momentos de la función de distribución de probabilidad Los momentos de la función de probabilidad contienen mucha información: El momento n es: Es también el “expectation value” (valor más probable) de yn Momento 1: el promedio Momento 2: define la desviación estándar mediante Momento 3: el “skewness” Momento 4: la “kurtosis”

Momentos: utilidad Los momentos permiten distinguir entre variables con una distribución Gaussiana (aleatorias) y otras. Si la distribución p(y) es la función de Gauss, entonces: S = 0 y K = 3. Esto es un primer paso para la identificación de una señal como Gaussiana. Sin embargo, ni la función de probabilidad misma ni todos sus momentos pueden por sí solos identificar una señal como Gaussiana; para ello, es necesario considerar correlaciones temporales. (Hay que establecer que están ausentes.) Esto se discutirá más adelante. Por contra, si la función de probabilidad no es una función de Gauss (y sus momentos difieren significativamente del valor para una Gaussiana), entonces la señal no es Gaussiana.

Momentos estadísticos En la práctica, a menudo una señal es casi Gaussiana; y es difícil establecer su no-Gaussianidad porque la desviación de la curva de Gauss se produce en las colas de la distribución, donde la estadística es mala (pocos datos). A la derecha, un ejemplo muy claro.

PDF bi-dimensional Lo anterior es fácilmente generalizable a 2 (o más) dimensiones Para señales x(t) e y(t), la probabilidad de que el valor x(t) está entre x y x+dx Y el valor y(t) está entre y y y+dy está dado por: p(x,y) dx dy, donde p(x,y) es la función de probabilidad bidimensional. La probabilidad unidimensional sigue de la bidimensional: (=la probabilidad de obtener un y, no importa cual sea el valor de x) Si x e y son independientes, entonces p(x,y) = p(x)p(y) Esto proporciona un interesante método para determinar la independencia estadística de 2 variables. Se pospone la discusión para más adelante.

Probabilidad condicional En el caso de tener 2 señales xe y, uno puede preguntarse cual es la probabilidad de obtener x cuando y tenga un valor dado (y = y0). Esta es la probabilidad condicional p(x|y0). La probabilidad condicional p(x|y0) es igual a la probabilidad p(x,y0), normalizada por la probabilidad de obtener y0 (porque ponemos como condición que y= y0). p(x|y0) = p(x,y0)/p(y0)

Correlación temporal Para establecer la naturaleza aleatoria si/no de una señal, no basta con la PDF y es necesario estudiar su correlación temporal. Básicamente, existe correlación cuando se puede predecir de algún modo (mediante modelos) cuál va a ser el comportamiento futuro de una señal, conociendo su comportamiento pasado. Este es un tema que nos ocupará durante gran parte del curso debido a su complejidad y a su importancia para entender la relación entre los modelos de sistemas físicos y medidas, especialmente cuando el sistema es complejo (no-lineal y/o caótico). Si se puede predecir algo (aún si es con error o sólo en sentido estadístico) del comportamiento futuro de una señal, es indicativo que se ha avananzado en el entendimiento del sistema que se está estudiando.

Correlación lineal La función de correlación lineal es la herramienta más sencilla para obtener información del comportamiento temporal. Definición: Las s aparecen para normalizar C tal que su valor está en el rango [-1,1]. De esta correlación cruzada se obtiene la auto-correlación poniendo x = y.

Correlación cruzada Estructura típica de Rxy(t) Envolvente decae exponencialmente y da el Tiempo de correlación (cuando cae a 1/e) Máximo igual a Mínimo igual a Valor para t   : Posición del máximo da la desfase Dt (=0 para la autocorrelación) Dt A menudo conviene “simetrizar” la autocorrelación restando el promedio de las señales x(t) e y(t) antes de analizarlas.

Autocorrelación lineal: ejemplo (seno) Seno puro Autocorrelación del seno Seno + ruido blanco (misma amplitud) Autocorrelación Caída rápida del ruido Identifica- ción perfecta del seno

Autocorrelación lineal Como pudimos observar en el ejemplo anterior, la correlación lineal sirve para detectar procesos periódicos en el tiempo, al eliminar todo lo que no sea periódico en la integral. Contiene la misma información que el espectro (ver más delante), pero tiene mejor resolución para las frecuencias bajas. Para señales no-periódicas, la correlación lineal sólo proporciona una información interesante: el tiempo de decorrelación (y el desfase en el caso de la correlación cruzada). Típica señal de turbulencia