La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Auto-organización En el estudio del caos, ya hemos observado que la estadística de procesos caóticos no es Gaussiana. Esto quiere decir: Hay orden (estructura),

Presentaciones similares


Presentación del tema: "Auto-organización En el estudio del caos, ya hemos observado que la estadística de procesos caóticos no es Gaussiana. Esto quiere decir: Hay orden (estructura),"— Transcripción de la presentación:

1 Auto-organización En el estudio del caos, ya hemos observado que la estadística de procesos caóticos no es Gaussiana. Esto quiere decir: Hay orden (estructura), a pesar de los espectros bastante anchos y la corta longitud de correlación lineal, que en un mundo lineal serían indicativos de la ausencia de orden. El orden está “escondido” debido a la no-linealidad del sistema. Hay que utilizar métodos específicos (información mutua, reconstrucción del atractor en un espacio de “embedding”) para encontrarlo. Pero puede ocurrir otro tipo de orden en sistemas complejos. Eso es la auto-organización. Típicamente, un sistema de este tipo tiene la posibilidad de desarrollar fluctuaciones no-lineales/caóticas. Se inyecta energía en este sistema. El sistema adapta el nivel de fluctuaciones para poder soportar el flujo de energía a través de él, es decir auto-regula el nivel de fluctuaciones. Sistemas de este tipo poseen unas características que no dependen, esencialmente, de las fluctuaciones subyacentes. Tienen un comportamiento “universal”. Daremos unos ejemplos en lo adelante.

2 Auto-organización: el motón de arena
El ejemplo típico de un sistema de este tipo es el montón de arena. Al añadir arena, se eleva el ángulo de la pendiente hasta alcanzar un cierto valor crítico. Los granos de arena descienden la pendiente, pero no lo hacen de manera contínua. A veces cae un grano, a veces caen grupos, y a veces se producen avalanchas de muchos granos. Pueden descender toda la pendiente, y en otras oportunidades sólo parte de ella. Aquí tenemos las características de un sistema auto-organizado y crítico: Un umbral crítico Un transporte a muchas escalas, sin preferencia para una escala (tamaño) de evento particular.

3 La Ley de Zipf Si se hace una distribución de la frecuencia de los eventos frente a su tamaño, se obtiene una gráfica así: Este comportamiento fue observado por primera vez en ~1930 por Zipf, quien pintó la frecuencia de uso de palabras frente a su longitud en un idioma (inglés en su caso) Este comportamiento es muy generalizado: El número de ciudades en un país frente a su tamaño. Frecuencia de terremotos frente a su fuerza (en escala de Richter) Frecuencia de caídas en la bolsa frente a su tamaño Frecuencia de fluctuaciones en el flujo de un río frente a su tamaño.... etc.... 1/x

4 Ruido rosa El ejemplo del flujo de agua en un río tiene su paralelo directo en el flujo de corriente a través de un resistor eléctrico. Las fluctuaciones de este flujo constituyen lo que se denomina “ruido rosa”, y se sabe que existe (sin entenderlo) desde que se hacen circuitos electricos. El “ruido rosa” tiene un espectro S(f)  1/f. El nombre sirve para distinguirlo del “ruido blanco”, que tiene un espectro S(f)  1. El “ruido blanco” tiene su orígen en fluctuaciones térmicas aleatorias (la moción Browniana), fluctuaciones sin correlación alguna. En cambio, el “ruido rosa” está causado por sistemas auto-organizados, donde la memoria del sistema juega un rol importante: porque para que no se produzcan demasiados terremotos grandes juntos, el sistema tiene que “acordarse” de alguna manera que acaba de ocurrir uno, por ejemplo. Ya que este tipo de “ruido” o comportamiento ocurre en tantos sistemas tan dispares (ver ejemplos anteriores), parece justificado suponer que estamos ante un caso de comportamiento emergente, es decir un comportamiento que es independiente del sistema particular que subyace.

5 El montón de arena Volvemos al montón de arena. En realidad el espectro de estos sistema no es exactamente S(f)  1/f, sino S(f)  1/fa, con a muy cerca de 1. Al arrojar arena sobre el montón, la pendiente aumenta hasta alcanzar el valor crítico. Una vez alcanzado el valor crítico, el transporte se auto-regula: podemos hechar 2 veces más arena por unidad de tiempo sobre el montón, ¡pero la pendiente no cambia! Mucha atención – esto es totalmente diferente al transporte clásico (difusivo). Transporte difusivo: Transporte auto-organizado: c = parámetro de transporte: fijo q = flujo, depende linealmente de la gradiente de la cantidad transportada (T) T = gradiente crítico: fijo q = flujo, determina el parametro de transporte c (¡y no al revés!). ¡¡¡No existe relación entre T y q!!!

6 Transporte en un sistema crítico auto-organizado
Este comportamiento del transporte ha sido observado a menudo en plasmas de fusión. Se conoce como “Power Degradation”, y significa que a pesar de inyectar más potencia la gradiente de temperatura apenas aumenta. No sabemos si esto es debido a la auto-organización del plasma o no, pero parece una posibilidad interesante. T Región inaccesible Tcrit Transporte difusivo Transporte auto-organizado (por avalanchas) 1/c q

7 Detección de SOC en sistemas reales
¿Cómo podemos detectar este comportamiento (“SOC” por Self-Organised Criticality) en un sistema real? Detectar avalanchas. Eventos de todos los tamaños. Construir una gráfica de frecuencia frente a tamaño. Problema: en muchos sistemas es difícil porque es complicado obtener datas con resolución temporal y espacial. Detectar auto-similaridad. Un sistema tipo SOC genera señales que son auto-similares, ya que no hay una escala preferida, y cuando se aumenta una parte de la señal (“zoom in”), se ve algo que es similar a la señal original. Esto es una característica fractal. Por tanto, puede haber sistemas que tienen este comportamiento que sin embargo no son SOC (ej.: sistemas caóticos simples). Pero si la auto-similaridad es tanto espacial como temporal, esto es una buena indicación (aunque no una prueba) para SOC. Espectro 1/f. Normalmente sólo en un rango de frecuencias, ya que suele haber contaminación por ruido térmico u otras fuentes. Cola larga de la función de autocorrelación. Es la contraparte del espectro 1/f. Significa que hay “memoria” a tiempos largos.

8 Análisis de Hurst La detección de la cola de la función de autocorrelación no es práctica, ya que normalmente hay poca estadística en la cola. Un alternativo lo proporciona el análisis de Hurst, refinado por Mandelbrot. Considera una señal experimental f(t). Lo integramos: g(t) = ∫f(t)dt. La idea detrás de esto es captar mejor el “efecto memoria” de la señal, y eliminar ruido de corta correlación. Tal como si se tratara de un “random walk”, intentamos cuantificar la distancia que la traza g(t) se aleja de una línea de referencia en un tiempo t. Como línea de referencia podemos tomar, por ejemplo, la línea que pasa por el primer y el último punto de la sección t: g(t) y g(t+t). Como medida de la distancia podemos tomar, simplemente, el “Rango”, o sea la diferencia entre el máximo y el mínimo de g respecto a la línea de referencia (hay otras posibilidades como la RMS que también funcionan muy bien). Gráficamente:

9 El análisis de Hurst Para una señal autosimilar, el Rango (R) crece como una potencia de t: R(t)  tH Normalmente se hace una gráfica de R(t)/S(t) (donde S(t) es la desviación estándar) frente a t. R/S se denomina Rango Reescalado. H es el “Parámetro de Hurst”. Cuando f(t) es ruido blanco, entonces g(t) es una moción Browniana y H=0.5.

10 El parámetro de Hurst Cuando hay “memoria” o “correlaciones de larga distancia”, enconces 0.5 < H < 1. Cuando 0 < H < 0.5, entonces hay anti-correlaciones. Otra manera de decirlo es que H > 0.5 significa que hay “persistencia”. Muchos sistemas naturales son persistentes. Por ejemplo, el tiempo. Cuando llueve hoy, es más probable que mañana también llueva que cuando no llueve hoy. El sistema “persiste” en su comportamiento. Eso pasa con el tiempo, con la bolsa, con todos los ejemplos ya mencionados. Los sistemas antipersistentes son menos frecuentes. Saber esto es de gran ayuda para predecir el comportamiento de sistemas de este tipo. Por tanto, este análisis generó mucho interés en el mundo financiero... hoy en día TODOS los programas de predicción del comportamiento de la bolsa incorporan este análisis. Se utiliza el parámetro H para cuantificar el “grado de autosimilaridad” de una señal. El parámetro H nos dice cómo relacionar la PDF(*) de una señal “ampliada” (zoom-in) con la PDF la señal original. (*) PDF = Función de Distribución de Probabilidad

11 Autosimilaridad y el parámetro de Hurst
Considera una señal fi = f(ti). Para hacer un “zoom-out”, calculamos la versión “suavizada” de la señal original promediándola sobre m puntos: Si hay autosimilaridad, entonces, en el rango de validez de la relación de autosimilaridad, la PDF debe obedecer: donde g es la función que describe la forma de la PDF (no especificada). Es decir, existe una relación precisa entre la PDF de la señal suavizada y la señal original, como era de esperar para señales autosimilares.

12 La función de autocorrelación y el parámetro de Hurst
Ya habíamos mencionado la relación entre el parámetro de Hurst y el decaimiento de la función de autocorrelación. Esta relación puede establecerse matemáticamente. La covarianza de una señal es: La varianza es la coviarianza a retraso D = 0: V = g0. Considera otra vez la señal suavizada f(m). Calcula la covarianza gD(m), y de ahí la varianza V(m). El resultado es: Esta sencilla relación conecta la varianza de la señal suavizada con la original mediante la función de autorcorrelación.

13 La función de autocorrelación y el parámetro de Hurst
Así que la varianza de la señal promediada f(m) es: decaimiento usual de la varianza con m (s  1/√m) para señales con dependencias de larga distancia (autosimilares), gD hace que este término domina para m grande ¡Mucha atención! Si el segundo término de la ecuación no converge para m grande, se viola el teorema central del límite. En este caso, no se pueden aplicar muchas técnicas del análisis estadístico tradicionales, ya que están basados en la hipótesis que el segundo término no tiene importancia para m grande (estadística Gaussiana).

14 La función de autocorrelación y el parámetro de Hurst
Supongamos por un momento que tenemos una señal para la cual el segundo término domina. El comportamiento de la varianza para m grande será dado por una función decreciente con m. Ya que con fractales y señales autosimilares todo siempre escala con potencias de m, supongamos que el comportamiento es: V(m)  m–b. Usando la ecuación anterior se puede deducir (no es trivial) que la covarianza va como: gD(m)  D–b Recordando que la varianza es la anchura de la PDF, podemos relacionar b con H, ya que sabemos cómo escala la PDF de una señal autosimilar. Hallamos que: H = 1 – b/2

15 La dimensión fractal y el parámetro de Hurst
Si consideramos la señal f(ti) como un objeto en el plano bidimensional (el papel de la gráfica), entonces podemos asignar una dimensión fractal a este objeto. Evidentemente, el objeto tiene una dimensión entre 1 (línea) y 2 (dimensión del “espacio de embedding”, el papel en este caso). El parámetro H describe cómo cambia la varianza con el parámetro de suavizado m. Por otra parte, la dimensión d describe cómo varía por ejemplo el número de cajas requeridas para cubrir el objeto al bajar la resolución (= aumentar el tamaño de las cajas, m). Por tanto, no es de extrañar que existe una relación directa. No presentamos la demostración. La relación es: d = 2–H.

16 Ejemplos de la determinación del parámetro de Hurst
Seno puro Ejemplo de aplicación de la técnica a un seno puro. Para t menor que el periodo del seno, la correlación es total y se obtiene H = 1. Para t mayor que el periodo, el rango R ya no crece más y la gráfica satura. Codos como éste sirven para detectar modos (oscilaciones) coherentes.

17 Ejemplos de la determinación del parámetro de Hurst
El atractor de Lorenz. La pendiente alta para t pequeña es debido a la alta correlación lineal. La pendiente cerca de H = 0.5 para t grande es debido a la total ausencia de correlación. La transición ocurre cerca del punto t0 = 1/l1Dt, donde l1 = primer exponente de Lyapunov Dt = intervalo de muestreo

18 Ejemplos de la determinación del parámetro de Hurst
Datos de turbulencia De la máquina de Kiel (Alemania) Sistema turbulento pero con modos coherentes en el espectro. Modo m=2 a 13 kHz (visto con array de sondas) Dibujo R/S detecta este modo, así como los 50 Hz de la alimentación eléctrica. Entre los dos puntos: H = 0.77 indica un intervalo de autosimilaridad relacionado con la turbulencia.

19 El parámetro de Hurst en las máquinas de fusión
Datos de turbulencia De la máquina W7-AS (Alemania) Para t pequeño, la pendiente es alta debido a la correlación (no-lineal, ya que el tiempo de decorrelación lineal es 20 ms). Para t grande, se obtiene una pendiente cerca de H = 0.7. Es interesante, ya que t es mucho más grande que el tiempo de decorrelación.

20 El parámetro de Hurst en las máquinas de fusión
Este comportamiento es bastante genérico en las máquinas de fusión estudiadas. En todas las máquinas, se obtiene que las señales de turbulencia son autosimilares con H  0.7. Se sugiere que esto podría estar relacionado con que el transporte en máquinas de fusión está regido (en parte) por modelos tipo SOC (auto-organizados y críticos). De ser así, esto tendría un impacto muy importante sobre nuestro entendimiento del transporte, y cambiaría nuestra manera de atacar el problema de minimizar las pérdidas de partículas y calor totalmente. En algún caso se ha podido detectar una ligera dependencia espacial de H, sugiriendo que la turbulencia cambia sus características de un punto a otro, lo que podría estar relacionado con “barreras de transporte”, otro tema candente en el mundo de fusión. De momento, no tenemos pruebas contundentes de que estos hipótesis sean ciertos o no.

21 Otras técnicas: multifractales
El análisis de Hurst es un caso especial del análisis de la “función de estructura”. Con la función de estructura se estudia la manera de escalar de los momentos de la distribución de probabilidad con un “parámetro de escala”, que aquí tomaremos como el intervalo de promediado T. Por ejemplo, partiendo de una señal s(i), i = 1,...,N, calculamos promedios Entonces, los momentos de la PDF escalan según: Cuando tenemos una señal auto-similar pura, entonces K(q) = qK(1). Pero esta técnica permite detectar, además, si la señal contiene varios distintos tipos de auto-similaridad, y le llamamos multifractal. En este caso, la dependencia K(q) no es lineal en q.

22 Otras técnicas: multifractales
Definiendo obtenemos la dimensión generalizada: D(q) = 1 – C(q). La variación de D(q) con q muestra el grado de multifractalidad del sistema. El parámetro C(1) = dK(q)/dq|q=1 se llama el parámero de intermitencia. La razón es que una señal autosimilar, que tiene largas colas en la distribución de probabilidad, tiene un aspecto “intermitente” con grandes excursiones o pulsos. Ha habido mucho interés en el estudio de las funciones de estructura, ya que varias teorías de turbulencia predicen comportamientos distintos de estas funciones. Pero lamentablemente, las diferencias sólo aparecen para q alta, que es donde la estadística es pobre.


Descargar ppt "Auto-organización En el estudio del caos, ya hemos observado que la estadística de procesos caóticos no es Gaussiana. Esto quiere decir: Hay orden (estructura),"

Presentaciones similares


Anuncios Google