La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Miguel A. Gómez-Villegas 1, Isabel Salazar 2 y Luis Sanz 1 1 Departamento de Estadística e Investigación Operativa, Universidad Complutense de Madrid 2.

Presentaciones similares


Presentación del tema: "Miguel A. Gómez-Villegas 1, Isabel Salazar 2 y Luis Sanz 1 1 Departamento de Estadística e Investigación Operativa, Universidad Complutense de Madrid 2."— Transcripción de la presentación:

1 Miguel A. Gómez-Villegas 1, Isabel Salazar 2 y Luis Sanz 1 1 Departamento de Estadística e Investigación Operativa, Universidad Complutense de Madrid 2 Departamento de Producción Animal, Universidad Complutense de Madrid Workshop Métodos Bayesianos’14. Madrid Noviembre 2014 A Bayesian Decision Procedure to Test Simultaneous Multiple Hypotheses in DNA Microarray (2014). Statistical Applications in Genetics and Molecular Biology, 13, 49-65

2 1.Criterios de decisión: regla bayes y criterio FNH 2.Propiedades del criterio FNH 3.Medidas de error 4.Modelo Gaussiano 5.Ejemplos ilustrativos 6.Conclusiones Contenidos

3 1.1 Regla bayes Sea P -La regla bayes: elegir, para cada x, la acción bayes a posteriori que minimiza la pérdida esperada a posteriori, -Cuando se contrasta una sola hipótesis: El espacio paramétrico es El espacio de acciones es A 1. Criterios de decisión. Regla bayes

4 La función de pérdida: Las pérdidas esperadas a posteriori de : La decisión será elegir la acción con menor pérdida esperada a posteriori. 1. Criterios de decisión. Regla bayes

5 -Cuando se contrastan simultáneamente N hipótesis: El espacio paramétrico es donde siendo cuando H 0i es cierta y cuando H 0i es falsa. El espacio de acciones es donde siendo cuando se acepta H 0i y cuando se rechaza H 0i. 1. Criterios de decisión. Regla bayes

6 (Duncan (1965) y Lewis y Thayer (2004) La función de pérdida: Pérdida esperada a posteriori individual de : 1. Criterios de decisión. Regla bayes

7 La acción es preferible a la acción, para cada i, si 1. Criterios de decisión. Regla bayes Reñññ Para cada x rechazar todas las hipótesis H 0i nulas tales que Reñññ Para cada x rechazar todas las hipótesis H 0i nulas tales que Regla bayes: Para cada x rechazar todas las hipótesis H 0i nulas tales que y aceptar el resto, dados C 0i y C 1i.

8 1.2 Criterio basado en la estimación del número de hipótesis nulas falsas (FNH) Sea el número de hipótesis nulas falsas 1. Criterios de decisión. Criterio FNH El criterio consiste en rechazar las hipótesis nulas falsas con menor probabilidad a posteriori de ser ciertas

9 Estimador bayesiano de N 1 : Suponemos que las H 0i son independientes, i = 1,…, N. 1. Criterios de decisión. Criterio FNH

10 1. donde son las probabilidades a posteriori ordenadas. 2. Propiedades del criterio FNH Entonces, si la regla bayes y el criterio FNH proporcionan resultados equivalentes.

11 2. Si, donde p k es la probabilidad final más alta con la que se rechazan k hipótesis nulas. - Para valores fijos de los costes por falsos negativos C 0i, i = 1, …, N, la pérdida esperada a posteriori para la regla bayes que rechaza k hipótesis,, es una función decreciente en k, el número de hipótesis nulas rechazadas: Donde es la acción bayes a posteriori que nos lleva a rechazar k hipótesis nulas. 2. Propiedades del criterio FNH Si k 1 < k 2, entonces

12 - Si los costes por falsos negativos son iguales y positivos, C 0i = C > 0 para i = 1,..., N, entonces,. 2. Propiedades del criterio FNH N 1 es el número más pequeño de hipótesis nulas rechazadas con el que se podría obtener una pérdida esperada a posteriori cero.

13 3. Rechazando el número de hipótesis nulas falsas,, con menor probabilidad a posteriori de ser ciertas se obtiene el mismo número Esperado a posteriori de falsos positivos y de falsos negativos,, Donde y, Siendo, z i = 0 si es cierta y z i = 1 si es falsa, y si es rechazada y si es aceptada. Por tanto, 2. Propiedades del criterio FNH Aplicando el criterio FNH se obtienen unas estimaciones del número esperado a posteriori de falsos positivos y de falsos negativos muy similares.

14 3. Medidas de error -The family-wise error rate (FWER): -The false discovery rate (FDR) (Benjamini and Hochberg, 1995): Nº de hipótesis aceptadas rechazadas Total nulas ciertas U V N 0 nulas falsas T S N 1 W R N

15 3. Medidas de error -The realized FDR y the realized FNR (Genovese and Wasserman, 2002, 2003): donde z i = 0 si es cierta y z i = 1 si es falsa, y si es rechazada y si es aceptada. Consideran:

16 3. Medidas de error -The number of false discoveries and false negatives realized: donde z i = 0 si es cierta y z i = 1 si es falsa, y si es rechazada y si es aceptada. Consideramos donde y.

17 4. Modelo Gaussiano Consideramos el siguiente problema de contrastes múltiples: Suponemos que - Para cada hipótesis observamos un estadístico T i - T i |H 0i ,  desconocida - T i |H 1i ,  i, i = 1, … N, son los parámetros de interés - T i i.i.d., f 0 y f 1 son las densidades bajo H 0i y H 1i, respectivamente

18 4. Modelo Gaussiano La verosimilitud: donde, y Como distribución a priori,, consideramos las siguientes distribuciones conjugadas: p     i |  

19 4. Modelo Gaussiano La distribución a posteriori: Se aplicó un Gibbs sampling para estimar los parámetros del modelo y la probabilidad a posteriori de cada hipótesis nula es cierta. También se aplicó una aproximación Empírico Bayes para estimar el parámetro c asociado a la varianza de la distribución a priori de  i (Ausín et al., 2011).

20 5. Ejemplos ilustrativos. Datos simulados - Se realizó una simulación con N = 5000 hipótesis y n = 5 observaciones por hipótesis - Se generaron tres conjuntos de datos:  con probabilidad p y  con probabilidad 1 – p, para i = 1, …, 5000 y j = 1, …, 5 y para valores de p = 0,7, 0,8 y 0,9 - Para  i, i = 1, …, 5000, se eligieron diferentes valores en [-10, 10] - Para cada conjunto de datos:, i = 1, …, 5000, de modo que t i , con p = 0,7, 0,8 y 0,9 - (α,  ) = (1, 1) y

21 5. Ejemplos ilustrativos. Datos simulados. Resultados p = 0,70,00530,675,61 p = 0,80,00340,785,88 p = 0,90,00660,885,25 Estimación a posteriori de c, p y ϕ, para diferentes valores de p y con distribuciones a priori p ∼ Beta(1,1) y ϕ ∼ Gamma(0,0)

22 5. Ejemplos ilustrativos. Datos simulados. Resultados Regla bayes (C 0i = C 1i ): Rechazamos H 0i, i = 1, …, 5000, si Donde,, R B es el número de hipótesis rechazadas según la regla bayes con C 0i = C 1i, i = 1, …, 5000 y. ^ ^ ^ ^

23 5. Ejemplos ilustrativos. Datos simulados. Resultados Criterio FNH: Rechazamos las hipótesis nulas falsas con menor probabilidad a posteriori de ser ciertas Donde,, y R FNH es el número de hipótesis rechazadas según el criterio FNH. ^ ^ ^ ^

24 5. Ejemplos ilustrativos. Datos simulados. Resultados R (%) p = 0,7 Regla bayes28,800,00920,15010,02140,0699 Criterio FNH33,180,05590,11210,11270,0556 p = 0,8 Regla bayes18,960,00470,14380,01950,0385 Criterio FNH21,720,03020,10850,10880,0301 p = 0,9 Regla bayes9,760,00180,19060,01630,0251 Criterio FNH11,880,02010,14800,14930,0199 ^ ^ ^ ^

25 5. Ejemplos ilustrativos. Datos simulados. Resultados a) (solid line) y (thick line), b) (solid line) y (thick line) y c) (solid line) y (thick line) como función del número de hipótesis nulas rechazadas con p = 0,9 ^ ^ ^ ^ ^ ^

26 5. Ejemplos ilustrativos. Datos simulados. Resultados Pérdida esperada a posteriori, con C 0i = 1, i = 1, …, 5000, como función del número de hipótesis nulas rechazadas, para los diferentes valores de p

27 5. Ejemplos ilustrativos. Datos reales Identificación de genes con expresión diferencial Datos sobre cáncer de colon de Alon et al. (1999) x 1 1,.......,x 1 22, x 1 23, …….,x 1 62 x 2 1,.......,x 2 22, x 2 23, …….,x 2 62.. x 2000 1, …,x 2000 22, x 2000 23, …,x 2000 62 Tejido normalTejido tumoral Genes

28 5. Ejemplos ilustrativos. Datos reales -T i |H 0i ,  desconocida - T i |H 1i ,  i, i = 1, … 2000, son los parámetros de interés - T i i.i.d., f 0 y f 1 son las densidades bajo H 0i y H 1i, respectivamente -, : p     i |   Estadístico:

29 5. Ejemplos ilustrativos. Datos reales = 0,0041, = 0,75 y = 0,00059 R (%) Regla bayes (C 0i = C 1i )21,950,01950,17820,06690,0567 Criterio FNH24,900,04340,12970,13100,0429 ^ ^ ^ ^

30 5. Ejemplos ilustrativos. Datos reales a) ( solid line) y (thick line), b) (solid line) y (thick line) y c) (solid line) y (thick line) como función del número de hipótesis nulas rechazadas ^ ^ ^ ^ ^ ^

31 5. Ejemplos ilustrativos. Datos reales Pérdida esperada a posteriori como función del número de hipótesis nulas rechazadas:

32 6. Conclusiones - El criterio de decisión FNH, basado en la estimación del número de hipótesis nulas falsas, detecta más hipótesis nulas falsas que la regla bayes (tomando C 0i = C 1i para i = 1,...,N), ya que se obtiene una proporción menor de falsos negativos, manteniéndose la proporción de falsos positivos en niveles aceptables.

33 6. Conclusiones - El criterio de decisión FNH, basado en la estimación del número de hipótesis nulas falsas, detecta más hipótesis nulas falsas que la regla bayes (tomando C 0i = C 1i para i = 1,...,N), ya que se obtiene una proporción menor de falsos negativos, manteniéndose la proporción de falsos positivos en niveles aceptables. - Si los costes por falsos negativos son iguales y positivos, C 0i = C > 0, i = 1, …, N, entonces el número de hipótesis nulas falsas, N 1, es el número más pequeño de hipótesis nulas rechazadas con el que se podría obtener pérdida esperada a posteriori cero.

34 6. Conclusiones - El criterio de decisión FNH, basado en la estimación del número de hipótesis nulas falsas, detecta más hipótesis nulas falsas que la regla bayes (tomando C 0i = C 1i para i = 1,...,N), ya que se obtiene una proporción menor de falsos negativos, manteniéndose la proporción de falsos positivos en niveles aceptables. - Si los costes por falsos negativos son iguales y positivos, C 0i = C, i = 1, …, N, entonces el número de hipótesis nulas falsas, N 1, es el número más pequeño de hipótesis nulas rechazadas con el que se podría obtener pérdida esperada a posteriori cero. - Rechazando el número de hipótesis nulas falsas, N 1, con menor probabilidad a posteriori de ser ciertas se obtiene el mismo número esperado a posteriori de falsos positivos y de falsos negativos,.

35 6. Conclusiones - Con el criterio de decisión FNH no hay que fijar, para cada hipótesis, los costes C 0i y C 1i que son necesarios para poder aplicar la regla bayes y que no siempre son fáciles de fijar.

36 6. Conclusiones - Con el criterio de decisión FNH no hay que fijar, para cada hipótesis, los costes C 0i y C 1i que son necesarios para poder aplicar la regla bayes y que no siempre son fáciles de fijar. - El criterio FNH con las medidas de error y resultan más apropiadas que la regla bayes con ( con C 0i = C 1i para i = 1,...,N) y las medidas de error y, en nuestros ejemplos y especialmente en los experimentos con microarrays de ADN.

37 Referencias - Alon, U. Barkai, N., Notterman, D. A., Gish, K., Ybarra, S., Mack, D. and Levine, A. J. (1999). Broad patterns of gene expression revealed by clustering analysis of tumor and normal colon tissues probed by oligonucleotide arrays. Proc. Natn. Acad. Sci. USA, 96: 6745–6750. - Ausín, M. C., Gómez-Villegas, M. A., González-Pérez, B, Rodríguez-Bernal, M. T., Salazar, I. and Sanz, L. (2011). Bayesian analysis of multiple hypothesis testing with applications to microarray experiments. Communications in Statistics–Theory and Methods, 40(13): 2276–2291. - Benjamini, Y., and Hochberg, Y. (1995). Controlling the false discovery rate: a practical and powerful approach to multiple testing. J. R. Stat. Soc. Ser. B, 57: 289-300. - Duncan, D. B. (1965). A Bayesian approach to multiple comparisons. Technometrics, 7: 171–222. - Genovese, C. and Wasserman, L. (2002). Operating characteristics and extensions of the false discovery rate procedure. J. Roy. Statist. Soc. Ser. B, 64: 499–517. - Genovese, C. and Wasserman, L. (2003). Bayesian and frequentist multiple testing. In Bayesian Statistics 7, eds. J. M. Bernardo, M. Bayarri, J. O. Berger, A. P. Dawid, D. Heckerman, A. F. M. Smith and M. West, 145–162. Oxford, U.K.: Oxford University Press. - Lewis, C. and Thayer, D. T. (2004). A loss function related to the FDR for random effects multiple comparisons. J. Statist. Plann. Inference, 125: 49–58.

38 Muchas gracias


Descargar ppt "Miguel A. Gómez-Villegas 1, Isabel Salazar 2 y Luis Sanz 1 1 Departamento de Estadística e Investigación Operativa, Universidad Complutense de Madrid 2."

Presentaciones similares


Anuncios Google