SIX SIGMA: MITOS Y REALIDADES

Slides:



Advertisements
Presentaciones similares
DISEÑO DE EXPERIMENTOS EXPERIMENTOS DE COMPARACIÓN SIMPLE
Advertisements

Intervalos de Confianza para la Media de la Población
CONTENIDOS Teoría del muestreo ¿Cómo seleccionar una muestra?
Bioestadística Distribución Normal
CENTRAL Y DE DISPERSIÓN
Estimación de parámetros poblacionales
Instituto tecnológico de Villahermosa
Introducción al tema El único método científico para validar conclusiones sobre un grupo de individuos a partir de la información que nos proporciona un.
Estimación por intervalos de confianza.
Estimación por Intervalos de confianza
GRADO DE CONFIANZA DE LA INFERENCIA
Nombre: Israel Espinosa Jiménez Matricula: Carrera: TIC Cuatrimestre: 4 Página 1 de 5.
HERRAMIENTAS PARA EL CONTROL ESTADÍSTICO DE CALIDAD.
PROCESAMIENTO DE DATOS DE VIENTO 1º Parte.
9 Regresión Lineal Simple
Tema 2: Métodos de ajuste
FUNCIONES DE DENSIDAD DE PROBABILIDAD
Prueba de hipótesis Equivalencia entre la prueba de hipótesis y los intervalos de confianza Valor de probabilidad Valor de probabilidad unilateral Prueba.
1 Planteamiento del problema ¿Tenemos los humanos la capacidad de percibir si nos miran desde atrás? O, más exactamente: ¿Es defendible que existen otras.
Población y Muestra.
TIPOS DE MODELOS DE REGRESIÓN Y SUPUESTOS PARA EL MODELO A
Importancia de las aplicaciones de estadística en el control de procesos Guatemala 2010.
Distribuciones derivadas del muestreo
DISTRIBUCIONES DE MUESTREO
Unidad V: Estimación de
ESTIMACION En varios pasajes de este libro hemos planteado la dificultad que se confronta en las investigaciones, de llegar a conclusiones sobre una población.
ANALISIS DE FRECUENCIA EN HIDROLOGIA (2)
Estimación Sea una característica, un parámetro poblacional cuyo valor se desea conocer a partir de una muestra. Sea un estadístico ( función.
DISTRIBUCION NORMAL Mario Briones L. MV, MSc 2005.
ESTADÍSTICAS DESCRIPTIVA
El promedio como variable aleatoria: error estándar e intervalo de confianza para la media de la muestra Mario Briones L. MV, MSc 2005.
Introducción La inferencia estadística es el procedimiento mediante el cual se llega a inferencias acerca de una población con base en los resultados obtenidos.
Universidad Nacional de Colombia Curso Análisis de Datos Cuantitativos.
ESTIMACION POR INTERVALOS
Análisis Cuantitativo de Datos (Básico)
Capacidad de Proceso.
Clase 4a Significancia Estadística y Prueba Z
Inferencia Estadística
Estadística para administradores
INFERENCIA ESTADISTICA
Capítulo 1. Conceptos básicos de la Estadística
Líneas de Espera: Teoría de Colas
DISTRIBUCIONES MUESTRALES
Villahermosa, Tab. 21 septiembre MATERIA: Investigacion de operaciones TEMA: Lineas de espera ALUMNOS: Maria isabel vega chanona HORA: 11:00 am a.
La Gestión y el Control de Procesos
Pruebas de hipótesis.
Líneas de Espera: Teoría de Colas
Probabilidad y Estadística X = x Unidad de muestreo Mediremos un atributo Variable aleatoria Valor que toma la variable aleatoria.
Métodos Cuantitativos
Estadística Descriptiva
SESION 5: MEDIDAS DE FORMA. Hasta el momento nos hemos enfocado en el análisis de datos a partir de los valores centrales y la variabilidad de las observaciones.
I n s t i t u t o T e c n o l ó g i c o d e T e c n o l ó g i c o d e V i l l a h e r m o s a ING. EN SISTEMAS CATEDRATICO: I.I. Zinath Javier Gerónimo.
Estimación y contraste de hipótesis
2.1 DEFINICIONES CARACTERÍSTICAS Y SUPOSICIONES.
BASES PARA EL RAZONAMIENTO EN ESTADÍSTICA INFERENCIAL
ESTIMACIÓN DE PARÁMETROS
estadístico de procesos.
INTERVALO DE CONFIANZA
Control Estadístico de Procesos
NORMA INTERNACIONAL DE AUDITORÍA 530
La distribución normal
Aspectos generales de la investigación educativa en el SNIT
INFERENCIA ESTADÍSTICA
UNIVERSIDAD CENTRAL DEL ECUADOR FACULTAD DE CIENCIAS ECONOMICAS INFERENCIA ESTADISTICA TEMA: ESTIMACION PUNTUAL, PROPIEDADES DE LAS ESTIMACIONES;
REGRESIÓN LINEAL SIMPLE
TAMAÑO DE LA MUESTRA. Para definir el tamaño de la muestra se debe tener en cuenta los recursos disponibles y las necesidades del plan de análisis, el.
BIOESTADÍSTICA Y ESTADÍSTICA BÁSICA CHILLÁN, SEGUNDO SEMESTRE PROF. SOC. M© KEVIN VILLEGAS.
Intervalos de Confianza M. C. José Juan Rincón Pasaye UMSNH – FIE Mayo de 2003.
Estimación estadística
TAMAÑO DE LA MUESTRA Alvaro Alfredo Bravo Dpto. de Matemáticas y Estadística Universidad de Nariño - Colombia.
Transcripción de la presentación:

SIX SIGMA: MITOS Y REALIDADES

¿ 6 SIGMA = 3.4 DEFECTOS POR MILLÓN ?

MODELOS MATEMÁTICOS Platón Los modelos de probabilidad y las variables aleatorias existen en el plano teórico. Un modelo de probabilidad es una descripción matemática de cómo se comportan las muestras tomadas al azar de un universo conocido. Definen las probabilidades de distintos resultados de una manera rigurosa. A partir de las propiedades de estos modelos de probabilidad podemos desarrollar procedimientos consistentes con las leyes de la probabilidad.

LOS MODELOS DE PROBABILIDAD EXISTEN EN EL PLANO TEÓRICO. Un modelo de probabilidad es una descripción matemática del comportamiento de una variable aleatoria. Existen en el plano de la teoría matemática donde con frecuencia se tienen mediciones continuas y observaciones con distribuciones independientes e idénticas.

LOS HISTOGRAMAS Y LOS ESTADISTICOS EXISTEN EN EL PLANO DEL ANALISIS DE DATOS. Todos los histogramas tienen colas finitas debido a que los conjuntos de datos son de tamaño y extensión finitos e invariablemente muestran algún grado de discontinuidad en las mediciones.

SUS DATOS NO SON GENERADOS POR UN MODELO DE PROBABILIDAD La inferencia estadística nos exige brincar constantemente entre estos dos planos. Siempre se involucra un grado de aproximación al utilizar cualquier procedimiento estadístico. Sin embargo, si el procedimiento ha probado ser razonablemente robusto en la práctica, entonces podemos pensar que nuestras conclusiones son confiables.

HOMOGENEIDAD Cuando un proceso produce un conjunto homogéneo de mediciones, se puede decir que ese proceso es razonablemente predecible. Este patrón persistente de variación se reflejará en un histograma estable que no cambia apreciablemente con el tiempo. Como consecuencia, el histograma puede ser aproximado por cualquiera de un cierto número de funciones matemáticas arbitrarias. Tal función define un modelo de probabilidad y se denota con el símbolo f(x).

NO PUEDE AFIRMARSE QUE ALGUN HISTOGRAMA SIGA UN MODELO DE PROBABILIDAD EN PARTICULAR Cualquier modelo de probabilidad es una característica limitante de una secuencia infinita de datos. Por esta razón es imposible afirmar que cualquier conjunto finito de datos esté distribuido de acuerdo a un modelo de probabilidad en particular. Pruebas de ajuste le pueden permitir decir que un conjunto de datos en particular es inconsistente con cierto modelo de probabilidad, pero nunca pueden usarse para afirmar algo como “estos datos están distribuidos normalmente”.

ESTADISTICOS Y PARAMETROS Cuando se trabaja con una secuencia finita de datos siempre es posible calcular estadísticos que representan su ubicación y dispersión. X, s Cuando un proceso muestra un grado razonable de predecibilidad estas mediciones de ubicación y dispersión pueden tomarse como ESTIMADORES de los parámetros del modelo de probabilidad seleccionado f(x).

PROPIEDADES DE LA DISTRIBUCIÓN NORMAL 99.73%

ÍNDICES DE CAPACIDAD Y DE HABILIDAD El índice de capacidad de proceso (Cp) es la relación entre la tolerancia permitida por el cliente y la variabilidad natural o rutinaria del proceso. Cuando el Cp es igual o mayor a 1 se dice que se tiene una confianza de al menos 99.73% de estar dentro de especificación (si la media coincide con el objetivo). Cuando la media no coincide con el objetivo es necesario calcular el Cpk, el cual corrige esta diferencia disminuyendo la confianza proporcionalmente a la diferencia entre la media y el objetivo.

RELACIÓN ENTRE ÍNDICE DE HABILIDAD, NIVEL SIGMA Y DEFECTOS POR MILLÓN Cpk Sigma DPM 1 317400 2 45600 3 2700 4 64 5 .574 6 .002 La conversión de índices de habilidad a fracciones no conformes es sencilla: escoja algún modelo de probabilidad, determine la relación entre el modelo y los límites de especificación usando los índices de habilidad, y calcule el área bajo el modelo fuera de las especificaciones. El resultado es su fracción no conforme. ¿No eran 3.4 partes por millón?

PROBLEMAS CON LOS DEFECTOS POR MILLON (DPM) Cuando los índices de habilidad llegan a ser sustancialmente mayores a 1.0, los valores calculados dependerán de las áreas infinitesimales bajo las colas extremas del modelo de probabilidad. Dado que la correspondencia entre nuestro modelo y nuestros datos siempre fallará en las colas extremas, la conversión de índices de habilidad grandes en partes por millón de no conformidades es cuestionable. El utilizar las áreas infinitesimales bajo las colas extremas del modelo de probabilidad que usted SUPUSO para caracterizar las salidas de su proceso es equivalente a elevar una suposición a la tercera o cuarta potencia—el resultado simplemente no tiene credibilidad.

PROBLEMAS CON LOS DEFECTOS POR MILLON: EL DESPLAZAMIENTO 1.5 SIGMA Dado que el proceso que genera nuestros datos puede cambiar, no podemos suponer alegremente que nuestros datos se distribuyen de forma independiente e idéntica, ni tampoco podemos definir un único modelo de probabilidad para nuestros datos. Aún si escogemos el modelo de probabilidad a utilizar y estimamos la media o la variancia para ese modelo, el hecho de que los procesos cambian, harán que tanto nuestro modelo como los valores estimados de los parámetros sean inapropiados en algún momento.

PROBLEMAS CON LOS DEFECTOS POR MILLON: EL DESPLAZAMIENTO 1.5 SIGMA En este punto el argumento de venta de Six Sigma supone que un proceso impredecible no se desplazará mas de 1.5 desviaciones estándar en cualquier dirección y esto ha sido tomado como un axioma.

PROBLEMAS CON LOS DEFECTOS POR MILLION: EL DESPLAZAMIENTO 1.5 SIGMA Esta gráfica X muestra un proceso que se está desplazando alrededor de ±3.0 sigma, lo cual es el doble de desplazamiento asumido como el “peor caso” por los argumentos de las partes por millón. Aunque algunos puntos caen fuera de los limites ninguno cae muy lejos de esos límites. Cualquiera que haya dibujado algunas pocas gráficas de comportamiento habrá encontrado puntos más alejados de los límites que los que se aprecian en la figura.

PROBLEMAS CON LOS DEFECTOS POR MILLION: EL DESPLAZAMIENTO 1.5 SIGMA Ahora considere este otro gráfico X. Ahí vemos excursiones con puntos que están hasta 9 sigmas por arriba de la línea central y hasta 8 sigmas por abajo de la línea central. Excursiones como éstas son bastante comunes en la práctica.

PROBLEMAS CON LOS DEFECTOS POR MILLION: EL DESPLAZAMIENTO 1.5 SIGMA O considere este tercer gráfico X, donde la ubicación del proceso se mueve en una cantidad equivalente a 25 sigmas durante este período de dos semanas. Los valores de partes por millón dependen de la suposición de un desplazamiento máximo de 1.5 desviaciones estándar en la ubicación del proceso. Esto es incorrecto para un proceso predecible y demasiado optimista para uno impredecible. En la ausencia de un mecanismo eficiente para monitorear cambios en el proceso no existe valor suficientemente grande del índice de habilidad que garantice una operación en la zona económica.

PROBLEMAS CON LOS DEFECTOS POR MILLON DE OPORTUNIDADES (DPMO) Usado para datos basados en cuentas de fallas o defectos. Las cuentas de fallas o defectos tienen un área de oportunidad definida como una porción finita de algún espacio continuo subyacente. Esto significa que las tasas de defectos inevitablemente tendrán unidades asociadas (p.ej. 2.5 defectos por cada 100 yardas de tela en rollo). La tasa de fallas de 2.5 defectos por cien yardas se convierte en un valor de Defectos Por Millón de Oportunidades simplemente dividiendo entre el “número de oportunidades por cada 100 yardas”. Si tuviéramos “una oportunidad por pie” entonces obtenemos: DPMO = 2.5 defectos por 100 yardas 300 oportunidades en 100 yardas Sin embargo, si pensamos que tenemos “una oportunidad por pulgada” obtendríamos: DPMO = 2.5 defectos por 100 yardas 3600 oportunidades en 100 yardas x un millón = 8333 DPMO x un millón = 694 DPMO

¿SE PUEDE DETERMINAR EL “NIVEL SIGMA” DE TODA UNA ORGANIZACIÓN? Los valores de Partes-por-millón de no conformidades se usan en reversa para definir el “nivel sigma” de un proceso (o de una organización). Esta conversión ignora el hecho de que algunos procesos son operados de manera predecible mientras que otros no lo son. Se aplica una conversión estándar de manera no estándar para obtener valores que no tienen sustento en la realidad ni credibilidad matemática.

RESUMEN Desde la perspectiva del análisis de datos existen varios conceptos sobre modelos y sus parámetros que usted siempre debe tener en mente: 1.- El modelo de probabilidad no genera sus datos. 2.- Aunque los parámetros del modelo de probabilidad pueden usarse para caracterizar la “ubicación del proceso" y la “dispersión del proceso" estos parámetros no son inherentes al proceso, sino simplemente parte de la aproximación que hacemos al comportamiento del proceso. 3.- Aunque es de utilidad hablar de la “ubicación del proceso" y de la "dispersión del proceso" cuando el proceso es estable, no hay que olvidar que sus datos provienen del proceso y, como todo en este mundo, este proceso está sujeto a cambios.

RESUMEN 4.- El modelo de probabilidad f(x) no intenta caracterizar la secuencia en orden temporal de los datos. Por esta razón ningún modelo f(x) puede darse como una caracterización completa del proceso que produjo sus datos. Dichos modelos solo intentan representar el histograma de las salidas del proceso. 5.- Un modelo de probabilidad es una característica limitante de una secuencia infinita de datos. No caracteriza ninguna porción finita de tal secuencia. Por lo tanto, dado que siempre tenemos que usar cantidades finitas de datos, nunca podemos especificar completamente una función f(x) única para ningún proceso. Siempre existirá cierta arbitrariedad esencial conectada al uso de cualquier modelo de probabilidad como aproximación al histograma de datos generados por un proceso real. 6.- Por esta razón, es equivocado pensar que los parámetros de un modelo de probabilidad son los "valores verdaderos" de la ubicación o de la dispersión de un proceso, o el creer que las colas extremas de un modelo de probabilidad en efecto describirán lo que se verá en la práctica.