La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Investigación en educación Ps. Mg. Víctor Cabrera Vistoso.

Presentaciones similares


Presentación del tema: "Investigación en educación Ps. Mg. Víctor Cabrera Vistoso."— Transcripción de la presentación:

1 Investigación en educación Ps. Mg. Víctor Cabrera Vistoso

2 El diseño de la investigación Con las hipótesis definidas se concibe la manera práctica de responder a las preguntas. Se hace el diseño, (plan o estrategia) de la investigación. Hay investigación experimental y no experimental. El experimento requiere la manipulación de una acción para analizar sus posibles efectos. La variable independiente se manipula, la dependiente se mide para ver si varía o no. Si se expone a un grupo a la presencia de la variable independiente y al otro no, el primero se llama grupo experimental y el segundo grupo de control.

3 Diseño Experimental Un experimento aplica un estímulo a un individuo o grupo de individuos y ve el efecto de ese estímulo en alguna(s) variable(s) del comportamiento de estos. La observación se puede realizar en condiciones de mayor o menor control. Se deduce que un estímulo afectó cuando observamos diferencias en las variables que serían supuestamente las afectadas entre un grupo al que se le administró dicho estímulo y uno al que no se le administró, siendo ambos iguales en todo excepto en esto último. La asignación al azar es el método preferible para lograr que los grupos del experimento sean comparables.

4 Validez Interna y Externa Los grupos que se comparen deben ser iguales en todo menos en el estímulo experimental. Se debe controlar la influencia de otras variables extrañas en las variables dependientes. (Purificación de la relación X---Y) La validez interna refiere a la confianza que tenemos sobre los resultados. Elimina explicaciones rivales. Lograr la validez interna (mantener equivalentes a los grupos controlando la fuente de invalidez)es el objetivo metodológico y principal de todo experimento. Una vez que se consigue se busca la validez externa o sea la posibilidad de generalizar los resultados a la población no experimental.

5 Fuentes de Invalidez Fuentes que invalidan internamente el experimento: Historia: Historia: eventos que ocurren durante el experimento y afectan la variable dependiente. Maduración: Maduración: procesos internos de los participantes por el paso del tiempo que afectan resultados (Cansancio). Inestabilidad: Inestabilidad:poca o nula confiabilidad en la mediciones. Administración de pruebas Administración de pruebas que afectan las puntuaciones de pruebas subsecuentes. Instrumentación Instrumentación o cambios en los instrumentos de medición o en los observadores participantes.

6 Fuentes de Invalidez regresión estadística La regresión estadística o valores extremos en una prueba que tienden al promedio en otras mediciones. selección La selección que al elegir sujetos genera grupos no equiparables. mortalidad experimental La mortalidad experimental al perder participantes entre los grupos que se comparan. Interacción entre selección y maduración Interacción entre selección y maduración, que hace que la selección de origen a diferentes tasas de maduración. Otras Interacciones Otras Interacciones entre las fuentes de invalidación.

7 El Control y la Validez El control y la validez interna se logra con: 1) Varios grupos de comparación. (2 mínimo) y 2) Equivalencia de los grupos en todo excepto la manipulación de las variables independientes. Con un solo grupo no hay certeza que resultados se deban al estímulo experimental o a otras razones. Los grupos (no los individuos) deben ser inicialmente equivalentes (sexo, edad,etc). La equivalencia inicial se logra asignando sujetos al azar. La técnica de emparejamiento no es la ideal. Los grupos debe ser equivalentes durante todo el experimento (instrucciones, entrevistadores, etc).Los instrumentos de medición deben ser iguales y aplicados de la misma manera.

8 Simbología en el Diseño R = asignación al azar G = grupos de sujetos X = Tratamiento, estímulo, condición experimental O = Una medición a los sujetos de un grupo - = Ausencia de estímulo RG1 O X O RG1 O X O Asignación Medición Administración Medición Azar sujetos Previa Estímulo Posterior Grupo 1

9 Pre Experimento El pre-experimento tiene un grado de control mínimo. G X O Aplica tratamiento y luego una medición para observar el nivel del grupo en la variable = G X O No hay manipulación de la variable independiente No hay manipulación de la variable independiente (no hay niveles de ella, no se explica como se afecta) No hay control previo del nivel de la variable dependiente ni grupo de comparación. No controla las fuentes de invalidez interna. G O1 X O2 Si se hace una pre-prueba se agrega un punto de referencia = G O1 X O2 No son adecuados para establecer relaciones entre variables y puede ser para prueba piloto (explorar).

10 Otros Diseños Diseño con post prueba y grupo de control RG1 XO 1 RG2 - O2 Si O1=O2 no hubo efecto significativo del tratamiento experimental. Suele usarse la prueba estadística t para grupos correlacionados. = RG1 X O1 Si no hay grupo de control se llama diseño con grupos aleatorizados y post prueba unicamente= RG1 X O1 Diseño con pre-prueba-post prueba y grupo de control RG1O1X1O2 RG2O3X2O4 RG3O5 -O6 En este caso O1, O3 y O5 puede ser el conocimiento sobre un tema, X1 un video didactico, X2 lecura de folleto y O2 04 y 06 el conocimiento sobre el mismo tema anterior.

11 Las Comparaciones RG1 O1 X1O2 RG2 O3 X2O4 RG3 O5 -O6 Las posibles comparaciones son: a) Pre-pruebas entre sí, b) post-pruebas entre sí, c) el puntaje ganancia de cada grupo ej. O1 vs 02 d) el puntaje ganancia de los grupos entre sí. Esto puede dar por ejemplo efectos de los tratamientos experimentales pero diferentes, o que sólo uno o ninguno tenga efectos etc.

12 Pruebas Estadísticas Para comparar entre pre-pruebas y entre las dos post pruebas se usa la prueba t para grupos correlacionados. Igual para analizar el puntaje ganancia de cada grupo O1 vs O2 y O3 vsO4 Análisis de varianza (ANOVA) para grupos relacionados si se comparan simultáneamente las cuatro pruebas. Cuando se quiere analizar efectos en el largo plazo se adoptan diseños con varias post pruebas. (Diseños de series de tiempo o cronológicas que toman de un individuo u otro ente muchas observaciones)

13 Estudios Factoriales Los experimentos pueden incorporar más de una sola variable independiente. diseños factoriales manipulan dos o más variables independientes e incluyen dos o más niveles de presencia en cada una de las variables independientes Los diseños factoriales manipulan dos o más variables independientes e incluyen dos o más niveles de presencia en cada una de las variables independientes. Un ejemplo de diseño factorial de 2 X 2 sería método de enseñanza (tradicional oral y por video) y sexo (masculino-femenino). Permiten evaluar los efectos de cada variable independiente sobre la dependiente por separado y los efectos de las variables independientes conjuntamente.

14 Validez Externa La validez externa refiere a que tan generalizables son los resultados a otros sujetos. Hay fuentes de invalidez: El efecto de interacción entre pruebas (sujetos son afectados en su reacción a la variable experimental por la pre prueba). Errores de selección que al elegir personas con ciertas características el tratamiento produzca un efecto que no se daría en otras personas sin esas características. La artificialidad de las condiciones experimentales que vuelven atípica la experiencia. La interferencia de tratamientos múltiples si no tienen efectos reversibles. Imposibilidad de replicar los experimentos en otras condiciones.

15 Estudio de Campo En el experimento el efecto (la variancia) de las variables independientes influyentes posibles no pertinentes al problema se mantiene reducida en un mínimo. El estudio de campo se hace en una situación realista en la que una o más variables independientes son manipuladas por el experimentador en condiciones tan controladas como lo permite la situación. La diferencia es el grado en que el ambiente es natural para los sujetos. Los experimentos tienen más control que los estudios de campo pero estos tienen más validez externa.

16 Cuasi- Experimentos con grupos intactos G X O En los cuasi experimentos no se asignan los sujetos a grupos experimentales sino que se trabaja con grupos intactos (formados aparte del experimento ej. habitantes de una zona de la ciudad) = G X O (falta la R junto a la G de la asignación aleatoria de sujetos) Alcanzan validez interna en la medida en que demuestran la equivalencia inicial de los grupos participantes y la equivalencia en el proceso de experimentación. Los experimentos verdaderos constituyen estudios explicativos, los pre-experimentos son exploratorios y descriptivos y los cuasi- experimentos son correlacionales aunque pueden llegar a ser explicativos.

17 EJEMPLO Hipótesis: Los pacientes que reciban mayor retroalimentación de sus médicos de cómo se están comportando en el tratamiento prescrito, obedecerán más a dicho tratamiento. Se toman dos grupos de pacientes. Un grupo recibe retroalimentación sobre su conducta en el tratamiento (G1) y el otro grupo no (G2). G1XO1 G2 - O2 Se evalúa la obediencia o apego al tratamiento. Si el resultado es O1>O2 deducimos que la hipótesis fue confirmada. Pero podría ser que la mayor sensibilidad de G1 se deba a que lee más sobre su problema. No hay certeza si grupos no son inicialmente equivalentes.

18 Pasos Comunes a Seguir Decidir las variables independientes y dependientes. Elegir niveles de manipulación de var. independientes y convertir concepto en operaciones prácticas (tratamiento experimental) Desarrollar instrumento para medir las variables dependientes. Seleccionar la muestra de personas. Reclutar sujetos del experimento (o cuasi-experimento) Seleccionar diseño apropiado para muestras, hipótesis, objetivos y preguntas de investigación. Planear actividad de los sujetos, dividirlos al azar o analizar propiedades de grupos intactos. Aplicar pre-pruebas, los tratamientos y las post-pruebas.

19 Investigación no Experimental Se realiza sin manipular variables y sin asignación al azar. Los sujetos ya pertenecían a un grupo dado. Se observan fenómenos tal y como se dan en su contexto natural para después analizarlos. No hay estímulos a los cuales se expongan los sujetos del estudio. No se construye ninguna situación sino que se observan situaciones existentes no provocadas intencionalmente No se construye ninguna situación sino que se observan situaciones existentes no provocadas intencionalmente Es investigación sistemática y empírica en la que las variables independientes no se manipulan porque ya han sucedido. Experimento: Hacer enojar intencionalmente a una persona para ver sus reacciones. No experimental: Ver las reacciones de esa persona cuando llega enojada.

20 transeccionales longitudinales Los Diseños no experimentales se clasifican en transeccionales (ver el nivel de una variable o la relación entre varias en un punto del tiempo) y longitudinales (como evolucionan o cambian variables o sus relaciones) transeccionales Los transeccionales o transversales recolectan datos en un sólo momento. Ej. Investigar el número de empleados, desempleados y subempleados en un momento dado. descriptivos y correlacionales/causales. Se dividen en descriptivos y correlacionales/causales. Los descriptivos Los descriptivos indagan los valores de una o más variables (Ej. Nivel de empleo en 3 ciudades) Los correlacionales/causales Los correlacionales/causales describen relaciones entre dos o más variables ej. (relación entre urbanización y analfabetismo para ver que variables mediatizan esa relación.) Diseños Transeccionales

21 Diseños Longitudinales diseños longitudinales Los diseños longitudinales juntan datos a través del tiempo en períodos especificados, infieren sobre al cambio, sus determinantes y consecuencias. Por ej. como evolucionan los niveles de empleo durante cinco años en una ciudad. de tendencia, de evolución de grupo (cohort) y diseños panel. Son:de tendencia, de evolución de grupo (cohort) y diseños panel. Los de tendencia Los de tendencia analizan cambios en el tiempo en variables o sus relaciones en una población. Ej. cambio de actitud hacia el aborto anualmente por 10 años. Los de grupos Los de grupos analizan cambios en sub-poblaciones. Ej. Actitudes hacia el aborto en Argentinos nacidos en Los de panel Los de panel similares a los anteriores pero el mismo grupo de sujeto es medido en todos los momentos. Ej. analizar la evolución de enfermos de cancer de mama cada 6 meses en 2 años. Hipótesis son de diferencia de grupos, correlacionales y causales.

22 Experimental Vs No experimental Mayor control Manipula variables Se replican facilmente Las variables independientes son menos realistas Menor control No manipula variables Observan lo dado. Las variables independientes son realistas y genera más validez externa

23 Resumen Diseño No Experimental La investigación no experimental no manipula variables, se basa en realidades que ya ocurrieron sin intervención del investigador. Es un enfoque retrospectivo. Observa variables en su contexto natural. Estudia variables en un momento del tiempo en forma descriptiva o correlacional/causal o las estudia a lo largo del tiempo en tendencias y evolución dentro de grupos. El tipo de diseño a elegir está condicionado por el problema, el contexto, el tipo de estudio y las hipótesis.

24 RESUMEN SEGUNDA PARTE La investigación puede ser experimental o no experimental. En el primer caso se manipula la variable independiente y se mide la dependiente controlando las fuentes de invalidez. La validez interna refiere a la confianza en los resultados y la externa a su posible generalización. Cuando la manipulación es de varias variables independientes de varios niveles cada uno el estudio es factorial. El pre-experimento no manipula la variable independiente. El cuasi-experimento utiliza grupos intactos. El diseño no experimental observa escenarios existentes no provocados intencionalmente. Pueden ser transeccionales que a su vez se dividen en descriptivos y correlacionales/causales o longitudinales de tendencia, de evolución de grupo y diseño panel.

25 Selección de la Muestra La muestra es un sub-grupo de la población. Hay que definir la unidad de ánálisis o quienes van a ser medidos (personas, organizaciones, periódicos etc.) Luego se definen las características de la población o parámetros muestrales en contenido, lugar y tiempo (ej enfermos de cáncer de la ciudad X sin tratamiento). Hay muestras probabilísticas y no probabilísticas. En la probabilística todos los elementos de la población tienen la misma posibilidad de ser elegidos. En la segunda, la elección de elementos depende del investigador. Que tipo de muestra se elige depende de los objetivos del estudio, del esquema de investigación y de la contribución que se piensa hacer.

26 Muestra Probabilística En la muestra probabilística puede medirse el tamaño del error en la predicción. El principal objetivo de una muestra probabilística es reducir al mínimo este error llamado error estándar que dependerá del número de elementos muestreados. Es esencial en diseños por encuestas que buscan estimaciones de variables medidas con instrumentos de medición y analizados con pruebas estadísticas. Los valores muestrales serán parecidos a los de la población La precisión de dichos estimados depende del error en el muestreo.

27 Tamaño de la Muestra Se establece el error estándar (ej.0.05 o 0.01) o sea se sugiere que de 100 casos 95 o 99 veces el estimado sea correcto y que su valor se sitúe en un intervalo de confianza que comprenda el valor del parámetro poblacional. El tamaño de la muestra se determina en dos pasos : 1) Se saca el tamaño provisional de la muestra dividiendo la varianza de la muestra/varianza de la población. La varianza de la población es el cuadrado del error estándar y la varianza de la muestra S = p (1-p). 2) Se ajusta la muestra provisional (n) si se conoce el tamaño de la población (N) de forma tal que n = n/ 1+n/N Luego se decide como y de donde seleccionar los sujetos de la muestra del tamaño n

28 Muestra Estratificada y Por Racimo La muestra es estratificada si se la divide en estratos o categorías en que se divide la población y que son relevantes para los objetivos del estudio. Se divide a la población en sub poblaciones (estratos) y se selecciona una muestra para cada estrato. Aumenta precisión en la muestra pues se usan diferentes tamaños de muestra para cada estrato a fin de reducir la varianza de cada unidad de la media muestral. El muestreo por racimos se hace cuando las unidades de análisis se encuentran encerradas en determinados lugares físicos o geográficos (ej. niños en colegios). Unidad de análisis indica quienes serán medidos.La unidad muestral el racimo por el cual se llega a la unidad de análisis

29 Selección Aleatoria Muestra Probabilística Los elementos de una muestra probabilística siempre se eligen aleatoriamente (ej. tabla de números random o elección sistemática) para asegurar que cada elemento tenga la misma probabilidad de ser elegido. Todo procedimiento de selección depende de listados, sea existentes o construidos ad hoc. Listados pueden ser la guía telefónica, lista de escuelas oficiales etc. Cuando no hay listas se usan otros marcos con descripciones del material (archivos, mapas)

30 Muestras no Probabilísticas (dirigidas) Las muestras no probabilísticas (dirigidas) dependen del criterio del investigador para la elección de los sujetos u objetos de estudio. Selecciona casos típicos con la esperanza que sean representativos (para muestra basta un botón). Los elementos no tienen la misma posibilidad de ser elegidos. Es informal y un poco arbitraria. No se puede calcular con precisión el error estándar (nivel de confianza con que se hace una estimación). Pueden ser 1) muestras con sujetos voluntarios 2) muestras de expertos (estudios exploratorios), 3) muestras de sujetos tipo o estudios de casos (estudios cualitativos y motivacionales) y 4) muestreo por cuotas (estudios de opinión y mercadotecnia). Las muestras dirigidas son válidas en cuanto a que un determinado diseño de investigación así lo requiere, pero los resultados no son generalizables a una población sino apenas a la muestra en sí o muestras similares.

31 Normalidad y Probabilidad El teorema central del límite sugiere que una muestra de más de cien casos, será una muestra con una distribución normal en sus características. Distinguir normalidad de probabilidad. La normalidad es necesaria para efectuar pruebas estadísticas (inferenciales). Lo segundo es requisito indispensable para hacer inferencias correctas sobre una población.

32 Recolección de Datos Seleccionado el diseño apropiado y la muestra adecuada al problema e hipótesis el próximo paso es recolectar los datos sobre las variables seleccionadas. Hay que seleccionar primero un instrumento de medición o desarrollar uno válido y confiable. Aplicar el instrumento en la medición. Preparar las mediciones obtenidas o sea codificar los datos.

33 Medición de Conceptos Abstractos Medir significa asignar números a objetos (cosas que pueden verse o tocarse) y eventos (resultado, consecuencia o producto) de acuerdo con reglas. En ciencias sociales varios de los fenómenos que son medidos no pueden caracterizarse como objetos o eventos porque son muy abstractos para ello (ej. disonancia cognitiva, alienación, PBI, credibilidad). Por eso es mejor definir medición como la vinculación de conceptos abstractos con indicadores empíricos. Esto se hace con un plan organizado para clasificar y cuantificar los datos disponibles (indicadores) en términos del concepto que el investigador tiene en mente

34 Valores Observables de Conceptos Abstractos El centro de atención es la respuesta observable. El interés se sitúa en el concepto subyacente no observable que es representado por la respuesta. Los registros del instrumento de medición representan valores observables de conceptos abstractos. Un instrumento adecuado es el que registra los datos observables que representan bien los conceptos o variables que el investigador tiene en mente. No hay medición perfecta. Es imposible representar fielmente ciertas variables (ej.motivación) pero hay que acercarse lo más posible a la representación fiel de las variables a observar.

35 Confiabilidad y Validez del Instrumento La confiabilidad del instrumento significa que su aplicación repetida al mismo sujeto u objeto produce iguales resultados. La validez refiere al grado en que un instrumento realmente mide la variable que se pretende medir (ej. si se quiere medir inteligencia que mida inteligencia y no memoria) La validez responde a la pregunta ¿ Se esta midiendo lo que se cree que está midiendo?. La validez refiere a evidencia relacionada con el contenido, con el criterio y con el constructo.

36 La Validez de Contenido La validez de contenido del instrumento de medición refiere al dominio específico de contenido de lo que se mide. El instrumento debe contener representados a todos los ítems del dominio de contenido de las variables a medir. Una prueba de conocimiento sobre canciones de los Beatles no tendrá validez si sólo incluye canciones de un par de sus discos o una prueba de operaciones aritméticas no tendrá validez de contenido si sólo incluye problemas de resta y excluye la suma.

37 La Validez de Criterio La validez de criterio establece la validez de un instrumento de medición comparándola con algún criterio externo. Es un estándar. Por ej. un exámen sobre manejo de aviones, mostrando la exactitud con que el examen predice que tan bien un grupo de pilotos puede operar un aeroplano. Si el criterio se fija en el presente se habla de validez concurrente (preferencias del electorado por partidos contendientes unos días antes de la elección). Si el criterio se fija en el futuro se habla de validez predictiva (resultados de una prueba de capacidad administrativa de gerentes comparandolos con los resultados del futuro desempeño)

38 Validez de Constructo (Concepto) La validez de constructo (concepto) refiere al grado en que una medición se relaciona consistentemente con otras mediciones de acuerdo con hipótesis derivadas teóricamente referidas a los conceptos medidos. Ej. Teoría (investigaciones hechas) encontraron que A correlaciona positivamente con B,C y D y negativamente con W. Si el instrumento mide realmente A sus resultados deben correlacionarse positivamente con los resultados obtenidos en las mediciones de B,C,D y negativamente con los resultados de W. Ej. Al medir motivación laboral se mide persistencia (tiempo adicional que trabaja alguien al terminar su horario. Hay que especificar 1) Una relación teórica entre conceptos desde el marco teórico. La validez de constructo se vincula con la teoría. 2) Correlacionar ambos conceptos y analizar la correlación. 3) Interpretar la evidencia empírica de acuerdo con el nivel en que clarifica la validez de concepto de una medición en particular.

39 Validez y Confiabilidad La validez total del instrumento de medición se hace sobre la base de los tres tipos de evidencia (contenido, criterio y constructo) Mayor la validez, mayor la aproximación de la representación a la variable que se pretende medir. Un instrumento puede ser confiable pero no válido cuando genera resultados consistentes pero no mide lo que se pretende. Los instrumentos pueden ser afectados en su confiabilidad y validez por 1) la improvisación 2) el desarrollo en culturas, grupos y tiempos distintos 3) su falta de adaptación a las personas a las que se aplica (ej. no empatía por lenguaje elevado para niños) 4) por las condiciones en que se aplica el instrumento (cuestionario largo, tedioso, en la puerta de calle con ruido etc.) 5) aspectos mecánicos (no comprender instrucciones, falta de espacio para contestar, no se lee bien lo que dice etc. En la práctica es imposible la medición perfecta.

40 Cálculo de la Confiabilidad La medición se conceptualiza: X = t + e donde X son los valores observados t son los valores verdaderos y e es el grado de error de la medición. El error se mide calculando la confiabilidad y la validez. El coeficiente de confiabilidad puedo oscilar entre 0 y 1. Los procedimientos utilizados para medir la confiabilidad son Medida de Estabilidad aplica un mismo instrumento dos o mas veces a un mismo grupo después de cierto período. Si la correlación de los resultados de las diferentes aplicaciones es altamente positiva, el instrumento se considera confiable. Método de formas alternativas o paralelas: aplica versiones equivalentes del instrumento (no el mismo). La correlación debe ser significativamente positiva. Método de mitades: Se aplica una sóla medición pero se dividen en dos los items. Los valores deben correlacionar fuerte Coeficientes de cronbach y coeficiente KR-20

41 Cálculo de la Validez Para revisar la validez de contenido hay que mirar primero como usaron otros investigadores la variable. Sobre esa base se elabora un universo de items posibles para medir la variable y sus dimensiones. Se consulta luego investigadores familiarizados con la variable para ver si el universo es exhaustivo. Se seleccionan los items y una muestra probabilística de ellos. Se administran los items, se correlacionan las puntuaciones entre sí y se hacen estimaciones estadísticas para ver si la muestra es representativa. La validez de criterio se estima correlacionando su medición con el criterio La validez de constructo se hace mediante programas estadísticos de análisis de factores.

42 Construcción del Instrumento Listar las variables. Revisar su definición conceptual y comprender su significadoRevisar como han sido definidas operacionalmente las variables Comparar instrumentos, su confiabilidad, validez, sujetos a los que se aplicó, facilidad de administración, veces que medición resultó exitosa Elegir el instrumento favorecido y adaptarlo al contexto propio Indicar nivel de medición de cada variable: 1) Nominal: sin jerarquía ej, sexo m o f. Puede incluir variables dicotómicas ej escuela publica o privada a la asiste.2) Ordinal: hay categorías y jerarquía. Ej. mayor puntaje a una profesión que a otra. 3) Medición por intérvalos: Hay jerarquía entre categorías e intérvalos iguales en la medición ej.escala de 0 a 10. 4) Medición de razón (el cero de la escala es real o sea no existe la propiedad. Nivel medición afecta prueba estadística seleccionada Indicar codificación de datos (valor númerico que los represente). Ej. masculino 1 y femenino 0 Prueba piloto del instrumento,ajuste y mejora.

43 Instrumentos Disponibles : Escala de Likert Escalas para medir actitudes que tienen dirección (positiva o negativa) e intensidad (alta o baja). La escala de Likert presenta items en forma de afirmaciones o juicios (ej. la DGI informa bien a los contribuyentes) ante los cuales se pide la reacción de los sujetos (muy de acuerdo, de acuerdo, en desacuerdo etc.). Cada afirmación tiene el mismo peso en la escala. El número de juicios debe ser el mismo para todas las afirmaciones. Todas las afirmaciones (items) miden la actitud hacia un único concepto subyacente (ej. la DGI). Si se miden actitudes hacia varios objetos se requiere una escala por cada objeto. Cada frase tiene un puntaje y se suman sus valores por lo que se trata de una escala aditiva. (Ej. desde una actitud muy desfavorable hasta una actitud muy favorable) Suponiendo una encuesta con 8 afirmaciones y 5 opciones cada una con un valor de 1 a 5, el mínimo posible es 8 y el máximo 40. La escala de Likert se aplica autoadministradamente o por entrevista.

44 Diferencial Semántico-Cuestionarios El diferencial semántico califica al objeto de actitud en un conjunto de adjetivos bipolares ej. justo-injusto; fuerte-débil; caro-barato Entre cada par de adjetivos se presentan opciones ej. muy, bastante, regular, bastante y muy) y el sujeto elige la que refleja su actitud. La escala final se califica igual a la de Likert sumando las puntuaciones obtenidas. Los resultados pueden ordenarse en una tabla Los cuestionarios son un conjunto de preguntas cerradas (o con respuestas delimitadas) o abiertas respecto de las variables a medir. Para codificar preguntas abiertas se selecciona un determinado número de cuestionarios por muestreo. Se observa la frecuencia con que aparece cada respuesta, se eligen las que tienen mayor frecuencia (patrones generales),se clasifican en temas o rubros de acuerdo a un criterio lógico, se le da un título a cada tema y se asigna un código a cada patrón general de respuesta

45 Análisis de Contenido Es una técnica para analizar la comunicación de una manera objetiva, sistemática y cuantitativa. Sirve para conocer actitudes de un grupo mediante análisis de sus discursos, analizar la personalidad de alguien evaluando sus escritos, describir tendencias en el contenido de la comunicación, develar diferencias en el mismo, comparar mensajes, auditar el contenido, medir la claridad de los mensajes, identificar intenciones, mensajes ocultos, revelar centros de interés, reflejar actitudes, valores etc Se hace codificando las características relevantes del contenido del mensaje, para eso hay que definir el universo, las unidades de análisis y las categorías de análisis.

46 Universo, Unidades de Análisis, y Categorías El Universo puede ser la obra de un autor, las emisiones de un noticiario televisivo durante un mes etc. Las unidades de análisis constituyen segmentos del contenido de los mensajes. Pueden ser palabras, el tema, el item (programa, libro) el personaje, las medidas de espacio tiempo. Las categorías son las casillas o cajones en las cuales son clasificadas las unidades de análisis. Ej. un discurso puede ser optimista, pesimista, liberal, conservador. Un personaje puede ser bueno o malo. Las categorías pueden ser de asuntos (el tópico), de dirección (a favor, en contra, nacionalista, etc.) de valores (creencias, intereses) de receptores (a quien va dirigido) físicas (sección y página de prensa, horario en TV etc.) Las categorías deben ser exhaustivas, mutuamente excluyentes, derivarse del marco teórico y de una evaluación de la situación.

47 Pasos en el Análisis de contenido Definir el universo y sacar una muestra representativa Definir las unidades de análisis Definir las categorías que presenten a las variables Seleccionar las personas que codificarán Elaborar hojas de codificación Entrenar a los codificadores Calcular confiabilidad de los codificadores Codificar y contar las frecuencias de repetición de las categorías. Obtener totales para cada categoría Realizar los análisis estadísticos apropiados

48 Observación Es el registro sistemático, válido y confiable de comportamientos o conductas manifiestas. Es una forma de observación del contenido de comunicaciones. Puede ser participante o no. La ventaja es que son técnicas de medición no obstructivas, aceptan material no estructurado y puede trabajar grandes volúmenes de datos. Se debe definir el universo de eventos o conductas a observar, extraer una muestra, definir las unidades de observación y las categorías de observación.(Las subcategorías pueden ser escalas del tipo likert o diferencial semántico). Se selecciona a los observadores, se elige el medio de observación, se elaboran las hojas codificadoras, se entrenan los codificadores y se calcula su confiabilidad. Se codifica, se obtienen los totales y se hacen los análisis

49 Sesiones en Profundidad Las sesiones en profundidad son otro método de recolectar datos. Se reúne a un grupo de personas y se trabaja con éste en relación a las variables de la investigación. Se define el tipo de personas. Se detectan ese tipo de personas y se las invita a las sesión. Se lleva a cabo la reunión creando clima de confianza (rapport). Se elabora el reporte de sesión. Se codifica y se hace el análisis correspondiente

50 Resumen Tercera Parte La selección de la muestra depende de los objetivos y el tipo de investigación. Cuando es probabilística, se puede medir el error en la predicción, no así en la muestra dirigida. Hay muestras estratificadas y por racimos. La recolección de datos se hace con instrumentos que deben ser confiables y válidos. Cuando se miden conceptos abstractos, estos se vinculan con indicadores empíricos. La validez debe ser de contenido, de criterio y de concepto. Entre los instrumentos disponibles están las escalas (Likert, semántica diferencial) los cuestionarios, el análisis de contenido, la observación, las sesiones en profundidad, y otros como las pruebas estandarizadas y los archivos.

51 Análisis de los Datos Con los datos codificados en una matriz se analizan. Los análisis dependen de tres factores: el nivel de medición de las variables (nominal,ordinal,por intérvalos), la formulación de las hipótesis y el interés del investigador. Se busca describir los datos y luego relacionar las variables. Los principales análisis son: estadística descriptiva para las variables tomadas individualmente, puntuaciones Z, razones y tasas, cálculos y razonamientos de estadística inferencial, pruebas paramétricas, pruebas no paramétricas, análisis multivariados. Para describir cada variable se distribuyen las frecuencias o sea se establece el conjunto de puntuaciones ordenadas en sus respectivas categorías. Luego se pueden agregar las frecuencias relativas (porcentajes de casos en cada categoría) y las acumuladas (lo que se va acumulando en cada categoría) que también pueden expresarse en porcentajes. Las distribuciones pueden presentarse en histogramas o gráficas.

52 Medidas de Tendencia Central Las medidas de tendencia central son puntos en una distribución. Son la moda, la mediana y la media. El nivel de medición de la variable determina cuál es la medida de tendencia apropiada. La moda (categoría más frecuente) va con cualquier nivel de medición La mediana (distribuye la distribución por la mitad) se usa con mediciones ordinales, por intérvalo y de razón. No tiene sentido con variables nominales porque no tienen jerarquía. No hay noción de encima o debajo. Es útil cuando hay valores extremos en la distribución, ya que no es sensible a estos. La media es el promedio aritmético de una distribución y se aplica a mediciones por intérvalos o de razón. No tiene sentido en variables medidas en nivel nominal u ordinal. Es sensible a valores extremos. Para calcular la media en una distribución de frecuencias, se saca el punto medio de cada intérvalo, se lo multiplica por la frecuencia que le corresponde. Se suman los resultados y se lo divide por el número total de frecuencias.

53 Medidas de Variabilidad Indican dispersión de los datos en la escala de medición y responden a la pregunta: ¿dónde están diseminados los valores obtenidos? Las medidas de tendencia central son valores en una distribución y las medidas de variabilidad son intérvalos, designan distancias o un número de unidades en la escala de medición. Son el rango, la desviación estándar y la varianza. El rango es la diferencia entre la puntuación mayor y la menor. Se calcula puntuación mayor menos puntuación menor. Mayor el rango, mayor la dispersión de los datos en una distribución. El desvio estándar es el promedio de desviación de las puntuaciones con respecto a la media. Se expresa en unidades originales de medición de la distribución. Se interpreta en relación a la media. Mayor la dispersión de los datos alrededor de la media mayor la desviación estándar. Se calcula sumando todos los cuadrados de la desviación de cada puntuación respecto a la media dividida por el número total de puntuaciones. A esa división se le saca raíz cuadrada.

54 Medidas de Variabilidad Para datos agrupados en una distribución de frecuencias se obtiene la media con la fórmula de datos agrupados. Se eleva esa media al cuadrado. Se multiplica la columna de puntos medios multiplicados por sus frecuencias por los puntos medios (fx2). Se suman los valores y se divide el total por el número de frecuencias. Se le resta el promedio al cuadrado y al resultado se le saca raíz cuadrada. S= Raiz cuadrada de ((la sumatoria de fx2/N) - X2) La desviación estádar se interpreta como cuanto se desvía en promedio de la media un conjunto de puntuaciones Sólo se usa en variables medidas por intérvalos o de razón. La varianza es el desvío estándar elevado al cuadrado. Las medidas de tendencia central y las de variabilidad se interpretan en conjunto no aisladamente.

55 Asimetría y Curtosis La asimetría y la curtosis son otras medidas de estadística descriptiva para analizar la distribución de frecuencias en términos de probabilidad y visualizar su grado de dispersión. Requieren medición por intérvalo. La asimetría es una estadística para conocer cuánto se parece la distribución a una distribución teórica llamada curva normal. Constituye un indicador del lado de la curva donde se agrupan las frecuencias. Si es positiva, habrá más valores agrupados hacia la izquierda de la curva o por debajo de la media, y si es positiva a la derecha o por encima de la media. La curtosis es un indicador de lo plana o picuda que es una curva. Cuando es cero significa que se trata de una curva normal. Si es positiva la curva es más levantada o picuda. Si es negativa es más plana. Las frecuencias y las estadísticas descriptivas son para cada variable.

56 Puntuaciones Z Las puntuaciones Z son las transformaciones de los valores obtenidos para analizar su distancia respecto a la media en unidades de desviación estándar (s). (Son un elemento descriptivo adicional) Indica la dirección y grado en que un valor individual obtenido se aleja de la media en una escala de unidades de desviación estándar. Es el método usado comúnmente para estandarizar la escala de una variable medida en un nivel por intervalos. Z = X -X media/s ej. si el valor es 50 y la media 60 y el desvio estandar 10 resulta que Z = / 10 = -1 o sea el valor 50 está a un desvío por debajo de la media de la distribución. La estandarización permite comparar puntuaciones de dos distribuciones diferentes (por ejemplo una distribución obtenida en una preprueba y en una postprueba) o mediciones de distintas pruebas o escalas aplicadas a los mismos sujetos. La distribucion Z tiene media cero (0) y una desviación estándar de 1.

57 Tasas y Razones Una razón es la relación entre dos categorías por ej. masculino (60)/femenino(30) = 2 Una tasa es la relación entre el número de casos, frecuencias o eventos de una categoría y el número total de observaciones multiplicada por un múltiplo de 10, generalmente 100 o 1000 Por ej. (Número de nacidos vivos en el país/ número de habitantes en el país) X 1000

58 Inferencia: De la Muestra al Universo La investigación pretende generalizar los resultados de la muestra al universo. La estadística inferencial se usa para probar hipótesis y estimar parámetros. Una hipótesis en el contexto de la estadística inferencial es una proposición respecto a uno o varios parámetros. La prueba de hipótesis determina si la hipótesis es congruente con los datos obtenidos en la muestra. Si es congruente se retiene como un valor aceptable del parámetro. Para entender la prueba de hipótesis hay que revisar el concepto de distribución muestral y el de nivel de significancia.

59 Distribución Muestral Una distribución muestral es un conjunto de valores sobre una estadística calculada de todas las muestras posibles de determinado tamaño. Se saca el tamaño representativo de la muestra ej. 512 y luego se sacan varias muestras de ese tamaño. Con las medias extraídas de las medias se hace una distribución de las medias. Comúnmente se saca una sola muestra. La cuestión es que han cerca está nuestra media de la distribución muestral. (Si está cerca podremos tener una estimación precisa de la media poblacional que es prácticamente el mismo que el de la distribución muestral. El teorema central del límite especifica que la distribución muestral tiene una media igual a la de la población, y una varianza igual a la varianza de la población dividida por el tamaño de muestra.

60 Nivel de Significancia (Valor de certeza fijado a priori) La probabilidad de que un evento ocurra oscila entre 0 y 1.Aplicando el concepto de probabilidad a la distribución muestral podemos tomar el área de esta como 1. Cualquier área entre dos puntos de la distribución corresponderá a la probabilidad de la distribución. Para probar hipótesis inferenciales respecto a la media, el investigador debe evaluar si es alta o baja la probabilidad de que la media de la muestra esté cerca de la media de la distribución muestral. Si es alta se generalizará a la población, si es baja no. El nivel de significancia o nivel alfa es un nivel de la probabilidad de equivocarse y se fija antes de probar hipótesis inferenciales. La estadística de la muestra obtenida se analiza sobre que porcentaje tiene de confianza en que dicho valor se acerque al valor de la distribución muestral (valor del parámetro de la población). Hay dos niveles convenidos 0.5 o sea que hay 95 % de seguridad para generalizar sin equivocarse y sólo 5 % en contra o 0.1 o 99% de seguridad

61 Distribución Muestral y Nivel de Significancia El nivel de significancia se expresa en términos de probabilidad (0.05 y 0.01) y la distribución muestral se expresa como probabilidad (el área total de ésta es 1). El nivel de significancia se toma como un área bajo la distribución muestral. Representa áreas de riesgo o confianza en la distribución muestral. La distribución muestral es una distribución de valores Z. Los valores Z son distancias que indican áreas bajo la distribución normal (áreas de probabilidad). El área de riesgo es tomada como el área de rechazo de la hipótesis y el área de confianza como el área de aceptación de la misma. La hipótesis es sobre el parámetro poblacional

62 Procedimiento Sobre bases firmes (revisión literatura e información disponible) establecer una hipótesis sobre el parámetro poblacional. Definir el nivel de significancia. (Ej.0.05) Recolectar datos en una muestra representativa. Estimar desvío estándar de la distribución muestral de la media mediante la fórmula s / raíz cuadrada de n donde s es el desvío estándar de la muestra y n el tamaño de la muestra. Transformar la media de la muestra en una puntuación Z Buscar en la tabla bajo la curva normal aquella puntuación Z que deje 2,5 % por encima de ella que es 1.96 Comparar la media de la muestra transformada a valor Z con el valor 1.96, si es menor aceptar la hipótesis y si es mayor rechazarla.

63 El Intervalo de Confianza Otro procedimiento inferencial es construir un intervalo donde se localiza un parámetro. En vez de probar una hipótesis sobre la media poblacional, se busca un intervalo donde se ubique dicha media. Esto requiere un nivel de confianza que es al intervalo de confianza lo que el nivel de significancia es a la prueba de hipótesis. Es una probabilidad dada de que un parámetro esté en un intervalo. Si la probabilidad es 0.95 tenemos un 95 % de probabilidad a favor de que el parámetro se localice en el intervalo estimado contra 5 % de elegir un intervalo equivocado. Estos niveles de confianza se expresan en unidades de desviación estándar. Se usa la tabla de áreas bajo la curva normal, y se selecciona el valor Z del nivel de confianza seleccionada. Luego se aplica la fórmula: Intervalo de confianza = estadística de la muestra +- (puntuación Z X Desvío estándar de la distribución muestral) Ej. si Z 0.95 = 1.96 si 0.99 = 2.58 Si la media es 2.9 y el desvío entonces 2,9 +- (1.96) ( = (0.133) = la media está entre y con 95 % de probabilidades de no errar.

64 Errores al Realizar Inferencias Los resultados posibles al probar hipótesis son: Aceptar una Hipótesis verdadera. (decisión correcta) Rechazar una Hipótesis falsa (decisión correcta) Aceptar una H. falsa (error tipo II o error beta) Rechazar una H. verdadera (error tipo I o error alfa) Los dos errores son indeseables y su posibilidad se reduce mediante: Muestras representavas probabilísticas, inspección cuidadosa de los datos, selección de las pruebas estadísticas aporpiadas y mayor conocimiento de la población.

65 Análisis Paramétricos Los supuestos para los análisis paramétricos son: 1) La distribución poblacional de la variable dependiente es normal 2) El nivel de medición de la variable dependiente es por intérvalo o razón 3) Cuando dos o mas poblaciones son estudiadas, tienen una varianza homogenea (dispersión similar en sus distribuciones) Las pruebas estadísticas paramétricas más usadas son 1) El coeficiente de correlación de Pearson y la regresión lineal 2) La prueba t 3) La prueba de contraste de la diferencia de proporciones 4) El análisis de varianza unidireccional (ANOVA) 5) El análisis de varianza factorial (ANOVA) 6) El análisis de covarianza (ANCOVA)

66 Correlación Analiza relación entre dos variables medidas en un nivel por intervalos o de razón. Se simboliza r. Cuando se lo eleva al cuadrado (r2) el resultado indica la varianza de factores comunes. Es una hipótesis correlacional del tipo a mayor X mayor Y o a mayor X menor Y. Relaciona dos variables sin considerar una como independiente y otra como dependiente pues no evalúa la causalidad. El r se calcula a partir de los valores obtenidos en una muestra en dos variables. Se relacionan valores de una variable con valores de otra en los mismos sujetos. El coeficiente varía de -1 (correlación negativa perfecta) a +1 (positiva perfecta) siendo 0 la falta de correlación Se indica si el coeficiente es o no significativo de la siguiente manera s= significancia. Si s es menor de 0.05 es significativo al nivel de 0.05 (95 % de confianza que correlación sea verdadera y 5 % de probabilidad de error). (Simboliza p <0.05 prob.de error menor a 0.05) Ej. R = y s = Se acepta H nula pues r no es significativo ya que es mayor que 0.05 que es el nivel mínimo para aceptar H

67 Regresión Lineal Estima el efecto de una variable sobre otra. Está asociado con el coeficiente r Se expresa Y = a + bX donde Y es un valor de la variable dependiente que se desea predecir, a es la ordenada en el origen y b la pendiente. La Hipótesis son correlacionales y causales. Son dos variables a una se la considera independiente y a otra dependiente. Para eso hay que tener un sólido sustento teórico. El nivel de medición es por intervalo o razón. La regresión lineal se determina con base en el diagrama de dispersión Conociendo la línea y la tendencia se puede predecir los valores de una variable conociendo los de la otra variable. Regresión lineal no es útil con relaciones curvilíneas donde tendencia varía, primero es ascendente y luego descendente o viceversa. Ej. a =1.2 b= 0.8 ¿a un valor de 7 en lógica que valor corresponde en historia? Y = x 7 = 6.8

68 Prueba t Prueba para evaluar si dos grupos difieren entre sí de manera significativa respecto a sus medias. Simboliza t La H propone que los grupos difieren significativamente entre sí y la H nula propone que los grupos no difieren significativamente. La comparación se realiza sobre una variable. Si hay diferentes variables se efectuarán varias pruebas t una para cada variable. La medición es por intervalos o razón. Para saber si valor de t es significativo se calculan los grados de libertad(número de maneras en que datos pueden variar libremente). Esto indica que valor podemos esperar de t dependiendo del tamaño de los grupos que se comparan. Mayor los grados de libertad que se tengan, la distribución t de student se acerca más a una distribución normal y si los grados de libertad exceden los 120 la distribución normal es usada como aproximación adecuada de la distribución t

69 Prueba t La fórmula de t es la diferencia entre las medias de los dos grupos divididos por el error estándar de la distribución muestral de la diferencia entre medias. Los grados de libertad se calculan sumando los dos valores del tamaño de los grupos que se comparan menos dos. Gl = (N1+N2)-2 Calculados el valor de t y los grados de libertad se elige el nivel de significancia y se compara el valor obtenido contra el valor que le correspondería en la tabla respectiva. Si el valor calculado es igual o mayor al que aparece en la tabla se acepta Hi (investigación). Si es menor se acepta la H0 En la tabla se busca niveles de confianza como columnas y los grados de libertad como filas o renglones. Ej. Se comparan las medias y varianzas de una preprueba con una postprueba en dos momentos diferentes. N1=128 N2=119 gl=245 Si t = para un nivel de confianza de 0.05 el valor de tabla será para más de 200 grados de libertad Se acepta la Hi.

70 Prueba de Diferencia de Proporciones Prueba sobre una variable para analizar si dos proporciones difieren significativamente entre sí. La variable se mide en intérvalos o razón expresada en proporciones o porcentajes. Se aplica la formula, se compara con el valor Z de la distribución normal que corresponde al valor de confianza elegido. Si es igual o mayor se acepta la Hi si es menor se rechaza. Ej. el % de liberales en la ciudad X es mayor que la la ciudad Y % en X = 55 % para N = 410 ; % en Y = 48 % para N = 301 Los % se transforman en proporciones y se calculan q1 y q2 o sea q1 = = 0.45 ; q2 = = 0.52 Con a= 0.05 = 1.96 Z por lo tanto z = / la raíz cuadrada de ((0.45 x 0.55) / 410 )+ ((0.48 x 0.52) / 301) = 1.56 Como z calculada es menor al nivel alfa expresada en valor Z 1.96, se rechaza la Hi y se acepta la Ho

71 Análisis de Varianza Unidireccional Analiza si más de dos grupos difieren significativamente en cuanto a sus medias y varianzas (La prueba t se usa para dos grupos) La Hipótesis es de diferencia entre los grupos. La Hi propone que los grupos difieren significativamente entre sí y la Ho propone que los grupos no difieren significativamente. Hay una variable independiente (categoría) y una dependiente (por intérvalos o razón) Que la var. ind. sea categórica significa que se pueden formar grupos diferentes ej. Religión o nivel socioeconómico o antigüedad en la empresa. El análisis de varianza unidireccional produce un valor conocido coo F basada en una distribución muestral F Compara variaciones de dos fuentes entre los grupos y dentro de los grupos.

72 Varianza Unidireccional Si los grupos difieren entre sí, sus valores variarán más de lo que puedan variar las puntuaciones entre integrantes de un mismo grupo. Ej. hay 3 clínicas A,B,C la primera esta integrada por los médicos x,y,z la otra por a,b,c y la otro por d,e,f. Se espera que los integrantes de una clínica se parezcan más entre sí (por ej. en su comportamiento referido a internación o cirugías) que a los miembros de otra clínica. Se espera homogeneidad intra clínica y heterogeneidad inter clínicas. Que pasa si los comportamientos de la clínica A se parecen más a los de otra clínica que a los integrantes de la suya propia?. Quiere decir que no hay diferencia entre las clínicas. La razón F indica si las diferencias entre grupos son mayores que las diferencias intra grupo. Esas diferencias son medidas en términos de la varianza. (dispersión sobre la media calculada en desviaciones elevadas al cuadrado)

73 Razón F = Razón entre Varianzas (división de medias cuadráticas) La razón F es una razón de varianzas o sea divide a la media cuadrática entre los grupos (numerador) por la media cuadrática dentro de los grupos (denominador) F= mceg/mcdg La media cuadrática implica un promedio de varianzas elevadas al cuadrado. La media cuadrática entre grupos se obtiene calculando la media de los valores de todos los grupos (media total). Después se obtiene la desviación de la media de cada grupo respecto a la media total y se eleva al cuadrado cada desviación, después se suman. Finalmente se sopesa el número de individuos de cada grupo y la media cuadrática se obtiene con base en los grados de libertad inter grupales. La media cuadrática dentro de los grupos se saca primero midiendo el desvío de cada puntuación respecto a la media de su grupo, se suma esa fuente de variación y se combina para obtner una media de la varianza intra grupal tomando en cuenta los grados de libertad totales

74 Media cuadrática entre grupos = Suma de cuadrados entre grupos / grados de libertad entre grupos Grados de lib. entre grupos = K -1 donde K es el número de grupos La media cuadrática dentro de los grupos = suma de los cuadrados intragrupo / grados de libertad intragrupos Grados de lib.intragrupos = N - K donde N es tamaño de la muestra, la suma individuos de todos los grupos y K es el número de grupos Cuando F es significativa (valor igual o mayor al de la tabla) =grupos difieren significativamente entre sí. Se acepta la Hi y se rechaza la Ho Se elige un valor alfa o probabilidad (0.05 o 0.01). Si es menor a ese nivel es significativo. Ver tabla. Ej. si F = 1.12 y el valor en tabla es 3.15 como F calculado es menor se rechaza Hi y se acepta Ho o sea los grupos no difiere entre sí. Varianza Unidireccional ( F Significativa)

75 Análisis Factorial de Varianza Analiza el efecto de dos o más variables independientes sobre una variable dependiente. Extiende análisis de varianza unidireccional. Incluye más de una variable. Evalúa los efectos por separado de cada variable independiente y los efectos conjuntos de dos o más variables independientes. La variable dependiente está medida en intervalos y las independientes en cualquier nivel pero expresadas de manera categórica. Sirve para diseños experimentales factoriales Ej., la similitud en valores, la atracción física y la retroalimentación positiva son factores que inciden en la satisfacción sobre la relación de parejas de novios que tienen entre 24 y 32 años.

76 Análisis de Covarianza Analiza la relación entre una variable dependiente y dos o mas independientes eliminando y controlando el efecto de al menos una de estas independientes Hay tres perspectivas para el análisis de covarianza. La perspectiva experimental se centra en las diferencias observadas en la variable dependiente a través de las categorías de la(s)variable (s) independiente(s). ( Se intenta controlar la influencia de otras variables independientes que no sean categóricas. Purifica la relación entre las variables independientes y la dependiente controlando el efecto de las independientes no categóricas o continuas). A las variables independientes cuantitativas continuas cuya influencia se remueve y controla se les denomina covariables Aquí el análisis de covarianza se concibe como un ajuste en la variable dependiente respecto a diferencias en la covariable y luego como una evaluación de la relación entre variables independientes categóricas y los valores ajustados de la variable dependiente.

77 Análisis de Covarianza La perspectiva de interés por la covariable analiza la relación entre la variable dependiente y la covariable (variable cuantitativa continua). La influencia que se remueve es la de las variables independientes categóricas. Primero se controla efecto de estas variables y después se analiza el efecto purificado de las covariables. En la perspectiva de regresión tanto las variables independientes categóricas como las covariables resultan de interés. El análisis de covarianza elimina influencias no deseadas sobre la variable dependiente. Elimina los efectos de variables que confunden o distorsionan la interpretación de resultados en estudios no experimentales La razón F es una razón de varianzas

78 Análisis de Covarianza Ej. Los trabajadores que reciban retroalimentación verbal (X1)sobre el desempeño mantendrán un nivel mayor de productividad que los trabajadores que reciban retroalimentación por escrito (X2) y que los trabajadores que no reciban ningún tipo de retroalimentación (X3). Hi X1 > X2 >X3 Se sabe que la motivación puede contaminar los resultados. Diferencias iniciales de motivación pueden invalidar el estudio. Se decide controlar el efecto de la motivación que se convierte en covariable. El análisis de covarianza quita a la variabilidad de la dependiente lo que se debe a la covariable. El ajuste se hace sobre la base de la correlación entre la covariable y la dependiente. Realizado el análisis de covarianza se evalúa si F es o no significativa. Cuando F es significativa se acepta la Hi

79 Análisis de Covarianza Si el resultado fuera G1 = 35 G2 = 36 G3 = 38 Los grados de libertad (Gl) entre = K -1 = 3-1 = 2 Gl Intra = N-K = 109 (recordar que N es el tamaño de la muestra y K el número de grupos) F= 1.70 Se compara el valor de la tabla que a =.05 es igual a 3.07, siendo la razón F encontrada 1.70 es menor a este valor. Se rechaza la Hi y se acepta la Ho

80 Análisis No Paramétricos No requieren distribución normal Las variables pueden no estar medidas en un nivel por intervalos o de razón. Pueden analizar datos nominales u ordinales. Las variables deben ser categóricas. Las pruebas más usadas son 1) La Ji cuadrada (x2) 2) Los coeficientes de correlación e independencia para tabulaciones cruzadas y 3) Los coeficientes de correlación por rangos ordenados de Spearman y Kendall.

81 La X2 Es una prueba para evaluar hipótesis acerca de la relación entre dos variables categóricas. Prueba hipótesis correlacionales. No considera relaciones causales Involucra 2 variables medidas en forma nominal u ordinal. Si hay variables medidas a intervalos o razón se deben reducir a ordinales. Los datos por intérvalos o razón deben ser resumidos a una cuantas categorías discretas. Se calcula por medio de una tabla de contingencia o tabulación cruzada. (Tabla de dos dimensiones donde cada dimensión contiene una variable. A su vez cada variable se subdivide en dos o más categorías).

82 Tabla de Contingencia de la X2 Voto Candidato A Candidato B Masc. Sexo Femen.

83 Tabla de Contingencia de la X2 El ej. es una tabla de 2 x 2 donde cada dígito significa una variable y el valor de éste indica el número de categorías de la variable. 2 (una variable de dos categorías) x 2 (otra var.con dos categorías) Si tabla fuera 2 x 3 serían 2 variables con 1de ellas de 3 categorías. Por ej.si en vez de sexo fueran los partidos políticos y hubiera tres. En la tabla de contingencia se anotan las frecuencias observadas en la muestra de la investigación. Posteriormente se calculan las frecuencias esperadas para cada celda. En esencia la x2 es una comparación entre la tabla de frecuencias observadas y la denominada tabla de frecuencias esperadas, la cual constituye la tabla que esperaríamos encontrar si las variables fueran estadísticamente independientes o no estuvieran relacionadas. La x2 parte del supuesto de no relación entre variables y se evalúa si esto es cierto o no analizando si sus frecuencias obsrvadas son diferentes de lo que pudiera esperarse en asusencia de correlación.

84 Cálculo de Frecuencias Si hay relación, la tabla que resultado en la investigación debe ser muy diferente respecto a la tabla de frecuencias esperadas. La tabla de frecuencia esperada de cada celda se calcula mediante la siguiente fórmula aplicada a la tabla de frecuencias observadas: fe = (Total o marginal de renglón) x (total o marginal de columna) N (número total de frecuencias observadas) En un ej. 2 x 3 donde haya dos zonas de votantes y 3 partidos la frecuencia observada sería: ZonaTotal norte sur 280 A PartidosB C Total (280 x 540) / 1040 = La (fe) para la primera celda será= (280 x 540) / 1040 = 145.4

85 Cálculo de Frecuencias La tabla de frecuencias esperada sería: Obtenidas las frecuencias esperadas se aplica la siguiente fórmula de X2 = Sumatoria de (0-E)2 / E donde 0 es la frecuencia observada en cada celda y E es la frecuencia esperada de cada celda. Esto significa que se calcula para cada celda la diferencia entre la frecuencia observada y la esperada y se eleva esa diferencia al cuadrado para luego dividir ese resultado por la frecuencia esperada. Finalmente se suman esos resultados y la sumatoria es el valor de la X2 obtenida.

86 Cálculo de la X2 Celda0E0-E(0-E)2 (0-E)2 /E Zona norte partido A Zona norte partido B Zona norte partido C Zona Sur partido A Zona Sur partido B Zona Sur partido C __________________________________________________________ X2= ¿Que quiere decir 47.33? Al igual que t y F la X2 proviene de una distribución muestral (identificados por los grados de libertad). Por eso para saber si X2 es o no significativo se deben calcular los grados de libertad.

87 Los Grados de Libertad GL = (r-1)(c-1) donde r es el número de renglones de la tabla de contingencia y c el número de columnas o sea GL = (3-1) (2-1) = 2 Luego se acude a los grados de libertad de la tabla de X2, eligiendo nuestro nivel de confianza (0.05 o 0.01). Si nuestro valor calculado de X2 (47.33) es igual o superior al de la tab la, decimos que las variables están relacionadas (x2 fue significativa). En el ejemplo el valor que requerimos empatar o superar al nivel de 0.05 es El valor calculado es muy superior (47.33) por lo tanto X2 resulta significativa

88 Otro Ejemplo H I = Los tres canales de TV a nivel nacional difieren en la cantidad de programas prosociales, neutrales y antisociales que difunden. Hay relación entre la variable canal de televisión nacional y la variable emisión de programas prosociales, neutrales y antisociales Resultados X2 = 7.95 Gl = 4 Para que X2 sea significativa a 0.01 con cuatro grados de libertad, se necesita un valor mínimo de y para que sea significativa a 0.05 se necesita un valor mínimo de Por lo tanto se rechaza la Hi y se acepta la nula. No hay relación entre las variables

89 Coeficientes de Correlación e Independencia para Tabulaciones cruzadas. Además de la X2 existen otros coeficientes para evaluar si las variables incluídas en la tabla de contingencia o tabulación cruzadas están correlacionadas.(Pearson, de Cramer, Lambda, Gamma, Tau-b de Kendall, D de Somers, Eta. Las diferencias tienen que ver con el tamaño de las tablas de contingencia y el nivel de medición de las variables

90 Otros Usos de las Tablas de Contingencia para describir conjuntamente a dos o más variables. Las tablas de contingencia además de servir para calcular la X2 y otros coeficientes, son útiles para describir conjuntamente a dos o más variables. Esto se efectúa convirtiendo las frecuencias observadas en frecuencias relativas o porcentajes. En una tabulación cruzada puede haber tres tipos de porcentajes respecto a cada celda: a) % en relación al total de frecuencias observadas (N) b) % en relación al total marginal de la columna. c) % en relación al total marginal del renglón.

91 Ejemplo Suponga un ejemplo dedos variables sexo y preferencia por el conductor a y b con las siguientes frecuencias observadas sexo MF Preferencia A por conductor B

92 Observaciones del Ejemplo Una cuarta parte de la muestra está constituída porhombres que prefieren al conductor A, 10 % son mujeres que prefieren al conductor B. Más del 60 % de los hombres prefieren a B Etc. observadas Estas frecuencias relativas se basan en las frecuencias observadas pero no tienen nada que ver con las frecuencias esperadas.

93 Coeficientes y Correlación por rangos ordenados de Spearman y Kendall Los coeficientes rho de Spearman simbolizado como rs y tau de Kendall simbolizado como t son medidas de correlación para variables en un nivel de medición ordinal de tal modo que los individuos u objetos de la muestra puedan ordenarse por rangos(jerarquías) Por ejemplo tenemos las variables preferencia por el sabor y atractivo del envase y pedimos a personas que evalúen 10 bebidas y los ordenen del 1 al 10 Los coeficientes varían de -1 a +1 o sea de correlación negativa perfecta a correlación positiva perfecta. El de Kendall es más significativo cuando los datos tienen un número considerable de rangos empatados. El de Spearman parece una aproximación cercana al coeficiente r de Pearson cuando los datgos son continuos (no caracterizados por un número considerable de empares en cada rango)

94 Análisis Multivariado:1) Regresión Estos métodos analizan la relación entre varias variables independientes y al menos una dependiente (medida por intérvalos) La regresión múltiple analiza el efecto de dos o más variables independientes sobre una dependiente. Sirve para predecir el valor de una variable dependiente conociendo el valor y la influencia de las variables independientes incluídas en el análisis. (R) todas en conjunto El coeficiente de correlación múltiple (R) señala la correlación entre la variable dependiente y todas las demás variables independientes tomadas en conjunto. El coeficiente varía de 0 a 1, y mayor su valor, las var. independientes explicarán en mayor medida la variación de la variable dependiente. R2 variación El R2 (coeficiente de correlación elevado al cuadrado) nos indica el porcentaje de variación de la dependiente debida a las independientes. cada variable El valor Beta (B) inidca el peso o influencia que tiene cada variable independiente sobre la dependiente. El valor alfa (a) es una cosntante de regresión para el conjunto de valores obtenidos.

95 2) Análisis Lineal de Patrones. (Path Análisis) El análisis lineal de patrones (path análisis) representa interrelaciones entre variables a partir de regresiones. Analiza la magnitud de la influencia (directa o indirecta) de unas variables sobre otras. Es un modelo causal. Los coeficientes de path representan la fuerza de las relaciones entre las variables. Son coeficientes de regresión estandarizados. Cuantifica efectos. Más se acerque un coeficiente path a cero menor efecto tendrá.

96 3)Análisis de Factores Explica un fenómeno complejo en función de unas cuantas variables. determinar el número y naturaleza de conceptos (constructos) subyacentes en un conjunto de mediciones. Es un método para determinar el número y naturaleza de conceptos (constructos) subyacentes en un conjunto de mediciones. constructo es un atributo Un constructo es un atributo para explicar un fenómeno Se generan variables artificiales denominadas factores que representan atributos. (Los factores hacen el concepto o atributo) Los factores se obtienen de las variables originales y deben interpretarse de acuerdo con estas. Var. Se miden por intérvalos. Ej. Analizar los factores que determinan la relación entre los vendedores y los compradores industriales en una ciudad. Se midieron las variables coordinación, conflicto, frecuencia de la relación, reciprocidad económica en la relación, etc. Los coeficientes si son altos se dicen que cargan ese factor y si tienen valores bajos en otros no los cargan. Así se descubre una estructura de factores. También proporciona la varianza explicada

97 Análisis Multivariado de Varianza (MANOVA) dos o más variables independientes y dos o más variables dependientes Analiza la relación entre dos o más variables independientes y dos o más variables dependientes. (Regresión era varias ind y una depend). Se consideran las diferencias entre variables canónicas. (variables artificiales generadas a partir de los datos). canónicas representan conceptos compuesta de variables dependientes. Las variables canónicas representan conceptos y están compuesta de variables dependientes. El interés no es sólo si los grupos definidos por las variables independientes difieren en las var. canónicas sino la naturaleza de éstas. altos valores en la dependiente están asociados con altos valores en la variable canónica. Se miran las cargas de los coeficientes de correlación entre una variable dependiente y una variable canónica. Si la carga es alta y positiva significa que altos valores en la dependiente están asociados con altos valores en la variable canónica.

98 Análisis Multivariado de Varianza (MANOVA) Ej. Una variable dependiente sobre innovación y creatividad y correlaciona con una variable canónica, se infiere que la variable canónica representa un concepto quei nvolucra a la creatividad. Otro ej. las variables canónicas pueden ser 1) motivación intrínseca, 2) atribución de causalidad externa 3) desempeño laboral. Las variables dependientes, motivación intrínseca, atribuciones internas, sentimientos de éxito en el trabajo, atribuciones externas, productividad, eficiencia, calidad. Supongamos que los coeficientes de correlación para la variable canónica motivación intrínseca sean los siguientes con la var.dependiente motivación intrínseca = 0.90 para atribuciones internas 0.86 y para sentimientos de éxito del trabajo Para la canónica desempeño laboral la var. dep. productividad = 0.74, eficiencia=0.48 y calidad.57 Se puede inferir que la variable canónica en cada caso representa esos conceptos de las variables dependientes.

99 Análisis Multivariado de Varianza (MANOVA) Luego se miran las puntuaciones de las variables independientes por ej. los grupos ejecutivos, secretarias, empleados, obreros. Si los valores son altos en motivación intrínseca para los ejecutivos y no para los obreros entonces eso implica que los ejecutivos tienen mayor peso en la canónica motivación intrínseca medida por las variables dependientes mencionadas La Hi en el MANOVA postula que las medias en la variable canónica (motivación intrínseca, etc.) de los grupos o categorías de la variable independiente (ejecutivos, secretarias etc.) difieren entre sí. La Ho postula que dichas medias serán iguales Se calculan diversas estadísticas para evaluar ambas hipótesis y si resultan significativas a un nivel de confianza se acepta la Hi de diferencias de medias. Esto indica que hay por lo menos una variable canónica significativa y se presentan diferencias entre los grupos de la variable independiente en esta variable canónica.

100 Resumen Análisis de Datos nivel de medición de las variables, las hipótesis y el interés del investigador. Se usa la tabla o matriz de datos. El tipo de análisis o pruebas estadísticas a realizar depende del nivel de medición de las variables, las hipótesis y el interés del investigador. descriptivos para cada variable transformación a valores Z, razones y tasas, cálculos de estadística inferencial, pruebas paramétricas, pruebas no paramétricas y análisis multivariados Los análisis que pueden realizarse son descriptivos para cada variable, (distribución de frecuencias, medidas de tendencia central y medidas de variabilidad) la transformación a valores Z, razones y tasas, cálculos de estadística inferencial, pruebas paramétricas, pruebas no paramétricas y análisis multivariados. distribuciones de frecuencia Las distribuciones de frecuencia contienen las categorías, códigos, frecuencias absolutas, (N de casos) frecuencias relativas (%) y frecuencias acumuladas (absolutas o relativas). Las distribuciones de frecuencias pueden presentarse gráficamente. medidas de tendencia central Las medidas de tendencia central son la moda, la mediana y la media. medidas de variabilidad Las medidas de variabilidad son el rango, (diferencia entre máximo y mínimo), la desviación estándar y la varianza.

101 Resumen Análisis de Datos asimetría y la curtosis. Otras estadísticas descriptivas útiles son la asimetría y la curtosis. puntuaciones Z Las puntuaciones Z son transformaciones de los valores obtenidos a unidades de desviación estándar. razón tasa Una razón es la relación entre dos categorías, y una tasa es la relación entre el número de casos de una categoría y el numero total de casos, multiplicada por un múltiplo de 10. estadística inferencial La estadística inferencial es para efectuar generalizaciones de la muestra a la población. Se usa para probar hipótesis y estimar parámetros. Se basa en el concepto de distribución muestral. curva o distribución normal La curva o distribución normal es un modelo teórico útil. Su media es cero y su desviación estándar es uno. nivel de significancia y el intérvalo de confianza El nivel de significancia y el intérvalo de confianza son niveles de probabilidad de cometer un error o equivocarse en la prueba de hipótesis o la estimación de parámetros. Los niveles más comunes en ciencias socialeds son los del 0.05 y 0.01

102 Resumen Análisis de Datos pruebas paramétricas Las pruebas paramétricas más usadas son: El coeficiente de correlación de Pearson (hipótesis correlacional) La regresión lineal (correlacional/causal) La prueba t (diferencia de grupos) El contraste de diferencia de proporciones (dif.de grupos) El análisis de varianza (ANOVA) unidireccional y factorial, unidireccional con una variable independiente y factorial con dos o más variables independientes para hipótesis de diferencia de grupos/causal y Análisis de covarianza (ANCOVA) (correlacional/causal). En todas las pruebas paramétricas las variables están medidas en un nivel por intérvalos o razón.

103 Resumen Análisis de Datos pruebas no paramétricas Las pruebas no paramétricas más usadas son: La prueba de X2 (diferencia de grupos para establecer correlación) Coeficientes de correlación e independencia para tabulaciones cruzadas (correlacional) Coeficientes Spearman y Kendall (correlacional) pruebas no paramétricas se usan con variables nominales u ordinales y no requieren distribución normal Las pruebas no paramétricas se usan con variables nominales u ordinales y no requieren distribución normal

104 Resumen Análisis de Datos Los análisis multivariados más usados son: Regresión múltiple (1 dependiente intervalo o razón y 2 o más independientes con cualquier nivel de medición) para hipótesis correlacional/causal X1 X2 Y X3 Análisis lineal path para varias variables de cualquier nivel de medición en una secuencia causal para hipótesis correlacional/causal XWL Y ZNH

105 Resumen Análisis de Datos Análisis de factores para varias variables de intérvalo o razón e hipótesis de correlación causal X1X2Xk Análisis multivariado de varianza (MANOVA) y correlación canónica para varias independientes y varias dependientes en intérvalos o razón) X1Y1 X2Y2 XkYk

106 Resumen Análisis de Datos Análisis discriminante para varias independientes (intérvalos o razón) y una dependiente (nominal u ordinal) X1 X2Y Xk

107 Informe Final Comunica que se hizo, como, que resultados y conclusiones se obtuvieron. Hay que distinguir usuarios académicos de no académicos. Si no es académico va portada, índice, resumen, introducción, método, resultados, conclusiones y apéndices. (no hay marco teórico, procedimientos, ni biliografía)

108 Informe Final Académico Portada (título, autor, afiliación institucional, fecha y patrocinador) Indice Resumen (planteo problema, metodología, resultados más importantes y conclusiones en 75 a 175 palabras.(Comprensible, sencillo, informativo y preciso.) Introducción (problema, objetivos, preguntas de investigación, justificación, contexto, variables, sus definiciones y limitaciones). Marco teórico. Método (Hipótesis, diseño, sujetos, universo, muestra, procedimiento de selección, instrumentos de medición usados (descripción precisa, confiabilidad, validez y variables medidas). Procedimiento (instrucciones, materiales, manipulación experimental). Resultados (datos, análisis) Conclusiones y Recomendaciones. Bibliografía. Apéndices.

109 ESTUDIOS CUALITATIVOS INVESTIGACION PARTICIPATIVA. INVESTIGACION – ACCION. INVESTIGACION ETNOGRAFICA. LA INVESTIGACION NATURALISTICA. ESTUDIO DE CASOS.

110 1. FASES DE LA INVESTIGACION CUALITATIVA A. FASE DE ORIENTACION: COMIENZA CON EL ESTUDIO DE LOS ANTECEDENTES QUE PUEDEN EXISTIR SOBRE LA SITUACION A ESTUDIAR DOCUMENTOS, INFORMES, ETC. SOBRE ESTA BASE DE CONOCIMIENTO, SE INICIA EL CONTACTO CON LAS PERSONAS DEL ESTUDIO DE UNA MANERA MUY ABIERTA, NO DIRIGIDA. LA IDEA PRINCIPAL DE ESTA FASE ES LA DE OBTENER SUFICIENTE INFORMACION QUE PERMITA ESTABLECER LO QUE ES IMPORTANTE SEGUIR ESTUDIANDO EN DETALLE. (PUEDE TOMAR DIAS O MESES).

111 B. FASE DE EXPLORACION FOCALIZADA: DEBE INICIARSE UNA VEZ QUE LA INFORMACION RECOGIDA EN LA PRIMERA FASE HA SIDO ANALIZADA, SE ELABORAN PROTOCOLOS DE ENTREVISTAS Y DE OBSERVACION PARA OBTENER LA INFORMACION EN PROFUNDIDAD DE AQUELLOS ASPECTOS QUE DE ACUERDO CON LO YA ANALIZADO RESULTAN SER LO MAS IMPORTANTE.

112 C. FASE DE CONTROL: SE APOYA EN LOS CONOCIMIENTOS LOGRADOS EN LA FASE B Y CONSISTE EN ESCRIBIR UN INFORME PRELIMINAR QUE ES SOMETIDO A EXAMEN DE LAS PERSONAS QUE PROPORCIONARON INFORMACION, PARA AUMENTARLO, CORREGIRLO, ETC. TODO ESTO CON EL FIN DE AUMENTAR SU CREDIBILIDAD.

113 DISEÑO METODOLOGICO EN ESTUDIOS CUALITATIVOS EN ESTOS ESTUDIOS, EL DISEÑO SE CARACTERIZA POR SER EMERGENTE, ES DECIR, MODIFICABLE EN LA MARCHA DE LA INVESTIGACION. ES DECIR, ES MODIFICABLE.

114 FUENTES DE DATOS LAS PRINCIPALES SON LA PERSONAS, CADA UNA DE ELLAS POSEE UNA EXPERIENCIA DE VIDA QUE FORMA PARTE DE SU HISTORIA, LA QUE PUEDE EXPRESARSE A TRAVES DE UNA CANTDAD DE RELATOS DE SUS VIVENCIAS COTIDIANS, PASADAS O PRESENTES, ESTO CONFORMA A SU VEZ LA CULTURA DE UN PUEBLO.


Descargar ppt "Investigación en educación Ps. Mg. Víctor Cabrera Vistoso."

Presentaciones similares


Anuncios Google