Algunos intentos de organización de los modelos (Escudero Muñoz, J.M.)

Slides:



Advertisements
Presentaciones similares
EL DIARIO DEL PROFESOR DE PORLÁN
Advertisements

Paradigmas de la Investigación Científica
Hernández Sampieri (c) Derechos reservados McGraw-HIll
DISEÑOS DE INVESTIGACION CUANTITATIVA Y CUALITATIVA
Ik 10 Chen. Recogida de información sobre el tema u objeto de estudio Recogida de información sobre el tema u objeto de estudio Hipótesis.
Definición de Paradigma y su Relación con la Investigación
Metodología de la Investigación Social
Metodología de la Investigación Social
Tipos de investigación
Seminario de Evaluación Institucional en Educación Superior
Seminario de Evaluación Institucional en Educación Superior
Metodología para el Desarrollo de Estudios Organizacionales
TIPOS O ENFOQUES DE INVESTIGACION
PARADIGMAS DE LA EVALUACIÓN
CARÁCTERÍSTICAS GENERALES
TALLER DE TRABAJO FINAL
7. Los materiales curriculares y otros recursos didácticos.
ELEMENTOS DEL PROYECTO DE INTERVENCIÓN EN BASE A MARCELA ROMAN C
Elementos conceptuales
LA EVALUACIÓN DE PROGRAMAS una opción para investigar con pertinencia social Bettys Arenas Mónica Pozo Guadalupe Foncerrada Nancy Vimos FATLA Fundación.
Módulo : Evaluación y gestión curricular
Unidad II Aspectos Metodológicos propios de los paradigmas implementados en la investigación social.
Investigación Cualitativa. Retos e Interrogantes
TALLER DE ESTRATEGIAS E INSTRUMENTOS DE EVALUACIÓN
Proceso investigativo
DE LA INVESTIGACIÓN EDUCATIVA
PROGRAMA APRENDER-UNAH MÓDULO 5: DISEÑO DE LA INSTRUCCIÓN
¿Qué no es investigación?
Investigación cualitativa Supone estudiar la realidad desde un conjunto de ideas que determinan el carácter epistemológico que lo guían, aunque aun existe.
Metodología EN LA Investigación
El currículum desde la perspectiva práctica
Seminario de Titulación (3)
Seminario Trabajo de Grado
INVESTIGACIÓN CIENTÍFICA
CARÁCTERÍSTICAS GENERALES
Los proyectos de trabajo globales
Paradigma de Investigación Cualitativo
EVALUACIÓN ILUMINATIVA
Evaluación y el currículum
PARADIGMAS DE INVESTIGACIÓN
PLANIFICACIÓN y EVALUACIÓN
La Investigación científica
Plan de Sistemas de Información (PSI)
EL MÉTODO HISTÓRICO.
¿Qué son los PARADIGMAS?
Naturaleza de la Ciencia
DESARROLLO DEL PROCESO DE EVALUACIÓN Febrero del 2011.
Modelos Alternativos de evaluación
Metodología de la INVESTIGACIÓN en SALUD SOCIAL Y COMUNITARIA
Modelos de Evaluación Dra. N. Batista
MODELOS ORIENTADOS A APOYAR LA TOMA DE DECISIONES
UNIVERSIDAD SIMÓN BOLÍVAR
METODOLOGÍA DE LA INVESTIGACIÓN
METODOLOGÍA CUALITATIVA
El Proyecto     Proyectar acciones sistemáticas y fundamentadas, con un objeto definido y metas claras y factibles. Surge como una intervención grupal.
Evaluación de Programas Educativos Conjunto de destrezas y habilidades
El diario del profesor Un recurso para la investigación en el aula Rafael Porlán y José Martín El diario es un instrumento útil para el registro, la descripción,
DOCTORADO EN EDUCACIÓN
Universidad Pedagógica Nacional Francisco Morazán Asignatura:
Metodología de la Investigación
Tipos de Investigación
OPERACIONES O MOMENTOS DEL PENSAR DE UN INVESTIGADOR
Paradigmas de la Investigación
BLOQUE IV EVALUACION DE PROGRAMAS EDUCATIVOS
MAESTRIA CIENCIAS EN LA EDUCACIÓN METODOLOGÍA CUALITATIVA
Este método se denomina "Método gráfico" y para desarrollarlo se necesita efectuar los siguientes cálculos: Promedio de puntajes = X Grado de dificultad.
EVALUACIÓN 1/2 QUÉ ES LA EVALUACIÓN Recoger información. Adoptar criterios de valoración. Tomar decisiones de mejora. Por su incidencia en la eficacia.
PARADIGMA Capacidad innata del ser humano: Creencias y Costumbres
Elementos del problema y del marco teórico Profesoras: Mireya Vivas María A. Chacón San Cristóbal, Enero 2007.
Transcripción de la presentación:

Algunos intentos de organización de los modelos (Escudero Muñoz, J.M.) Modelos Cuantitativos/Objetivistas/Conductistas: Tyler, Cronbach, Alkin Modelos de transición Cuantitativa/Cualitativa: Sttufflebeam (CIPP), Scriven, Stake (Countenance) Modelos Subjetivistas/Interpretativos: Stake (Respondente), Parlett y Hamilton (Iluminativa), McDonald (Democrática) Modelos Sociocríticos: Modelos Cuasijudiciales: Owens y Wolf Modelos Crítica Artística: Eisner

Algunos intentos de organización de los modelos (Escudero Escorza, T.) 1ª Generación: “de la medida” 2ª Generación: “la reforma tyleriana” (años 50) 3ª Generación: “valoración y juicio” (años 60) y “profesionalización” (años 70) 4ª Generación: “respondente y constructivista”

Algunos intentos de organización de los modelos (Colas, P.) Modelos Objetivistas: Tyler, Cronbach, Sttufflebeam, Scriven Modelos Subjetivistas: Stake, Parlett/Hamilton, McDonald Modelos Críticos

1. Modelos Cuantitativos/Objetivistas/Conductistas A) TYLER (1940): ‑ Finalidad: Comparar resultados en función de los objetivos propuestos. Eficacia del programa para tomar decisiones ‑ Instrumentos: Cuestionarios, Test (enfoque numérico y estadístico) ‑ Contenidos a evaluar: Los resultados finales del programa o PRODUCTO ‑ Papel del evaluador: Técnico o experto externo ‑ Paradigma: Técnico

1. Modelos Cuantitativos/Objetivistas/Conductistas B) CRONBACH: ‑ Elementos básicos de la evaluación: Unidades (U) que son sometidas a evaluación, individuos o grupos participantes Tratamiento (T) del programa de evaluación Operaciones (O) del evaluador para la recogida y análisis de datos o la elaboración de conclusiones ‑ Finalidad: Informar a las autoridades de la evaluación sobre el Desarrollo y los Resultados del programa ‑ Metodología: Aunque es fundamentalmente cuantitativa admite instrumentos de tipo cualitativo ‑ Función del evaluador: Técnico externo ‑ Paradigma: Técnico

1. Modelos Cuantitativos/Objetivistas/Conductistas C) ALKIN: - Contenido básico: Obtener datos que sirvan para la toma de decisiones ‑ Finalidad: Información para determinar las necesidades - Características: 1. Valoración de las necesidades se establecerán a partir del contraste entre los logros obtenidos y los previstos (modelo de objetivos) 2. Planificación del programa (evaluación de la planificación) a partir del análisis del programa/s 3. Desarrollo del programa que podría dar lugar a modificaciones sobre la marcha 4. Evaluación de los progresos: estimación del logro de los objetivos propuestos en el programa 5. Evaluación de los resultados: apreciación por los responsables del programa que llevaría a la aceptación, modificación o sustitución. - Metodología: Mixta (cuantitativa/cualitativa) ‑ Paradigma: Técnico ‑ Función del evaluador: Técnico externo

2. Modelos de transición Cuantitativa/Cualitativa A) Sttufflebeam (CIPP): ‑ Finalidad: Obtener información para la toma de decisiones pero contemplando distintas dimensiones ‑ Proceso: 1. Seleccionar la información necesaria para su posterior recolección 2. Obtener la información 3. Proporcionar la información ta las partes interesadas ‑ Ámbitos de evaluación: Contexto: Estudio de la realidad en la que se inscribe el programa Input: Estudio de la planificación, diseño y manejo de recursos Proceso: Información sobre el desarrollo llevado a cabo en la consecución de las metas Producto: Información de los resultados obtenidos ‑ Metodología: Mixta ‑ Paradigma: Transición entre el Técnico cuantitativo (positivista) y el Cualitativo (hermenéutico)

2. Modelos de transición Cuantitativa/Cualitativa B) SCRIVEN (“Libre de metas” o “sin referencia a objetivos”) - Surge como reacción al modelo de Tyler - Finalidad: Atención a las necesidades de los destinatarios (clientes), valorando no sólo los logros previstos, sino también los no previstos ‑ Contenidos: Contexto, proceso, producto ‑ Papel del evaluador: Externo. Se propone que desconozca los objetivos del programa ‑ Metodología: Mixta ‑ Paradigma: Transición cuantitativo/cualitativo.

2. Modelos de transición Cuantitativa/Cualitativa C) R.E. STAKE (Modelo de “Countenance” ‑ 1967) ‑ Finalidad: Valorar tanto del desarrollo como los resultados de la aplicación de un programa en función de los objetivos que se plantean. ‑ Countenance: es la imagen, mapa, estructura que surge como resultado del proceso de evaluación y en el que se ubican los resultados obtenidos por el programa ‑ Metodología: Mixta ‑ Evaluador: Técnico Externo ‑ La información se recoge y se organiza en tres niveles: ANTECEDENTES, TRANSACCIONES Y RESULTADOS. Stake Countenance (1)

Transacciones Antecedentes Interacciones entre los distintos implicados en el programa durante el desarrollo del mismo (alumnos, profesores, materiales curriculares, elementos ambientales...) Condiciones previas para la implantación del programa (rendimiento de los alumnos o experiencia de los profesores... Resultados Logros conseguidos a través del programa, actitudes y capacidades desarrolladas, impacto del programa sobre los alumnos o profesores, percepción sobre su competencia e incluso los resultados no previstos Stake Countenance (2)

COUNTENANCE (datos a observar y contrastar) Antecedentes previos Antecedentes observados Congruencia Contingencia empírica Contingencia lógica Transacciones previstas Transacciones observadas Congruencia Contingencia empírica Contingencia lógica Resultados empíricos Resultados previstos Congruencia

3. Modelos subjetivistas / interpretativos A) Modelo de Evaluación Respondente de STAKE (1975) ‑ Respondente: La evaluación debe de responder a los problemas reales que se plantean los sujetos implicados en la implantación y desarrollo de un programa concreto. ‑ Supone un claro giro desde posiciones positivistas a otras de corte humanístico ‑ Rompimiento con la tradición tyleriana basada en la medición y los resultados ‑ Metodología: Cualitativa ‑ Paradigma dominante: Hermenéutico/cualitativo ‑ Papel del evaluador: Externo. Interpretando las necesidades y resultados del programa a y con los implicados. STAKE Respondente (1)

Estructura de la evaluación respondente Los problemas: Identificarlos para aproximarnos a una realidad compleja que sirve para descifrar las claves organizativas de la realidad sobre la que hay que intervenir. Se consigue mediante la comunicación evaluador‑implicados. Diseño de la recogida de información Observadores, base de la recogida de información Validación, en base a la recogida amplia de información, de múltiples fuentes, por varios observadores, cruzada. STAKE Respondente (2)

10 pasos para describir el proceso evaluativo Negociar la evaluación con los clientes Identificar los problemas y cuestiones de interés para los clientes Formular las cuestiones que pueden orientar el proceso evaluativo Identificar el alcance y las actividades de que consta el programa (por ejemplo el currículum) Observar, interrogar, preparar estudios de casos... Acotar la información: identificar los problemas y cuestiones más básicas Presentar los resultados iniciales en un primer informe Analizar las reacciones e investigar los intereses predominantes Observar las evidencias que pudieran invalidar los resultados Informar de los resultados STAKE Respondente (2)

Hablar con los clientes y audiencias implicadas 1. 12. Hablar con los clientes y audiencias implicadas 1. Identificar el alcance del programa 11. Reunir los informes parciales 2. Planificar las actividades del programa 10. Elaborar un esquema para el uso de las audiencias 3. Descubrir los propósitos e intereses 9. Validar. Buscar evidencias de información 4. Conceptualizar las cuestiones y problemas 8. Desarrollar temas, describirlos y estudiar casos concretos 5. Identificar los datos necesarios para investigar los problemas 7. Observar antecedentes, transacciones y resultados 6. Seleccionar observadores, jueces e instrumentos STAKE Respondente (4)

3. Modelos subjetivistas / interpretativos B) Modelo de evaluación ILUMINATIVA de Parlett y Hamilton (1977) ‑ Finalidad: recrear un dibujo/esquema lo más completo posible del programa a fin de “iluminar” todos sus problemas, cuestiones y características principales del mismo. ‑ Metodología: Mixta ‑ Paradigma dominante: Hermenéutico ‑ El conjunto de informaciones facilitada por el evaluador sirve para tomar decisiones difíciles ‑ Características fundamentales: * Los instrumentos de recogida de información: observación y entrevista * Las estrategias metodológicas son elaboradas a partir de un acuerdo o contrato con los participantes * El diseño de evaluación puede cambiar como consecuencia del conocimiento que se va teniendo de la realidad Parlett/Hamilton (1)

Fases del proceso - Visión general del programa para familiarizarse con él y conocer el contexto - Observación de todos los aspectos relevantes que afecten al programa OBSERVACIÓN - Emergencia de elementos nuevos y profundización de los ya observados - Ampliación de la recogida de información AMPLIACIÓN DE LA INDAGACIÓN -Proporcionar datos que “iluminen” la realidad y los procesos subyacentes en ella para que los implicados puedan interpretar los hechos e introducir cambios y mejoras EXPLICACIÓN Parlett/Hamilton (2)

Evaluación ILUMINATIVA (Cont.) Características más significativas: La E.P. debe tener un carácter holístico y claramente contextualizado Su preocupación debe ser la descripción e interpretación más que la medida Se centra en el análisis de los procesos más que en los productos Se desarrolla bajo condiciones naturales (de campo) y no experimentales Métodos fundamentales: observación y entrevista El evaluador debe de entender los posibles puntos de vista sin manipular el proceso Los valores y derechos de las personas que informan deben de reconocerse en cada momento

3. Modelos subjetivistas / interpretativos C) Modelo de evaluación DEMOCRÁTICA de B. McDonald (1980) ‑ Surge de la vinculación existente entre evaluación y política ‑ La evaluación y los evaluadores influyen en la política educativa ‑ La elección de roles, fines, audiencias, contenidos y procedimientos configuran evaluaciones diferentes ‑ Distingue tres tipos de evaluación: BUROCRÁTICA, AUTOCRÁTICA Y DEMOCRÁTICA ‑ Se investiga la realidad desde una perspectiva naturalista y contextualizada ‑ Todas las opiniones e interpretaciones deben de reflejarse en el informe de evaluación ‑ Objetivo: fomentar el cambio mediante la modificación de concepciones, creencias y modos de interpretar ‑ Metodología: Cualitativa ‑ Paradigma dominante: Hermenéutico

4. Modelos Sociocríticos Características generales Se persigue la transformación de los destinatarios del programa Supone un análisis críticos de las circunstancias personales, sociales, políticas y económicas que rodean al programa para cambiar y/o fomentar la reflexión El evaluador debe de ayudar a que se manifiesten las necesidades y recogerlas en el informe de evaluación Paradigma dominante: Crítico

4. Modelos Sociocríticos 4.1. Modelos Cuasijudiciales OWENS ‑ Modelo de Contraposición. 1973 ‑ Finalidad: Evaluar aspectos variados de un programa mediante dos grupos de evaluadores de tal forma que los “acuerdos” entre los grupos sean la base para la toma de decisiones ‑ La contraposición se puede llevar a cabo de tres formas: Exploración de los valores de un programa Estimación de la congruencia entre un sistema establecido y las innovaciones del programa Discusión de las interpretaciones sobre los mismos datos ‑ El evaluador es un agente externo pero inmerso en el debate entre evaluadores e implicados

4. Modelos Sociocríticos 4.1. Modelos Cuasijudiciales B) WOLF ‑ Modelo de Juicio ‑1973 ‑ Es una modificación del anterior ‑ Precisa de una selección de cargos similares a los procesos judiciales: Juez, defensor, testigos, expertos.... ‑ Fases: 1. Propuesta de los problemas a cargo de las personas indicadas 2. Selección de problemas más relevantes 3. Preparación de las argumentaciones en base a: ‑ Datos del programa ‑ Opiniones ‑ Documentos e informes 4. Audiencia pública

4. Modelos Sociocríticos C) Modelo de evaluación como CRÍTICA ARTÍSTICA ‑ EISNER (1979) ‑ Finalidad: Promover entre los participantes de un programa actitudes de tipo interpretativo y reflexivo de la práctica que se lleva a cabo (semejante a lo que hace un crítico con una obra de arte) ‑ Tres fases: Descripción de los fenómenos y su relación con el contexto Interpretación de los fenómenos, buscando causas, significados y manifestaciones Valoración crítica mediante juicios subjetivos