Este método se denomina "Método gráfico" y para desarrollarlo se necesita efectuar los siguientes cálculos: Promedio de puntajes = X Grado de dificultad.

Slides:



Advertisements
Presentaciones similares
EL DIARIO DEL PROFESOR DE PORLÁN
Advertisements

PLANIFICACIÓN ESCOLAR
Evaluación por Competencias
Naturaleza / concepciones Criterios de evaluación
METODOS, TECNICAS E INSTRUMENTOS DE RECOLECCION DE DATOS
Definición de Paradigma y su Relación con la Investigación
Metodología de la Investigación Social
Seminario de Evaluación Institucional en Educación Superior
Metodología para el Desarrollo de Estudios Organizacionales
EVALUACION DEL PROCESO DE APRENDIZAJE :
Planeamiento Didáctico
Los criterios de evaluación del Currículo: un referente para el trabajo del docente Juan José Arévalo Jiménez Inspector de educación.
Yo detesto los libros, pues sólo enseñan a la gente a hablar de lo que no entienden. J. J. Rousseau.
PARADIGMAS DE LA EVALUACIÓN
CARÁCTERÍSTICAS GENERALES
TALLER DE TRABAJO FINAL
7. Los materiales curriculares y otros recursos didácticos.
LAS CARAS DE LA EVALUACION
La organización de los contenidos
EVALUACIÓN DEL PROFESORADO
PROGRAMAR LA TAREA DIARIA.
Elementos conceptuales
Evaluación del Aprendizaje
I. Concepto y contextualización de la Evaluación
Algunos intentos de organización de los modelos (Escudero Muñoz, J.M.)
Módulo : Evaluación y gestión curricular
Unidad II Aspectos Metodológicos propios de los paradigmas implementados en la investigación social.
EL CICLO, FASES Y ETAPAS DE LA INVESTIGACIÓN ACCIÓN
Definiciones de evaluación
LO QUE SE DEBE SABER SOBRE LA EVALUACIÓN DEL DESEMPEÑO DOCENTE:
TALLER DE ESTRATEGIAS E INSTRUMENTOS DE EVALUACIÓN
CONSECUENCIAS DE LA OPCIÓN METODOLÓGICA EN LA PROGRAMACIÓN Y LA EVALUACIÓN Elena Rodríguez Halffter 27 de octubre de 2006 Palma de Mallorca.
PROGRAMA APRENDER-UNAH MÓDULO 5: DISEÑO DE LA INSTRUCCIÓN
INVESTIGACIÓN CIENTÍFICA
* EDUARDO HUMIRE JIRON CALAMA 08 SEPTIEMBRE 2011
Los proyectos de trabajo globales
EVALUACIÓN DEL CURRICULUM
EVALUACIÓN ILUMINATIVA
Momentos de la evaluación
Modelos de evaluación educativa
Evaluación y el currículum
La Investigación científica
EL MÉTODO HISTÓRICO.
PLANEAMIENTO DE LA INVESTIGACIÓN
Planeación del proceso de aprendizaje Módulo 2
USS - Evaluación Enfoques Evaluativos
DESARROLLO DEL PROCESO DE EVALUACIÓN Febrero del 2011.
Modelos Alternativos de evaluación
Modelos de Evaluación Dra. N. Batista
MODELOS ORIENTADOS A APOYAR LA TOMA DE DECISIONES
Diplomado Pedagogía para la Educación Superior
METODOLOGÍA DE LA INVESTIGACIÓN
METODOLOGÍA CUALITATIVA
El Proyecto     Proyectar acciones sistemáticas y fundamentadas, con un objeto definido y metas claras y factibles. Surge como una intervención grupal.
Las secuencias didácticas y las secuencias de contenido
Sistemas de evaluación del sistema educacional chileno
El diario del profesor Un recurso para la investigación en el aula Rafael Porlán y José Martín El diario es un instrumento útil para el registro, la descripción,
LOS PROGRAMAS PARA LAS ASIGNATURAS EN LA ESTRUCTURA DEL PLAN
DOCTORADO EN EDUCACIÓN
Universidad Pedagógica Nacional Francisco Morazán Asignatura:
EVALUACIÓN DE PROYECTOS DE DESARROLLO Y CODESARROLLO Sepideh Labani Tenerife,
Elementos de información
Tipos de Investigación
OPERACIONES O MOMENTOS DEL PENSAR DE UN INVESTIGADOR
BLOQUE IV EVALUACION DE PROGRAMAS EDUCATIVOS
ESTRATEGIA DIDÁCTICA AUTENTICA, PROPUESTA EN LA ACTIVIDAD DE ENSEÑANZA
El proceso de diseño de sistemas: el paradigma de los sistemas
EVALUACIÓN 1/2 QUÉ ES LA EVALUACIÓN Recoger información. Adoptar criterios de valoración. Tomar decisiones de mejora. Por su incidencia en la eficacia.
Naturaleza / concepciones Fin y funciones Papel del evaluador Criterios de evaluación QUÉ ES LA EVALUACIÓN.
Transcripción de la presentación:

Este método se denomina "Método gráfico" y para desarrollarlo se necesita efectuar los siguientes cálculos: Promedio de puntajes = X Grado de dificultad de la prueba = GDF El GDF indica el porcentaje de preguntas contestadas correctamente por todos los alumnos en la prueba. FORMULA DE CALCULO DEL DFº GDF = (Puntaje promedio x 100)/Campo de variación o puntaje ideal CALIFICACION DEL RENDIMIENTO ENFOQUE NORMATIVO O PSICOMETRICO Mientras mayor sea el porcentaje de respuestas correctas, más fácil será la prueba y al contrario al ser menor el porcentaje de correctas será más difícil. El GDF obtenido permite determinar el puntaje correspondiente a la nota mínima de aprobación (4.0).

Para completar el procedimiento se debe recurrir a la siguiente tabla de clasificación de una prueba según el grado de facilidad general. Esta tabla incluye el porcentaje de ítemes contestados correctamente, la clasificación de la prueba (tipo) y el porcentaje en que debe ser asignada la nota mínima de aprobación este porcentaje deberá aplicarse al puntaje que se determine como nota máxima.

ENFOQUE EDUMETRICO: En este enfoque, el profesor pretende que las calificaciones de sus alumnos reflejen el grado en que cada alumno ha conseguido los objetivos propuestos para su asignatura. El rendimiento estudiantil - cualquiera sea el instrumento de medición empleado, se compara con un criterio absoluto, que representa lo que a juicio del profesor, debe saber hacer el alumno o al dominio. El dominio implica tanto el o los tipos de tareas que han de ejecutarse (conductas), como el o los contenidos o materias incluidos en las ejecuciones.

La secuencia de pasos que se debe cumplir es la siguiente: 1. Especificar el número de objetivos que debe ser aprobado, para obtener la calificación mínima de aprobación. 2. Determinar el número de preguntas que deben ser respondidas en forma correcta para tener la certeza que el objetivo ha sido logrado. Se pueden consultar jueces externos. 3. Asignar puntos a cada respuesta correcta a partir del mínimo de aceptación hasta el máximo por objetivo. 4. Construir la escala de puntajes de aprobación mínimos y máximos. 5. Hacer la corrección de los puntajes para que efectivamente representen el número de objetivos logrados. 6. Construir el gráfico con los datos obtenidos e interpretar las notas.

1 ES PARTE DE UNA PLANIFICACIÓN EFECTIVA. 2 SE CENTRA EN CÓMO APRENDEN LOS ESTUDIANTES. 3 ES CENTRAL A LA ACTIVIDAD EN AULA. 4 ES UNA DESTREZA PROFESIONAL DOCENTE CLAVE. 5 GENERA IMPACTO EMOCIONAL. 6 INCIDE EN LA MOTIVACIÓN DEL APRENDIZ. 7 PROMUEVE UN COMPROMISO CON METAS DE APRENDIZAJE Y CON CRITERIOS DE EVALUACIÓN. 8 AYUDA A LOS APRENDICES A SABER CÓMO MEJORAR. 9 ESTIMULA LA AUTOEVALUACIÓN. 10 RECONOCE TODOS LOS LOGROS. 10 PRINCIPIOS DE LA EVALUACION PARA EL APRENDIZAJEAPRENDIZAJE

MODELOS DE EVALUACION EN EDUCACION

Un modelo de evaluación puede concebirse como la metáfora o forma de pensar la evaluación que tiene el autor del modelo. Si se considera la evaluación como un proceso, entonces los modelos de evaluación constituyen la forma como un autor resume o conceptualiza la manera como debe efectuarse el proceso de evaluación. Cada modelo se orienta a responder ciertas preguntas y, portanto, para la elección de un modelo particular deben considerarse las preguntas que se pueden responder a partir de su utilización y los recursos que se tienen para responderlas.

1.2. Clasificación de los modelos de evaluación de programas: Los modelos de evaluación admiten diversas clasificaciones. Para POPHAM (1980) existen cuatro modelos: * De consecución de metas: Tyler, Hammond, Metfessel. * De enjuiciamiento sobre criterios intrínsecos: acreditación. * De enjuiciamiento sobre criterios extrínsecos: Stake, Scriven. * De facilitación de decisiones: Stufflebeam, Guba, Alkin.

Por su parte STUFFLEBEAM y SHINKFIELD (1989) distinguen tres apartados: 1. Pseudoevaluación, dónde se incluyen las investigaciones encubiertas y los estudios basados en las relaciones públicas. 2. Cuasievaluaciones, a su vez clasificadas en: - Estudios basados en objetivos: Tyler, Bloom, Popham. - Estudios basados en la experimentación: Campbell y Stanley, Suchmam, Cronbach, Snow. 3. Verdaderas evaluaciones, dónde se incluyen: - Estudios de orientación de la decisión: Cronbach, Stufflebeam, Alkin, Guba, Taylor. - Estudios centrados en el cliente: Stake, MacDonald. - Estudios políticos: Coleman, Clark, Wolf, Weiss. - Estudios basados en el consumidor: Scriven, Glass.

 Modelos Cuantitativos/Objetivistas/Conductistas:  Tyler, Cronbach, Alkin  Modelos de transición Cuantitativa/Cualitativa:  Sttufflebeam (CIPP), Scriven, Stake (Countenance)  Modelos Subjetivistas/Interpretativos:  Stake (Respondente), Parlett y Hamilton (Iluminativa), McDonald (Democrática)  Modelos Sociocríticos:  Modelos Cuasijudiciales: Owens y Wolf  Modelos Crítica Artística: Eisner Algunos intentos de organización de los modelos (Escudero Muñoz, J.M.)

Algunos intentos de organización de los modelos (Escudero Escorza, T.) 1ª Generación: “de la medida” 2ª Generación: “la reforma tyleriana” (años 50) 3ª Generación: “valoración y juicio” (años 60) y “profesionalización” (años 70) 4ª Generación: “respondente y constructivista”

Algunos intentos de organización de los modelos (Colas, P.) Modelos Objetivistas: Tyler, Cronbach, Sttufflebeam, Scriven Modelos Subjetivistas: Stake, Parlett/Hamilton, McDonald Modelos Críticos

1. Modelos Cuantitativos/Objetivistas/Conductistas A) TYLER (1940): ‑ Finalidad: Comparar resultados en función de los objetivos propuestos. Eficacia del programa para tomar decisiones ‑ Instrumentos: Cuestionarios, Test (enfoque numérico y estadístico) ‑ Contenidos a evaluar: Los resultados finales del programa o PRODUCTO ‑ Papel del evaluador: Técnico o experto externo ‑ Paradigma: Técnico

1. Modelos Cuantitativos/Objetivistas/Conductistas B) CRONBACH: ‑ Elementos básicos de la evaluación: Unidades (U) que son sometidas a evaluación, individuos o grupos participantes Tratamiento (T) del programa de evaluación Operaciones (O) del evaluador para la recogida y análisis de datos o la elaboración de conclusiones ‑ Finalidad: Informar a las autoridades de la evaluación sobre el Desarrollo y los Resultados del programa ‑ Metodología: Aunque es fundamentalmente cuantitativa admite instrumentos de tipo cualitativo ‑ Función del evaluador: Técnico externo ‑ Paradigma: Técnico

1. Modelos Cuantitativos/Objetivistas/Conductistas C) ALKIN: - Contenido básico: Obtener datos que sirvan para la toma de decisiones ‑ Finalidad: Información para determinar las necesidades - Características: 1. Valoración de las necesidades se establecerán a partir del contraste entre los logros obtenidos y los previstos (modelo de objetivos) 2. Planificación del programa (evaluación de la planificación) a partir del análisis del programa/s 3. Desarrollo del programa que podría dar lugar a modificaciones sobre la marcha 4. Evaluación de los progresos: estimación del logro de los objetivos propuestos en el programa 5. Evaluación de los resultados: apreciación por los responsables del programa que llevaría a la aceptación, modificación o sustitución. - Metodología: Mixta (cuantitativa/cualitativa) ‑ Paradigma: Técnico ‑ Función del evaluador: Técnico externo

2. Modelos de transición Cuantitativa/Cualitativa A) Sttufflebeam (CIPP): ‑ Finalidad: Obtener información para la toma de decisiones pero contemplando distintas dimensiones ‑ Proceso: 1. Seleccionar la información necesaria para su posterior recolección 2. Obtener la información 3. Proporcionar la información ta las partes interesadas ‑ Ámbitos de evaluación: Contexto: Estudio de la realidad en la que se inscribe el programa Input: Estudio de la planificación, diseño y manejo de recursos Proceso: Información sobre el desarrollo llevado a cabo en la consecución de las metas. Producto: Información de los resultados obtenidos ‑ Metodología: Mixta ‑ Paradigma: Transición entre el Técnico cuantitativo (positivista) y el Cualitativo (hermenéutico)

2. Modelos de transición Cuantitativa/Cualitativa B) SCRIVEN (“Libre de metas” o “sin referencia a objetivos”) - Surge como reacción al modelo de Tyler - Finalidad: Atención a las necesidades de los destinatarios (clientes), valorando no sólo los logros previstos, sino también los no previstos ‑ Contenidos: Contexto, proceso, producto ‑ Papel del evaluador: Externo. Se propone que desconozca los objetivos del programa ‑ Metodología: Mixta ‑ Paradigma: Transición cuantitativo/cualitativo.

2. Modelos de transición Cuantitativa/Cualitativa C) R.E. STAKE (Modelo de “Countenance” ‑ 1967) ‑ Finalidad: Valorar tanto del desarrollo como los resultados de la aplicación de un programa en función de los objetivos que se plantean. ‑ Countenance: es la imagen, mapa, estructura que surge como resultado del proceso de evaluación y en el que se ubican los resultados obtenidos por el programa ‑ Metodología: Mixta ‑ Evaluador: Técnico Externo ‑ La información se recoge y se organiza en tres niveles: ANTECEDENTES, TRANSACCIONES Y RESULTADOS. Stake Countenance (1)

Antecedentes Condiciones previas para la implantación del programa (rendimiento de los alumnos o experiencia de los profesores... Transacciones Interacciones entre los distintos implicados en el programa durante el desarrollo del mismo (alumnos, profesores, materiales curriculares, elementos ambientales...) Resultados Logros conseguidos a través del programa, actitudes y capacidades desarrolladas, impacto del programa sobre los alumnos o profesores, percepción sobre su competencia e incluso los resultados no previstos Stake Countenance (2)

COUNTENANCE (datos a observar y contrastar) Antecedentes previos Congruencia Antecedentes observados Contingencia lógica Transacciones previstas Contingencia lógica Resultados previstos Contingencia empírica Transacciones observadas Resultados empíricos Congruencia

3. Modelos subjetivistas / interpretativos ‑ Respondente: La evaluación debe de responder a los problemas reales que se plantean los sujetos implicados en la implantación y desarrollo de un programa concreto. ‑ Supone un claro giro desde posiciones positivistas a otras de corte humanístico ‑ Rompimiento con la tradición tyleriana basada en la medición y los resultados ‑ Metodología: Cualitativa ‑ Paradigma dominante: Hermenéutico/cualitativo ‑ Papel del evaluador: Externo. Interpretando las necesidades y resultados del programa a y con los implicados. A) Modelo de Evaluación Respondente de STAKE (1975) STAKE Respondente (1)

Estructura de la evaluación respondente  Los problemas: Identificarlos para aproximarnos a una realidad compleja que sirve para descifrar las claves organizativas de la realidad sobre la que hay que intervenir. Se consigue mediante la comunicación evaluador ‑ implicados.  Diseño de la recogida de información  Observadores, base de la recogida de información  Validación, en base a la recogida amplia de información, de múltiples fuentes, por varios observadores, cruzada. STAKE Respondente (2)

10 pasos para describir el proceso evaluativo 1.Negociar la evaluación con los clientes 2.Identificar los problemas y cuestiones de interés para los clientes 3.Formular las cuestiones que pueden orientar el proceso evaluativo 4.Identificar el alcance y las actividades de que consta el programa (por ejemplo el currículum) 5.Observar, interrogar, preparar estudios de casos... 6.Acotar la información: identificar los problemas y cuestiones más básicas 7.Presentar los resultados iniciales en un primer informe 8.Analizar las reacciones e investigar los intereses predominantes 9.Observar las evidencias que pudieran invalidar los resultados 10.Informar de los resultados STAKE Respondente (2)

1. Identificar el alcance del programa 2. Planificar las actividades del programa 3. Descubrir los propósitos e intereses 4. Conceptualizar las cuestiones y problemas 5. Identificar los datos necesarios para investigar los problemas 6. Seleccionar observadores, jueces e instrumentos 7. Observar antecedentes, transacciones y resultados 8. Desarrollar temas, describirlos y estudiar casos concretos 9. Validar. Buscar evidencias de información 10. Elaborar un esquema para el uso de las audiencias 11. Reunir los informes parciales 12. Hablar con los clientes y audiencias implicadas STAKE Respondente (4)

3. Modelos subjetivistas / interpretativos B) Modelo de evaluación ILUMINATIVA de Parlett y Hamilton (1977) ‑ Finalidad: recrear un dibujo/esquema lo más completo posible del programa a fin de “iluminar” todos sus problemas, cuestiones y características principales del mismo. ‑ Metodología: Mixta ‑ Paradigma dominante: Hermenéutico ‑ El conjunto de informaciones facilitada por el evaluador sirve para tomar decisiones difíciles ‑ Características fundamentales: * Los instrumentos de recogida de información: observación y entrevista * Las estrategias metodológicas son elaboradas a partir de un acuerdo o contrato con los participantes * El diseño de evaluación puede cambiar como consecuencia del conocimiento que se va teniendo de la realidad Parlett/Hamilton (1)

Fases del proceso OBSERVACIÓN AMPLIACIÓN DE LA INDAGACIÓN EXPLICACIÓN - Visión general del programa para familiarizarse con él y conocer el contexto - Observación de todos los aspectos relevantes que afecten al programa - Emergencia de elementos nuevos y profundización de los ya observados - Ampliación de la recogida de información -Proporcionar datos que “iluminen” la realidad y los procesos subyacentes en ella para que los implicados puedan interpretar los hechos e introducir cambios y mejoras Parlett/Hamilton (2)

Evaluación ILUMINATIVA (Cont.) Características más significativas:  La E.P. debe tener un carácter holístico y claramente contextualizado  Su preocupación debe ser la descripción e interpretación más que la medida  Se centra en el análisis de los procesos más que en los productos  Se desarrolla bajo condiciones naturales (de campo) y no experimentales  Métodos fundamentales: observación y entrevista  El evaluador debe de entender los posibles puntos de vista sin manipular el proceso  Los valores y derechos de las personas que informan deben de reconocerse en cada momento

3. Modelos subjetivistas / interpretativos C) Modelo de evaluación DEMOCRÁTICA de B. McDonald (1980) ‑ Surge de la vinculación existente entre evaluación y política ‑ La evaluación y los evaluadores influyen en la política educativa ‑ La elección de roles, fines, audiencias, contenidos y procedimientos configuran evaluaciones diferentes ‑ Distingue tres tipos de evaluación: BUROCRÁTICA, AUTOCRÁTICA Y DEMOCRÁTICA ‑ Se investiga la realidad desde una perspectiva naturalista y contextualizada ‑ Todas las opiniones e interpretaciones deben de reflejarse en el informe de evaluación ‑ Objetivo: fomentar el cambio mediante la modificación de concepciones, creencias y modos de interpretar ‑ Metodología: Cualitativa ‑ Paradigma dominante: Hermenéutico

“...el proceso de identificar, obtener y proporcionar información útil y descriptivas o sobre el valor y el mérito de las metas; la planificación, la realización y el lmpacto de un objeto determinado, con el fin de servir de guía para la toma de decisiones; solucionar los problemas de responsabilidad y promover la comprensión de los fenómenos implicados. Así, los aspectos claves del objeto que deben valorarse incluyen sus metas, su planificación, su realización y su impacto” Evaluacion para D. Stufflebeam

Este enfoque está orientado a la toma de decisiones Tipos de decisiones: DePlanificación Estructurales De implantación De Retrocomunicación Además es un instrumento para ayudar a que los programas sean mejores para la gente a la que deben servir.

Su aporte fue diseñar en un solo marco de referencia 4 evaluaciones que corresponden a 4 fases del Programa. EL MODELO C.I.P.P. CONTEXTO INSUMO PROCESO PRODUCTO

LAS FUENTES DE INFORMACION Identifica las partes en que se deben tomar decisiones. S e orienta a clarificar quien usará la información evaluativa, el tipo y el momento pertinente. Las preguntas corresponden a diversas facetas del programa: ¿Se han determinado apropiadamente las necesidades de los beneficiarios del programa? ¿Cuáles son sus méritos y costos comparativos? ¿El personal está suficientemente cualificado? ¿Se han asignado roles apropiados a los participantes?

EVALUACION DE CONTEXTO Permite dimensionar la situación; beneficia la toma de decisiones para establecer:  La planeación  Los objetivos  Los medios relevantes  Las necesidades detectadas  Metas curriculares en función al contexto social.

EVALUACION DE ENTRADA (INPUT) Permite estructurar el proceso y el sistema de decisiones para establecer:  Eldiseñocurricular  Usoderecursos  Especificacióndeprocedimientos  Requerimientospersonales  Presupuestos,etc.  Este segmento nos conducirá a estructurar decisiones para determinar el diseño más adecuado y lograr las metas del programa.

EVALUACION DE PROCESO Se refiere al análisis de aspectos tales como las formas de interacción en la relación del proceso de enseñanza-aprendizaje,uso de los materiales didácticos, el funcionamiento de la organización, y la relación con los factores que rodean alproceso.  Para recolectar la información de este tipo de evaluación se utilizan procedimientos formales e informales (buzón de sugerencias, entrevistas, etc).

EVALUACION DE PRODUCTO Sirve para juzgar los logros del final de cada etapa del proyecto y del proyecto a nivel global. El procedimiento consiste en analizar la definición operacional de los objetivos y los criterios asociados con los objetivos de la actividad. Posteriormente se comparan estas medidas de criterios con normas determinadas y finalmente se realizan una interpretación racional de los logros, empleando la información obtenida en las evaluaciones anteriores.

4. Modelos Sociocríticos Características generales  Se persigue la transformación de los destinatarios del programa  Supone un análisis críticos de las circunstancias personales, sociales, políticas y económicas que rodean al programa para cambiar y/o fomentar la reflexión  El evaluador debe de ayudar a que se manifiesten las necesidades y recogerlas en el informe de evaluación  Paradigma dominante: Crítico

4. Modelos Sociocríticos 4.1. Modelos Cuasijudiciales A)OWENS ‑ Modelo de Contraposición ‑ Finalidad: Evaluar aspectos variados de un programa mediante dos grupos de evaluadores de tal forma que los “acuerdos” entre los grupos sean la base para la toma de decisiones ‑ La contraposición se puede llevar a cabo de tres formas: Exploración de los valores de un programa Estimación de la congruencia entre un sistema establecido y las innovaciones del programa Discusión de las interpretaciones sobre los mismos datos ‑ El evaluador es un agente externo pero inmerso en el debate entre evaluadores e implicados

4. Modelos Sociocríticos 4.1. Modelos Cuasijudiciales B) WOLF ‑ Modelo de Juicio ‑ 1973 ‑ Es una modificación del anterior ‑ Precisa de una selección de cargos similares a los procesos judiciales: Juez, defensor, testigos, expertos.... ‑ Fases: 1. Propuesta de los problemas a cargo de las personas indicadas 2. Selección de problemas más relevantes 3. Preparación de las argumentaciones en base a: ‑ Datos del programa ‑ Opiniones ‑ Documentos e informes 4. Audiencia pública

4. Modelos Sociocríticos C) Modelo de evaluación como CRÍTICA ARTÍSTICA ‑ EISNER (1979) ‑ Finalidad: Promover entre los participantes de un programa actitudes de tipo interpretativo y reflexivo de la práctica que se lleva a cabo (semejante a lo que hace un crítico con una obra de arte) ‑ Tres fases: Descripción de los fenómenos y su relación con el contexto Interpretación de los fenómenos, buscando causas, significados y manifestaciones Valoración crítica mediante juicios subjetivos