La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Evaluación, Monitoreo y Supervisión en procesos de capacitación

Presentaciones similares


Presentación del tema: "Evaluación, Monitoreo y Supervisión en procesos de capacitación"— Transcripción de la presentación:

1 Evaluación, Monitoreo y Supervisión en procesos de capacitación
Dr. Anibal Velásquez

2 Plan de Clase 1 Duración 4 horas Objetivos
Identificar las etapas de la evaluación de programas de capacitación. Elegir el modelo más apropiado para cada intervención. Identificar e interpretar una evaluación de impacto. Identificar las diferencias entre monitoreo y supervisión. Interpretar los resultados de la evaluación para la toma de decisiones y la implementación de programas de capacitación.

3 Plan de Clase 2 Contenidos Conceptos básicos de evaluación.
Modelos de evaluación. Evaluación, monitoreo y supervisión de programas de capacitación.

4 Actividades de enseñanza-aprendizaje
Sesión expositiva-participativa Taller Debate grupal Estudio de un caso Material: Guía del taller Resúmen ejecutivo de la Experiencia del PCMI Informe final de la evaluación del Proyecto 2000

5 Conceptos básicos de evaluación
Dr. Anibal Velásquez

6 Pregunta ¿Cuál es el resultado esperado de un programa de capacitación? ¿Cuándo se podría decir que un gerente de un Programa de Capacitación ha tenido éxito? ¿Cuál debe ser el principal objetivo de un programa de capacitación?

7 De esto depende la evaluación
Si su objetivo comienza con verbos que no representen un cambio, entonces... Solo está interesado en monitorizar. Si su respuesta comienza con verbos que indican cambio (reducir, ampliar, incrementar), Ud. Está interesado en conocer la efectividad del programa.

8 Esto quiere decir... Que la evaluación depende de los objetivos del Programa. Y muchas veces estos objetivos no son correctos. Y lo que se encuentra con más frecuencia son actividades.

9 OBJETIVOS DE ESTA PRESENTACION
Comprender, valorar y aplicar los conceptos fundamentales asociados a la evaluación de programas de capacitación. Crear un marco de referencia (lenguaje común) en los participantes, para el uso e interpretación de los enfoques, métodos y técnicas que serán revisados en el taller.

10 ¿QUÉ ES EVALUACIÓN? Un juicio sobre valor o mérito
El uso de procedimientos científicos para investigar sistemáticamente la efectividad de programas de intervención (Rossi et al, Bertrand)

11 UN POCO DE HISTORIA La evaluación, en su concepción moderna, es un producto del siglo XX El surgimiento de las Ciencias Sociales en las universidades y el creciente apoyo a la investigación social le dieron un empuje decisivo a las actividades de investigación evaluativa El mayor auge vino después de la Segunda Guerra Mundial (incluyendo la creación de programas internacionales para planificación familiar, salud y nutrición) La Evaluación nace como disciplina a finales del los 60 y principios de los 70 (libro de Weiss)

12 ¿QUÉ EVALUAMOS? Programas (eficiencia, efectividad)
Personas (aprendizajes, desempeño) Instituciones Las anteriores constituyen tres grandes áreas de especialización en el campo de la evaluación

13 EVALUACION NO ES... (solamente) medición (solamente) investigación
(solamente) establecer logro de objetivos auditoría una actividad que se realiza cuando las cosas van mal una forma de castigo

14 Programa: Esfuerzos organizados para responder a un problema social Proyecto: Un conjunto de actividades específicas, con objetivos específicos, que contribuyen al objetivo del programa o de una institución Todos los programas o proyectos tienen (implícita o explícitamente): Objetivos y resultados esperados Población objetivo Mecanismo o sistema para entregar servicios (la intervención) Un marco conceptual que brinda justificación al programa (también llamado la hipótesis de desarrollo)

15 Componentes de un Programa de Capacitación en salud
A Nivel de Población A Nivel de Programa Insumos Procesos Productos Resultados Competencias -Cognitivas -Actitudinales -Conductuales Mejor calidad Mayor eficiencia Mejor salud Mayor equidad Recursos: - Personal Métodos Equipo Asistencia técnica Instrumentos Actividades: - Talleres Pasantías Análisis crítico de la práctica Plan de mejora Supervisión

16 Identificar si algún componente del programa necesita mejora
Evaluación de Programas: Conjunto de procedimientos y herramientas analíticas para examinar el desempeño de programas, y determinar si obtuvieron el efecto (impacto) para el que fueron diseñados Importancia: Identificar si algún componente del programa necesita mejora Contribuye a una eficiente asignación y administración de recursos Determinar si los objetivos del programa se han alcanzado o no

17 Evaluación Situacional Basal Al inicio de la gestión Necesidades de información para tomar decisiones Evaluación de Procesos Durante la gestión Evaluación de Resultados Al finalizar la gestión

18 Evaluación Al inicio de la Situacional gestión Basal Evaluación de
Análisis situacional E. Factibilidad Línea de base Al inicio de la gestión Evaluación de Procesos Monitoreo Durante la gestión Evaluación de Resultados Evaluación de Impacto Al finalizar la gestión

19 Tipos de evaluación I. Monitoreo o seguimiento
II. Evaluación de impacto

20 I. Monitoreo o Seguimiento
Objetivos: - Brindar información acerca del funcionamiento del programa: a) ¿Está progresando de acuerdo al plan? b) Identificar problemas para su correción - Documentar cambios de elementos claves del programa en el tiempo Características: - Enfasis en los insumos, actividades y productos del programa - Principalmente estima indicadores, pero puede incluir métodos cualitativos - No examina cuál es la causa del cambio en los indicadores (es decir, no examina el impacto del programa)

21 II. Evaluación de Impacto
Objetivos: - Determinar el impacto neto del programa en el resultado a nivel de población (o en productos a nivel de programa) - ¿Cuánto del cambio observado en el resultado es debido, o puede ser atribuido, al programa y no a otros factores? Características: - Enfasis en productos y resultados - Examina atribución

22 Evaluación de impacto

23 Preguntas que se hace un político, una agencia donante, o un gerente sobre Programas Sociales
Hemos invertido millones de dólares en capacitación, cuál ha sido el impacto de las intervenciones? Cuáles han sido los cambios en la sociedad? En cuánto se ha contribuido a reducir los daños? En cuánto se ha mejorado la salud o el bienestar de las comunidades atendidas? Cuáles son las estrategias más efectivas y eficientes?

24 Preguntas que se hace un gerente, sobre los Programas de Capacitación en Salud
El programa de apacitación que se brinda satisface la demanda? Cuál es la efectividad de los programas de capacitación? Cuál es la eficiencia de los programas de capacitación? Cuál es el impacto de la capacitación en los servicios de salud? Cuál es el impacto de la capacitación en la salud de la población? Cuáles son las estrategias o intervenciones más efectivas y eficientes?

25 Toma de decisiones Las respuestas están asociadas a la toma de decisiones. Los que toman decisiones requieren juicios de valor con base en información válida, confiable y oportuna.

26 Evaluando el Impacto del Programa
Resultado La pregunta de evaluación: ¿Cuánto de este cambio es atribuible al programa? Inicio del programa Punto medio o final del programa Tiempo

27 Evaluando el Impacto del Programa
Resultado Con programa Impacto neto del programa Sin programa Inicio del programa Punto medio o final del programa Tiempo

28 El problema de evaluación:
Resultado que se hubiese obtenido si el programa no se hubiese establecido Resultado con el programa Impacto del programa = - El problema de evaluación: El segundo término, el contrafáctico, no es conocido pues no podemos observar al mismo individuo expuesto y no expuesto al programa al mismo tiempo Sin embargo, el segundo término puede ser estimado. Existen diferentes diseños de evaluación disponibles para evaluar el impacto del programa

29 Diseños de investigación para evaluar el impacto
Diseño Experimental Diseño Observacional

30 Esquema básico para evaluar el impacto de programas
Grupo 1 (Tratamiento) Grupo 1 (Tratamiento) Población Grupo 2 (Control) Grupo 2 (Control) Si “Asignación Aleatoria”: Grupo 1  Grupo 2 Diferencia debida al programa Grupo 1 = Grupo 2 Si Asignación no aleatoria: (datos de encuestas) Group 1  Group Diferencia debida al programa y a diferencias pre-existentes (observadas y no observadas) Grupo 1  Grupo 2

31 Diseño Experimental Individuos son asignados aleatoriamente a un grupo de “Tratamiento” y a uno de “Control” antes del programa. Si es bien implementado: Impacto = Promedio(“Tratamiento”) - Promedio(“Control”) Pocas condiciones son necesarias: + La asignación es aleatoria + La “intensidad” del programa es homogénea + Los individuos en el grupo de “Tratamiento” no cambian su comportamiento por participar en un experimento (no hay efecto Hawthorne) + Los factores externos influyen ambos grupos por igual + Los individuos permanecen en los grupos durante la duración del experimento (no hay atrición o ésta no es selectiva)

32 Diseño Experimental (Cont.1)
El diseño experimental clásico es el Gold Standard Ventajas: Simple Si bien implementado y el tamaño de la muestra es suficientemente grande, la asignación aleatoria causa que los grupos sean equivalentes en cuanto a características observadas y no observadas. Es decir, en ausencia del programa, no habría diferencias en los resultados de los dos grupos.

33 Diseño Experimental (Cont.2)
Desventajas: + Difícil de implementar (factores prácticos, políticos y éticos) + Contaminación es posible + Efecto Hawthorne es posible + Deserción o atrición selectiva es posible + Programas son intervenciones complejas con muchos componentes + Generalización es dudosa (criterio de validez externa)

34 Diseño Observacional No hay asignación aleatoria de los individuos a grupos de tratamiento y control. Los propios individuos deciden si participan en el programa o no. Por tanto, diversos factores influyen el resultado obsevrado y no hay garantía que esos otros factores relevantes sean equivalentes entre el grupo expuesto y el grupo no expuesto al programa Es necesario usar técnicas estadísticas para estimar el efecto del programa controlando por el efecto de los otros factores. Una técnica para ello es el Análisis de Regresión

35 Diseño Observacional (Cont 1)
El análisis de regresión examina la relación entre varias variables explicativas y la variable dependiente. Permite cuantificar la contribución de cada factor a la variable dependiente Importante: Se necesita definir cuales son los factores relevantes que influyen el resultado de interés y se necesitan datos sobre ellos

36 Con los estudios observacionales se estima el contrafáctico (qué hubiese ocurrido si no se realiza el programa) mediante modelos y técnicas de análisis de datos; y se hace mediante el control estadístico de las “otras” variables relevantes que pueden afectar el resultado de interés

37 Los enfoques más comunes se basan en modelos de regresión

38 Y, variable dependiente
En condiciones “naturales”, por ejemplo, por medio de una encuesta, podemos observar una variable de respuesta cuyo nivel puede ser el resultado de la influencia simultánea de muchos factores X1 Y, variable dependiente Estas son las variables independientes, factores relevantes (incluyendo el programa) que pueden influenciar la variable de interés X5 X2 Activity: Invite the participants to choose one of the examples analyzed in the Exercise of the first part and discuss about other factors, besides the program, that could be affecting the desired outcomes X4 X3 El programa

39 EN UN MODELO DE REGRESION
Y = f(X1,X2,…,Xn) Y, la variable de respuesta o variable dependiente, es una función de las variables independientes Una vez que el modelo es “ajustado” se puede juzgar la importancia relativa de cada variable independiente Nuestro foco de interés, se refiere por supuesto a la(s) variable(s) independiente(s) que identifican al programa

40 Si medimos los otros factores relevantes es posible “aislar” el efecto del programa entre los efectos de las otras variables independientes

41 VARIABLES CONFUSORAS En el contexto de una evaluación de impacto hablamos de variables confusoras cuando nos referimos a todos los otros factores relevantes, además del programa, que pueden influenciar el resultado de interés Dejan de ser confusoras cuando se miden e incorporan en el modelo de regresión Activity Invite the participants to discuss possible confounding variables for a program whose primary interest is to decrease infant mortality.

42 ES POR ESTO QUE... Un marco conceptual comprensivo (que incluya el programa y los potenciales factores confusores) es especialmente importante para la aplicación de los métodos de regresión en evaluación de impacto

43 Qué es el marco conceptual de un programa?

44 EL MARCO CONCEPTUAL El marco conceptual o “de investigacion” es un diagrama que identifica e ilustra las relaciones entre factores sistémicos, organizacionales, individuales y otros elementos relevantes que pueden influenciar la operación de un programa o proyecto y el logro exitoso de sus metas y objetivos Speaker Notes: The participant should note that the definition of program theory only includes program elements: inputs, outputs, outcomes, etc. In contrary, the conceptual framework is more comprehensive in nature, since it includes all the other factors that can, potentially, have an effect on the outcomes, whether they are program related or not.

45 El marco conceptual tiene base en...
La Teoría del Programa. Es el conjunto de supuestos sobre la forma en que el programa (o proyecto) provoca los beneficios que se espera que produzca, incluyendo las estrategias y tácticas que ha adoptado para lograr sus metas y objetivos. Speaker Notes: The concept of program theory is essential for impact evaluation. Before doing an impact evaluation the evaluator must establish what the program theory is. Sometimes (many times) the program theory is not explicit and the evaluator´s first task will be to make it explicit

46 LA TEORÍA DEL PROGRAMA ... A veces no es explícita, no ha sido formalmente articulada o establecida. Evaluación de caja negra: cuando se realiza la evaluación sin haber articulado formalmente la teoría del programa Nuestra recomendación: no hacer evaluación de caja negra Speaker Notes: Explain the reasons why, in most cases, it is not advisable to do black box evaluation (It is like trying to hit a target with the eye closed). It renders the evaluator incapable to elaborate explanations related why the program works or does not work. Worse, it does not allow him or her to provide recommendations to their clients. Activities: Invite the participants to discuss why it is not appropriate to carry out “black box” evaluation. Can they think of any situation in which black box evaluation might be appropriate?

47 EN LA TEORÍA DEL PROGRAMA DEFINIMOS...
Hipótesis de acción: son las que ligan o conectan causalmente la teoría del proceso (están bajo el control directo del programa) Hipótesis conceptuales: son las que ligan o conectan causalmente la teoría del impacto (no están bajo el control del programa)

48 Vinculando el Programa de capacitación a Resultados de Salud …………………….
Características del Individuo y del Hogar Práctica de salud Resultado de Salud Características de comunidad Uso de Servicios oferta de servicios de salud Programa de capacitación Gobierno, ONGs, otros donantes, privado Otras capacitaciones

49 Programa capacitación
Vinculando Insumos del Programa a Resultados de Salud (fuentes de datos) Características del Individuo y del Hogar Encuesta de hogares (ENDESA,ESR,ENV) Práctica de salud Healthy Outcome Características de comunidad Uso de Servicios oferta de servicios de salud Enc. Establecimientos (desempeño) Enc. Comunidades Gobierno, ONGs, otros donantes, privado Programa capacitación

50 Niveles de Factores que influyen Comportamientos y Resultados de Salud
comunidad Oferta de Servicios de Salud Otras Características de la Comunidad Clínicas Basado en la comunidad hogar individuo

51 Fuentes de Datos Importante: Las encuestas deben estar “vinculadas”
Encuesta de Comunidades Enc. de Establecimientos Oferta de Servicios de Salud Otras Características de la Comunidad Clínicas Basado en la comunidad Importante: Las encuestas deben estar “vinculadas” Encuesta de Hogares

52 BIBLIOGRAFIA Bertrand, J.T. et al. (1996). Evaluación de Programas de Planificación Familiar. The Evaluation Project, USAID Mohr, L. (1995). Impact Analysis for Program Evaluation. Sage Publications Rossi, P.H.; Freeman, H.E. & Lipsey, M.W. (1999). Evaluation: A Systematic Approach. Sage Publications


Descargar ppt "Evaluación, Monitoreo y Supervisión en procesos de capacitación"

Presentaciones similares


Anuncios Google