1 Tema 2. Bases metodológicas TALLER: DISEÑO Y EVALUACIÓN DE PROGRAMAS XIV CONGRESO DE METODOLOGÍA DE LAS CIENCIAS SOCIALES Y DE LA SALUD PALMA, 21 DE.

Slides:



Advertisements
Presentaciones similares
Evaluación de necesidades (EDN): Esquema de trabajo
Advertisements

METODOLOG Í A PARA ELABORAR EL PLAN DE MEJORA COLECTIVO EN REDES EMPRESARIALES.
Introducción a la evaluación de la formación. Salvador Chacón Moscoso José Antonio Pérez-Gil Francisco Pablo Holgado Tello Ángel Lara Ruiz.
¿Qué enfoque predomina actualmente en el sistema educativo en el nivel superior? El desarrollo de las practicas evaluativas siguen siendo estructuradas.
Las etapas de un proyecto. Las cosas cambian, y es la gente quien las hace cambiar … §La mayor parte de la gente tiene el concepto de emprendedor como.
ESTUDIOS DE USUARIOS EN ARCHIVOS LUIS FERNANDO JAÉN GARCÍA PROFESOR CATEDRÁRTICO UNIVERSIDAD DE COSTA RICA.
DETECCIÓN DE NECESIDADES Realizar 10 ideas principales de la presentación en su CUADERNO.
Máster en Planificación Estratégica en Publicidad y RRPP TRABAJO FINAL DE MÁSTER TFM Estructura.
Integración de aspectos sociales Integración de aspectos naturales.
Mapa de Riesgo de procesos y subprocesos
Jornadas de capacitación sobre los instrumentos CORFO en Eficiencia Energética Pedro Maldonado Santiago, 14 de enero de 2009 Comisión Nacional de Energía.
CAPABILITY MATURITY MODEL INTEGRATION Álvarez, Wilsandy V Castillo, Kerwint V García, María F.V
Yulieth A. Sánchez B. C.I: Exp: to de Mercadeo.
CICLO DE VIDA DE LOS PROYECTOS
EVALUACION CURRICULAR
Indicadores de Sustentabilidad Ambiental. ¿QUÉ ES UN INDICADOR?  Es una medida que nos permite ir observando el parámetro de avance en el cumplimiento.
Concurso de Oposición para la promoción a cargos con Funciones de Dirección (Subdirector Académico) en la Educación Media Superior.
PROYECTO DE MODERNIZACION ¿Que es Un Indicador?
Instituto Mexicano del Transporte (IMT) Hacia un observatorio del transporte carretero de carga en México Instituto Mexicano del Transporte (IMT) Hacia.
Tema 7: Ingeniería del software Definición de software El software es: 1. instrucciones (programas de computadora) que cuando se ejecutan proporcionan.
PROGRAMA DE FORTALECIMIENTO INSTITUCIONAL LOCAL ESCUELAS DE LIDERAZGO Y/O GOBIERNO NIVEL 5 - MÓDULO 3 MARCO LÓGICO.
CLAVES PARA EL DESARROLLO DE UNA PLANIFICACIÓN ESTRATÉGICA FEBRERO 2016 Paraná.
METODOLOGÍA CUALITATIVA Licenciatura en Comunicación Social, U. del Pacífico Cuarta semana de clases El proceso de construcción de un marco teórico Prof.
Indicadores Planeación FORMULACION DE PROYECTOS TITULO DEL PROYECTO Debe aportar información sobre el tema, el problema, o instituciones que participan.
1 Diciembre 2015, Bogotá, Colombia Congreso Latinoamericano de Evaluación Ampliando la mirada de Calidad Desarrollo personal y social: Desafíos técnicos.
Presentación del curso Desarrollo Organizacional.
TALLER DE FORTALECIMIENTO A LOS DOCENTES DE LA IE Nº 7228 Febrero 2016.
GUÍA METODOLÓGICA Para la Identificación, Estandarización e Incorporación de Competencias Laborales a la Gestión del Talento Humano en las Entidades Públicas.
Cadenas de Valor con Enfoque de Género. Antecedentes Agenda de armonización de acciones sobre género y cadenas de valor Julio “ Reunión de Intercambio.
Como definimos? Gestión Laboral GESTIÓN El concepto hace referencia a la acción, revisión, visualización, empleo de los recursos y esfuerzos a los.
Presentado por: Maryeny Pallen Moreno Miranda, 2011.
 Es un instrumento de gestión de mediano y largo plazo que se enmarca dentro del Proyecto Educativo Nacional, y Jurisdiccional.  Articula y.
M. Teresa Anguera Universidad de Barcelona Máster Universitario en PSICOLOGIA GENERAL SANITARIA Universidad de Sevilla Curso LOS FUNDAMENTOS.
Proyecto Material Didáctico Para La Enseñanza de Cocina Tradicional Colombiana Olga Rocío Páez NRC: 6955.
ORIENTACIONES BÁSICAS PARA LA ELABORACIÓN DEL PLAN DE SEGUIMIENTO A II.EE. HUASCARÁN.
Análisis de la experiencia del Perú en la formación y certificación de funcionarios en compras públicas.
Cádiz,  Marco de la experiencia: ¿En qué consiste la iniciativa de la Red AUSJAL?  Descripción del Sistema de Autoevaluación y gestión de la RSU.
ESTUDIOS DE FACTIBILIDAD EN EDUCACIÓN SUPERIOR SICYT JULIO DE 2013.
Guía general para identificación, formulación social de proyectos de inversión pública. Introducción Entre las funciones del Estado, ejercidas a través.
EL DISEÑO DE INVESTIGACION (María Teresa Sirvent)
El cuestionario es una técnica de recolección de datos y está conformado por un conjunto de preguntas escritas que el investigador administra o aplica.
ANÁLISIS Y DIAGNÓSTICO SOBRE LA DIRECCIÓN ESTRATÉGICA UNIVERSITARIA EN COLOMBIA Octubre 7 al 9 de 2009 Barranquilla - Colombia.
DURANGO Nombre del campus ADMINISTRACIÓN Nombre de la asignatura Gestión de proyectos Nombre del tema o trabajo 4° Semestre La Gestión de proyectos es.
Red de Apoyo Técnico de los Servicios de Empleo de America Latina y el Caribe Seminario: “Cómo contribuyen los Servicios de Empleo a mejorar el funcionamiento.
PROGRAMA DE FORTALECIMIENTO INSTITUCIONAL LOCAL ESCUELAS DE LIDERAZGO Y/O GOBIERNO NIVEL 4 - MÓDULO 3.
1 Tema 5. Diseños evaluativos de intervención baja TALLER: DISEÑO Y EVALUACIÓN DE PROGRAMAS XIV CONGRESO DE METODOLOGÍA DE LAS CIENCIAS SOCIALES Y DE LA.
Departamento de Procesos SELECCIÓN DE EJECUTORES.
¿Para qué evaluamos? Para tomar decisiones relativas a:  El diagnóstico.  La mejora de los procesos de enseñanza y de aprendizaje.  La acreditación.
EDUCACIÓN AL CLIENTE ACCION International Susana N. Barton Vicepresidente Innovaciones & Soluciones Integradas.
PROPOSITO CONTENIDOS CONCEPTOS BASICOS FORMULACION DE PROYECTOS.
PLAN DE ACTIVIDADES CONJUNTAS 2008 Mutuas de Accidentes de Trabajo y Enfermedades Profesionales de la Seguridad Social.
OBSERVACIÓN. 1. Definición La observación es un instrumento de recolección de datos de carácter sistemático, confiable y válido, tiene el propósito de.
Taller de elaboración de PLAN DE NEGOCIOS Aspectos prácticos: primeros pasos Fernando Hammond Gustavo Nuñez Fioramonti Facultad de Ciencias Económicas.
@DANE_Colombia/DANEColombia Departamento Administrativo Nacional de Estadística – DANE.
Acreditación de Pregrado Dirección de Análisis y Desarrollo Institucional.
Alumno: Ariedne Niurca Aranda G. Tutor: BIBIANA PORTUGAL FRIAS MÉTODOS DE INVESTIGACIÓN II Unidad 1 Actividad Final.
EJERCICIO INVESTIGACIÓN DOCUMENTAL OFICIO DE INVESTIGAR II MARTHA VALDERRAMA.
COMO ELABORAR UN PROYECTO
LA EVALUACIÓN DE COMPETENCIAS
La Encuesta y análisis documental
Organizaciones humanas Objetivos y necesidades de las personas
Dario A. Montoya Mejia Presentación Formación Titulada Formación Por Proyectos.
¿Qué es un Proyecto Educativo? Un proyecto educativo es un proceso para alcanzar una meta educativa, objetivos de aprendizaje. Esto implica desde la selección.
Marco Legal de la evaluación, Órganos de Control. LPECRPpEMG 2 ARTÍCULO 70. Los ejecutores del gasto serán responsables de la gestión por resultados de.
1 INTRODUCCIÓN AL DISEÑO Y EVALUACIÓN DE PROGRAMAS SOCIALES, EDUCATIVOS Y DE LA SALUD Tema 2. Bases metodológicas Salvador Chacón Moscoso.
CÓMO FORMULAR OBJETIVOS EN INVESTIGACIÓN
DPTO. PSICOLOGÍA EXPERIMENTAL
DPTO. PSICOLOGÍA EXPERIMENTAL
DPTO. PSICOLOGÍA EXPERIMENTAL
TEMA 2 BASES METODOLÓGICAS EN EVALUACIÓN DE PROGRAMAS
Transcripción de la presentación:

1 Tema 2. Bases metodológicas TALLER: DISEÑO Y EVALUACIÓN DE PROGRAMAS XIV CONGRESO DE METODOLOGÍA DE LAS CIENCIAS SOCIALES Y DE LA SALUD PALMA, 21 DE JULIO DE 2015 Salvador Chacón Moscoso Susana Sanduvete Chaves

2 ÍNDICE 1.Dimensiones 1.Usuarios del programa. 2.Naturaleza de los datos. 3.Dimensión temporal. 2.El programa como objeto de evaluación. 1.Análisis y evaluación de necesidades. 2.Elaboración del programa. 3.Implementación del programa. 3.Otros objetivos específicos de evaluación. 1.Evaluación de contextos. 2.Evaluación de calidad de servicios. 3.Evaluación del diseño/conceptualización del programa. 4.Evaluación de la implementación. 5.Evaluación de la evaluabilidad. 6.Evaluación de resultados. 4.Un continuo evaluativo

3 1. DIMENSIONES. USUARIOS: a quiénes va dirigido el programa. NATURALEZA DE LOS DATOS: tipo de información que se obtiene. DIMENSIÓN TEMPORAL: momentos.

4

Usuarios. Impacto del programa: –Usuarios directos: reciben los efectos sin mediación –Usuarios indirectos: reciben impactos positivos, aunque no fueron tenidos en cuenta –Beneficiarios públicos: recibe impactos positivos toda la sociedad Nivel social: –Usuario activo: participa en las acciones –Usuario pasivo: sobre él recae las acciones –Potencial usuario: su adscripción al programa depende de su voluntad –Allegado: colabora por cercanía

Usuarios Pluralidad: –Un individuo –Un grupo de individuos –Colectividad en general Cobertura y extensión de uso Selección

Naturaleza de los datos Cualitativos/cuantitativos: combinación y complementariedad Según características del instrumento: –Nivel de interacción: continuo –Nivel de estandarización Sistema de registro: cómo se recoge la información

Dimensión temporal Momentos de recogida de datos –Puntual: un momento (evaluación sumativa) –Seguimiento: varios momentos (evaluación formativa): Intersesional o extensivo: frecuencia Intrasesional o intensivo: orden/duración –Retrospectiva: tiempo después de finalizada la implementación (problemas de validez). Gestión de la temporalidad –Definición: previsión de la duración del tiempo de implementación –Un instrumento: PERT

9 2. EL PROGRAMA COMO OBJETO DE EVALUACIÓN Punto de partida de todo programa Tipos de necesidades: –Normativa: definida por el experto –Experimentada, sentida o percibida: carencia subjetiva. Fluctuante. Aparece cuando se pregunta a la persona –Expresada o demandada: petición –Comparativa: diferencia entre servicios 2.1. Análisis y evaluación de necesidades

Análisis y evaluación de necesidades Etapas: 2 planteamientos complementarios –Una vez detectadas las necesidades (Sánchez Vidal, 1991): Aplicación de instrumentos Integración de la información recogida Valoración de los datos Devolución y priorización –Witkin y Altschuld (1995, 2000): Preevaluación: fase exploratoria Evaluación principal: recogida de datos Postevaluación: priorización, alternativas, recursos

Elaboración del programa Delimitación de objetivos: –Expectativa de resultados –Características: Claros Específicos Medibles Limitados temporalmente Realistas –Pueden plantearse en función de tres criterios: De resultado: centrado en el fin De proceso: centrado en los medios De actividades: interesan las acciones

Elaboración del programa Acotación y contextualización –¿QUÉ?: Naturaleza. Necesidad –¿POR QUÉ?: Fundamentación. Marco teórico –¿PARA QUÉ?:Objetivo. Expectativa a cumplir –¿CUÁNTO?: Metas. Cuantificación del objetivo –¿DÓNDE?:Localización. Cobertura –¿CÓMO?: Metodología. Diseño e instrumentos –¿CUÁNDO?: Calendarización. Plan temporal –¿QUIÉNES?: Recursos humanos. Responsables –¿CON QUÉ?: Recursos materiales y económicos

Elaboración del programa Pauta para la presentación –Descriptores Nombre del programa Objetivos (generales y/o específicos) Fundamentación Cobertura espacial Usuarios o potenciales usuarios –Programa propiamente dicho Acciones, proceso detallado y responsables PERT o calendarización –Presupuesto y recursos Presupuesto (completo y por módulos) Recursos que se requieren Recursos que se poseen Financiación

Implementación del programa Necesaria para evaluar porque aportará los datos empíricos A mayor grado de especificación del programa respecto a la actividad a desarrollar por los profesionales, más probabilidad de que la implementación sea óptima.

15 3. OTROS OBJETOS ESPECÍFICOS DE EVALUACIÓN Esquema para operativizar el contexto: –Variables físicas –Variables de actividad –Variables de nivel social: participantes y personas presentes en el contexto –Variables de nivel organizativo o institucional 3.1. Evaluación de contextos

Evaluación de calidad de servicios EQUIPAMIENTO: recurso intermediario y elemento mediador de una actividad concreta con propósito definido

Evaluación del diseño/conceptualización del programa Estudio de la coherencia interna Metodología: –Análisis documental –Encuesta –Observación

Evaluación de la implementación Determinar las discrepancias entre lo previsto en el diseño y lo ejecutado Metodología: –Sistemas de recogida de datos ya existentes: fichas, registros de archivos, autoinformes, historiales, etc. –Datos obtenidos por entrevistas, cuestionarios, observación y grupos de discusión

Evaluación de la evaluabilidad Un programa es evaluable (a nivel de resultados) si está planificado sistemáticamente e implementado tal y como se diseñó Sirve para: –Evaluar mejor –Optimizar la eficacia de la intervención Metodología: autoanálisis a través de: –Documentos existentes y entrevistas a los diseñadores del programa –Análisis de la realidad empírica

Evaluación de resultados Eficacia: si se lograron los objetivos Efectividad: otros resultados no esperados (positivos o negativos) Eficiencia: si se logró el mejor resultado al menor coste Impacto: consecuencias del programa en la población en general Evaluación de la cobertura: hasta qué punto el programa llega a la población diana Evaluación económica: análisis coste-beneficio

21 4. UN CONTINUO EVALUATIVO