Labor Intermediation and Training Programs of the STPS/México Maximo Torero (IFPRI/ GRADE) y Miguel Robles (UCLA)

Slides:



Advertisements
Presentaciones similares
Tipos de Estudios de Investigación
Advertisements

SESION DE APRENDIZAJE.
DISEÑO DE EXPERIMENTOS
Ejemplo La empresa Producciones Valencianas, en el análisis de sus operaciones del último trimestre, muestra una disminución de la producción en comparación.
PRINCIPIOS DE MEDICIÓN Y EVALUACIÓN
TEMA 6 INVESTIGACIÓN CUASI EXPERIMENTAL
SEGUIMIENTO Y EVALUACIÓN Instituto de Estudios Fiscales
¿ PREGUNTAS DE NUESTRO TEMARIO ?. 1.- ¿ ES NECESARIO ESTAR CERTIFICADO EN ALGUNA NORMA O MODELO ?
ESTUDIOS DE BASE: aspectos conceptuales
REQUISTOS DE LA CERTIFICACIÓN.
TIPOS DE ESTUDIOS CLINICO EPIDEMIOLOGICOS
Análisis Crítico de la Literatura Científica
Muestreo para la inspección por atributos
TALLER DE TRABAJO FINAL
Escuela de Salud Pública
DISEÑO METODOLÓGICO También denominada “material y métodos” o “procedimientos” El diseño metodológico es la descripción de cómo se va a realizar la investigación,
LAS CARAS DE LA EVALUACION
Evaluación de Productos
DISEÑO DE LA INVESTIGACIÓN Dr. Walther,CASIMIRO URCOS
Tema 6. La investigación cuasi experimental
Proceso de la Investigación
FUNDAMENTOS DE CONTROL
Diseños epidemiológicos
Econometría I Tema 1 Introducción
División de Estudios Políticos, CIDE
Proceso investigativo
Impact Evaluation 4 Peace March 2014, Lisbon, Portugal 1 Métodos No- experimentales Latin America and the Caribbean’s Citizen Security Team Victor.
Población y Muestra.
Foro Latinoamericano de Grupos de Ahorro
GESTION DEL TALENTO HUMANO. ANÁLISIS DE LA SITUACIÓN (Estudio de Necesidades de Capacitación  Con esta etapa se cumple con la detección de necesidades.
Programa de Preservación del Empleo PRODIAT B Evaluación de las empresas Septiembre de 2012.
Evaluación del Proyecto de investigación
Investigación Experimental
SEGUIMIENTO DE PRACTICAS SOCIALES Programa Caleta Sur ONG Vínculos Osorno 27 y 28 de octubre de 2008.
I NVESTIGACIÓN DE MERCADOS “4.3 ETAPA DE EJECUCIÓN DE LA INVESTIGACIÓN DE MERCADOS ” Presenta: José Eduardo Torre Falcon.
Método Científico.
DESEMPLEO E INACTIVIDAD DE LA POBLACIÓN JUVENIL EN ECUADOR
La Investigación científica
Estadística Administrativa II
Un Repaso  Entrenamiento adecuado no ocurre sin mucho trabajo  Requiere que todo sea muy bien planeado  Hay.
METODOLOGÍA DE INVESTIGACIÓN SOCIAL Titular: Agustín Salvia MÓDULO 1: INVARIANTES Y COMPONENTES DEL PROCESO DE INVESTIGACIÓN SEMINARIO DE POSGRADO.
RECLUTAMIENTO Y SELECCION DE PERSONAL
METODOLOGÍA CUALITATIVA
Ing. Noretsys Rodríguez. Definición de Conceptos  Falla: Ocurre cuando un programa no se comporta de manera adecuada. Es una propiedad estadística de.
PRUEBAS ESTADISTICAS NO PARAMETRICAS
Dra. Sara Lilia García Pérez
Protocolo de Investigación
MÉTODOS DE ANÁLISIS EN LA TOMA DE DECISIONES EXISTEN PROCEDIMIENTOS DE ORDEN MATEMÁTICO, FINANCIERO, ECONÓMICO, ESTADÍSTICO ENTRE OTROS, PARA LA TOMA DE.
LA INVESTIGACION CIENTIFICA
MERCADOTECNIA. EL OBJETIVO DEL MATERIAL ES AYUDAR Y DAR APOYO, AL FACILITADOR EN LA PRESENTACION DE LOS TEMAS QUE SON: LA DEFINICION DEL PRODUCTO Y/O.
“La Evaluación, en el proceso de desarrollo local” Abel Contreras Bustos Coordinador Área Social Asociación Chilena de Municipalidades.
METODOLOGÍA Y TÉCNICAS DE INVESTIGACIÓN EN CIENCIAS SOCIALES
Diseños Generales. 2 Propósito implícito del diseño experimental El propósito implícito de todo diseño experimental consiste en imponer restricciones.
MÉTODOS DE INVESTIGACIÓN
ANÁLISIS ESTRUCTURADO
4. Indicadores de rentabilidad y conveniencia
Ejemplos y claridad para avanzar la propuesta de investigación en el Trabajo colaborativo Sandra Melo Zipacon.
Métodos de investigación en la psicología clínica
Diseño de Caso Único Profesora: Carolina Mora UCV- Caracas.
Benemérita Universidad Autónoma Facultad de Enfermería Contenido de los Informes de Investigación.
Clase N°11 Métodos de reducción de varianza
INFERENCIA ESTADÍSTICA
TEMA 8 INVESTIGACIONES EX POST FACTO
1 Tema 8. Diseños evaluativos de alta intervención TALLER: DISEÑO Y EVALUACIÓN DE PROGRAMAS XIV CONGRESO DE METODOLOGÍA DE LAS CIENCIAS SOCIALES Y DE LA.
Taller de investigación 1
MANUAL PARA LA EVALUACION DE INFORME FINAL
Servicio de Impuestos Internos 46° Asamblea General del CIAT “Mejorando el Desempeño de la Administración Tributaria: El Control de la Evasión.
Free and Quick translation of Prof. Anderson's slides1 Analisis de Regresion Multiple y =  0 +  1 x 1 +  2 x  k x k + u 1. Estimacion.
TEMA 7 ANÁLISIS DE LOS RESULTADOS TEMA 7 ANÁLISIS DE LOS RESULTADOS.
1 INTRODUCCIÓN AL DISEÑO Y EVALUACIÓN DE PROGRAMAS SOCIALES, EDUCATIVOS Y DE LA SALUD Tema 7. Diseños evaluativos de intervención media (cuasi-experimentos)
Transcripción de la presentación:

Labor Intermediation and Training Programs of the STPS/México Maximo Torero (IFPRI/ GRADE) y Miguel Robles (UCLA)

Temas a analizar Programas y documentos analizados Objetivos y descripción de los programas Evaluaciones de impacto Evaluaciones de impacto teoría De la Teoría a la práctica el caso de los programas analizados De la Teoría a la práctica el caso de los programas analizados  Aspectos positivos  Aspectos por mejorar Recomendaciones finales

Programas y documentos analizados

Objetivos y Descripción de los Programas

Objetivos y Descripción de Programas

Evaluaciones de Impacto

La evaluación de impacto típica incluye:  Evaluación Operativa  Efectos “Tratamiento”  Análisis Económico Costo-Beneficio Problemas potenciales en cómo estimar los efectos “tratamiento” Establecidos los efectos “tratamiento” no hay mayor controversia en cómo realizar el análisis costo- beneficio

Efectos “tratamiento” Revisión de metodologías empleadas para determinar estos efectos:  Línea de Base (Inexistente en todos los casos)  Determinación Grupo Beneficiarios  Determinación Grupo Control  “Matching” de “support” en X  “Outcome” analizados  Análisis estadístico/econométrico  Efectos (en tratados) econtrados

Evaluaciones de Impacto

Evaluación de Impacto (Treatment Effects) TEORIA

Treatment Effects: teoría Objetivo general  Comparar la situación de los miembros de una población “con” el programa versus su situación “sin” el programa  No nos interesa “per se” la situación “antes” y “después” del programa ¿Qué población?  Típicamente nos enfocamos en los beneficiarios del programa ¿Qué es la “situación”?  Definir la o las variables que miden los logros esperados del programa: Ingreso por hora Horas trabajadas Duración del desempleo Productividad laboral, etc.

Treatment Effects: teoría Formalmente…  Efecto tratamiento para el participante i…  Esta es una variable aleatoria… en principio nos interesa el primer momento o valor esperado… El potencial dolor de cabeza….missing data !!!  ¿Cuál es el “outcome” esperado del participante i de no haber recibido “tratamiento”? Imposible observarlo… pero no necesariamente imposible estimarlo…

Treatment Effects: teoría Se hace necesario contar con un grupo de control que no recibe el “tratamiento” del cual poder inferir “missing data” Queremos minimizar potencial “SESGO de selección”…  Lo que podemos estimar es…  Lo que queremos estimar es  El sesgo potencial es

Treatment Effects: teoría Métodos para identificar “treatment effects” 1) Métodos experimentales  “Randomization”: la gran ventaja es que para el grupo de control: 2) Métodos Cuasi - Experimentales:  “Matching”: Buscar un grupo de control con características tales que Hubieran participado en el programa Determinan el “outcome” de manera similar a los participantes Permite corregir “selección” en variables observables

Treatment Effects: teoría  “Reflexive Comparison” (Antes y después) El grupo de control se forma con “línea de base” de los participantes  Doble Diferencias ( “Difference in Difference”) Se tiene información antes y después para el grupo de participantes y para el grupo de control Se compara al grupo de participantes y de control (primera diferencia), antes y después del programa (segunda diferencia) Permite corregir el componente invariante en el tiempo del sesgo de selección en no observables  Método de variables instrumentales Se requiere de una variable (instrumento) que este correlacionada con la decisión de participar pero que no influya en el “outcome” Potencialmente permite corregir sesgo en observables y no observables

La experiencia internacional y la teoría nos dicen… Combinar “Matching” con Doble Diferencias… ¿Qué se necesita?  Grupo de control Por lo menos asegurar que cumplan los requisitos del programa Idealmente usar mismos cuestionarios y encuestadores para recoger esta información  Grupo de beneficiarios Muestra representativa

La experiencia internacional y la teoría nos dicen… ¿Qué se necesita?  Información antes y después del programa para ambos grupos Características que determinan la participación Características que determinan el “outcome” EL IDEAL: tener historias completas del antes y del después…  Hacer el “matching” en características y asegurar “common support” Se recomienda usar “propensity scores” para el “matching” usando la información antes del programa

De la teoría a la práctica El caso de los programas analizados

Las evaluaciones estudiadas nos dicen que…(aspectos positivos) 1. Existe conciencia de que lo importante es comparar el “con” y el “sin” programa… 2. Los evaluadores son ahora agentes externos (no queremos casos de juez y parte)…  En PROBECAT 1995 y CIMO 1995 las evaluaciones fueron hechas por la propia STPS  En todas las otras evaluaciones (2002 y 2003) se contratan agentes externos

Las evaluaciones estudiadas nos dicen que…(aspectos positivos) 3. Dada la información disponible los evaluadores externos apuntan a atenuar los sesgos de selección…  En 5 casos se utilizan métodos de variables instrumentales (Heckprob, Treatreg)  En 2 casos se intenta “matching” 4. En algunos casos se utiliza mismo cuestionario para recolectar información de beneficiarios y controles… CIMO y PIPs 5. Evaluaciones operativas y análisis costo-beneficio conceptualmente bien diseñados

Las evaluaciones estudiadas nos dicen que…(aspectos por mejorar) 1. La evaluación de impacto no forma parte del diseño de los programas…  En ningún caso se cuenta con línea de base  Los grupos de control se buscan ex-post  En los casos de contar con información del “antes” corresponde a información retrospectiva (introduce sesgo) 2. A veces es necesario precisar mejor el “outcome” a estudiar…  Casos en que se estudia el Ingreso Mensual… se recomineda separar el Ingreso x Hora y el Número de Horas

Las evaluaciones estudiadas nos dicen que…(aspectos por mejorar)  Separar “efecto empleo” del “efecto ingreso” Si la variable dependiente es “Cambio en log Ingreso”… habran muchas observaciones con valores extremos… que pasan de cero ingresos (desempleado) a ingreso positivo… (Ejemplo: esto sucede en PROBECAT) CIMO lo hace correctamente…  ¿Cuál es el “outcome” relevante para un programa como el SAEMLE (movilidad externa)? Recordar que el programa ayuda a trabajadores que por primera vez salen a Canadá de zonas alejadas… Pero es claro que alguien se perjudica… porque el número de vacantes es fija…

Las evaluaciones estudiadas nos dicen que…(aspectos por mejorar) 3. Hay que ser cuidadosos con el “matching” en variables observables…  Ejemplo, CIMO sólo verifica “common support” en tres variables: sector(manufactura vs. otro), tamaño, ubicación…  PERO… sin duda otras variables pueden explicar la participación en el programa y sobre la productividad laboral… ejemplo: antiguedad de la empresa, rama…  SAEBE hace “matching” para “estar desempleado” y “lugar de residencia”… Y además usa regresión con variable instrumental… (esto va en la dirección correcta…)

Las evaluaciones estudiadas nos dicen que…(aspectos por mejorar) 4. Controlar por el mayor número de variables observables relevantes  Ej. PIPs… regresión para explicar ingreso neto del entrepreneur… pero no controla por tamaño de empresa !!! 5. Procurar información del “antes”… ejemplo cuando ésta no existe…  En SICAT… se usa la ENE 2002 para armar grupo control bajo el siguiente criterio: Haber conseguido empleo recientemente… Estar actualmente desempleado  PROBLEMA: incluye a gente que estuvo empleada “antes”… no hubiera sido elegible para el programa !!!

Las evaluaciones estudiadas nos dicen que…(aspectos por mejorar) 6. Hay que ser consistentes con la metodología de evaluación…  En PROBECAT se utiliza un Probit para hacer “matching” entre grupos de beneficiarios y de control… supone querer controlar por observables en participación…  PERO luego se usa variables instrumentales… para instrumentar participación !!!... NO sería necesario… 7. Hacer uso correcto de la econometría  Por ejemplo correr… Ingreso Bruto contra Ingreso por Hora, Número de Horas, y Gratificación… NO INFORMA NADA Período trabajado contra período planeado, dummy para regreso prematuro, mes de salida… NO INFORMA NADA  Usar OLS cuando la variable dependiente es “mes de salida” (incorrecto !!!)

Recomendaciones Finales

Algunas recomendaciones La evaluación de impacto debe formar parte del diseño de los programa  Importante identificar como incorporarla en los programas que ya existen  Una adecuada inversión en el diseño de nuevos programas Una adecuada inversión en el diseño de nuevos programas Desde el inicio del programa es necesario precisar el “outcome” a estudiar y el grupo controlgrupo control La metodología de impacto a utilizar debe ser homogénea Sería ideal contar con un laboratorio de evaluación, con autonomía y evaluación externa.

Importancia de un sistema de evaluación de impacto

Fuente: Nopo, Hugo, Miguel Robles y Jaime Saavedra (2002)