La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Definición de Programación de Operaciones

Presentaciones similares


Presentación del tema: "Definición de Programación de Operaciones"— Transcripción de la presentación:

0 Programación de Operaciones
Capítulo VI Programación de Operaciones

1 Definición de Programación de Operaciones
Morton y Pentico (1993) afirman que: “programar es el proceso de organizar, elegir y dar tiempos al uso de los recursos para llevar a cabo todas las actividades necesarias, para producir las salidas deseadas en los tiempos adecuados, satisfaciendo a la vez un gran número de restricciones de tiempo y relaciones entre las actividades y los recursos”. Esta definición implica que, si los recursos no están limitados, no existe el problema.

2 Definición de Programación de Operaciones
Por lo tanto, la programación de operaciones especifica el tiempo en el que comienza y termina cada tarea en cada máquina, al igual que cualquier recurso adicional que se necesite.

3 Importancia estratégica de la Programación de Operaciones
Una programación eficaz significa un rápido movimiento de bienes y servicios en las instalaciones. Mayor utilización de los activos → Mayor capacidad por dinero invertido → Reduce el Costo. Esta mayor capacidad, una producción más rápida y la flexibilidad citada suponen un mejor servicio al cliente a través de una entrega más rápida. Una buena programación también contribuye a adquirir con los clientes unos compromisos realistas y, en consecuencia, a una entrega fiable.

4 Conceptos de Programación
Las decisiones de programación comienzan con la planificación de la capacidad. En la fase de programación agregada, se toman decisiones sobre la utilización de: Instalaciones. Inventario. Personas. Contratistas externos. Recursos totales disponibles de equipos e instalaciones

5 Conceptos de Programación
El programa maestro desagrega el plan agregado y desarrolla un programa para productos específicos o líneas de producto concretas para cada semana. Los programas a corto plazo traducen las decisiones de: (1)Capacidad, (2) Planificación agregada (intermedia) y (3) Programación maestra, en secuencias de trabajo y en asignaciones específicas de personas, materiales y máquinas. Programación de bienes y servicios a corto plazo ⇒ ajuste de las necesidades diarias u horarias al personal y equipos disponibles.

6 Conceptos de Programación
Planificación de la Capacidad (Largo plazo: años) Cambios en las instalaciones Cambios en los equipos Plan de la capacidad de nuevas instalaciones Ajuste de la capacidad a la demanda sugerida por el plan estratégico Planificación agregada (Plazo medio: trimestral o mensual) Utilización de las instalaciones Cambios de personal Subcontratación Plan de producción agregada de todas la bicicletas Mes 1 2 Producción de Bicicletas 800 850 Determinar el personal o la subcontratación necesaria para igualar la demanda agregada a las instalaciones/capacidad actual.

7 Conceptos de Programación
Programa maestro (Plazo medio: semanal) Planificación de las necesidades de materiales Desagregación del plan agregado Programa maestro de producción para los modelos de bicicleta Mes 1 Mes 2 Semana 1 2 3 4 5 6 7 8 Modelo 22 200 Modelo 24 100 150 Modelo 26 Determinar el programa de capacidad semanal

8 Conceptos de Programación
Programación a corto plazo (Corto plazo: días, horas, minutos) Carga del centro de trabajo Secuencias de trabajo Trabajo asignado a empleados y centros de trabajo específicos Ensamblar el modelo 22 en el centro de trabajo 6 Realizar el programa de capacidad finita asignando tareas específicas a empleados y máquinas específicas

9 Objetivos de la Programación de Operaciones
Cumplir con la fecha de entrega establecida por el cliente. Minimizar el retraso de la tarea. Minimizar los tiempos de respuesta. Minimizar los tiempos de servicio. Minimizar los tiempos en el sistema. Minimizar los sobretiempos. Maximizar la tasa de utilización de las máquinas. Minimizar el tiempo ocioso. Minimizar el tamaño de inventario.

10 Tareas (Trabajos) Las tareas son las actividades a realizar.
Cada tarea puede tener una o varias operaciones. Las operaciones tienen tiempos de procesamiento conocidos. Cada tarea tiene una ruta u orden de procesamiento. A menos que se establezca lo contrario, una vez que se comienza a realizar una tarea, ésta debe ser procesada continuamente hasta ser terminada; es decir, generalmente no se permiten interrupciones.

11 Tareas (Trabajos) Las tareas requieren de información asociada para su realización: Fecha de inicio (release date) (o fecha de liberación de la orden), antes de la cual el procesamiento no puede comenzar. Fecha de entrega (due date) en la cual la tarea debe estar terminada. Cantidad de operaciones para su realización. Orden de procesamiento a seguir, es decir, la ruta de máquinas a seguir. Tiempos de procesamiento por cada operación.

12 Máquinas (Centros de Trabajo) y Talleres
Las máquinas procesan las tareas. Los entornos de las máquinas (ó talleres) se dividen en varias clases: Una sola máquina (Single Machine). Máquinas paralelas (Parallel Machines). Talleres de producción continua (Flow Shops). Talleres de producción intermitente (Job Shops). Talleres Abiertos (Open Shops).

13 Máquinas (Centros de Trabajo) y Talleres
Para los problemas en una sola máquina, se tiene sólo una máquina y deben procesarse en ella todas las tareas. La máquina puede procesar a lo más una tarea a la vez. Luego que una tarea se ha procesado en la máquina, queda lista para su entrega (terminada).

14 Máquinas (Centros de Trabajo) y Talleres
Varias máquinas que pueden realizar el mismo tipo de procesamiento son llamadas máquinas paralelas. Una tarea se puede procesar en cualquiera de las máquinas, y una vez que ha sido procesada por cualquiera de ellas, queda terminada. A menos que se establezca lo contrario, se supone que todas las máquinas paralelas son idénticas. El tiempo para procesar una tarea en una de varias máquinas idénticas es independiente de cuál máquina lo haga.

15 Máquinas (Centros de Trabajo) y Talleres
Un taller de producción continua contiene máquinas diferentes. Cada tarea debe procesarse en cada máquina exactamente una vez. Más aún, todas las tareas siguen la misma ruta; esto es, deben visitar las máquinas en el mismo orden. Una tarea no puede comenzar su procesamiento en la siguiente máquina hasta no terminar su procesamiento en la actual. Este tipo de talleres se asocia a la producción en masa.

16 Máquinas (Centros de Trabajo) y Talleres
Un taller de producción intermitente es más general que el de producción continua: cada tarea tiene una ruta única. Algunos ejemplos son: talleres de metalmecánica, talleres de reparación de componentes, restaurantes, etc. En general, cualquier taller o centro que realice un producto o servicio personalizado a baja escala puede ser clasificado de esta forma.

17 Máquinas (Centros de Trabajo) y Talleres
Los talleres abiertos son aquellos en los que las tareas no tienen una ruta específica. Un ejemplo lo constituye el taller mecánico de reparación de automóviles. Los vehículos necesitan reparaciones múltiples que requieren distintos equipos, pero el orden de las reparaciones carece de importancia.

18 Medidas de Desempeño ¿Cómo comparar si una programación es mejor a otra? Las medidas de desempeño sirven para comparar diferentes programaciones. Maximizar la ganancia o minimizar el costo son medidas obvias. Desafortunadamente, es difícil estimar los parámetros financieros que relacionen un programa con costo o ganancia. Frente a esto, se utilizan objetivos sustitutos para aproximar algunos costos relevantes.

19 Medidas de Desempeño Las medidas sustitutas, por lo general, son funciones de los tiempos de terminación para un programa dado. La mayoría de estas medidas son regulares (normales), es decir, son una función del tiempo de terminación, en la que el objetivo es minimizar la función, la que a su vez sólo se incrementa si al menos un tiempo de terminación en el programa aumenta. De esta manera se definen las siguientes medidas: N : número de tareas que serán procesadas. M : número de máquinas.

20 Medidas de Desempeño pij : tiempo de procesamiento de la tarea i en la máquina j (pi si M = 1). ri : fecha de inicio (release date) de la tarea i. di : fecha de entrega de la tarea i.  Además, en una programación específica, para cada tarea i se define: Ci : Tiempo de término de la tarea i. Fi = Ci - ri : tiempo de flujo de la tarea i (Fi > 0). Li = Ci - di : retraso de la tarea i (Li < 0 denota anticipación).

21 Medidas de Desempeño Ti = max {0, Li}: tardanza de la tarea i.
Ei = max {0, - Li}: adelanto de la tarea i. wi : peso o importancia de la tarea i. Cmax = max i = 1, .., n {Ci}: tiempo máximo de término de todas las tareas ó lapso (makespan). Lmax = max i = 1, .., n {Li}: retraso máximo de todas las tareas. Tmax = max i = 1, .., n {Ti}: tardanza máxima de todas las tareas.

22 Medidas de Desempeño Para alcanzar las prioridades competitivas de un proceso, los programas deben reflejar medidas de desempeño que la gerencia considere aceptables y que concuerden con dichas prioridades competitivas. Por ejemplo, para una fábrica de autos, una medida importante es el lapso (makespan) y WIP. Tiempo de flujo del trabajo: La cantidad de tiempo que un trabajo pasa en el servicio o sistema manufacturero. Lapso (Makespan): El tiempo total necesario para completar un grupo de trabajos.

23 Medidas de Desempeño Tardanza (Tardiness): La cantidad de tiempo en que un trabajo no fue entregado en la fecha convenida, o toma un valor nulo si el trabajo fue entregado a tiempo o antes. Inventario de trabajo en proceso (Work-in-process, WIP) : Cualquier trabajo que esté en una fila de espera, en tránsito de una operación a otra, retrasado por alguna razón, en pleno procesamiento o en un estado semiacabado. Inventario total: La suma de las recepciones programadas y los inventarios disponibles. Utilización: El porcentaje del tiempo de trabajo empleado productivamente por un trabajador o una máquina.

24 Criterios de Programación
Minimizar el tiempo de finalización. Este criterio se evalúa determinando el tiempo de finalización medio por trabajo. Maximizar la utilización. Se evalúa determinando el porcentaje de tiempo en que utiliza la instalación. Minimizar el inventario de trabajos en curso (WIP). Se evalúa calculando el número medio de trabajos en el sistema. La relación entre el número de trabajos en el sistema y el inventario de trabajo en curso será elevada. Cuanto más bajo sea el número de trabajos en el sistema, menor será el inventario. Minimizar el tiempo de espera de los clientes. Se evalúa calculando el número medio de días de retraso.

25 Criterios de Optimización

26 Actividades de Control y Planificación
Programación Carga Secuenciación Monitoreo y Control ¿Cuándo hacer las cosas? ¿En qué orden hacer las cosas? ¿Cuánto hay que hacer? ¿Van las actividades de acuerdo a lo planeado?

27 Etapas de la Programación de Operaciones
Para cumplir con los objetivos, la programación de operaciones se realiza en tres etapas principales: Cargar Es el proceso de asignar trabajo a recursos limitados. Secuenciar Es el proceso de definir el orden en que las tareas serán ejecutadas en una máquina. Monitorear Es el proceso de control del cumplimiento de las tareas asignadas a las máquinas.

28 Cargar En palabras simples, la carga consiste en asignar trabajo (tareas a realizar) a las máquinas disponibles. Hay que tener especial cuidado con la disponibilidad de tiempo de cada máquina, puesto que muchos factores pueden alterar esta disponibilidad. Existen dos tipos de cargas: Carga Finita. Carga Infinita.

29 Carga Finita vs. Carga Infinita
1 2 3 4 Semanas 5 6 A B C A B C Máquinas Máquinas

30 Carga Infinita La Carga Infinita ocurre cuando una tarea es asignada a una máquina simplemente basándose en qué se necesita a lo largo del tiempo. No considera si existe suficiente capacidad de los recursos necesarios (máquinas, MO, etc.) disponibles para realizar las tareas. MRP es un ejemplo de un sistema que utiliza el enfoque de carga infinita, puesto que no considera la capacidad y los recursos disponibles del sistema.

31 Carga Infinita La Carga Infinita es relevante para operaciones donde:
No es posible limitar la carga – e.g. un servicio de urgencias de un hospital no puede apartarse decirle a sus pacientes que no pueden atenderlos; No es necesario limitar la carga – e.g. los restaurantes de comida rápida se han diseñado para flexibilizar su capacidad (hacia arriba o hacia abajo) frente a diferentes tasas de llegada de clientes. Durante períodos de mucho trabajo, los clientes aceptan que tienen que hacer cola para algún tiempo antes de ser servido. A menos que esto es extremo, los clientes no pueden ir a otra parte;

32 Carga Infinita El costo de limitar la carga es prohibitivo – e.g. si una pequeña sucursal de un banco devuelve a los clientes a la puerta debido a la cantidad de clientes que ya habían dentro, los clientes se sienten menos satisfechos con el servicio.

33 Carga Finita La Carga Finita es un enfoque el cual asigna tareas (trabajos) a centros de trabajo (una persona, una máquina o tal vez un grupo de personas o máquinas) sólo hasta un límite establecido. Este límite es la estimación de la capacidad del centro de trabajo (en base a los tiempos disponibles para la carga). No se aceptan tareas ó trabajos más allá de este límite. MRP II es un ejemplo de un sistema que utiliza el enfoque de carga finita, puesto que considera la capacidad y los recursos disponibles del sistema.

34 Carga Finita La Carga Finita es particularmente relevante para operaciones donde: Es posible limitar la carga – e.g. es posible ejecutar un sistema de citas para un consultorio médico general o una peluquería; Es necesario limitar la carga – e.g. por razones de seguridad sólo un número finito de personas y peso del equipaje es permitido en los aviones; El costo de limitar la carga no es prohibitivo – e.g. el costo de mantener un libro de órdenes finitas con un fabricante especializado en automóviles deportivos no afecta negativamente a la demanda e incluso puede mejorarla.

35 Tipos de Carga Finita Carga Vertical
Cargar las tareas en las máquinas, tarea a tarea, acorde a algún criterio de prioridad. El conjunto de tareas disponibles para procesarse en alguna máquina debe determinar su orden de procesamiento según algún criterio de prioridad. Este enfoque no busca terminar las tareas, si no más bien maximizar el uso de las máquinas.

36 Tipos de Carga Finita Carga Horizontal
Primero se determina un orden de procesamiento (prioridad) de las tareas disponibles para ser cargadas. Luego se cargan todas las operaciones de la tarea con mayor prioridad en las máquinas que correspondan antes de cargar las operaciones de la segunda tarea con mayor prioridad y así sucesivamente. Este enfoque está en conflicto con el alto uso (capacidad) de las máquinas ya que al cargar las tareas de esta forma, las programaciones de las máquinas tendrán más “agujeros” que el enfoque de carga vertical.

37 Ejemplo 6.1: Carga Finita Vertical y Horizontal (Vollmann)
La mañana del lunes de la semana anterior al cierre anual, Limited Hours Company tenía órdenes en el taller por cinco productos (inteligentemente llamados A-E), las cuales llegaron en orden alfabético. La dirección decidió no tomar más órdenes hasta después del cierre, y a las cinco órdenes recibidas se les asignaron prioridades en el orden de llegada.

38 Ejemplo 6.1: Carga Finita Vertical y Horizontal (Vollmann)
No se habían hecho aún compromisos de entrega de ninguna de estas órdenes; cada una de ellas pasaba por los mismos tres centros de máquinas, pero no necesariamente en la misma secuencia. Cada orden debe terminarse en un centro de máquina antes de que pueda comenzarse otra, y no se las puede seccionar (no se permiten interrupciones).

39 Ejemplo 6.1: Carga Finita Vertical y Horizontal (Vollmann)
La empresa trabaja exigentes días de 8 horas, así que le preocupaba si había suficiente tiempo de máquina (capacidad) para terminar las cinco órdenes en los cinco días restantes antes del cierre. Suponga que el tiempo de movimiento entre los centros de trabajo es despreciable. Los datos de cada orden se entregan en la siguiente tabla:

40 Ejemplo 6.1: Carga Finita Vertical y Horizontal (Vollmann)
Horas en el centro de Secuencia de centro máquinas Orden de máquinas 1 2 3 A 1-3-2 4 B 2-1-3 6 C 3-1-2 5 D 1-2-3 E 3-2-1

41 Ejemplo 6.1: Carga Finita Vertical y Horizontal (Vollmann)
¿Hay suficiente tiempo de máquina para terminar las órdenes? Si se usa la técnica de carga horizontal para programar cada orden a través de los centros de máquinas, ¿en qué días pueden comprometerse los envíos? ¿Qué cambios ocurren si usa el método de carga vertical?

42 Programación hacia adelante y Programación hacia atrás
Fecha de Entrega Ahora Fecha de Entrega Ahora

43 Programación hacia adelante
La programación hacia adelante comienza tan pronto como se conocen los requisitos. Produce un programa factible a pesar de que pueda no cumplir con las fechas de entrega. Frecuentemente resulta en la acumulación de inventario de trabajos en proceso (WIP). Fecha de Entrega Ahora

44 Programación hacia atrás
La programación hacia atrás empieza con la fecha de entrega y programa la operación final en primer lugar. El programa es producido trabajando hacia atrás a través de los procesos. Los recursos podrían no estar disponibles para llevar a cabo el programa. Fecha de Entrega Ahora

45 Programación hacia adelante y Programación hacia atrás
En la práctica se emplea a menudo una combinación de la programación hacia adelante y hacia atrás, para hallar un equilibrio razonable entre lo que puede conseguirse y las fechas de entrega a los clientes. MRP es un ejemplo de un sistema de programación hacia atrás, puesto que cada orden tiene una fecha de entrega futura, y el sistema calcula la necesidad de artículos (piezas o partes) desde la fecha de entrega hacia atrás.

46 Ventajas de la Programación hacia adelante y Programación hacia atrás
Alta utilización de MO - los trabajadores siempre empiezan trabajos para mantenerse ocupados Bajos costos de material – los materiales no son usados hasta que deben serlo, por lo tanto retrasando el valor añadido hasta el último momento Flexible – holguras de tiempo en el sistema permiten cargar inesperados trabajos Menor exposición al riesgo en caso de cambio en la programación por parte del cliente Tiende a enfocarse la operación en las fechas de entrega del cliente

47 Ejemplo 6.2: Programación hacia adelante y hacia atrás (Roy)
Una tarea está prevista ser entregada a finales de la semana 12. Se requiere un plazo de 2 semanas para la adquisición de material, una semana para la ejecución de operación 1, dos semanas para la operación 2, y 1 semana para el montaje final. Además se permite una semana de tiempo de tránsito antes de cada operación. Ilustre el programa respectivo usando los métodos de programación (a) hacia adelante y (b) hacia atrás.

48 Ejemplo 6.2: Programación hacia adelante y hacia atrás (Roy)

49 Los Métodos de secuenciación proporcionan esta información
Secuenciar La secuenciación (también conocida como despacho - dispatching) determina el orden de realización de las tareas en cada máquina. Ejemplo: Suponga que han sido asignados 10 pacientes a una clínica para recibir tratamiento. ¿En qué orden deben ser tratados? ¿Se debe dar prioridad al primer paciente que llegó o a aquel que necesita un tratamiento de urgencia? Los Métodos de secuenciación proporcionan esta información

50 Secuenciar Las actividades de secuenciación se identifican estrechamente con la programación detallada, ya que especifica el orden en que las tareas serán procesados ​​en las diferentes máquinas. El Despacho se ocupa de iniciar los procesos. Se da la autorización necesaria para iniciar una tarea en particular, que ya ha sido planificada en "ruta" y "programación". Para iniciar el trabajo, se entregan las órdenes e instrucciones esenciales.

51 Secuenciar Por lo tanto, la definición de despacho es "la liberación de órdenes e instrucciones para el comienzo de la producción de un artículo de acuerdo con la hoja de ruta y las cartas de programación". Las funciones del despacho incluyen: Implementar el programa de manera tal que conserve cualquier prioridad de orden asignada en la fase de planificación. Trasladar materiales requeridos desde las bodegas a las máquinas, y de una operación a otra.

52 Secuenciar Autorizar a las personas a realizar el trabajo al pie de la letra, tal como está en el programa. Distribuir la carga de las máquinas y las cartas de programación, hoja de ruta, y otras instrucciones y formularios. Emitir órdenes de inspección, indicando el tipo de inspección en varias etapas. Realizar pedidos de herramientas, plantillas y dispositivos.

53 Reglas de Despacho Los Talleres generalmente tienen muchas tareas a la espera de ser procesadas​​. El principal método para despachar las tareas es un conjunto de reglas llamadas reglas de despacho (o de prioridad), las cuales son directrices simplificadas para determinar la secuencia en la cual las tareas serán procesadas​​. El uso de reglas de despacho (de prioridad) intenta formalizar las decisiones del experimentado despachador.

54 Reglas de Despacho Algunas de las reglas de despacho más conocidas son: Tiempo de procesamiento más corto (SPT), Primero en llegar, primero en servirse (FCFS), Fecha de entrega más próxima (EDD) y Tiempo de procesamiento más largo (LPT). Estas reglas se pueden clasificar como: Estática ó Dinámica. Local ó Global.

55 Reglas de Despacho Estáticas v/s Dinámicas
Las reglas estáticas son aquellas en las que el índice de prioridad de un trabajo no cambia con el paso del tiempo. Las reglas LTWK y EDD son estáticas. Las reglas dinámicas son aquellas en las que el índice de prioridad es una función del tiempo actual. La regla LWKR es dinámica, dado que el tiempo de procesamiento remanente decrece a medida que la tarea progresa a través del taller. Las reglas basadas en la holgura (slack) también son dinámicas.

56 Reglas de Despacho Locales v/s Globales
Las reglas locales sólo miran a una máquina en particular. Las reglas SPT y FCFS son locales. Las reglas globales miran al taller de forma completa. Las reglas FISFS y WINQ son globales. Las reglas locales, debido a la cantidad de información usada, son más fáciles y baratas de calcular que las globales. A continuación se detallan las reglas de despacho más conocidas.

57 Reglas de Despacho Regla Nombre Descripción SPT
Shortest Processing Time – Tiempo de Procesamiento más corto Seleccionar la tarea con el mínimo tiempo de procesamiento EDD Earliest Due Date – Fecha de Entrega más próxima Seleccionar la tarea cuya entrega es la más cercana FCFS First Come, First Served – Primero en llevar, primero en servirse Seleccionar la tarea que lleva más tiempo esperando en la máquina FISFS First in System, First Served – Primero en el sistema, primero en servirse Seleccione la tarea que ha estado más tiempo en el taller S/RO Slack per Remaining Operation – Holgura por Operación Remanente Seleccionar la tarea con menor razón de holgura a operaciones remanentes a ser procesadas

58 Reglas de Despacho Regla Nombre Descripción Covert
Ordenar las tareas basándose en una razón de holgura a tiempo de procesamiento LTWK Least Total Work – Menor Trabajo Total Seleccionar la tarea con el menor tiempo total de procesamiento LWKR Least Work Remaining – Menor Trabajo Remanente Seleccionar la tarea con el menor tiempo de procesamiento remanente MOPNR Most Operations Remaining – Mayor Cantidad de Operaciones Remanentes Seleccionar la tarea con la mayor cantidad de operaciones remanentes MWKR Most Work Remaining – Mayor Trabajo Remanente Seleccionar la tarea con el mayor tiempo de procesamiento remanente

59 Reglas de Despacho Regla Nombre Descripción RANDOM Random
Seleccionar una tarea de forma aleatoria WINQ Work in Next Queue – Trabajo en Siguiente Cola Seleccionar la tarea cuya máquina subsecuente tiene actualmente la cola más corta

60 Ejemplo 6.3: Reglas de Despacho (Askin & Standridge)
El tiempo actual es 10. La máquina B acaba de finalizar una tarea, y es tiempo de seleccionar la siguiente. Se tienen 4 tareas disponibles para procesar, y su información se encuentra a continuación. Llegada al Llegada a la Fecha de Operación (máquina, pij) Tareas Sistema Máquina B Entrega 1 2 3 10 30 (B, 5) (A, 1) (D,6) 5 20 (A, 5) (B, 3) (C, 2) 9 (C, 3) (D, 2) (B, 2) 4 8 25 (E, 6) (B, 4) (C, 4)

61 Ejemplo 6.3: Reglas de Despacho (Askin & Standridge)
Para cada una de las reglas de despacho definidas anteriormente, determine la secuencia correspondiente. Solución: SPT: Los tiempos de procesamiento para las tareas (1, 2, 3, 4) en la máquina B son (5, 3, 2, 4). Luego la secuencia es {3, 2, 4, 1}. Por lo tanto hay que cargar la tarea 3 en la máquina B.

62 Ejemplo 6.3: Reglas de Despacho (Askin & Standridge)
EDD: Las fechas de entrega para las tareas (1, 2, 3, 4) son (30, 20, 10, 25). Ordenando estas fechas en orden creciente, tenemos la secuencia {3, 2, 4, 1}. Esto significa que la tarea 3 debe ser la próxima tarea a cargarse en la máquina B. FCFS: Las tareas (1, 2, 3, 4) llegaron a la máquina B en los tiempos (10, 5, 9, 8).

63 Ejemplo 6.3: Reglas de Despacho (Askin & Standridge)
FCFS: Ubicando las primeras llegadas en primer lugar, se obtiene la secuencia {2, 4, 3, 1}. FISFS: Las tareas (1, 2, 3, 4) llegaron al sistema en los tiempos (10, 0, 0, 0). Así, como las tareas 2, 3 y 4 llegaron primero y al mismo tiempo, deben procesarse primero, en cualquier orden. Una posible secuencia es {2, 3, 4, 1}.

64 Ejemplo 6.3: Reglas de Despacho (Askin & Standridge)
S/RO: En primer lugar, para cada tarea, se deben calcular sus holguras = fecha de entrega – tiempo actual – tiempo de procesamiento remanente. Así, las tareas (1, 2, 3, 4) tienen holguras de: Tarea 1 = 30 – 10 – 5 – 1 – 6 = 8; Tarea 2 = 20 – 10 – 3 – 2 = 5; Tarea 3 = 10 – 10 – 2 = -2; Tarea 4 = 25 – 10 – 4 – 4 = 7.

65 Ejemplo 6.3: Reglas de Despacho (Askin & Standridge)
S/RO: Por otra parte, las operaciones remanentes para las tareas (1, 2, 3, 4) son (3, 2, 1, 2). Luego, las razones S/RO para las tareas (1, 2, 3, 4) son (8/3, 5/2, -2/1, 7/2) = (2⅔, 2½, -2, 3½). Ordenando las tareas según las razones S/RO, de forma creciente, la secuencia que se obtiene es {3, 2, 1, 4}. Covert: Usa la medida: (costo por demora)/(tiempo de procesamiento de la operación). El costo por demora es una función de la holgura y del E(tiempo de espera).

66 Ejemplo 6.3: Reglas de Despacho (Askin & Standridge)
Covert: E(tiempo de espera) es a menudo un múltiplo del número de operaciones remanentes. En este caso usaremos tiempos de espera esperados para las tareas (1, 2, 3, 4) como: (1½, 1, ½, 1).

67 Ejemplo 6.3: Reglas de Despacho (Askin & Standridge)
Covert: Además, recordemos que las holguras para las tareas (1, 2, 3, 4) son: (8, 5, -2, 7). Así, los costos por demora para las tareas (1, 2, 3, 4) son: (0, 0, 1, 0). Con lo cual las medidas Covert para las tareas (1, 2, 3, 4) son: (0, 0, ½, 0). Mayor costo implica mayor prioridad. Así la tarea 3 va primero, y las restantes tareas le siguen. Una secuencia posible es {3, 1, 2, 4}.

68 Ejemplo 6.3: Reglas de Despacho (Askin & Standridge)
LTWK: Los tiempos totales de procesamiento de las tareas (1, 2, 3, 4) son: (12, 10, 7, 14). Luego ordenamos las tareas, de forma creciente por tiempo total de procesamiento, y así la secuencia que se obtiene es: {3, 2, 1, 4}. LWKR: Los tiempos de procesamiento remanentes de las tareas (1, 2, 3, 4) son: (12, 5, 2, 8). Luego, ordenando de forma creciente estos tiempos, la secuencia resultante es {3, 2, 4, 1}.

69 Ejemplo 6.3: Reglas de Despacho (Askin & Standridge)
MOPNR: Las operaciones remanentes para las tareas (1, 2, 3, 4) son: (3, 2, 1, 2). Luego, ordenando las tareas, de forma decreciente por operaciones remanentes, la secuencia es: {1, 2, 4, 3}. MWKR: Los tiempos de procesamiento remanentes de las tareas (1, 2, 3, 4) son: (12, 5, 2, 8). Luego, ordenando de forma decreciente estos tiempos, la secuencia resultante de las tareas es {1, 4, 2, 3}.

70 Ejemplo 6.3: Reglas de Despacho (Askin & Standridge)
RANDOM: Ordenando las tareas de forma aleatoria se obtiene una secuencia : {3, 1, 2, 4}. WINQ: Se necesita información sobre las colas de las máquinas. Suponga que las colas son de 10 para A y 4 para C, con lo cual el trabajo que se espera en A es mayor que en C. La siguiente operación para cada una de las tareas (1, 2, 3, 4) es (A, C, ---, C). Luego ordenando las tareas, de forma creciente por trabajo en cola siguiente, la secuencia es: {3, 2, 4, 1}.

71 Comparación entre las Reglas de Despacho
Ninguna regla de despacho es siempre la mejor para todos los criterios. La experiencia indica que: La regla menor tiempo de procesamiento (SPT) es generalmente la mejor técnica para minimizar el flujo de trabajo y para minimizar el número medio de trabajos en el sistema. Desventaja Los trabajos de larga duración son continuamente relegados. La prioridad favorece a los trabajos de corta duración. Los clientes pueden no ver bien esto, y deben hacerse ajustes periódicos para que puedan llevarse a cabo los trabajos más largos.

72 Comparación entre las Reglas de Despacho
La regla del primero en llegar, primero en servir (FCFS) no da buenos resultados en la mayor parte de los casos (aunque tampoco son especialmente malos). La fecha de entrega más próxima (EDD) minimiza el retraso máximo, lo que puede ser necesario en el caso de trabajos que tengan una fuerte penalización después de determinada fecha. Por lo general EDD funciona bien si los retrasos constituyen un problema. Ventaja Parece justa a los clientes por lo que resulta importante en los servicios.

73 Índice Crítico (Critical Ratio, CR)
Es una regla de despacho muy similar a la regla Covert vista anteriormente. En este caso, el concepto de costo por demora es cambiado por tiempo remanente (fecha de entrega – fecha actual). Consiste en un índice que se calcula dividiendo el tiempo que falta hasta la fecha de entrega, entre el tiempo de trabajo restante (remanente). Los trabajos con bajos índices tienen prioridad por sobre aquellos con altos índices críticos.

74 Índice Crítico (Critical Ratio, CR)
Es una regla de despacho dinámica y fácil de actualizar. Tiende a funcionar mejor que las reglas FCFS, SPT, EDD, LPT para el criterio del retraso medio de los trabajos. Da prioridad a los trabajos que deben realizarse para mantener el programa al día. CR < 1 → lleva retraso con respecto al programa CR = 1 → el trabajo marcha según lo programado CR > 1 → el trabajo va adelantado al programa y tiene cierta holgura CR = = Fecha de Entrega – Fecha Actual Tiempo de Procesamiento Remanente Tiempo Remanente Trabajo Remanente

75 Ejemplo 6.5: Índice Crítico (Render & Heizer)
Hoy es día 25 en el programa de producción de los laboratorios de Pruebas Médicas Zyco. Se deben realizar 3 trabajos, los cuales se muestran a continuación: Calcule los índices críticos, utilizando la fórmula del CR. Trabajo Fecha de Entrega Solicitada Días de Trabajo Restantes A 30 4 B 28 5 C 27 2

76 Ejemplo 6.5: Índice Crítico (Render & Heizer)
El trabajo B tiene un índice crítico menor que 1, lo que significa que se retrasará a menos que se acelere su proceso. Por ello tiene máxima prioridad. El trabajo C va según el programa, mientras que el trabajo A goza de cierto margen de tiempo. Una vez completado el trabajo B, recalcularíamos los índices críticos para A y C, para determinar si las prioridades han cambiado o no.

77 Índice Crítico (Critical Ratio, CR)
En la mayoría de los sistemas de programación de la producción, la regla del índice crítico puede ayudar a conseguir lo siguiente: Determinar la situación de un trabajo concreto. Establecer una prioridad relativa entre los trabajos bajo un mismo criterio. Relacionar los trabajos contra stock y los contra pedido bajo un mismo criterio. Ajustar las prioridades (y revisar los programas) de forma automática para cambios tanto en la demanda como en el progreso de los trabajos. Realizar un seguimiento dinámico del progreso de los trabajos.

78 Monitorear El tiempo que gasta un operario en cada tarea, los resultados del control de calidad o inspecciones, y la utilización de los recursos deben ser registrados de alguna manera. Para que la información recogida en cada centro de trabajo (o máquina) sea valiosa, ésta debe ser actualizada, exacta y accesible al personal de operaciones. Atendiendo a esta necesidad es que se lleva a cabo esta última etapa.

79 Monitorear El monitoreo recibe la información necesaria y la transforma en varios reportes que son utilizados por operarios y administradores. El avance de los reportes puede ser generado para mostrar el estado de las tareas individuales, la disponibilidad o utilización de ciertos recursos y el rendimiento de operarios individuales o centros de trabajo. Además se pueden generar reportes excepcionales para destacar deficiencias en ciertas áreas, tales como excesos, reprocesamientos, escasez, etc.

80 Monitorear Las principales herramientas que permiten monitorear y controlar el avance de la planificación son: Informes de estado y excepción Conjunto de informes que entregan información sobre: retrabajos, desechos, demoras, uso de las máquinas, etc. Cartas Gantt Muestra tanto las actividades planificadas como las finalizadas en función del tiempo. Control de Entradas/Salidas Monitorea la entrada y salida de cada máquina (centro de trabajo).

81 Informes de Estado y Excepción
Entre principales informes de control se encuentran: Lista de despachos diarios Indica al supervisor las tareas que deben ser ejecutadas, sus prioridades y la duración de cada una de ellas, en cada máquina.

82 Informes de Estado y Excepción
Informe de Demoras Previstas Realizado por el planificador de piso, una o dos veces a la semana, y revisado por el jefe de piso, anticipa serias demoras que podrían afectar al plan maestro.

83 Informes de Estado y Excepción
Informes de Desechos. Informes de Retrabajo. Informes de Resumen de Desempeño. Lista de faltantes.

84 Cartas Gantt Herramienta para monitorear el progreso de la tarea y ver la carga en las máquinas. La carta puede adoptar fundamentalmente dos formas: Carta de programación (progreso) de la tarea. Representa gráficamente el estado actual de cada tarea o actividad en relación con la fecha de término programada. Carta de carga para los centros de trabajo (máquinas). Muestra la carga de trabajo y el tiempo no productivo de cada máquina .

85 Carta de programación para los trabajos en una imprenta
Día 1 Día 2 Día 3 Día 4 Día 5 Día 6 Día 7 Día 8 A B C Mantenimiento Ahora Principio de una actividad Tiempo de la actividad programado concedido Tiempo de no producción Momento en que se revisa el diagrama Fin de una actividad Progreso real del trabajo

86 Cartas Gantt de Programación para una fábrica de autopartes
Inicio de la actividad Fin de la actividad Tiempo no productivo Tiempo programado para la actividad Progreso real Fecha actual Plymouth Ford Pontiac Trabajo 4/20 4/22 4/23 4/24 4/25 4/26 4/21 4/17 4/18 4/19 6

87 Carta Gantt de Carga para los centros de trabajo de una fábrica de lavadoras
Este diagrama indica que los centros de trabajo de metales y pintura se encuentran totalmente cargados durante toda la semana. Los centros de mecánica y electrónica tienen algunos tiempos de paro esparcidos durante toda la semana. El centro de trabajo en metales no está disponible el martes, y el de pintura no está disponible el jueves. Día Centro De Trabajo Lunes Martes Miércoles Jueves Viernes Trabajos de metales Trabajo 349 Trabajo 350 Mecánica Trabajo 408 Electrónica Pintura Trabajo 295 En proceso No programado Centro no disponible

88 Cartas Gantt de Carga para la utilización de los quirófanos en un hospital
10

89 Control de Entradas/Salidas
Es una característica importante de un sistema de planificación y control de la producción. Idealmente nunca el trabajo de entrada a un centro de trabajo debe exceder al trabajo de salida. Si las entradas exceden las salidas, se sobrecargan las instalaciones y se producen retrasos (backlogs), es decir, órdenes recibidas pero no procesadas. La sobrecarga provoca una acumulación de órdenes en la instalación, lo cual conlleva ineficiencia y problemas de calidad. Si los trabajos están llegando a un ritmo inferior al cual se están procesando, se sub-utilizan las instalaciones y los centros de trabajo podrían quedarse sin quehacer.

90 Control de Entradas/Salidas
La sub-utilización de las instalaciones da lugar a capacidad ociosa y desperdicio de recursos. Así, el sistema de Control de Entradas/Salidas identifica condiciones de sobrecarga y de sub-utilización. En resumen, es un Sistema que permite al personal de operaciones gestionar los flujos de trabajo en una instalación, mediante el control del trabajo añadido a un centro de trabajo y su terminado. La siguiente figura es una analogía del proceso de control del taller explicado a través del flujo de agua.

91 Analogía del Flujo de Agua
19- Analogía del Flujo de Agua

92 Ejemplo 6.6: Control de Entradas/Salidas (Render & Heizer)
La figura de la siguiente diapositiva muestra la capacidad planificada del centro de trabajo de fresado DNC, para 5 semanas. La entrada planificada es de 280 horas estándar por semana. La entrada real se aproxima a esa cifra, variando entre 250 y 285. La salida está programada en 320 horas estándar, que es la capacidad supuesta. En el centro de trabajo hay un retraso de 300 horas.

93 Ejemplo 6.6: Control de Entradas/Salidas (Render & Heizer)
Semana que termina 6/6 13/6 20/6 27/6 4/7 11/7 Entradas planeadas 280 Entradas reales 270 250 285 Desviación acumulada -10 -40 -35 Salidas planeadas 320 Salidas reales 270 Desviación acumulada -50 -100 -150 -200 250 de entrada, 270 de salida, implica un cambio de -20 (20 horas estándar de menos trabajo en el centro de trabajo) Cambio acumulado en el retraso* -20 -10 +5 270 de entrada, 270 de salida, implica cambio 0 *Suma de las entradas reales menos suma de las salidas reales = cambio acumulado en el retraso

94 Control de Entradas/Salidas
El control input-output puede hacerse con un sistema de tarjetas ConWiP (Constant Work-in-Process), las cuales: Controlan la cantidad de trabajo que hay en un centro de trabajo. Limitan eficazmente la cantidad de trabajo que hay en el centro de producción. Controlan los plazos de producción y el retraso (número de trabajos aceptados pero no realizados).

95 Control de Entradas/Salidas
Las opciones disponibles para que el personal de operaciones gestione el flujo de trabajo en las instalaciones son: Corregir el rendimiento. Aumentar la capacidad. Aumentar o reducir las entradas del centro de trabajo: Enviando trabajo desde o hacia otros centros de trabajo. Aumentando o disminuyendo la subcontratación. Produciendo menos (o produciendo más).

96 Programación de una sola Máquina
El problema básico de la programación de una sola máquina se caracteriza por las siguientes condiciones: Un grupo de tareas independientes de una sola operación que está disponible para su procesamiento al tiempo cero. El tiempo de preparación de cada tarea se puede incluir en su tiempo de procesamiento debido a que son independientes de la secuencia de las tareas. Los descriptores de las tareas son conocidos de antemano. Una máquina está disponible continuamente y nunca se mantiene ociosa mientras hayan tareas esperando. Cada tarea se procesa hasta su finalización, sin interrupciones.

97 Programación de una sola Máquina
Algunas de las reglas de despacho vistas anteriormente se utilizan para lograr la optimización de ciertas medidas de desempeño. Si el objetivo es minimizar el lapso Cmax (makespan), no es relevante el orden de secuenciación de las tareas, puesto que el lapso siempre será igual a la suma de los tiempos de procesamiento de todas las tareas en la máquina. La regla de despacho SPT permite la optimización de varias medidas de desempeño. Entre ellas se encuentran:

98 Programación de una sola Máquina
Minimización del tiempo de flujo total (y medio). Minimización del retraso y la tardanza total (y medio). Minimización del número promedio de tareas en el sistema. La regla de despacho EDD permite la optimización de las siguientes medidas de desempeño: Minimización del retraso máximo (Lmax). Minimización de la tardanza máxima (Tmax).

99 Programación de una sola Máquina
Si la regla EDD entrega ninguna tarea retrasada, o bien exactamente una, entonces es una secuencia óptima para minimizar el número total de tareas retrasadas (NT). Si la regla EDD entrega más de una tarea retrasada, la secuencia de EDD no puede producir la solución óptima. El algoritmo de Moore-Hodgson entrega una solución óptima para minimizar NT.

100 Minimización del número total de tareas retrasadas (Algoritmo de Moore-Hodgson)
Paso 1: Ordene las tareas según la regla EDD. Paso 2: Encuentre la primera tarea retrasada. Si no existe ninguna vaya al Paso 4. Paso 3: Considere todas las tareas hasta la tarea encontrada en el Paso 2 (incluyéndola). Rechace la tarea con el mayor tiempo de procesamiento. Regrese al Paso 2. Paso 4: Forme una secuencia óptima tomando la secuencia presente y adjuntándole los trabajos rechazados. Adjunte los trabajos rechazados a la secuencia presente en cualquier orden.

101 Ejemplo 6.7: Minimización del número total de tareas retrasadas (Nahmias)
Un taller de máquinas procesa las órdenes a la medida de varios clientes. Una de las máquinas, una esmeriladora, tiene seis tareas a la espera de ser ejecutadas. Aquí se dan los tiempos de procesamiento y las fechas prometidas de entrega (ambos en horas) para las seis tareas. Tarea 1 2 3 4 5 6 Fecha de Entrega 15 9 23 20 30 Tiempo de Procesamiento 10 8

102 Ejemplo 6.7: Minimización del número total de tareas retrasadas (Nahmias)
El taller espera poder entregar las tareas a tiempo, pero en caso de no poder le interesa minimizar el número de tareas retrasadas. Aplicaremos el Algoritmo de Moore-Hodgson para tal fin. El primer paso es secuenciar las tareas según la regla EDD, y luego ver si hay tareas retrasadas. Tarea 2 3 1 5 4 6 Fecha de Entrega 9 15 20 23 30 Tiempo de Procesamiento 10 8 Tiempo de Terminación 7 17 27 35 41

103 Ejemplo 6.7: Minimización del número total de tareas retrasadas (Nahmias)
Paso 2: Vemos que la primera tarea retrasada es la tarea 1, y que hay un total de cuatro tareas retrasadas. Paso 3: Ahora consideramos las tareas 2, 3 y 1, y rechazamos la tarea con el mayor tiempo de procesamiento. Se trata, evidentemente, de la tarea 1. En este momento, la nueva secuencia presente es: Tarea 2 3 5 4 6 Fecha de Entrega 9 20 23 30 Tiempo de Procesamiento 10 8 Tiempo de Terminación 7 17 25 31

104 Ejemplo 6.7: Minimización del número total de tareas retrasadas (Nahmias)
Paso 2: Ahora la primera tarea retrasada es la tarea 4. Paso 3: Ahora consideramos las tareas 2, 3, 5 y 4, y rechazamos la tarea con el mayor tiempo de procesamiento. Se trata, en este caso, de la tarea 5. La secuencia presente en este momento es: Tarea 2 3 4 6 Fecha de Entrega 9 23 30 Tiempo de Procesamiento 8 Tiempo de Terminación 7 15 21

105 Ejemplo 6.7: Minimización del número total de tareas retrasadas (Nahmias)
Es evidente que en esta secuencia no hay tareas retrasadas. Así, la secuencia óptima es {2, 3, 4, 6, 5, 1} o bien {2, 3, 4, 6, 1, 5}. En cualquiera de las dos secuencias anteriores la cantidad de tareas retrasadas es exactamente 2.

106 Talleres de Producción Continua
En este tipo de talleres (flow shop), hay N tareas, cada una de las cuales requiere del procesamiento en M diferentes máquinas. El orden en que las máquinas requieren procesar a una tarea se llama secuencia de proceso de esa tarea. Las secuencias de proceso de todas las tareas son las mismas. Sin embargo, los tiempos de procesamiento para varias tareas en una máquina pueden ser diferentes. Una programación en este tipo de talleres es conocida como Programación Permutable.

107 Talleres de Producción Continua
Si una operación está ausente en una tarea, entonces el tiempo de procesamiento de la operación de esa tarea se asume como cero. El problema de programación en los talleres de producción continua puede ser caracterizado de la siguiente forma: Un conjunto de tareas de múltiple-operación está disponible para su procesamiento en tiempo cero (cada tarea requiere de M operaciones y cada operación requiere de una máquina diferente).

108 Talleres de Producción Continua
El tiempo de preparación para las operaciones son independientes de la secuencia, y se incluyen en los tiempos de procesamiento. Los descriptores de la tarea se conocen de antemano. M máquinas diferentes están disponibles continuamente. Cada operación individual de las tareas es procesada hasta su finalización, sin interrupciones. De N!M secuencias posibles sólo debemos considerar N!. Sin embargo N! sigue siendo un número grande.

109 Talleres de Producción Continua
La principal diferencia entre la programación de los Talleres de Producción Continua y la programación de una sola máquina es que el tiempo ocioso insertado puede ser ventajoso en la programación de Talleres de Producción Continua. Aunque la máquina actual esté libre, si la tarea de la máquina anterior no ha sido liberada hacia la máquina actual, no podemos comenzar a procesar esa tarea. Por lo tanto, la máquina actual tiene que estar ociosa por algún tiempo. Así, el tiempo ocioso insertado en algunas máquinas llevaría a la optimalidad.

110 Ejemplo 6.8: Taller de Producción Continua (Askin & Standridge)
Considere el siguiente conjunto de tareas cuyos tiempos de procesamiento se muestran a continuación. Genere una programación asumiendo que las tareas son procesadas en el orden {2, 4, 1, 3}. Máquinas Tareas 1 2 3 4 20 35 15 45 30 25 10 50 5 40

111 Ejemplo 6.8: Taller de Producción Continua (Askin & Standridge)
La tarea 2 se procesa en la máquina 1 en el tiempo 0. Como p21 = 45, termina en 45, y el resto espera. Al tiempo 45 la tarea 2 empieza a procesarse en la máquina 2 y la máquina 1 comienza a procesar la tarea 4. La máquina 2 finaliza la tarea 2 p22 = 30 unidades de tiempo más tarde, es decir al tiempo 75. En ese momento la máquina 1 aún está procesando la tarea 4, por lo cual la tarea 2 comienza a procesarse en la máquina 3, y la máquina 2 queda ociosa hasta el tiempo 85.

112 Ejemplo 6.8: Taller de Producción Continua (Askin & Standridge)
El resto de la programación se muestra a continuación. Observe que el lapso obtenido es de 210, ¿será posible mejorar esta medida?

113 Cota Inferior del Lapso (Makespan)
Para saber si el lapso obtenido es óptimo, se puede comparar con una cota inferior, la cual nos entrega el menor lapso posible teóricamente hablando. Cada máquina entrega una cota inferior. El lapso debe ajustar: La demora antes que la máquina pueda comenzar el procesamiento; El tiempo total de procesamiento en la máquina, y El tiempo de procesamiento restante para la última tarea que deje máquina.

114 Cota Inferior del Lapso (Makespan)
Así, la cota inferior basada en la máquina j es: Los tres términos en esta ecuación corresponden a la cota inferior sobre cuándo la máquina j puede comenzar, el tiempo de procesamiento de todas las tareas en la máquina j, y una cota inferior sobre qué tan pronto la máquina j debe finalizar antes del término de la programación. Dado que cada máquina provee una cota inferior válida, la mayor de ellas es también una cota inferior.

115 Ejemplo 6.9: Cota Inferior del Lapso (Askin & Standridge)
Encuentre la cota inferior del lapso para el ejemplo 6.8 de taller de producción continua. Para la máquina 1, la cota inferior es: LB1 = 0 + { } + min{ , , , } = min{70, 65, 70, 40} ⇒ LB1 = 160. Para la máquina 2, la cota inferior es: LB2 = min{20, 45, 15, 40} + { } + min{35, 35, 55, 30} ⇒ LB2 = 135.

116 Ejemplo 6.9: Cota Inferior del Lapso (Askin & Standridge)
Para la máquina 3, la cota inferior es: LB3 = min{55, 75, 30, 50} + { } + min{20, 10, 5, 5} ⇒ LB3 = 150. Para la máquina 4, la cota inferior es: LB4 = min{70, 100, 80, 75} + { } + 0 = 110. Así la mayor cota inferior para el lapso es 160. No se sabe si puede obtenerse, pero posiblemente sea mejorable el valor 210 obtenido anteriormente. Mirando la ecuación LB1, vemos que este valor se obtiene al poner al último la tarea 4.

117 Ejemplo 6.9: Cota Inferior del Lapso (Askin & Standridge)
Una forma de obtener un buen lapso (quizás más cercano a 160) es poner la tarea con menor tiempo de procesamiento en la máquina 1 al comienzo, y la tarea con menor tiempo de procesamiento total para las siguientes máquinas al final. Procediendo de esta forma, una secuencia a probar es {3, 2, 1, 4}. El programa que se obtiene es el siguiente:

118 Ejemplo 6.9: Cota Inferior del Lapso (Askin & Standridge)
El lapso que se obtiene ahora es 170. Un valor mucho mejor, y cercano al óptimo teórico de 160. Observe que de las 4! = 24 secuencias posibles de las 4 tareas, sólo hemos probado 2, por lo cual quizás sea posible aún encontrar una programación con lapso de sólo 160 en las 22 secuencias aún no exploradas, pero no lo sabemos de antemano.

119 Regla de Johnson En 1954 Johnson presentó dos procedimientos para minimizar el lapso en un Taller de Producción Continua cuando hay M = 2 y M = 3 máquinas, es decir, procedimientos para encontrar soluciones óptimas para el lapso. La lógica general de esta regla para M = 2 se describe a continuación: Las tareas con bajos tiempos de procesamientos en la máquina 1 deben ir al comienzo de la programación. Las tareas con bajos tiempos de procesamiento en la máquina 2 deben ir al final de la programación.

120 Regla de Johnson Paso 1: Seleccione la tarea con el mínimo tiempo de procesamiento en cualquiera de las dos máquinas. Paso 2: Si el menor tiempo de procesamiento de la tarea seleccionada se encuentra en la máquina 1, programe la tarea tan pronto como sea posible; pero si se encuentra en la máquina 2 programe la tarea tan tarde como sea posible. Elimine la tarea seleccionada de las tareas disponibles y vuelva al Paso 1.

121 Ejemplo 6.9: Regla de Johnson (Slack, Chambers & Johnston)
Una imprenta debe imprimir y encuadernar seis libros. Los tiempos para el procesamiento de cada libro en cada centro de trabajo (primero impresión y luego encuadernación) se muestran en la siguiente figura.

122 Ejemplo 6.9: Regla de Johnson (Slack, Chambers & Johnston)
En primer lugar se busca el mínimo tiempo de procesamiento. En este caso, el menor tiempo de procesamiento es de 35 minutos para el libro B, en el centro de impresión. Debido a que este es el primer proceso (impresión), el libro B se asigna a la primera posición del calendario. El siguiente tiempo de procesamiento más pequeño es 40 minutos para encuadernación (libro D).

123 Ejemplo 6.9: Regla de Johnson (Slack, Chambers & Johnston)
Debido a que este es el segundo proceso (encuadernación), se asigna al final. El siguiente tiempo de procesamiento más bajo, una vez programados los libros B y D, es 46 minutos para el libro A. Debido a que éste se encuentra en el centro de encuadernación, se programa tan tarde como sea posible, que en este caso sería en quinto lugar. Este proceso continúa hasta que los libros han sido secuenciados.

124 Ejemplo 6.9: Regla de Johnson (Slack, Chambers & Johnston)
El programa resultante para el procesamiento de los seis libros se muestra a continuación:

125 Ejemplo 6.10: Regla de Johnson (Render & Heizer)
En un taller de herramientas y moldes, se deben procesar 5 trabajos determinados a través de dos centros de trabajo (taladrado y torneado). El tiempo para procesar cada trabajo se muestra a continuación.

126 Ejemplo 6.10: Regla de Johnson (Render & Heizer)
Se desea establecer la secuencia que minimizará el tiempo de término del conjunto de 5 trabajos. El trabajo con el tiempo de proceso más pequeño es A, en el centro de trabajo 2 (con un tiempo de 2 horas) Como está en el segundo centro se programa al último. Se elimina de la lista.

127 Ejemplo 6.10: Regla de Johnson (Render & Heizer)
El trabajo B tiene el siguiente tiempo más corto (3 horas) Como está en el primer centro de trabajo, se programa primero y se elimina.

128 Ejemplo 6.10: Regla de Johnson (Render & Heizer)
El siguiente tiempo más corto corresponde al trabajo C (4 horas) en la segunda máquina. Por lo tanto se coloca lo más tarde posible, en penúltimo lugar.

129 Ejemplo 6.10: Regla de Johnson (Render & Heizer)
Existe un empate (de 7 horas) para el trabajo más corto entre los restantes. Se puede colocar primero el trabajo E, que estaba en el primer centro de trabajo, en la segunda posición de la secuencia. A continuación , se coloca D en la última posición que queda en la secuencia, la antepenúltima.

130 Ejemplo 6.10: Regla de Johnson (Render & Heizer)
Los tiempos de proceso en la secuenciación son: El flujo situado en el tiempo de esta secuencia de trabajos se muestra mejor gráficamente. Centro de trabajo 1 3 7 10 8 5 Centro de trabajo 2 6 12 4 2 D C A Tiempo 3 10 20 28 33 35 31 29 27 25 23 22 21 19 17 13 12 11 9 7 5 1 Centro de trabajo 1 B E Centro de trabajo 2 D C A Inactivo Trabajo terminado B E D C A

131 Extensión de la Regla de Johnson para M = 3
Para poder extender la regla de Johnson para M = 3 máquinas, se debe cumplir cualquiera de las siguientes condiciones: min pi1 ≥ max pi2. min pi3 ≥ max pi2. Luego la secuencia óptima es encontrada desde las pseudo máquinas a({1, 2}) y b({2, 3}), cuyos tiempos de procesamiento son: pia = pi1 + pi2. pib = pi2 + pi3.

132 Ejemplo 6.10: Extensión de la Regla de Johnson para M = 3 (Kumar & Suresh)
Considere el siguiente problema de taller de producción continua de M = 3 máquinas y N = 5 tareas. Encuentre la secuencia que minimiza el lapso. Máquinas Tareas 1 2 3 8 5 4 10 6 9 7 11

133 Ejemplo 6.10: Extensión de la Regla de Johnson para M = 3 (Kumar & Suresh)
En primer lugar notamos que min pi1 = 6 ≥ max pi2 = 6, por lo cual es aplicable la extensión de la regla de Johnson. Así creamos ahora las dos pseudo máquinas: Máquinas Tareas A B 1 13 9 2 16 15 3 8 10 4 5

134 Ejemplo 6.10: Extensión de la Regla de Johnson para M = 3 (Kumar & Suresh)
Luego se resuelve el problema tal como un problema de M = 2 máquinas con la regla de Johnson. Así la secuencia óptima que se obtiene es: {3, 2, 5, 1, 4}. Con esta secuencia se obtiene un lapso de 51.

135 Heurística CDS Campbell, Dudek y Smith (CDS) en 1970 propusieron una nueva extensión de la regla de Johnson para minimizar el lapso para un Taller de Producción Continua con M > 3 máquinas. Este procedimiento es una heurística, y por ende no asegura optimalidad, si no que simplemente una “buena solución”. La heurística consiste en resolver M – 1 problemas de dos máquinas generales y seleccionar la mejor secuencia.

136 Heurística CDS Los M – 1 problemas se construyen a partir de la formación de los grupos: {1}, {M} {1, 2}, {M – 1, M} {1, 2, 3}, {M – 2, M – 1, M} {1, 2, 3, …, M – 1}, {2, 3, …, M}

137 Ejemplo 6.11: Heurística CDS (Askin & Standridge)
Considere el problema de Taller de Producción Continua de 4 máquinas que se muestra a continuación. Encuentre una secuencia que entregue un bajo lapso, usando la heurística CDS. Máquinas Tareas 1 2 3 4 5 6 9 8 7

138 Ejemplo 6.11: Heurística CDS (Askin & Standridge)
Debemos resolver tres problemas de dos máquinas diferentes. El primer problema usa sólo las máquinas 1 y 4. El segundo problema combina los tiempos de procesamiento de las máquinas 1 con la 2 y 3 con la 4. El tercer problema combina 1, 2 y 3 para la primera pseudo máquina y 2, 3 y 4 para la segunda. Los tiempos de procesamiento resultantes se muestran a continuación.

139 Ejemplo 6.11: Heurística CDS (Askin & Standridge)
Combinaciones de Máquinas Tareas 1 4 1, 2 3, 4 1, 2, 3 2, 3, 4 2 5 6 9 15 12 17 3 13 7 14 10 Las secuencias generadas por la regla de Johnson para los tres problemas de dos pseudo máquinas son: S1 = {3, 1, 2, 5, 4}, S2 = {1, 3, 2, 5, 4} y S3 = {1, 5, 2, 3, 4}. Las programaciones se muestran a continuación.

140 Ejemplo 6.11: Heurística CDS (Askin & Standridge)

141 Ejemplo 6.11: Heurística CDS (Askin & Standridge)
El mejor lapso encontrado es 34, y se produjo al procesar las tareas en el orden {1, 5, 2, 3, 4}. Al parecer es una muy buena solución, puesto que la máquina 4 empieza a procesar las tareas pronto, y además no termina mucho después de la máquina 3. Además no se observan muchos tiempos ociosos en las máquinas, lo cual implica una alta utilización de las máquinas. Con la información que disponemos hasta el momento, no sabemos si esta medida se puede mejorar.

142 Heurística P En 1965 Palmer propuso una heurística para minimizar el lapso. Esta heurística se basa en el cálculo de una pendiente, y el objetivo es darle prioridad a las tareas que tengan mayor tendencia al progreso en un corto tiempo que en un largo tiempo en la secuencia de las operaciones. Las pendientes para cada tarea se calculan según: La programación se construye secuenciando las tareas en orden no creciente de sus pendientes.

143 Ejemplo 6.12: Heurística P (Askin & Goldberg)
Considere el problema de Taller de Producción Continua de 4 máquinas que se muestra a continuación. Encuentre una secuencia que entregue un bajo lapso, utilizando la heurística P. Máquinas Tareas 1 2 3 4 6 9 12 5 15

144 Ejemplo 6.12: Heurística P (Askin & Goldberg)
En primer lugar, debemos calcular la pendiente para cada tarea según la fórmula: Así los valores de las pendientes que se obtienen son: s1 = 30, s2 = -15, s3 = 3, s4 = -3 y s5 = 9. Finalmente, ordenando las tareas de forma no creciente, la secuencia que se obtiene es {1, 5, 3, 4, 2}. La programación se muestra en la siguiente carta Gantt.

145 Ejemplo 6.12: Heurística P (Askin & Goldberg)
El lapso obtenido es de 69. Mientras no calculemos la cota inferior del lapso, o bien probemos otras secuencias (hay 5! – 1 = secuencias no exploradas aún) no sabremos si podemos mejorar esta medida.

146 Heurística NEH Nawaz, Enscore y Ham (NEH) en 1983 propusieron una nueva heurística para minimizar el lapso en una programación de un Taller de Producción Continua para M > 3 máquinas. El algoritmo está basado en el supuesto que una tarea con un alto tiempo total de procesamiento en todas las máquinas debe tener una mayor prioridad que una tarea con bajo tiempo total de procesamiento. Este algoritmo no transforma el problema (como la heurística CDS) si no que construye la secuencia final de manera constructiva, agregando tareas en cada paso.

147 Heurística NEH Paso 1: Ordenar las N tareas en forma no creciente de acuerdo al tiempo total de procesamiento de cada una en las máquinas (equivalente a usar la regla LPT). Paso 2: Tomar las dos primeras tareas y calendarizarlas de manera que se minimice el lapso de la programación. Paso 3: Para las siguientes tareas aún no programadas probar todas las inserciones posibles de la siguiente tarea en la secuencia, de forma tal que se minimice el lapso. Continúe hasta que no queden tareas sin programar.

148 Ejemplo 6.13: Heurística NEH (Askin & Goldberg)
Considere el problema de Taller de Producción Continua de 4 máquinas que se muestra a continuación. Encuentre una secuencia que entregue un bajo lapso, utilizando la heurística NEH. Máquinas Tareas 1 2 3 4 6 9 12 5 15

149 Ejemplo 6.13: Heurística NEH (Askin & Goldberg)
En primer lugar se deben calcular los tiempos de procesamientos totales de cada tarea. Los tiempos totales de procesamiento para las tareas {1, 2, 3, 4, 5} son {30, 33, 33, 27, 33}. Así ordenando las tareas según la regla LPT, tenemos la secuencia de procesamiento para las tareas: {2, 3, 5, 1, 4}. Los empates se rompen arbitrariamente por lo cual las tareas 2, 3 y 5 pueden ordenarse de forma diferente.

150 Ejemplo 6.13: Heurística NEH (Askin & Goldberg)
Debemos probar las secuencias {2, 3} y {3, 2} y determinar con cuál se obtiene el mejor lapso.

151 Ejemplo 6.13: Heurística NEH (Askin & Goldberg)
La secuencia {3, 2} tiene menor lapso (42). La siguiente tarea en la secuencia es la 5. Las secuencias posibles que se pueden formar al insertar ésta son: {5, 3, 2}, {3, 5, 2} ó {3, 2, 5}.

152 Ejemplo 6.13: Heurística NEH (Askin & Goldberg)
Así, la secuencia {5, 3, 2} tiene el menor lapso (54).

153 Ejemplo 6.13: Heurística NEH (Askin & Goldberg)
Así, la secuencia {5, 3, 2} tiene el menor lapso (54). Ahora debemos programar la tarea 1. Las posibles secuencias son: {1, 5, 3, 2}, {5, 1, 3, 2}, {5, 3, 1, 2} y {5, 3, 2, 1}. Probando cada una de las secuencias anteriores se obtienen los siguientes valores para el lapso: 60, 63, 66 y 69. Así la mejor secuencia parcial es {1, 5, 3, 2}. Finalmente debemos agregar la tarea 4.

154 Ejemplo 6.13: Heurística NEH (Askin & Goldberg)
Las posibles secuencias son: {4, 1, 5, 3, 2}, {1, 4, 5, 3, 2}, {1, 5, 4, 3, 2}, {1, 5, 3, 4, 2} y {1, 5, 3, 2, 4}. Probando cada una de las secuencias anteriores se obtienen los siguientes valores para el lapso: 72, 69, 69, 69 y 69. Así la mejor secuencia final es cualquiera de las anteriores que entrega un lapso de 69. En la siguiente diapositiva se muestra la programación (Carta Gantt) de la secuencia {1, 5, 3, 2, 4}.

155 Ejemplo 6.13: Heurística NEH (Askin & Goldberg)
La experiencia ha demostrado que la Heurística NEH es la que mejor se desempeña tanto para problemas de tamaño pequeño (N = 3 – 9, M = 4 – 20) como de tamaño medio (N =15 – 30, M = 4 – 20), y la siguiente mejor heurística es la CDS.


Descargar ppt "Definición de Programación de Operaciones"

Presentaciones similares


Anuncios Google