Azly Santos Amorim de Santana

Livre

0
1
104
1 year ago
Preview
Full text

  

Universidade Federal da Bahia

Instituto de Matem´ atica

Curso de P´ os-graduac ¸˜ ao em Matem´ atica

  

Dissertac ¸˜ ao de Mestrado

M´ etodo de Decomposic ¸˜ ao de Dantzig-Wolfe aplicado ao

problema combinat´ orio de Job-Shop

  Azly Santos Amorim de Santana

  Salvador-Bahia Outubro 2003

  

M´ etodo de Decomposic ¸˜ ao de Dantzig-Wolfe aplicado ao

problema combinat´ orio de Job-Shop.

  Disserta¸c˜ ao apresentada ao colegiado do curso de P´os-Gradua¸c˜ ao em Matem´atica da Universidade Federal da Bahia, como requisito parcial para obten¸c˜ ao do T´ıtulo de Mestre em Matem´atica Pura.

  Banca examinadora Profa. Dra Isamara Carvalho Alves (Orientadora).

  Prof. Dr. Isaac Costa L´azaro Prof. Dr. J´es de Jesus Fiais Cerqueira Santana, A. “M´ etodo de Decomposic ¸˜ ao de Dantzig-Wolfe aplicado ao prob- lema combinat´ orio de Job-shop ” / Azly Santos Amorim de Santana.

  Salvador-Ba, 2003. Orientadora: Dra. Isamara Carvalho Alves (Universidade Federal da Bahia).

  Disserta¸c˜ ao de Mestrado apresentada ao curso de P´os-graduac˜ ao em Matem´ atica da UFBA, 91 p´aginas.

  Palavras-Chave:M´etodos de Decomposi¸c˜ ao, Decomposi¸c˜ ao de Problemas Combinat´orios, M´etodo de Decomposi¸c˜ ao de Dantzig-Wolfe, Problemas de

  A Deus, meus Pais e Mˆ o.

  “Vocˆ e ´ e do tamanho do seus sonhos.” C´esar Souza. Agradecimentos

  Nesta etapa da vida, algumas pessoas contribu´ıram para o meu crescimento profissional e espiritual. Agrade¸co com carinho aos meus pais pela incondicional credibilidade e apoio em todas as minhas decis˜oes. A “Mˆo” pela confian¸ca, paciˆencia e amor. A Ana Rita e Simone por me fazer entender o verdadeiro conceito de amizade. Aos meus primeiros e eternos amigos acadˆemicos Adriana (Di), Ana Paula (Paulinha), Ab´ılio (Bilol˜ao), Gilson (Ligeirinho), Luciano (Neg˜ao), Moema (M´o), Osvaldo (Junico) e Rog´erio (Mancha). Agrade¸co com muitas saudades os momentos de apoio e divers˜ ao aos queridos companheiros, Adriano (Didi), Alex (Pig), Andr´ea (D´ea), Ariadne, Calit´eia (Baixinha), Concei¸c˜ ao (Cei¸ca), Cla´ udio (Mano), ´erica (Kinha), Gilmar (Tchˆe), Ivana (Moc´o), Ismar (Dindo), Jorge (Gump), Jos´e Joaquim, Juceli (J´ u), Laura (Gospel), Maur´ıcio (Tio Mau), Odete (Amanda), Paulo (Nasci), Reinaldo (Amigo), Rosely (Rosy), Stela (Pr´o), Rui. Aos professores Bahiano, Enaldo, Elinalva, Isaac, Marco Antonio, pelo profissionalismo e car´ater, ao professor J´es pela disponibilidade e sugest˜ oes e, em especial, a Isamara pela credibilidade e dedicada orienta¸c˜ ao. Finalmente, `a secret´aria Tˆ ania por ter sido sempre t˜ao prestativa e a grande amiga C´ıntia L´e que tanto torceu por este t´ıtulo de mestre. Resumo

  Neste trabalho, ´e abordado o m´etodo de decomposi¸c˜ ao de Dantzig-Wolfe aplicado ao prob- lema de seq¨ uenciamento do tipo job-shop. Este problema tem como caracter´ıstica principal sua com- plexidade computacional na categoria de um problema NP-dif´ıcil(Jonhson[16] e Zwaneveld[35]). Tais problemas est˜ao sujeitos a um conjunto de restri¸c˜ oes envolvendo as opera¸c˜ oes nos produtos e nas m´ aquinas, cujo objetivo ´e diminuir o custo de produ¸c˜ ao. A metodologia aplicada consiste em decom- por o problema de job-shop em blocos (i ´e, subproblemas), reduzindo um grande volume de c´alculo central por c´alculos locais. Estes subproblemas s˜ao resolvidos separadamente e as suas solu¸c˜ oes s˜ao supervisionadas por um n´ıvel coordenador denominado Problema Mestre. Desta forma, o Problema Mestre gerencia as solu¸c˜ oes fazendo com que as combina¸c˜ oes convexas destas gerem a solu¸c˜ ao do problema global.

  Sendo assim, a partir do problema de job-shop, podemos formular o Problema Mestre e os sub- problemas correspondentes. Cada subproblema ´e associado ao conjunto de restri¸c˜ oes de uma m´aquina e ao Problema Mestre est´a associado as restri¸c˜ oes de acoplamento representadas pelas restri¸c˜ oes de precedˆencia nos produtos. Contudo, ocorre que o conjunto de solu¸c˜ oes vi´aveis de cada subproblema

  ´e ilimitado e pode acontecer infactibilidade. Conseq¨ uentemente, propomos algumas modifica¸c˜ oes que permitem a aplicabilidade do m´etodo aos problemas de seq¨ uenciamento do tipo job-shop. Os resul- tados encontrados por meio de testes num´ericos em problemas de pequeno porte mostraram que a convergˆencia do m´etodo ´e poss´ıvel, desde que sejam adotados limites adequados para as vari´aveis do problema.

  PALAVRAS CHAVE: M´etodos de Decomposi¸c˜ ao,Decomposi¸c˜ ao de Problemas Combi- nat´orios, M´etodo de Decomposi¸c˜ ao de Dantzig-Wolfe, Problemas de Seq¨ uenciamento do tipo Job-Shop. Abstract

  This work, address the Dantzig-Wolfe decomposition method applied in job-shop schedul- ing problems. These problems are well known as NP-hard in the strong sense (Johnson [16] and Zwaneveld [35]) constrained by capacity and precedence constraints, whose objective is decreasing the manufacturing cost. The use of this method is justified by the block angular structure of the technological coefficients matrices. Hence, the applied methodology decomposes the original problem into blocks (subproblems) supervisioned by a coordinator level (master problem) decreasing a large volume of central calculus by several local calculus. These subproblems receive a set of parameters from the master problem and their solutions are sent to the master problem, which combines these with previous solutions in the optimal way and computes new prices.

  From the job-shop problem, the master problem can be modelled considering link constraints the precedence constraints and the each subproblem is associated with one machine. However, the viable solution set of each subproblem is unbounded and the method may converge to an unfeasible solution. Consequently, we propose an modification which will allow us the applicability of this method in the job-shop problem. The results obtained from numeric tests of lower dimensions showed us that the convergence of the method is possible since adequate limit are adopted is possible since adequate limits are adopted.

  KEY-WORDS: Decomposition Methods, Dantzig-Wolfe Decomposition Method,Job-Shop Scheduling Problems. Sum´ ario

  Resumo vii

  19 1.8 Exemplo num´erico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  37 3.1 Decomposi¸c˜ ao do Job-Shop . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  3 M´ etodo de Dantzig-Wolfe e o Problema de Job-Shop

  34

  33 2.2.2 M´etodos de Resolu¸c˜ ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  29 2.2.1 Formula¸c˜ ao Matem´atica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  29 2.2 O Problema de Job-Shop . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  28 2.1.2 As m´aquinas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  28 2.1.1 Os produtos e os crit´erios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  2 Os Problemas de Job-Shop 27 2.1 Os problemas de f´abrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  19

  17 1.7 Interpreta¸c˜ ao econˆomica do m´etodo . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  Abstract viii

  14 1.6 Limite inferior para o custo m´ınimo . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  12 1.5 Regi˜ao X i ilimitada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  12 1.4 Estrat´egia alternativa para decompor o primal . . . . . . . . . . . . . . . . . . . . . .

  11 1.3 Problema Mestre Restrito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  5 1.2 Algumas considera¸c˜ oes sobre o algoritmo de Dantzig-Wolfe . . . . . . . . . . . . . . .

  1 M´ etodo de Decomposi¸ c˜ ao de Dantizg-Wolfe 3 1.1 Princ´ıpio da Decomposi¸c˜ ao de Dantzig-Wolfe . . . . . . . . . . . . . . . . . . . . . . .

  1

  Introdu¸ c˜ ao

  Lista de Tabelas xiii

  Lista de Figuras xi

  37

3.1.1 Modelagem Matem´atica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  37 3.1.2 M´etodo de Dantizg-Wolfe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  38 3.1.3 Aplica¸c˜ ao do m´etodo de Dantzig-Wolfe ao Job-Shop . . . . . . . . . . . . . . .

  40 3.1.4 Regi˜ao X k ilimitada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  44 3.2 Problemas Testes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  46 3.2.1 Problema Teste 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  46 3.2.2 Problema Teste 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  65 Conclus˜ ao

  81 Apˆ endice

  83 Referˆ encias Bibliogr´ aficas

  86 ´

  Indice Remissivo

  89 Lista de Figuras 1.1 Comportamento dos m´etodos de decomposi¸c˜ ao. . . . . . . . . . . . . . . . . . . . . . .

  3 1.2 Estrutura bloco-angular com restri¸c˜ oes de acoplamento. . . . . . . . . . . . . . . . . .

  32

  79 A.5 Dire¸c˜ oes e dire¸c˜ oes extremas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  79 3.4 Diagrama de Gantt representando as solu¸c˜ oes encontradas do problema teste 2. . . . .

  64 3.3 Convergˆencia do m´etodo do problema teste 2. . . . . . . . . . . . . . . . . . . . . . . .

  64 3.2 Diagrama de Gantt representando as solu¸c˜ oes encontradas do problema teste 1. . . . .

  33 3.1 Convergˆencia do m´etodo do problema teste 1. . . . . . . . . . . . . . . . . . . . . . . .

  2 para o exemplo do job-shop. . . . . . . . . . . . . . . .

  2.3 Grafo conjuntivo da solu¸c˜ ao S

  32 2.2 Diagrama de Gantt representando duas solu¸c˜ oes para o exemplo do job-shop. . . . . .

  5 1.3 Estrutura bloco-angular com vari´aveis de acoplamento. . . . . . . . . . . . . . . . . . .

  20 2.1 Grafo potencial-tarefa representando o exemplo do job-shop. . . . . . . . . . . . . . . .

  2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  1.6 Regi˜ao fact´ıvel do conjunto X

  20

  1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  1.5 Regi˜ao fact´ıvel do conjunto X

  5

  5 1.4 Estrutura bloco-angular com restri¸c˜ oes e vari´aveis de acoplamento. . . . . . . . . . . .

  85 Lista de Tabelas 1.1 Tabela do M´etodo Simplex Revisado referente ao problema mestre. . . . . . . . . . . .

  15 1.2 Tabela inicial do simplex revisado do problema mestre. . . . . . . . . . . . . . . . . . .

  3.9 Entra na base a vari´avel λ

  3.5 Entra na base a vari´avel λ

  32

  , sai s

  2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  54 3.6 Tabela final na itera¸c˜ ao 1 do problema teste 1. . . . . . . . . . . . . . . . . . . . . . .

  55

  3.7 Entra na base a vari´avel λ

  33

  , sai λ

  32 . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  58 3.8 Tabela final na itera¸c˜ ao 2 do problema teste 1. . . . . . . . . . . . . . . . . . . . . . .

  58

  34

  4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  , sai λ

  33 . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  60 3.10 Tabela final da itera¸c˜ ao 3 do problema teste 1. . . . . . . . . . . . . . . . . . . . . . .

  61 3.11 Limites por itera¸c˜ ao do problema teste 1. . . . . . . . . . . . . . . . . . . . . . . . . .

  63 3.12 Compara¸c˜ ao das solu¸c˜ oes do problema teste 1. . . . . . . . . . . . . . . . . . . . . . .

  63 3.13 Dados do problema teste 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  65 3.14 Tabela inicial do simplex revisado do P.M do problema teste 2. . . . . . . . . . . . . .

  71

  3.15 Entra λ

  32

  , sai s

  2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  54

  , sai s

  21

  23 1.5 Solu¸c˜ ao ´otima do exemplo 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  1.3 Entra na base a vari´avel λ

  2

  2

  , sai λ

  1

  2 .

  . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  23

  1.4 Entra na base a vari´avel λ

  2

  1

  , sai s. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  23

  22

  1.6 Entra λ

  3

  1

  e sai λ

  1

  1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  24 1.7 Solu¸c˜ ao ´otima do exemplo 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  25 2.1 Dados do problema-exemplo de job-shop. . . . . . . . . . . . . . . . . . . . . . . . . .

  31 3.1 Tabela do simplex revisado do problema mestre. . . . . . . . . . . . . . . . . . . . . .

  45 3.2 Dados do problema teste 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  47 3.3 Tabela inicial do simplex revisado do P.M do problema teste 1. . . . . . . . . . . . . .

  52

  3.4 Entra na base a vari´avel λ

  74

  3.17 Entra λ

  22

  , sai s

  1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  74 3.18 Tabela final na itera¸c˜ ao 1 do problema teste 2. . . . . . . . . . . . . . . . . . . . . . .

  75

  3.19 Entra λ

  23

  ,sai λ

  22 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  76 3.20 Tabela final na itera¸c˜ ao 2 do problema teste 2. . . . . . . . . . . . . . . . . . . . . . .

  76 3.21 Limites por itera¸c˜ ao do problema teste 2. . . . . . . . . . . . . . . . . . . . . . . . . .

  78 3.22 Compara¸c˜ ao das solu¸c˜ oes do problema teste 2. . . . . . . . . . . . . . . . . . . . . . .

  78 Introdu¸ c˜ ao

  Em geral os m´etodos de decomposi¸c˜ ao consistem em decompor um problema inicial de grande porte em problemas com dimens˜oes menores, denominados subproblemas (ou problemas escravos). Tais subproblemas s˜ao supervisionados por um n´ıvel de coordena¸c˜ ao denominado Problema Mestre (ou

  

problema coordenador). O procedimento consiste de um conjunto de subproblemas independentes cuja

  fun¸c˜ ao objetivo e/ou vetor dos recursos (composta dos multiplicadores simplex do problema mestre) s˜ao atualizados a cada ITERAC ¸ ˜ AO de acordo com os parˆametros recebidos do problema coordenador. Assim, a cada ITERAC ¸ ˜ AO, os subproblemas s˜ao resolvidos separadamente e, em seguida, enviam suas solu¸c˜ oes ao Problema Mestre.Esta troca de informa¸c˜ oes entre o Problema Mestre e os subproblemas

  ´e realizada em um n´ umero finito de itera¸c˜ oes, garantindo a convergˆencia para o valor ´otimo, ou um sub-´otimo, do problema global. Dentre os principais m´etodos de decomposi¸c˜ ao podemos citar: as t´ecnicas da Relaxa¸c˜ ao Lagrangeana[17][19][27]; o m´etodo de Dantzig-Wolfe [10][27]; o m´etodo de Benders[5][18][27]; e o m´etodo de Rosen[27]. A aplica¸c˜ ao desses m´etodos depender´a da estrutura matricial dos coeficientes que envolvem o problema.

  Este trabalho aborda, em particular, o m´etodo de decomposi¸c˜ ao de Dantzig-Wolfe. Este m´etodo ´e aplicado em problemas lineares de grandes dimens˜oes onde a matriz de coeficientes possui uma estrutura especial do tipo bloco angular, isto ´e, um ou mais blocos independentes s˜ao acoplados por um conjunto de restri¸c˜ oes. As restri¸c˜ oes de acoplamento, juntamente com a propriedade que permite reescrever elementos de um conjunto convexo como combina¸c˜ ao linear convexa dos seus pontos extremos, possibilita a forma¸c˜ ao de um problema equivalente com um n´ umero menor de restri¸c˜ oes denominado Problema Mestre. Este problema ´e resolvido por meio do m´etodo simplex revisado ([4]). O procedimento de resolu¸c˜ ao tem uma interpreta¸c˜ ao econˆomica a qual diz que o problema mestre coordena as a¸c˜ oes dos subproblemas enviando os valores dos multiplicadores do simplex associados aos recursos usados no problema.

  O problema de seq¨ uenciamento do tipo job-shop ´e um problema combinat´orio conhecido por sua complexidade na categoria de um problema NP-dif´ıcil (Johnson[16] e Zwaneveld [35]). Al´em disso, os coeficientes das suas restri¸c˜ oes apresentam uma estrutura matricial bloco angular. Tais caracter´ısticas justificam a aplica¸c˜ ao de um m´etodo de decomposi¸c˜ ao. Podemos ent˜ao a partir do problema de job-shop, formular um problema equivalente em dois n´ıveis conforme apresentado no m´etodo de Dantzig-Wolfe. Para isso, construiremos o problema mestre considerando como restri¸c˜ oes de acoplamento as restri¸c˜ oes de precedˆencia (restri¸c˜ oes nos produtos), e a cada conjunto de restri¸c˜ oes de m´aquina associaremos um subproblema. No entanto, o conjunto de solu¸c˜ oes vi´aveis ´e ilimitado e pode acontecer subproblemas infact´ıveis. Conseq¨ uentemente, s˜ao necess´arias algumas modifica¸c˜ oes nos espa¸cos de solu¸c˜ oes para garantir a aplicabilidade do m´etodo ao problema de job-shop. Primeiramente, propomos a cria¸c˜ ao de limites relacionadas `as vari´aveis envolvidas nas restri¸c˜ oes de acoplamento a fim de limitar os conjuntos de solu¸c˜ oes. Em seguida, efetuamos o ajuste das solu¸c˜ oes obtidas para garantir a converg encia ao valor ´otimo do problema global. O texto est´a organizado da seguinte forma:

  O Cap´ıtulo 1 come¸ca descrevendo brevemente os m´etodos de decomposi¸c˜ ao e em quais ca- sos podem ser utilizados. Em seguida, enfatizamos o m´etodo de decomposi¸c˜ ao de Dantzig-Wolfe, mostrando de que forma o mesmo ´e estruturado e quais as altera¸c˜ oes necess´arias para o caso no qual o conjunto de solu¸c˜ oes ´e ilimitado. Al´em disso, mostramos como podemos determinar um limite inferior para a solu¸c˜ ao ´otima do problema original bem como a interpreta¸c˜ ao econˆomica do m´etodo.

  O Cap´ıtulo 2 tem como objetivo definir o problema de job-shop e apresentar a formula¸c˜ ao matem´ atica adotada. apresentamos as restri¸c˜ oes adotada para o job-shop e as suas principais carac- ter´ısticas, assim como a sua representa¸c˜ ao pelo grafo potencial-tarefa e pelo Diagrama de Gantt.

  Finalmente, no Cap´ıtulo 3, reescrevemos o m´etodo de Dantzig-Wolfe adaptando-o `a nota¸c˜ ao adotada ao problema de job-shop e aplicando ajustes ao conjunto das solu¸c˜ oes vi´aveis de forma tal que garanta a factibilidade do problema mestre e dos subproblemas. Conclu´ımos apresentando testes num´ericos e as respectivas an´alises que validam a aplicabilidade do m´etodo em problemas de pequenas dimens˜ oes. Cap´ıtulo 1 M´ etodo de Decomposi¸ c˜ ao de Dantizg-Wolfe

  Em geral, os m´etodos de decomposi¸c˜ ao consistem em decompor um problema inicial de grande porte em problemas com dimens˜oes menores, denominados subproblemas ( ou problemas escravos ) permitindo substituir um grande volume de c´alculo central por c´alculos locais. Tais subproblemas trabalham de forma paralela, seq¨ uencial ou interativa, supervisionados por um n´ıvel de coordena¸c˜ ao, denominado problema mestre (ou problema coordenador). O problema mestre recebe informa¸c˜ oes dos subproblemas e altera, a cada itera¸c˜ ao, os parˆametros que atualiza a fun¸c˜ ao custo e/ou o vetor de recursos de cada subproblema, permitindo atrav´es de suas solu¸c˜ oes uma aproxima¸c˜ ao para a solu¸c˜ ao ´otima global, se esta existir. Na Figura 1.1, este processo ´e representado considerando o problema

  , t , original particionado em p subproblemas, onde t · · · , t p s˜ao as solu¸c˜ oes locais dos correspondentes

  1

  

2

  s subproblemas e os λ ´e o vetor-solu¸c˜ ao do problema mestre.

PROBLEMA MESTRE

  t t 1 λ

  λ p

SUBPROBLEMA SUBPROBLEMA

  o o N N

1 p

Figura 1.1: Comportamento dos m´etodos de decomposi¸c˜ ao. Os m´etodos de decomposi¸c˜ ao s˜ao utilizados quando temos um/ou mais dos seguintes obje- tivos:

  Reduzir a dimens˜ao do problema quando o n´ umero de vari´aveis e/ou de restri¸c˜ oes ´e muito elevado •

  a fim de efetuar a resolu¸c˜ ao dos subproblemas de dimens˜oes menores;

  • Hierarquizar um processo de decis˜ao em v´arios n´ıveis, onde cada unidade econˆomica possui uma

  unidade de controle que garante a coordena¸c˜ ao entre os subsistemas dos n´ıveis inferiores;

  Descentralizar um problema de decis˜ao decompondo-o em subproblemas com suficiente autono- •

  mia para tomar suas pr´oprias decis˜oes;

  • Particionar um problema com dados heterogˆeneos em subproblemas homogˆeneos; Paralelizar de acordo com a evolu¸c˜ ao do material para o c´alculo paralelo (multitarefa, multipro- • cessador).

  O Princ´ıpio da decomposi¸c˜ ao, consiste inicialmente em analisar a estrutura do problema e, a partir desta informa¸c˜ ao, fazer a escolha do m´etodo de decomposi¸c˜ ao mais adequado. Dentre os princi- pais m´etodos cl´assicos de decomposi¸c˜ ao podemos citar: as t´ecnicas da Relaxa¸c˜ ao Lagrangeana[17][19][27]; o m´etodo de Dantzig-Wolfe [10][27]; o m´etodo de Benders[5][18][27] e o m´etodo de Rosen[27]:

  

(i) O m´etodo da Relaxa¸c˜ ao Lagrangeana e o de Dantzig-Wolfe s˜ao aplicados aos problemas que

  apresentam a matriz de coeficientes com a estrutura bloco-diagonal com restri¸c˜ oes de acoplamento conforme apresentada na Figura 1.2;

  

(ii) O m´etodo de Benders ´e aplicado aos problemas que apresentam a matriz de coeficientes com a

estrutura bloco-angular com vari´ aveis de acoplamento conforme a Figura 1.3;

  

(iii) O m´etodo de Rosen ´e aplicados aos problemas que apresentam a matriz de coeficientes com a

estrutura bloco-angular com restri¸c˜ oes e vari´ aveis de acoplamento conforme a Figura 1.4.

  Este trabalho enfatiza o m´etodo de Dantzig-Wolfe. Sendo assim, este cap´ıtulo aborda o algoritmo de decomposi¸c˜ ao de Dantzig-Wolfe considerando conjuntos de solu¸c˜ oes limitados e ilimitados.

  RESTRIđỏES DE A A A P

  1

  2 ACOPLAMENTO {

  B

  1 B

  2 B P

Figura 1.2: Estrutura bloco-angular com restri¸c˜ oes de acoplamento.

  VARIA´VEIS DE ACOPLAMENTO {

  B b

  1

  1 b B

  2

  2 b B P P

Figura 1.3: Estrutura bloco-angular com vari´aveis de acoplamento.

  VARIA´VEIS DE ACOPLAMENTO {

  RESTRIđỏES DE

A

A A b 2 P ACOPLAMENTO 1

  { B 1 b 1 B b

2

2 B b P P

Figura 1.4: Estrutura bloco-angular com restri¸c˜ oes e vari´aveis de acoplamento.

1.1 Princ´ıpio da Decomposi¸ c˜ ao de Dantzig-Wolfe

  Consideremos o Programa Linear:   min z = cx      

  Sujeito a : (P L)

  (1.1)

    A x = b     

  ≥ 0 x cuja matriz dos coeficientes das restri¸c˜ oes tem estrutura p-bloco angular, com p ≥ 1, na forma:

    A A · · · A

  1 2 p

       

  B

  1

        A = .

  B

  

2

        . ..     Notemos que qualquer programa linear pode ser visto nesta forma se for considerado p=1. Assim, particionando o conjunto de restri¸c˜ oes em dois subconjuntos, de acordo com a matriz A, temos o (P L) (1.1) como segue

      min z = cx

  (1.2)

         Sujeito a:  

  ˆ A x = b (r restri¸c˜ oes) (1.3)

  1

  1

  1

         A

  

2 x = b

2 (r 2 restri¸c˜ oes) (1.4)

       x ≥ 0 (1.5)

  Assumiremos que o poliedro convexo (Ver defini¸c˜ ao no Apˆendice) S = {x|A x = b , x ≥ 0}

  2

  2

  2 1 j r

  , , ´e limitado, e chamaremos o conjunto E = {x · · · , x · · · , x } dos r pontos extremos de S . Portanto,

  2

  qualquer x ∈ S pode ser escrito como combina¸c˜ ao convexa destes pontos extremos:

  2 r

  X

  j

  λ x = j x

  (1.6) j =1

  onde

  r

  X λ = 1, (1.7)

  j j

=1

  λ j ≥ 0; j = 1, · · · , r. (1.8) O problema original (1.2) - (1.5) dever´ a ser visto como segue: selecionemos, de todas as solu¸c˜ oes de (1.4) e (1.5), aquelas que satisfazem (1.3) e minimize z. Substituindo (1.2) em (1.6) e

  (1.3), obtemos

  r

  X

  j

  A , ( ˆ x )λ j = b (1.9)

  1

  1 j =1

  e

  r

  X

  j z .

  = (cx )λ j (1.10)

  j =1

  Definindo,

  j

  ˆ p j = A x , (1.11)

  1

  e teremos o Programa Linear (1.2)-(1.5) na vari´avel λ :

  j

  

  r

  X    min z = f λ (1.13)

  j j

    

  j

   =1    

  Sujeito a:   

  r

   

  X p λ

  j j = b (1.14)

  1

  

  j =1

    

  r

   

  X    λ

  j = 1 (1.15)

    

  j

   =1   

  λ ≥ 0; j

  j = 1, · · · , r. (1.16)

  Este novo problema (1.13)-(1.16), denominado Problema Mestre (PM), ´e equivalente ao problema original (1.2) - (1.5). O PM cont´em apenas (r + 1) restri¸c˜ oes, enquanto que o problema

  1

  original possu´ıa (r

  1 + r 2 ), significando assim uma consider´avel redu¸c˜ ao no n´ umero de restri¸c˜ oes para

  r muito grande.

2 Particularmente, a t´ecnica do M´etodo Simplex Revisado [4] ´e usado para resolver o PM.

  Veremos ent˜ao como isto ´e feito considerando o coeficiente do custo relativo ¯ f para a vari´avel λ do

  j j

  seguinte modo:   p

  j

     

  ¯ f

  j = f j − π ; (1.17)

  − − −    

  1

  −

1 B

  B , onde o vetor π = f B , para f B = c B x ou seja, π ´e o vetor dos multiplicadores do simplex. Agora, vamos particionar π: π = (π , π ) onde π ´e o vetor das vari´ aveis duais correspondentes

  1

  1

` as restri¸c˜ oes(1.14) e π ´e a vari´ avel dual correspondente ` a ´ unica restri¸c˜ ao (1.15). Ent˜ao, usando as

  f defini¸c˜ oes (1.11) e (1.12) de f j e p j em ¯ j podemos reescrevˆe-lo na forma,

  j

  ¯ ˆ f A .

  j = (c − π )x − π (1.18)

  1

  

1

O crit´erio usual do m´etodo simplex considera s

  ¯ ˆ min f = ¯ f = (c − π A )x − π ; (1.19)

  j s

  1

  1 j j

  indicando desta forma a vari´avel λ s para entrar na base. Relembremos que x ´e um ponto extremo

  j

  f de S , e notemos que ¯ j ´e linear em x . Sabendo-se que uma solu¸c˜ ao ´otima de um programa linear

  2

  convexo, cujo conjunto de restri¸c˜ oes ´e limitado, sempre ocorre em um ponto extremo deste conjunto, notemos que a express˜ao (1.19) ´e equivalente ao subproblema definido como

      ˆ

  A min (c − π )x (1.20) 

  1

  1

       

  Sujeito a :   

  (1.21)

  A , x = b

  2

  2

        

  (1.22) x ≥ 0. s

  Seja x o ponto ´otimo do subproblema (1.20) - (1.22) com valor objetivo ¯ f . Se ¯ f ≥ 0

  s s

  significa que todos os custos relativos `a base λ j s˜ao n˜ao positivos, logo n˜ao podemos mais melhorar a solu¸c˜ ao do PM. Em decorrˆencia, assumiremos que a solu¸c˜ ao ´otima do problema original PL(1.1) ´e

  r

  X

  j

  λ x = j x (1.23)

  j =1 j

  . onde os x ’s s˜ao pontos extremos de S correspondentes `a base λ j

  2

  f < Caso contr´ario, se ¯ s 0 ainda podemos melhorar a solu¸c˜ ao do PM. Da´ı, λ s entra na base

   

  s

  ˆ A x

  1

    e a coluna correspondente ´e atualizada, pr´e-multiplicando-a pelo inverso da base de λ j ,ou

  1  

  s

  ˆ A x

  

1

− −

  1

  1

    seja B , originando a nova coluna y s = B . Notemos que y s ≤ 0 n˜ao pode ocorrer visto 1 que S foi assumido como limitado produzindo um problema mestre limitado.

2 A vari´avel λ B a sair da base ´e determinada pela raz˜ao m´ınima usual, ou seja, deixa a base a

  vari´avel λ onde o ´ındice r ´e determinado como segue:

  r

  ¯b ¯b

  r i

  { , y > = min is 0}; (1.24) y rs 1≤i≤(m+1) y is

  −

  1

  onde y rs ´e denominado elemento pivˆ o. Com o pivoteamento, a base inversa,(B ), as vari´aveis duais,(π), e o valor objetivo (z) s˜ao atualizados.

  Este procedimento torna-se bastante interessante se p > 1, isto ´e, se o problema resolvido tem a forma

  • c
  • · · · + c p x p (1.25) Sujeito a:
  • A
  • · · · + A p x p = b B

  − π

  p

  X

  i =1

  (c i − π

  1

  ˆ A

  1

  )x i (1.28) Sujeito a: B

  i x i = b i

  , i = 1, · · · , p

  (1.29) x i ≥ 0, i = 1, · · · , p. (1.30)

  O objetivo (1.28) ´e uma soma separ´avel em x i e as restri¸c˜ oes (1.29) s˜ao independentes. Desta forma, este problema pode ser reduzido a p-subproblemas independentes, onde o i-´esimo subproblema pode ser representado como segue:

                           min (c i

  1 A i )x i

  p

  .

  (1.31)

  Sujeito a : B

  i x i = b i

  ,

  (1.32) x i ≥ 0. (1.33)

  Adotando-se

  X

  i = {x i |B i x i = b i ; x i ≥ 0}, (1.34)

  o i-´esimo subproblema apresenta-se: min

  x i

  ∈X i

  (c i − π

  

1

A i )x i . (1.35)

  ≤ 0. (1.27) com o subproblema (1.20) - (1.22)                            min

  ≥ 0, · · · , x

                                                   min z = c

  1

  1

  x

  1

  2

  x

  2

  A

  1

  x

  1

  2

  x

  2

  x

  2

  1

  = b

  1 B

  2

  x

  2

  = b

  2 . ..

  = ..

  . B p x p = b p

  (1.26)

  x

  1

  ≥ 0, x

  Um algoritmo de dois n´ıveis para resolver o problema de (1.25) - (1.27) dever´ a agora ser no segundo. Assumiremos que uma solu¸c˜ ao inicial do problema mestre ´e conhecida com a matriz base , π correspondente, B, e as vari´aveis duais π .

1 Neste caso, o algoritmo de decomposi¸c˜ ao de Dantzig-Wolfe pode ser visto como segue:

  Algoritmo 1.1. Algoritmo de Decomposi¸c˜ao de Dantzig-Wolfe

1. Usando as vari´aveis duais π , resolvemos cada subproblema i (1.31) - (1.33) obtendo

  1

  as suas respectivas solu¸c˜ oes x (π ), e o valor ´otimo objetivo, z . Seja

  i

  1 i t .

  x(π ) = (x (π ), · · · , x p (π ))

  1

  1

  

1

  1 ′

  s f

  2. Calculamos os valores dos custos relativos das vari´aveis λ , ¯ j (1.18), e escolhemos j

  o m´ınimo entre eles:

  

p

  X ¯ f z − π min j = ; (1.36)

  i j

i

=1

  onde

  (1.37) z − π A .

  = min (c i

  1 i )x i i

  Se este valor m´ınimo for um valor n˜ao negativo, ou seja , min ¯ f ≥ 0, (1.38)

  

j

  significa que podemos parar o algoritmo, pois n˜ao existem mais candidatas a entrar na base. Assim, a solu¸c˜ao ´otima para (1.25) - (1.27) ´e

  

r

  X

  j

  x = λ x , (1.39)

  j j

=1

j

  onde x s˜ao pontos extremos de S correspondentes `a vari´avel b´asica λ j .

  2

  f <

  3. Se min ¯ j 0, constru´ımos a coluna

   p 

  X A

  i x i (π )

  1

     

  i (1.40)

  =1

   

  1

  −

  1

  atualizada atrav´es da multiplica¸c˜ao pela inversa da antiga base, B , e usando a opera¸c˜ao pivˆ o do simplex usual, obtemos uma nova base inversa e um novo vetor dos multiplicadores simplex (vari´aveis duais). Retornamos `a 1 e repetimos todo o processo.

  Se o problema mestre ´e n˜ao degenerado[4], ent˜ao cada itera¸c˜ ao decresce z para um valor n˜ao nulo. Isto se deve ao fato que existe um n´ umero finito de bases poss´ıveis e nenhuma se repete. Sendo assim, o princ´ıpio da decomposi¸c˜ ao de Dantzig-Wolfe encontrar´a a solu¸c˜ ao ´otima em um n´ umero finito de itera¸c˜ oes.

  Observe que a solu¸c˜ ao ´otima do problema original, x , n˜ao ´e necessariamente qualquer uma das solu¸c˜ oes dos subproblemas. Por (1.39) temos que x ´e alguma combina¸c˜ ao convexa de tais solu¸c˜ oes. Portanto, o problema mestre n˜ao pode obter o ´otimo do problema original simplesmente enviando os correspondentes custos π aos subproblemas. O problema mestre dever´ a combinar estas solu¸c˜ oes para

  1 obter a solu¸c˜ ao global.

1.2 Algumas considera¸ c˜ oes sobre o algoritmo de Dantzig-Wolfe 1. Observamos que o seguinte algoritmo ´e uma implementa¸c˜ ao direta do m´etodo simplex revisado.

  Exceto o c´alculo dos custos relativos ¯ f ij que ´e obtido resolvendo o subproblema i. Entretanto, o algoritmo converge em um n´ umero finito de itera¸c˜ oes.

  2. Em cada itera¸c˜ ao, uma melhor solu¸c˜ ao b´asica fact´ıvel para o problema mestre, (1.47)-(1.53),

  ´e obtida ao introduzir a vari´avel n˜ao b´asica λ sj , gerada pela solu¸c˜ ao do subproblema, (1.55)

  j

  • (1.57). Sendo assim, o subproblema fornece um ponto extremo x s , que corresponde a uma

    ¯ f

  sj

    coluna atualizada . y

  sj

  3. Em cada itera¸c˜ ao um novo vetor dual ´e passado do problema mestre para o subproblema. A base ´otima da ´ ultima itera¸c˜ ao ´e utilizada, a fim de atualizar a sua fun¸c˜ ao, modificando seus custos.

  4. Em cada itera¸c˜ ao, o subproblema n˜ao precisa ser otimizado completamente. ´e necess´ario apenas j

  f que o corrente ponto extremo x s satisfa¸ca ¯ sj ≤ 0. Neste caso λ sj ´e candidato a entrar na base.

  5. Se as restri¸c˜ oes do problema mestre s˜ao desigualdades, ent˜ao n´os devemos verificar os custos das

  vari´aveis de folga que foram adicionadas resolvendo os subproblemas. Para as restri¸c˜ oes i do , problema mestre do tipo ≤ associada `a vari´avel de folga s i n´os temos,

    e

  1 f − z = (π , π )   − 0 = π . s i s i

  1 1 (1.41)

  Assim, para um problema de minimiza¸c˜ ao uma vari´avel de folga associada com a restri¸c˜ ao do tipo ≤ ´e eleita a entrar na base se π > 0. ( Note que o crit´erio de entrada ´e π < 0 para

  1

  1

6. Para darmos in´ıcio ao m´etodo, deveremos partir de uma solu¸c˜ ao b´asica fact´ıvel inicial. Caso,

  esta solu¸c˜ ao n˜ao seja poss´ıvel ao ser acrescentado as vari´aveis de folga, devemos usar algum m´etodo para obter tal solu¸c˜ ao; como por exemplo o M´etodo das Duas Fases ou do Big-M[4].

  1.3 Problema Mestre Restrito

  Como previamente formulado, o princ´ıpio da decomposi¸c˜ ao de Dantzig-Wolfe, resolve proble- ma de otimiza¸c˜ ao em dois n´ıveis. Ao n´ıvel chamado Problema Mestre (1.13) - (1.16), ´e poss´ıvel apre- sentar uma nova formula¸c˜ ao denominada de Problema Mestre Restrito. Tal problema apresenta al´em das colunas referente `a vari´avel de entrada, as colunas das vari´aveis que foram retiradas. Ent˜ao o problema mestre restrito pode ser escrito na forma

      min f λ + · · · + f m λ m + f λ (1.42)

  1

  1

              

  Sujeito a:

  (1.43)

    p λ + · · · + p λ + pλ = b

  1

1 m m

        

  (1.44)

  λ

  • · · · + λ m + λ = 1 

  1

       

  λ

  (1.45) i ≥ 0, i = 1, · · · , m, λ ≥ 0 ′

  onde m = m + 1, os λ s s˜ao as vari´aveis b´asicas corrente e λ ´e a vari´avel que est´a entrando na base.

  1 i

  f < Assumindo que a vari´avel λ tem um custo relativo ¯ 0, se a base corrente ´e n˜ao degenerada, a vari´avel que deixar a base ter´a um ¯ f positivo, e portanto, a nova solu¸c˜ ao ser´a ´otima. O ´ unico caso no qual mais de uma itera¸c˜ ao ´e necess´aria para passar o teste de otimalidade ´e quando a base corrente

  ´e degenerada e o elemento pivˆo, (1.24), na coluna de entrada ´e negativo. Neste caso, n˜ao ´e muito vantajoso resolver o problema na forma (1.42) - (1.45).

  1.4 Estrat´ egia alternativa para decompor o primal

  Uma outra forma de decompor o problema primal (1.25) - (1.27), alterando a forma do problema mestre (1.13) - (1.16), ´e considerar as solu¸c˜ oes para o conjunto de restri¸c˜ oes do subproblema i escritas como:

  r

  X

  j

  λ x i = ij x (1.46)

  i j =1 j

  com o x ponto extremo de X (1.34); i = 1, 2, · · · , p. Ent˜ao, ´e f´acil verificar que o problema mestre

  i i

                                                   min

  0i

  

i

  − πA

  i

  = (c

  ij

  associados `a restri¸c˜ ao (1.49). Atualizando a coluna associada `a λ ij , produzimos ¯ f

  associado `a restri¸c˜ ao (1.48) e os π

  j i

  1

  para esta base, com π

  0p as vari´aveis duais

  , · · · , π

  01

  , π

  1

  )x

  − π

  Sejam B uma matriz b´asica fact´ıvel (m

  x

  x i ≥ 0.

  (1.56)

  ,

  i

  = b

  i

  

i

  0i

  Sujeito a: B

  1 A i )x i (1.55)

                           min (c i − π

  ij , ´e equivalente a resolver o i-´esimo subproblema

  ¯ f

  j

  . (1.54) O problema encontrado para i fixo, min

  1 + p) × (m 1 + p) e π

  ij .

  

p

  Sujeito a:

  p

  j =1

  X

  i =1 r

  X

  p

  ij (1.47)

  λ

  λ

  ij

  f

  j =1

  X

  i

=1

r

  X

  ij

  ij = b (1.48) r

  , x i ≥ 0, ´e representado separadamente por um conjunto de vari´aveis λ

  p

  Este novo problema apresenta algumas vantagens computacionais que podem ser vistas quando consideramos as solu¸c˜ oes de (1.47) - (1.53) pelo m´etodo simplex revisado. Al´em disso, difere do problema mestre (1.13) - (1.16) obtido inicialmente, em dois aspectos: (1) particularmente, ele tem p linhas convexas;(2) cada subsistema B i x i = b i

  j i (1.53)

  x

  i

  = A

  ij

  (1.52)

  X

  ij = c i x j i

  onde f

  ij ≥ 0 (1.50) (1.51)

  λ

  ij = 1, i = 1, 2, · · · , p, (1.49)

  λ

  j =1

  (1.57) Esses s˜ao os mesmos subproblemas conforme foram obtidos previamente em (1.31) - (1.33). i

  Seja z o valor objetivo minimal do subproblema (1.55) - (1.57) acima. Se

  i

  ¯ ¯ f f − π

  sj = min min ij = min (z 0i ) ≥ 0 (1.58) i i j i

  a solu¸c˜ ao corrente ´e ´otima. Caso contr´ario, a coluna a entrar na base ´e aquela com min (z − π ). (1.59)

  

i 0i

i j

  Se o m´ınimo acima ocorre para i = s e x s (π ) ´e solu¸c˜ ao do subproblema s, a coluna correspon-

  1

   

  j

  A s x s (π )

  1

      dente `a vari´avel a entrar na base ´e dada por , onde u s ´e um vetor p-componente com

  − − − − −     u

  s

  um na posi¸c˜ ao s e zeros nas outras. Esta nova coluna entra na base produzindo novos multiplicadores , π (π ). Colunas similares poderiam ter sido gerados das solu¸c˜ oes de outros subproblemas.

  1 ∗ ∗

  , Seja m = m +p, definimos {p ij } como as colunas da base corrente, e seja p · · · , p as colunas

  1 p

  1 ∗ ∗ ∗

  geradas das ´ ultimas solu¸c˜ oes dos subproblemas correspondentes a λ , λ , · · · , λ . O novo problema

  1 2 p

  mestre restrito ser´a 

  

p p

  X X

  X 

  ∗ ∗

    f λ f λ min ij ij = b (1.60) +

  i i

    

  

i i

   =1 =1

  j

  b´asico     p p  

  X X

  X

  ∗ ∗

  •   p λ p λ = b (1.61)

  ij ij

   i i  

  

i i

=1 =1

j

  b´asico 

  X  ∗ 

  λ

  ij + λ = 1; i = 1, 2, · · · , p (1.62)

   i     j b´asico      λ ≥ 0, i = 1, 2, · · · , p j = 1, 2, · · · , r (1.63)

  ij

      

  

  λ ≥ 0, i = 1, 2, · · · , p

  (1.64)

i

1.5 Regi˜ ilimitada

  i ao X

  Para um conjunto X = {x |B x = b ; x ≥ 0} ilimitado o algoritmo de decomposi¸c˜ao

  i i i i i i

  de Dantzig-Wolfe deve ser modificado. Neste caso, os pontos de X i ser˜ao representados como uma combina¸c˜ ao linear convexa dos pontos extremos de X i mais uma combina¸c˜ ao linear n˜ao negativa das suas dire¸c˜ oes extremas (ver em Apˆendice ). Em outras palavras, ∀x ∈ X temos,

  i i i r l

  X X

  j k

  λ µ x i = ij x ik d (1.65)

  • i i j =1 k =1 r

  X λ

  ij = 1 (1.66) j =1

  (1.67)

  λ ≥ 0, j = 1, 2, · · · , r; i = 1, 2, · · · , p

  ij

  µ

  (1.68) ik ≥ 0, k = 1, 2, · · · , l; i = 1, 2, · · · , p

  1 2 r

  1 2 l

  , , , , onde x x · · · , x s˜ao pontos extremos de X i e d d · · · , d s˜ao dire¸c˜ oes extremas de X i . O

  i i i i i i

  problema original dever´ a ser transformado no chamado problema mestre nas vari´aveis λ ij e µ como

  ik

  segue: 

  p p r l

  X X

  X X  j

  k

    min (c i x )λ ij (c i d )µ (1.69) + ik

  i i

    

  i j i

=1 =1 =1 k =1

              

  Sujeito a:   

  p p r l

   

  (1.70)

  X X

  X X  j

  k

  (A + i x )λ ij (A i d )µ ik = b

  i i

   i =1 j =1 i =1 k =1   

  r

   

  X  

  λ

  ij = 1; i = 1, 2, · · · , p

  

  (1.71)

    

  j =1

       

  (1.72)

   λ ≥ 0, j = 1, 2, · · · , r; i = 1, 2, · · · , p

  ij

       

  µ

  (1.73) ik ≥ 0, k = 1, 2, · · · , l; i = 1, 2, · · · , p.

  Para resolver este problema (1.69)-(1.73) optamos por utilizar o m´etodo simplex revisado visto que o n´ umero de vari´aveis poder´a ser muito grande dependendo da quantidade de pontos extremos e dire¸c˜ oes extremas. A fim de iniciarmos tal m´etodo, devemos ter uma solu¸c˜ ao b´asica fact´ıvel com a sua matriz base correspondente, B, as vari´aveis duais π correspondentes `a restri¸c˜ ao (1.70) e π

  1 0i −

  1

  correspondente `a restri¸c˜ ao (1.71). Lembremos que π = (π , π , · · · , π , · · · , π ) = f B , f ´e o

  1 01 0i 0p B B

    b

  −

  1

    custo das vari´aveis b´asicas e ¯b = B , mostrado na Tabela 1.1.

  1

  , π , , f ¯b

(π · · · , π · · · , π ) B

1

01 0i 0p

  1 B ¯b

Tabela 1.1: Tabela do M´etodo Simplex Revisado referente ao problema mestre.

  Relembremos que a solu¸c˜ ao ´e ´otima para o problema original se os custos relativos das i

  de otimalidade devem satisfazer `as seguintes condi¸c˜ oes:  

  j

  A

  i x i j j

  (i) λ n˜ao b´asica ⇒ 0 ≤ ¯ f = c x − π   = (c − π A )x − π (1.74)

  ij ij i i 1 i 0i i i

  1  

  k

  A i d

  i k k

  f   A (ii) µ ik n˜ ao b´asica ⇒ 0 ≤ ¯ ik = c i d − π = (c i − π i )d (1.75)

  i 1 i

  Devido ao elevado n´ umero de vari´aveis n˜ao-b´ asicas, verificar as condi¸c˜ oes de otimalidade (1.74) - (1.75) ´e computacionalmente invi´ avel. Portanto devemos determinar se as condi¸c˜ oes s˜ao v´ alidas ou n˜ao resolvendo os subproblemas. Determinamos inicialmente o conjunto solu¸c˜ ao e o valor objetivo minimal z , de cada subproblema i (1.31) - (1.33) e, em seguida, aplicamos o crit´erio usual

  i

  do m´etodo simplex (1.58) Suponhamos primeiramente que o valor da solu¸c˜ ao ´otima do subproblema ´e ilimitada. Isto ´e

  k k

  A < poss´ıvel se somente se, uma dire¸c˜ ao extrema d ´e encontrada tal que (c s − π s )d

  0. Isto significa

  s 1 s

  que a condi¸c˜ ao (1.75) foi violada. Portanto, a vari´avel µ sk ´e eleita a entrar na base. Neste caso,  

  k

  A

  s d s

  1

    ´e atualizada pr´e-multiplicando-a por B e a coluna resultante ´e inserida na Tabela 1.1. Assim, o m´etodo simplex revisado continua com uma pr´oxima itera¸c˜ ao.

  k

  Consideremos agora a solu¸c˜ ao ´otima limitada. Neste caso, (c i − π A i )d ≥ 0 ocorre para

  1 i

  todas as dire¸c˜ oes extremas, ent˜ao a condi¸c˜ ao necess´aria e suficiente (1.75) para que a solu¸c˜ ao seja

  j

  limitada, ´e v´alida. Por outro lado observemos tamb´em a validade da equa¸c˜ ao (1.74). Sejam x s um ponto extremo ´otimo e ¯ f sj o objetivo ´otimo para o subproblema s (1.31)-(1.33). Se ¯ f sj ≥ 0, a condi¸c˜ao

  j j

  (1.74) ´e v´alida para o subproblema s, ou seja, pela otimalidade de x s , para cada ponto extremo x ,

  i

  temos

  j j

  ¯ f A A f

  ij = (c i − π i )x − π ≥ (c s − π s )x − π = ¯ sj (1.76) 1 0i 1 s 0s i

  e portanto, temos uma solu¸c˜ ao ´otima do problema original.

  Caso contr´ario, se ¯ f < 0 ent˜ao λ ´e eleita a entrar na base. Isto ´e feito inserindo a coluna

  sj sj

   

  

j

    A

  

s x s

  ¯   f

  sj −

  1

      na Tabela 1.1, onde y sj = B onde u s ´e um vetor p-componente com um

  − − − − −     y

  sj

  u

  s

  na posi¸c˜ ao s e zeros nas outras. ´e importante salientar que se o problema mestre apresentar outras vari´aveis expl´ıcitas incluindo as vari´aveis de folga, ent˜ao deveremos verificar os custos reduzidos destas

  Em resumo, cada subproblema i ´e resolvido separadamente. Se o subproblema s produz uma

  k

  solu¸c˜ ao ilimitada, ent˜ao uma dire¸c˜ ao extrema d encontrada, ´e candidata a entrar na base do problema

  s

  f < mestre. Se o subproblema s produz um ponto ´otimo limitado e ¯ sj 0, ent˜ao a vari´avel associada ao ponto extremo ´e candidato a entrar na base mestre. Se nenhuma dessas condi¸c˜ oes ocorre, ent˜ao n˜ ao existem candidatas a entrar na base do problema mestre, ou seja, temos o ´otimo. Caso contr´ ario, f podemos aplicar a regra do ¯ sj mais negativo dentre as vari´aveis candidatas a entrar na base mestre. Selecionando a candidata, atualizamos a coluna correspondente, fazemos os devidos pivoteamentos na tabela mestre e repetimos o processo com as outras candidatas.

1.6 Limite inferior para o custo m´ınimo

  Relembrando o Algoritmo de Dantzig-Wolfe(Se¸c˜ ao 1.1) vimos que para satisfazermos o seu crit´erio de parada t´ınhamos que efetuar muitos c´alculos nas itera¸c˜ oes. Este fato nos levaria a consumir muito tempo computacional quando o problema fosse de grande porte.

  Por esta raz˜ao, desenvolveremos um limite inferior para o valor objetivo da solu¸c˜ ao fact´ıvel do problema original, e portanto, um limite inferior do objetivo ´otimo. Por outro lado, como o algoritmo de Dantzig-Wolfe gera pontos fact´ıveis que n˜ao pioram o valor objetivo pelo problema mestre, n´os temos uma seq¨ uencia de limites superiores n˜ao crescente. Ent˜ao, devemos parar quando a diferen¸ca entre o objetivo do ponto fact´ıvel corrente e o limite inferior estiver dentro de uma tolerˆancia aceit´avel. Isto n˜ao dever´ a fornecer o ponto ´otimo verdadeiro, mas garantir´a boas solu¸c˜ oes fact´ıveis dentro de qualquer precis˜ao desej´avel ao ´otimo.

  Considere o problema mestre (1.47)-(1.53), reescrito abaixo;  p

  r

  X X   f λ  min z = ij ij (1.77)   

  i =1 j =1

               Sujeito a:    p

  r

   

  X X (1.78) p λ

  ij ij = b

   i j

  =1 =1

    

  r

   

  X    λ

  ij = 1, i = 1, 2, · · · , p, (1.79)

    

  j

   =1      

  (1.80)

  λ ≥ 0

  ij

      

  (1.81) ij ) (1.90)

  f

  ≥

  Sabendo que (1.87) ´e v´alida para todos os valores de z obtido do problema mestre (1.77)- (1.83), ent˜ao valer´ a para o valor m´ınimo. Assim, min z ≥

  0i (1.87)

  π

  i

  b

  1

  ij ) + π

  ¯ f

  j

  (min

  i

  X

  λ ij (1.86) Substituindo (1.79) a desigualdade (1.86) torna-se: z

  i

  j

  X

  ¯ f ij )

  j

  (min

  i

  X

  ≥

  0i

  π

  i

  X

  b −

  X

  (min

  z − π

  p

  j

  (min

  i =1

  X

  p

  onde z B ´e o valor de z associado ´a base corrente, B. Portanto (1.88) torna-se: min z ≥ z B +

  B (1.89)

  = z

  B

  x

  B

    = c

    b e

  j

  1

  −

  B

  B

    = c

  p

  , π )   b e

  1

  (π

  b

  1

  ij ) + π

  ¯ f

  1

  ij (1.85)

  onde f

  1

  ij (f ij − π

  λ

  j

  X

  i

  X

  =

  0i

  π

  i

  X

  b −

  − π

  p

  ,somando e subtraindo da equa¸c˜ ao (1.77), produzimos z

  0i

  e (1.79) pelos multiplicadores π

  1

  Multiplicando (1.78) pelos multiplicadores simplex π

  (1.83)

  ij = A i x j i

  p

  j i (1.82)

  x

  

i

  = c

  ij

  1

  ij − π 0i

  ¯ f

  1

  ij min j

  λ

  j

  X

  i

  X

  ≥

  0i

  π

  i

  X

  b −

  desigualdade (1.85) abaixo: z − π

  ) (1.84) O valor da express˜ao (f ij − π

  

ij , poder´a ser substitu´ıdo por este valor minimal e portanto a equa¸c˜ ao (1.84) pode ser vista como a

  ´e n˜ao negativo, ¯ f

  ij

  para cada i. Como λ

  ij

  ¯ f

  j

  Resolvendo os subproblemas (1.55)- (1.57), calculamos min

  ij .

  ) na equa¸c˜ ao (1.84) ´e o custo relativo para λ ij , ¯ f

  ij − π 0i

  p

  1

  • X
  • π e p (1.88) onde e p ´e o vetor p-dimensional com componentes iguais ao valor um. A express˜ao (1.88) poder´a ser escrito na forma mais compacta fazendo,

  1.7 Interpreta¸ c˜ ao econˆ omica do m´ etodo

  Considere um n´ıvel central e um subn´ıvel de uma organiza¸c˜ ao descentralizada. O n´ıvel

  p

  X A central opera em um primeiro conjunto de restri¸c˜ oes i x i = b , e o subn´ıvel no segundo conjunto

  i =1

  , i de restri¸c˜ oes B i x i = b i = 1, 2, · · · , p. Temos que b e b i dever´ a ser interpretado como recursos para o n´ıvel central e subn´ıvel, respectivamente. Durante o curso do algoritmo, informa¸c˜ oes s˜ao comunicadas de um n´ıvel para o outro. O n´ıvel central resolve o Problema mestre e como resultado, valores marginais π ou recursos centrais, s˜ao comunicados para os subn´ıveis. O subn´ıvel resolve os subproblemas nos quais a fun¸c˜ ao objetivo incorpora os custos para utiliza¸c˜ ao dos recursos centrais. O subn´ıvel ent˜ao sugere atividades x i para incorporar ao n´ıvel central. Durante as itera¸c˜ oes, nenhuma informa¸c˜ ao direta correspondente aos coeficientes nas restri¸c˜ oes ´e comunicada entre o n´ıvel central e o subn´ıvel. Al´em disso, a informa¸c˜ ao do custo ´e comunicado do n´ıvel central para o subn´ıvel.

  Na maioria das aplica¸c˜ oes, as restri¸c˜ oes que n˜ao s˜ao de acoplamento formam a estrutura diago- nal, nas quais as vari´aveis s˜ao agrupadas em blocos independentes. Isto significa que os subproblemas s˜ao separados em v´arios problemas independentes. Em um contexto econˆomico, a estrutura bloco angular reflete a divis˜ao em m´ ultiplos subn´ıveis independentes, onde cada um comunica diretamente com o n´ıvel central.

  1.8 Exemplo num´ erico

  Para ilustrar o princ´ıpio da decomposi¸c˜ ao de Dantzig-Wolfe, consideremos o problema

  min −x 1 − x 2 − 2x

3 − x

  4 (1.91)

  Sujeito a: (1.92) x x

  3 4 ≤

  40 (1.93)

  1 2x 2 2x + + +

  1 3x

2 ≤

  • x

  30 (1.94) x

  20

  1 + 2x

2 ≤

  (1.95)

x

  3 ≤

  10 (1.96) x

  4 ≤

  10 (1.97)

x

  4 ≤

  • 3 x

  15 (1.98) x j j ≥ = 1, · · · , 4

  Este problema tem a primeira restri¸c˜ ao, (1.92), identificada como de acoplamento e dois blocos independentes, sendo o primeiro bloco formado pela segunda e terceira restri¸c˜ ao (1.93) - (1.94) e o segundo bloco formado pela quarta, quinta e sexta restri¸c˜ ao, (1.95), (1.96) e (1.97) respectivamente, cujas as regi˜oes fact´ıveis s˜ao mostradas nas Figuras 1.5 e 1.6, respectivamente.

  x x

  2

  4

  20 15 (5,10)

  10

  10 (10,5) (6,8)

  10 15 x

  10 30 x

  3

1 Figura 1.6: Regi˜ao fact´ıvel do conjunto X 2 .

  Figura 1.5: Regi˜ao fact´ıvel do conjunto X .

1 Al´em disso, o problema pode ser decomposto em dois problemas menores, incluindo ao pro-

  p r

  X X λ

  1

  2

  blema mestre as restri¸c˜ oes de convexidade ij = 1. Seja x e x solu¸c˜ oes fact´ıveis para os

  i j =1 =1 p p r

  X X

  X

  j j

  λ , blocos 1 e 2, respectivamente, escrevemos x = x i = ij x onde x s˜ao pontos extremos do

  i i i =1 i =1 j =1

  subproblema i. A fun¸c˜ ao objetivo e as restri¸c˜ oes de acoplamento s˜ao escritas como z = c

  1 x 1 + c 2 x

  2 A

  x + A x + s = b

  1

  1

  2

  

2

  h i h i onde c = (−1, −1), c = (−2, −1), A = , A = ,x = (x , x ),x = (x , x ), b = 40

  1

  2 1 1 2 2 2 1

  1

  1

  2

  2

  3

  4

  e s = (s , s ) tal que s ≥ 0. O problema mestre ´e transformado em

  1

2 X

  X

  j j

  min z = (c + x )λ (c x )λ (1.99)

  1 1j 2 2j

  1

  2 j j Sujeito a:

  2 X i =1

  1

  40 λ

  1

  1

  1

  1 λ

  1

  2

  1

  1 −z

  1 Tabela 1.2: Tabela inicial do simplex revisado do problema mestre.

  ITERAC ¸ ˜ AO 1 Os multiplicadores do simplex (vari´aveis duais) para o problema mestre est˜ao contidos no topo da Tabela 1.2, os quais s˜ao todos nulos. Logo o primeiro conjunto de subproblemas ´e min z

  = −x

  2 −z Constantes s

  1

  − x

  2 Sujeito a:

  B

  1

  x

  1

  ≤ b

  1

  onde B

  1

  =   1 3

  1

  1

  X

  ij ≥ 0, i = 1, 2 (1.102)

  j

  (A i x

  j i

  )λ ij + s = b

  (1.100)

  2 X i =1

  X

  

j

  λ ij = 1

  (1.101)

  λ

  Escolhendo x

  

1

λ

  1

  1

  = x

  1

  2

  = (0, 0) e substituindo no problema mestre (1.99)-(1.102), devemos obter como solu¸c˜ ao b´asica inicial λ

  11

  = λ

  21 = 1, s = 40.

  Assim, a tabela do simplex revisado ´e como segue:

  

Vari´avel b´asica Colunas do problema mestre

s λ

  

1

   

1 A

  2

  1

  2

  O problema mestre restrito decorrente do problema mestre corrente mais as novas colunas ´e como segue; min −14λ

  1        

  25

  −25

  =        

  1        

  2

  2

  x

  2

  2 A

  2

  x

  2

          c

  1         e

  − 25λ

  2 (1.103)

  −14

  1 λ

  com todas vari´aveis n˜ao negativas. O problema (1.103)-(1.104) ´e resolvido pelo M´etodo Simplex

  (1.104)

  1

  =

  2

  2

  2

  1

  =

  Sujeito a: 22λ

  1

  2

  1

  1

  2

  2

  1

  2

  22

  =        

  e min z

  2 =

  2

  = −14, x

  1

  = (6, 8) z

  1

  2

  0 1 1 1      com solu¸c˜ oes ´otimas: x

       1 0

  onde B

  = (10, 5) z

  2

  ≤ b

  2

  x

  2

  B

  4 Sujeito a:

  2 = −2x 3 + x

  2

  2 = −25.

  1        

  Assim, temos associado a cada solu¸c˜ ao dos subproblemas uma coluna do problema mestre.

  1

  2

  x

  1

  2

  x

  1

  As colunas correspondentes `a solu¸c˜ ao corrente s˜ao:         c

  02 = −25 ≤ 0.

  Os custos m´ınimos relativos s˜ao: min ˆ f x

  − π

  2

  2 = z

  min ˆ f x

  01 = −14 ≤ 0,

  − π

  1

  = z

  1

  • 25λ
  • s = 40 λ
  • λ
  • λ

  µ ¶

  2

  1 = λ

  a nova solu¸c˜ ao para o problema original ´e: x

  11 Tabela 1.5: Solu¸c˜ ao ´otima do exemplo 1.

  6

  34

  1

  22

  22 200

  14

  1 −z

  1

  2

  1

  22 λ

  7

  22

  25

  1

  22

  1

  1 −

  1

  22 λ

  15

  1

  x

  25

  = λ

  ITERAC ¸ ˜ AO 2 Novos multiplicadores simplex s˜ao encontrados na Tabela 1.5

  (1.107)

  11 .

  z = − 368

  (1.106)

  = (10, 5)

  2

  2

  x

  2

  2

  2

  1

  22 (6, 8) (1.105) x

  15

  22 (0, 0) +

  7

  =

  1

  2

  x

  1

  2

  1

  22

  22 −

  

Vari´avel b´asica Colunas do problema mestre Coluna de entrada

s λ

  1

  

Vari´avel b´asica Colunas do problema mestre Coluna de entrada

s λ

  2 .

  1

  2 , sai λ

  2

  1 −z 1 -25 Tabela 1.3: Entra na base a vari´avel λ

  1

  1

  2

  1

  1 λ

  1

  1 λ

  1

  25 λ

  40

  1

  2 s

  2

  λ

  2 −z Constantes

  1

  1 λ

  1

  1

  1

  1

  1 −z

  1

  2

  2 −z Constantes λ

  1

  1 λ

  1

  Vari´avel b´asica Colunas do problema mestre s λ

  1 , sai s.

  2

  1 25 -14 Tabela 1.4: Entra na base a vari´avel λ

  25

  1

  2 −z Constantes λ

  1

  2

  2

  1 λ

  1

  1

  1

  1

  22 λ

  15

  1 s 1 -25

  2

  • λ

  1 .

  1

  22 −

  1

  1

  2

  1 λ

  3

  2 −z Constantes λ

  1

  1 λ

  1

  

Vari´avel b´asica Colunas do problema mestre Coluna de entrada

s λ

  A solu¸c˜ ao ´otima para o problema restrito ´e uma solu¸c˜ ao b´asica fact´ıvel para este problema, com base inversa dada no final da Tabela 1.5 da Itera¸c˜ ao 1. A solu¸c˜ ao do problema (1.114) - (1.115) ´e apresentado nas Tabelas1.6 e 1.7.

  (1.115)

  =

  22

  2

  3

  2

  2

  1 λ

  =

  1

  3

  1

  2

  1

  1

  = 40 λ

  2

  25

  15

  1

  

1

  1

  1 e sai λ

  3

  22 Tabela 1.6: Entra λ

  80

  11 −

  6

  34

  

1

  22

  22 200

  14

  1 −z

  2

  22

  2

  22 λ

  12

  22

  7

  22

  25

  1

  22

  1

  1 −

  1

  22 λ

  10

  3

  3

  3

  2 )x 2 = [(−2, −1) +

  x

  1 e z 2 sobre o conjunto de restri¸c˜ oes dos subsistemas obtemos a solu¸c˜ ao ´otima:

  Minimizando z

  4 (1.109)

  22 x

  8

  3 + −

  22 x

  16

  2 = −

  22 (2, 1)]x

  14

  − πA

  1

  2

  2 = (c

  z

  2 (1.108)

  22 x

  6

  1 +

  22 x

  8

  1 = −

  22 (1, 2)]x

  14

  1 )x 1 = [(−1, −1) +

  1 = (c

  = (10, 0) (1.110) z

  1

  1

  2

  Esses s˜ao usados para formar novos custos para os subproblemas z

  2

  Sujeito a: 22λ

  2 (1.114)

  3

  − 25λ

  1

  3

  − 10λ

  

2

  

2

  − 25λ

  2

  1

  O novo problema mestre restrito ficar´a da forma min −14λ

  (1.113)

  22

  = − 200

  2

  = (10, 5) (1.112) z

  2

  2

  x

  (1.111)

  22

  80

  = −

  − πA

  • 25λ
  • 10λ
  • 25λ

  2

  1

  • λ
  • λ
  • λ
Vari´avel b´asica Colunas do problema mestre

  1

  1 λ λ −z s Constantes

  1

  2

  2

  1

  10

  25

  5 λ − −

  1

  12

  12

  12

  12

  1

  22

  25

  7

  3 λ −

  1

  12

  12

  12

  12

  2 λ

  1

  1

  2

  4 80 200 110 −z 1 −

  12

  12

  12

  3 Tabela 1.7: Solu¸c˜ ao ´otima do exemplo 2.

  A solu¸c˜ ao fact´ıvel corrente para o problema original (1.91)-(1.98) ´e ¶

  µ 25

  5

  7

  10

  2

  2

  3

  3

  , x = λ x + λ x = (6, 8) + (10, 0) = (1.116)

  1

  1

  1

  1

  1

  12

  12

  3

  3

  2

  2

  x = λ x = (10, 5)

  (1.117)

  2

  2

  2

  110 z . = −

  (1.118)

3 ITERAC ¸ ˜ AO 3

  Os novos multiplicadores do simplex (ver Tabela 1.7) e as fun¸c˜ oes objetivos dos subproblemas s˜ao ¶

  µ 4 80 200 (π, π , π ) = − , , (1.119)

  01

  02

  12

  12

  12

  4

  2

  1

  z = (c − πA )x = [(−1, −1) + (1, 2)]x = − x + − x

  1

  1

  1

  1

  1

  1

  2

  12

  3

  3

  14

  4

  2

  z − πA x x = (c )x = [(−2, −1) + (2, 1)]x = − + −

  2

  2

  2

  2

  2

  3

  4

  22

  3

  3 A solu¸c˜ ao ´otima dos subproblemas ´e

  4

  x = (6, 8) (1.120)

  1

  ou

  5

  x = (10, 0) (1.121)

  1

  20 z = −

  (1.122)

  1

  3

  4

  x = (10, 5); (1.123)

  2

  50 z = −

  (1.124)

  2

  3 min ˆ f x

  1 = z − π = 0 (1.125)

  01

  1

  f x − π min ˆ

  2

  2 = z 02 = 0 (1.126) Visto que o valor de (1.125), (1.126) e (1.127) s˜ao n˜ao negativos, a solu¸c˜ ao corrente do problema mestre ´e ´otima, e a solu¸c˜ ao ´otima do problema original conforme (1.116) - (1.118), ´e dada por: x

  1

  2

  3 .

  110

  ) = (10, 5) (1.129) z = −

  

4

  , x

  3

  = (x

  3 ) (1.128) x

  = (x

  10

  3 ,

  25

  ) = (

  

2

  , x

  1

  (1.130) Cap´ıtulo 2 Os Problemas de Job-Shop

  Os problemas de seq¨ uenciamento do tipo job-shop s˜ao problemas combinat´orios classificados NP-dif´ıcil[16]. Este problema de job-shop tem como dados: tarefas, restri¸c˜ oes de potencialidade, recursos e fun¸c˜ ao econˆomica.

  As tarefas podem ser ligadas por restri¸c˜ oes de potencialidade . Estas englobam: (i) as restri-

  

¸c˜ oes de sucess˜ ao , as quais significam, uma tarefa deve ser executada posteriormente a uma outra tarefa;

  (ii) as restri¸c˜ oes de localiza¸c˜ ao no tempo , as quais significam,uma tarefa deve ser conclu´ıda em uma determinada data ou sua execu¸c˜ ao n˜ao deve come¸car antes e nem finalizar ap´os uma determinada data. Estas tarefas requerem certos recursos para a sua exe cu¸c˜ ao. Estes recursos, por sua vez, introduzem restri¸c˜ oes disjuntivas no problema. Uma restri¸c˜ ao disjuntiva aparecer´a quando duas tarefas, utilizando um mesmo recurso, n˜ao puderem ser executadas simultaneamente. Enfim, deve-se programar as tarefas de forma a otimizar um determinado crit´erio que ser´a a minimiza¸c˜ ao de uma determinada fun¸c˜ ao econˆomica.

  De um ponto de vista industrial, num problema de f´ abrica, as tarefas (chamadas opera¸c˜ oes

  

elementares) s˜ao reagrupadas em entidades chamadas trabalhos (ou jobs). Um problema de f´abrica,

  em geral, cont´em um conjunto de m´aquinas distintas e cada trabalho ´e um conjunto de opera¸c˜ oes elementares, onde cada uma delas deve ser executada numa m´aquina diferente.

  Podemos distinguir trˆes tipos de problemas de f´abrica , segundo a natureza das restri¸c˜ oes de precedˆencia entre as opera¸c˜ oes de um mesmo trabalho[3]: (1) se as opera¸c˜ oes s˜ao independentes, trata- se de um problema de open-shop ; (2) se as opera¸c˜ oes s˜ao ligadas por uma ordem, n˜ao necessariamente idˆentica para todos os trabalhos, trata-se de um problema de job-shop ; (3) se as opera¸c˜ oes s˜ao ligadas por uma mesma ordem para todos os trabalhos, trata-se de um problema de flow-shop . Em particular, trataremos o problema de job-shop cujas caracter´ısticas ser˜ao mostradas nas se¸c˜ oes seguintes.

2.1 Os problemas de f´ abrica

  Nos problemas de f´abrica, as tarefas s˜ao as opera¸c˜ oes elementares relativas `a fabrica¸c˜ ao de um

  

produto; elas necessitam para sua realiza¸c˜ ao de um recurso principal chamado m´ aquina. A fabrica¸c˜ ao

  de um produto ´e sempre denominado trabalho(job). Geralmente, as opera¸c˜ oes de um mesmo trabalho s˜ao organizadas em uma seq¨ uˆencia denominadas gama operat´ oria , enquanto que as opera¸c˜ oes de trabalhos diferentes s˜ao independentes.

  Consideramos o caso no qual uma f´abrica cont´em m m´aquinas distintas e n produtos. Cada

  n

  X n produto P i ´e um conjunto de n i opera¸c˜ oes elementares. Assim, existem n = i opera¸c˜ oes na

  i =1

  f´abrica, cada uma delas tendo que ser executada, numa m´aquina diferente: a utiliza¸c˜ ao de uma m´ aquina k por uma opera¸c˜ ao j ´e denotada M k (O j ) = M k ; N´os utilizamos as seguintes nota¸c˜ oes: P = o conjunto de n produtos (trabalhos) P •

i .

M = o conjunto de m m´aquinas M • k . O = o conjunto de todas as opera¸c˜oes(tarefas) O . •

  j ′

  • O , O } = o conjunto de todas as opera¸c˜oes (tarefas), incluindo as opera¸c˜oes

  = O ∪ {O f im fict´ıcias,O e O f im , que n˜ao s˜ao executadas em m´aquinas e n˜ao aparecem nos produtos. Estas opera¸c˜ oes devem ser executadas respectivamente, antes e ap´os todas as opera¸c˜ oes O j ∈ O. O

  ′ conjunto O cont´em n opera¸c˜ oes enquanto que O cont´em (n + 2) opera¸c˜ oes.

2.1.1 Os produtos e os crit´ erios

  Os produtos podem chegar na f´abrica numa mesma data ou de forma seq¨ uenciada. Esta- mos falando respectivamente dos problemas est´ aticos e dinˆ amicos. Quando as datas de chegada dos produtos s˜ao conhecidas de forma determinada podemos impor ao produto P i ,

  • uma “data mais cedo (r i )” que representa o instante mais cedo de in´ıcio de sua execu¸c˜ ao;
uma “data mais tarde (d )” que representa o instante limite de fim de sua execu¸c˜ ao. •

  i

  A data de fim de execu¸c˜ ao para cada produto i ´e comumente denotada por C

  

i = max {C j },

1≤j≤n i

  onde C representa a data de fim de execu¸c˜ ao da opera¸c˜ ao j na gama operat´oria do produto i.

  j

2.1.2 As m´ aquinas

  As m´aquinas s˜ao recursos disjuntivos e assim, a execu¸c˜ ao das opera¸c˜ oes que utilizam a mesma m´ aquina deve ser planejada de tal sorte que as m´aquinas tenham uma opera¸c˜ ao por vez para tratar. O seq¨ uenciamento dos problemas de f´abrica resulta freq¨ uentemente na procura de seq¨ uencias de opera¸c˜ oes sobre as m´aquinas.

  Consideramos o caso onde uma opera¸c˜ ao s´o pode ser executada numa ´ unica m´aquina (f´ abricas

  

com m´ aquinas especializadas ), e os casos particulares onde todas as opera¸c˜ oes s˜ao executadas numa

´ unica m´aquina existente na f´abrica (f´ abricas com uma ´ unica m´ aquina).

  Nas f´abricas com m´aquinas especializadas, podemos distinguir trˆes tipos de problemas de f´abrica segundo a natureza das restri¸c˜ oes de precedˆencia entre as opera¸c˜ oes elementares de um mesmo trabalho denominados[31]: (1) open-shop,(2) job-shop e (3) flow-shop.

  O caso particular onde uma s´o m´aquina existe na f´abrica problemas com uma m´aquina foi muito estudado na literatura [3]; a fabrica¸c˜ ao de cada produto ´e ent˜ao reduzida a uma ´ unica opera¸c˜ ao denominada simplesmente tarefa.

2.2 O Problema de Job-Shop

  Consideremos os problemas de seq¨ uenciamento do tipo job-shop constitu´ıdos por um conjunto M de m m´aquinas, um conjunto P de n produtos, um conjunto O de n opera¸c˜ oes: M = {M k |k = 1, . . . , m} ; P = {P i |i = 1, . . . , n} ; e O = {O j |j = 1, . . . , n }.

  A utiliza¸c˜ ao de uma m´aquina M k por uma opera¸c˜ ao O j ´e denotado por M (O j ) = M k . O n´ umero total de opera¸c˜ oes executado por uma m´aquina M ´e denotado por m . A dura¸c˜ ao de execu¸c˜ ao

  k k ocupada e todas as outras opera¸c˜ oes sobre a mesma m´aquina aguardar˜ao a sua vez de processamento. Dessa forma, toda opera¸c˜ ao numa m´aquina ter´a uma data de in´ıcio de execu¸c˜ ao denotada por t j . Esta data, calculada para cada opera¸c˜ ao numa mesma m´aquina, depende do instante de finaliza¸c˜ ao da opera¸c˜ ao precedente. O instante de t´ermino para uma opera¸c˜ ao O ´e denotado C , onde C = t + p .

  j j j j j

  Uma opera¸c˜ ao pode ser ent˜ao caracterizada por seu produto, sua posi¸c˜ ao na gama operat´oria, sua m´aquina e sua dura¸c˜ ao de execu¸c˜ ao. A m´aquina deve ser ocupada durante um per´ıodo de tempo conhecido a fim de processar a opera¸c˜ ao.

  A seguir apresentamos as principais caracter´ısticas de um produto P i : • n = n´ umero de opera¸c˜ oes.

  i

  • P } = seq¨

  i = {O 1 ; O 2 ; . . . ; O n i uˆencia de opera¸c˜ oes (gama operat´ oria). n i

  X p p

  • i = j = dura¸c˜ ao total de fabrica¸c˜ ao de P i .

  j =1

  r • i = instante mais cedo de lan¸camento para toda opera¸c˜ ao de P i .

  = instante mais tarde do fim de execu¸c˜ • d ao para todas as opera¸c˜ oes de P .

  i i

  • C {C }.

  i = instante para finalizar o processamento completo de P i , onde C i = max j 1≤j≤n i

  Nos limitamos aos problemas de job-shop est´ aticos e determin´ısticos com m´ aquinas especia-

  

lizadas. Dizemos que um problema ´e est´atico quando todos os seus dados s˜ao conhecidos a priori, e

  determin´ıstico quando os tempos associados a cada opera¸c˜ ao s˜ao perfeitamente determinados. Dizemos que o problema ´e com m´aquinas especializadas quando possui uma lista de opera¸c˜ oes, para cada produto, e uma ordem de passagem nas m´aquinas, imposta inicialmente.

  As restri¸c˜ oes do problema de job-shop est˜ao relacionadas `as possibilidades de utiliza¸c˜ ao das m´ aquinas e `as liga¸c˜ oes que podem existir entre as opera¸c˜ oes. As restri¸c˜ oes que n´os adotamos s˜ao as seguintes:

  • referentes ` as m´ aquinas

  As m´aquinas s˜ao independentes umas das outras, e est˜ao dispon´ıveis durante todo o per´ıodo – do seq¨ uenciamento. Uma m´aquina n˜ao pode executar mais de uma opera¸c˜ ao em um determinado instante. A –

  • – N˜ ao pode existir a preemp¸c˜ ao, isto ´e, uma opera¸c˜ ao em execu¸c˜ ao n˜ao pode ser interrompida pois todas possuem a mesma prioridade.
    • referentes aos produtos – Os produtos s˜ao independentes entre si e n˜ao existe uma ordem de prioridade entre eles.

  • – Um produto deve passar por uma ´ unica m´aquina a cada vez, ou seja, cada opera¸c˜ ao de sua gama operat´oria deve passar por uma m´aquina diferente.
  • – Na gama operat´oria de um produto, cada opera¸c˜ ao deve respeitar uma ordem de execu¸c˜ ao:
    • 1 n˜ao pode ser iniciada antes do t´ermino de O j .

  4

  2

  3

  8

  4

  1

  3

  9

  4

  3

  4

  10

  1

  7

  4

  11

  3

  2

  4

  12

  2

  3 Tabela 2.1: Dados do problema-exemplo de job-shop.

  minimiza¸c˜ ao do tempo total de seq¨ uenciamento (makespan): min {max

  i

  C i }. Devemos ent˜ao determinar a seq¨ uˆencia das opera¸c˜ oes em cada m´aquina, de tal sorte que ela seja a menor poss´ıvel respeitando todas as restri¸c˜ oes do problema.

  Podemos tamb´em representar este problema de job-shop utilizando grafo potencial-tarefas G = (X , C ∪ D) onde X ´e o conjunto de n´os do grafo associado a cada opera¸c˜ao de um determinado produto, C representa o conjunto relativo aos arcos associados `as restri¸c˜ oes de precedˆencia e D rep- resenta o conjunto dos arcos associados `as restri¸c˜ oes disjuntivas[31]. Desta forma, o problema acima, ficar´ a ilustrado pelo grafo G como mostra a Figura 2.1.

  1

  3

  a opera¸c˜ ao O j

  3

  A fim de tornar mais compreensiva todas as defini¸c˜ oes vistas, apresentamos um exemplo de um proble- ma de job-shop cujos dados s˜ao mostrados na Tabela 2.1. O crit´erio de otimiza¸c˜ ao deste problema ´e a

  

n = 4 m = 3

n 1 = n 2 = n 3 = 3 m 1 = m 2 = m 3 = 4

produto opera¸ c˜ ao dura¸ c˜ ao m´ aquina

  1

  1

  3

  2

  1

  2

  3

  3

  1

  1

  1

  1

  2

  4

  3

  3

  2

  5

  2

  2

  2

  6

  3

  Na Figura 2.1, mostramos o grafo com o conjunto de arcos conjuntivos C representados pelas

  3

  

3

  1 O O O

  1

  

2

  3

  3

  

2

  3 O O O

  4

  

5

  6 O O fin

  4

  1

  

4

O O O

  7

  

8

  9

  

3

  4

  2 O O O

  10

  

11

  12 MAQUINA 1 ´ MAQUINA 2 ´ MAQUINA 3 ´

Figura 2.1: Grafo potencial-tarefa representando o exemplo do job-shop.

  arcos disjuntivos representam as m´aquinas. Cada opera¸c˜ ao ´e representada por um n´o. Os arcos que partem de cada n´o s˜ao ponderados pela dura¸c˜ ao da opera¸c˜ ao correspondente. Os arcos que est˜ao `a origem do n´o O s˜ao ponderados pelo instante do lan¸camento da primeira opera¸c˜ ao de cada produto. Os arcos que chegam ao n´o O s˜ao ponderados pelo instante do t´ermino da ´ ultima opera¸c˜ ao de cada

  f im produto. Neste exemplo, todos os produtos s˜ao lan¸cados inicialmente ao instante 0[31].

  Para representar a solu¸c˜ ao deste problema de job-shop utilizamos o diagrama de Gantt, que nos permite visualizar um seq¨ uenciamento representando a ocupa¸c˜ ao das m´aquinas pelas opera¸c˜ oes em fun¸c˜ ao do tempo[31]. Apresentamos, na Figura 2.2, duas solu¸c˜ oes poss´ıveis para este problema num diagrama de Gantt. Observamos que todas as restri¸c˜ oes do problema s˜ao respeitadas; n˜ao existe superposi¸c˜ ao entre as opera¸c˜ oes. Notemos que a solu¸c˜ ao S forneceu um comprimento do seq¨ uencia-

  1

  mento maior que a solu¸c˜ ao S : C ≫ C . Isto foi devido ao fato que, em S , encontramos muito

  2 max 1 max

  2

  1

  1

  mais tempo morto nas m´aquinas que em S . Estes tempos mortos s˜ao representados pelos espa¸cos

  2 vazios de uma faixa antes do in´ıcio da execu¸c˜ ao de alguma opera¸c˜ ao numa mesma m´aquina.

  M

  1 P

  1 P

  2 M

  2 P

  3 M P

  3

  4

  33 ~ : tempo C = 33 Solucao S 1

  ´ max

  

1

M P

  1

  1 P

  2 M

2 P

  3 P M

  3

  4

  13 tempo

  ~ : C = 13

  Solucao S 2 max

  ´

  

2

Figura 2.2: Diagrama de Gantt representando duas solu¸c˜ oes para o exemplo do job-shop.

  Na Figura 2.3, mostramos a solu¸c˜ ao S para o job-shop representada por um grafo conjuntivo.

  2

1 Tempo morto de uma m´ aquina ´e o tempo que esta fica ociosa aguardando alguma opera¸c˜ ao para execu¸c˜ ao.

  3

  

3

  1 O

  1 O

  2 O

  3

  3

  

2

  3 O O

  4 O

  

5

  6 O O fin

  4

  1

  

4

O

  7 O

  8 O

  9

  

3

  4

  2 O

  10 O

  11 O

  12 MAQUINA 1 ´ MAQUINA 2 ´ MAQUINA 3 ´

Figura 2.3: Grafo conjuntivo da solu¸c˜ ao S para o exemplo do job-shop.

  2

2.2.1 Formula¸ c˜ ao Matem´ atica

  Existem diversas propostas de formula¸c˜ oes para problemas de seq¨ uenciamento do tipo job- shop[31]. No entanto, utilizaremos o modelo matem´atico proposto por A.S.Manne[29]. A formula¸c˜ ao em n´ umeros inteiros proposta por Manne define uma nova vari´avel para cada par ordenado de opera¸c˜ oes utilizando a mesma m´aquina. Esta vari´avel em 0-1 se escreve y uv , tal que:

   

  1, se O precede O sobre M

  v u k

  y uv =  .

  0, se O u precede O v sobre M k Este modelo sup˜oe tamb´em o conhecimento de uma borda superior BS da dura¸c˜ ao total do seq¨ uenciamento. Esta borda pode ser a soma de todos os tempos operat´orios das opera¸c˜ oes do problema:

  

n

  X BS p . = j

  (2.1)

  j =1;j∈O

  sendo assim, as restri¸c˜ oes do problema de job-shop podem ser expressas pelas equa¸c˜ oes: h (2.2) t ≥ t , ∀(j, j + 1) ∈ C

  j j + p j

  • 1

  h t (2.3)

  

v ≥ t u + p u − BS(y uv ), ∀(u, v) ∈ D

  h (2.4) t

  

u ≥ t v + p v − BS(1 − y uv ), ∀(v, u) ∈ D

  As restri¸c˜ oes (2.2) representam as restri¸c˜ oes de precedˆencia ( restri¸c˜ oes de produto) , por isso elas incluem todos os arcos conjuntivos pertencentes ao conjunto C . As restri¸c˜ oes (2.3) e (2.4) representam as restri¸c˜ oes disjuntivas restri¸c˜ oes de m´aquina(restri¸c˜ oes de capacidade das m´aquinas), ou seja, ela representa todos os pares de arcos disjuntivos pertencentes ao conjunto D. Lembremos que os conjuntos C e D constituem o grafo potencial tarefa G visto na Se¸c˜ ao 2.2. Neste modelo, para cada y vale 0. Conseq¨ uentemente a restri¸c˜ ao (2.4) ´e desativada j´a que t ≥ t + p − BS, pois da forma

  uv u v v

  que BS foi definido (2.1), faria com que a opera¸c˜ ao t u tivesse um tempo de in´ıcio elevado, ou mais especificamente, ele seria igual ou maior que BS menos a dura¸c˜ ao da opera¸c˜ ao v. Matematicamente ter´ıamos:

  n

  X t ≥ t − p ,

  u v + p v j (2.5) j =1

  tornando assim a equa¸c˜ ao (2.5) invi´ avel, pois o tempo de in´ıcio da opera¸c˜ ao v teria que aumentar bastante n˜ao oferecendo assim uma minimiza¸c˜ ao no tempo total de produ¸c˜ ao. Enquanto que a restri¸c˜ ao (2.3) ´e ativada j´a que torna-se t .

  v ≥ t u + p u (2.6)

  Consideremos como objetivo,

  X t min j

  

j

onde t j determina o tempo de in´ıcio da opera¸c˜ ao j.

2.2.2 M´ etodos de Resolu¸ c˜ ao

  Os algoritmos de resolu¸c˜ ao para os problemas de seq¨ uenciamento do tipo job-shop s˜ao basea- dos em m´etodos cl´assicos da otimiza¸c˜ ao combinat´oria m´etodos exatos que buscam a solu¸c˜ ao ´otima, ou s˜ao simplesmente algoritmos aproximados (heur´ısticos) que n˜ao garantem a otimalidade da solu¸c˜ ao, mas permitem o tratamento dos problemas de grande porte em um tempo razo´avel.

  O objetivo dos m´etodos exatos ´e encontrar, em um tempo de c´alculo menor poss´ıvel, a solu¸c˜ ao ´otima do problema. Para os problemas de job-shop, isto ´e um desafio devido `a sua natureza combinat´oria que o classifica como um problema NP-dif´ıcil[16]. Dentre os m´etodos de resolu¸c˜ ao exata mais eficientes para os problemas de job-shop, temos o m´etodo de separa¸c˜ ao e avalia¸c˜ ao(Branch and

  Bound)[9].

  O princ´ıpio de um m´etodo heur´ıstico ´e encontrar, em um tempo polinomial, a melhor poss´ıvel solu¸c˜ ao vi´avel[i.e., sub-´otimo para o job-shop [7]. Os mais utilizados s˜ao os m´etodos heur´ısticos seriais que utilizam os algoritmos de lista para construir, de modo progressivo, os seq¨ uenciamentos sem atraso no processamento nas m´aquinas. Estes tipos de seq¨ uenciamentos s˜ao tais que uma m´aquina n˜ao pode estar parada enquanto existir, no m´ınimo, uma opera¸c˜ ao para ser processada. Da literatura [7], podemos citar os algoritmos de lista mais conhecidos:

  Out).

  Atualmente, existem numerosos algoritmos heur´ısticos para resolver o job-shop: (1) as heur´ısticas

  

construtivas [1][11][30] s˜ao baseadas sobre as opera¸c˜ oes ou sobre as m´aquinas, sendo que as solu¸c˜ oes

  obtidas est˜ao muito distantes do valor ´otimo; (2) as heur´ısticas melhoradas que quando aplicadas aos problemas de grande dimens˜ao, tornam-se muito lenta e menos eficazes. As mais conhecidas s˜ao os m´etodos tabu [20][21][34][11][22], os recursos simulados[23][32] e os algoritmos gen´eticos[8][12]; (3)

  

redes neurais e inteligˆencia artificial. Estas t´ecnicas s˜ao cada vez mais utilizadas pelos especialistas da

  ´ area de pesquisa operacional que tratam os problemas de seq¨ uenciamento do tipo job-shop[6][24][26].

  Podemos ainda citar os m´etodos de decomposi¸c˜ ao, os quais buscam encontrar a solu¸c˜ ao do problema original atrav´es da resolu¸c˜ ao dos seus subproblemas. Conhecidos da literatura, temos os m´etodos cl´ assicos de decomposi¸c˜ ao e os m´etodos de decomposi¸c˜ ao espacial. Os m´etodos cl´assicos de decomposi¸c˜ ao em programa¸c˜ ao matem´atica para resolver os problemas combinat´orios possuem como base o princ´ıpio da relaxa¸c˜ ao lagrangeana[27],[17].

  Aplicado aos problemas de job-shop, destacamos os trabalhos de Fisher, M.L.[13][14][15]. Fisher, em um primeiro tempo, utilizou os multiplicadores de Lagrange para dualizar as restri¸c˜ oes de recursos (m´aquinas) formando o problema de Lagrange no qual as restri¸c˜ oes de produtos aparecem explicitamente, enquanto que as de m´aquinas est˜ao presentes apenas na fun¸c˜ ao de Lagrange. Con- seq¨ uentemente, os subproblemas eram constitu´ıdos pelas restri¸c˜ oes de produtos, e o problema mestre era encarregado de verificar a factibilidade das restri¸c˜ oes de m´aquinas determinando assim os multipli- cadores de Lagrange. Mais tarde, Fisher [15] propˆos uma metodologia que efetua um tipo de relaxa¸c˜ ao lagrangeana (surrogate duality relaxation). Isto significa que a relaxa¸c˜ ao era obtida substituindo certas restri¸c˜ oes do problema por uma combina¸c˜ ao linear ponderada destas mesmas restri¸c˜ oes. Vale observar que a diferen¸ca em rela¸c˜ ao `a cl´assica relaxa¸c˜ ao lagrangeana reside no fato que as restri¸c˜ oes agregadas e ponderadas n˜ao s˜ao eliminadas e adicionadas `a fun¸c˜ ao objetivo. Em suma, o interesse nesta metodolo- gia ´e mais te´orico que pr´atico j´a que as bordas obtidas s˜ao melhores que aquelas obtidas pela relaxa¸c˜ ao lagrangeana cl´assica.

  Os m´etodos de decomposi¸c˜ ao espacial s˜ao aplicados aos problemas de job-shop com v´arias m´ aquinas e consistem em formar sub-problemas de job-shop reagrupando m´aquinas e produtos. Em geral, os produtos s˜ao agrupados em fam´ılias e as m´aquinas em c´elulas de fabrica¸c˜ ao de tal sorte que os produtos de uma mesma fam´ılia sejam fabricados essencialmente, por m´aquinas de uma c´elula principal e utilizam de forma excepcional as m´aquinas de outras c´elulas. As opera¸c˜ oes dos produtos que s˜ao executadas por m´aquinas que n˜ao fazem parte da c´elula principal s˜ao denominadas elementos residuais interligados pelos elementos residuais. Esta filosofia de decomposi¸c˜ ao aparece sob os conceitos da tecnologia de grupos[24][25].

  Mais recentemente, surgiu a metodologia de Alves, I. [2] que prop˜oe a resolu¸c˜ ao do problema de job-shop utilizando a decomposi¸c˜ ao espacial junto `a decomposi¸c˜ ao cl´assica. Neste procedimento, utiliza-se a tecnologia de grupos a fim de particionar o problema de job-shop e, em seguida, a t´ecnica da relaxa¸c˜ ao lagrangeana ´e utilizada para resolver os subproblemas coordenados por um problema mestre. O problema mestre ´e formado pelas restri¸c˜ oes de acoplamento resultantes dos elementos residuais. Desta forma, as restri¸c˜ oes contendo os elementos excepcionais n˜ao s˜ao desprezadas do problema. Elas s˜ao enviadas a um n´ıvel coordenador enquanto que as demais restri¸c˜ oes formam os subproblemas. Ou seja, cada fam´ılia de produto correspondente `a sua c´elula principal constitui um subproblema que ser´ a resolvido independente dos outros. Utilizando a t´ecnica cl´assica de decomposi¸c˜ ao da relaxa¸c˜ ao lagrangeana acoplada `a tecnologia de grupos, podemos observar que os subproblemas resultantes conservam um n´ umero maior de restri¸c˜ oes, isto ´e, eles se aproximam mais do problema original pois as restri¸c˜ oes de produtos (ou de m´aquinas) relaxadas s˜ao apenas aquelas que cont´em os elementos residuais. Isto garante de forma mais eficiente, a factibilidade das solu¸c˜ oes locais dos subproblemas. A fim de tornar a convergˆencia mais r´apida desta metodologia, Ramos, A. [31] propˆos o ajuste de alguns parˆametros do m´etodo do subgradiente quando utilizado para resolver o problema mestre.

  No cap´ıtulo seguinte apresentaremos o m´etodo de decomposi¸c˜ ao de Dantzig-Wolfe aplicado ao problema de job-shop. Cap´ıtulo 3 M´ etodo de Dantzig-Wolfe e o Problema de Job-Shop

  Os cap´ıtulos anteriores descrevem o m´etodo de decomposi¸c˜ ao de Dantzig-Wolfe e o problema de seq¨ uenciamento do tipo Job-Shop. Neste cap´ıtulo, utilizaremos o m´etodo de Dantzig-Wolfe como descrito no Cap´ıtulo 1 para resolver um particular problema de job-shop conforme Cap´ıtulo 2. As- sumiremos como restri¸c˜ oes de acoplamento as restri¸c˜ oes de precedˆencia e associado a cada m´aquina M um subproblema k. Contudo, acontece a ausˆencia de limites inferiores e/ou superiores de algumas

  k

  vari´aveis quando tratamos as restri¸c˜ oes de precedˆencia como acoplamento. Desta forma, adotaremos novos limites de modo a compensar tal perda. A fim de verificar a aplicabilidade do m´etodo de Dantzig-Wolfe ao job-shop, apresentamos alguns exemplos num´ericos e as respectivas an´alises. Al´em disso, abordamos de que forma tratamos um problema de job-shop sem introduzir estes novos limites, ou seja, no caso do conjunto de solu¸c˜ oes ser ilimitados.

3.1 Decomposi¸ c˜ ao do Job-Shop

3.1.1 Modelagem Matem´ atica

  Relembremos, do Cap´ıtulo 2, que o modelo matem´atico adotado para o problema de job-shop tem como base o modelo de A.S. Manne [29], descrito da seguinte forma:

  

n

  X min t (3.1)

  j Sujeito a: (3.2) t ,

  

j ≥ t j + p j ∀(j, j + 1) ∈ C

  • 1

  t ≥ t − BS(y ∀(u, v) ∈ D

  v u + p u uv ),

  (3.3) t

  

u ≥ t v + p v − BS(1 − y uv ), ∀(v, u) ∈ D

n

  X BS p = j (3.4)

  

j

=1

   

  1, se O v precede O u sobre M

  k

  y

  uv =

  (3.5)  .

  0, se O u precede O v sobre M k As restri¸c˜ oes (3.2) representam as restri¸c˜ oes de precedˆencia (restri¸c˜ oes de produto), as res- tri¸c˜ oes (3.3) - (3.5) representam as restri¸c˜ oes de capacidade (restri¸c˜ oes de m´aquina), e a vari´avel t

  j determina o tempo de in´ıcio da execu¸c˜ ao da opera¸c˜ ao j.

3.1.2 M´ etodo de Dantizg-Wolfe

  Como descrito no Cap´ıtulo 1, o m´etodo de decomposi¸c˜ ao de Dantzig-Wolfe consiste de dois n´ıveis de resolu¸c˜ ao os quais a cada itera¸c˜ ao, trocam informa¸c˜ oes at´e chegar ao valor ´otimo ou fornecer solu¸c˜ oes pr´oximas ao ´otimo do problema original. Relembremos o algoritmo da decomposi¸c˜ ao de Dantzig-Wolfe.

  Consideremos o seguinte Programa Linear, 

  p

  X    min z = c x (3.6)

  i i

    

  i

   =1        

  Sujeito a : 

  p

   

  (3.7)

  X    A

  i x i = b

    

  i

   =1     

  (3.8)

  x i ∈ X i onde assumiremos, inicialmente, o conjunto X i = {x i |B i x i = b i , x i ≥ 0} limitado e chamaremos

  r

  1

  2 E , , · · · , x } o conjunto dos pontos extremos de X i = {x x i , i = 1, · · · , p. Assim, podemos escrever i i i

  X

  j

  λ x i = ij x (3.9)

  i j

r

  X λ

  ij = 1 (3.10) j

=1 Substituindo (3.9)- (3.11) em (3.6)- (3.8), o problema original poder´a ser transformado no problema mestre(PM) na vari´avel λ ij  p

  

r

  X X  j   min z = (c i x )λ ij (3.12)

  i

    

  

j i

=1 =1

              

  Sujeito a :    r p  

  X X

  (3.13) j

   

  (A i x )λ ij = b  i 

  j i =1 =1 r

   

  X    λ = 1

  ij (3.14)

    

  j

   =1      

  (3.15)

  λ ≥ 0

  ij

          i

  = 1, · · · , p  

  (3.16)

     j

  = 1, · · · , r onde

  (3.17) j

  f

  ij = c i x i j

  p

  (3.18) ij = A i x i

  No problema mestre (3.12) - (3.18) aplicaremos o m´etodo simplex revisado[4], onde o crit´erio usual pede para resolvermos o seguinte subproblema: z = min (c i − π A i )x i (3.19)

  i

  1 x ∈X i i

  Analisaremos o crit´erio min (z − π ) ≥ 0 (1.58), sendo π e π as vari´aveis duais associadas

  0i 1 0i i i

  `as restri¸c˜ oes (3.13) e (3.15) respectivamente e definiremos qual vari´avel entra na base ou se a solu¸c˜ ao corrente do problema mestre (3.12)- (3.18) ´e ´otima. Neste caso, a solu¸c˜ ao ´otima do problema original (3.19) - (3.23) ´e dada pela express˜ao:

  X

  j

  λ x = ij x (3.20)

  i j j .

  onde os x ’s s˜ao pontos extremos de X i correspondentes `a base referente `a λ ij Caso contr´ ario, ainda

  i

  f podemos melhorar a solu¸c˜ ao do problema mestre, escolhendo a vari´avel associada ao custo ¯ is (1.58) a entrar na base do atual sistema do PM. A seguir apresentaremos de que forma esta metodologia ´e aplicada ao problema de job-shop, incluindo as poss´ıveis modifica¸c˜ oes que seriam feitas na modelagem.

3.1.3 Aplica¸ c˜ ao do m´ etodo de Dantzig-Wolfe ao Job-Shop

  Consideremos o problema de seq¨ uenciamento do tipo job-shop (3.1) - (3.5) e as restri¸c˜ oes de acoplamento como sendo as restri¸c˜ oes de precedˆencia (3.2). Suponhamos, inicialmente, que o problema

  k

  foi particionado em k subproblemas independentes onde cada um destes possuem n tarefas associadas ` a m´aquina M . Assim, podemos reescrever o modelo matem´atico do problema de job-shop da seguinte

  k

  maneira:

  p

  X

  k

  τ min

  (3.21) k

  τ ≥ k =1

  Sujeito a:

  k r

  [τ ≥ τ + p j ∀(j, j + 1) ∈ C e (k 6= r) (3.22)

  j +1 j k k k

  ≥ τ − BS(y ∀(u, v) ∈ D M ∈ M [τ + p v ) k ; k

  u v uv k k k

  [τ ≥ τ + p u − BS(1 − y ) ∀(u, v) ∈ D k ; M k ∈ M (3.23)

  v u uv n

  X BS p = j (3.24)

  

j

=1

  

  k k

   1, se O precede O sobre M

  v u k k

  y =

  (3.25)

  uv k k

   0, se O precede O sobre M k

  u v k k k k k

  , t , · · · , t onde τ = (t k ) e cada componente t representa o tempo inicial da tarefa i do bloco k.

  i

  1 2 n

  Uma outra forma de apresentarmos o problema de job-shop (3.21) - (3.25) seguindo a for- mula¸c˜ ao (3.6)-(3.8) seria como segue: 

  p

  X 

  k

   τ

   min

  (3.26)

  

  k

   τ ≥ 

  k =1

          

  Sujeito a: 

  p

   

  X (3.27) 

  k

    A τ

  k ≥ p

      k

  =1

     

  k

  

  (3.28)

  τ ∈ X k ; k = 1, 2, · · · , p

  k

  Chamaremos X o conjunto dos τ que satisfazem as restri¸c˜ oes (3.23)-(3.25) e seja E =

  k k k k k

  {τ , τ , · · · , τ } o conjunto dos pontos extremos de X . Ocorre que o conjunto X define um conjunto

  k k r

  1

  2

  ilimitado. Observamos que ao tratarmos as restri¸c˜ oes de precedˆencia como acoplamento, acontece

  k

  a ausˆencia dos limites inferior e superior para as vari´aveis t pertencentes a estas restri¸c˜ oes. Desta

  i

  forma, ao encontrarmos uma solu¸c˜ ao local para cada subproblema k, provavelmente, essas solu¸c˜ oes para estas vari´aveis, a fim de eliminar a infactibilidade global destas solu¸c˜ oes locais, como tamb´em

  k

  limitar a regi˜ao fact´ıvel. Portanto, para k = 1, 2, · · · , p e para X k limitado, τ da forma:

  p r

  X X

  k k

  τ λ τ = ij (3.29)

  j k j =1 =1 r

  X λ

  kj = 1; (3.30) j =1

  λ

  kj ≥ 0, k = 1, 2, · · · , p j = 1, 2, · · · , r (3.31)

  Utilizamos, inicialmente, o seguinte padr˜ao para estes limites:

  n

  X LI LS p

  ki = LS k e ki = BS − l (3.32) (i−1) l =i

  onde LI ki e LS ki s˜ao, respectivamente, os limites inferior e superior do tempo de in´ıcio da opera¸c˜ ao

  k

  t . Assim, temos

  i k

  LI ≤ t ≤ LS . (3.33)

  ki i ki k

  Pensando no problema de job-shop, podemos relacionar o limite LI ki ao r , representando

  i k

  assim o instante mais cedo de in´ıcio da execu¸c˜ ao opera¸c˜ ao O e o limite LS ki acrescentado as dura¸c˜ ao

  i k k k

  da vari´avel t , ao d , representando o instante limite do fim da execu¸c˜ ao da opera¸c˜ ao O . Logo, temos;

  i i i k k k

  r ≤ t ≤ d (3.34)

  i i i

  Desta forma, ao aplicarmos o m´etodo de Dantzig-Wolfe teremos abaixo o problema mestre (3.35)- (3.38) e o k-´esimo subproblema (3.41)-(3.43).

  Problema Mestre

  

  r p

  

  X X   f λ min kj kj (3.35)

    k

  τ ≥

   

  

j k

=1 =1

             

  Sujeito a:   

  p r (3.36)

  X X q λ ≥ p

  kj kj

      k j

  =1 =1

    

  p r

   

  X X    λ

  kj = 1 (3.37)

    

  j

   k =1 =1      

  (3.38)

  λ ≥ 0; k = 1, 2, · · · , p; j = 1, 2, · · · , r

  kj

  onde

  (3.39) j

  q τ , k

  kj = A k = 1, 2, · · · , p; j = 1, 2, · · · , r k p - vetor das dura¸c˜ oes das opera¸c˜ oes precedentes na gama operat´oria,

  k

  c k - vetor com n componentes iguais a unidade.

  Subproblema k

   

  k

   

  A min (c k − π k )τ (3.41) 

  1

       

  Sujeito a:        k 

  τ ∈ X

  k (3.42)

        k

  LI

  ki ≤ t ≤ LS ki (3.43) i

  Consideremos o nosso problema de job-shop (3.26) - (3.28): 

  p

  X  k   min τ (3.44)   

  k

   =1        

  Sujeito a: 

  p

   

  (3.45)

  X 

  k

    A τ ≥ p

  k

      k =1    

  k

  

  (3.46) τ ∈ X . k Do problema mestre formulado (3.35)-(3.40), teremos que partir da sua solu¸c˜ ao b´asica inicial.

  ´e importante ressaltar que o sistema (3.36) ´e de desigualdades do tipo ≥, portanto o vetor das vari´aveis , s , , de folga deve ser inserido no problema mestre e ser representado como s = (s · · · , s i · · · , s m ),

  1

  2

  cujo i-´esimo componente corresponde a i-´esima restri¸c˜ ao. Todavia, n˜ao ´e poss´ıvel determinar uma solu¸c˜ ao vi´avel ao acrescentar tais vari´aveis. Sendo assim, recorremos a algum m´etodo para obter tal solu¸c˜ ao, como por exemplo no m´etodo de Duas Fase ou Big-M (Lasdon[27],Bazaraa[4]). Atrav´es deste procedimento conseguimos obter uma solu¸c˜ ao b´asica inicial e conseq¨ uentemente, a matriz b´asica correspondente, B, as vari´aveis duais π 1 e π .

  Neste caso, o algoritmo de Dantzig-Wolfe aplicado ao problema de job-shop, pode ser visto da seguinte forma:

  Algoritmo 3.1. Algoritmo de Dantzig-Wolfe aplicado ao job-shop

1. Usando as vari´aveis duais π obtidas do problema mestre, resolvemos cada subprob-

  1 k

  lema k (3.41)-(3.43) obtendo as suas respectivas solu¸c˜ oes τ (π ), e o valor ´otimo objetivo,

  1 p t 1 z .

  . Seja τ (π ) = (τ (π ), · · · , τ (π ))

  1

  1

  1 k ′

2. Calculemos os valores dos custos relativos das vari´aveis λ s , ¯ f (1.18), e deter-

  kj kj

  minemos: ¯ f − π f . min min kj = min (z ) = ¯ vj (3.47)

  k 0k j k k

  onde

  (3.48) k z = min (c − π A )τ . k

1 k

k

  Sujeito a:

  (3.49)

k

  τ ∈ X

  k

k k k

(3.50)

  LI ≤ t ≤ LS

  

i i i

(3.51)

  Se ¯ f ≥ 0, min kj (3.52)

  k

  significa que n´os podemos parar, pois n˜ao existem mais candidatos a entrar na base. Assim, a solu¸c˜ao ´otima para (3.21) - (3.25) ´e

  p p

r

  X X

  X

  

k k

  τ τ λ τ , = = kj (3.53)

  j

j

k =1 k =1 =1 k

  . onde τ s˜ao pontos extremos de X k correspondentes `a vari´avel b´asica λ kj

  j

3. Se min (z − π ) ≤ 0, constru´ımos a coluna

  0k k k

   

  v

  A τ

  v (π )

  1

    (3.54) u

  v −

  1

  atualizada atrav´es da multiplica¸c˜ao pela inversa da antiga base, B , e usando a opera¸c˜ao pivˆ o do m´etodo simplex usual, obtemos uma nova base inversa e um novo vetor dos mul-

4. Utilizamos as solu¸c˜ oes corrente dos subproblemas para reajustar os respectivos

  limites(3.33), ou seja, estes limites ser˜ao ajustados a cada itera¸c˜ao de acordo com a solu¸c˜ao precedente, da seguinte forma:

  (iter) (iter−1)

  LI

  1. = LS + p i−

  1 ki k (i−1) (inter) (iter−1) (iter) (iter−1) (iter) (inter)

  LS − (LI − LI

  2. = LS ) onde, LI e LS s˜ao os

ki ki ki ki ki ki

(iter−1) (iter−1)

  limites da itera¸c˜ao corrente e LI e LS s˜ao limites da itera¸c˜ao anterior.

  ki ki Retornamos a 1.

3.1.4 Regi˜ ilimitada

  k ao X

  Como j´a descrito no Cap´ıtulo 1 na se¸c˜ ao (1.5), para X k ilimitado, o m´etodo de Dantzig-Wolfe admite altera¸c˜ oes em conseq¨ uˆencia de uma nova combina¸c˜ ao para seus elementos τ k . Esta se¸c˜ ao far´a uma abordagem te´orica de tais poss´ıveis altera¸c˜ oes para o caso do problema de job-shop.

  k

  Seja X um conjunto ilimitado dos τ que satisfazem as restri¸c˜ oes (3.23) - (3.25). Neste caso,

  k k

  ∀τ ∈ X

  k ser˜ ao representados como segue:

p p

r l

  X X

  X X

  k k k

  τ λ τ µ = kj sj d (3.55) +

  j s

k j =1 k s =1

=1 =1

p r

  X X λ = 1

  kj (3.56) k j =1 =1

  (3.57)

  λ ≥ 0, j = 1, 2, · · · , r; k = 1, 2, · · · , p

  kj (3.58) µ ≥ 0, s = 1, 2, · · · , l; k = 1, 2, · · · , p. ks k k k k k k

  , τ , · · · , τ , , · · · , d onde τ s˜ao pontos extremos de X k e d

  1 d 2 s s˜ao dire¸c˜ oes extremas de X k . O r

  1

  2

  problema original dever´ a ser transformado no chamado problema mestre nas vari´aveis λ kj e µ ks como segue:

  

  

p r p l

  X X

  X X  k k  min (c )λ + τ (c d )µ (3.59)  k kj k ks

  j s

    

  

k j k s =1

=1 =1 =1

               Sujeito a:   

  p p r l

   

  X X

  X X 

  k k

  τ ≥ p (A k )λ kj (A + k d )µ ks

  j s k j k s

   =1 =1 =1 =1    p

  r

   

  X X  

  λ

  kj = 1

  

  (3.60)

    

  k j =1 =1

         λ

  (3.61) kj ≥ 0, k = 1, 2, · · · , p; j = 1, 2, · · · , r

       

  (3.62) µ ≥ 0, k = 1, 2, · · · , p; s = 1, 2, · · · , l. ks

  Optaremos novamente em aplicar o M´etodo Simplex Revisado, lembrando que o n´ umero de vari´aveis poder´a ser muito grande, a depender da quantidade de pontos extremos e dire¸c˜ oes extremas. Iniciaremos com uma solu¸c˜ ao b´asica fact´ıvel e com a matriz base correspondente, B, as vari´aveis duais π e π correspondente ´a restri¸c˜ ao (3.60) e ´a restri¸c˜ ao (3.60), respectivamente. Lembremos que

  1 0i

    b

  − −

  1

  1

  π = (π , π , · · · , π , · · · , π ) = f B , f ´e o custo das vari´aveis b´asicas λ e ¯b = B   ,

  1 01 0k 0p B B B

  1 mostrado na Tabela 3.1.

  ¯b

(π , π , · · · , π , · · · , π ) f B

1

01 0k 0p

  1 ¯b B

  

Tabela 3.1: Tabela do simplex revisado do problema mestre.

  A solu¸c˜ ao ´e ´otima para o problema original se os custos relativos de todas as vari´aveis do problema f f mestre s˜ao n˜ao-negativas, ¯ kj ≥ 0 e ¯ ks ≥ 0 para todas as vari´aveis n˜ao-b´asicas. Em particular, as condi¸c˜ oes de otimalidade devem satisfazer as seguintes condi¸c˜ oes:

   

  k

  A τ

  k j k k

  (i) λ n˜ ao b´asica ⇒ 0 ≤ ¯ f = c τ − π   = (c − πA )τ − π (3.63)

  kj kj k k k 0k j j

  1  

  k

  A d

  k s k k

  f τ   (ii) µ ks n˜ ao b´asica ⇒ 0 ≤ ¯ ks = c k − π = (c k − πA k )d (3.64)

  j s

  Assim, devemos verificar se essas condi¸c˜ oes s˜ao satisfeitas ou n˜ao. Determinamos inicialmente o conjunto solu¸c˜ ao e o valor objetivo minimal z , de cada subproblema k(3.41) - (3.43) e, em seguida,

  k

  aplicamos o crit´erio usual do m´etodo simplex (3.52). Se a solu¸c˜ ao corrente ´e ´otima. Caso contr´ario, a coluna para entrar na base ´e aquela com − π min (z ). (3.66)

  

k 0k

k

  Suponhamos primeiramente que o valor da solu¸c˜ ao ´otima do subproblema ´e ilimitada. Isto ´e

  v s

  < poss´ıvel se somente se for encontrada uma dire¸c˜ ao extrema d tal que (c k − πA k )d 0, significando

  v j

  que a condi¸c˜ ao (3.64) foi violada. Portanto, a vari´avel µ ´e eleita a entrar na base. Neste caso,

  vs

   

  v

  A d

  v s

  

1

    ´e atualizada pr´e-multiplicando por B e a coluna resultante ´e inserida na Tabela (3.1). Assim, o m´etodo simplex revisado continua com uma pr´oxima itera¸c˜ ao.

  k

  Consideremos a solu¸c˜ ao ´otima sendo limitada. Neste caso, (c − πA )d ≥ 0 para todas as

  k k s

  dire¸c˜ oes extremas, valendo a equa¸c˜ ao (3.64). Agora, observaremos se a equa¸c˜ ao (3.63) ´e v´alida. Seja

  v

  τ f f um ponto extremo ´otimo e considere o objetivo ´otimo ¯ vj , para o subproblema v. Se ¯ vj ≥ 0, ent˜ao

  j k k

  pela otimalidade de τ , para cada ponto extremo τ , temos

  v j k v

  A A f (3.67) (c k − π k )τ − π ≥ (c v − π v )τ − π = ¯ vj ≥ 0

  1 0k 1 0v j j

  e portanto, a condi¸c˜ ao (3.63) ´e satisfeita e temos uma solu¸c˜ ao ´otima do problema original (3.1) - (3.5).

    ¯ f

  vj

    Caso contr´ario, a vari´avel λ vj ´e eleita a entrar na base. Isto ´e feito inserindo a coluna na y vj

   

  j

  A τ

  v v

   

  − 1  

  Tabela 3.1, onde y vj = B onde u v ´e um vetor p-componente com um na posi¸c˜ ao v − − − − −

      u v e zeros nas outras.

3.2 Problemas Testes

  3.2.1 Problema Teste 1 Considere o seguinte problema teste de job-shop, cujos dados s˜ao mostrados na Tabela 3.2.

  

produto opera¸c˜ ao dura¸c˜ ao m´ aquina

  1

  1

  3

  1

  1

  2

  2

  2

  1

  3

  1

  3

  2

  4

  1

  1

  2

  5

  3

  3

  2

  6

  4

  2 Tabela 3.2: Dados do problema teste 1.

  De acordo com o Modelo Matem´atico (3.1)-(3.5) o problema da Tabela 3.2 ´e da forma:

6 X

  t j min (3.68) j =1

  Sujeito a:

  1 t

  2 −

  • t

  ≥

  3 2 t + − t 3 ≥

  2 t 4 t

  5 − + ≥

  1

  • t 6 − t

  5 ≥

  3 t 1 t

  4

  14 −

  ≥

3 − 14y (3.69) +

1 − t

4 ≥ −

13 14y

+ + t

  14 t t − +

  26 t 2 t

  2 6 ≥ 2 − 14y

  6

  26

  • − ≥ −

  10 14y t t − +

  35 t 3 t

  3 5 ≥ 1 − 14y

  5

  35

  • − ≥ −

  11 14y y 14 , y 26 , y

  

35

(3.70)

  ∈ {0, 1} t , i i ≥ = 1, 2, · · · , 6 (3.71)

  Al´em disso, adotamos inicialmente os limites inferior (LI i ) e superior (LS i ), a fim de eliminar a infactibilidade e limitar o conjunto das solu¸c˜ oes vi´aveis do problema.

  LI ,

  i ≤ t i ≤ LS i (3.72)

  onde LI = LS

  (3.73) i (i−1) n

  X Desta forma, pensando no problema de job-shop, podemos relacionar o limite LI ao r ,

  i i

  representando assim o instante mais cedo de in´ıcio da execu¸c˜ ao da opera¸c˜ ao O i e o limite LS i adicionado , d `a dura¸c˜ ao p i , representando o instante limite do fim da execu¸c˜ ao da opera¸c˜ ao O i i = LS i + p i .

  Logo temos:

  t

  1 ≤ ≤

  8 8 ≤ t

2 ≤

  11 t 11 ≤

3 ≤

  13 (3.75) t

  4 ≤ ≤

  6 t 6 ≤

5 ≤

  7 t

  6 8 ≤ ≤

  10 Por´em, reescrevendo o problema (3.68)-(3.75) conforme nota¸c˜ ao adotada na Se¸c˜ ao 3.1.3,

  teremos:

  2

  2

  2 X

  X X

  1

  2

  3 t t t min i i i

  • + +

  (3.76) i =1 i =1 i =1

  Sujeito a:

  1

  2

  1 1 ≥

  • t t −

  3

  2

  3

  1 1 ≥

  • t t (3.77) −

  2

  1

  3

t t

  2 1 ≥

  1

  

2

  3

  • t t

  2 − 1 ≥

  3

  1

  1

  1 t t

  12

  1 + − 2 ≥ 3 − 14y

  1

  1

  1

  • 1 −
  • t t

  12

  2 ≥ − 13 14y

  2

  2

  2 t t −

  • 1

  12 (3.78)

  2 ≥ 2 − 14y

  2

  2

  2

  t

  • 1 −
  • t

  12

  2 ≥ − 10 14y

  

3

  3

  3

  • t t −

  12

  

1

2 ≥ 1 − 14y

  

3

  3

  3 t t

  12

  1 − 2 ≥ − 11 14y + +

  1

  2

  

3

y , y , y

  12

  12 12 ∈ {0, 1} (3.79) k t ≥ , ∀i = ; k = 1, 2, 3 (3.80) i

  1 t ≤

  

1 ≤

  8

  2 8 ≤ t

1 ≤

  11

  3 t 11 ≤

  

1 ≤

  13 (3.81)

  1 ≤ t ≤

  6

  2

  3 t 6 ≤

  

2 ≤

  7

  • c 2 τ
  • c 3 τ
  • A
  • A

  − regi˜ao formada pelas restri¸c˜oes (3.97) - (3.101) que comp˜oem o Subproblema 2 abaixo, sendo que as restri¸c˜ oes (3.99)- (3.100) s˜ao alteradas a cada itera¸c˜ ao.

  1 j )λ 1j

  (c 1 τ

  X j =1

  min z = r

  O problema mestre ´e apresentado como segue:

  − regi˜ao formada pelas restri¸c˜oes (3.106) - (3.110) que comp˜oem o Subproblema 3 abaixo, sendo que as restri¸c˜ oes (3.108)- (3.109) s˜ao alteradas a cada itera¸c˜ ao.

  3

  X

  2

  

(c

2 τ

  X

  − regi˜ao formada pelas restri¸c˜oes (3.88) - (3.92) que comp˜oem o Subproblema 1 abaixo, sendo que as restri¸c˜ oes (3.90)- (3.91) s˜ao alteradas a cada itera¸c˜ ao.

  1

  X

  1 −1         

  1

         

  3 = 

  ; A

  X j =1

  2 j )λ 2j

  1

−1

1 

  (A 1 τ

  λ 2j ≥ 1 ; λ 2j ≥ (3.85) r

  X j =1

  (3.84) r

  λ 1j ≥

  

λ

1j ≥ 1 ;

  X j =1

  (3.83) r

  − s = p

  1 j )λ 3j

  X j =1

  X j =1

  1 j )λ 2j

  (A 1 τ

  X j =1

  1 j )λ 1j

  (A 1 τ

  X j =1

  (3.82) S.a: r

  3 j )λ 3j

  (c 3 τ

         

         

  X t onde s = (s , s , s , s ) .

  τ

  onde,

  3 ;

  

X

  3 ∈

  

X

2 ; τ

  2 ∈

  τ

  

X

1 ;

  1 ∈

  3 ≥ p

  1 = (t

  3 τ

  2

  2 τ

  1

  3 S.a: A 1 τ

  2

  1

  min c 1 τ

  ou seja,

  τ

  1 , t

  2 = 

  3 , t

  A

  −1 −1          ;

         

  1 = 

  A

  3 2 ) p = (3, 2, 1, 3)

  1 , t

  3

  5 ) = (t

  3 = (t

  4 ) = (t

  2 2 ) τ

  1 , t

  2

  6 ) = (t

  2 , t

  2 = (t

  1 2 ) τ

  1 , t

  1

  • r
  • r
  • r
  • +

    r

  1

  2

  3

4 Resolveremos os subproblemas (3.87)- (3.92), (3.96)- (3.101) e (3.105)-(3.110):

PASSO INICIAL

  Subproblemas Subproblema 1 - M´ aquina 1

  

1

  1

  1

  min z = c τ = t + t

  1

  1

  1

  2 (3.87)

  Sujeito a:

  1

  1

  1 −t 1 + t 2 ≥ 3 − 14y 12 (3.88)

  1

  1

  1 t

  1 − t 2 ≥ −13 + 14y 12 (3.89)

  1 0 ≤ t ≤ 8 (3.90)

  1

  1 (3.91)

  0 ≤ t

2 ≤ 6

  1 y

  12 ∈ {0, 1} (3.92) Solu¸ c˜ ao:

  1 τ

  1 (3.93)

  

= (1, 0)

z

  1 = 1 (3.94)

  1 y

12 = 1

(3.95)

  Subproblema 2 - M´ aquina 2

  

1

  2

  2

  2 = c 2 = t + t

  τ min z

  1

  2 (3.96)

  Sujeito a:

  2

  2

  2 t 1 − t 2 ≥ 2 − 14y 12 (3.97)

  2

  2

  2 (3.98)

  −t 1 + t 2 ≥ −10 + 14y

  12

  2 8 ≤ t 1 ≤ 11 (3.99)

  2 8 ≤ t 2 ≤ 10 (3.100)

  

2

y

  (3.101) 12 ∈ {0, 1} Solu¸ c˜ ao:

  2 τ 1 = (8, 10) (3.102) z

  2 = 18 (3.103)

  2

  12 y = 0 (3.104)

  Subproblema 3 - M´ aquina 3

  

3

  3

  3

  τ min z = c = t + t

  2

  3

  1

  2 (3.105)

  Sujeito a:

  3

  3

  3 −t + t ≥ 1 − 14y (3.106)

  1

  2

  12

  3

  3

  3 t

  (3.107) 1 − t 2 ≥ −11 + 14y

  12

  3 11 ≤ t 1 ≤ 13 (3.108)

  

3

(3.109)

  6 ≤ t

2 ≤ 7

  3 y

  12 ∈ {0, 1} (3.110)

Solu¸ c˜ ao:

  3 τ 1 = (11, 6) (3.111) z

  3 = 17 (3.112)

  3

  12 y = 1 (3.113)

  Com as solu¸c˜ oes (3.93),(3.102) e (3.111) dos Subproblemas 1,2,3, respectivamente, obtemos o problema mestre (3.114)-(3.118) como segue:

  1

  

2

  3

  2 τ

  21 3 τ

  31 min z = (c )λ + 1 (c 1 )λ (c 1 )λ (3.114) S.a:

  • 1 τ 1j

  (3.115)

  1

  2

  3

  τ τ

  11

  2

  21 3 τ 31 s p (A )λ (A +

  1 1 )λ (A 1 )λ − = λ

11 ≥

1 ; λ 11 ≥ (3.116) λ

  • 1

  21 λ 21 (3.117) ≥ 1 ; ≥ λ

  31 λ

  31 ≥ 1 ; ≥ (3.118)

  No entanto, ao acrescentarmos as vari´aveis de folga, n˜ao ´e poss´ıvel encontrar uma solu¸c˜ ao b´asica inicial. Portanto, aplicaremos o m´etodo de duas fases([4]) ao problema mestre (3.114)-(3.118). Assim, a tabela inicial do m´etodo simplex revisado, Tabela 3.3, ´e a seguinte:

  Vari´ avel b´ asica Colunas do problema mestre s

  

1

= t

  ) = f B B

  −

  1

  = (c B τ

  B

  )B

  −

  1

  π = (0, 0, 0, 0, 1, 18, 17) (3.119)

  ITERAC ¸ ˜ AO 1

  Relembremos que a partir desta itera¸c˜ ao, novos limites s˜ao aplicados a cada tarefa a fim de obtermos uma melhor aproxima¸c˜ ao `a solu¸c˜ ao do problema original (3.76)-(3.80). Consideramos a solu¸c˜ ao da itera¸c˜ ao anterior e reajustamos os limites inferiores de cada tarefa de acordo com as restri¸c˜ oes de precedˆencia. Proporcionalmente, ajustamos os limites superiores, conforme procedimento do algoritmo 3.1 no item 2. Desta forma, considerando a vari´avel dual (3.119) e as novas restri¸c˜ oes temos:

  Subproblema 1 - M´ aquina 1

  min z 1 = c

  1 τ

  1 1 + t

  , π

  2

≥ −13 + 14y

  

1

  1 2 = 0 (3.124) y

  1 1 ≤ 1 (3.123) t

  

0 ≤ t

  12 (3.122)

  1

  1

  1

  1 − t

  1

  1 12 (3.121) t

  1 1 + t 1

2 ≥ 3 − 14y

  −t

  2 Sujeito a: (3.120)

  03

  02

  1 s

  1

  1

  3

  1 s

  1

  2

  4 s

  1

  4

  31 −z Constantes s

  21 λ

  11 λ

  4 λ

  3 s

  2 s

  5 s

  1

  , π

  1

  01

  , π

  1

  = (π

  Conseq¨ uentemente, π

  1 −z -1 -18 -17 1 -36

Tabela 3.3: Tabela inicial do simplex revisado do P.M do problema teste 1.

  31

  1 λ

  1 λ

  1

  21

  1 λ

  1

  11

  

12 ∈ {0, 1} (3.125) Solu¸ c˜ ao:

  1 τ 2 = (1, 0) (3.126) z

  1 = 1 (3.127)

  1

  12 y = 1 (3.128)

  Subproblema 2 - M´ aquina 2

  2

  2

  2

  2 2 τ min z = c = t

1 + t

  2 (3.129)

  Sujeito a:

  2

  2

  2 t

  1 − t 2 ≥ 2O14y 12 (3.130)

  2

  2

  2 −t 1 + t 2 ≥ −10 + 14y 12 (3.131)

  

2

(3.132)

  4 ≤ t

1 ≤ 7

  

2

5 ≤ t 2 ≤ 8 (3.133)

  2 y

  12 ∈ {0, 1} (3.134)

Solu¸ c˜ ao:

  2 τ

  2 = (4, 6) (3.135)

  2 z = 10 (3.136)

  2 y 12 = 0 (3.137)

  Subproblema 3 - M´ aquina 3

  3

  3

  3 τ min z

  2 = c 3 = t

1 + t

  2 (3.138)

  Sujeito a:

  3

  3

  3 −t 1 + t 2 ≥ 1 − 14y 12 (3.139)

  3

  3

  3 t

  (3.140) 1 − t 2 ≥ −11 + 14y

  12

  3 9 ≤ t 1 ≤ 11 (3.141)

  

3

1 ≤ t 2 ≤ 2 (3.142)

  3 y

  (3.143) 12 ∈ {0, 1}

  Solu¸ c˜ ao:

  3 τ

  2 = (9, 1) (3.144) z

  3 = 10 (3.145)

  3

  3

  1

  5

  1

  3

  3 s

  25

  3

  5

  3

  2

  2

  22

  3 s

  2

  3

  10

  3

  2

  1 1 −

  32 s

  

Vari´ avel b´ asica Colunas do problema mestre Coluna de entrada

s 1 s 2 s 3 λ 22 λ 11 λ 21 λ 31 −z Constantes λ

  4 .

  1 λ

  1

  Tabela 3.4: Entra na base a vari´avel λ

  6

  1 −104

  3

  4

  1 −z

  1

  1

  31

  6 λ

  1

  5

  6

  

1

  6

  1

  1 λ 21 −

  1

  11

  6 λ

  1

  6 −

  1

  22 , sai s

  1 −z -1 -18 -17 1 -36 -8

  Assim teremos: z

  = 10 − 17 = −7 (3.149) Portanto λ

  02

  − π

  

2

  pois z

  22

  s˜ao candidatas a entrar na base visto que seus custos reduzidos s˜ao n˜ao negativos (≤ 0). Tomamos inicialmente λ

  32

  e λ

  22

  03

  

Vari´ avel b´ asica Colunas do problema mestre Coluna de entrada

s 1 s 2 s 3 s 4 λ 11 λ

21 λ

  − π

  3

  = 10 − 18 = −8 (3.148) z

  02

  − π

  2

  = 1 − 1 = 0 (3.147) z

  01

  − π

  1

  = −8 < −7. Isto ´e mostrado na seguinte seq¨ uˆencia de Tabelas 3.4, 3.5 e 3.6. Al´em disso, o limite inferior(LI) para o ´otimo do problema proposto (3.76) - (3.81) ´e dado por 36 − 15 = 21 e o limite superior(LS) ´e 36.

  31 −z Constantes λ

  1

  1

  31

  1 λ

  1

  1

  21

  1 λ

  1

  11

  6 λ

  1

  22 s

  4

  5 s

  1

  3

  1 1 -4 s

  2

  4 s

  4

  1

  1

  • -1 -18 -17

  • 7
  • 1 -18 -17 1 −

  Atualizando as fun¸c˜ oes objetivo e calculando os novos limites de cada subproblema temos:

  = λ

  1

  = λ

  11

  τ

  1

  1

  = (1, 0) τ

  2

  21

  (3.150)

  τ

  2

  1

  

22

  t

  2

  2

  = (

  36

  ou seja, τ

  )

  ,

  τ

  . (11, 6) = (

  44

  5

  ,

  24

  5

  ) λ

  32

  3

  5

  2

  =

  1

  5 .

  (9, 1) = (

  9

  5

  ,

  1

  5

  46

  4

  5

  5

  , t

  6

  ) = (1,

  36

  5

  ,

  53

  , 0, 5,

  4

  46

  5

  ) e z = 33

  ITERAC ¸ ˜ AO 2

  Conforme Tabela 3.6, π = (0, −

  21

  25 , 0, −

  142

  75 , 1, 18, 17). (3.152)

  , t

  , t

  5

  2

  ) τ

  3

  = λ

  31

  τ

  3

  

32

  t

  3

  = (

  3

  53

  5

  , 5).

  (3.151)

  Assim, τ = (t

  1

  , t

  2

  , t

  5

  =

  Vari´ avel b´ asica Colunas do problema mestre s 1 λ 32 s 3 λ

22 λ

11 λ 21 λ

  21 −

  50

  9

  50

  1

  5 λ

  11

  1

  1 λ

  1

  22

  50 −

  9

  50

  1

  4

  5 λ

  31 −

  3

  25 −

  1

  5 λ

  25

  3

  31 −z Constantes s

  1 1 −

  2

  25 −

  18

  25

  16

  5 λ

  32

  25

  24

  2

  25

  1

  5 s

  3 −

  3

  25 1 −

  2

  25

  2

  1

  1

  5 .

  5

  ) λ

  22

  τ

  2

  2

  =

  1

  (4, 6) = (

  ,

  4

  5

  ,

  6

  5

  ) λ

  31

  τ

  3

  40

  5

  4

  1

  5 −z

  21

  25 142

  75

  499

  15 Tabela 3.6: Tabela final na itera¸c˜ ao 1 do problema teste 1.

  Da Tabela 3.6 podemos determinar a solu¸c˜ ao corrente do problema proposto (3.76) - (3.81): λ

  11

  τ

  1

  32

  = 1.(1, 0) = (1, 0) λ

  21

  τ

  2

  1

  =

  4

  5 .

  (8, 10) = (

  • λ
  • λ
Subproblema 1 - M´ aquina 1

  1

  1

  1 A min z 1 = (c 1 − π

  1

1 )τ = t

1 + t

  2 (3.153)

  Sujeito a:

  1

  1

  1 −t 1 + t

2 ≥ 3 − 14y

12 (3.154)

  1

  1

  1 t

  (3.155) 1 − t

2 ≥ −13 + 14y

  12

  1

0 ≤ t

1 ≤ 1 (3.156)

  1 t 2 = 0 (3.157)

  

1

y (3.158)

  12 ∈ {0, 1} Solu¸ c˜ ao:

  1 τ

  3 = (1, 0) (3.159) z

  1 = 1 (3.160)

  1 y

  12 = 1 (3.161)

  Subproblema 2 - M´ aquina 2

  2

  4

2 217

  2 min z = c +

  2 2 τ = t t

  1

  2

  25

  75 (3.162)

  Sujeito a:

  2

  2

  2 t

  (3.163) 1 − t

2 ≥ 2 − 14y

  12

  2

  2

  2 −t 1 + t 2 ≥ −10 + 14y 12 (3.164)

  2

4 ≤ t

1 ≤ 7 (3.165)

  2 (3.166)

  

5 ≤ t

2 ≤ 8

  2 y

  12 ∈ {0, 1} (3.167) Solu¸ c˜ ao:

  2 τ 3 (3.168) = (4, 6)

z

  

2

= 18 (3.169)

  

2

  12 y = 0 (3.170) Subproblema 3 - M´ aquina 3

  

3

  46

  3

  67

  3 A t t min z 3 = (c 3 − π

  3

3 )τ =

1 −

  2

  25

  75 (3.171)

  Sujeito a:

  

3

  3

  3 −t

1 + t

2 ≥ 1 − 14y 12 (3.172)

  3

  

3

  3 t

  (3.173) 1 − t 2 ≥ −11 + 14y

  12

  3 9 ≤ t 1 ≤ 11 (3.174)

  3 1 ≤ t 2 ≤ 2 (3.175)

  3 y (3.176)

  12 ∈ {0, 1} Solu¸ c˜ ao:

  3 τ

  3 = (9, 1) (3.177)

  

1175

z 3 =

  (3.178)

  

75

  3 y

  12 = 1 (3.179)

  Considerando as solu¸c˜ oes (3.159),(3.168),(3.177) e as vari´aveis duais da express˜ao (3.152) temos os seguintes custos reduzidos: z − π = 1 − 1 = 0 (3.180)

  01

  1

  z − π = 18 − 18 = 0 (3.181)

  02

  2

  1175 100

  4 z − π = − 17 = − = − (3.182)

  03

  3

  75

  75

  3 Observamos que z − π = z − π = 0, conforme o custo reduzido (3.180) e (3.181).

  01

  03

  1

  2 Portanto, de acordo com (3.182), λ ´e a ´ unica vari´avel a entrar na base(ver Tabela 3.6 e 3.8).

  33 499 4 479 499

  − O novo limite inferior ´e dado por = = 31, 93 e o superior ´e = 33, 26

  15

  

3

  15

  15

  • -1 -18 -17

    1 −

  31

  =

  1

  5

  . (4, 6) = (

  7

  8

  ,

  21

  16

  ) λ

  τ

  2

  3

  1

  =

  4

  5 .

  (11, 6) = (

  44

  5

  ,

  24

  5

  2

  τ

  33

  τ

  4

  5 −z

  1 2 -1 -18 -17 1 -33

Tabela 3.8: Tabela final na itera¸c˜ ao 2 do problema teste 1.

  Temos da Tabela 3.8 a seguinte solu¸c˜ ao para o problema proposto (3.76) - (3.81): λ

  11

  τ

  1

  1

  = 1.(1, 0) = (1, 0) λ

  21

  2

  22

  1

  =

  4

  5 .

  (8, 10) = (

  25

  4

  ,

  125

  16

  ) λ

  ) λ

  τ

  

25

  3

  τ

  2

  2

  = (

  

36

  

5

  ,

  46

  5

  ) τ

  = λ

  1

  31

  τ

  3

  33

  τ

  3

  3

  = (

  

53

  

5

  , 5)

  22

  2

  3

  )

  3

  =

  1

  5 .

  (9, 1) = (

  9

  5

  ,

  1

  5

  (3.183)

  τ

  ou seja, a mesma solu¸c˜ ao da Itera¸c˜ ao 3, conforme dados abaixo: τ

  1

  = λ

  11

  τ

  1

  1

  = (1, 0) τ

  2

  = λ

  21

  1

  

2

  (3.184)

  11

  25

  24

  5 λ

  22

  1

  50

  9

  50

  1

  5 λ

  1

  25 1 −

  1 λ

  21 −

  1

  50 −

  9

  50

  

1

  4

  5 λ 31 −

  3

  25 −

  2

  3

  25

  2

  

Vari´ avel b´ asica Colunas do problema mestre Coluna de Entrada

s

  1 λ

  32 s

  3 λ

  22 λ

  11

λ

  

21

λ

  31 −z Constantes λ

  33 s

  1 1 −

  25 −

  1 s 3 −

  18

  25

  16

  5 λ

  32

  3

  25

  2

  25

  1

  5

  2

  1

  50 −

  5 λ

  

2

  

25

  24

  5 λ

  22

  1

  50

  9

  50

  1

  11

  3

  1

  1 λ

  21 −

  1

  50 −

  

9

  

50

  1

  4

  5 λ 31 −

  3

  25 1 −

  5 s 3 −

  4

  1

  5 −z

  21

  25 142

  75

  499

  15 −

  4

  3 Tabela 3.7: Entra na base a vari´avel λ

  33 , sai λ

  32 .

  Vari´ avel b´ asica Colunas do problema mestre s 1 λ 33 s 3 λ

22 λ

11 λ 21 λ 31 −z Constantes s

  1

  1

  2

  25 −

  

18

  

25

  16

  5 λ

  33

  3

  25

  2

  25

  • λ
  • λ
Nesta itera¸c˜ ao temos como limite inferior 33 − 1 = 32 e limite superior 33.

  ITERAC ¸ ˜ AO 3

  De acordo com a Tabela 3.8, π = (0, −1, 0, −2, 1, 18, 17) e considerando as solu¸c˜ oes (3.159), (3.168) e (3.177) os subproblemas 1, 2 e 3 continuam sujeitos as mesmas restri¸c˜ oes que a Itera¸c˜ ao 2, visto que as solu¸c˜ oes n˜ao alteraram. Segue-se:

  Subproblema 1 - M´ aquina 1

  

1

  1

  1 τ min z

  1 = c

1 = t

1 + t

  2 (3.185)

  Sujeito a:

  1

  1

  1 −t + t ≥ 3 − 14y (3.186)

  1

  2

  12

  1

  1

  1 t

  (3.187) 1 − t

2 ≥ −13 + 14y

  12

  1

0 ≤ t

1 ≤ 1 (3.188)

  1 t 2 = 0 (3.189)

  

1

y

  (3.190) 12 ∈ {0, 1}

  Solu¸ c˜ ao:

  

1

τ

4 = (1, 0) (3.191) z

  1 (3.192) = 1

  1 y

  12 = 1 (3.193)

  Subproblema 2 - M´ aquina 2

  2

  2

  2

2 τ

min z = c = 3t

  2 (3.194)

  Sujeito a:

  2

  2

  2 t

  1 − t 2 ≥ 2 − 14y 12 (3.195)

  2

  2

  2 −t 1 + t

2 ≥ −10 + 14y

12 (3.196)

  2 4 ≤ t ≤ 7 (3.197)

  1

  2 (3.198)

  5 ≤ t 2 ≤ 8

  

2

y

  12 ∈ {0, 1} (3.199) Solu¸ c˜ ao: (3.200)

  

2

τ

  

4

(3.201)

  = (4, 6) z

  2 = 18 (3.202) Subproblema 3 - M´ aquina 3

  3

  

3

  3

  2 3 τ min z = c = 2t 1 − t

  2 (3.204)

  Sujeito a:

  3

  3

  3 −t 1 + t 2 ≥ 1 − 14y 12 (3.205)

  3

  3

  3 t

  1 − t 2 ≥ −11 + 14y 12 (3.206)

  

3

9 ≤ t ≤ 11 (3.207)

  

1

  

3

1 ≤ t 2 ≤ 2 (3.208)

  3 y

  12 ∈ {0, 1} (3.209) Solu¸ c˜ ao: (3.210)

  3 τ

  4 = (9, 2) (3.211)

  2 z = 16 (3.212)

  

3

y 12 = 0 (3.213)

  Portanto teremos: z − π = 1 − 1 = 0 (3.214)

  01

  1

  z − π = 18 − 18 = 0 (3.215)

  02

  2

  z − π = 16 − 17 = −1 (3.216)

  03

  3

  − π − π Como z = z = 0, ent˜ao λ ´e a ´ unica candidata a entrar na base.

  01

  02

  34

  1

2 Vari´ avel b´ asica Colunas do problema mestre Coluna de entrada

  s 1 λ 34 s 3 λ 22 λ 11 λ 21 λ 31 λ

  34 −z Constantes

  2

  18

  16

  18 s

  25

  25

  5

  25

  1 1 −

  3

  2

  1

  23 λ

  34

  25

  25

  5

  25

  3

  2

  24

  27 s

  3 − 1 −

  25

  25

  5

  25

  1

  9

  1

  9 λ

  22 −

  50

  50

  5

  50 λ

  11

  1

  1

  1

  9

  4

  9 λ

  21 − −

  1

  50

  50

  5

  50

  3

  2

  4

  2 λ

  31 − −

  1

  50

  25

  5

  25 −z

  1 2 -1 -18 -17 1 -33 -1 , Tabela 3.9: Entra na base a vari´avel λ sai λ .

  34

  33

  12 = 1 (3.226)

  

23

  48

  0, −

  23 ,

  26

  = (0, −

  Conforme a Tabela 3.10 π

  23 Tabela 3.10: Tabela final da itera¸c˜ ao 3 do problema teste 1.

  754

  

48

  1, 18, 17). (3.217) Al´em disso, pela mesma raz˜ao da Itera¸c˜ ao 3 os subproblemas est˜ao sujeitos `as mesmas restri¸c˜ oes.

  23 −

  26

  23 −z −

  18

  1

  

23

  

2

  23 −

  23 ,

  Portanto, segue os subproblemas com as fun¸c˜ oes objetivo atualizadas:

  46 λ 31 −

  12 (3.219) t

  1

  1 = 1 (3.225) y

  1 5 = (1, 0) (3.224) z

  

1

12 ∈ {0, 1} (3.223) Solu¸ c˜ ao: τ

  1 2 = 0 (3.222) y

  1 1 ≤ 1 (3.221) t

  1 12 (3.220)

0 ≤ t

  1 1 − t 1

2 ≥ −13 + 14y

  1

  ITERAC ¸ ˜ AO 4

  1 1 + t 1 2 ≥ 3 − 14y

  −t

  2 Sujeito a: (3.218)

  1

  1

  1

  

1

= t

  min z 1 = c 1 τ

  Subproblema 1 - M´ aquina 1

  3

  35

  Vari´ avel b´ asica Colunas do problema mestre s

  

18

  23

  2

  23

  3

  34

  23 λ

  70

  

23

  23 −

  23 s

  4

  1 1 −

  31 −z Constantes s

  21 λ

  11 λ

  

22

λ

  3 λ

  34 s

  1 λ

  5

  3 −

  1

  46 λ

  

46

  

9

  23 −

  1

  21 −

  1 λ

  1

  11

  11

  6

  46

  9

  23

  1

  22

  23 λ

  

23

105

  

4

  23 1 −

  • 1 -18 -17 1 −
    • t
    Subproblema 2 - M´ aquina 2

  2

  3

  2

  71

  2

  2 τ t t min z = c = −

  1 2 (3.227)

  • 2

  23

  23 Sujeito a:

  2

  

2

  2 t

  1 − t 2 ≥ 2 − 14y 12 (3.228)

  2

  2

  2 −t 1 + t 2 ≥ −10 + 14y 12 (3.229)

  2 4 ≤ t ≤ 7 (3.230)

  1

  2 5 ≤ t 2 ≤ 8 (3.231)

  2 y

  12 ∈ {0, 1} (3.232) Solu¸ c˜ ao: (3.233)

  2 τ 5 (3.234) = (4, 6) z

  2 = 18 (3.235)

  2 y 12 = 0 (3.236)

  Subproblema 3 - M´ aquina 3

  3

  

49

  3

  25

  3

  2 3 τ t t min z = c = 1 −

  2

  

23

  23 (3.237)

  Sujeito a:

  3

  

3

  3 −t 1 + t 2 ≥ 1 − 14y 12 (3.238)

  3

  3

  3 t

  1 − t 2 ≥ −11 + 14y 12 (3.239)

  3 9 ≤ t ≤ 11 (3.240)

  1

  3 1 ≤ t 2 ≤ 2 (3.241)

  3

y

  12 ∈ {0, 1} (3.242) Solu¸ c˜ ao:

  (3.243)

  3 τ 5 = (9, 2) (3.244) z

  2 (3.245)

  

= 17

  3 y

  12 = 0 (3.246)

  Assim, os custos reduzidos z − π = z − π = z − π = 0, n˜ao ocorrendo candidatas a

  01

  02

  03

  1

  

2

  3 entrar na base significa que chegamos na solu¸c˜ ao ´otima.

  Notemos que o limite inferior da solu¸c˜ ao ´otima do problema proposto (3.76)-(3.81) ´e o mesmo

  36 Valor ´ otimo encontrado 32,78

  31

  2

  , t

  1

  Assim τ = (t

  23 ) (3.250)

  118

  23 ,

  = ( 243

  4

  3

  τ

  

34

  3

  τ

  = λ

  3

  τ

  = λ

  21

  τ

  2

  1

  

22

  2

  3

  2

  = ( 162

  23 ,

  208

  23 ) (3.249)

  τ

  , t

  , t

  = (1, 0) (3.248) τ

  1

  ) e z =

  754

  23

  = 32, 78 ´e o vetor ´otimo e a valor ´otimo respectivamente.

  A Tabela 3.11 mostra, a cada itera¸c˜ ao o limite inferior(LI) e o limite superior(LS) para a solu¸c˜ ao ´otima do problema proposto(3.76)-(3.81) considerando os limites adotados para as vari´aveis (ver algoritmo 3.1). Enquanto que a Tabela 3.12 indica o valor ´otimo para o problema original (3.68)

  

Itera¸c˜ ao LS LI

  36

  118

  21 2 33,26 31,93

  3

  33

  32 4 32,78 32,78

Tabela 3.11: Limites por itera¸c˜ ao do problema teste 1.

  Valor ´ otimo sem limite

  18 Valor ´ otimo com limite

  23

  ,

  4

  ) = (1,

  , t

  5

  , t

  6

  , t

  7

  162

  23

  23

  ,

  243

  23

  , 0,

  208

  2

  1

  Deste modo, a solu¸c˜ ao ´otima para o problema proposto (3.76)-(3.81): λ

  175

  33

  ,

  23

  22

  (4, 6) = (

  46 .

  11

  =

  2

  2

  τ

  22

  ) λ

  23

  ,

  ) λ

  τ

  11

  τ

  1

  1

  = 1.(1, 0) = (1, 0) λ

  21

  2

  23

  1

  =

  35

  46 .

  (8, 10) = (

  140

  23

  31

  1

  23

  23 .

  (9, 2) = (

  45

  23

  ,

  10

  )

  =

  (3.247)

  ou seja, τ

  1

  = λ

  11

  τ

  5

  4

  τ

  198

  3

  1

  =

  18

  23

  . (11, 6) = (

  23

  3

  ,

  108

  23

  ) λ

  34

  τ

  • λ
  • λ
    • (3.71) sem os limites adotados, o valor ´otimo para o problema proposto (3.76)- (3.81) e o seu valor ´ otimo ao aplicarmos o m´etodo de resolu¸c˜ ao de Dantzig-Wolfe incluindo o ajuste dos limites LI i (3.73) e LS i (3.74).

  Progresso dos valores da função objetivo e dos limites inferiores Valores da função objetivo ( Primal )

  =10 : P

  1 :

  2 Solucao S 2 M

  1 M

  2 M

  3 Solucao S

  3

= 14

=10

  1 P

  2 P

  2

  10

  14

  10 ´ ´ ~

  ~

Figura 3.2: Diagrama de Gantt representando as solu¸c˜ oes encontradas do problema teste 1.

  Analisando os valores expressos nas Tabelas 3.11 e 3.12, notamos que o ”valor ´otimo en- contrado“ ´e um limitante inferior para o ”o valor ´otimo sem limite”do problema proposto inicial (3.76)-(3.81) e um limitante superior para o ”valor ´otimo sem limite”do problema original (3.68)- (3.71). Podemos ent˜ao concluir que apesar do valor ´otimo encontrado para os problemas criados a partir do problema original, ´e poss´ıvel determinar limitantes inferior e superior para o valor ´otimo global. Por´em, devemos adotar limites adequados que contornem a infactibilidade e limite a regi˜ao

  1 :

  1 P

  1

  32 32,78 Limites inferiores ( Dual )

Figura 3.1: Convergˆencia do m´etodo do problema teste 1.

tempo tempo

  2

  3

  4 Iteração

  21

  36 33,26 31,93

  33

  M

  2 P

  3 C max C max

  Solucao S 1 M

  1 C max

2 M

  33 M

  3 M

  2 M

  1 P

  15 (3.252)

  5 − t

  3

  7

  2

  3 Tabela 3.13: Dados do problema teste 2.

  Conforme o Modelo Matem´atico (3.1)-(3.5) o problema da Tabela 3.13 apresenta-se da seguinte forma:

  min

  7 X j =1 t j

  (3.251) Sujeito a: − t

  1 + t 2 ≥

  2

  3

  3 ≥

  2

  4 ≥

  2 −

t

  

6

  7 ≥

  3 − t 1 + t 5 ≥ 5 − 18y

  15

  1 − t

  5 ≥ − 17 + 18y

  2

  6

  dizer que quanto melhor forem os limites adotados para as vari´aveis do problema original, os limitantes estar˜ao mais pr´oximo do valor ´otimo global original.

  1

  3.2.2 Problema Teste 2 Considere o seguinte problema de job-shop, cujos dados s˜ao mostrados na Tabela 3.13.

produto opera¸c˜ ao dura¸c˜ ao m´ aquina

  1

  1

  5

  1

  1

  2

  2

  2

  3

  3

  3

  3

  2

  4

  2

  2

  2

  5

  1

  1

  • t
  • t 5 − t
  • t
  • t
  • t

  • t
  • t
  • t
  • t 4 − t
  • t
  • t 3 − t
  • t

  1 i +

  15 ≤ t

4 ≤

  15 15 ≤ t

  

5 ≤

  17 ≤ t

  6 ≤

  13 13 ≤ t

  

7 ≤

  16 (3.256)

  Por´em, reescrevendo o problema original (3.251)-(3.256) conforme nota¸c˜ ao adotada na Se¸c˜ ao 3.1.3, teremos:

  min

  2 X i =1 t

  3 X i =1 t

  13 13 ≤ t

  2 i +

  2 X i =1 t

  3 i (3.257)

  Sujeito a: − t

  1 1 + t

  2 1 ≥ 5 − t

  2 1 + t

  3 1 ≥

  2

  1 2 − t

  2 2 ≥ 2 − t

  2 3 + t 3 2 ≥

  

3 ≤

  8 8 ≤ t

2 ≤

  3 (3.258)

  6 ≥ 3 − 18y

  2 − t

  4 ≥ 2 − 18y

  24 − t

  2

  4 ≥ − 16 + 18y

  24

  2 − t

  6 ≥ 3 − 18y

  26 − t

  2

  6 ≥ − 16 + 18y

  26

  46 − t

  1 ≤

  4

  6 ≥ − 16 + 18y

  46

  7 ≥ 2 − 18y

  37 −

t

  

3

  7 ≥ − 15 + 18y

  37 (3.253) y 15 , y 24 , y 26 , y 46 , y 37 ∈ {0, 1} (3.254) t i

  ≥ , i = 1, 2, · · · ,

  7 (3.255)

  Determinando os limites conforme express˜oes (3.73) e (3.74) temos:

  ≤ t

  • t

  1

  1

  1

  • t t −

  12

  1 2 ≥ 5 − 18y

  1

  1

  1 t t

  − + 2 ≥ − 17 18y

  • 1

  12

  2

  2

  2 t t

  • 1 −

  12

  2 ≥ 2 − 18y

  2

  2

  2

  • t t −
  • 1

  12

  2 ≥ − 16 18y

  2

  2

  2 t t

  13 (3.259)

  1 − + 3 ≥ 3 − 18y

  2

  2

  2 t t −

  13

  1 3 ≥ − 16 18y + +

  2

  2

  2 t 2 − t 3 ≥ + 3 −

  18y

  23

  2

  2

  2 t t − + +

  23

  2 3 ≥ − 16 18y

  3

  3

  3

  • t 1 − t

  12

  2 ≥ 2 − 18y

  3

  3

  3 t t

  12

  1 2 ≥ − 15 18y + +

  1

  2

  2

  2

  3 y 12 , y 12 , y 13 , y 23 , y 12 ∈ {0, 1} (3.260) k t , k

  (3.261) i ≥ ∀i ; = 1, 2, 3

  1 t ≤

  

1 ≤

  8

  2 t 8 ≤

  

1 ≤

  13

  3 t 13 ≤

  

1 ≤

  15

  2 t

  (3.262) ≤

2 ≤

  15

  1 t 15 ≤

  

2 ≤

  17

  2 t ≤

  

2 ≤

  13

  3 13 ≤ t 2 ≤ 16,

  ou seja,

  1

  2

  3 τ τ τ min c

  1 + c 2 + c

  3 S.a:

  1

  2

  3 1 τ A 2 τ A + + A 3 τ ≥ p

  1 τ

  

X

  1

∈ ;

  2 τ

  

X

∈ 2 ;

  3 τ ∈

  

X

3 ;

  onde,

  1

  1

  1 τ = (t 1 , t

5 ) = (t

1 , t 2 )

  2

  2

  2

  2 τ 2 , t 4 , t 6 , t , t = (t ) = (t

  1

  2 3 )

  3

  3

  3 τ = (t 3 , t

7 ) = (t

1 , t 2 )

  

     

−1 1

     

  

     

     

−1

  1

     

A A A

  1 = ; 2 = ; 3 =

     

     

  1 −1

     

     

−1

  1 X − regi˜ao formada pelas restri¸c˜oes (3.269)-(3.273) que comp˜oem o Subproblema 1 abaixo,

  1 sendo que as restri¸c˜ oes (3.271) - (3.272) s˜ao alteradas a cada itera¸c˜ ao.

  X − regi˜ao formada pelas restri¸c˜oes (3.278)-(3.289) que comp˜oem o Subproblema 2 abaixo,

  2 sendo que as restri¸c˜ oes (3.284)- (3.286) s˜ao alteradas a cada itera¸c˜ ao.

  X − regi˜ao formada pelas restri¸c˜oes (3.295)-(3.299) que comp˜oem o Subproblema 3 abaixo,

  3 sendo que as restri¸c˜ oes (3.297)- (3.298) s˜ao alteradas a cada itera¸c˜ ao.

  O problema mestre ´e apresentado como segue:

  r r r

  X X

  X

  1

  2

  3 z 1 τ 1j 2 τ 2j 3 τ 3j min = (c j )λ (c j )λ (c j )λ

  • + +

  (3.263) j =1 j =1 j =1

  S.a: r r r

  X X

  X (3.264)

  1

  1

  1 1 τ 1j (A

  • )λ + (A

    1 τ )λ 2j (A

  1 τ )λ 3j − s = p j j j j =1 j =1 j =1 r

  X λ 1j λ 1j ≥ 1 ; ≥

  (3.265) j =1 r

  X λ λ 2j ≥ 1 ; 2j ≥

  (3.266) j =1 r

  X λ 3j ≥ 1 ; λ 3j ≥

  (3.267) j =1 t , s , s , s .

  onde s = (s )

  1

  2

  3

4 Resolvendo os subproblemas (3.268)- (3.273), (3.277)- (3.289) e (3.294)-(3.299):

PASSO INICIAL

  Subproblemas Subproblema 1 - M´ aquina 1

  

1

  1

  1

  1 = c 1 = t + t

  τ min z

  1

  2 (3.268)

  Sujeito a:

  1

  1

  1 −t 1 + t 2 ≥ 5 − 18y 12 (3.269)

  1

  1

  1 t

  (3.270) 1 − t 2 ≥ −17 + 18y

  12

  1 0 ≤ t 1 ≤ 8 (3.271)

  1 15 ≤ t ≤ 17 (3.272)

  2

  1 y

  12 ∈ {0, 1} (3.273) Solu¸ c˜ ao:

  1 τ 1 = (0, 15) (3.274) z

  1 (3.275)

  = 15

  1 y

  12 = 0 (3.276)

  Subproblema 2 - M´ aquina 2

  1

  2

  2

  2

  min z = c τ = t + t + t

  2

  2

  1

  2

  3 (3.277)

  Sujeito a:

  2

  2

  2 t

  1 − t

2 ≥ 2 − 18y

12 (3.278)

  2

  2

  2 −t 1 + t

2 ≥ −16 + 18y

12 (3.279)

  2

  2

  2 t − t ≥ 3 − 18y (3.280)

  1

  3

  13

  2

  2

  2 −t 1 + t

3 ≥ −16 + 18y

13 (3.281)

  2

  2

  2 t

  2 − t

3 ≥ 3 − 18y

23 (3.282)

  2

  2

  2 −t + t ≥ −16 + 18y (3.283)

  2

  3

  23

  2 (3.284)

  

8 ≤ t

1 ≤ 13

  2

0 ≤ t

2 ≤ 15 (3.285)

  2

0 ≤ t

3 ≤ 13 (3.286)

  2 y (3.287)

  12 ∈ {0, 1}

  2 y

  13 ∈ {0, 1} (3.288)

  2 y 23 ∈ {0, 1} (3.289) Solu¸ c˜ ao:

  2 τ

  1 = (8, 0, 2) (3.290)

  2 z = 10 (3.291)

  2 y 12 (3.292) = 0

  2

  2 y

  13

  23 = y = 1 (3.293) Subproblema 3 - M´ aquina 3

  

3

  3

  3

  2 = c 3 = t + t

  τ min z

  1

  2 (3.294)

  Sujeito a:

  3

  3

  3 t 1 − t 2 ≥ 2 − 18y 12 (3.295)

  3

  3

  3 (3.296)

  −t 1 + t 2 ≥ −15 + 18y

  12

  3 (3.297)

  13 ≤ t

1 ≤ 15

  3 13 ≤ t 2 ≤ 16 (3.298)

  3 y

  12 ∈ {0, 1} (3.299)

Solu¸ c˜ ao:

  3 τ

  1 = (15, 13) (3.300)

  3 z = 28 (3.301)

  3 y 12 = 0 (3.302)

  Com as solu¸c˜ oes (3.274),(3.290) e (3.300) dos Subproblemas 1,2,3, respectivamente, obtemos o problema mestre (3.303)-(3.307) como segue:

  1

  

2

  3 min z = + (c + 1 τ 1 )λ 1j (c 2 τ

1 )λ

21 (c 3 τ 1 )λ

  31 (3.303)

  S.a: (3.304)

  1

  2

  3

  1 τ

  11 2 τ

  21 3 τ 31 s p (A 1 )λ (A 1 )λ (A 1 )λ − = λ λ

  

11 ≥

1 ; 11 ≥ (3.305) λ

21 ≥

1 ; λ 21 ≥ (3.306) λ

  31 λ 31 (3.307) ≥ 1 ; ≥

  Aplicando o M´etodo de Duas Fases([4]) ao problema mestre (3.303)-(3.307) obtemos a solu¸c˜ ao b´asica inicial como mostra a Tabela 3.14.

  Conseq¨ uentemente,

  − B −

  1

  1

  π , π , π , π B τ = (π ) = f B = (c B )B

  1

  01

  02

  03

  π = (0, 0, 0, 0, 15, 10, 28) (3.308)

  ITERAC ¸ ˜ AO 1

  Relembremos que a partir desta itera¸c˜ ao, novos limites s˜ao aplicados a cada tarefa a fim de

  1 2 ≤ 6. (3.316)

  2 Sujeito a: (3.309)

  1

  1 −z -15 -10 -28 1 -53

Tabela 3.14: Tabela inicial do simplex revisado do P.M do problema teste 2.

  que tomemos a solu¸c˜ ao da itera¸c˜ ao anterior e reajustamos os limites inferiores de cada tarefa de acordo com as restri¸c˜ oes de precedˆencia. Proporcionalmente, ajustamos os limites superiores, conforme procedimento do algoritmo (3.1) no item 2. Desta forma, considerando a vari´avel dual (3.308) e as novas restri¸c˜ oes temos:

  Subproblema 1 - M´ aquina 1

  min z 1 = c 1 τ

  

1

= t

  1

  1

  1

  −t

  1 λ

  1 1 + t 1

2 ≥ 5 − 18y

  1

  12 (3.310) t

  1 1 − t 1

2 ≥ −17 + 18y

  1 12 (3.311) t

  1 1 = 0 (3.312)

2 ≤ t

  1 2 ≤ 4 (3.313) y

  

1

12 ∈ {0, 1} (3.314)

Solu¸ c˜ ao:

  INFACT´IVEL (3.315)

  Observemos que a solu¸c˜ ao do Subproblema 1 ´e infact´ıvel. Isto ocorre ao considerarmos as restri¸c˜ oes (3.312) e (3.313), n˜ao satisfazendo assim as restri¸c˜ oes de m´aquina (3.310) e (3.311). Reajustamos novamente os limites, substituindo a restri¸c˜ ao (3.313) pela restri¸c˜ ao 2 ≤ t

  31

  1

  Vari´ avel b´ asica Colunas do problema mestre s

  2

  1 s

  2 s

  3 s

  4 λ

  11 λ

  21 λ

  31 −z Constantes s

  1

  1

  3 s

  1

  21

  5 s

  3

  1

  13 s

  4

  1

  10 λ

  11

  1

  1 λ

  • t
A nova solu¸c˜ ao ´e dada como:

  2

  τ

  2 = (0, 5) (3.317)

  z

  1 = 5 (3.318)

  1

  y = 0 (3.319)

  12 Subproblema 2 - M´ aquina 2

  2

  2

  2

  2 τ min z

  2 = c 2 = t 1 + t 2 + t

  3 (3.320)

  Sujeito a:

  2

  2

  2 t 1 − t 2 ≥ 2 − 18y 12 (3.321)

  2

  2

  2 (3.322)

  −t 1 + t 2 ≥ −16 + 18y

  12

  2

  2

  2 t

  1 − t 3 ≥ 3 − 18y 13 (3.323)

  2

  2

  2 −t 1 + t 3 ≥ −16 + 18y 13 (3.324)

  2

  2

  2 t

  (3.325) 2 − t 3 ≥ 3 − 18y

  23

  2

  2

  2 −t 2 + t 3 ≥ −16 + 18y 23 (3.326)

  2 5 ≤ t 1 ≤ 8 (3.327)

  2 t (3.328)

  2 = 0

  2 t

  3 = 2 (3.329)

  2

y

  12 ∈ {0, 1} (3.330)

  2 y ∈ {0, 1} (3.331)

  13

  2

y

  23 ∈ {0, 1} (3.332) Solu¸ c˜ ao: (3.333)

  

2

τ

2 = (5, 0, 2) (3.334) z

  2 = 7 (3.335)

  2

  12 y = 1 (3.336)

  

2

  2 y 13 = y 23 = 0 (3.337) Subproblema 3 - M´ aquina 3

  

3

  3

  3 τ min z

  2 = c

3 = t

1 + t

  2 (3.338)

  Sujeito a:

  3

  3

  3 t 1 − t 2 ≥ 2 − 18y 12 (3.339)

  3

  3

  3 (3.340)

  −t 1 + t

2 ≥ −15 + 18y

  12

  3

12 ≤ t

1 ≤ 14 (3.341)

  3 5 ≤ t 2 ≤ 8 (3.342)

  3 y

  (3.343) 12 ∈ {0, 1}

  Solu¸ c˜ ao: (3.344)

  3 τ

  2 = (12, 5) (3.345) z

  2 = 17 (3.346)

  3 y

  12 = 0 (3.347)

  Assim teremos: z − π = 5 − 15 = −10 (3.348)

  01

  1

  z − π = 7 − 10 = −3 (3.349)

  02

  2

  z − π

  03 = 17 − 28 = −11 (3.350)

  3 Portanto λ 32 , λ 12 e λ 22 s˜ao candidatas a entrar na base visto que seus custos reduzidos s˜ao

  n˜ao negativos (≤ 0). Tomamos inicialmente λ pois z − π = −11 < −10 < −3. Isto ´e mostrado na

  32

  03

  3

  seguinte seq¨ uˆencia de Tabelas 3.15, 3.16, 3.17 e 3.18. Notemos que o limite inferior(LI), para o ´otimo do problema proposto (3.257) - (3.262) ´e dado por 53 − 24 = 29 e o limite superior ´e 53.

  (3.351)

  3

  1

  12

  8 s 4 −5

  3 1 -5

  12 s

  12 −5

  5

  12

  1

  32

  5 λ

  1

  12

  1

  22 s

  

Vari´ avel b´ asica Colunas do problema mestre Coluna de entrada

s 1 λ 32 s 3 s 4 λ 12 λ 21 λ 31 −z Constantes λ

  Tabela 3.16: Entra λ 12 ,sai λ 11 .

  12

  1 −581

  12

  11

  12 −z

  7

  1

  12

  95

  1

  

1

  11

  = 1.(0, 5) = (0, 5)

  2

  1

  τ

  12

  Da Tabela 3.18 podemos determinar a solu¸c˜ ao corrente do problema proposto (3.257) - (3.262): λ

  1 .

  22 , sai s

  Tabela 3.17: Entra λ

  12

  1 −461

  12

  12 −z

  12 λ

  5

  12

  7

  1

  12

  1 λ 31 −1

  1

  

1

  21

  1 λ

  1

  12

  1 λ 31 −1

  21

  

Vari´ avel b´ asica Colunas do problema mestre Coluna de entrada

s

  5

  21

  1 λ

  1

  11

  5 λ

  10

  1

  4

  13 s

  1

  3

  12 s

  1

  1 λ

  2

  3 s

  1

  1

  32 s

  31 −z Constantes λ

  

21

λ

  11 λ

  4 λ

  3 s

  2 s

  1 s

  1

  31

  1 λ

  5

  1

  1

  11

  12 λ

  95

  1

  12

  5 s 4 −5

  13

  1

  3

  12 s

  12

  1

  1

  32

  3 λ

  1

  1

  12 s

  

Vari´ avel b´ asica Colunas do problema mestre Coluna de entrada

s 1 λ 32 s 3 s 4 λ 11 λ 21 λ 31 −z Constantes λ

  2 .

  32 , sai s

  Tabela 3.15: Entra λ

  1 −z -15 -10 -28 1 -53 -11

  1

  • -15 -10 -28

  • 10
  • -5 -10 -28

  • 3
  • 5 -10 -28

  • λ
  • λ

  5 t

  , 0, 0, 5, 10, 28) e atualizando as fun¸c˜ oes objetivo de cada subproblema teremos: min z

  1

  = (c

  1

  − π

  1 A

  1

  )τ

  

1

  =

  2

  1

  11

  1

  1

  2

  min z

  2

  = (c

  2

  − π

  2 A

  2

  )τ

  

2

  12

  , −

  41

  , t

  Assim, τ = (t

  1

  , t

  2

  , t

  3

  , t

  4

  , t

  5

  , t

  6

  7

  5

  ) = (0,

  31

  5

  , 13, 0, 5, 2,

  23

  3

  ) e z =

  508

  15 = 33, 86.

  ITERAC ¸ ˜ AO 2

  Conforme Tabela 3.18, π = (−

  3

  =

  60 t

  3 ).

  = 1 z

  2

  3

  = (5, 0, 2) y

  2

  12

  = y

  2

  13

  = 0; y

  2

  23

  2

  1

  =

  65

  12

  τ

  3

  3

  = (12, 5) y

  3

  12

  = 0 z

  3

  = 28

  = 5 τ

  = 0 z

  2

  )τ

  1

  2

  2

  2

  3

  min z

  3

  = (c

  3

  − π

  3 A

  3

  

3

  12

  =

  23

  12 t

  3

  1

  3

  2 Cada subproblema estar´a sujeito `as mesmas restri¸c˜ oes da itera¸c˜ ao anterior, visto que as

  solu¸c˜ oes dos mesmos n˜ao alteraram. Assim, temos como solu¸c˜ ao: τ

  1

  3

  = (0, 5) y

  1

  (3.353)

  23

  (3.354)

  1

  1

  1 λ

  21 −

  1

  5

  1

  2

  5 λ

  31 −1 12 −1

  12

  1

  3 −z

  15 λ

  3

  5

  11

  12

  1 −2197

  60 Tabela 3.18: Tabela final na itera¸c˜ ao 1 do problema teste 2.

  λ

  22

  τ

  2

  2

  =

  12

  

1

188

  5 .

  5 λ

  Vari´ avel b´ asica Colunas do problema mestre λ

  22 λ

  32 s

  3

s

  

4

λ

  12 λ

  21 λ

  31 −z Constantes λ

  22

  1

  5

  3

  32

  12

  1

  12

  1

  12

  2

  3 s

  3

1 -5

  8 s

  4 −

  1

  60 −

  5

  3

  (5, 0, 2) = (3, 0,

  = (13,

  

3

  1

  2

  = 1.(0, 5) = (0, 5) τ

  2

  = λ

  21

  τ

  2

  1

  23

  t

  

2

  = (

  12

  31

  5

  , 0, 2) τ

  3

  = λ

  31

  τ

  3

  32

  t

  

3

  

2

  τ

  = λ

  6

  ) λ

  5

  ) λ

  31

  τ

  3

  1

  =

  1

  3 .

  (15, 13) = (5,

  13

  3

  32

  1

  τ

  3

  2

  =

  2

  3

  . (12, 5) = (8,

  10

  3

  )

  (3.352)

  ou seja, τ

  • t
  • t
  • t
  • t

  15

  55

  12

  1

  32

  5 λ

  3

  5

  1

  23

  λ

  Vari´ avel b´ asica Colunas do problema mestre λ 23 λ 32 s 3 s 4 λ 11 λ 21 λ 31 −z Constantes

  22 .

  23 ,sai λ

  12 Tabela 3.19: Entra λ

  60 −

  12

  1 2197

  12

  11

  5

  3

  3 −z

  1

  1

  12

  31 −1 12 −1

  5 λ

  2

  

1

  1

  2

  1

  5

  1 −508

  12

  11

  60

  91

  3 −z

  1

  1

  12

  31 −1 12 −1

  5 λ

  2

  1

  1

  3 s

  21 −

  1 λ

  1

  12

  15 λ

  

1

188

  12

  5

  60 −

  1

  4 −

  8 s

  3

1 -5

  5

  1 λ 21 −

  Da´ı determinamos os custos reduzidos: z

  3

  O novo limite inferior ´e dado por

  23 entra na base(ver Tabela 3.18 e 3.20).

  Portanto, de acordo com (3.356), λ

  03 = 0, conforme o custo reduzido (3.355) e (3.357).

  − π

  3

  = z

  01

  − π

  1

  = 28 − 28 = 0 (3.357) Observamos que z

  03

  − π

  z

  60

  (3.356)

  12

  55

  12 − 10 = −

  65

  =

  02

  − π

  2

  z

  01 = 5 − 5 = 0 (3.355)

  − π

  1

  2197

  −

  1

  12

  12

  15 λ

  1 188

  12

  5

  60 −

  1

  8 s 4 −

  3 1 -5

  3 s

  2

  12

  1

  1

  

55

  32

  1 λ

  5

  3

  5

  1

  22

  23 λ

  31 −z Constantes λ

  

Vari´ avel b´ asica Colunas do problema mestre Coluna de entrada

λ 22 λ 32 s 3 s 4 λ 11 λ 21 λ

  60 = 32, 03.

  1922

  =

  

12

  • -5 -10 -28

  • 5 -10 -28
  • λ

  • λ
  • t

  )τ

  2

  2

  3

  min z

  3

  = (c

  3

  − π

  3 A

  3

  

3

  1

  =

  23

  12 t

  3

  1

  3

  2 .

  Da mesma forma que na itera¸c˜ ao anterior, cada subproblema est´a sujeito `as mesmas res- tri¸c˜ oes, fornecendo os seguintes resultados: τ

  1

  3

  2

  2

  1

  2

  1 A

  1

  )τ

  

1

  = −

  31

  60 t

  1

  1

  1

  min z

  5 t

  2

  = (c

  2

  − π

  2 A

  2

  )τ

  

2

  =

  8

  = (0, 5) y

  12

  1

  = 28 − 28 = 0 (3.363) Como z

  − π

  01

  = 5 − 5 = 0 (3.361) z

  2

  − π

  02

  = 10 − 10 = 0 (3.362) z

  3

  − π

  03

  1

  z

  − π

  01

  = z

  2

  − π

  02

  = z

  3

  − π

  03

  1

  (3.360)

  = 0 z

  = 0; y

  1

  = 5 τ

  2

  3

  = (5, 0, 2) y

  2

  12

  = y

  2

  13

  2

  = 28

  23

  = 1 z

  2

  = 10 τ

  3

  3

  = (12, 5) y

  3

  12

  = 0 z

  3

  − π

  = (c

  = 0 ent˜ao n˜ao existem mais candidatas a entrar na base. Logo, a solu¸c˜ ao corrente ´e ´otima. Notemos que o limite inferior da solu¸c˜ ao ´otima do problema

  1

  5

  . (5, 0, 2) = (3, 0,

  6

  5

  ) λ

  31

  t

  3

  1

  =

  3 .

  =

  (15, 13) = (5,

  13

  3

  ) λ

  32

  t

  3

  2

  =

  2

  3

  3

  (12, 5) = (8,

  =

  Temos da Tabela 3.20 a seguinte solu¸c˜ ao para o problema proposto (3.251) - (3.262): λ

  12

  t

  1

  2

  = 1.(0, 5) = (0, 5) λ

  21

  t

  2

  1

  2

  2

  5 .

  (8, 0, 2) = (

  16

  5

  , 0,

  4

  5

  ) λ

  23

  t

  3 .

  10

  1

  ) z =

  t

  3

  1

  32

  t

  

3

  

2

  = (13,

  23

  3

  508

  = λ

  15 .

  (3.359)

  ITERAC ¸ ˜ AO 3

  De acordo com a Tabela 3.20, π = (−

  23

  12

  , −

  11

  12

  , 0, 0, 5, 10, 28). Segue-se: min z

  31

  3

  3

  2

  )

  (3.358)

  ou seja, τ

  1

  = λ

  12

  t

  1

  2

  = (0, 5) τ

  = λ

  , 0, 2) τ

  21

  t

  2

  1

  23

  t

  

2

  

3

  = (

  31

  5

  • t
  • t
  • t

  53 Valor ´ otimo encontrado 32, 86

Tabela 3.22: Compara¸c˜ ao das solu¸c˜ oes do problema teste 2.

  31

  1

  Assim τ = (t

  3 ).

  23

  = (13,

  2

  3

  t

  32

  3

  t

  = λ

  2

  3

  , 0, 2) e τ

  5

  31

  = (

  3

  2

  t

  23

  1

  2

  t

  , t

  , t

  = λ

  3

  24 Valor ´ otimo com limite

  Valor ´ otimo sem limite

  29 2 36, 61 32, 03 3 32, 86 32, 86

Tabela 3.21: Limites por itera¸c˜ ao do problema teste 2.

  

53

  1

  

Itera¸c˜ ao LS LI

  Relembremos que a Tabela 3.21 mostra o limite inferior(LI) e o limite superior(LS) a cada itera¸c˜ ao, para a solu¸c˜ ao ´otima do problema proposto(3.257)-(3.255) atualizando os limites das vari´aveis a cada dire¸c˜ ao(ver algoritmo 3.1). Enquanto que a Tabela 3.22 indica o valor ´otimo no caso do problema original(3.251)-(3.255) sem os limites adotados, o valor ´otimo para o problema (3.257)-(3.262) e o valor ´ otimo encontrado ao aplicarmos o m´etodo de resolu¸c˜ ao de Dantzig-Wolfe incluindo os limites.

  ´e o valor ´otimo e a solu¸c˜ ao ´ otima.

  15

  508

  ) e z =

  23

  3

  , 13, 0, 5, 2,

  5

  31

  ) = (0,

  7

  , t

  6

  , t

  5

  , t

  4

  , t

  21

  2

  Deste modo temos a seguinte solu¸c˜ ao ´otima para o problema proposto (3.76)-(3.262): λ

  16

  3

  =

  3

  2

  t

  23

  ) λ

  5

  4

  , 0,

  5

  (8, 0, 2) = (

  (5, 0, 2) = (3, 0,

  5 .

  2

  =

  1

  2

  t

  21

  = 1.(0, 5) = (0, 5) λ

  2

  1

  t

  12

  5 .

  6

  = (0, 5), τ

  t

  1

  ou seja, τ

  (3.364)

  )

  3

  10

  (12, 5) = (8,

  3 .

  2

  =

  2

  3

  32

  5

  ) λ

  3

  13

  . (15, 13) = (5,

  3

  1

  =

  1

  3

  t

  31

  ) λ

  • λ
  • λ
Valores da função objetivo ( Primal )

  53

36,61

32,86

32,03

  29 e dos limites inferiores

  Limites inferiores ( Dual ) Progresso dos valores da função objetivo

  1

  

2

  3 Iteração

Figura 3.3: Convergˆencia do m´etodo do problema teste 2.

  M

  1 P

  1 P

  2 M

  2 M

  3

  10

  33 ~ : tempo C =10

  Solucao S 1 ´ max

  1 M P

  1

  1 P

  2 M

2 M

  3

  14 tempo

  ~ : C

  Solucao S 2 = 14 ´ max

  2 M

1 P

  1 M P

  2

  2 M

  3

  10 C Solucao S : =10 max

3 Figura 3.4: Diagrama de Gantt representando as solu¸c˜ oes encontradas do problema teste 2.

  Do mesmo modo que o Problema Teste 1, verificamos que a solu¸c˜ ao encontrada ao final do m´etodo ainda n˜ao ´e a melhor solu¸c˜ ao para o problema de job-shop(3.251)-(3.255). Al´em disso, ´e poss´ıvel verificar na Figura 3.3 a convergˆencia do m´etodo e melhores valores para a fun¸c˜ ao objetivo a cada itera¸c˜ ao. Observamos ainda os limitantes para o ´otimo do problema proposto (3.257)-(3.262).

  Analisando os valores expressos nas Tabelas 3.21 e 3.22 vemos que a solu¸c˜ ao ´otima encon- trada ´e um limitante inferior para o problema proposto (3.257)-(3.262) e um limitante superior para o problema original (3.251)-(3.255). Al´em disso, notemos que neste caso conseguimos contornar a infactibilidade atrav´es do ajuste no limite (3.313) por (3.316). Este fato mostra a importˆancia em determinar limites adequados que contornem a infactibilidade a fim de obtermos uma solu¸c˜ ao mais pr´ oxima do valor ´otimo.

  Conclus˜ ao

  Neste trabalho abordamos o m´etodo de decomposi¸c˜ ao de Dantzig-Wolfe que prop˜oe a decom- posi¸c˜ ao de um problema linear de grande dimens˜ao em subproblemas de dimens˜oes menores e mais f´aceis de serem resolvidos, supervisionados por um problema coordenador.

  Deste ponto de vista, como os problemas d seq¨ uenciamento do tipo job-shop s˜ao problemas combinat´orios de grande dimens˜ao e portanto, dif´ıceis de serem resolvidos, podemos utilizar o M´etodo de Decomposi¸c˜ ao de Dantzig-Wolfe a fim de determinar a solu¸c˜ ao ´otima, ou sub-´otima.

  Sendo assim, propomos a decomposi¸c˜ ao de um particular problema de seq¨ uenciamento do tipo , job-shop em k subproblemas independentes associados a cada m´aquina M k e formulamos o problema coordenador considerando as restri¸c˜ oes de precedˆencia como de acoplamento. Tais considera¸c˜ oes fazem com que as vari´aveis das restri¸c˜ oes de acoplamento, envolvidas em cada subproblema, limites sem limites inferior e/ou superior. Isto acarreta em conjuntos de solu¸c˜ oes ilimitadas. Al´em disso, pode ocorrer que algumas solu¸c˜ oes dos subproblemas n˜ao satisfa¸cam as restri¸c˜ oes de precedˆencias. Sendo assim, sugerimos a cria¸c˜ ao de limites, que ajustados a cada itera¸c˜ ao, garantem a limita¸c˜ ao das regi˜oes vi´ aveis de cada subproblema, a factibilidade do problema mestre e/ou subproblemas, e a obten¸c˜ ao de solu¸c˜ oes mais pr´oximas do valor ´otimo do problema original. Portanto, o problema proposto criado a partir do problema original ´e diferenciado pelas restri¸c˜ oes limitantes das vari´aveis envolvidas nas restri¸c˜ oes de acoplamento. Como tais limites s˜ao determinados baseados numa borda superior, a regi˜ ao de solu¸c˜ oes vi´aveis do problema original est´a contida na regi˜ao do problema proposto. Em conseq¨ uˆencia, a solu¸c˜ ao do problema proposto ´e um limitante superior para a solu¸c˜ ao do problema original. Por´em, quando aplicamos o m´etodo de Dantzig-Wolfe ao problema proposto e ajustamos os limites das vari´aveis a cada itera¸c˜ ao, a solu¸c˜ ao ´otima converge para valores pr´oximos `a solu¸c˜ ao ´otima do problema original.

  Este resultado ´e importante pois podemos utilizar a solu¸c˜ ao ´otima obtida pelo M´etodo de grande interesse no desenvolvimento de m´etodos por Separa¸c˜ ao e Avalia¸c˜ ao,(Branch and Bound).

  Tendo em vista que a proposta deste trabalho ´e viabilizar a aplicabilidade do m´etodo de Dantzig-Wolfe em problemas de job-shop, os limites adotados tˆem importˆancia fundamental. Assim, ´e necess´ ario a cria¸c˜ ao de procedimentos que determinem limites mais eficientes que forne¸cam um valor ´ otimo do problema proposto mais pr´oximo do ´otimo do problema original. Al´em disso, como inicial- mente os conjuntos de restri¸c˜ oes dos subproblemas representam regi˜oes ilimitadas, podemos aplicar o m´etodo de Dantzig-Wolfe considerando as dire¸c˜ oes extremas do conjunto de solu¸c˜ oes vi´aveis do problema, modificando assim a formula¸c˜ ao do problema mestre e os crit´erios de otimalidade. Estudos mais aprofundados devem ser feitos de modo a determinar tais dire¸c˜ oes e garantir quais das mesmas converge para o valor ´otimo, ou uma melhor solu¸c˜ ao, do problema original. Apˆ endice

  Este anexo abordar´a conceitos e teoremas utilizados no decorrer deste trabalho, a fim de proporcionar um melhor entendimento do mesmo.

  n ¸˜ ao.

  

A.1 Definic Um conjunto X em E (espa¸co vetorial de dimens˜ ao n) ´e chamado um se dado

∈ X, para cada λ ∈ [0, 1]. qualquer dois pontos x e x em X, ent˜ ao λx + (1 − λ)x

  1

  2

  1

  2 ¸˜ ao.

  1 2 ∈ X para cada λ ∈ [0, 1] ´e chamada de A.2 Definic Qualquer ponto da forma λx + (1 − λ)x

  x

  1 e x 2 .

  Assim, a convexidade de X pode ser interpretada geometricamente como, a cada par de pontos x e x em X o segmento de reta que os liga, ou a combina¸c˜ ao convexa dos dois pontos, devem

  1

  2 pertencer a X.

  

A.3 Definic ¸˜ ao. Um ponto x em um conjunto convexo X ´e chamado de de X, se x n˜ ao pode

ser representado como uma combina¸c˜ ao convexa de dois pontos distintos em X, ou seja, se x =

λ , ∈ X.

  x

  1 + (1 − λ)x 2 com λ ∈ (0, 1) e x 1 x

2 A.4 Definic ¸˜ ao. O raio ´e uma cole¸c˜ ao de pontos da forma {x + λ · d; λ ≥ 0}, onde d ´e um vetor n˜ ao nulo. x ´e chamado o e d ´e a .

  ¸˜ ao.

A.5 Definic Em um conjunto convexo, um vetor n˜ ao nulo d ´e chamado , se para cada x em

um conjunto, o raio x + λd; λ ≥ 0 tamb´em pertence ao conjunto. Deste modo, um conjunto limitado,

n˜ ao possui dire¸c˜ ao.

  Considerando o conjunto poliedral X = {x|Ax ≤ b, x ≥ 0}. Ent˜ao um vetor n˜ao nulo d ´e uma dire¸c˜ ao de X se, e somente se, A (x + λd) ≤ b para λ ≥ 0 e x ∈ X. Visto que x ∈ X, ent˜ao Ax ≤ b e a primeira desigualdade acima vale para um λ ≥ 0 arbitrariamente grande se, e somente se, Ad ≤ 0. Da mesma maneira, x + λd ≥ 0 ´e n˜ao negativo para um λ ≥ 0 arbitrariamente grande se, e somente se, d ≥ 0, d 6= 0 e Ad ≤ 0.

  De forma similar, se X = {x|Ax = b, x ≥ 0} 6= ∅, ao vetor d ´e dire¸c˜ ao de X se, e somente se, ≥ 0, d 6= 0 e Ad = 0. d

  A mesma id´eia de ponto extremo, se estende para , ou seja, uma dire¸c˜ ao de um conjunto convexo ´e extrema , quando n˜ao pode ser representada como uma combina¸c˜ ao positiva de duas dire¸c˜ oes distintas do conjunto. Dois vetores, d e d , s˜ao ditos distintos se d n˜ao pode ser representado como

  1

  2

  1 um m´ ultiplo de d .

2 J´ a caracterizamos acima a dire¸c˜ ao de X como vetores d satisfazendo as condi¸c˜ oes d ≥ 0, d 6= 0 e Ad ≤ 0.

  Geometricamente, isto ´e chamado de sistema homogˆeneo, definindo um cone poliedral, tamb´em conhecido como cone recess˜ao, obtido pela transla¸c˜ ao dos hiperplanos definidos em X, de forma pa- ralela a eles mesmo at´e passar sobre a origem. A fim de eliminar duplica¸c˜ oes, essas dire¸c˜ oes dever˜ ao ser normalizadas, de forma conveniente. Deste modo utilizaremos a norma |d | + · · · + |d n | = 1, nos

  1

  dando a nova restri¸c˜ ao d

  1 + · · · + d n = 1, visto que d ≥ 0. Portanto, o conjunto

  D = {Ad ≤ 0, 1d = 1, d ≥ 0}, caracteriza o conjunto de de X, onde 1 ´e um desses vetores. Assim, as dire¸ c˜ oes extremas de X s˜ao exatamente os pontos extremos de D.

  

A.6 Teorema. Seja X = {x : Ax ≤ 0, x ≥ 0} um conjunto (poliedral) n˜ ao vazio. Ent˜ ao o conjunto

k

  1

  2

  , ,

  

de pontos extremos ´e n˜ ao vazio e tem um n´ umero finito de pontos, chamados x x · · · , x . Al´em

disso, o conjuntos de dire¸c˜ oes extremas ´e vazio se, e somente se, X ´e limitado. Se X n˜ ao ´e limitado,

ent˜ ao o conjunto de dire¸c˜ oes extremas ´e n˜ ao vazio e tem um n´ umero finito de vetores, chamados

l

  1

  2

  , , d d · · · , d . Entretanto, x ∈ X se, e somente se, pode ser representado como uma combina¸c˜ ao

  k

  1

  2

convexa de x , x , · · · , x [i.e., do conjunto de pontos extremos] mais uma combina¸c˜ ao linear n˜ ao

  1 2 l negativa de d , d , · · · , d [i.e.,conjunto de dire¸c˜ oes extremas], ou seja, ou d x

  2

  2

  2 conjunto X

  3

  1 restrição de normalizacão Conjunto D

  2

  3 x ou d

  1

  1

1 Figura A.5: Dire¸c˜ oes e dire¸c˜ oes extremas

  k l

  X X

  j j

  • λ µ x = j x j d (A.365)

  j j

=1 =1

k

  X λ

  j = 1 (A.366) j =1

  λ ≥ 0, j = 1, 2, · · · , k

  j (A.367)

  µ j ≥ 0, j = 1, 2, · · · , l (A.368) Ver demonstra¸c˜ ao em [4] Referˆ encias Bibliogr´ aficas

[1] Adams J.; Balas E. et Zawack D. (1988)“ The shifting bottleneck procedure for the job-shop

scheduling ”, Management Science, vol.34, No.3, 391-401.

[2] Alves, Isamara C. (2000) “Application de la Technologie de Groupes et de la Relaxation La-

grangienne au Probl´eme D‘Ordennancement de Type Job-Shop”,Tese de Doutorado,Universit´e Blaise Pascal.

  [3] Baker K. R. (1974)“Introduction to Sequencing and Scheduling ”, Wiley, New York.

[4] Bazaraa, Mokhtar S. (1990) Jarvis, John J. e Sherali, Hanif D. “Linear Programming and

Network Flows”: Woley.

  

[5] Benders J.F. (1962)“Partitioning procedures for solving mixed-variables programming pro-

blems”, Num. Math., vol.4 , 238-252.

  

[6] Bensana E. (1987)“ Utilisation de Techniques d’Intelligence Artificielle pour l’Ordonnancement

d’Atelier ”, Tese de Doutorado, Ecole Nationale Sup´erieure de l’A´eronautique et de l’Espace.

[7] Blazewicz J. et al. (1996)“Scheduling Computer Manufacturing Process”, Springer-Vertag,

Berlin.

  

[8] Caux C.; Pierreval H. e Portmann M.C. (1990)“ Les algorithmes g´en´etiques et leur appli-

cation aux probl`emes d’ordonnancement ”, Journ´ees d’´etude “ Ordonnancement et entre- prise ”, 5-45, 16-17/Juin, Toulouse.

  

[9] Carlier J.; Pinson E. (1987)“A branch and bound method for the job-shop problem”, Technical

Report Institut de Math´ematiques Appliqu´ees, Universit´e de Angers.

  

[10] Dantzig e Wolfe, P. (1960) “The Decomposition Algorithm for Linear Programs”, Econome-

trica, vol.29, No.4, 767-778.

  

[11] Dell’Amico M. et Trubian M. (1993)“ Applying tabu-search to the job-shop scheduling pro-

blem ”, Annals of Operations Research, vol.41, 231-252.

[12] Falkenauer E. et Bouffouix S. (1991)“ A genetic algorithm for job-shop ”, IEEE International

Conference on Robotics and Automation, Sacramento, California.

[13] Fisher, M. L. (1973) “Optimal solution of scheduling problems using Lagrange multipliers:

parte I”, Oper. Res, Vol21,1114-1127.

[14] Fisher, M. L. (1973) “Optimal solution of scheduling problems using Lagrange multipliers: parte

II”, In: Syposum on the theory of scheduling and its Applications, Springer, Bertin, 294-318.

[15] Fisher, M.L.; Lageweg, B.J.; Lenstra, J.K.; Kan A.H.G.R. (1983) “Surrogate Duality

Relaxation for job shop scheduling”, Discrete Applied Mathematics. Vol.5,65-75.

[16] Garey; M.R.Johnson, D. S.; (1976) “The Complexity of Flowshop and jobshop scheduling”,

Mathematics of operation Research, vol.1, 117-129.

[17] Geoffrion A.M. (1970) “Elements of large-scale mathematical programming Part I ”, Manage-

ment Science, vol.16 No.11, 652-675.

[18] Geoffrion, A.M.(1972)“Generalized Benders Decomposition”, Journal of Optimization Theory

and Applications, vol.10, No.4, 237-260.

[19] Geoffrion, A.M.(1974)“Lagrangean Relaxation For Interger Programming”, Mathematical

Programming Study. [20] Glover F. (1989)“ Tabu search, part1”, ORSA Journal on Computing, vol.1, No.3, 190-260. [21] Glover F. (1990)“ Tabu search, part2”, ORSA Journal on Computing, vol.2, No.1, 4-32.

[22] Hertz A. et Widmer M. (1994)“ La m´ethode tabou appliqu´ee aux probl`emes d’ordonnancement

, Journ´ees d’´etude “ Ordonnancement et entre prise ”, 97-125, 16-17/Juin, Toulouse.

[23] Kirkpatrick S. (1984)“ Optimization by simulated annealing : Quantitative studies ”, Journal

of Statistical Physics, vol.34, No.5-6, 975-986.

[24] Kusiak A. (1989)“ Knowledge -based systems in manufacturing ”, Taylor & Francis, New York.

[25] Lemonias H. (1990)“Ordonnancement d’atelier ` a tˆ aches, une approche par d´ecomposition”,

Tese de Doctorado, IMAG-Grenoble.

[26] Lopez P. (1991)“ Approche ´energ´etique pour l’ordonnancement de tˆ aches sous contraintes de

  [27] Lasdon L.S. (1970) “Optimization Theory for Large Systems”, McMillan Co..

[28] Tind J. (1998) “Decomposition Principle of Linear Programming”, University of Copenhagem,

Denmark.

  

[29] Thompson, Geral L.; Muth, John F. (1963) “Industrial scheduling”, Garnegie Institute of

Technology ,187-191.

  

[30] Panwalkar S.S. et Iskander W. (1977)“ A survey of scheduling rules ”, Operations Research,

vol.25, No.1, January-February, 45-61.

[31] Ramos, Alex D. (2002) “M´etodo do subgradiente aplicado ao Job-Shop decomposto pela

  T´ecnologia de Grupo e Relaxa¸c˜ ao Lagrangeana. Disserta¸c˜ ao de Mestrado, Universidade Fede-

  ral da Bahia

  

[32] Siarry P. (1994)“ La m´ethode du r´ecuit simul´e th´eorie et applications ”, Journ´ees d’´etude “

Ordonnancement et entreprise ”, 47-67, 16-17/Juin, Toulouse.

  

[33] Singer, M. (1999) “Decomposition methodos for large job shops”, Jornal Elsevier Science Ltda.

[34] Van Laarhoven P.J.M.; Aarts E.H.L. et Lenstra J.K. (1992)“ Job-shop scheduling by

simulated annealing ”, Operations Research, vol. 40, No.1, 113-126.

  

[35] Zwaneveld, C.M.; Van Wassenhove, L.N.;Strusevich, V.A.; Sevast Janov, S.V.;

  Potts, C.N. (1995) “The two-stage assembly scheduling problem: Complexty and approxima- tion”, Operation Research, vol.43, 1995. Index

  Algoritmo de Decomposi¸c˜ ao de Dantzig-Wolfe, Branch and Bound, 34

  10 da Relaxa¸c˜ ao Lagrangeana, 4 de Benders, 4 combina¸c˜ ao convexa, 83 de Dantzig-Wolfe, 4 conjunto convexo, 83 de Rosen, 4 data de separa¸c˜ ao e avalia¸c˜ ao, 34 mais cedo, 28 heur´ıstico, 34 mais tarde, 29 m´etodos diagrama de Gantt, 32 exatos, 34 dire¸c˜ ao heur´ısticos seriais, 34 de um conjunto, 83 ponto extremo, 83 do raio, 83 Problema extrema, 84 de job-shop, 29 dire¸c˜ oes recess˜ao, 84 Mestre, 7 elemento Mestre Restrito, 12 pivˆ o, 8 problema coordenador, 3 f´abricas de flow-shop, 28 com m´aquinas especializadas, 29 de job-shop, 27 com uma ´ unica m´aquina, 29 de open-shop, 27 gama operat´oria, 28 escravo, 3

  Grafo mestre, 3 potencial-tarefa, 32 NP-dif´ıcil, 34 problema com uma m´aquina, 29

  Interpreta¸c˜ ao econˆomica, 19 problemas Limite inferior, 17 de f´abrica, 27 makespan, 31 raio, 83 de localiza¸c˜ ao no tempo, 27 de m´aquina, 33 de potencialidade, 27 de precedˆencia, 33 de produto, 33 disjuntivas, 27, 33 do problema de job-shop, 30 d¨I sucess˜ao, 27 subproblemas, 3 tecnologia de grupos, 36 v´ertice do raio, 83

  Universidade Federal da Bahia-UFBa Instituto de Matem´atica/Depto. de Matem´atica

  Campus de Ondina, Av. Adhemar de Barros s/n, CEP:40170-110 www.im.ufba.br/hpinst/mestrado

Novo documento