Alexander dos Santos Dutra

Livre

0
1
112
1 year ago
Preview
Full text

  Universidade Federal da Bahia

  Instituto de Matem´ atica Curso de P´ os-graduac ¸˜ ao em Matem´ atica

  Dissertac ¸˜ ao de Mestrado

  M´ etodo de Pontos Interiores Aplicado a um Problema de Seq¨ uenciamento Job-Shop Alexander dos Santos Dutra

  Salvador-Bahia

  

M´ etodo de Pontos Interiores Aplicado a um

Problema de Seq¨ uenciamento Job-Shop

  Disserta¸c˜ao apresentada ao colegiado do curso de P´os-Gradua¸c˜ao em Matem´atica da Universidade Federal da Bahia, como requisito parcial para obten¸c˜ao do T´ıtulo de Mestre em Matem´atica Pura.

  Banca examinadora Prof. Dr. Isamara Carvalho Alves (Orientador).

  Prof. Dr. Akebo Yamakami Prof. Dr. Carlos Eduardo Trabuco D´orea Dutra, A. etodo de Pontos Interiores Aplicado a um Problema

  “M´ de Seq¨ uˆ enciamento Job-Shop. ” / Alexander dos Santos Dutra. Salvador-Ba, 2004. Orientador: Isamara de Carvalho Alves (Universidade Federal da Bahia). Disserta¸c˜ao de Mestrado apresentada ao curso de P´os-graduac˜ao em Matem´atica da UFBA, 99 p´aginas.

  A Deus, ´a minha amada e aos meus pais.

  “N˜ ao h´ a nada a temer a menos que me esque¸ca de como Deus me condu- ziu at´ e aqui. ” Ellen White. Agradecimentos

  A Deus, pelos sinais e maravilhas operadas na vida de minha fam´ılia durante este per´ıodo de estudos. O Senhor tornou realidade aquilo que todos julg´avamos im- poss´ıvel. A Deus todo louvor por mais esta vit´oria.

  A Suzy, Alexander Junio e Adrielle. Suzy, minha esposa amada, sou grato por acreditar em mim mesmo nos momentos que nem eu pude acreditar, seu amor faz de mim o que sou. Meus filhos, Alexander Junio e Adrielle, n˜ao foi f´acil ter papai tanto tempo perto dos olhos e com a mente t˜ao distante, obrigado por me fazerem sorrir.

  A todos os colegas de mestrado agrade¸co pelo companheirismo e amizade. Aos grandes matem´aticos e amigos Andrade, Augusto, F´abio e Gustavo obrigado pela contribui¸c˜ao sempre iluminada nos estudos. Jos´e Lu´ıs, obrigado pelo incentivo e apre- senta¸c˜ao a esta linha de pesquisa que tanto me fascina. Ernesto, meu companheiro de pesquisa saiba que tem sido ”massa”trabalhar contigo.

  Aos professores que contribu´ıram para que este momento fosse poss´ıvel. Em particular sou grato aos professores Jos´e Fernandes, Elinalva Vergasta e Marco Antˆonio pelo incentivo e apoio para que pudesse enfrentar esta etapa de estudos.

  Um agradecimento especial a professora Isamara Alves pela orienta¸c˜ao e dis- ponibilidade constante. Resumo

  O problema de seq¨ uenciamento do tipo job-shop ´e um problema que desperta o interesse de pesquisadores por sua caracter´ıstica computacional na categoria de um problema NP - dif´ıcil . Al´em disto, como um problema de programa¸c˜ao matem´atica, o job-shop constitui um particular desafio por possuir um espa¸co de busca n˜ao convexo.

  Tratamos neste trabalho de um problema de job-shop est´atico, determin´ıstico e com m´aquinas especializadas, para o qual adotamos uma modelagem matem´atica cont´ınua e n˜ao linear. ´ E verdade que modelos de programa¸c˜ao n˜ao linear s˜ao muitas vezes evitados em fun¸c˜ao da dificuldade encontrada em garantir a convergˆencia para um m´ınimo global. Contudo, essa dificuldade pode ser superada com o uso do M´etodo de Pontos Interiores (MPI) o qual tem sido aplicado com sucesso na resolu¸c˜ao de problemas dessa natureza. Este trabalho realiza, portanto, uma an´alise matem´atica a fim de viabilizar o uso de MPI na resolu¸c˜ao de um problema de job-shop espec´ıfico.

  Propomos o uso de MPI associado com o Lagrangeano Aumentado que foi usado para guiar o algoritmo por um caminho decrescente para a fun¸c˜ao objetivo. Para tal, foi preciso alterar algumas das informa¸c˜oes de segunda ordem a fim de encon- trar dire¸c˜oes primais que garantam esse decrescimento. Mostramos que as mudan¸cas efetuadas n˜ao alteram a convergˆencia do problema primal, por´em a convergˆencia do problema dual ´e influenciada. Em fun¸c˜ao disso, adotamos uma varia¸c˜ao na dire¸c˜ao dual ajustando-a `a fun¸c˜ao de penalidade usada e determinamos as condi¸c˜oes favor´aveis `a convergˆencia para um ponto que minimize a fun¸c˜ao objetivo do problema tratado. Abstract

  The job-shop-type scheduling problem is an issue that has called the attention of researchers because of its computational characteristic in the category of an NP- hard problem. Besides, as a mathematical programming problem, job-shop poses a particular challenge because it comprises a non-convex search environment.

  We deal, here, with a specific job-shop problem for which we adopt a con- tinuous, non-linear mathematical model. Non-linear programming models are often avoided viz-`a-viz the difficulty we meet when we try to ensure the convergence to a global minimum. However, this difficulty can be overcome with the use of the Interior Point Method (IPM), which has been successfully applied when we try to solve pro- blems of this kind . This thesis proposes, therefore, a mathematical analysis in order to make possible the use of IPM in the resolution of a specific type of job-shop problem.

  We propose the use of IPM together with a Augmented Lagrangean so as to lead the algorithm in a decreasing way towards the objective function. For that reason, we needed to alter a few items of second-order information so that we could find primal directions to ensure that reduction. We shall demonstrate that the accomplished changes did not significantly alter the convergence of the primal problem. Nevertheless, the convergence of the dual problem is affected. On account of that, we have resorted to a variation in the dual direction, fine-tuning it to the penalty utilized. By that means we are able to determine the conditions that are favorable to a convergence to a point which minimizes the objective function of the problem we are dealing with. Sum´ ario

  Lista de Figuras xii

  11 1.3.3 Modelo de programa¸c˜ao n˜ao-linear . . . . . . . . . . . . . . . .

  19 2.1.2 Aplica¸c˜oes do m´etodo de pontos interiores . . . . . . . . . . . .

  19 2.1.1 Breve hist´orico . . . . . . . . . . . . . . . . . . . . . . . . . . .

  2 M´ etodo de Pontos Interiores 18 2.1 O M´etodo de Pontos Interiores: Ontem e Hoje . . . . . . . . . . . . . .

  16

  15 Conclus˜ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  14 1.4.3 M´etodos de decomposi¸c˜ao . . . . . . . . . . . . . . . . . . . . .

  13 1.4.2 M´etodos heur´ısticos . . . . . . . . . . . . . . . . . . . . . . . . .

  13 1.4.1 M´etodos exatos . . . . . . . . . . . . . . . . . . . . . . . . . . .

  12 1.4 M´etodos de Resolu¸c˜ao para o Job-Shop . . . . . . . . . . . . . . . . . .

  10 1.3.2 Modelo de programa¸c˜ao linear com vari´aveis bin´arias . . . . . .

  Lista de Tabelas xiii

  10 1.3.1 Crit´erios de otimiza¸c˜ao . . . . . . . . . . . . . . . . . . . . . .

  8 1.3 Formula¸c˜ao Matem´atica para o Job-Shop . . . . . . . . . . . . . . . . .

  7 1.2.2 Representa¸c˜ao de solu¸c˜oes pelo diagrama de Gantt . . . . . . .

  5 1.2.1 Modelagem por grafos disjuntivos . . . . . . . . . . . . . . . . .

  4 1.2 O Problema de Seq¨ uenciamento Job-Shop . . . . . . . . . . . . . . . .

  3 1.1 Problemas de F´abrica . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  1 O Problema de Seq¨ uenciamento Job-Shop

  1

  Introdu¸cao Geral

  20 x 2.2 O M´etodo de Pontos Interiores para Programa¸c˜ao Linear . . . . . . . .

  23 2.2.1 M´etodo primal-dual . . . . . . . . . . . . . . . . . . . . . . . . .

  25 2.2.2 O passo central . . . . . . . . . . . . . . . . . . . . . . . . . . .

  26 2.2.3 M´etodos primais . . . . . . . . . . . . . . . . . . . . . . . . . .

  29 2.3 M´etodo de Pontos Interiores Aplicado a Programa¸c˜ao N˜ao Linear . . .

  30 2.3.1 Um m´etodo primal-dual barreira-logar´ıtmica (PDBL) . . . . . .

  31 2.3.1.1 Fun¸c˜ao de m´erito . . . . . . . . . . . . . . . . . . . . .

  33 2.3.1.2 Aplicando o M´etodo de Newton . . . . . . . . . . . . .

  34 2.3.1.3 Sele¸c˜ao do parˆametros β e µ . . . . . . . . . . . . . . .

  36 2.3.2 Um m´etodo primal-dual (PD) . . . . . . . . . . . . . . . . . . .

  39 Conclus˜ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  42

  3 M´ etodo de Pontos Interiores Aplicado ao Problema Job-Shop

  44 3.1 An´alise do Modelo de Seq¨ uenciamento Job-Shop Adotado . . . . . . . .

  45 3.1.1 An´alise do Espa¸co de Busca . . . . . . . . . . . . . . . . . . . .

  46 3.1.2 An´alise da Hessiana do Lagrangeano . . . . . . . . . . . . . . .

  49 3.2 M´etodo de Pontos Interiores e o Seq¨ uenciamento Job-Shop . . . . . . .

  53 3.2.1 Defini¸c˜oes iniciais e fun¸c˜oes de m´erito . . . . . . . . . . . . . .

  54 3.2.2 Mudan¸ca da matriz normal N (t, s, y) . . . . . . . . . . . . . . .

  56

  3.2.3 Um algoritmo de pontos interiores aplicado ao seq¨ uenciamento job-shop . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  62 3.2.3.1 Ponto de partida e parˆametros iniciais . . . . . . . . .

  63 3.2.3.2 Encontrando as dire¸c˜oes de busca . . . . . . . . . . . .

  66 3.2.3.3 Definindo o tamanho de passo . . . . . . . . . . . . . .

  66 3.3 An´alise de Convergˆencia . . . . . . . . . . . . . . . . . . . . . . . . . .

  69 3.3.1 Condi¸c˜oes para a convergˆencia global do problema de job-shop .

  69 3.3.2 Prova de Convergˆencia . . . . . . . . . . . . . . . . . . . . . . .

  70 Conclus˜ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  81 xi A.1 Tipos de Fun¸c˜oes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  91 A.2 Condi¸c˜oes de Otimalidade para Problemas com Restri¸c˜oes . . . . . . .

  92 A.3 Regra de Armijo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  95 A.4 Fun¸c˜ao de m´erito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  95 B Algoritmos Sugestivos

  97 B.1 Algoritmo para ajuste da matriz Normal N β . . . . . . . . . . . . . . .

  97 B.2 Algoritmo sugestivo de MPI . . . . . . . . . . . . . . . . . . . . . . . .

  98 Lista de Figuras 1.1 Grafo potencial-tarefa representando problema-exemplo 1 de job-shop. .

  8

  1.2 A representa¸c˜ao de uma sele¸c˜ao completa ac´ıclica para o problema-exemplo de job-shop. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  9

  1.3 A representa¸c˜ao de duas solu¸c˜oes para o problema exemplo 1 no dia- grama de Gantt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  9

  3.1 Gr´afico que representa a regi˜ao de busca referente a uma restri¸c˜ao dis- juntiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  47 3.2 Gr´afico da fun¸c˜ao que representa uma restri¸c˜ao disjuntiva . . . . . . .

  47 Lista de Tabelas 1.1 Dados do problema-exemplo 1 de job-shop. . . . . . . . . . . . . . . . .

  7 3.1 Dados do problema-exemplo 2 de job-shop. . . . . . . . . . . . . . . . .

  48 3.2 Dados do problema-exemplo 3 de job-shop. . . . . . . . . . . . . . . . .

  50 3.3 Dados do problema-exemplo 2 de job-shop. . . . . . . . . . . . . . . . .

  63 3.4 An´alise ponto inicial . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  64

  3.5 An´alise dos parˆametros para defini¸c˜ao das vari´aveis de excesso e vari´aveis duais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

  65 3.6 Exemplo de Aplica¸c˜ao do MPI ao problema de Job-Shop . . . . . . . .

  68 Introdu¸c˜ ao Geral

  O mercado atual possui uma tendˆencia a consumir uma variedade grande de produtos, com uma vida ´ util reduzida e com custo o mais baixo poss´ıvel Jain e Meeran [29]. Atender a estas necessidades requer processos mais complexos. ´ E preciso buscar maneiras de economizar em cada detalhe com a finalidade de obter custos competitivos. Neste contexto, o problema do seq¨ uenciamento de tarefas ´e freq¨ uente em ind´ ustrias e empresas de um modo geral, que buscam reduzir seu custo operacional e alcan¸cando uma maior produtividade.

  Os problemas de seq¨ uenciamento s˜ao essencialmente de otimiza¸c˜ao restritos que, num contexto de produ¸c˜ao, envolvem descobrir uma seq¨ uˆencia para aloca¸c˜ao de recursos limitados com a finalidade de atender determinado objetivo. Trataremos neste trabalho de um tipo particular de seq¨ uenciamento em f´abrica conhecido por problema de job-shop.

  Apesar da grande relevˆancia pr´atica de problemas de job-shop, h´a carac- ter´ısticas te´oricas particularmente importantes a serem consideradas. A primeira, diz respeito a sua complexidade computacional, sendo classificado como um problema NP- dif´ıcil (Lenstra e Rinnoy Kan [35], Johnson [30]). A segunda, refere-se a seu espa¸co de busca de solu¸c˜oes n˜ao conexo, despertando assim, o interesse como problema de programa¸c˜ao matem´atica dada a maior dificuldade na busca de solu¸c˜ao por um cami- nho cont´ınuo para este tipo de problema. Estas duas caracter´ısticas agregadas fazem do problema de job-shop um particular desafio tanto do ponto de vista computacional Introdu¸c˜ao Geral 2 direta a n˜ao convexidade do problema em quest˜ao. Para tanto, tomamos um problema de job-shop com caracter´ısticas espec´ıficas e adotaremos uma modelagem matem´atica cont´ınua de programa¸c˜ao n˜ao linear conforme proposta de E. Pinson [42]. Com esta modelagem estamos diante de um modelo matem´atico de programa¸c˜ao n˜ao linear e n˜ao convexo. Este modelo possui ainda caracter´ısticas particulares que o tornar˜ao ainda mais desafiador. Diante desses desafios, encontramos no M´etodo de Pontos Interiores (MPI) um aliado poderoso na busca de solu¸c˜ao para o problema de job-shop em quest˜ao.

  O MPI tem sido utilizado com sucesso na resolu¸c˜ao de problemas de pro- grama¸c˜ao n˜ao linear e n˜ao convexos, conforme in´ umeras pesquisas encontradas dentre os quais citamos os trabalhos de El Bakry et al [17], Granville [27] e Vanderbei e Shanno [56]. Isto nos levou a buscar uma an´alise mais acurada das caracter´ısticas ma- tem´aticas do problema de job-shop buscando garantias de convergˆencia para solu¸c˜oes que minimizem o tempo de seq¨ uenciamento desejado.

  Nosso trabalho est´a organizado da seguinte forma: No primeiro cap´ıtulo apresentamos uma vis˜ao geral do problema de job-shop descrevendo suas principais caracter´ısticas e ressaltando aquelas adotadas em nossa an´alise. Tamb´em, descrevemos duas formas particulares de modelagem matem´atica, al´em de discutir m´etodos usados na resolu¸c˜ao desse problema.

  O MPI ´e o objeto de nossa aten¸c˜ao no segundo cap´ıtulo. Partimos de uma breve vis˜ao hist´orica e seguimos apresentando algumas dentre as in´ umeras possibilida- des de aplica¸c˜ao deste m´etodo que tanto tem despertado o interesse de pesquisadores. Conclu´ımos esta exposi¸c˜ao apresentando o m´etodo de pontos interiores aplic´avel a modelos de programa¸c˜ao linear e n˜ao-linear.

  Os cap´ıtulos anteriores fornecem subs´ıdios para as an´alises realizadas no ter- ceiro cap´ıtulo onde verificamos com detalhes o modelo matem´atico adotado para o job-shop em quest˜ao. Finalizamos este cap´ıtulo com uma an´alise de convergˆencia para o m´etodo proposto para a resolu¸c˜ao do problema de job-shop. Cap´ıtulo 1 O Problema de Seq¨ uenciamento Job-Shop

  O problema de seq¨ uenciamento do tipo job-shop ´e o mais geral dos proble- mas de seq¨ uenciamento cl´assico conforme Jain e Meeran [29]. Este possui um espa¸co de busca irregular e caracter´ısticas computacionais capazes de fornecer id´eias e in- forma¸c˜oes na busca de algoritmos referentes a outras aplica¸c˜oes pr´aticas. Al´em disto, o job-shop ´e um problema combinat´orio de complexidade computacional classificado como NP-dif´ıcil (Johnson [30], Zwaneveld et al. [59], Strusevich [52]) e sendo conside- rado um dos mais complexos membros desta classe (Yamada e Nakano [58]).

  Uma indica¸c˜ao da complexidade envolvida na busca de solu¸c˜ao de um problema de job-shop pode dado por um problema proposto em 1963 por Muth e Thompson [40] que consiste no planejamento de 10 tarefas em 10 m´aquinas, cuja solu¸c˜ao ´otima foi provada somente em 1987, por Carlier e Pinson [12].

  O objetivo num problema de seq¨ uenciamento job-shop ´e a realiza¸c˜ao de de- terminadas tarefas que podem ser interligadas por restri¸c˜oes de sucess˜ao ou restri¸c˜oes de localiza¸c˜ao no tempo. Para execu¸c˜ao destas tarefas s˜ao necess´arios certos recursos Problemas de F´abrica

  4 Apresentamos, neste cap´ıtulo, as caracter´ısticas b´asicas referente ao seq¨ uenci- amento job-shop j´a restrito `as caracter´ısticas a que nos propomos estudar. Analisamos, em seguida, alguns modelos matem´aticos e m´etodos de resolu¸c˜ao comumente usados.

1.1 Problemas de F´ abrica

  Problemas de f´abrica s˜ao problemas onde se pretende seq¨ uenciar a execu¸c˜ao das opera¸c˜oes necess´arias `a confec¸c˜ao de determinados produtos que passam por m´aqui- nas distintas ou n˜ao (Alves [3]) com o objetivo de minimizar o tempo de produ¸c˜ao. Neste caso, as m´aquinas constituem os recursos a serem compartilhados e os servi¸cos (jobs) s˜ao as opera¸c˜oes realizadas na produ¸c˜ao de cada item.

  Uma m´aquina pode realizar apenas uma opera¸c˜ao de cada vez. Desta forma, a execu¸c˜ao de opera¸c˜oes nas m´aquinas devem ser planejadas a fim de evitar a sobre- posi¸c˜ao numa mesma m´aquina num dado instante. O seq¨ uenciamento dos problemas de f´abrica resulta geralmente na procura de seq¨ uˆencias de opera¸c˜oes sobre as m´aquinas.

  Podemos considerar problemas de f´abrica em que as opera¸c˜oes podem ser realizadas em qualquer m´aquina (f´abrica com m´aquinas paralelas), casos onde todas as opera¸c˜oes s˜ao realizadas numa ´ unica m´aquina, ou ainda, os casos em que uma opera¸c˜ao s´o pode ser realizada numa determinada m´aquina (f´abrica com m´aquinas especializadas). Dentre os problemas de f´abrica com m´aquinas especializadas podemos distinguir os seguintes casos principais:

  • problema de open-shop - quando as opera¸c˜oes elementares s˜ao independentes, ou seja, a ordem de execu¸c˜ao das opera¸c˜oes de um mesmo trabalho ´e indiferente.
  • problema de flow-shop - quando as opera¸c˜oes elementares dos trabalhos s˜ao liga- das por uma mesma ordem total, ou seja, todos os produtos seguem um percurso unidirecional.
O Problema de Seq¨ uenciamento Job-Shop

  5 Na pr´atica pode ser que nem todos os produtos estejam dispon´ıveis para serem processados no instante inicial. Neste caso, os produtos possuem tempos de partida que definem a sua data de chegada ao ch˜ao da f´abrica. Os tempos de partida dos produtos s˜ao eventos que n˜ao podem ser previstos, portanto seus requisitos de processamento tamb´em n˜ao podem ser conhecidos com antecedˆencia. Neste caso o seq¨ uenciamento de tarefas torna-se um problema n˜ao determin´ıstico que deve ser realizado em um per´ıodo de tempo totalmente aberto, sendo definido como um problema dinˆamico.

  Podemos considerar tamb´em o caso em que, uma vez iniciado o processo de produ¸c˜ao, os recursos utilizados por cada atividade n˜ao podem mais ser alterados at´e que todos os produtos estejam conclu´ıdos. Nesse sistema ideal, todos os recursos est˜ao sempre dispon´ıveis no in´ıcio do per´ıodo de seq¨ uenciamento, e n˜ao existe a possibili- dade de interrup¸c˜ao do processo ora iniciado. Problemas com estas caracter´ısticas s˜ao conhecidos como problemas est´aticos, e, apesar de serem pouco prov´aveis em situa¸c˜oes reais, o seu estudo ´e de fundamental importˆancia para o desenvolvimento de t´ecnicas eficazes para a solu¸c˜ao de problemas dinˆamicos.

1.2 O Problema de Seq¨ uenciamento Job-Shop

  Neste trabalho trataremos o problema de job-shop de um ponto de vista industrial. Teremos como recurso b´asico a utiliza¸c˜ao de m´aquinas capazes de executar apenas uma tarefa de cada vez, sendo por este motivo, consideradas como recursos disjuntivos. Geralmente, chama-se a confec¸c˜ao de certo produto, de trabalho (job). As opera¸c˜oes de um mesmo trabalho s˜ao organizadas em seq¨ uˆencias conhecidas por gama operat´oria.

  Podemos classificar o problema a que nos propomos lidar como um problema de job-shop est´atico e determin´ıstico com m´aquinas especializadas, pois estaremos su- pondo que todos as informa¸c˜oes sejam conhecidas antecipadamente (est´atico) e os dados O Problema de Seq¨ uenciamento Job-Shop 6 estando dispon´ıveis todo o per´ıodo de atividade, mas n˜ao podendo executar mais de uma tarefa ao mesmo tempo. Consideraremos tamb´em que n˜ao existe prioridade na execu¸c˜ao de determinada tarefa; assim n˜ao ser´a poss´ıvel interromper a execu¸c˜ao de uma opera¸c˜ao para realiza¸c˜ao de outra.

  Quanto aos produtos, consideraremos produtos independentes sem prioridades na execu¸c˜ao de suas opera¸c˜oes. Cada produto dever´a ser processado em dada m´aquina uma ´ unica vez e eles dever˜ao respeitar uma ordem de execu¸c˜ao dentro da gama ope- rat´oria. Al´em disto, consideraremos que os produtos chegam na unidade produtiva num mesmo instante. m m´aquinas distintas e p pro-

  Estudaremos casos de unidades fabris contendo e dutos. Cada produto P i ´e constitu´ıdo de p i opera¸c˜oes elementares. Desta forma, numa p

  X f´abrica ser˜ao executadas p = p i opera¸c˜oes, cada uma delas sendo realizada em i

  =1 uma m´aquina diferente M k .

  O n´ umero total de opera¸c˜oes que ´e executada em uma m´aquina M k ser´a de- m k . A dura¸c˜ao de execu¸c˜ao de uma opera¸c˜ao O j em M k ser´a chamada de notado por e tempo operat´orio e denotada por d j . Durante este tempo, a m´aquina estar´a ocupada e todas as outras opera¸c˜oes nesta m´aquina ter˜ao que aguardar para serem processadas. Assim, toda opera¸c˜ao em uma m´aquina ter´a seu tempo de in´ıcio de processamento denotado por t j que depende do instante de finaliza¸c˜ao da opera¸c˜ao precedente nesta m´aquina. O instante de t´ermino de execu¸c˜ao de uma opera¸c˜ao O j ser´a denotado por C j , sendo C j = t j + d j .

  Os problemas de seq¨ uenciamento job-shop, que denotaremos por Π j s˜ao cons- titu´ıdos por: i i .

  • P = {P |i = 1, ..., p} - o conjunto de p produtos (ou trabalhos) P k m m m´aquinas M k .
  • M = {M |k = 1, ..., e } - o conjunto de e

  3

  1

  1

  3

  7

  1

  2

  3

  8

  4

  3

  6

  9

  4

  3

  4

  10

  4

  1

  4

  11

  O Problema de Seq¨ uenciamento Job-Shop 7 p

  2

  2 Tabela 1.1 : Dados do problema-exemplo 1 de job-shop.

  1

  = 4 e p = 11 e m = 3 p 1 = p 2 = p 3 = 3, p 4 = 2 e m 1 = e m 2 = 3, e m 3 = 2

produto opera¸c˜ ao dura¸c˜ ao m´ aquina

  1

  1

  3

  2

  1

  2

  3

  3

  3

  2

  1

  1

  2

  4

  3

  3

  2

  5

  2

  3

1.2.1 Modelagem por grafos disjuntivos

  Os problemas de job-shop tamb´em podem ser descritos atrav´es de uma mode- lagem por grafos conforme proposto por Balas et al. [1]. Consideremos ent˜ao o grafo disjuntivo

  G = (V, C ∪ D), onde:

  • V ´e um conjunto de n´os que representam as opera¸c˜oes O j de cada produto unido a duas opera¸c˜oes fict´ıcias , fonte (O ) e sorvedouro (O f im ).
  • C ´e o conjunto de arcos conjuntivos que representa a seq¨uˆencia tecnol´ogica das opera¸c˜oes dentro de um mesmo produto, ou seja, a ordem em que as opera¸c˜oes O j de um mesmo produto p i devem ser processadas. Cada arco ´e ponderado de acordo com o tempo de execu¸c˜ao da opera¸c˜ao que o origina (O j ).
  • D ´e o conjunto dos arcos disjuntivos que representam as restri¸c˜oes de capacidade das m´aquinas, cada arco ´e ponderado com o tempo de execu¸c˜ao de sua oper¸c˜ao respectiva, existem portanto pares de arcos ((O u

  → O v ), (O v → O u )) que devem ser realizadas na mesma m´aquina M k . O Problema de Seq¨ uenciamento Job-Shop 8 m´aquina, isto ´e, determinar a precedˆencia entre estas opera¸c˜oes. No modelo de grafo disjuntivo isto ´e realizado definindo dire¸c˜oes para todos os arcos disjuntivos. Assim, temos que uma sele¸c˜ao ´e um conjunto de arcos direcionados selecionados de arcos disjuntivos. Por defini¸c˜ao, uma sele¸c˜ao ´e completa se todas as disjun¸c˜oes forem seleci- onadas e esta sele¸c˜ao ser´a consistente se o grafo direcionado resultante for ac´ıclico. 3 3 1 O O O 3 1

2

2

3 3 O O O 4

5

6 O O 1

4

4 fin

O O O

4 7

8

3

2 9 O O O 10 MAQUINA 1 ´ MAQUINA 3

´ ´

MAQUINA 2

11

12 Figura 1.1 : Grafo potencial-tarefa representando problema-exemplo 1 de job-shop.

  Na figura 1.1 apresentamos o grafo para o problema-exemplo 1. Nele ´e poss´ıvel ver o conjunto de arcos conjuntivos C representados pelas flechas cont´ınuas e o conjunto de arcos disjuntivos

  D representados pelas flechas pontilhadas. Cada opera¸c˜ao ´e repre- sentada por um n´o e os arcos que partem de cada n´o s˜ao ponderados pelo dura¸c˜ao da opera¸c˜ao correspondente. Neste exemplo todos os produtos s˜ao lan¸cados no instante

  0. Uma sele¸c˜ao completa com a defini¸c˜ao de todas as dire¸c˜oes no arcos disjuntivos ´e representada pela figura 1.2

1.2.2 Representa¸c˜ ao de solu¸c˜ oes pelo diagrama de Gantt

  O Problema de Seq¨ uenciamento Job-Shop 3 3 1

  9 O O O 3 1

2

2

3 3 O O O 4

5

6 O 1

4

4 O fin

O O O

4 7

8

3

2 9 O O O 10 MAQUINA 1 ´ MAQUINA 2 ´ MAQUINA 3 ´

11

12 Figura 1.2 : A representa¸c˜ ao de uma sele¸ c˜ ao completa ac´ıclica para o problema-exemplo de job-shop. retˆangulos localizados nesta barra. Os retˆangulos possuem o comprimento proporcional `a dura¸c˜ao da opera¸c˜ao que representa e a posi¸c˜ao que ocupa na barra ´e definida pelo instante de in´ıcio da respectiva opera¸c˜ao. A figura 1.3 apresenta o diagrama de Gantt para o problema-exemplo 1 de job-shop onde ´e poss´ıvel constatar a superioridade da segunda solu¸c˜ao (S

  2 ) com tempo total de produ¸c˜ao igual a 13 unidades de tempo em rela¸c˜ao `a primeira (S ) com tempo total de produ¸c˜ao igual a 33 unidades de tempo.

  1 M P

  1

  1 P

  2 M

  2 P

  3 M P

  3

  4

  33 ~ : tempo Solucao S C = 33

  1 ´ max 1 M

  P

  1

  1 P

  2 M

  2 P

  3 P M

  4

  3

  13 tempo ~ : Solucao S

  C = 13 Formula¸c˜ao Matem´atica para o Job-Shop

  10

1.3 Formula¸c˜ ao Matem´ atica para o Job-Shop

  As restri¸c˜oes disjuntivas introduzem um espa¸co de busca n˜ao convexo para seq¨ uenciamento job-shop. A lineariza¸c˜ao destas restri¸c˜oes pode ser feita acrescentando- se vari´aveis bin´arias na formula¸c˜ao do problema, obtendo-se um modelo inteiro-misto. O mesmo problema tamb´em pode ser modelado de forma cont´ınua como um problema de programa¸c˜ao n˜ao linear. Apresentaremos a descri¸c˜ao de uma proposta de formula¸c˜ao matem´atica de cada tipo al´em de crit´erios de otimiza¸c˜ao que podem ser considerados.

1.3.1 Crit´ erios de otimiza¸c˜ ao

  O objetivo a ser alcan¸cado num problema de seq¨ uenciamento job-shop aplicado ao ch˜ao de f´abrica ´e otimizar o tempo total de produ¸c˜ao. H´a v´arios crit´erios que podem ser utilizados na otimiza¸c˜ao de tais problemas (Ramos [44]). Um crit´erio de otimiza¸c˜ao comumente usado ´e a minimiza¸c˜ao da dura¸c˜ao total do seq¨ uenciamento denominado makespan e denotado por C max , sendo:

  C max = max i {C }

  1≤j≤p

  onde C i ´e o momento de t´ermino de execu¸c˜ao de um produto P i , ou seja, C i ´e momento do t´ermino de execu¸c˜ao da ´ ultima opera¸c˜ao referente a esse produto.

  Uma outra forma igualmente ´ util de avaliar o tempo de produ¸c˜ao total ´e pela soma de todos os tempos de in´ıcio de todas as n opera¸c˜oes t j . Esta forma apresenta como crit´erio de otimiza¸c˜ao uma fun¸c˜ao linear definida por: p

  X f (t) = t j (1.1) j

  =1

  Existe ainda uma diversidade grande de crit´erios empregados na otimiza¸c˜ao de um problema de job-shop. Uma descri¸c˜ao destes crit´erios pode ser encontrada Formula¸c˜ao Matem´atica para o Job-Shop

  11

1.3.2 Modelo de programa¸c˜ ao linear com vari´ aveis bin´ arias

  Uma forma comumente encontrada para tratar as restri¸c˜oes disjuntivas ´e o uso de vari´aveis bin´arias. Uma das propostas de modelagem desta natureza ´e a feita por Manne e citado por Thompson, et al [55] que define uma nova vari´avel bin´aria para cada par ordenado de opera¸c˜oes utilizando a mesma m´aquina. Esta vari´avel em 0-1 ´e denotada por y uv , tal que:

   

  1, se O v precede O u sobre M k y uv =  0, se O u precede O v sobre M k .

  Este modelo tamb´em utiliza um limite superior B para dura¸c˜ao total do seq¨ uenciamento. Este limite pode ser, por exemplo, a soma de todos os tempos ope- rat´orios das opera¸c˜oes do problema: p

  X B = d j . j (1.2)

  =1;

  As restri¸c˜oes do problema podem ser expressas pelas equa¸c˜oes: h (1.3) t j +1 j + d j ,

  ≥ t ∀j ∈ C h (1.4) t v u + d u uv ),

  ≥ t − B(y ∀(u, v) ∈ D h (1.5) t u v + d v uv ),

  ≥ t − B(1 − y ∀(v, u) ∈ D As restri¸c˜oes (1.3) representam as restri¸c˜oes da gama operat´oria. As restri¸c˜oes

  (1.4) e (1.5) representam as restri¸c˜oes disjuntivas. Neste modelo, para cada escolha de um par de arcos disjuntivos, somente uma das restri¸c˜oes (1.4) e (1.5) ´e ativada. Assim, quando se escolher fazer O u antes de O v (y uv vale 0) a restri¸c˜ao (1.5) ´e ent˜ao inativa p

  X j´a que t + d u v v d ) o segundo j

  ≥ t − B, e da forma em que B foi definida (como j =1 termo desta inequa¸c˜ao ser´a sempre negativo e, como consideramos todos os tempos de in´ıcio sendo positivos, esta restri¸c˜ao fica inutilizada. Por outro lado, a restri¸c˜ao (1.4) ´e Formula¸c˜ao Matem´atica para o Job-Shop

  12 Neste caso o makespan pode facilmente ser obtido acrescentando-se uma nova vari´avel (t f im ) para representar o momento de t´ermino de toda a produ¸c˜ao e o seguinte conjunto de restri¸c˜oes: h t f im j + d j ,

  ≥ t ∀j ∈ O Dessa forma um problema de seq¨ uenciamento job-shop Π j pode ser escrito como:

  M in. f (t) = t f im S.a. t j + d j j

  • 1

  − t ≤ 0 ∀(j, j + 1) ∈ C t u + d u uv ) v − B(y ≤ t ∀(u, v) ∈ D t v + d v uv ) u

  − B(1 − y ≤ t ∀(v, u) ∈ D t j + d j f im ≤ t ∀j ∈ O t j

  ≥ 0 ∀j ∈ O Obtemos assim um problema de programa¸c˜ao inteira-mista. A principal difi- culdade na resolu¸c˜ao desse modelo refere-se `as vari´aveis inteiras (bin´arias). Uma forma comum na resolu¸c˜ao desse modelo consiste na jun¸c˜ao de um m´etodo de Branch-and- Bound com o m´etodo simplex.

1.3.3 Modelo de programa¸c˜ ao n˜ ao-linear

  O modelo proposto por Pinson [42] agrupa em uma ´ unica equa¸c˜ao quadr´atica as duas equa¸c˜oes disjuntivas para cada par de opera¸c˜ao numa mesma m´aquina M k . As restri¸c˜oes deste modelo s˜ao representadas pelas equa¸c˜oes:

  (1.7) t , j + d j j

  • 1

  ≤ t ∀j ∈ C

  (1.8) (t v u + d v )(t u v + d u )

  − t − t ≤ 0, ∀(u, v) ∈ D As restri¸c˜oes (1.7) representam as restri¸c˜oes da gama operat´oria. As restri¸c˜oes

  (1.8) representam as restri¸c˜oes disjuntivas das m´aquinas. Essas restri¸c˜oes disjuntivas introduzem um espa¸co de busca cont´ınuo mas n˜ao conexo.

  M´etodos de Resolu¸c˜ao para o Job-Shop n

  13 X M in. f (t) = t j j

  =1

  S.a. t j + d j j − t +1 ≤ 0 ∀j ∈ C

  (1.9) (t v u + d v )(t u v + d u )

  − t − t ≤ 0 ∀(u, v) ∈ D t j ≥ 0 ∀j ∈ O

  Modelos de programa¸c˜ao n˜ao linear e n˜ao convexo tˆem sido evitados em fun¸c˜ao das dificuldades encontradas na busca de solu¸c˜ao por m´etodos tradicionais [57]. O m´etodo de pontos interiores ´e uma ferramenta capaz de superar este problema conforme apresentado na se¸c˜ao 2.3.

1.4 M´ etodos de Resolu¸c˜ ao para o Job-Shop

  A solu¸c˜ao de um problema de seq¨ uenciamento job-shop pode ser obtida por m´etodos exatos, mas devido a sua complexidade (NP-dif´ıcil) em muitos casos s´o ´e vi´avel o uso de m´etodos que buscam solu¸c˜oes aproximadas para a obten¸c˜ao de boas solu¸c˜oes em tempo ´ util para fundamentar as decis˜oes a tomar no dia-a-dia na ind´ ustria. M´etodos de decomposi¸c˜ao s˜ao tamb´em aplic´aveis a problemas de job-shop na medida em que reduzem a dimens˜ao do problema a ser resolvido.

1.4.1 M´ etodos exatos

  M´etodos de solu¸c˜ao exatos s˜ao aqueles que pretendem obter a solu¸c˜ao ´otima para um problema no menor tempo poss´ıvel.

  Entre os m´etodos de solu¸c˜ao exata aplic´aveis a problemas de otimiza¸c˜ao com- binat´oria o mais usado ´e o m´etodo de parti¸c˜ao e avalia¸c˜ao sucessivas (Branch and Bound). Encontramos diversos trabalhos nesta dire¸c˜ao dentre os quais podemos des- M´etodos de Resolu¸c˜ao para o Job-Shop 14 seu uso sistem´atico em casos como o do seq¨ uenciamento job-shop devido a sua comple- xidade (Np-Dif´ıcil). Nesta dire¸c˜ao, temos os trabalhos de Schall et al ([51], [48], [49], [50]) que utilizam t´ecnicas de programa¸c˜ao matem´atica de forma h´ıbrida com m´etodos heur´ısticos aplic´aveis ao seq¨ uenciamento job-shop modelado de forma linear com o uso de vari´aveis bin´arias. Particularmente, usa t´ecnicas de programa¸c˜ao matem´atica tendo o m´etodo de pontos interiores (MPI) como principal ferramenta de resolu¸c˜ao.

  As heur´ısticas utilizadas de forma h´ıbrida com o (MPI) nestes trabalhos s˜ao: simulated annealing e algoritmos gen´eticos. Tais algoritmos s˜ao descritos brevemente na se¸c˜ao seguinte.

1.4.2 M´ etodos heur´ısticos

  Os m´etodos de solu¸c˜ao aproximada (heur´ısticas) permitem obter planos opera- cionais aceit´aveis em tempo ´ util, mas n˜ao garantem a obten¸c˜ao de uma solu¸c˜ao ´otima.

  Dentre os diversos m´etodos aplic´aveis ao job-shop, os mais utilizados s˜ao os m´etodos de lista devido a sua simplicidade. Estes m´etodos s˜ao baseados em regras de despacho priorit´ario ou algoritmos de lista (Blazewicz et al.[10], Blazewicz [11]) onde o plano operacional ´e constru´ıdo atrav´es de uma seq¨ uˆencia de decis˜oes baseadas no que localmente parece ser ´otimo. Alguns algoritmos conhecidos s˜ao:

  • SPT(Shortest Processing Time) - Seleciona a opera¸c˜ao com menor tempo de processamento.
  • EDD (Earliest Due-Date) - Seleciona a opera¸c˜ao que pertence `a tarefa cuja data de entrega ´e a mais pr´oxima.
  • FIFO (First In First Out) - Seleciona a opera¸c˜ao na ordem crescente de chegada nas m´aquinas.
  • MWKR (Most WorK Remaining) - Seleciona a opera¸c˜ao que pertence ao produto
M´etodos de Resolu¸c˜ao para o Job-Shop

  15 O m´etodo heur´ıstico conhecido por Simulated Annealing faz uma analogia entre a otimiza¸c˜ao combinat´oria e a evolu¸c˜ao do equil´ıbrio t´ermico dos s´olidos. No caso particular do job-shop, busca-se um procedimento iterativo, onde a solu¸c˜ao do problema desempenha o papel do estado energ´etico do s´olido. Como mencionado na se¸c˜ao anterior Schall et al ([50], [51]) prop˜oem uma hibrida¸c˜ao do simulated annealing juntamente com m´etodo de pontos interiores para a resolu¸c˜ao de problemas de job-shop.

  Um outro m´etodo heur´ıstico utilizado ´e denominado como Shifting Bottleneck e foi desenvolvido por Adams et al [1] e consiste em um m´etodo iterativo baseado no grafo disjuntivo. Em cada itera¸c˜ao ´e resolvido um problema relaxado de planejamento em uma ´ unica m´aquina com datas de disponibilidade e de entrega, de modo a seq¨ uenciar as m´aquinas que formam o problema de job-shop. Assim as m´aquinas s˜ao seq¨ uenciadas uma de cada vez, seq¨ uencialmente.

  Al´em destes m´etodos aqui mencionados, vale ressaltar trabalhos realizados com m´etodos de busca adaptativos como os algoritmos gen´eticos (AG) . Estes algoritmos tˆem sido aplicados com sucesso a problemas combinat´orios. Seu modelo ´e constitu´ıdo por uma popula¸c˜ao de indiv´ıduos que s˜ao solu¸c˜oes potenciais. Os AG combinam o intercˆambio de informa¸c˜oes e a sobrevivˆencia dos melhores indiv´ıduos, representados por cadeias estruturadas. Dentre os diversos trabalhos nesta ´area podemos citar os trabalhos de Goldberg [25], Yamada e Nakano [58] que s˜ao aplicados a problemas de seq¨ uenciamento job-shop.

1.4.3 M´ etodos de decomposi¸c˜ ao

  O princ´ıpio geral destes m´etodos ´e o de substituir a resolu¸c˜ao de um problema inicial complexo pela resolu¸c˜ao de v´arios subproblemas cuja resolu¸c˜ao seja mais f´acil. A conseq¨ uente redu¸c˜ao da dimens˜ao ´e particularmente importante quando o problema tem uma complexidade elevada como o caso do job-shop. Conclus˜ao 16 tri¸c˜oes de produto (precedˆencia), e o problema mestre fica encarregado das restri¸c˜oes de m´aquina obtendo os multiplicadores de Lagrange de modo a manter a factibilidade.

  Num outro trabalho, Fischer [21] prop˜oe uma metodologia que realiza um procedimento pr´oximo da Relaxa¸c˜ao Lagrangeana cl´assica.

  M´etodos de decomposi¸c˜ao espacial s˜ao aplicados a problemas de job-shop de grande dimens˜ao reagrupando m´aquinas em c´elulas de produ¸c˜ao e os produtos em fam´ılias de forma que produtos de uma mesma fam´ılia sejam executados por m´aquinas de uma c´elula principal e, excepcionalmente, sejam executados em m´aquinas de outras c´elulas. Estas opera¸c˜oes que s˜ao executadas em outras c´elulas s˜ao conhecidas como elementos residuais. Esta filosofia ´e conhecida como tecnologia de grupos (Kusiak [33]).

  Recentemente temos a proposta de Alves [3] que utiliza a tecnologia de grupos para particionar o problema de job-shop e, em seguida, utiliza a t´ecnica da relaxa¸c˜ao la- grangeana para resolver os subproblemas coordenados por um problema mestre. Neste caso os subproblemas se aproximam do problema original j´a que as restri¸c˜oes a se- rem relaxadas s˜ao apenas as referentes ao elementos residuais. Assim, a factibilidade das solu¸c˜oes locais ´e garantida de forma mais eficiente. Com o objetivo de tornar a convergˆencia nesta metodologia mais r´apida, Ramos [44] prop˜oe ajustes de alguns parˆametros no m´etodo do subgradiente quando utilizado para resolver o problema mes- tre.

  Ainda h´a que ressaltar o trabalho de Santana [46] que prop˜oe a decomposi¸c˜ao de um problema de job-shop usando o m´etodo de Dantzig-Wolfe.

  Conclus˜ ao

  Neste cap´ıtulo apresentamos um importante problema de f´abrica conhecido como problema de seq¨ uenciamento job-shop. Verificamos algumas caracter´ısticas es- Conclus˜ao

  17 Neste trabalho estaremos adotando um modelo cont´ınuo ( §1.3.3) devido `a boa performance apresentada pelo m´etodo de pontos interiores na resolu¸c˜ao de problemas de programa¸c˜ao n˜ao linear, como ´e o caso. Vamos nos deter agora a uma an´alise deste m´etodo e suas principais aplica¸c˜oes. A seguir, no cap´ıtulo 3, veremos que o problema de job-shop, se constitui num interessante desafio para an´alise matem´atica. Cap´ıtulo 2 M´ etodo de Pontos Interiores

  O m´etodo de pontos interiores (MPI) tem sido em programa¸c˜ao matem´atica uma das mais interessantes ´areas de pesquisa em otimiza¸c˜ao desde o desenvolvimento do m´etodo simplex conforme Freund e Mizuno[22]. Diversas formula¸c˜oes de MPI foram propostas inicialmente tendo em mente problemas de programa¸c˜ao linear (Karmarkar [31], Mehrotra [38], Renegar [45], Wright [57]). Motivados pelo sucesso do MPI para programa¸c˜ao linear tiveram in´ıcio as investiga¸c˜oes de poss´ıveis extens˜oes para proble- mas de programa¸c˜ao n˜ao linear (Akrotirianakis e Rustem [4],El Bakry, et al. [17], Granville [27], Vanderbei e Shanno [56]).

  Neste cap´ıtulo fazemos uma breve descri¸c˜ao da relevˆancia do m´etodo de pontos interiores no ˆambito da busca de solu¸c˜ao de problemas de otimiza¸c˜ao. Apresentamos inicialmente uma breve vis˜ao hist´orica do MPI acompanhado de diversas possibilidades de aplica¸c˜ao `as mais variadas ´areas. Seguimos apresentando uma descri¸c˜ao sucinta do MPI aplicado a problemas de programa¸c˜ao linear. Finalmente, conclu´ımos com a apresenta¸c˜ao de duas vers˜oes do MPI aplicado a problemas gerais de programa¸c˜ao n˜ao linear. M´etodo de Pontos Interiores

  19

2.1 O M´ etodo de Pontos Interiores: Ontem e Hoje

2.1.1 Breve hist´ orico

  No ano de 1984 N. Karmarkar [31] apresentou `a comunidade cient´ıfica um novo algoritmo para resolver problemas de programa¸c˜ao linear em tempo polinomial. Uma caracter´ıstica de tal algoritmo ´e o fato de chegar a uma solu¸c˜ao ´otima para o problema caminhando atrav´es de pontos interiores da regi˜ao vi´avel ao contr´ario do algoritmo simplex, que a atinge gerando uma seq¨ uˆencia de pontos extremos adjacentes. O artigo de Karmarkar [31], e trabalhos anteriores reconhecidos posteriormente, deram in´ıcio a um novo campo chamado de m´etodo de pontos interiores.

  Nos primeiros anos ap´os o artigo inicial de Karmarkar, os trabalhos em pro- grama¸c˜ao linear usando pontos interiores centravam suas aten¸c˜oes em algoritmos que lidavam com o problema primal, possuindo uma implementa¸c˜ao mais amena que o m´etodo original e tendo melhores limites de complexidade. Neste per´ıodo ´e not´avel a contribui¸c˜ao do algoritmo de Renegar [45], que usou um limite superior para a fun¸c˜ao objetivo obtendo sucessivamente subconjuntos do conjunto fact´ıvel, cada um contendo uma solu¸c˜ao, e usando o m´etodo de Newton para analisar o centro deste subconjunto primal ´otimo. Uma nova era foi inaugurada com o artigo de Megiddo [37], que descreve uma estrutura para um algoritmo primal-dual. O ponto de vista primal-dual mostrou ser extremamente produtivo. Isto levou a novos algoritmos com interessantes propostas te´oricas, formando uma base para algoritmos melhores, e extens˜oes para programa¸c˜ao convexa e complementariedade linear. Em 1989, Mehrotra [38] descreve um algoritmo pr´atico para programa¸c˜ao linear que se tornou a base para a maioria dos softwares existentes; seu trabalho ´e publicado em 1992.

  Os trabalhos em torno do m´etodo de pontos interiores tiveram um maior ´ımpeto ap´os o reconhecimento de solu¸c˜oes de problemas NP-dif´ıcil obtidas em tempo polinomial. Os m´etodos que tˆem sido propostos possuem v´arios ingredientes, incluindo M´etodo de Pontos Interiores

  20

2.1.2 Aplica¸c˜ oes do m´ etodo de pontos interiores

  Do ponto de vista te´orico v´arias pesquisas tˆem sido conduzidas quanto a melho- ria da eficiˆencia computacional para programa¸c˜ao linear (LP), programa¸c˜oes quadr´atica (QP), problemas de complementaridade lineares (LCP) e algumas classes de problemas de programa¸c˜oes convexos. Outros trabalhos envolvendo m´etodo de pontos interiores (MPI) est˜ao sendo desenvolvidos para programa¸c˜oes semi-definidas, os quais possuem uma grande variedade de aplica¸c˜oes em ´areas de controle e otimiza¸c˜ao estrutural. Pro- grama¸c˜ao semi-definida, tamb´em tem se mostrado ser uma ´area de grande impacto (Potra e Wright [43]).

  ´ E poss´ıvel provar a convergˆencia super-linear de algoritmos primal-dual assu- mindo a independˆencia linear das restri¸c˜oes ativas nas solu¸c˜oes (Potra e Wright [43]).

  Esta observa¸c˜ao incitou pesquisas na melhoria das propriedades de convergˆencia de outros algoritmos, notavelmente programa¸c˜ao quadr´atica. Aplica¸c˜oes `a programa¸c˜ao quadr´atica apresentam-se como uma ´area promissora devido a habilidade superior que a aproxima¸c˜ao por pontos interiores possui ao explorar a estrutura deste problema. Como exemplo tem-se, dentre outros, o trabalho de Castro [15] que prop˜oe o MPI para resolu¸c˜ao de problemas de multifluxo de produtos (MFP) com uma formula¸c˜ao quadr´atica e verifica um melhor desempenho que o mesmo m´etodo aplicado `a modela- gem linear do mesmo problema.

  O MPI tem permitido obter resultados eficientes para problemas de pro- grama¸c˜ao n˜ao linear, o que tem levado muitos pesquisadores a se dedicarem a esta ´area (Akrotirianakis e Rustem [4], El Bakry et al. [17], Granville [27], Vanderbei e Shanno [56]). Em particular, existe um grande n´ umero de trabalhos que aplicam o MPI na resolu¸c˜ao de problemas de fluxo de potˆencia que ´e um problema de programa¸c˜ao n˜ao linear, n˜ao convexo e de grande porte. Dentre estes, temos os de Sousa e Costa que, num primeiro trabalho, apresentam um problema de fluxo de potˆencia ´otima resolvido via MPI primal-dual com barreira logar´ıtmica (Sousa e Costa [53]) e, em outro trabalho M´etodo de Pontos Interiores 21 resolvido pelo m´etodo apresentado no artigo anterior. Castronuovo et al [16] apresenta um m´etodo baseado na centraliza¸c˜ao da trajet´oria da solu¸c˜ao ´otima onde a distˆancia entre a solu¸c˜ao corrente e o passo central ´e monitorada.

  Problemas de programa¸c˜ao inteira tamb´em podem ser resolvidos com o aux´ılio de MPI. Nesta linha temos uma s´erie de trabalhos de Schall et al ([51], [47], [48], [49], [50]) que estuda a resolu¸c˜ao de problemas lineares inteiros fazendo uma hibridiza¸c˜ao de m´etodos exatos (MPI) com outras heur´ısticas tais como: algoritmo gen´etico , simulated annealing e scatter search. Em particular, em trabalho publicado em 1999 (Schall et al [51]) ´e apresentada uma compara¸c˜ao dos m´etodos discutidos nos artigos anteriores bem como uma proposta de aplica¸c˜ao a problemas de seq¨ uenciamento job-shop.

  Outra aplica¸c˜ao freq¨ uente ´e o uso de MPI na resolu¸c˜ao de problemas de fluxos em redes de multi-produtos (MFP). Os fluxos em redes de multi-produtos podem ser usados em diversos campos, como telecomunica¸c˜oes, transportes e log´ıstica. Neste tipo de problema diversos produtos devem ser transportados de um conjunto de n´os de produ¸c˜ao para um conjunto de n´os de consumo compartilhando a mesma rede de transporte. Este tipo de problema normalmente tem um grande n´ umero de vari´aveis. Um trabalho interessante de Azevedo et al [5] prop˜oe a resolu¸c˜ao de uma modelagem por grafos explorando os diferentes graus de esparsidade do problema com o uso de MPI . Nesta mesma linha h´a outros trabalhos como o de Castro [14].

  O MPI permanece uma ´area ativa e frut´ıfera de pesquisa. Sobretudo, ´e poss´ıvel notar a grande diversidade das aplica¸c˜oes deste m´etodo de resolu¸c˜ao.

2.1.3 O m´ etodo de pontos interiores versus m´ etodo simplex

  Diversos autores tentaram comparar implementa¸c˜oes de algoritmos de pontos interiores com o m´etodo simplex, mas n˜ao obtiveram tempo de solu¸c˜ao competitivo. Com a implementa¸c˜ao do m´etodo primal apresentado por Karmarkar apresenta-se a M´etodo de Pontos Interiores 22 realizadas com resultado superior ao do m´etodo simplex, n˜ao necessariamente para cada problema individual, mas para um conjunto de problemas. De forma pr´atica, para problemas pequenos o m´etodo simplex tem rendimento satisfat´orio. O MPI justifica-se particularmente em problemas com grande n´ umero de vari´aveis e maior complexidade computacional (Wright [57]).

  Um exemplo pr´atico onde o MPI possui consider´avel superioridade sobre o m´etodo simplex ´e no planejamento do tratamento de cˆancer por radioterapia onde s˜ao usados modelos de programa¸c˜ao linear. Conforme Barbosa [7] neste caso o desafio matem´atico consiste em programar a emiss˜ao de uma alta dosagem de radia¸c˜ao no tumor, e simultaneamente, minimizar a radia¸c˜ao nas regi˜oes vizinhas compostas por tecido saud´avel. Na presen¸ca de m´ ultiplas solu¸c˜oes o MPI convergir´a para aquelas solu¸c˜oes distanciadas dos v´ertices o que n˜ao ocorre com o m´etodo simplex. Para este modelo uma solu¸c˜ao pr´oxima do v´ertice pode n˜ao ser a mais adequada do ponto de vista m´edico pelo fato das vari´aveis de folga estarem no seu limite, significando que em determinadas partes tecido saud´avel receber´a uma dosagem grande de radia¸c˜ao.

  Uma vantagem adicional do MPI ´e a possibilidade de trabalhar com pontos infact´ıveis durante o processo de otimiza¸c˜ao, facilitando a identifica¸c˜ao de modelos mal formulados (Wright [57]).

2.1.4 M´ etodos de decomposi¸c˜ ao e m´ etodo de pontos interiores

  Usar a aproxima¸c˜ao por ponto interior nos m´etodos de decomposi¸c˜ao parece ser promissor, ainda que n˜ao estejam sendo feitos estudos comparativos rigorosos nesta ´area (Potra e Wright [43]).

  Nos m´etodos de decomposi¸c˜ao para problemas lineares e convexos de grande porte, como a decomposi¸c˜ao de Dantzig-Wolfe, m´etodo de pontos interiores tem sido usado para descobrir uma solu¸c˜ao para o problema master, ou para obter uma solu¸c˜ao M´etodo de Pontos Interiores 23 resultados quando o m´etodo de pontos interiores ´e usado como meio de resolu¸c˜ao de um problema master na aproxima¸c˜ao por decomposi¸c˜ao e aplica sua metodologia a um problema de multifluxo de produtos de grande porte (5.000 arcos e 10.000 produtos).

  

2.2 O M´ etodo de Pontos Interiores para Programa¸c˜ ao

Linear

  Apesar de boa parte dos modelos matem´aticos atuais serem n˜ao lineares, for- mula¸c˜oes de modelos lineares s˜ao vantajosas tendo em vista a qualidade dos softwares `a disposi¸c˜ao e a garantia da convergˆencia para um m´ınimo global. Portanto, entender o m´etodo de pontos interiores aplicado a problemas de programa¸c˜ao linear permite uma boa vis˜ao geral deste m´etodo.

  Consideremos um problema de programa¸c˜ao linear formulado na forma padr˜ao: T Minimizar c x

  (2.1) Sujeito a A

  · x = b x n m ≥ 0 onde c e x s˜ao vetores do R , b ´e um vetor do R e A ´e uma matriz m ×n. Aqui vale ressaltar que estamos considerando pontos interiores aqueles pontos que atendam estritamente as restri¸c˜oes do problema (2.1), ou seja, pontos em que x > 0.

  Associado com cada problema de programa¸c˜ao linear primal existe uma outra programa¸c˜ao linear chamada de dual. O dual para (2.1): T Maximizar b λ t

  (2.2) Sujeito a A

  · λ + s = c s ≥ 0 M´etodo de Pontos Interiores

  24 Teorema

  2.1. Considere o vetor x de (2.1) e (λ, s) de (2.2) , ent˜ao temos que: T T b λ x ≤ c

  Em outras palavras, o valor da fun¸c˜ao objetivo do dual ´e limitado inferiormente pelo valor da fun¸c˜ao objetivo do primal e o valor da fun¸c˜ao objetivo do primal ´e limitado superiormente pelo valor da fun¸c˜ao objetivo dual. As duas fun¸c˜oes objetivo podem ter o mesmo valor, de forma que

  ∗ ∗

  bλ = cx

  ∗ ∗ ∗ quando x ´e solu¸c˜ao de (2.1) e (λ , s ) ´e solu¸c˜ao de (2.2).

  ∗ n

  Teorema

  2.2. Pelas condi¸c˜oes de otimalidade (kkt) sabe-se que o vetor x ´e n m ∈ R

  ∗ ∗

  solu¸c˜ao de (2.1) se e somente se existem vetores s e λ que atendem as ∈ R ∈ R seguintes condi¸c˜oes t

  (i) A λ + s = c (ii) Ax = b

  (2.3) (iii) x i s i = 0 i = 1, 2, ..., n, (iv) (x, s)

  ≥ 0

  ∗ ∗ ∗ considerando (x, λ, s) = (x , λ , s ).

  Os vetores λ e s s˜ao geralmente chamados de multiplicadores de Lagrange para as restri¸c˜oes Ax = b e x ≥ 0, respectivamente. A condi¸c˜ao (iii) implica que para cada

  ´ındice i = 1, 2...n uma das componentes x i ou s i ´e nula. Esta condi¸c˜ao ´e conhecida como condi¸c˜ao de complementaridade.

  Examinando as condi¸c˜oes (2.3) do ponto de vista do primal e do dual, con- clu´ımos que:

  ∗ ∗ ∗ ∗

  Corol´ ario 2.1. o vetor (x , λ , s ) ´e solu¸c˜ao do sistema (2.3) se e somente se x ´e

  M´etodo de Pontos Interiores

  25

2.2.1 M´ etodo primal-dual

  ∗ ∗ ∗

  Este m´etodo encontra a solu¸c˜ao primal-dual (x , λ , s ) aplicando uma varia¸c˜ao do m´etodo de Newton nas trˆes equa¸c˜oes das condi¸c˜oes de (2.3) e modificando a busca de dire¸c˜oes e comprimentos tais que as inequa¸c˜oes (x, s)

  ≥ 0 sejam estritamente satisfeitas em cada itera¸c˜ao.

  Vamos reapresentar as condi¸c˜oes de otimalidade (2.3) de uma forma diferente,

  2n+m 2n+m

  considere a fun¸c˜ao F : R definida por: → R

    t A λ + s

  − c    

  F (x, λ, s) = = 0  Ax 

  − b  

  (2.4)

  XSe (x, s)

  ≥ 0 X = diag(x , x , ..., x n )

  1

  2

  onde: S = diag(s

  1 , s 2 , ..., s n ) t

  e = (1, 1, ..., 1) t Note que F ´e linear nos dois primeiros termos (A λ + s

  − c, Ax − b) e o ´unico termo n˜ao linear desta fun¸c˜ao ´e o termo XSe. k k k Todos os m´etodos primal-dual geram em cada itera¸c˜ao pontos (x , λ , s ) que k k satisfazem estritamente os limites de (2.4), ou seja, x > 0 e s > 0. Esta propriedade

  ´e a origem do termo ponto-interior. Respeitando estes limites o m´etodo evita solu¸c˜oes falsas dadas por pontos que satisfazem F (x, λ, s) = 0 mas n˜ao (x, s) ≥ 0. Solu¸c˜oes falsas n˜ao fornecem nenhuma informa¸c˜ao quanto `a solu¸c˜ao do primal (2.1) ou do dual

  (2.2), por isto ´e prefer´ıvel exclu´ı-las completamente da regi˜ao de busca. A maior k k k parte dos m´etodos de ponto interior requerem que em cada itera¸c˜ao (x , λ , s ) seja k k k estritamente fact´ıvel, ou seja,(x , λ , s ) , onde: ∈ F

  M´etodo de Pontos Interiores 26 origem no m´etodo de Newton que forma um modelo linear para F em torno do ponto corrente e obt´em a dire¸c˜ao de busca (∆x, ∆λ, ∆s) para a solu¸c˜ao do seguinte sistema de equa¸c˜oes lineares:

    ∆x

     

  J(x , λ , s ) = , λ , s )  ∆λ  −F (x  

  ∆s sendo J o Jacobiano de F . Se o ponto corrente ´e estritamente fact´ıvel, o passo de Newton torna-se:

        t O A I ∆x

             

  = (2.5)  A 0   ∆λ         

  S X ∆s −XSe

  Um passo completo nesta dire¸c˜ao ´e usualmente n˜ao permitido, j´a que poderia violar o limite de n˜ao negatividade (x, s) ≥ 0. Para evitar esta dificuldade, caminha-se ao longo da dire¸c˜ao de Newton (2.5), s´o que a nova itera¸c˜ao ´e dada por:

  (x, λ, s) + α(∆x, ∆λ, ∆s) onde α ∈ (0, 1]

  Infelizmente quando o ponto corrente est´a pr´oximo ao limites do espa¸co de busca s´o podemos tomar pequenos passos (α << 1) sem violar a condi¸c˜ao de (x, s) > 0, por este motivo o m´etodo de Newton oferece pouco progresso na busca da solu¸c˜ao. ´ E necess´ario, portanto, fazer algumas mudan¸cas no m´etodo de Newton original.

2.2.2 O passo central

  O passo central τ , λ τ , s τ ) C pode ser definido como sendo o arco de pontos (x ∈ parametrizado por um escalar positivo τ . Cada ponto de

  F C satisfaz as condi¸c˜oes abaixo: t

  (i) A λ + s = c M´etodo de Pontos Interiores

  27 Essas condi¸c˜oes diferem das condi¸c˜oes KKT (2.3) unicamente pelo termo τ na terceira condi¸c˜ao . Esta ´e a chave para os pontos do arco i s i C, pois cada produto x tem o mesmo valor. O passo central, portanto, equilibra o algoritmo primal-dual por prover uma rota que pode ser seguida dentro do conjunto solu¸c˜ao.

  Uma outra forma de definir C ´e usando a nota¸c˜ao de (2.4) e escrever

       

  F (x τ , λ τ , s τ ) = , (x τ , s τ ) > 0 (2.7)    

  τ e A equa¸c˜ao (2.7) se aproxima de (2.4) quando τ tende a zero. Se

  C converge sempre que τ → 0, esta converge para a solu¸c˜ao primal-dual da programa¸c˜ao linear. O passo central deste modo guia a solu¸c˜ao ao longo de uma rota que evita solu¸c˜oes indesejadas fixando todo produto x i s i estritamente positivo e decrescendo at´e zero com alguma taxa.

  Boa parte dos algoritmos primal-dual fazem passos de Newton em torno de pontos de C para τ > 0 ao inv´es de um passo de Newton puro para F . Para descrever a inclina¸c˜ao da dire¸c˜ao de procura, usa-se um parˆametro central σ

  ∈ [0, 1] e uma medida de dualidade µ definidos por: n T

  X 1 x s µ = x i s i = n n i

  =1

  que mensuram um valor m´edio para o produto x i s i . A equa¸c˜ao gen´erica para distˆancia torna-se:       t

  O A I ∆x            

  = (2.8)  A 0   ∆λ         

  S X ∆s −XSe + σµe

  A distˆancia (∆x, ∆λ, ∆s) ´e um passo de Newton para o ponto (x σµ , λ σµ , s σµ ) ∈ M´etodo de Pontos Interiores 28 s˜ao iguais a µ. No outro extremo, o valor de σ = 0 refere-se ao passo de Newton original (2.5). Muitos algoritmos usam valores intermedi´arios de σ no intervalo (0, 1) com a dupla finalidade de reduzir µ e melhorar a centralidade.

  ´ E poss´ıvel provar que se τ , λ τ , s τ ) para

  F 6= ∅ ent˜ao (2.6) tem solu¸c˜ao (x cada τ > 0. Mais ainda, as componentes x e s desta solu¸c˜ao s˜ao ´ unicas. Para tanto, considere como a proje¸c˜ao de no espa¸co reduzido de vetores (x, s), definido por:

  H F m = para algum λ

  H {(x, s)|(x, λ, s) ∈ F ∈ ℜ } e ent˜ao identifique (x τ , s τ ) como o menor valor de da fun¸c˜ao barreira definida por j =1 H

  X

  1 T f τ (x, s) = x s log(x j s j ) −

  τ n as componentes x e s s˜ao definidas unicamente se a matriz A tem posto completo. A fun¸c˜ao f τ (x, s) aproxima-se do infinito sempre que (x, s) se aproxima da fronteira de

  , ou seja, sempre que algum par primal-dual x j s j se aproxima de zero. Acerca de H f τ tamb´em pode se afirmar (Wright [57]) que: τ ´e estritamente convexa em

  • f H τ ´e limitada por
  • f H • Dado τ > 0, e algum n´umero K, todos os pontos (x, s) no plano do conjunto τ (x, s)

  {(x, s) ∈ H |f ≤ K} satisfazem x i l , M u ], s i l , M u ], i = 1, 2, ..., n ∈ [M ∈ [M sendo M l , M u n´ umeros positivos. temos os seguinte teorema apresentado por (Wright [57]):

  Teorema

  2.3. Suponha que τ tem um F 6= ∅, e tome um n´umero positivo τ. Ent˜ao f ´ unico m´ınimo local em e as condi¸c˜oes para o passo central (2.6) tˆem solu¸c˜ao.

  H M´etodo de Pontos Interiores

  29

2.2.3 M´ etodos primais

  Algoritmos primais tamb´em tˆem sido incorporados a algoritmos para pro- grama¸c˜ao n˜ao linear da mesma forma que algoritmos primal-dual.

  Um elemento importante na maioria dos algoritmos primais ´e a aproxima¸c˜ao com o uso da fun¸c˜ao barreira logar´ıtmica para (2.1), que ´e definida como: i

  =1

  X min T c x logx i sujeito a Ax = b, x > 0 (2.9) − τ x n onde τ > 0 ´e um parˆametro positivo. Note que o dom´ınio desta fun¸c˜ao ´e o conjunto de pontos estritamente fact´ıveis para o problema 2.1. Para atender as condi¸c˜oes de otimalidade a solu¸c˜ao x τ de (2.9) satisfaz as seguintes condi¸c˜oes: t

  −1

  (i) τ X e + A λ = c (2.10)

  (ii) Ax = b m (iv) (x, s) > 0 para λ . Podemos definir o vetor s por ∈ R

  τ s i = , i = 1, 2, ..., n x i estas condi¸c˜oes s˜ao transformadas nas condi¸c˜oes do passo central (2.3). Por- tanto, o valor m´ınimo x τ do subproblema com barreira logar´ıtmica (2.10) ´e simples- mente a componente x do vetor de passo central (x τ , λ τ , s τ )

  ∈ C.

  ∗

  Quando τ decresce at´e zero, x τ aproxima-se da solu¸c˜ao x do problema de programa¸c˜ao linear (2.1). Solu¸c˜oes do problema (2.9) para cada valor de τ pode ser formada, por exemplo, pelo uso do m´etodo de Newton.

  Algoritmos baseados em fun¸c˜oes de barreira logar´ıtmica n˜ao se tornaram po- pulares tanto em programa¸c˜ao linear quanto em programa¸c˜ao n˜ao linear, devido a M´etodo de Pontos Interiores Aplicado a Programa¸c˜ao N˜ao Linear

  30 Algoritmos de Karmarkar avaliam o progresso na dire¸c˜ao ´otima atrav´es da m´edia de uma fun¸c˜ao potencial logar´ıtmica. Uma variante da fun¸c˜ao deste algoritmo ´e n T

  X (n + 1)log(c x logx i

  − Z) − i

  =1

  onde Z ´e um limite inferior para o valor objetivo de (2.1), que pode ser obtido durante as itera¸c˜oes pelo uso de informa¸c˜oes do problema dual. Logo ap´os Karmarkar, Renegar [45] desenvolveu um algoritmo que usa o m´etodo de Newton em conjunto com uma fun¸c˜ao logar´ıtmica, definida por: n T

  X min x x) x i − nlog(Z − c − i (2.11) T =1 sujeito a Ax = b, x > 0, c x < Z T

  ∗ onde Z ´e um limite superior para o valor ´otimo Z do objetivo c x para (2.1).

  De fato cada solu¸c˜ao de (2.11) ´e um passo primal central. O algoritmo de Renegar seguiu este passo usando o m´etodo de Newton para obter solu¸c˜oes aproximadas de (2.11) numa seq¨ uˆencia de valores decrescentes de Z. Ele alcan¸cou um melhor limite de

  √ complexidade do que o m´etodo de Karmarkar [31], requerendo O( nlog1/ǫ) itera¸c˜oes T para identificar o ponto primal fact´ıvel x tal que c x esteja a uma distˆancia ǫ do valor

  ∗

  objetivo ´otimo Z , para dado ǫ > 0. N˜ao se tem identificado outro m´etodo de pontos interiores com complexidade melhor do que o apresentado por Renegar.

  Apesar do algoritmo de Karmarkar ter se tornado sinˆonimo de m´etodo de pontos interiores a maior parte dos algoritmos pr´aticos levam em conta a estrutura primal-dual (Wright [57]).

  

2.3 M´ etodo de Pontos Interiores Aplicado a Pro-

grama¸c˜ ao N˜ ao Linear

  Um m´etodo primal-dual barreira-logar´ıtmica (PDBL)

  31 Granville [27], Sousa e Costa [53][54]). Nesta se¸c˜ao apresentamos uma breve descri¸c˜ao de uma vers˜ao do m´etodo primal-dual barreira-logar´ıtmica proposto por Vanderbei e Shanno [56] que ´e uma vers˜ao do m´etodo de pontos interiores bastante utilizada em programa¸c˜ao n˜ao linear. Em seguida veremos uma vers˜ao de m´etodo de pontos interiores primal-dual apresentada por Akrotirianakis e Rustem [4] tamb´em ´ util.

2.3.1 Um m´ etodo primal-dual barreira-logar´ıtmica (PDBL)

  O m´etodo primal-dual barreira-logar´ıtmica (PDBL) aqui apresentado tem como base o trabalho de Vanderbei e Shanno [56], que permite uma boa vis˜ao do m´etodo tanto em casos convexos como em casos n˜ao convexos.

  Suponha o problema geral de programa¸c˜ao n˜ao linear representado por: M in. f (t)

  (2.12) S.a. g(t) n ≥ 0 Consideremos t e as fun¸c˜oes f (t) e g(t) sendo duplamente diferenci´aveis.

  ∈ R A resolu¸c˜ao do problema (2.12) pelo m´etodo PDBL requer que as restri¸c˜oes de desi- gualdade se transformem em restri¸c˜oes de igualdade, o que pode ser feito pela adi¸c˜ao de vari´aveis de excesso estritamente positivas (s > 0). ´ E incorporada `a fun¸c˜ao objetivo uma fun¸c˜ao barreira-logar´ıtmica que garante a n˜ao negatividade das vari´aveis de folga.

  Assim o problema (2.12) pode ser reescrito assim: M in. f (t)

  − µ ln s (2.13)

  S.a. g(t) − s = 0

  Agora temos para µ > 0, a seguinte fun¸c˜ao objetivo: f µ (t, s, µ) = f (t) (2.14) − µ ln s

  Um m´etodo primal-dual barreira-logar´ıtmica (PDBL)

  32 As condi¸c˜oes de otimalidade de primeira ordem (KKT) para a equa¸c˜ao (2.15) s˜ao: t y = 0 T ∇ L(t, s, y) = ∇f(t) − (A(t)) s

  (2.16) ∇ L(t, s, y) = −µe + SY e = 0 y ∇ L(x, s, y) = (g(t) − s) = 0 onde ∂g

  (t)

  A(t) = que ´e a matriz Jacobiana de g(t) ∂t S ´e uma matriz diagonal contendo as vari´aveis de folga s r ; Y ´e uma matriz contendo na diagonal os elementos y r ; e = (1, ..., 1); t f (t) = (1, ..., 1).

  Observa¸c˜ ao

  2.1. Note que da segunda equa¸c˜ao de 2.16 decorre que y ≥ 0, sendo consistente com fato de y ser o vetor dos multiplicadores de Lagrange associado com as inequa¸c˜oes relativas ao problema original (2.12).

  De forma semelhante ao que foi feito para programa¸c˜ao linear podemos rees- crever as condi¸c˜oes de KKT para equa¸c˜ao (2.16) como:

  2m+n 2m+n

  F : R definida por: → R

    T y ∇f(t) − (A(t))

     

  F (t, y, s) = = 0  

  −µe + SY e  

  (2.17) (g(t)

  − s) (t, s)

  ≥ 0 O m´etodo de Newton (MN) ser´a usado para encontrar as ra´ızes para a fun¸c˜ao

  F (t, y, s). Antes de verificar isto, buscaremos encontrar uma fun¸c˜ao de m´erito que seja compat´ıvel com dire¸c˜ao de busca encontrada. A fun¸c˜ao de m´erito ser´a definida com a

  Um m´etodo primal-dual barreira-logar´ıtmica (PDBL)

  33

  2.3.1.1 Fun¸c˜ ao de m´ erito Observando as condi¸c˜oes necess´arias `a otimalidade dada pelas equa¸c˜oes (2.16),

  ´e natural pensar na utiliza¸c˜ao da fun¸c˜ao T

  2

  2

  2

  • ψ(t, s, y) = y (2.18) + ||∇f(t) − A(t) || ||SY e|| ||g(t) − s|| como uma forma de mensurar qu˜ao pr´oximo o ponto (t, s, y) est´a da solu¸c˜ao.

  No trabalho de El-Bakry et al [17] eles utilizam esta fun¸c˜ao ψ juntamente com o m´etodo de pontos interiores aplicado a problemas de programa¸c˜ao n˜ao linear. Desde que a matriz Jacobiana do sistema (2.16) seja n˜ao-singular, ´e mostrado em seu trabalho k que para mudan¸cas adequadas de µ existe uma seq¨ uˆencia de tamanhos de passo

  {α } tais que ψ decresce monotonicamene e as itera¸c˜oes convergem para um ponto em que ψ = 0 . O sucesso, portanto, do algoritmo baseado nesta fun¸c˜ao de penalidade est´a ligado `a n˜ao singularidade do Jacobiano.

  Outra possibilidade para a fun¸c˜ao de m´erito ´e uma fun¸c˜ao de penalidade dife- renci´avel para problemas de programa¸c˜ao n˜ao-linear estudada por Fiacco e McCormick [18] e tamb´em apresentada por Luenberger [34]. A fun¸c˜ao proposta ´e definida por:

  β

  2

  Ψ(t, β) = f (t) + (2.19) ||g(t) − s||

  2 A desvantagem te´orica desta fun¸c˜ao ´e a necessidade de se fazer β → ∞ para assegurar a convergˆencia para pontos fact´ıveis que garantam um valor m´ınimo para o problema original. Entretanto, ´e utilizada com sucesso (Vanderbei e Shanno [56], Akrotirianakis e Rustem [4]) de forma conjunta com o m´etodo de pontos interiores aplicado a problemas gerais de programa¸c˜ao n˜ao linear.

  Aplicando esta fun¸c˜ao de m´erito ao problema 2.13 obtemos: β

  2

  Ψ β,µ (t, s) = f (t) (2.20)

  − µ ln s + ||g(t) − s||

  2 Um m´etodo primal-dual barreira-logar´ıtmica (PDBL)

  34

  2.3.1.2 Aplicando o M´ etodo de Newton Vamos agora, aplicar o m´etodo de Newton `a equa¸c˜ao 2.17, onde obtemos:

        T T H(t, y) y

  −A(t) △t −∇f(t) + A(t)            

  = (2.21)  Y S     µe 

  △s − SY e      

  A(t) −I △y −g(t) + s

  P

  2

  

2

  onde H(t, y) = f (t) y r g r (t) e representa a matriz Hessiana do ∇ − r ∇ t Lagrangeano.

  O sistema (2.21) n˜ao ´e sim´etrico, mas pode ser facilmente simetrizado, bas- tando para isto multiplicar a primeira equa¸c˜ao por ( −1) e a segunda equa¸c˜ao por

  −1

  ( ), assim temos: −S

        T A(t) σ

  −H(t, y) △t            

  −1

  = (2.22)  Y     γ 

  −S −I △s      

  A(t) ρ

  −I △y onde: T y

  • σ = ∇f(t) − A(t)

  −1

  e

  • γ = µS − y
  • ρ = −g(t) + s

  Conforme Vanderbei e Shanno [56], neste contexto ρ apresenta uma medida de infactibilidade para o problema primal (2.13). E, por analogia com programa¸c˜ao linear, ´e poss´ıvel referir a σ como uma medida de infactibilidade para o problema dual.

  Veja que a segunda equa¸c˜ao pode facilmente ser usada para eliminar △s, neste caso temos:

  

−1

  (γ (2.23) △s = SY − △y) Um m´etodo primal-dual barreira-logar´ıtmica (PDBL)

  35 Verificaremos na seq¨ uencia as condi¸c˜oes necess´arias para a solu¸c˜ao do sistema (2.24) e procuraremos explicitar f´ormulas para as dire¸c˜oes de busca. Para tal definamos a seguinte matriz: T −1

  N (t, y, s) = H(t, y) + (A(t)) S Y A(t) (2.25) Teorema

  2.4. Se N ´e uma matriz n˜ao singular, ent˜ao (2.21) tem solu¸c˜ao ´ unica e, particularmente temos:

  −1 −1 T −1 −1 T −1

  A S e + N A S Y ρ △t = −N ∇f + µN

  −1 −1 T −1 −1 T −1

  (2.26) A S e A S Y )ρ

  △s = −AN ∇f + µAN − (I − AN T

  −1 −1 −1

  (ρ ( (Y S ρ + Y )) + γ △y = Y S − AN −σ + A

  A demonstra¸c˜ao deste teorema ´e simples e ´e apresentada por Vanderbei e Shanno [56]. Uma vez que a dire¸c˜ao de busca tenha sido definida, o algoritmo processa interativamente determinando novas estimativas para a solu¸c˜ao ´otima ao calcular: k k k k

  • 1

  t = t + α k k k k p △t

  • 1

  (2.27) s = s + α p k +1 k k k △s y = y + α d △y A defini¸c˜ao do tamanho de passo nos trabalhos [53] e [54] ´e feita tomando: h i min j s

  α p = ςmin (2.28)

  , 1.0

  △s j < |△s j |

  h i min j y α d = ςmin

  (2.29) < , 1.0

  △y j |△y j |

  onde ς ∈ (0, 1) ´e uma constante escolhida para garantir que os vetores contendo as vari´aveis s e y n˜ao assumam valores exatamente iguais a zero. O valor de ς ´e determinado empiricamente; Granville [27] sugere o valor de 0,9995. Um m´etodo primal-dual barreira-logar´ıtmica (PDBL)

  36 em [56] assegura que para um valor fixo de µ, move-se de uma itera¸c˜ao a outra buscando minimizar a fun¸c˜ao

  β

  2

  Ψ β,µ (t, s) = f (t) − µ ln s + ||ρ(t, s)||

  2 Esta fun¸c˜ao Ψ β,µ foi definida anteriormente pela equa¸c˜ao (2.20) e para que seja minimizada ´e necess´ario que se fa¸ca uma sele¸c˜ao adequada do parˆametro β. Na k se¸c˜ao seguinte mostraremos uma crit´erio para sele¸c˜ao de β e α . Tamb´em mostraremos uma forma para sele¸c˜ao de µ a fim de buscar a solu¸c˜ao ´otima para o problema original (2.12), atrav´es da redu¸c˜ao de µ, tal que µ → 0.

  2.3.1.3 Sele¸c˜ ao do parˆ ametros β e µ Um de nossos objetivos b´asicos ´e buscar pontos que atendam as condi¸c˜oes de otimalidade apresentadas na equa¸c˜ao (2.16), e isto, pelas condi¸c˜oes da equa¸c˜ao (2.22) T significa que σ y

  → 0, ρ → 0 e s → 0. Vamos, portanto, analisar a convergˆencia T deste m´etodo verificando o que acontece com σ, ρ, s y ao longo das itera¸c˜oes. Os dois teoremas seguintes s˜ao propostos por Vanderbei e Shanno [56]. k k k Teorema

  2.5. Denotemos (t, y, s) = (t , y , s ) como sendo o valor das vari´aveis na k k k

  • 1 +1 +1

  itera¸c˜ao k e por (t, y, s) = (t , y , s ) o valor ap´os o incremento de um passo k α = α nas dire¸c˜oes de Newton j´a determinadas pela equa¸c˜ao (2.26). Assim temos: t = t + α

  △t, y = y + α△y, s = s + α△s, ρ = ρ(t, s), σ = σ(t, y). Ent˜ao:

  ρ = (1 − α)ρ + o(α),

  σ = (1 T T − α)σ + o(α), s y = (1 y + o(α) − α(1 − δ))s Um m´etodo primal-dual barreira-logar´ıtmica (PDBL)

  37 Prova Primeiro consideremos ρ: ρ = s

  − g(t) = s + α

  △s − g(t + α△t) = s + α

  △s − g(t) − αA(t)△t + o(α) = s

  − g(t) + α(△s − A(t)△t) + o(α) = (1

  − α)ρ + o(α) A segunda passagem resulta das defini¸c˜oes de c´alculo, onde temos que o(α) denota o

  (α)

  um termo que vai para zero mais r´apido que α, ou seja, | α | → 0 quando α → 0. Al´em disto, observe que a ´ ultima equa¸c˜ao decorre do terceiro bloco de equa¸c˜oes do sistema (2.22). Para σ, a an´alise ´e semelhante, sendo que usaremos o primeiro bloco de equa¸c˜oes do sistema (2.22):

  T

  σ = (t)y ∇f(t) − A T

  = (t + α ∇f(t + α△t) − A △t)(y + α△y) T T T T

  2

  = f (t) (t)y x (y A(t)) (t) ∇f(t) + α∇ △t − A − α∇ △t − αA △y + o(α) T T

  = (t)y + α(H(t, y) (t) ∇f(t) − A △t − A △y) + o(α)

  = (1 − α)σ + o(α). T Finalmente, analisemos s y: T T s y = (s + α (y + α

  △s) △y) T T T (2.30) = s y + α(s y) + o(α)

  △y + △s Podemos reescrever o termo linear em rela¸c˜ao a α assim: T T T s y = e (S

  △y + △s △y + Y △s) T = e (µe

  − SY e) T (2.31) = mµ y

  − s T = y. −(1 − δ)s Um m´etodo primal-dual barreira-logar´ıtmica (PDBL)

  38 A an´alise deste teorema permite que percebamos a convergˆencia natural de T ρ, σ para zero ao longo das itera¸c˜oes. Entretanto, a redu¸c˜ao de s y est´a condicionada ao fato de δ

  ∈ (0, 1), ou seja ´e preciso alterar µ a fim de garantir isto. Para tanto, seguindo o proposto em [17], ´e poss´ıvel tomar µ tal que: t s y µ = δ m T onde δ y decrescer´a ao longo das itera¸c˜oes. ∈ (0, 1). Desta forma, o valor do produto s

  Por outro lado, a sele¸c˜ao do parˆametro β ´e fundamental para que as dire¸c˜oes de busca definidas por (2.21) sejam dire¸c˜oes de descida para Ψ β,µ . Veremos, a partir do pr´oximo teorema, as condi¸c˜oes a serem buscadas em β para que seja garantido tal decrescimento desej´avel.

  Teorema 2.6. Suponha que a matriz N definida em (2.25) seja positiva definida. Ent˜ao as dire¸c˜oes de busca expressas pela equa¸c˜ao (2.26) possuem as seguintes propri- edades:

  (i) Se ρ = 0, ent˜ao     t f µ

  ∇ △t   

  (2.32) s f µ  ≤ 0 ∇ △s

  (ii) Existe β min min , ≥ 0 tal que para cada β ≥ β

      t Ψ β,µ ∇ △t

     (2.33) s Ψ β,µ  ≤ 0

  ∇ △s Onde: T T T T T T

  −1 −1 −1 −1 −1 −1 −1

  S

  e) N ( W

  e) + µS ρ + ( S

  e) N A S Y ρ −(∇f − µA ∇f − µA ∇f − µA

  β min =

  2

  ||ρ|| Em ambos os casos, a igualdade ocorre se e somente se (t, s) satisfaz (2.21) para algum Um m´etodo primal-dual 39 com β = 0 e este ´e mantido assim enquanto (

  △t, △s) for uma dire¸c˜ao de descida para Ψ β,µ . Quando ( △t, △s) falhar como dire¸c˜ao de busca, ent˜ao β ´e calculado usando

  β = 10β min a fim de garantir a convergˆencia para um valor m´ınimo da fun¸c˜ao de m´erito Ψ β,µ .

  Logo ap´os a defini¸c˜ao do parˆametro de penalidade da fun¸c˜ao de m´erito o passo α max ser´a escolhido a partir de um valor que garanta a n˜ao negatividade da vari´aveis k k k k k k s e y . No nosso caso, isto significa que para r = 1, 2, ...., r , s + α e y + α r r r r r r

  △s △y ser˜ao estritamente positivos se k k △s r △y r

  −1

  α = 0, 95(max( , ; r = 1, 2, ..., r )) max − − k k s y r r

  Ent˜ao o intervalo [0, α max ] ´e pesquisado por sucessivas parti¸c˜oes, usando avalia¸c˜oes da fun¸c˜ao de penalidade, para valores de α que produzam a redu¸c˜ao da fun¸c˜ao de penalidade atendendo a condi¸c˜ao de Armijo apresentada no anexo A.3. Desta forma ´e k k selecionado o tamanho de passo α = α . p d

2.3.2 Um m´ etodo primal-dual (PD)

  O m´etodo primal-dual aqui apresentado baseia-se na proposta de Akrotiri- ankis e Rustem [4], que apresenta uma prova de convergˆencia global para problema de programa¸c˜ao n˜ao-linear. Consideremos, um problema de programa¸c˜ao n˜ao linear representado por:

  M in. f (x) (2.34)

  S.a. g(x) = 0, x n n m ≥ 0 Neste caso tem-se f (x) : R , cont´ınua e diferenci´avel.

  → R e g(x) : R → R Tomemos a aproxima¸c˜ao do problema (2.34) dada por Um m´etodo primal-dual 40 penalidade quadr´atica e uma fun¸c˜ao de barreira logar´ıtmica. A fun¸c˜ao de penalidade quadr´atica aqui usada ´e a mesma fun¸c˜ao de m´erito apresentada na se¸c˜ao 2.3.1 e ´e usada aqui para refor¸car a satisfa¸c˜ao das restri¸c˜oes de igualdade adicionando um alto custo na fun¸c˜ao objetivo a pontos que n˜ao sejam fact´ıveis. A fun¸c˜ao de barreira logar´ıtmica ´e introduzida no MPI para garantir a factibilidade estrita enquanto aproxima da solu¸c˜ao ´otima.

  O m´etodo de penalidade/barreira envolve itera¸c˜oes internas e externas. As itera¸c˜oes externas s˜ao associadas com o decrescimento do parˆametro de barreira µ, tal que µ

  → 0. As itera¸c˜oes internas determinam o parˆametro de penalidade β e ent˜ao resolve o problema (2.35) para determinados valores de µ e β.

  As condi¸c˜oes de otimalidade para o problema (2.35) s˜ao dadas pelo sistema n˜ao linear de equa¸c˜oes  T T

  −1

  e + β g(x) y ∇f(x) − µX ∇g(x) − ∇g(x)

    = 0, x > 0 g(x)

  −1

  Utilizando a transforma¸c˜ao n˜ao-linear z = µX , obtemos:   T T g(x) y

  ∇f(x) − zβ∇g(x) − ∇g(x)    

  F (x, y, z; β, µ) = = 0, x, z > 0. (2.36)

   g(x)   

  XZe − µe

  Para µ fixo, o sistema (2.36) ´e resolvido pelo m´etodo de Newton, onde temos:       T T T H g y

  −∇g −I △x ∇f − z + β∇g − ∇g            

  = (2.37)

      −  g  ∇g △y

        Z

  X XZe △z − µe Um m´etodo primal-dual 41 temos as seguintes dire¸c˜oes: T T T

  −1

  ( g y) △x = N ∇g △y − ∇f + z − β∇g − ∇g T T T

  −1 −1 −1

  ] [g ( g y)] △y = −[∇gN ∇g − ∇gN ∇f − z + β∇g − ∇g

  −1

  Z △z = −z + µX △x

  Como no m´etodo primal-dual com barreira-logar´ıtmica visto na se¸c˜ao (2.3.1), uma vez que a dire¸c˜ao de busca tenha sido definida, o algoritmo processa interativa- mente determinando novas estimativas para a solu¸c˜ao ´otima calculando: k k k k

  • 1

  x = x + α k k k k p △x

  • 1

  (2.38) y = y + α k +1 k k k d △y z = z + α d △z

  O controle do passo ´e feito de forma a assegurar que as itera¸c˜oes gerem pontos es- tritamente interiores `a regi˜ao fact´ıvel e, al´em disto, o algoritmo move por pontos que minimizem a fun¸c˜ao de m´erito n

  X β

  2

  Φ = f (x) + ln(x) ||g(x)|| − µ

  2 i =1 que nada mais ´e do que a fun¸c˜ao objetivo do problema (2.35). Este decrescimento, como no m´etodo PDBL ´e garantido pela adequada sele¸c˜ao do parˆametro β a cada itera¸c˜ao. Em seu trabalho Akrotiriankis e Rustem [4] demonstra que esta fun¸c˜ao decresce monotonicamente e garante a convergˆencia para a solu¸c˜ao de (2.36) para µ fixo. Com a redu¸c˜ao de µ, tal que {µ} → 0, ´e encontrado o valor ´otimo para (2.34).

  A cada itera¸c˜ao o valor de β ´e definido de forma a poder garantir o decresci- mento da fun¸c˜ao Φ . Para µ fixo, o gradiente de Φ na k-´esima itera¸c˜ao ´e 9 T k ; β k , µ) = k g k e −1 ∇Φ(x ∇f + β ∇g k − µX

  Considerando a segunda equa¸c˜ao do sistema de Newton (2.37), a derivada direcional pode ser escrita como T T

  2 T −1 Conclus˜ao 42 como sendo superior a T T −1 k

  2 X e + k

  △x k ∇f − µ△x k K ||△x || H

k

  2

  ||g || garantindo o decrescimento da fun¸c˜ao de m´erito Φ e, conseq¨ uentemente da fun¸c˜ao objetivo do problema original (2.34).

  Na sele¸c˜ao do tamanho do passo primal, α p ´e selecionado conforme a regra de max Armijo (A.3) aplicado `a fun¸c˜ao objetivo a partir de um valor m´aximo para α = p h i min x k i ξmin i i com 0 < ξ < 1. <

  △x |△x | k k

  Enquanto o parˆametro de barreira µ ´e fixo, o passo α d ´e determinado ao longo i da dire¸c˜ao k para cada vari´avel dual z , i = 1, 2, ..., n, de forma que as seguintes △z k restri¸c˜oes sejam satisfeitas i i i i i i i

  α = max + α p )(z + α ) d k k k k k k {α > 0 : L ≤ (x △x △z ≤ U } i i i

  Onde os limites inferior L e superior U , i = 1, 2, ..., n s˜ao definidos como L = k k k

  1 i i i i i i i

  min mµ, (x +α p )z e U = max +α p )z k k k k k k k { △x {2Mµ, (x △x }, sendo que os parˆametros

  2

  m e M s˜ao definidos como: γ i i n o n i i o z

  (1−γ k )(1− ) min i {x } 2 µ k k max i {x } k k z

  0 < m < min 1, γ k e M 1, > 0 µ ∈ (0, 1) ≥ max µ Os valores de m e M s˜ao mudados `a medida que µ decresce.

  O algoritmo primal-dual para programa¸c˜ao n˜ao-linear aqui descrito encontra sua prova de convergˆencia global apresentada por Akrotirianakis e Rustem [4] desde que sejam satisfeitas certas condi¸c˜oes. Dentre essas condi¸c˜oes, o problema de job-shop n˜ao satisfaz a condi¸c˜ao referente a segunda condi¸c˜ao de otimalidade. Sendo assim, essa demonstra¸c˜ao n˜ao se aplica de forma direta ao nosso caso. Conclus˜ao 43 blemas de otimiza¸c˜ao tanto na forma de programa¸c˜ao linear como na forma de pro- grama¸c˜ao n˜ao linear.

  Quanto aos m´etodos aplic´aveis a programa¸c˜ao n˜ao linear apresentados nas se¸c˜oes 2.3.1 e 2.3.2, as solu¸c˜oes obtidas para os sistemas (2.36) e (2.17) s˜ao as mesmas significando que os sistemas s˜ao equivalentes. Entretanto, estes n˜ao s˜ao algoritmos de Newton equivalentes (El-Bakry et al [17], Akrotirianakis e Rustem [4]).

  No caso de um problema de job-shop temos duas possibilidades para a sua modelagem. Como especificado no cap´ıtulo 1, escolhemos uma modelagem cont´ınua de programa¸c˜ao n˜ao linear. Neste caso, alguns cuidados dever˜ao ser tomados em fun¸c˜ao de se tratar de um espa¸co de busca n˜ao convexo. Vale ressaltar em rela¸c˜ao ao m´etodo PDBL que toda discuss˜ao em torno da fun¸c˜ao de penalidade proposta (2.19) assume que a matriz N seja positiva definida. Entretanto, veremos que n˜ao podemos oferecer esta garantia no caso do problema de job-shop em quest˜ao. Ser´a, portanto, preciso fazer alguma altera¸c˜ao na Hessiana para que possamos garantir a positividade da matriz N . Veremos, portanto, no pr´oximo cap´ıtulo como efetuar estas mudan¸cas e quais as implica¸c˜oes no espa¸co de busca do primal e do dual. Cap´ıtulo 3 M´ etodo de Pontos Interiores Aplicado ao Problema Job-Shop

  Como apresentado anteriormente na se¸c˜ao 1.3.3 podemos modelar um pro- blema de seq¨ uenciamento job-shop com uma modelagem cont´ınua, mas n˜ao linear e n˜ao convexa.

  ´ E fato que modelos de programa¸c˜ao n˜ao linear constituem geralmente um desafio maior para a busca de solu¸c˜oes (Wright [57]). Entretanto, o m´etodo de pontos interiores, conforme apresentamos na se¸c˜ao 2.3 tem apresentado bons resultados como ferramenta na busca de solu¸c˜oes de problemas de programa¸c˜ao n˜ao linear e n˜ao convexo (El-Bakry et al [17], Vanderbei e Shanno [56], Sousa e Costa [53]). Desta forma, a aparente dificuldade de modelos cont´ınuos pode ser superada com o uso de um m´etodo de ponto interior adequado, o que nos levou a adotar neste trabalho um modelo cont´ınuo inspirado na proposta de Pinson [42]. Neste cap´ıtulo discutiremos em mais detalhes o modelo cont´ınuo para o problema de job-shop adotado na se¸c˜ao 3.1. A seguir na se¸c˜ao 3.2 analisaremos o m´etodo de pontos interiores e as altera¸c˜oes que ser˜ao necess´arias para us´a-lo na resolu¸c˜ao do problema de job-shop considerado. Finalmente, faremos na An´alise do Modelo de Seq¨ uenciamento Job-Shop Adotado

  45

  

3.1 An´ alise do Modelo de Seq¨ uenciamento Job-Shop

Adotado

  No primeiro cap´ıtulo foi feita uma descri¸c˜ao mais detalhada do problema de seq¨ uenciamento job-shop ( §1.2) e de formas pelas quais ´e poss´ıvel construir um modelo matem´atico para tal problema (

  §1.3). O que nos propomos agora ´e fazer uma an´alise mais acurada do modelo matem´atico n˜ao linear apresentado na se¸c˜ao ( §1.3.3). Este modelo foi adotado em nosso trabalho pelos motivos mencionados anteriormente no cap´ıtulo 1, e por outros motivos que se evidenciar˜ao ao longo de nossas an´alises nas se¸c˜oes seguintes. Relembrando as defini¸c˜oes feitas nestas se¸c˜oes (

  §1.2, §1.3.3), podemos descrever um problema de seq¨ m m´aquinas e p produtos como uenciamento job-shop com e um problema de otimiza¸c˜ao restrito da forma: n

  X M in. f (t) = t j j

  =1

  S.a. t j j j

  • +1

  − t − d ≥ 0 ∀j ∈ C v u + d v ) u v + d u ) (3.1) −(t − t × (t − t ≥ 0 ∀(u, v) ∈ D t j j ≥ 0 j = 1, ..., p

  B − t ≥ 0 j = 1, ..., p Fizemos uma mudan¸ca de sinal nas restri¸c˜oes tornando-as n˜ao negativas para adequar ao modelo padr˜ao de programa¸c˜ao n˜ao linear em que estaremos aplicando o m´etodo de pontos interiores. Al´em disto, inclu´ımos um limite superior

  B `as vari´aveis do problema. Este limite superior apenas serve como garantia de que se trata de um espa¸co de busca limitado facilitando demonstra¸c˜oes de teoremas subseq¨ uentes. Vale ressaltar que essa altera¸c˜ao n˜ao altera em nada a solu¸c˜ao do problema original. O n

  X calculo desse limite foi feito tomando-se d j + 1 que ´e um valor superior ao B = j

  =1 tempo de in´ıcio de qualquer opera¸c˜ao na pior de todas as hip´oteses. An´alise do Modelo de Seq¨ uenciamento Job-Shop Adotado

  46 referindo-se respectivamente `as restri¸c˜oes conjuntivas ou de precedˆencia na gama ope- rat´oria, `as restri¸c˜oes de n˜ao negatividade das vari´aveis e ao limite superior imposto `as vari´aveis. A segunda restri¸c˜ao ´e onde se centraliza nossa principal aten¸c˜ao e refere-se aos pares de restri¸c˜oes disjuntivas. Este grupo de inequa¸c˜oes n˜ao ´e linear e al´em disto introduz uma componente n˜ao conexa em nosso espa¸co de busca de solu¸c˜oes. Vamos, portanto, analisar um pouco melhor este grupo de restri¸c˜oes. Consideremos a seguinte fun¸c˜ao: g(t u , t v ) = v u + d v ) u v + d u )

  −(t − t × (t − t Fazendo as devidas multiplica¸c˜oes podemos reescrevˆe-la assim:

  2

  2

  g(t u , t v ) = t + t u t v + (d u v )t u + (d v u )t v v d u (3.2) u v − 2t − d − d − d

3.1.1 An´ alise do Espa¸co de Busca Vamos primeiramente verificar o espa¸co de busca referente a uma disjun¸c˜ao.

  Neste caso estamos procurando pontos para os quais g(t u , t v ) ≥ 0. Este conjunto de pontos para uma restri¸c˜ao ´e apresentado na figura 3.1 , onde podemos verificar que o espa¸co de busca referente `a disjun¸c˜ao n˜ao ´e conexo como mencionado anteriormente (1.3.3). Este fato condiz com a caracter´ıstica combinat´oria do seq¨ uenciamento job- shop. Caso escolhamos uma dire¸c˜ao para a disjun¸c˜ao estaremos definindo o lado no espa¸co de busca. Neste caso, se escolhermos primeiro executar a opera¸c˜ao u e depois a opera¸c˜ao v, ent˜ao estaremos escolhendo o regi˜ao A na figura 3.1. Por outro lado,

  1

  se escolhermos inverter a ordem das opera¸c˜oes ent˜ao estaremos escolhendo pontos na regi˜ao A da figura 3.1.

2 Note que a fun¸c˜ao g apresentada na equa¸c˜ao (3.2) ´e duplamente diferenci´avel

   

  2 −2

  2

   e sua matriz Hessiana ´e H = . Considerando um vetor t = (t u , t v ) ∈ ℜ

  −2 2 T temos que t Ht ´e:

  2

  2

  2

  2t u t v + 2t = 2(t u v ) u − 4t v − t ≥ 0 An´alise do Modelo de Seq¨ uenciamento Job-Shop Adotado

  47

  t t v v A A

  1 d d u u

  1

  A A

  2 t t u u d d v v Figura 3.1 : Gr´

afico que representa a regi˜ ao de busca referente a uma restri¸ c˜ ao disjuntiva

z 100 20 80 40 60 −40 −20 1 2 3 4 y 5 6 7 8 9 10 10 9 8 7 6 5 x 4 3 2

  2

  1 An´alise do Modelo de Seq¨ uenciamento Job-Shop Adotado

  48 Observa¸c˜ ao

  3.1. O fato da fun¸c˜ao g ser convexa traz implica¸c˜oes importantes neste caso, pois como vimos nesta se¸c˜ao temos um espa¸co de busca n˜ao convexo. Diante disto, pelo teorema A.6 apresentado em anexo, conclu´ımos que para o problema 3.1 um ponto que atenda as condi¸c˜oes de KKT do teorema A.4 tendo uma restri¸c˜ao disjuntiva ativa n˜ao ser´a necessariamente um ponto onde a fun¸c˜ao objetivo ´e m´ınima.

  Vamos tomar como exemplo um problema de job-shop contendo apenas dois produtos e trˆes opera¸c˜oes. Este exemplo servir´a n˜ao s´o para confirmar a observa¸c˜ao 3.1, bem como para apresentar outros aspectos importantes referentes ao problema. Consideremos ent˜ao um problema de job-shop com dois produtos e duas maquinas, cujos dados s˜ao apresentados na tabela 3.1.

  

produto opera¸c˜ ao dura¸c˜ ao m´ aquina

  1

  1

  3

  1

  1

  2

  5

  2 Tabela 3.1 : Dados do problema-exemplo 2 de job-shop.

  2

  3

  7

  2 Ap´os a modelagem adequada temos,

  M in. f (t) = t + t + t

  1

  

2

  3 S.a. t

  2

  1

  − t − 3 ≥ 0

  2

  2

  t + t

  2 t 3 + 2t

  3

  2

  2 3 − 2t − 2t − 35 ≥ 0

  t

  1

  ≥ 0 (3.3) t

  2

  ≥ 0 t

  3

  ≥ 0

  16

  1

  − t ≥ 0

  16

  2

  − t ≥ 0

  16

  3

  − t ≥ 0 Para este problema temos dois pontos (t = (0, 3, 8) e t = (0, 7, 0)) satisfa-

  1

  2 An´alise do Modelo de Seq¨ uenciamento Job-Shop Adotado

  49 opera¸c˜ao 2 na m´aquina 2. Entretanto, t ´e um ponto onde a fun¸c˜ao objetivo ´e m´ınima

  2 (f (t ) = 7) enquanto para t temos f (t ) = 11 n˜ao sendo a melhor op¸c˜ao.

  2

  1

1 Uma outra observa¸c˜ao importante decorrente deste problema refere-se ao fato

  de que plano tangente a estes pontos ´e composto apenas pelo vetor nulo. Portanto, n˜ao ´e poss´ıvel concluir nada quanto a otimalidade dos pontos estacion´arios referentes a este problema. Isto nos leva a uma an´alise da Hessiana do Lagrangeano H(t, y) pois, al´em destes motivos aqui mencionados, para atender a condi¸c˜ao de otimalidade de segunda ordem, ´e preciso que H(t, y) seja positiva definida no hiperplano formado pelos gradientes das restri¸c˜oes ativas. Vejamos, ent˜ao qual o comportamento da Hessiana H(t, y) para o problema de job-shop aqui considerado.

3.1.2 An´ alise da Hessiana do Lagrangeano

  Retomemos o modelo matem´atico empregado no in´ıcio desta se¸c˜ao e reescre- vamos os blocos de restri¸c˜oes como fun¸c˜oes duplamente diferenci´aveis expressas por:

  1

  g (t) = t j +1 j j j,j − t − d j

  ∈ C

  • 1

  2

  2

  2

  g (t) = t + t u t v + (d u v )t u + (d v u )t v v d u (u, v) u,v u v − 2t − d − d − d ∈ D

  3

  g (t) = t j j j

  ∈ J = 1, ..., p

  4

  g (t) = j j B − t j

  ∈ J = 1, ..., p Assim podemos reescrever o Lagrangeano do problema de job-shop apresentado na equa¸c˜ao 2.15, levando em considera¸c˜ao estes trˆes blocos de restri¸c˜oes. T T T T

  1

  1

  1

  2

  2

  2

  3

  3

  3

  4

  4

  4

  ) (g (t) ) ) (g (t) ) ) (g (t) ) ) (g (t) ) L(t, s, y) = f(t)−µln s−(y −s −(y −s −(y −s −(y −s

  A matriz Hessiana H(t, y) ser´a portanto composta pela soma da hessiana da fun¸c˜ao f (t) e das hessianas de todas as r restri¸c˜oes do problema. A fun¸c˜ao f (t) e as restri¸c˜oes que comp˜oem o primeiro, terceiro e quarto grupo de restri¸c˜oes s˜ao lineares, An´alise do Modelo de Seq¨ uenciamento Job-Shop Adotado

  50 As matrizes hessianas deste segundo grupo de equa¸c˜oes ter˜ao um formato em bloco semelhante entre si. Em cada bloco temos que

  2

  2

  2

  2

  ∂ g ∂ g = = 2 (u, v)

  ∈ D

  2

  2

  ∂t ∂t u v

  2

  2

  2

  2

  ∂ g ∂ g = = (u, v)

  −2 ∈ D ∂t t ∂t t u v v u

  2

  2

  2

  2

  ∂ g ∂ g = = (u, v)

  6∈ D ∂t u t v ∂t v t u

  Logo, cada hessiana destas restri¸c˜oes ser´a uma matriz sim´etrica com a diagonal com- posta de dois termos iguais a 2 e dois outros termos sim´etricos iguais a −2 referentes a disjun¸c˜ao considerada e os demais termos s˜ao nulos. Como a Hessiana H(t, y) ´e

  1

  composta da soma das hessianas das restri¸c˜oes pr´e-multiplicadas por

  e, sendo −y r y r > 0 conforme a observa¸c˜ao 2.1, ent˜ao H(t, y) ser´a composta de blocos de matrizes semi-definidas negativas. Assim podemos concluir que H(t, y) ´e semi-definida negativa.

  Para explicitar estas principais caracter´ısticas da Hessiana tomemos um novo exemplo de job-shop, apresentado pela tabela abaixo:

  

produto opera¸c˜ ao dura¸c˜ ao m´ aquina

  1

  1

  4

  1

  1

  2

  5

  2

  2

  3

  3

  1

  2

  4

  2

  2 Tabela 3.2 : Dados do problema-exemplo 3 de job-shop.

  3

  5

  5

  1

5 X

  

1

  2

  = 0 t

  

2

  − 3 − s

  3

  − t

  4

  = 0 t

  − 4 − s

  2 3 − 2t

  1

  − t

  2

  ln s r Sujeito a: t

  

16

X r =1

  t j − µ

  =1

  j

  51 Ap´os a modelagem matem´atica proposta, temos: Min.:

  An´alise do Modelo de Seq¨ uenciamento Job-Shop Adotado

  • t
  • t
  • t
  • 2t
  • t
  • t
  • t
  • 3t

  1

  5

  −2y

  5

  2y

  3

  2y

  5

  − 2y

  3

  −2y

            

  ∈ R = 1, ..., 11, ent˜ao a Hessiana H(t, y) ser´a dada por: H(t, y) =

  = 0 Neste caso, j´a foram inclu´ıdas as vari´aveis de excesso e uma fun¸c˜ao de barreira lo- gar´ıtmica a fim de obter restri¸c˜oes de igualdade e garantir n˜ao negatividade destas novas vari´aveis introduzidas. Se considerarmos os multiplicadores de Lagrange como sendo y r , r

  16

  − s

  19 − t

  6

  = 0

  15

  − s

  4

  19 − t

  = 0

  14

  − s

  3

  19 − t

  = 0

  13

  − s

  2

  6 2y

  2y

  = 0

  5

  , ent˜ao fazendo t T H(t, y)t

  5

  ) t ∈ R

  5

  , t

  4

  , t

  3

  , t

  

2

  , t

  1

  Consideremos um vetor gen´erico t = (t

            

  − 2y

  3

  2y

  −2y

  3

  − 2y

  4

  2y

  4

  6

  4

  −2y

  6

  2y

  5 2y

  4

  −2y

  19 − t

  12

  t

  5

  5

  − 20 − s

  5

  1

  − t

  

5

  t

  1

  2 5 − 2t

  1

  2

  = 0 t

  4

  − 15 − s

  3

  2

  − 2t

  

5

  t

  3

  2 5 − 2t

  3

  2

  = 0 t

  3

  − 12 − s

  3

  − t

  1

  

3

  = 0 t

  2

  − s

  = 0 t

  1

  19 − t

  = 0

  11

  − s

  5

  = 0 t

  10

  − s

  1

  = 0 t

  9

  − s

  3 An´alise do Modelo de Seq¨ uenciamento Job-Shop Adotado

  8

  2 4 − 2t

  − 10 − s

  2

  t

  

4

  2

  − 3t

  4

  6

  − s

  = 0 t

  1

  − s

  7

  = 0 t

  2

  4

  52

  5 Logo H(t, y) ´e semi-definida negativa para quaisquer vetores do R . Isto indica que os

  pontos estacion´arios obtidos para um problema de job-shop ou s˜ao pontos de m´aximo local ou n˜ao se pode afirmar nada a respeito deles como aconteceu no problema-exemplo

  2. O m´etodo de pontos interiores faz uma busca procurando pontos que atendam a primeira condi¸c˜ao de otimalidade, ou seja, busca-se pontos estacion´arios. Portanto, ´e preciso guiar esta busca para garantir a convergˆencia para pontos onde a fun¸c˜ao objetivo seja m´ınima. Esta orienta¸c˜ao na busca ´e feita atrav´es do uso de fun¸c˜oes de m´erito de forma semelhante ao apresentado nas se¸c˜oes 2.3.2 e 2.3.1. Nesta ´ ultima se¸c˜ao, atrav´es do teorema 2.6 n´os mostramos que a dire¸c˜ao de busca obtida pelo algoritmo PDBL (

  △t, △s) tem caracter´ısticas decrescentes tanto para a fun¸c˜ao de barreira como T

  −1

  para fun¸c˜ao de m´erito usada desde que N (t, y, s) = H(t, y) + (A(t)) S Y A(t) seja positiva definida. Caso isto n˜ao ocorra, o algoritmo pode at´e convergir, mas pode caminhar para um ponto onde a solu¸c˜ao n˜ao seja m´ınima. T

  −1

  No nosso caso, j´a que as vari´aveis s i e y i s˜ao positivas ent˜ao (A(t)) S Y A(t) ´e definida positiva desde que a matriz Jacobiana do Lagrangeano A(t) tenha posto completo o que ´e verdade em nosso caso particular. Entretanto, n˜ao podemos garantir que a matriz N (t, y, s) seja definida positiva a cada itera¸c˜ao em fun¸c˜ao da Hessiana H(t, y) ser semi-definida negativa como acabamos de ver. A sa´ıda encontrada continua sendo semelhante a apresentada na se¸c˜ao 2.3.1. No caso de N (t, y, s) n˜ao ser definida positiva ent˜ao substitu´ımos H(t, y) por e H(t, y) = H(t, y) + λI. Esta mudan¸ca, garante que ser˜ao encontradas dire¸c˜oes de decrescimento para as fun¸c˜oes de m´erito usadas e conseq¨ uentemente para a fun¸c˜ao objetivo do problema original. Entretanto, mesmo tendo sido alteradas apenas as informa¸c˜oes de segunda ordem, ´e preciso analisar qual o impacto provocado na convergˆencia do algoritmo. Esta an´alise ser´a feita na se¸c˜ao seguinte. M´etodo de Pontos Interiores e o Seq¨ uenciamento Job-Shop

  53

  

3.2 M´ etodo de Pontos Interiores e o Seq¨ uencia-

mento Job-Shop

  Como visto na se¸c˜ao 3.1 o modelo de programa¸c˜ao matem´atica adotado para o problema de seq¨ uenciamento job-shop ´e um modelo de programa¸c˜ao n˜ao linear e n˜ao convexo. O m´etodo de pontos interiores tem sido usado com sucesso em situa¸c˜oes desta natureza (se¸c˜ao 2.3), entretanto alguns cuidados dever˜ao ser tomados a fim de garantir a convergˆencia neste caso particular. Retomaremos as defini¸c˜oes referentes ao m´etodo de pontos interiores com barreira logar´ıtmica vistas na se¸c˜ao 2.3.1, buscando realizar os ajuste necess´arios `a convergˆencia do m´etodo ao ser aplicado ao nosso problema de job-shop.

  Lembremos que um problema de job-shop possui tantas vari´aveis quanto o n´ umero de opera¸c˜oes, ou seja, n vari´aveis. Se, ent˜ao, denotarmos por r o n´ umero p r total de restri¸c˜oes, podemos definir uma fun¸c˜ao g(t) : R para representar as → R restri¸c˜oes do problema de job-shop da seguinte forma:

    t j +1 j j

  − d − t 

   

  

  2

  2

  t + t u t v + (d u v )t u + (d v u )t v v d u  u v

   − 2t − d − d − d

    g(t) =

   

   t j 

   j

  B − t (3.4) sendo: j

  ∈ C (u, v)

  ∈ D j = 1, ..., p P p d j

  B = j

  =1

  Desta forma o problema 3.1 pode ser reescrito como um modelo geral de pro- grama¸c˜ao n˜ao linear: M in. f (t)

  (3.5) S.a. g(t)

  ≥ 0 p M´etodo de Pontos Interiores e o Seq¨ uenciamento Job-Shop r

  54 X Incorporamos, tamb´em, uma fun¸c˜ao de barreira logar´ıtmica B µ = µ ln s i `a fun¸c˜ao i

  =1

  objetivo para garantir a positividade desta nova vari´avel. Assim obtemos: M in. f (t)

  − µ ln s (3.6)

  S.a. g(t) − s = 0

  As condi¸c˜oes de otimalidade de primeira ordem (KKT) para o problema (3.6) s˜ao: t y = 0 T ∇ L(t, s, y) = ∇f(t) − (A(t)) s

  (3.7) ∇ L(t, s, y) = −µe + SY e = 0 y ∇ L(x, s, y) = (g(t) − s) = 0 onde ∂g

  (t)

  A(t) = que ´e a matriz Jacobiana de g(t) ∂t S ´e uma matriz diagonal contendo as vari´aveis de folga s r ; Y ´e uma matriz contendo na diagonal os elementos y r ; e = (1, ..., 1); t f (t) = (1, ..., 1).

3.2.1 Defini¸c˜ oes iniciais e fun¸c˜ oes de m´ erito

  Antes de descrever o m´etodo de pontos interiores utilizado gostar´ıamos de relembrar algumas nota¸c˜oes j´a usadas no cap´ıtulo anterior e que ser˜ao retomadas aqui: T σ = y

  ∇f(t) − A(t)

  

−1

  γ = µS e − y

  (3.8) ρ =

  −g(t) + s p(t, s); z = (p, y) = (t, s, y) M´etodo de Pontos Interiores e o Seq¨ uenciamento Job-Shop

  55 na se¸c˜ao 2.3. Definiremos as seguintes fun¸c˜oes de m´erito: ν(t, s, y) = max

  {||σ||, ||ρ||, ||SY e||} ν (t, s, y) = max µ

  {||σ||, ||ρ||, ||Sγ||} r

  X β,µ (t, s, y) = f (t) ln s i + y ρ + ρ ρ T T β L − µ i =1

  2

  ∞ p

  Estaremos adotando em nossas an´alises a norma l ou seja se t ent˜ao i ∈ R

  ||t|| = max |x |. Desta forma, note que a fun¸c˜ao ν(t, s, y) mede a distˆancia entre a

  1≤i≤p

  aproxima¸c˜ao corrente e pontos estacion´arios (KKT) para o problema 3.5. J´a a fun¸c˜ao ν µ (t, s, y) mede a distˆancia entre o ponto corrente e pontos estacion´arios para o pro- blema com barreira 3.6 tendo µ fixo.

  Gostar´ıamos de dar uma aten¸c˜ao especial `a fun¸c˜ao β,µ (t, s, y) que ´e o Lagran- L geano aumentado para o problema com barreira 3.6. O Lagrangeano aumentado pode ser visto como uma fun¸c˜ao de penalidade exata quando os pr´oprios valores duais y r s˜ao usados nas itera¸c˜oes [34].

  De forma semelhante aos m´etodos cl´assicos de otimiza¸c˜ao que utilizam o La- grangeano aumentado inicializaremos com um determinado vetor y de vari´aveis duais e k k k buscaremos atrav´es do MPI encontrar um ponto p = (t , s ) que minimize β,µ (t, s, y).

  L Em seguida alteraremos o vetor de vari´aveis duais tomando y = y + βρ(t, s).

  Como estamos tratando com um problema cujo espa¸co de busca n˜ao ´e convexo o Lagrangeano aumentado ´e uma boa op¸c˜ao a ser usada como fun¸c˜ao de penalidade (m´erito) na medida em que este possui um ponto de sela na solu¸c˜ao ´otima do primal, mesmo diante de falta de convexidade [36]. Entretanto, para que isto aconte¸ca ´e preciso que (t, s, y) seja limitado inferiormente, esta an´alise ser´a feita na se¸c˜ao 3.3 atrav´es β,µ

  L do teorema 3.2. Mostraremos tamb´em, que as mudan¸cas propostas na se¸c˜ao 3.2.2 garantir˜ao que a dire¸c˜ao primal encontrada pelo MPI ´e uma dire¸c˜ao de decrescimento para a fun¸c˜ao (t, s, y). β,µ

  L M´etodo de Pontos Interiores e o Seq¨ uenciamento Job-Shop

  56 equa¸c˜oes (3.7) o que nos fornecer´a o seguinte sistema linear:       T T

  H(t, y) y

  −A(t) △t −∇f(t) + A(t)            

  = (3.9) Y S µe

        △s − SY e

        A(t)

  −I △y −g(t) + s P

  2

2 Onde H(t, y) = f (t) y r g r (t) e representa a matriz Hessiana do Lagrangeano.

  ∇ − r ∇ t T

  −1

  Se considerarmos N (t, y, s) = H(t, y)+A(t) S Y A(t) como sendo uma matriz invers´ıvel, ent˜ao podemos definir de forma expl´ıcita as dire¸c˜oes de busca encontradas pelo MN como:

  

−1 T −1

  ( (S Y ρ + γ)) △t = N −σ + A

  (3.10) △s = −ρ − A△t

  −1

  Y (ρ △y = γ + S − A△t)

  Os c´alculos aqui foram omitidos, mas o processo ´e semelhante ao apresentado pelo teorema 2.4.

3.2.2 Mudan¸ca da matriz normal N (t, s, y)

  Para aplicar o MPI ao problema de job-shop precisamos que a matriz N (t, s, y) seja invers´ıvel em fun¸c˜ao do teorema 2.4, mas isto n˜ao ´e suficiente. Precisamos que esta matriz N (t, s, y), que denominaremos de matriz normal, seja uma matriz definida positiva para que possamos garantir dire¸c˜oes de busca decrescentes para a fun¸c˜ao de m´erito associada ao m´etodo (veja teorema 2.6). Entretanto, a matriz N (t, y, s) pode n˜ao ser definida positiva pelo fato da Hessiana H(t, y) ser semi-definida negativa como apresentado na se¸c˜ao 3.1.2. Neste caso, podemos alterar esta matriz N fazendo: b

  N (t, y, s) = N (t, y, s) + λI, λ (3.11) ≥ 0 T

  −1

  A nossa preocupa¸c˜ao se volta para a Hessiana H(t, y) visto que A(t) S Y A(t) M´etodo de Pontos Interiores e o Seq¨ uenciamento Job-Shop

  57 primeira ordem permanecem intactas. Sobretudo, se λ ´e incrementado at´e que N seja definida positiva, ent˜ao poderemos aplicar o teorema 2.6 e garantir o decrescimento tanto para a fun¸c˜ao de m´erito como para a fun¸c˜ao de barreira. Mas, tal mudan¸ca certamente produz algum impacto no espa¸co de busca primal e/ou do dual. O teorema 3.1 verifica esta quest˜ao, considerando a matriz b H = H(t, y) + λI, λ > 0 no lugar de H `a medida que verifica a varia¸c˜ao do lado direito do sistema (3.9) ao longo das itera¸c˜oes. Antes de ver este teorema, lembremos que o algoritmo de MPI realiza passos (t, s, y) y) tais que

  → (et, es, e et= t + α△t s = s + α e

  △s y = y + α e △y

  Consideremos inicialmente α como sendo um tamanho de passo ´ unico tanto para o primal como para o dual. O tamanho de passo ´e definido, como mencionado anterior- mente na se¸c˜ao 2.3.1, de forma que a vari´avel dual y e de folga s sejam estritamente positivas, ou seja: h i min s min y r r

  α = ξmin < < , , 1.0

  △s r |△s r | △y r |△y r | onde 0 < ξ < 1.

  Teorema

  3.1. Considere (e t, e y, es) como sendo o valor das vari´aveis (t, y, s) ap´os um passo nas dire¸c˜oes de Newton definidas pela equa¸c˜ao (3.10). Assim temos: et= t + α△t, ey = y + α△y, es = s + α△s,

  ρ = ρ(e σ = σ(e y). e e t, es), t, e

  Substituindo H por H = H + λI, λ ≥ 0, tem-se:

  ρ = (1 e − α)ρ + o(α), T T r µ s y = (1 y + o(α), com δ = e e − α(1 − δ))s T s y

  σ = (1 e − α)σ − αλ△t + o(α). M´etodo de Pontos Interiores e o Seq¨ uenciamento Job-Shop

  58 Para eσ, a an´alise ´e semelhante a feita no teorema 2.5, sendo que usaremos a matriz b H no lugar de H: e σ =

  1 β

  onde β ´e o parˆametro de penalidade da fun¸c˜ao L β,µ (t, s, y). O motivo desta escolha ficar´a evidente na se¸c˜ao 3.3. Desta forma o sistema (3.9) ser´a reescrito como:

      

  H(t, y) −A(t) T

  S

  −1

  Y

  I A(t) −I

  I     

  λ nos elementos da diagonal de N (t, y, s) n˜ao tem nenhum impacto na factibilidade do primal (ρ), mas possui uma interferˆencia na factibilidade do dual. Neste caso, se λ for maior que zero, a infactibilidade do dual pode deixar de decrescer mesmo com passos arbitrariamente pequenos. Diante deste fato relevante no caso do job-shop, buscamos uma regulariza¸c˜ao do dual conforme Griva et al [28]. Acrescentamos um novo parˆametro ǫ para controlar o crescimento das vari´aveis duais. Estaremos admitindo ǫ =

      

  △t △s

  △y     

  =     

  −σ γ ρ

      

  (3.12) Substituindo ǫ por df rac1β, temos:

  1 β

  ¤ O teorema 3.1 mostra que a altera¸c˜ao realizada com o incremento de um fator

  ∇f(et) − A T (e t)e y

  (t) △y + o(α)

  = ∇f(t + α△t) − A T

  (t + α △t)(y + α△y)

  = ∇f(t) + α∇

  2

  f (t) △t − A T

  (t)y − α∇ x (y T

  A(t)) T △t − αA T

  = ∇f(t) − A T

  △y) + λ△t) + o(α) = (1 − α)σ − αλ△t + o(α).

  (t)y + α(H(t, y) △t − A T

  (t) △y) + o(α)

  Substituindo H por H , temos e σ =

  ∇f(t) − A T (t)y + α((H(t, y) + λI)

  △t − A T (t)

  △y) + o(α) =

  ∇f(t) − A T (t)y + α((H(t, y)

  △t − A T (t)

   T      M´etodo de Pontos Interiores e o Seq¨ uenciamento Job-Shop

  59 O teorema seguinte apresenta n˜ao apenas uma condi¸c˜ao necess´aria para que este sistema tenha solu¸c˜ao definida, como tamb´em, f´ormulas expl´ıcitas para obten¸c˜ao das dire¸c˜oes de busca. T

  −1 −1 −1

  Teorema

  3.2. Seja N β (t, y, s) = H(t, y) + A(t) [SY + β I] A(t) uma matriz n˜ao singular, ent˜ao o sistema (3.13) tem solu¸c˜ao ´ unica e, particularmente temos:

  −1 T −1 −1

  (βA (S Y + β) (γ △t = N β − βρ) − σ + βAρ)

  −1 −1

  (3.14) Y + β) (γ

  △s = (S − βρ + βA△t) △y = β(ρ − A△t + △s)

  Prova: Primeiramente resolvemos a terceira equa¸c˜ao do sistema 3.13 para

  △y onde obtivemos △y = β(ρ − A△t + △s) a seguir substitu´ımos

  △y na primeira e segunda equa¸c˜ao. Desta forma obtemos o seguinte sistema na forma matricial:       T T T

  H + βA A ρ

  −βA △t −σ + βA(t)     

   = (3.15)

  −1

  S Y + βI γ −βA △s − βρ

  Observe que o sistema (3.15) ´e um sistema sim´etrico. Para resolu¸c˜ao deste sistema primeiro resolvemos a segunda equa¸c˜ao para △s, obtendo:

  −1 −1

  Y + β) (γ △s = (S − βρ + βA△t) em seguida substitu´ımos esta express˜ao na primeira equa¸c˜ao, assim temos: t t T

  −1 −1 −1

  (H + βA A (S Y + β)βA) (S Y + β) (γ − βA △t = βA − βρ) − σ + βAρ

  Observe que: t t T

  

−1 −1 −1

  H + βA A (S Y + β) βA = H + βA A(1 ) − βA − βs(Y e + βs) T

  −1

  = H + βY A (Y e + βS) A T

  −1 −1 −1 M´etodo de Pontos Interiores e o Seq¨ uenciamento Job-Shop

  60 ¤

  Como fizemos anteriormente, exigiremos um pouco mais de N β (t, y, s). Pre- cisamos que a matriz N seja positiva definida. Caso isto n˜ao aconte¸ca, n´os a subs- β titu´ımos por b

  N β (t, y, s) = N β (t, y, s) + λI, λ (3.16) ≥ 0

  Neste caso, λ ´e incrementado at´e que o menor autovalor de N β seja maior que um determinado λ N > 0. Antes de apresentarmos a forma de fazer este incremento em N β veremos uma conseq¨ uˆencia interessante pelo fato de torn´a-la definida positiva. Neste caso, al´em de podermos garantir a solu¸c˜ao para o sistema (3.13), poderemos pelo teorema 3.3 garantir que a matriz reduzida (3.15) tamb´em ´e positiva definida T −1 −1 −1 −1 Teorema

  3.3. Consideremos as matrizes N β = H +A [β I +Y S] A e S Y +βI sendo matrizes sim´etricas e positivas definidas com menores auto-valores sendo λ N e λ C respectivamente. Ent˜ao a matriz

    T T H + βA A

  −βA  

  M =

  −1

  S Y + βI −βA ´e tamb´em positiva definida com menor autovalor λ M dependendo de λ N e λ C .

  Prova: Precisamos mostrar que para qualquer vetor p = (t, s) T 6= 0 a forma quadr´atica p M p ´e positiva. Na demonstra¸c˜ao do teorema 3.2 vimos que T −1 −1 −1 t t −1 −1

  N β = H + A [β I + Y S] A = H + βA A (S Y + β) βA − βA

  Como a matriz N β ´e positiva definida temos que: T T t T

  −1 −1

  t (H + βA A (S Y + βI) βA)t t t T T T t −1 −1 T − βA ≥ λ t (H + βA A)t βA (S Y + βI) βA)t t t − t ≥ λ T T T t T

  −1 −1

  t (H + βA A)t βA (S Y + βI) βA)t + λ t t ≥ t

  Portanto     T T h i

  H + βA A t T T −βA   

   = t s

  −1

  S Y + βI s M´etodo de Pontos Interiores e o Seq¨ uenciamento Job-Shop

  61 onde λ M N , λ C ≥ α min{λ }, α > 0.

  ¤ Como as vari´aveis s, y e o parˆametro β s˜ao assumidos sendo positivos, ent˜ao

  −1 S Y + βI ser´a definida positiva e podemos admitir λ C = β.

  Por outro lado, a matriz N β poder´a n˜ao ser definida positiva visto que a Hessiana H(t, y) ´e definida negativa conforme an´alise feita na se¸c˜ao 3.1.2. Em fun¸c˜ao disto buscaremos tornar a matriz Hessiana definida positiva tendo como conseq¨ uˆencia T

  −1 −1 −1 a positividade da matriz N β j´a que [A (β I + Y S ) A] j´a ´e positiva definida.

  A matriz hessiana possui todos os elementos da diagonal como valor definido

  X como y r , onde i ´e o conjunto de multiplicadores de lagrange referentes `as −2 D r

  ∈D i

  restri¸c˜oes disjuntivas associadas a opera¸c˜ao i. Como os multiplicadores de Lagrange s˜ao vari´aveis n˜ao negativas ent˜ao teremos os elementos diagonais sempre negativos. Portanto, selecionamos uma constante positiva λ que possa tornar estes elementos diagonais positivos pela substitui¸c˜ao de H(t, y) por H(t, y) = H(t, y) + λI. Tomamos, ent˜ao λ = 2 h ii

  | min |, assim a menor entrada diagonal de H(t, y) ter´a o valor de

  1≤i≤n o

  P 2 y r . Como as entradas fora da diagonal possuem valor igual a 2y r esta mudan¸ca i

  ∈D i

  ´e o suficiente para garantir a positividade de H = H(t, y) + λI. Esta adapta¸c˜ao ´e poss´ıvel em fun¸c˜ao de todas as entradas n˜ao nulas serem m´ ultiplas de 2. Assim, o que fizemos foi transformar a menor entrada diagonal num m´ ultiplo n˜ao negativo de 2.

  O efeito desta mudan¸ca pode ser observado tomando-se a matriz Hessiana do problema exemplo 3 onde temos: 

   2y 2y

  3

  5

  3

  5

  −2y − 2y 

   

   2y

  

  6 6 

  −2y 

   

   H(t, y) =

   2y

  3

  3 4 2y 4 

  −2y − 2y 

   

   2y

  

  6 6 

  −2y 

  

  

3.2.3 Um algoritmo de pontos interiores aplicado ao seq¨ uen-

ciamento job-shop

  2

  , ent˜ao fazendo t T H(t, y)t, obtemos: 6(t

  1

  3

  )

  2

  3

  5

  )

  2

  1

  5

  )

  2

  4

  ∈ R

  )

  2

  2

  3

  2

  1

  2

  2

  2 4 ≥ 0 ∀t ∈ R

  5 Desta forma podemos garantir que a matriz H(t, y) ´e definida positiva. En-

  tretanto, este acr´escimo diagonal (λ = 4 | min

  

1≤i≤n o

  h ii |) pode ser excessivo, fazemos ent˜ao, uso da decomposi¸c˜ao de Cholesky para poder obter a menor perturba¸c˜ao poss´ıvel que garanta a positividade da matriz Normal N β . Multiplicamos ent˜ao o valor de λ por um fator 0 < ξ < 1 de forma crescente at´e poder completar a decomposi¸c˜ao Cholesky tendo na diagonal apenas elementos estritamente positivos. Um algoritmo sugestivo para esta mudan¸ca ´e apresentado no anexo B.1.

  5

  1 , t

2 , t

3 , t 4 , t 5 ) t

  M´etodo de Pontos Interiores e o Seq¨ uenciamento Job-Shop

  

55 =

  62 Supondo arbitrariamente os valores das vari´aveis duais sendo y = (1, 2, 3, 4, 5) teremos: H(t, y) =

            

  −16

  6

  10 −12

  12

  6 −14

  8

  12 −12

  10

  8 −18

            

  Neste caso, a menor entrada diagonal ´e h

  −18, tomando λ = 2| − 18| = 36 teremos H(t, y) sendo:

  Consideremos um vetor gen´erico t = (t

  H(t, y) =           

  20

  6

  10

  24

  12

  6

  22

  8

  12

  24

  10

  8

  18           

  • t
  • 8(t
  • t
  • 10(t
  • t
  • 12(t
  • t
  • 8t
  • 4t
  • 12t
  • 12t
M´etodo de Pontos Interiores e o Seq¨ uenciamento Job-Shop

  63 propomos a fazer. Para melhor compreens˜ao dos ´ıtens apresentados estaremos utili- zando como ilustra¸c˜ao dos passos mencionados o problema-exemplo 2. Transcrevemos mais uma vez a tabela descritiva de seus dados e a modelagem matem´atica adotada a fim de facilitar a posterior an´alise. Assim temos:

  

produto opera¸c˜ ao dura¸c˜ ao m´ aquina

  1

  1

  3

  1

  1

  2

  5

  2 Tabela 3.3

  2

  3

  7

  2 : Dados do problema-exemplo 2 de job-shop.

  Ap´os a modelagem adequada temos, M in. f (t) = t

  1 + t 2 + t

  3 S.a. t

  2

  1

  − t − 3 ≥ 0

  2

  2

  t + t t + 2t

  2

  

3

  3

  2

  2 3 − 2t − 2t − 35 ≥ 0

  t

  1

  ≥ 0 (3.17) t

  2

  ≥ 0 t

  3

  ≥ 0

  16

  1

  − t ≥ 0

  16

  2

  − t ≥ 0

  16

  3

  − t ≥ 0 A resolu¸c˜ao dos ´ıtens que se seguir˜ao foi realizada com o uso do Scilab 3.0, que ´e um aplicativo matem´atico de uso livre.

  3.2.3.1 Ponto de partida e parˆ ametros iniciais A determina¸c˜ao de um ponto de partida neste m´etodo ´e um aspecto impor- tante. Nota-se que ´e preciso garantir a factibilidade do ponto escolhido mas isto n˜ao

  ´e o suficiente. A tabela 3.4 apresenta resultados obtidos para a fun¸c˜ao objetivo ap´os 1 e 20 itera¸c˜oes ao ser aplicado o MPI a alguns pontos. Tais pontos foram tomados

  M´etodo de Pontos Interiores e o Seq¨ uenciamento Job-Shop

  64 Ponto inicial primeira itera¸c˜ ao 20 itera¸c˜ oes Varia¸c˜ ao Tipo de ponto

  

(1,9,2) 11,08 14,36 + 3,28 Fact´ıvel

(1,9,1) 10,54 10,05 -0,49 Est. fact´ıvel

(3,10,3) 14,62 12,9 -1,66 Factivel

(3,14,4) 20,6 20,18 -,42 Infavt´ıvel

(2,10,3) 13,6 11,83 -1,77 Fact´ıvel Tabela 3.4 : An´ alise ponto inicial

  fact´ıveis. Alguns pontos possuem uma grande varia¸c˜ao na primeira itera¸c˜ao, mas tal comportamento n˜ao ´e constante. Portanto, a escolha do ponto inicial ´e importante no desenvolvimento do MPI.

  Uma outra necessidade ´e a defini¸c˜ao das vari´aveis de excesso s. Por defini¸c˜ao podemos obter tais vari´aveis admitindo g r (t)geq0 e lembrando que ´e preciso que se tenha g r (t)

  − s = 0, com s > 0. Assim, note que as vari´aveis de excesso podem ser computadas tomando s = g (t ). Por seguran¸ca para evitar pontos muito pr´oximos r r ou contidos nas bordas da regi˜ao fact´ıvel tomaremos as vari´aveis de excesso como: s = g r (t + θ) onde θ > 0 r

  Dessa forma, teremos as vari´aveis de excesso estritamente positivas. Nota-se que, a varia¸c˜ao do parˆametro θ exerce influencia nos resultados e deve ser escolhida com cuidado.

  Ap´os a defini¸c˜ao das vari´aveis primais, deveremos definir valores para as vari´aveis duais. A computa¸c˜ao dessas vari´aveis precisa ser feita de forma que tenhamos T A(t ) y ) = 0

  − ∇f(t atendendo a primeira condi¸c˜ao de otimalidade, como preconiza o m´etodo de pontos interiores. Sendo assim, obtemos o valor das vari´aveis duais resolvendo o sistema representado pela seguinte equa¸c˜ao T

  A(t ) y = ) (3.18) ∇f(t M´etodo de Pontos Interiores e o Seq¨ uenciamento Job-Shop

  65 positivas. Consideramos as vari´aveis livres com um valor fixo e avaliamos a influˆencia deste valor no progresso do algoritmo.

  10

  2                    

  2

  2

  2

  2

  4

  2 0, 083

                     

  17                     y =

  18

  Na an´alise seguinte, tomamos o ponto t = (2, 10, 3) e avaliamos ap´os vinte itera¸c˜oes o resultado variando primeiro o parˆametro θ e depois fixamos o melhor valor deste parˆametro e variamos o valor das vari´aveis duais. O resultado ´e apresentado na tabela 3.5.

  8

  15

  7

  5

  10

                     

  Os valores usados para an´alise foram baixos devido ao tamanho do espa¸co de busca ser bem restrito. Percebe-se uma maior sensibilidade na escolha das vari´aveis duais. O parˆametro θ assumindo valor nulo n˜ao oferece resultados por permitir que alguma coordenada do vetor s seja nula. Desta fora obtemos as vari´aveis de excesso e duais dadas por: s =

  alise dos parˆ ametros para defini¸ c˜ ao das vari´ aveis de excesso e vari´ aveis duais

Tabela 3.5 5 13,35 : An´

  

Valor de θ Fun¸c˜ ao Objetivo Ajute das vari´ aveis duais Fun¸c˜ ao Objetivo

1 13,12 1 13,61 2 13,58 2 12,89 3 12,89 3 12,90 4 12,10 4 13,26 5 12,13

  Para iniciar o algoritmo, ainda ser´a preciso definir o valor dos parˆametros µ, epsilon e β iniciais. Para isso, primeiro calcularemos o valor de ν(z ) que oferece uma medida da distˆancia entre a aproxima¸c˜ao corrente e um prov´avel ponto de KKT para M´etodo de Pontos Interiores e o Seq¨ uenciamento Job-Shop

  66

  1

  β ǫ = min m u(z ), ≥ 2µr {ν } β

  Neste exemplo que estamos considerando os valores obtidos tendo como ponto inicial t = (2, 10, 3) foram: µ = 14 ǫ = 0.004463 β = 224

  A raz˜ao para essa defini¸c˜ao destes parˆametros β, ǫ e µ ser´a vista de forma mais clara na se¸c˜ao 3.3 onde analisaremos a convergˆencia do m´etodo.

  3.2.3.2 Encontrando as dire¸c˜ oes de busca Procuraremos as dire¸c˜oes de busca (

  △t, △s) resolvendo o sistema (3.15). Fa- zemos isto logo ap´os o ajuste feito para garantir que a matriz N β seja definida positiva. Isto ´e feito da forma apresentada na se¸c˜ao 3.2.2. Garantindo a positividade de N β , pelo teorema 3.3 vimos que podemos garantir a positividade da matriz dos coeficien- tes M para o sistema 3.15. Sendo assim, usaremos a decomposi¸c˜ao de Cholesky da matriz M para obter a sua inversa e conseq¨ uentemente as dire¸c˜oes primais (

  △t, △s).

  −1

  Descobrimos em seguida a dire¸c˜ao dual fazendo uso da express˜ao Y △y = γ − S △s apresentada pelo teorema 2.25. Com este procedimento encontramos as dire¸c˜oes de busca para uma nova aproxima¸c˜ao de Newton e garantimos o decrescimento da fun¸c˜ao de m´erito β,µ (t, s, y) na dire¸c˜ao primal, conforme mostraremos de forma ilustrativa

  L com o exemplo usado nesta se¸c˜ao. Sobretudo nosso principal objetivo centra-se na demonstra¸c˜ao matem´atica, que ser´a realizada na se¸c˜ao 3.3.

  3.2.3.3 Definindo o tamanho de passo Ap´os o c´alculo das dire¸c˜oes de busca para o sistema de Newton 3.9 um algo- ritmo de MPI normalmente calcula um pr´oximo passo (t, s, y) y) fazendo:

  → (et, es, e M´etodo de Pontos Interiores e o Seq¨ uenciamento Job-Shop p d

  67 Onde α e α representam o tamanho de passo primal e dual. Em nosso caso estaremos definindo os passos primal e dual de forma que possamos garantir que as vari´aveis de excesso e duais se mantenham estritamente positivas, bem como, as vari´aveis originais do problema 3.5 sejam limitadas inferiormente. Assim estabeleceremos um tamanho m´aximo de passo como: p r r +κ · ¸ s t

  α = min 1; : r < 0; : r < 0 −κ △s −κ △t

  max △s r △t r d r · ¸ y

  α = min 1; : r < 0

  max −κ △y △y r

  onde 0 < κ < 1.

  Como vimos na se¸c˜ao 3.1 o problema de seq¨ uenciamento job-shop possui um espa¸co de busca n˜ao convexo al´em de n˜ao apresentar qualquer garantia de m´ınimo local ou global para pontos satisfazendo a condi¸c˜ao de otimalidade de primeira ordem, que ´e o objeto de busca no m´etodo de pontos interiores. Diante destas quest˜oes aqui refor¸cadas, mostraremos que as dire¸c˜oes primais (

  △t, △s) s˜ao dire¸c˜oes de decrescimento para a fun¸c˜ao de m´erito (t, s, y) e conseq¨ uentemente permitem similar decrescimento para β,µ L a fun¸c˜ao objetivo do problema original. Desta forma, estaremos buscando uma forma de garantir o decrescimento de β,µ (t, s, y).

  L p p d d Inicialmente selecionamos α = α e α = α e descobrimos o pr´oximo p p d max max candidato primal-dual e t = t + α y = y + α y)

  △t; es = s + α △s; e △y. Se ez = (et, es, e n˜ao reduzir o valor da fun¸c˜ao de m´erito ν(z) de um fator 0 < q < 1 ent˜ao esta z falha. Neste caso, mantemos a aproxima¸c˜ao dual y e usamos a dire¸c˜ao aproxima¸c˜ao e primal

  △p = (△t, △s) para descobrir uma nova aproxima¸c˜ao. Mostraremos na se¸c˜ao 3.3 que a dire¸c˜ao primal

  △p = (△t, △s) ´e uma dire¸c˜ao de decrescimento para a fun¸c˜ao p p de m´erito β,µ (t, s, y). Sendo assim, buscaremos no intervalo [0, α ] um valor de α L

  max p

  que atenda a condi¸c˜ao de Armijo apresentada em anexo (A.3), ou seja, buscaremos α de forma que: p p

  M´etodo de Pontos Interiores e o Seq¨ uenciamento Job-Shop

  68 ent˜ao buscar´a uma melhor aproxima¸c˜ao para a vari´avel dual atrav´es da f´ormula y = y + βρ(e e t, es)

  Como mencionado, faremos do exemplo aqui utilizado apenas para ilustrar os objetivos da demonstra¸c˜ao que se seguir´a. Tomamos para tal o ponto inicial t = (2, 10, 3) j´a mencionado e seus respectivos valores de µ, ǫ e β. Os resultados s˜ao apresentados na tabela 3.6

  Itera¸c˜ ao Vari´ aveis Primais Valor Objetivo ν z L β,µ

1 ( 2.0000049, 10.024731, 1.574525) 13.599261 71.826185 198850.8

2 ( 2.0000293, 10.074941, 0.8261506) 12.901121 32.932195 99833.644 3 ( 2.0000307, 10.083898, 0.4332541) 12.517183 27.997772 46523.234 4 ( 2.0000336 , 10.09359 , 0.2269834) 12.320607 28.000595 29707.627 5 ( 2.0000362, 10.100711, 0.1186913) 12.219439 28.00354 23642.025 6 ( 2.0000367, 10.102784, 0.0618379) 12.164659 27.998493 21328.024 7 ( 2.0000377, 10.10527, 0.0319899) 12.137298 28.006775 20541.837 8 ( 2.0000383, 10.106532, 0.0163197) 12.12289 28.005997 20174.126 9 ( 2.0000384, 10.106951, 0.0080928) 12.115083 28.000285 20004.335

  

10 ( 2.0000385, 10.10724, 0.0037737) 12.111052 28.003013 19928.984

20 (2.0000386, 10.107604, - 0.0009905) 12.106652 28.001953 19850.207

Tabela 3.6 ao do MPI ao problema de Job-Shop

: Exemplo de Aplica¸c˜

  Uma outra observa¸c˜ao que ´e pertinente ao caso do job-shop ´e o ajuste da Hessiana do Lagrangeano caso a matriz normal N β n˜ao seja definida positiva. No exemplo ora apresentado, foi preciso a partir da segunda itera¸c˜ao e o valor deste ajuste variou de λ = 0, 165418 at´e λ = 0, 021952 nas ´ ultimas itera¸c˜oes. Caso n˜ao fosse realizado tal ajuste, n˜ao s´o deixa de haver a redu¸c˜ao do valor objetivo, at´e chegar o ponto de n˜ao haver solu¸c˜ao para busca de novas dire¸c˜oes.

  Finalmente, queremos atrav´es deste exemplo ilustrar os objetivos das demons- tra¸c˜oes que se seguir˜ao na se¸c˜ao 3.3. Mostraremos que a dire¸c˜ao primal ´e uma dire¸c˜ao de decrescimento para o Lagrangeano aumentado do problema em quest˜ao com a con- seq¨ uente redu¸c˜ao da fun¸c˜ao objetivo. Demonstraremos tamb´em, que a solu¸c˜ao con- vergir´a para um prov´avel ponto de otimalidade de primeira ordem para o problema An´alise de Convergˆencia

  69

3.3 An´ alise de Convergˆ encia

  Nesta se¸c˜ao faremos uma an´alise de convergˆencia para o m´etodo proposto na se¸c˜ao 3.2.3 ao ser aplicado a um problema de seq¨ uenciamento job-shop. Por ser um problema n˜ao convexo com as caracter´ısticas apresentadas na se¸c˜ao 3.1, n˜ao poderemos garantir uma convergˆencia para um valor m´ınimo global. Estaremos buscando, entre- tanto, garantias de estarmos trilhando por um caminho de busca decrescente para a fun¸c˜ao de m´erito

  L β,µ (t, s, y) e que, se poss´ıvel, convirja para pontos de otimalidade de primeira ordem para o problema 3.5. Estaremos nesta an´alise nos guiando por estudo semelhante feito por Griva, et al [28] para caso convexo.

  

3.3.1 Condi¸c˜ oes para a convergˆ encia global do problema de

job-shop

  A fim de auxiliar na an´alise de convergˆencia a ser realizada nas se¸c˜oes poste- riores verificaremos algumas caracter´ısticas do modelo matem´atico de seq¨ uenciamento job-shop que estamos adotando.

  (C1) A fun¸c˜ao objetivo ´e limitada inferiormente por: f (t) ≥ f, ∀t ∈ Ω ⊂ R n .

  A fun¸c˜ao objetivo f (t) ´e uma fun¸c˜ao linear e n˜ao possui limite inferior para todo t ∈ R n

  , entretanto como estamos tratando com vari´aveis n˜ao negativas (t ≥ 0) podemos considerar f

  ≥ −∞ como sendo um limite inferior para f(t). Note que cuidados adicionais s˜ao tomados ao definir o tamanho de passo para uma pr´oxima itera¸c˜ao a fim de manter t limitado inferiormente. (C2) O modelo atende a condi¸c˜ao de Slater, ou seja, existe t

  ∈ R n tal que g r (t) > 0, r = 1, ..., r . Esta condi¸c˜ao ´e f´acil de ser verificada bastando para isto tomar um seq¨ uenciamento onde todas as opera¸c˜oes do produto P i s˜ao realizadas antes que as opera¸c˜oes do produto P i

  aconte¸cam, para i = 1, ..., p. Apesar desta n˜ao

  • 1
An´alise de Convergˆencia

  70 (C3) As restri¸c˜oes g r (t) satisfazem as seguintes condi¸c˜oes: lim min g r (t) =

  −∞

  

1≤r≤r

||t||→∞

  Como vimos na se¸c˜ao 3.1 as restri¸c˜oes s˜ao todas lineares com exce¸c˜ao das res- tri¸c˜oes referentes `as disjun¸c˜oes. De qualquer forma o terceiro e quarto grupo de equa¸c˜oes da fun¸c˜ao g(t) oferecem um limite inferior para g r (t) quando n ||t|| → ∞. (C4) O conjunto de restri¸c˜oes ´e formado por fun¸c˜oes polinomiais em R sendo na sua maioria fun¸c˜oes lineares exceto o conjunto das restri¸c˜oes disjuntivas. Desta forma podemos ver que a diferen¸ca do valor assumido pela fun¸c˜ao restritiva de maior e menor valor ´e finita. Desta forma, conforme observa¸c˜ao feita por Vanderbei [28] assumimos que: s

  ¯ ¶

  ¯ µ¯¯ n

  ¯ ¯ ln g r (t) g r (t) + C, ≤ − min ∀t ∈ R

  ¯ max 1≤r≤r ¯ + 1 1≤r≤r onde 0 < C < ∞ e depende do problema espec´ıfico em quest˜ao. Esta condi¸c˜ao possui certa relevˆancia no estudo te´orico que estamos realizando.

  2

  2

  (C5) As Hessianas f (t) e g r (t), r = 1, ..., r satisfazem as condi¸c˜oes de Lipschitz n ∇ ∇ em R .

  Observa¸c˜ ao

  3.2. Conforme visto na se¸c˜ao 3.1 n˜ao podemos garantir que o ponto de m´ınimo do problema 3.1 satisfa¸ca as condi¸c˜oes de otimalidade de segunda ordem.

3.3.2 Prova de Convergˆ encia

  Apresentaremos inicialmente alguns lemas necess´arios ao teorema principal que oferece condi¸c˜oes para convergˆencia de nosso problema de seq¨ uenciamento job-shop.

  Lema

  3.1. Assumindo as condi¸c˜oes (C1) a (C4) existe pelo menos uma solu¸c˜ao global para o problema 3.6 para algum µ > 0. An´alise de Convergˆencia

  71 Reescrevamos o problema 3.6 como r

  X min B(t, µ) = f (t) ln g i (t) − µ i n =1 t

  ∈ R No caso do job-shop estamos trabalhando com um conjunto fact´ıvel Ω limitado j´a que estabelecemos limites inferiores e superiores para todas as vari´aveis primais (t i ).

  Tomemos um ponto estritamente interior, ou seja, um ponto t que atenda a condi¸c˜ao (C2). Tomemos, tamb´em, um valor constante M µ = 2B(t, µ). Verificaremos que o conjunto Ω µ = µ

  {t ∈ Ω : B(t, µ) ≤ M } ´e compacto. Primeiro note que Ω µ ´e um conjunto limitado pois ´e subconjunto de Ω que vimos ser limitado. Tamb´em temos que Ω µ ´e fechado, pois se trata da imagem inversa de um conjunto fechado por uma fun¸c˜ao cont´ınua (B(t, µ)). Assim, conclu´ımos que Ω µ ´e compacto.

  Como B(t, µ) ´e cont´ınua, ent˜ao pelo Lema de Weierstrass, existe um m´ınimo global t µ tal que B(t, µ) µ , µ) no conjunto Ω µ e conseq¨ uentemente no conjunto ≥ B(t Ω.

  ¤ Como temos a garantia da existˆencia de uma solu¸c˜ao ´otima global para o problema (3.6) ent˜ao poderemos buscar uma solu¸c˜ao para o nosso problema original

  (3.5), reduzindo o parˆametro µ tal que µ → 0. No entanto, estaremos utilizando o

  Lagrangeano aumentado para guiar nossa busca pela solu¸c˜ao global. Como mencio- nado na se¸c˜ao 3.2, ´e preciso garantir que o Lagrangeano aumentado do problema 3.6 ( β,µ (t, s, y)) seja limitado inferiormente, assim teremos um ponto de sela na solu¸c˜ao

  L ´otima. Esta an´alise ´e feita no lema a seguir. r Lema

  3.2. Para algum y , β µ e µ > 0, existe um m´ınimo global ∈ R ≥ 2r An´alise de Convergˆencia r r

  72 Sejam s e t fixos, sendo este ´ ultimo garantido pela condi¸c˜ao (C2). ∈ R ∈ R + +

  Tome M = 2 β,µ (t, s, y). Assim, como a fun¸c˜ao β,µ (t, s, y) ´e cont´ınua, para a prova L L deste teorema basta mostrar que o conjunto β = : β,µ (t, s, y) n n

  ̥ {(t, s) ∈ R × R L ≤ M} + ´e um conjunto limitado e fechado como foi feito no teorema 3.1.

  ´ E f´acil ver que β ´e fechado, pois se trata da imagem inversa de um conjunto

  ̥ fechado por uma fun¸c˜ao cont´ınua. Vamos agora verificar que β ´e limitado.

  ̥ Suponha por contradi¸c˜ao que β ´e ilimitado. Desta forma, existe uma seq¨ uˆencia l l l n r ̥ ilimitada , s ) tal que

  {p } = {(t } definida em R × R (i) t = t, s = s, l (ii) lim l

  →∞

  ||p − p || = ∞ l l (iii) lim l β,µ (t , s , y)

  →∞

  L ≤ M Verificaremos que uma seq¨ uˆencia que satisfaz as condi¸c˜oes (i) e (ii) ter´a l l lim β,µ (t , s , y) = (3.19) l L ∞

  →∞ o que contradiz (iii). l l l

  Tomemos uma seq¨ uˆencia , s ) l l l l l {p } = {(t } que satisfa¸ca (i) e (ii). Usaremos β

  2 l l l

  tamb´em as seq¨ uencias i (t ) (ρ ) +y i ρ i (x )+ρ ) {ρ i } = {s i −g } e {φ i } = { i i −µ ln(g i }, i =

  2

  1, ..., r . Supondo f (t) sendo limitada inferiormente, podemos provar (3.19) apenas mostrando que r

  X l lim φ = (3.20) i l

  →∞ i =1

  . l Dividiremos a prova em dois casos. Primeiro consideraremos que seq¨ uencia l l {t } correspondente a

  {p } ´e limitada. Neste caso a seq¨uencia {s } ´e ilimitada. Neste caso

  ∗

  podemos assumir que existe um conjunto n˜ao vazio de indices I para as restri¸c˜oes de l l

  ∗

  forma que para cada ´ındice i tenhamos lim l s = i (t )

  →∞

  ∈ I i ∞. Como a seq¨uencia {g } An´alise de Convergˆencia 73 logo, podemos garantir que (3.19) ´e verdade. l l

  Vamos agora considerar o caso em que a seq¨ uencia l l {t } correspondente a {p } seja ilimitada. Neste caso vamos estimar o valor de φ primeiramente para g i (t ) i ≤ 1, ent˜ao l l l l l l l l β β

  2

  2

  φ = (ρ ) + y i ρ i (t ) + ρ ) (ρ ) + y i ρ ) (3.21) i i i i i i i

  1

  − µ ln(g ≥ − µ ln(1 + ρ ≥ −B

  2

  2 para algum B

  1 l l l l ≥ 0 suficientemente grande.

  Se g i (t ) = g i (t ) + ρ > 0, n´os temos: i i ≥ 1, relembrando que s l l l l l β

  2

  φ = (ρ ) + y i ρ i (t ) + ρ ) i i i i − µ ln(g β

  2 l ρ l 2 l l i l

  = (ρ ) + y i ρ i (t ) ) i i − µ ln g − µ ln(1 + g β 2 i (t ) l l l i ρ l

  2

  (ρ ) + y i ρ i (t ) l ) ≥ i i − µ ln g − µ − µ β

2 g i (t )

l l l l i i i

  2

i i (t )

  ≥ |ρ | − |y ||ρ | − µ ln g − µ − µ|ρ |

  2 i (t ) l

  2

  ≥ −µ ln g − B onde B ´e grande o bastante. Relembrando da condi¸c˜ao (C4) analisada em rela¸c˜ao ao

  2

  modelo de job-shop adotado, n´os obtemos i (t ) max g i (t ) l l µ ¶

  2

  2

  −µ ln g − B ≥ −µ ln − B

  1≤i≤r

  ¯ ¶

  ¯ µ¯¯ l l

  2

  ¯ ¯ g i (t ) g i (t ))

  2

  2

  ≥ −µ ln − B ≥ −µ(C − min − B ¯ max 1≤i≤r ¯ + 1 1≤i≤r

  

  2 l

  

  2 , se g i (t ) l −µC − B ≥ 0

  2

  = i (t ))

  2

  −µ(C − g − B ≥ l li , se g i (t )

  2

  −µ(C + ρ − B ≤ 0

  2

  2

  , (C + ρ i )

  2

  ≥ −µ max{c } − B l onde i ´e o ´ındice da restri¸c˜ao tal que g i = min g i (t ). Como lim min g i (t) =

  1≤i≤r 1≥i≥r l ||t||→∞

  −∞ e a seq¨uencia {t } ´e ilimitada, temos: lim ρ i (t) = + ∞

  ||t||→∞

  Ent˜ao para toda seq¨ uencia com l suficientemente grande e, na pior das hip´oteses, l

  An´alise de Convergˆencia

  74 Combinando as equa¸c˜oes (3.22) e (3.21), n´os obtemos para l suficientemente grande: P r P P l l l l l i =1 i 6=i :g i (t )<1 i :g i (t )≥1 β l l l l i i i φ φ + = φ +

  2

  2

  (ρ ) + y i ρ B

  1 ) + B 2 )r

  ≥ i i − µ ln ρ i − r − (µ(C + ρ i

2 Como estamos tomando β > 2µr isto garante que a condi¸c˜ao (3.20) ´e verdadeira, logo

  a equa¸c˜ao (3.20) tamb´em o ´e. Desta forma encontramos uma contradi¸c˜ao em rela¸c˜ao a condi¸c˜ao (iii) postulada inicialmente. l l Assim podemos concluir que β ´e compacto e β,µ (t , s , y) possui um m´ınimo n r ̥ L global em R .

  × R

  • ¤

  O lema seguinte apresenta condi¸c˜oes necess´arias para que a dire¸c˜ao primal △p = (△t, △s), obtida como solu¸c˜ao do sistema (3.13) seja uma dire¸c˜ao de decresci- mento para β,µ (t, s, y).

  L Lema

  3.3. Para algum β > 0, existe θ > 0 tal que para alguma aproxima¸c˜ao primal- r dual (t, s, y) com s, y , a dire¸c˜ao primal ∈ R △p = (△t, △s), obtidas como solu¸c˜ao + do sistema (3.13) com o ajuste feito na matriz N (t, s, y) dado pela equa¸c˜ao (3.16) e ǫ

  1

  tendo como parˆametro ǫ = , ´e uma dire¸c˜ao de descida para β,µ (t, s, y) e β L

  2

  ( p β,µ (t, s, y), ∇ L △p) ≤ −θ||△p||

  Prova:

  1 Assumindo o parˆametro de regulariza¸c˜ao dual ǫ = , como mencionado na β se¸c˜ao 3.2.2, na demonstra¸c˜ao do teorema 2.4 vimos que o sistema (3.13) pode ser reescrito em fun¸c˜ao das dire¸c˜oes primais como:

        T T T H(t, y) + βA A

  ρ −βA(t) △t −σ + βA(t)

        =

  −1 −1

  S Y + βI S γ −βA(t) △s − βρ An´alise de Convergˆencia T

  75

  −1 −1 −1

  Portanto, assumindo que a matriz N β = H +A [β I +Y S] A seja positiva definida conforme ajuste realizado pela equa¸c˜ao (3.16), n´os temos ent˜ao pelo teorema 3.3 que

    T     T     t β,µ (t, s, y) H + βA A T T ∇ L △t △t −βA △t

            = − s β,µ (t, s, y)

  −1

  S Y + βI ∇ L △s △s −βA △s

  2

  ≤ −α max{||△t||, ||△s||} onde α depende dos parˆametros λ N e β que s˜ao respectivamente os menores autovalores

  −1 de N β e de [S Y + βI] respectivamente.

  ¤

  ∞

  X Lema

  3.4. Considere as s´eries a i que ´e uma seq¨ uˆencia das maiores somas parciais i k =0 {s }, onde l

  X s k = sup a i

  

0≤l≤k

i =1

  ´e ilimitada, mon´otona e crescente, isto ´e lim s k = + k

  →∞

  Tamb´em considere a seq¨ uˆencia k k {b } com b ≥ 1 sendo mon´otona crescente e tal que

  ∞

  X lim b k = + a i b i da seq¨ uˆencia das maiores somas parciais de k ∞. Ent˜ao para a s´erie

  →∞ k i =0

  {p }, onde l

  X p k = sup a i b i

  0≤l≤k i =1

  ´e tamb´em mon´otona e crescente, ou seja, lim p k = + k →∞ ∞ Este lema ser´a usado na demonstra¸c˜ao do 3.4 e sua prova pode ser encontrada

  An´alise de Convergˆencia u u u u 76 seq¨ uencia primal-dual = (t , s , y ) u {z } tal que algum ponto limite t da seq¨uencia pri- mal

  {t } ´e ponto de otimalidade de primeira ordem para a minimiza¸c˜ao da norma do vetor de viola¸c˜ao das restri¸c˜oes v(t) = (v

  1 (t), ..., v r (t)) onde v i (t) = min i (t), 0

  {g }: V (t) =

  ||v(t)||

  ∗

  Se em particular, V (t) = 0 ent˜ao t = t ´e um ponto de otimalidade de primeira ordem para o problema 3.5.

  Prova:

  ∗ ∗ ∗ ∗

  Tomemos z = (t , s , y ) sendo um ponto de m´ınimo local ou global para o l l l l l l l problema (3.5) e tomemos a seq¨ uˆencia = (t , s , y ) = (p , y ), sendo gerada {z }, onde z pelo algoritmo a partir de uma aproxima¸c˜ao inicial z .

  O modelo estudado n˜ao apresenta garantias de alcan¸car um ponto de m´ınimo local ou global. Como vimos trata-se de um problema n˜ao convexo e, em particular, tendo a Hessiana do Lagrangeano sendo definida negativa em todo o espa¸co de busca. Sendo assim, o algoritmo proposto minimiza a fun¸c˜ao de m´erito β,µ (t, s, y) em p =

  L (t, s). Vimos pelos lemas 3.2 e 3.3 associados `a regra de Armijo (A.3) que para um valor fixo dos multiplicadores de Lagrange y e uma escolha adequada do parˆametro β a dire¸c˜ao primal

  △p = (△t, △s) satisfaz a seguinte condi¸c˜ao:

  2

  ( (p, y), p β,µ ∇ L △p) ≤ −α||△p|| p que um

  Portanto, o algoritmo pode eventualmente decrescer at´e uma aproxima¸c˜ao e ponto de otimalidade de primeira ordem para a minimiza¸c˜ao irrestrita de β,µ (t, s, y).

  L Ap´os encontrar esta aproxima¸c˜ao o algoritmo muda os multiplicadores de Lagrange por esta f´ormula l +1 l y := y + βρ(e (3.23) t, es) se esta mudan¸ca reduzir a fun¸c˜ao de m´erito ν µ (z) por um fator 0 < q < 1. De outra forma, o algoritmo incrementa o valor do parˆametro de penalidade β e continua a An´alise de Convergˆencia 77 seja: l l →∞ lim ν(z ) = 0, l lim s l →∞ l ≥ 0, lim y l ≥ 0.

  →∞

  Temos dois poss´ıveis cen´ario para an´alise. O primeiro ocorre quando a mini- l miza¸c˜ao da fun¸c˜ao de m´erito β,µ (p, y ) em p para valores grandes de β ´e seguida da L altera¸c˜ao dos multiplicadores de Lagrange. Isso ocasiona uma trajet´oria pr´oxima da solu¸c˜ao do problema com barreira (3.6) devido `as propriedades de convergˆencia global do algoritmo do Lagrangeano aumentado [8, 34]. Nesse caso o algoritmo reduz o va- lor da fun¸c˜ao de m´erito ν µ (z). Portanto, o valor da fun¸c˜ao de m´erito ν(z) pode ser estimado por z) µ z) + µ = ν µ z) + δτ

  ≤ ν ν(e (e (e

  Onde τ ´e o valor da fun¸c˜ao de m´erito ν(z) da itera¸c˜ao anterior e 0 < δ < 1. Portanto, a redu¸c˜ao da fun¸c˜ao de m´erito ν (z) garante a redu¸c˜ao de ν(z). µ O segundo cen´ario acontece quando o algoritmo n˜ao muda os multiplicadores de Lagrange y pela f´ormula (3.23) j´a que tal mudan¸ca n˜ao reduziria o valor da fun¸c˜ao de m´erito ν µ (z). Portanto o algoritmo transforma-se numa seq¨ uˆencia de minimiza¸c˜ao irrestrita do Lagrangeano aumentado β,µ (t, s, y) na dire¸c˜ao primal p, seguido pelo

  L incremento sucessivo do parˆametro de penalidade β. Mostraremos ent˜ao que algum l ponto limite desta seq¨ uˆencia primal {t } ´e na verdade um ponto de otimalidade para minimiza¸c˜ao da norma do vetor de viola¸c˜ao de restri¸c˜oes v(t) = (v (t), ..., v r (t)) onde

  1

  v i (t) = min i (t), 0 {g }:

  V (t) = ||v(t)|| l

  Primeiro mostraremos que a seq¨ uˆencia primal k {t } ´e limitada. Considere a

  1

  seq¨ uˆencia mon´otona crescente 2r o µ ≤ β ≤ β ≤ ... ≤ β ≤ .... Reescrevamos a fun¸c˜ao

  An´alise de Convergˆencia 78 de m´erito β,µ (p, y) como

  L β,µ (p, y) = L µ (p, y) + ρ ρ β T L

  2 · µ ¶ ¸ 1 β β T T − β

  • = (1 + β ) L µ (p, y) + ρ ρ ρ ρ − β 1 + β

  2 2(1 + β ) − β − β

  1 = [ξh (p, y) + (1 (p, y)]

  1

  2

  − ξ)h ξ

  1 = θ ξ (p, y)

  ξ Onde:

  1 ξ = 1 + β

  − β r

  X T L µ (p, y) = f (t) ln s i + y ρ,

  − µ i

  =1 T

  h (p, y) = L µ (p, y) + 0, 5βρ ρ,

  1 T

  h

  2 (p, y) = 0, 5ρ ρ

  θ ξ (p, y) = σh (p, y) + (1 (p, y)

  1

  2

  − ξ)h l Portanto, a seq¨ uˆencia de minimiza¸c˜ao irrestrita da fun¸c˜ao de m´erito (p, y) em p β ,µ k L

  1

  para a seq¨ uˆencia n˜ao decrescente 2r o µ ≤ β ≤ β ≤ ... ≤ β ≤ ... ´e equivalente a minimiza¸c˜ao irrestrita da fun¸c˜ao θ ξ (p, y) em p para a seq¨ uˆencia n˜ao crescente 1 = ξ k

  ≥

  1 ξ > 0.

  ≥ ... ≥ ξ l Suponha por absurdo que a seq¨ uˆencia primal

  {p } seja ilimitada. Relembrando que lim min g i (t) =

  −∞

  1≤i≤m l l l l ||t||→∞

  pela condi¸c˜ao (C3) e como = h (p , y)

  2

  {p } ´e ilimitada, ent˜ao a seq¨uˆencia {h

  2 }, onde h

  2

  ´e ilimitada e l lim sup h = + (3.24) ∞ k

  2 →∞ 0≤l≤k l

  Vamos renomear a seq¨ uˆencia q q q q q q q q q {p } como:

  • 1 +d
  • 1 1 +1 1 +d 1 k k +1 k +d k p = p , p , ..., p = p , p , ..., p = ... = p , p , ..., p , ... l k

      Para todo p , l = q k , ..., q k + d k corresponde ao mesmo valor de ξ . Para algum k, e

      An´alise de Convergˆencia

      79 , logo: k l l l l

      1

    • +1 − ξ +1

      h (h ) (3.25)

      1 − h 1 ≥ k 2 − h

      2

      ξ Substituindo na equa¸c˜ao (3.25) todo l = q k , ..., q k + d k q q k − 1 n´os obtemos: k k +d k − ξ k +d k k 1 q q h (h ) (3.26)

      1 − h 1 ≥ k 2 − h

      2

      ξ q k +d k k+1 q k +d k k+1 Ap´os a soma da inequa¸c˜ao (3.26) para todo k = 0, 1, ..., j e tendo em mente q q que h = h e h = h para k = 0, 1, 2..., j

      1

      1

      2 2 − 1, n´os obtemos j k q

      X j +d j q q

      1 − ξ i +d i i h (h ) (3.27)

      1 − h 1 ≥ k 2 − h

      2 i ξ =1

      Assumindo que l = q j + d j relembramos que j l i +d i i

      X q q lim sup h = lim sup (h ) = + k k

      2 2 − h 2 ∞ →∞ →∞ 0≤l≤k 0≤l≤k i k =1

      Como a seq¨ uˆencia k {ξ } ´e monotonicamene decrescente para zero, a seq¨uˆencia

      1 − ξ

      { } ´e mon´otona, crescente e ilimitada. Portanto, pelo lema 3.4 do anexo n´os k ξ temos: j i

      X

      1 q i +d i q i − ξ lim sup (h ) = + k i 2 − h 2 ∞ →∞

      ξ

      0≤l≤k i =1

      Utilizando (3.27) obtemos: l lim sup (h ) = + k 1 − h 1 ∞ →∞

      0≤l≤k

      ou seja, l lim inf h = k 1 −∞ →∞ 0≤l≤k l que contradiz o lema 3.2. Portanto, podemos concluir que a seq¨ uˆencia primal

      {p } gerada pelo algoritmo ´e limitada. l Agora falta mostrar que qualquer ponto limite da seq¨ uˆencia primal

      {t } ge- rada pelo algoritmo ´e na verdade um ponto de otimalidade de primeira ordem para An´alise de Convergˆencia 80 p = (e

      Uma condi¸c˜ao necess´aria para o par primal e t, es) minimizar a fun¸c˜ao de m´erito β,µ (p, y) em p ´e o seguinte sistema L T

      (y + βρ) = 0 ∇f(t) − A(t)

      (3.28)

      −1

      e + y + βρ = 0 −µS z = (e y = y + βρ satisfaz o sistema (3.28) ent˜ao a ´ unica raz˜ao para que

      Se e t, es, e y), onde e a fun¸c˜ao de m´erito ν µ z) n˜ao seja nula ´e a infactibilidade, ou seja, ρ(e (e l l l l l t, es) 6= 0.

      Consideremos a seq¨ uˆencia = (t , s , y ) gerada pelo algoritmo. A l {z }, z l seq¨ uˆencia = y para l . {y } j´a n˜ao muda mais, ent˜ao assumimos que y ≥ l

      De acordo com o algoritmo para a seq¨ uˆencia de aproxima¸c˜oes primais na busca de um valor m´ınimo para a fun¸c˜ao de penalidade β,µ (t, s, y), n´os temos: k k T k k k k L ) ) (y + β ρ(t , s )) = Υ

      ∇f(t − A(t n (3.29)

      −1 k k k k

      −µS k r e + y + β ρ(t , s ) = Υ k k onde lim Υ = 0 e lim Υ = 0. k →∞ k →∞ n r k k Se a seq¨ uˆencia primal , s

      {t } satisfaz o sistema (3.30) ent˜ao satisfar´a o se- guinte sistema: k k T k Υ

      ) A(t ) y n ∇f(t k k k

      − β β β k k k (3.30)

    • A(t )ρ(t , s )) = k k k

      S Υ y r −µ + S k k k k k + S ρ(t , s ) = k k β β

      Como a seq¨ uˆencia , s ) {(t } ´e limitada, n´os temos: k k k k →∞ lim A(t )ρ(t , s ) = 0, k k k lim (s i (t ))s = 0, i = 1, ..., r (3.31) i i k →∞ − g k k →∞ lim s i ≥ 0, i = 1, ..., r

      Observe que as condi¸c˜oes (3.31) s˜ao na verdade as condi¸c˜oes de otimalidade de primeira ordem para o problema

      Conclus˜ao

      81 ¤

      Note que a garantia oferecida por este teorema ´e de que h´a convergˆencia para pontos que minimizem a viola¸c˜ao das restri¸c˜oes originais do problema 3.5 `a medida que minimiza a fun¸c˜ao objetivo deste mesmo problema, ao minimizar a fun¸c˜ao de m´erito β,µ (t, s, y). L

      Conclus˜ ao

      Um problema de seq¨ uenciamento job-shop certamente constitui um desafio como problema de programa¸c˜ao matem´atica. Pela an´alise do modelo cont´ınuo adotado, percebe-se a dificuldade a ser enfrentada primeiro por se tratar de um problema n˜ao convexo e, al´em disto, por n˜ao podermos garantir a minimalidade nem mesmo local para pontos de otimalidade de primeira ordem. Como o m´etodo de pontos interiores faz uma busca por pontos de otimalidade de primeira ordem para o problema em quest˜ao, foi preciso guiar esta busca a fim de garantir o decrescimento da fun¸c˜ao objetivo. Para tanto, utilizamos o Lagrangeano aumentado que foi decrescido `a medida que buscamos pontos estacion´arios.

      Dentre as v´arias mudan¸cas que se fizeram necess´arias, destacamos aquela feita na matriz Hessiana do Lagrangeano. Apresentamos o impacto que esta mudan¸ca po- deria trazer na convergˆencia do problema dual e adotamos ent˜ao um processo de regu- lariza¸c˜ao da vari´avel dual al´em de maior cuidado na varia¸c˜ao desta vari´avel. Apesar de n˜ao podermos garantir a convergˆencia global o resultado ´e significativo j´a que estabe- lece um dire¸c˜ao de busca decrescente para a fun¸c˜ao objetivo respeitando as restri¸c˜oes originais do problema. Isto ´e relevante tendo em vista a dificuldade de resolu¸c˜ao do problema de job-shop.

      Pelas caracter´ısticas detalhadas em rela¸c˜ao a modelagem cont´ınua adotada, Conclus˜ ao Geral

      Inicialmente, verificamos atrav´es da descri¸c˜ao do problema de job-shop, cami- nhos diferentes para se tratar esse problema. A modelagem cont´ınua permitiu uma abordagem matem´atica direta do aspecto combinat´orio desse problema. Pelo estudo desse modelo foi poss´ıvel visualizar a dimens˜ao da dificuldade imposta na resolu¸c˜ao de problemas de seq¨ uenciamento job-shop. Por se tratar de um problema de programa¸c˜ao n˜ao conexo, n˜ao conseguimos garantias de obtermos um ponto de m´ınimo global para o problema em quest˜ao. Contudo, obtemos uma dire¸c˜ao de decrescimento para a fun¸c˜ao objetivo `a medida que buscamos pontos de otimalidade de primeira ordem.

      Mostramos, tamb´em, que as mudan¸cas feitas no m´etodo de pontos interiores permitiu encontrar essas dire¸c˜oes primais decrescentes para o Lagrangeano aumentado que foi utilizado como fun¸c˜ao de m´erito guiando o algoritmo por dire¸c˜oes que permi- tem a redu¸c˜ao da fun¸c˜ao objetivo escolhida para o seq¨ uenciamento. Devido a estrutura particular do job-shop foi poss´ıvel um ajuste relativamente f´acil da Hessiana do Lagran- geano. O adequado ajuste da Hessiana tornando a matriz normal N β definida positiva

      ´e fundamental para o decrescimento da fun¸c˜ao objetivo ao longo das itera¸c˜oes. Uma pequena amostra disto pode ser visto no problema-exemplo 2 visto anteriormente. Em casos gerais, ajuste similar pode ser feito conforme proposto por Griva et al [28]. Neste sentido, a associa¸c˜ao do m´etodo de pontos interiores com as t´ecnicas de otimiza¸c˜ao envolvendo o Lagrangeano aumentado, como foi feito nesse caso, pode ser estendido a outros caso de programa¸c˜ao n˜ao convexa.

      Conclus˜ao Geral 83 fato de poder apresentar resultados te´oricos que apontam numa dire¸c˜ao positiva para pr´atica em casos combinat´orios como este. N˜ao foi nossa proposta uma implementa¸c˜ao computacional adequada, mas diante do que apresentamos, tal tarefa pode ser reali- zada devidamente fundamentada em bases matem´aticas. Tamb´em deixamos claro as dificuldades inerentes ao pr´oprio problema que permanecem como um desafio para a efetiva solu¸c˜ao deste. Uma id´eia disto ´e poss´ıvel sentir atrav´es da resolu¸c˜ao de um pequeno exemplo como foi o nosso caso.

      Acreditamos acima de tudo, que as an´alises aqui realizadas servem de ponto de partida para v´arias outras pesquisas futuras envolvendo o m´etodo de pontos interiores como alternativa para problemas de seq¨ uenciamento job-shop. Assim, consideramos como a principal motiva¸c˜ao para um trabalho futuro, a busca de uma implementa¸c˜ao computacional mais adequada da metodologia aqui apresentada. Para efetiva¸c˜ao deste intento, ser´a preciso testes pr´aticos a fim de adequar os parˆametros a casos gerais. Dentre outras coisas, destacamos como um dos ´ıtens a ser analisado, o estudo de formas efetivas para obten¸c˜ao de um ponto de partida interior adequado. Como visto na se¸c˜ao 3.2.3 pontos fact´ıveis distintos podem apresentar resultados diferentes. Em nossa an´alise do ponto de partida consideramos inicialmente as sugest˜oes apresentadas tanto por Wright [57] como por Vanderbei e Shanno [56]. Entretanto, pela breve experiˆencia no caso pr´atico percebemos a necessidade de mudan¸ca, que foi feito no ajuste da vari´avel de excesso. Esta escolha adequada das vari´aveis de excesso e vari´aveis duais ´e real¸cada no exemplo ora citado. Neste caso particular, como o espa¸co de busca ´e muito pequeno a convergˆencia logo se torna lenta por se aproximar das extremidades da regi˜ao fact´ıvel e isto precisa ser estudado de forma mais ampla para casos de maior dimens˜ao. Vemos tamb´em, que seria ´ util agregar heur´ısticas adaptativas como algoritmo gen´etico para esta auxiliar na melhor sele¸c˜ao do ponto inicial.

      Gostar´ıamos ainda de destacar duas outras possibilidades para estudo. Primei- ramente, em virtude da grande complexidade computacional de problemas de job-shop, vemos como promissora a associa¸c˜ao desta metodologia com m´etodos de decomposi¸c˜ao. Conclus˜ao Geral 84 subproblemas tamb´em constituem problemas de job-shop, mas de menor dimens˜ao.

      Dessa forma, a metodologia de pontos interiores poderia ser usada como ferramenta de resolu¸c˜ao desses subproblemas.

      Por fim, uma outra abordagem a ser considerada seria a utiliza¸c˜ao de uma modelagem linear para o problema de job-shop o que permitiria a utiliza¸c˜ao de outras vers˜oes de m´etodo de pontos interiores que apresentam, nesse caso, uma convergˆencia super-linear (Wright [57], Mehrotra [39]). Entretanto, o aspecto combinat´orio, que vimos como uma das caracter´ısticas mais desafiadoras desse problema, deveriam ser tratadas por heur´ısticas como algoritmo gen´etico e simulated annealing ou por m´etodos de Branch-and-Bound. Bibliografia

      [1] Adams, J.; Balas, E. e Zawack, D. (1988) “The shifting bottleneck procedure for job shop scheduling”. Management Science, 34, 391-401.

      [2] Adler, I.;Karmarkar, N.; Resende, M.; Veiga, G.(1989) “An implementa- tion of Karmarkar algorithm for linear programming”. Mathematical Program- ming 44,297-332. [3] Alves, I. C. (2000)“Aplication de la Technologie de Groupes Et de la Relaxa- tion Lagrangienne au Probleme D’Ordennancement de Type Job-Shop”. Tese de

      Doutorado, Universit`e Blaise Pascal. [4] Akrotirianakis, I.; Rustem, B.(1997)“A Globally Convergent Interior Point

      Algorithm for General Non-Linear Programming Problems”. Technical Report 97/14, Department of Computing, Imperial College of Science, Technology and Medicine, London.

      [5] Azevedo, A.T.; Soares, S.; Oliveira, A.R.L.; Carvalho, M.F.H.(2002)“M´etodos de Pontos Interiores Aplicados a Problemas de Mul- tifluxo com Restri¸c˜oes Adicionais”. Tendˆencias em Matem´atica Aplicada e Computacional, 3, No. 1, 41-50.

      [6] Baker, K.R. (1974), “Introduction to sequencing and scheduling”. John Wiley e Sons, New York, USA. Referˆencias Bibliogr´aficas

      86 [8] Bazaraa, M.S.; Jarvis, J.J.; Sherali, H.F.(1990)“Linear Programming and Network Flows”. John Wiley e Sons, New York, USA, 380-418.

      [9] Benson, H.; Shanno, d.; Vanderbei, R.(2002)“Interior Point Methods for Nonconvex Nonlinear Programming: Filter Methods and Merit Functions”. Com- putational Optimization and Applications, 23:257-272.

      [10] Blazewicz, J.; et al.(1996)“Scheduling Computer Manufactoring Process”.

      Springer-Vertag, Berlin. [11] Blazewicz, J.(1987)“Selected Topics in Scheduling Theory”. Annals of Discrete Mathematics, vol.31, 1-60.

      [12] Carlier, J.; Pinson, E.(1987)“ A Branch and Bound Method for the Job-Shop Problem”. Technical Report Institut de Math´emathiques Appliqu´ees, Universit´e de Angers.

      [13] Carlier, J.; Pinson, E.(1989)“ An Algorithm for Solving the Job- Shop Pro- blem”. Management Science, vol. 35, No. 2, 164-176.

      [14] Castro, J.(2003): “Un Algoritmo de Punto Interior para Flujos Multiart´ıculo Cuadr´aticos”. XXVII Congresso Nacional de Estad´ıstica e investigac´ıon Operativa, Lleida,It´alia.

      [15] Castro, J.(2000): “A Specialized Interior-point Algoritm for Multicommodity Network Flows”. SIAM J. on Optimization 10(3),852-877.

      [16] Castronuovo, E.D.; Campagnolo, J.M.; Salgado, J.(2000)“A Largest-Step Central-path Algorithm Applied to the Optimal Power Flow Problem”. SBA Con- trole e Automa¸c˜ao vol. 11 no. 3, 176-181.

      [17] El-Bakry, A.S.; Tapia, R.A.; Tsuchida, T.; Zhang, Y(1996)“On the For- mulation and T Theory of the Newton Interior-Point Method for Nonlinear Pro- gramming”. Journal of Optimization Theory and Application, Vol. 89, No. 3, pp. 309-332.

      Referˆencias Bibliogr´aficas

      87 [19] Fisher, M. L. (1973) “Optimal solution of scheduling problems using Lagrange multipliers: parte I”, Oper. Res, Vol21,1114-1127.

      [20] Fisher, M. L. (1973) “Optimal solution of scheduling problems using Lagrange multipliers: parte II”, In: Syposum on the theory of scheduling and its Applicati- ons, Springer, Bertin, 294-318. [21] Fisher, M.L.; Lageweg, B.J.; Lenstra, J.K.; Kan A.H.G.R. (1983) “Sur- rogate Duality Relaxation for job shop scheduling”, Discrete Applied Mathematics.

      Vol.5,65-75. [22] Freund, R.M.;Mizuno, S.;(1996),“Interior Point Methods: Current Status and future directions”. Optima, 51,1-9.

      [23] Fritzsche, Helmut(1978)“Programa¸c˜ao N˜ao-Linear: An´alise e M´etodos”. S˜ao Paulo: Editora Edgard Bl¨ ucher.

      [24] Garcia, H. et Proth, J.M.(1985)“Group Technology in Production Mana- gement: The Short Horizon Planning Level”. Appl. Stoch. Meth. and Data Analys.,vol. 1, No. 1, 25-34. [25] Goldberg, D.E.(1989) “Genetic Algorithms in Search: Optimization and Ma- chine Learning”. Addison-Wesley, Reading, MA.

      [26] Gondzio, J.; Sarkissian, R. e Vial, J.P.(1995) “ Using an Interior Point Method for the Master Problem in a Decomposition Approach”.European Journal of Operation Reseach, 101, 577-587

      [27] Granville, S.(1994) “Optimal Reactive Dispacht through Interior Point Method”.

      IEEE Trans. on Power Systems, vol.9, no. 1, pp.136-146. [28] Griva, I.; Shanno, D.F.; Vanderbei, R.J.(2004) “Convergence Analysis of a

      Primal-Dual Interior-Point for Nonlinear Programming”. Technical Report, Prin- ceton University, Department ORFE; Rutgers University, RUTCOR. Referˆencias Bibliogr´aficas

      88 [30] Johnson, D.S.; Sethi, R. e Garey, M.R.(1976)“The Complexity of Flowshop and Jobshop Scheduling”. Mathematics of oeration research, vol.1.

      [31] Karmarkar, N.(1984) “A new polinomial-time algorithm for linear program- ming”. Combinat´orica, Vol. 4, N

      o 4, 373-395.

      [32] Kranich, E.(1991)“Interior Point Methods for Mathematical Programming : A Bibliographi”. Diskussionsbeittrag, 171, Germany.

      [33] Kusiak A. (1989)“ Knowledge -based systems in manufacturing ”, Taylor & Fran- cis, New York.

      [34] Luenberger, D.G.(1984)“Linear and Nonlinear Programming”. Addison-Wesley Publishing Company.

      [35] Lenstra, J.K.; Rinooy Kan, A.H.G. (1977)”Complexity of machine scheduling problem”. Annals of Discrete Mathematics, vol.1, pp.343-363.

      [36] Mahey, P.(1987)“ Programa¸c˜ao N˜ao Linear: Uma Introdu¸c˜ao `a Teoria e aos Principais M´etodos”. Rio de Janeiro: Campus.

      [37] Megiddo, N.(1987)“Pathways to the Optimal set in linear Programming”. Pro- gress in Mathematical Programming: Interior Point and Related Methods Sprin- ger, New York, pp. 131-158. [38] Mehrotra,S.(1992) “On the Implementation of a Primal-dual Interior Point Method”. SIAM J. Optim. 2, 575-601.

      [39] Mehrotra,S.(1996) “Asymptotic convergence in a generalized method predictor- corrector”. Mathematical programming,74,11-28.

      [40] Muth, J.F.; Thompson, G.L.(1963). “Industrial Scheduling”. Prentice Hall, Englewood Cliffs, N.J.

      [41] Nesterov, Y.; Nemirovskii, A.S.(1994) “ Interior Point Polynomial Methods

      Referˆencias Bibliogr´aficas

      89 [43] Potra,F. A.; Wright, S.J. (2000)“Interior-point methods”.Journal of Compu- tational and Applied Mathematics, 124, 281-302.

      [44] Ramos, A. D.(2002)“M´etodo do Subgradiente Aplicado ao Job-Shop Decomposto pela Tecnologia de Grupo e Relaxa¸c˜ao Lagrangeana”. Disserta¸c˜ao de Mestrado, Universidade Federal da Bahia. [45] Renegar, J.(1988)“ A Polynomial-time Algorithm, Based on Newnton’s Method, for Linear Programming”. Mathematical Programming, 40, 59-93.

      [46] Santana, A. S.(2003)“M´etodo de Decomposi¸c˜ao de Dantzig-Wolfe Aplicado ao Problema Combinat´orio de Job-Shop”. Disserta¸c˜ao de Mestrado, Universidade Fe- deral da Bahia.

      [47] Schaal, A.; M’Silti, H.; Tolla, P. (1993) “Mod´elisation et Syst`emes Interactifs de Stocksli´es”. Technical Report, 117, Lamsade, Universit´e Paris-Dauphine.

      [48] Schaal, A. (1997) “Une Approche Hybride de R´esolution de Probl`emes Lin´eaires en Nombres Entiers : M´ethodes Int´erieures et M´eta Heuristiques”. PhD Thesis, Univerist´e Paris-Dauphine. [49] Schaal, A.; M’Silti, H.; Tolla, P. (1997) “Une Approche Hybride de R´esolution de Probl`emes Lin´eaires en Nombres Entier”. Technical Report, 145, Lamsade,

      Universit´e Paris-Dauphine. [50] Schaal, A.; M’Silti, H.; Tolla, P. (1997) “Comparison of Simulated Annealing and Genetic Algorithm Whith a Hybrid Method for General Integer Problems”.

      Technical Report, 147, Lamsade, Universit´e Paris-Dauphine. [51] Schaal, A.; M’Silti, H.; Tolla, P. (1999) “Meta Heuristics Diversification of

      Generalised Job-Shop Scheduling Based upon Mathematical Programming Techni- ques”. D.E.I.S. Universit´a Di Bologna.

      [52] Strusevich, V.A.(1997) “Shop scheduling problems under precedence cons- traints”. Annals of Operations Research, 69.

      Referˆencias Bibliogr´aficas

      90 [54] Sousa, V.A.; Costa, G.R.M.(2003) “Um m´etodo para Determina¸c˜ao das Barras

      Candidatas `a Aloca¸c˜ao de Reativos”. X Encuentro Regional Latinoamericano de la Cigr´e, Puerto Iguaz´ u, Argentina.

      [55] Thompson, G.L.; Muth, J.F. (1963)“Industrial Scheduling”. Garnegie Insti- tute of Technoly, 187-191.

      [56] Vanderbei, R.J.; Shanno, D.F. (1999)“An Inerior-Point Algorithm for Non- convex Nonlinear Programming”. J. Comput. Optm. Appl., 13, 231-253.

      [57] Wright, S.J.(1997)“Primal-Dual Interior-Point Methods”. SIAM, Philadelphia, PA.

      [58] Yamada, T.; Nakano, R.(1997). “Genetic Algorithms for Job-Shop Scheduling Problems”. Proc. of Modern Heuristics for Decision Suport, pages 67-81, UNICOM seminar, 18-19 March 1997, London.

      [59] Zwavaneld, C.M.; Van Wassenhove, L.N.; Sevast Javanov, S.V.; Potts, C.N. (1995)“The two-stage assembly scheduling problem: Complexity and Appro- ximation”. Operation Research, vol. 43.

      [60] Zhao, G.(1996)“Interior Point Methods With Decomposition For Linear Pro- grams”. Department of Mathematics National University of Singapoure.

      Anexo A T´ opicos de Programa¸c˜ ao N˜ ao-Linear

      O objetivo neste anexo ´e apresentar alguma defini¸c˜oes e teoremas referentes a programa¸c˜ao n˜ao linear que s˜ao importantes no escopo deste trabalho. As defini¸c˜oes aqui contidas tˆem como base os livros de Bazaraa [8] e Luenberg [34].

      A.1 Tipos de Fun¸c˜ oes n

      Definic ¸˜ ao A.1. Seja S um conjunto convexo n˜ao vazio e, f : S

      ∈ ℜ → R, ent˜ao podemos dizer que:

      1 , x

      2

    • A fun¸c˜ao f ´e cˆoncava em S se, dados x ∈ S ent˜ao f [λx

      1 + (1 2 ] 1 ) + (1 2 )

      − λ)x ≥ λf(x − λ)f(x para cada λ ∈ (0, 1). T´opicos de Programa¸c˜ao N˜ao-Linear T

      92 , x ) (x )

      

    1

      2

      1

      2

      1

    • A fun¸c˜ao f ´e dita pseudoconvexa em x ∈ S se ∇f(x −x ≥ 0 implicar que f (x ) ).

      2

      1

      ≥ f(x Observa¸c˜ ao A.1.

      Uma fun¸c˜ao convexa ´e pseudoconvexa conforme demonstrado em [8]. n Teorema

      A.1. Seja S um conjunto convexo n˜ao vazio e, f : S ∈ ℜ

      → R sendo duplamente diferenci´avel em S. Ent˜ao, f ´e convexa se e somente se a sua matriz hes- siana for positiva semidefinida para cada ponto de S. Analogamente, ela ser´a cˆoncava se e somente se a sua matriz hessiana for negativa semidefinida. n Teorema

      A.2. Seja S um conjunto convexo n˜ao vazio e f : S ∈ ℜ

      → R sendo diferenci´avel em S. Ent˜ao, f ´e convexa se e somente se T f (y) (y − f(x) ≥ ∇f(x) − x) para qualquer x, y

      ∈ S. Analogamente, ela ser´a cˆoncava se e somente se T f (y) (y − f(x) ≤ ∇f(x) − x) para qualquer x, y

      ∈ S n Corol´ ario A.1. Seja S um conjunto convexo n˜ao vazio e f : S

      ∈ ℜ → R linear, ent˜ao f ´e convexa e cˆoncava simultaneamente.

      As demonstra¸c˜oes dos teoremas A.1 e A.2 podem ser encontradas em Bazaraa [8].

      

    A.2 Condi¸c˜ oes de Otimalidade para Problemas com

    Restri¸c˜ oes

      T´opicos de Programa¸c˜ao N˜ao-Linear

      93 Teorema A.3. Condi¸c˜ ao de Primeira Ordem (Restri¸c˜ oes de Igualdade) Tome x sendo um ponto extremo local de f restrito a g(x) = 0. Assumindo m que x seja um ponto regular destas restri¸c˜oes (g(x) = 0). Ent˜ao, existe y tal que T ∈ R

      ∇f(x) + y ∇g(x) = 0 Neste contexto ´e conveniente introduzir o Lagrangeano associado com o pro- blema restrito, definido como: T g(x)

      L(x, y) = f(x) + y As condi¸c˜oes necess´arias podem ser expressas como: x (x, y) = 0

      ∇L y (x, y) = 0 ∇L

      Teorema A.4. Condi¸c˜ oes Necess´ arias de Karush-Kuhn-Tucker (KKT) Seja X n n n um conjunto aberto n˜ao vazio em R , e tome f : R i : R

      →R e g →R para i = 1, ..., m. Considere o problema P de minimizar f (x) sujeito a x i (x) ∈ X e g ≤ 0 par i = 1, ..., m. Considere x sendo uma solu¸c˜ao fact´ıvel e denote I = i (x) = 0

      {i : g }. Suponha que f e g i para i = 1, ..., m s˜ao diferenci´aveis em x. Al´em disto, suponha que i (x) par i ∇g ∈ I s˜ao linearmente independentes. Se x ´e solu¸c˜ao local do problema P , ent˜ao existem escalares u i

      ∀i ∈ I tal que: P u i i (x) = 0

      ∇f(x) + i ∇g

      ∈I

      u i g i (x) = 0 para i = 1, ..., m u i para i = 1, ..., m ≥ 0 A prova completa deste teorema pode ser encontrada em [34] e [8].

      As condi¸c˜oes de KKT podem alternativamente ser escritas de forma vetorial, assumindo as condi¸c˜oes anteriores, como:

      T´opicos de Programa¸c˜ao N˜ao-Linear T

      94 Onde g(x) ´e a transposta da jacobiana de g em x e u ´e um vetor com os multiplicadores de Lagrange.

      Teorema A.5. Condi¸c˜ oes Suficientes de Segunda Ordem (Restri¸c˜ oes de Igual- dade) m Suponha que exista um ponto x satisfazendo g(x) = 0, e x tal que T ∈ R

      ∇f(x) + y ∇g(x) = 0 Suponha tamb´em que a Hessiana do Lagrangeano m

      X

      2

      2 H(x) = f (x) + y i g i (x)

      ∇ ∇ x i

      =1

      seja positiva definida em M = T {y : ∇g(x)y = 0}, isto ´e, para y ∈ M e y 6= 0, ent˜ao y H(x)y > 0. Ent˜ao x ´e um ponto de m´ınimo local de f sujeito a g(x) = 0. n Teorema A.6. Seja X um conjunto aberto n˜ao vazio, e tome as fun¸c˜oes f : n n i : ∈ ℜ ℜ → R e g ℜ → R, i = 1, ..., m. Considere o problema P de minimizar f(x) sujeito a x i (x)

      ∈ X e g ≤ 0 para i = 1, ..., m. Considere x sendo uma solu¸c˜ao que atenda `as condi¸c˜oes de KKT A.4 e denotemos I = i (x) = 0 {i : g }. Ent˜ao se f ´e pseudoconvexa em x, e se g i , i

      ∈ I s˜ao convexas em x, logo x ´e uma solu¸c˜ao ´otima global para o problema P .

      Prova Tome x sendo uma solu¸c˜ao fact´ıvel para o problema P . Para i i (x)

      ∈ I, g ≤ g ( x), e como g i (x) i (x) = 0 ent˜ao, pela convexidade de g i em x, temos que ≤ 0 e g i (x) (x i (x) i (x) (A.1) T

      ∇g − x) ≤ g − g ≤ 0 Multiplicando pelos respectivos multiplicadores de Lagrange y i referentes `as condi¸c˜oes

      P T T´opicos de Programa¸c˜ao N˜ao-Linear

      95 Retornando ao problema (3.1) verificamos que suas restri¸c˜oes diferem em rela¸c˜ao ao teorema A.6 por serem restri¸c˜oes n˜ao negativas. Isto implica que equa¸c˜ao A.1 n˜ao ´e verdadeira. Como g i (x) T ≥ 0, temos

      i (x) (x i (x) i (x) i (x) (A.2)

      ∇g − x) ≥ g − g ≥ g ≥ 0 P T

      Desta forma, n˜ao h´a garantia quanto ao sinal de [ y i i (x) ](x i ∈I ∇g − x) e por conseguinte, n˜ao podemos afirmar que um ponto que atenda `a primeira condi¸c˜ao de KKT seja um ponto ´otimo para o problema de job-shop.

      A.3 Regra de Armijo

      Existem v´arias regras para a sele¸c˜ao do passo α em algoritmos de busca em linha. A regra de Armijo ´e uma regras mais simples e eficaz. Ela ser´a usada na redu¸c˜ao do passo α com a finalidade de garantir a convergˆencia a cada itera¸c˜ao do m´etodo de pontos interiores conforme apresentado na se¸c˜ao 3.2.1.

      A id´eia b´asica desta regra ´e garantir que o tamanho do passo n˜ao seja t˜ao k k grande nem t˜ao pequeno. Consideremos um ponto z e uma dire¸c˜ao primal tais k k k △p que ) ), >< 0 e α

      ∇f(z 6= 0, < ∇f(z △p ∈ (0, 1).. Existe χ = χ(α) > 0 tal que: k k k k k f (z + α ) ) ), >, η △p − f(z ≤ ηα < ∇f(z △p ∈ (0, χ)

      Essa condi¸c˜ao evita passos grandes. Por´em, passos pequenos s˜ao inevit´aveis, simplesmente porque passos grandes podem n˜ao permitir um decr´escimo adequado, k mas ´e importante tent´a-los. Por isso assumimos o primeiro passo sendo η = 1 e diminu´ımos o passo sem exageros at´e que a condi¸c˜ao de Armijo seja satisfeita. T´opicos de Programa¸c˜ao N˜ao-Linear n

      96 Definic ¸˜ ao A.3. Sendo f e g fun¸c˜oes cont´ınuas em , considere o problema: ℜ

      M in. f (x) (A.3) s.a. g(x) = 0

      A fun¸c˜ao de penalidade (m´erito) permite trocar o problema (A.3) por um problema irrestrito da forma Minimizar f (x) + cP (x) (A.4) n onde c ´e uma constante positiva e P ´e uma fun¸c˜ao em satisfazendo:

      ℜ

    • P ´e cont´ınua, n

      ,

    • P (x) ≥ 0 ∀x ∈ ℜ • P (x) = 0 se e somente se g(x) = 0.

      Idealmente, quando c → ∞ o ponto de solu¸c˜ao do problema penalizado A.4 convergir´a para a solu¸c˜ao do problema restrito A.3. Anexo B Algoritmos Sugestivos

    B.1 Algoritmo para ajuste da matriz Normal N

      β In´ıcio

      Tome b N = N , χ = 0 ξ = 4. max(

      |h ii |), C = 0 n

      ×n

      Enquanto χ > 0, ent˜ao: H = H + 4λξI;

      Para i = 1, 2, ..., n y = y + c(k, i)

      2

      ; χ = h(i, i)

      − y;; se χ > 0, ent˜ao c ii = √

      A x=0; Para j = 1 : n, para k = 1 : i

      − 1, x= x+(c(k,i)c(k,j)); se i < j ent˜ao c(i, j) = (h(i, j)

      − x)/c(i, i) se i > j ent˜ao c(i,j)=0 se χ xi +1 Algoritmos Sugestivos

      98 B.2 Algoritmo sugestivo de MPI Este algoritmo ´e uma adapta¸c˜ao do algoritmo proposto por Griva, et al [28] e foi usado para resolu¸c˜ao do problema-exemplo 2 na se¸c˜ao 3.2.3.

      Passo 1: Inicializa¸c˜ ao: S˜ao dados: Uma aproxima¸c˜ao primal-dual z = (t , s , y ) = (p , y ) Uma constante ε > 0 usada como crit´erio de parada, Parˆametros 0 < η < 1; 0 < δ < 1; 0 < q < 1; ς > 0 Tome:

      ½ ¾

      1 z := z , τ := ν(z ), µ := δτ, τ µ = ν µ (z ), β := max 2µr , , l := 0 τ µ

      Passo 2: Se τ ≤ ε, Pare. Sa´ıda: z. Passo 3: Ajuste da matriz Normal conforme algoritmo apresentado se¸c˜ao anterior

      Descubra a dire¸c˜ao primal △z

      Defina l := l + 1 e κ := max {0, 95, 1 − τ}. p p d d Defina os tamanhos de passo α := α eα := α p d max max p := p + α y := y + α

      Defina e △p, e △y p p p Passo 4: Reduza α at´e que β,µ (p + α β,µ (p, y) < β,µ (p, y), p L △p, y) − L ≤ ηα ∇L △p > p := p + α

      Fa¸ca e △p Passo 5: Se p β,µ p,y p) p)

      ( e ) ||∇ L || > ς||ρ(e || ou y + βρ(e 0 v´a para Passo 3.

      Passo 6: p). e y := y + βρ(e

      Se ν µ p, β := 2β, v´a para o passo 2.

      (e z) > qτ , Tome p := e z) Passo 7: Se ν(e ≤ qτ, tome τ := ν(ez), µ := δτ.

      ½ ¾

      1 z, τ µ := ν µ z), β := max β, Tome z := e (e

      τ µ Passo 8: Se τ ≤ ε, Pare. Sa´ıda: z.

      Passo 9: V´a para o Passo 3

      Universidade Federal da Bahia-UFBa Instituto de Matem´atica/Depto. de Matem´atica

      Campus de Ondina, Av. Adhemar de Barros s/n, CEP:40170-110

Novo documento