Acoplamentos: Uma primeira visão e algumas aplicações

Livre

0
0
85
1 year ago
Preview
Full text

  

Weverthon Lobo de Oliveira

Acoplamentos: Uma primeira visão e algumas

aplicações

  

Vitória - Espírito Santo, Brasil

24 de junho de 2016

  

Weverthon Lobo de Oliveira

Acoplamentos: Uma primeira visão e algumas aplicações

  Dissertação apresentada ao Programa de Pós-graduação em Matemática da Univer- sidade Federal do Espírito Santo PPG- MAT/UFES, como parte dos requisitos para obtenção do título de Mestre em Matemá- o tica. Orientador: Prof Fábio Júlio da Silva

  Valentim .

  Universidade Federal do Espírito Santo Ű UFES Departamento de Matemática

  Programa de Pós-Graduação em Matemática

  

Orientador: Fábio Júlio da Silva Valentim

Vitória - Espírito Santo, Brasil

24 de junho de 2016

  

Dados Internacionais de Catalogação-na-publicação (CIP)

(Biblioteca Central da Universidade Federal do Espírito Santo, ES, Brasil)

Oliveira, Weverthon Lobo de, 1991- O48a Acoplamentos : uma primeira visão e algumas aplicações / Weverthon Lobo de Oliveira. – 2016.

  82 p. : il. Orientador: Fábio Júlio da Silva Valentim. Dissertação (Mestrado em Matemática) – Universidade Federal do Espírito Santo, Centro de Ciências Exatas.

  1. Probabilidades. 2. Acoplamentos. 3. Markov, Processos de.

  4. Pesquisa operacional. I. Valentim, Fábio Júlio da Silva. II. Universidade Federal do Espírito Santo. Centro de Ciências Exatas. III. Título.

  CDU: 51

  A Camilla, minha esposa.

  

Agradecimentos

A Deus, por ter me concedido a vida e forças para realizar este trabalho.

  À minha esposa Camilla, Por ser companheira e a motivação para seguir em frente. Aos meus pais Everton e Mara, pelos valores que me ensinaram e pelo carinho. Aos meus irmãos Mayara e Emilio, pelo afeto. Ao meu orientador, Prof. Dr. Fábio Júlio da Silva Valentim, por ter conĄado na minha capacidade em fazer este trabalho.

  Agradeço a CAPES pelo apoio Ąnanceiro.

  

Resumo

  Abordaremos a Teoria de Acoplamentos mostrando aplicações em problemas de Probabi- lidade e Análise, mais especiĄcamente, apresentaremos aplicações em dois contextos, que são as Cadeias de Markov e o Problema de Transporte Ótimo. O Capítulo 1 apresenta algumas noções preliminares que servem como base para a com- preensão deste trabalho, nele abordaremos noções de Probabilidade, Cadeias de Markov, Topologia, Funções Contínuas e Semicontínuas e Análise Convexa. Nos dois Capítulos seguintes serão apresentados os contextos principais com as suas res- pectivas aplicações, mais precisamente, reservaremos o Capítulo 2 para apresentar Aco- plamentos e algumas de suas aplicações em Cadeias de Markov, dando destaque para o cálculo do tempo de mistura de uma Cadeia de Markov e a demonstração do Teorema da Convergência via Acoplamentos. No Capítulo 3 abordaremos o Problema de Transporte Ótimo, que pode ser divido em ou- tros dois problemas, o Problema de Monge e o Problema de Kantorovich. Será apresentada a diferença entre os dois problemas, condições para existência de solução e a relação que existe entre os dois problemas e por Ąm apresentar uma sugestão de algoritmo que resolve o Problema de Kantorovich e demonstrar a Desigualdade Isoperimétrica via Problema de Monge.

  

Palavras-chaves : Acoplamentos. Cadeias de Markov. Problema de Monge. Problema de

Kantorovich. Transporte Ótimo.

  

Abstract

  We will cover the Couplings Theory showing applications in Probability and analysis of problems, more speciĄcally, exhibit applications in two contexts, which are the Markov Chain and Optmal Transport Problem.

  Chapter 1 presents some preliminary ideas which serve as a base for understanding this work, we will cover Probability notions, Markov Chains, Topology, Continuous Functions and semicontinuous and Convex Analysis. In the next two chapters will be presented the main contexts with their respective ap- plications, more precisely, reserve the Chapter 2 to display Couplings and some of its applications in Markov chains, highlighting the calculation of mixing time of a Markov Chain and the proof of Theorem of Convergence via couplings.

  Chapter 3 will discuss the Transportation Problem Great, which can be divide in two prob- lems, the Monge problem and Kantorovich problem. the difference will be presented be- tween the two problems, conditions for solution of existence and the relationship between the two problems and Ąnally present an suggestion algorithm that solves Kantorovich problem and demonstrate the isoperimetric inequality via Monge problem.

  

Key-words : Couplings. Markov chains. Monge problem. Kantorovich problem. Optmal

transport.

  

Sumário

1 PRELIMINARES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

2 ACOPLAMENTOS . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

  

  

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

  . . . . . 72

  

  . . . . . . . . . . . . . . . . . . . . . . . . 69

  

  . . . . . . . . . . . . . 61

  

  . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

  

. . . . . . . . . . . . . . . . . . 44

  

  

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

  

. . . 39

  . . . . . . . . . . . . . . . . . . . . . . . . 33

  

  . . . . . . . . . . . . . . . . . . . . . 31

  

  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

  

  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

  

  . . . . . . . . . . . . . . . . . . . . . . . . . 17

3 PROBLEMA DE MONGE KANTOROVICH . . . . . . . . . . . . . 53

  SUMÁRIO

Introdução

  Neste trabalho apresentaremos uma ferramenta bastante aplicável em diversas áreas, a teoria de acoplamentos. Dando destaques a dois tipos de aplicações: Cadeias de Markov e Problema do Transporte Ótimo.

  Apresentaremos Cadeias de Markov (com espaço de estados Ąnitos e homogênea no tempo) de um modo mais geométrico, como um passeio aleatório em um grafo, com o intuito de tornar mais claras as aplicações de acoplamentos nessas Cadeias, a referência básica se encontra em Uma das aplicações que será apresentada é o cálculo do tempo ∈N de mistura da Cadeia de Markov, em outras palavras, dada uma Cadeia de Markov ¶ ♢ em Ω com a matriz de transição e um única distribuição estacionária Þ, estimar o tempo que leva para a distância de variação total entre Þ e

  ( , ≤) seja menor que um > 0 dado, para todo ∈ Ω. Outra aplicação que será feita nesse trabalho é a demonstração do Teorema da Convergência que mostra que se a Cadeia de Markov é Aperiódica e Irre- dutível, então para todo ∈ Ω temos ( , ≤) converge para sua distribuição estacionária

  Þ em tempo exponencial.

  No Problema de Transporte Ótimo, dividiremos em dois problemas que são, pro- blema de Monge e Problema de Kantorovich. O Problema do Transporte Ótimo infor- malmente pode ser descrito do seguinte modo. Considere o conjunto das Ąliais de uma empresa que fabrica refrigerantes e uma grande franquia de lanchonetes, com Ąliais 1 , , , , 2 1 2

  = ¶ ≤ ≤ ≤ , ♢ e = ¶ ≤ ≤ ≤ , ♢. Deve-se transportar produtos da empresa , na qual a proporção fabricada por cada Ąlial é associada a uma medida de probabi- lidade Û, para , cuja demanda de cada fábrica também está associada a uma medida de probabilidade Ü. Cada Ąlial produz uma determinada quantidade de refrigerantes e cada Ąlial precisa de uma determinada quantidade do produto de .

  , ) signiĄca o custo do

  Considere uma função custo : × ⊃ R, onde ( transporte por unidade de para . O objetivo do problema é transportar os produtos da empresa para com o menor custo.

  O Problema de Monge é o Problema de Transporte Ótimo cujo o transporte é dado por

  ,

  ) é a quantidade de refrigerantes transportados uma aplicação : ⊃ , onde ( de para , e o Problema de Kantorovich, que é um versão fraca de Monge, consiste em encontrar um acoplamento de Û e Ü que minimize o custo.

  No decorrer do trabalho vamos fazer uso de algumas noções preliminares e apresentar alguns resultados de Análise Convexa baseando na referência O objetivo desse tra- balho é apresentar a importância da teoria de acoplamentos mostrando algumas de suas aplicações com exemplos intuitivos mas sem perder o rigor matemático.

1 Preliminares

  Neste capítulo faremos uma breve revisão dos conceitos e resultados que oferecem uma base para a compreensão deste trabalho. São relembrados alguns conceitos funda- mentais da teoria de Probabilidade, Cadeias de Markov, Topologia e Funções Contínuas e Semicontínuas. Por se tratar de noções Preliminares, não demonstraremos alguns resul- tados, mas caso o leitor deseje ver as provas ou ter uma profundidade maior dos assuntos tratados, recomenda-se as referências

1.1 Noções de Probabilidade Definição 1.1.1.

  (Álgebra de conjuntos) Considere Ω um conjunto não vazio e (Ω),

sendo ℘(Ω) o conjunto das partes de Ω uma família de subconjuntos de Ω, dizemos que

  é uma álgebra de conjuntos se cumpre as seguintes condições.

  a) Ω ∈ .

  ∈ .

  b) Se , então c) Se e então .

  Caso também satisfaça

  d) Se , , 1 2 ≤ ≤ ≤ ∈ então. =1 Diremos que é uma à-álgebra do conjunto Ω.

  Intuitivamente, dado um conjunto Ω queremos veriĄcar quais são os subconjuntos que podemos calcular sua probabilidade, ou ainda, queremos saber quais conjuntos so- mos capazes de medir. Como pode ser visto na teoria da medida, nem sempre é possível encontrar uma medida que seja capaz de medir qualquer subconjunto, para maiores deta- lhes veja o capítulo 3 da referência o mesmo ocorre em teoria de probabilidade, nem sempre somos capazes de atribuir uma probabilidade a todos os subconjuntos de Ω mas pelo menos a família de subconjuntos na qual atribui uma probabilidade (ou ainda, mensurável) forma uma álgebra ou à-álgebra de conjuntos. Com esta motivação, estudar mais propriedades dessa família é fundamental para o restante da teoria.

  Capítulo 1. Preliminares Proposição 1.1.2.

  b) (Ω) = 1;

  Definição 1.1.4.

  Então a função de probabilidade é à-aditiva.

  ∈ A são dois a dois disjuntos então ( ⋃︁ =1 ) = ∑︁ =1 ( ).

  d) (à-Aditividade). Se ∈N

  Caso a função satisfaça

  ≤ ≤ ≤ , ∈ ℱ são dois a dois disjuntos, então ( ⋃︁ =1 ) = ∑︁ =1 ( ).

  c) (Aditividade Ąnita). Se 1 ,

  a) ( ) ⊙ 0 para todo ∈ ℱ.

  Seja uma álgebra de subconjuntos de Ω, então possui as seguintes propriedades: a) ∅ ∈ ;

  (Medida de probabilidade) Seja ℱ ⊆ Ω uma à-álgebra de conjuntos e

dizemos que uma função : ℱ ⊃ [0, 1] é uma medida de probabilidade Ąnitamente aditiva

se cumpre as seguintes condições.

  Definição 1.1.3.

  Caso satisfaça. bŠ) Para todo ¶ ∈N ∈ temos =1 e =1. Chamamos de à-álgebra.

  

c) Se e , então , onde = = ¶ ; / .

  e =1.

  ≤ ≤ ≤ , temos =1

  b) Para todo ∈ N e para todo 1 , 2 ,

  (Espaço de probabilidade) Seguindo a notação acima, o trio , , ) é chamado espaço de probabilidade.

1.1. Noções de Probabilidade

  Vale ressaltar que essa parte inicial da teoria de probabilidade tem uma relação muito forte com a teoria da medida, mais precisamente, a medida de probabilidade é um exemplo de medida, para maiores detalhes veja o capítulo 3 da referência Um objeto que será bastante explorado para os nossos estudos é a variável aleatória portanto segue a sua deĄnição.

  Definição 1.1.5.

  (Variável aleatória) Seja , , ) um espaço de probabilidade, consi-

dere a função : Ω ⊃ R e o conjunto [ ] := ¶æ ∈ Ω; (æ) ⊘ . Dizemos que é

uma variável aleatória se para todo ∈ R, o conjunto [ ] ∈ ℱ .

  Exemplo 1.1.6.

  Lançar uma moeda vezes. Seja o número de caras realizadas então: 1 , æ 2 , ); æ

  ≤ ≤ ≤ , æ Ω = ¶(æ = .

  : Ω ⊃ R

  , æ ,

  (æ 1 2 ≤ ≤ ≤ , æ ) = número de ; æ = cara.

  Exemplo 1.1.7.

  (Uniforme discreto) Dizemos que é uma variável aleatória discreta que segue o modelo uniforme quando

  1 ( = ) =

  (1.1) = 1, 2, ≤ ≤ ≤ , . 1

, , ].

2 As vezes é denotado por [ ≤ ≤ ≤ , Neste caso, por Ω ser Ąnito, podemos considerar ℱ = (Ω).

  

Exemplo 1.1.8. (Modelo de Bernoulli) Dizemos que uma variável aleatória segue o

modelo de Bernoulli se i) Para todo ∈ Ω, ( ) = 0 ou ( ) = 1. ii) ( = 0) = 1 ⊗ e ( = 1) = .

  Em outras palavras, determina o sucesso ou fracasso de um experimento é como

lançar uma moeda com probabilidade de sair cara e expressa o resultado desse expe-

rimento.

  Em muitas situações práticas a informação do que ocorreu em uma determinado evento pode inĆuenciar nas probabilidades de outros eventos e é através dessa motivação que será apresentado o conceito de probabilidade condicional.

  Definição 1.1.9.

  (Probabilidade condicional) Seja , , ) um espaço de probabilidade.

  Capítulo 1. Preliminares

  ( )

  , ∈ ℱ.

  ( ) = ( ) No caso que ( ) = 0, deĄniremos ( ) = ( ).

  Como mostra a Ągura acima o símbolo ( ) signiĄca que queremos saber a proba- bilidade de ocorrer o evento sabendo que ocorre. Mas será que realmente para todo evento aleatório, ( ) deĄne uma probabilidade? para responder esta pergunta basta veriĄcar os axiomas:

  ( ) i) ( ) = ⊙ 0.

  ( ) ( )

  (Ω ∩ ) = = 1. ii) (Ω♣ ) =

  ( ) ( ) iii) Sejam 1 , ≤ ≤ ≤ ∈ ℱ dois a dois disjuntos então pela deĄnição de probabilidade con- ∞ ∩ ) ( dicional ( se ( ) são dois a dois disjuntos é óbvio que

  ♣ ) = =2 ( ) ( também são e

  ∩ ) =1 ( ∞ ∞

  ∩ ) ∑︁ ∑︁ =1 ∩ ) ( = = ( ). ( ) ( ) =1 =1

  Com isto (≤♣ ) é uma medida de probabilidade e consequentemente temos ( ) = 1 ⊗ ( ). Se usar a deĄnição de probabilidade condicional com o principio de indução será obtido o seguinte teorema.

  Teorema 1.1.10.

  1.2. Cadeias de Markov i) ( ) = ( ) ( ) = ( ) ( ) para todo , ∈ ℱ. ii) ( 1 ) = ( 1 ) ( 2 1 ) ( 3 1 2 1 ⊗1 ).

  ∩ ≤ ≤ ≤ ∩ ∩ ≤ ≤ ≤ ∩ ) ≤ ≤ ≤ (

  Considere uma partição de Ω usando eventos , , 1 2 ≤ ≤ ≤ ∈ ℱ , ou seja, Ω = ∈N com ( ∈N são

  ∩ ) e ¶( )♢

  = ∅ se ̸= . Para todo ∈ ℱ temos = dois a dois disjuntos. A equação a seguir é chamada de teorema da probabilidade total. ∑︁ ∑︁ ( ) = ( ( ). =1 =1 ) = ) ( Usando a equação acima temos a fórmula de Bayes que é útil quando é conhecido as probabilidades dos e a probabilidade dado . A fórmula de Bayes é descrita como:

  ( ) ) ( ( . √︁

  ♣ ) = =1 ) ( ( )

  1.2 Cadeias de Markov

  O objetivo desta subseção é apresentar de forma introdutória, cadeias de Markov, um dos conceitos fundamentais deste trabalho. A ideia é apresentar cadeias de Markov de um modo mais intuitivo ou ilustrativo, para que sejamos capazes de criar bons exemplos e compreender com maior clareza a teoria apresentada neste trabalho. Por questão de objetividade, não vamos fazer todas as demonstrações, caso o leitor deseja se aprofundar neste assundo sugerimos que veja pelo menos os dois primeiros capítulos da referência

  Fixe um espaço de probabilidade (Ω, , ), um processo estocástico é deĄnido como uma coleção de variáveis aleatórias indexada por um parâmetro pertencente a um conjunto . Estamos interessados em processo com tempo discreto daí será tomado como conjunto de inteiros não negativos e representa uma característica mensurável de interesse ( estado) no instante .

  O exemplo a seguir irá trazer uma noção intuitiva da cadeia de Markov e logo após será deĄnido de modo mais preciso.

  Exemplo 1.2.1.

  Um certo sapo que mora em uma determinada lagoa com duas pétalas:

Leste e Oeste. Em cada pétala existe uma moeda (não necessariamente moedas justas).

Toda manhã o sapo joga a moeda, se der cara o sapo permanece na pétala e se der coroa

o sapo se muda para a outra pétala.

  Digamos que se o sapo estiver na pétala leste, a probabilidade de jogar moeda e o

resultado ser coroa é e se o sapo estiver na pétala oeste então a probabilidade de sair

, 1 ,

  ≤ ≤ ≤ ) os estados de hoje, amanhã

  coroa é , em outras palavras, Ω = ¶ , , e seja (

e assim por diante. O objetivo deste exemplo é estudar o movimento do sapo com o passar

  Capítulo 1. Preliminares

  Figura 1 Ű Sapo na pétala oeste. Fonte: referência

  

do tempo e tentar descobrir a probabilidade em que o sapo Ąca na pétala leste ou oeste. A

matriz de transição é dada por: ⎡ ⎤ ⎡ ⎤

  ( , ) ( , ) ⨄︀ ⋀︀ ⨄︀ ⋀︀ 1 ⊗ = = . ( , ) ( , ) 1 ⊗

  A primeira linha da matriz signiĄca a distribuição da probabilidade do sapo ocupar os

estados no instante + 1 dado que no estado , o sapo estava na pétala leste. A segunda

linha da matriz signiĄca a distribuição da probabilidade do sapo ocupar os estados no

instante + 1 dado que no estado , o sapo estava na pétala oeste.

  Vamos assumir que o sapo começa da pétala leste (Û = (1, 0)) e que para todo ,

  = 0 signiĄca que no i-ésimo dia o sapo estava na pétala oeste e se = 1 o sapo

  

estava na pétala leste. No dia seguinte, como a probabilidade do sapo sair da pétala é e

a probabilidade de Ącar é 1 ⊗ então: 1 1

  ¶ = 1♣ = 1♢ = 1 ⊗ e = 0♣ = 1♢ = .

  E o que acontece no segundo dia? se 2 = 1 então pode ter acontecido de 1 = 1 ou 1 = 0 analogamente se = 0. Em outras palavras 2

  2 2

  ¶ = 1♣ = 1♢ = (1 ⊗ )(1 ⊗ ) = 0♣ = 1♢ = (1 ⊗ ) + (1 ⊗ ).

  Podemos ver pelo o que foi apresentado acima, que se a cadeia aomeça com uma

distribuição inicial Û , então denotando a distribuição de probabilidade da cadeia após

passos com Û obtemos Û 1 = Û e Û 2 = Û 1 mais geralmente, usando indução, temos que para todo inteiro.

  Û = Û . (1.2) , 1 ,

  ≤ ≤ ≤ ♢ deĄnida acima é uma cadeia de Markov. Note que no -

  A sequência

ésimo dia, para determinar o valor +1 basta somente conhecer , e extraindo esta

propriedade chegamos a deĄnição da cadeia de Markov.

1.2. Cadeias de Markov

  

Definição 1.2.2. (Cadeia de Markov homogénea no tempo) Uma sequência de variáveis

aleatórias ( , , 1

  ≤ ≤ ≤ ) é uma cadeia de Markov homogénea no tempo com espaço de

  

estado Ąnito Ω e matriz de transição se para todo , ∈ Ω, para todo ⊙ 1 e para todo

⊗1 evento = = ⊗1 ⊗1 =0 que satisfaz ( ∩ ¶ = ♢) > 0 se cumpre +1 ⊗1 +1 (1.3) ¶ = ♣( ∩ ¶ = ♢)♢ = = = ♢ = ( , ).

  A expressão anterior nos diz que conhecendo o estado presente = o estado +1

  ¶ = não depende de todo o seu passado, como se a cadeia perdesse a memoria e

  

se preocupasse apenas com o instante , além disso a probabilidade condicional do processo

fazer a transição do estado para o estado pode ser descrita através de uma matriz de

ordem ♣ Ω ♣ × ♣ Ω ♣.

  Vale ressaltar que o lado direito da equação nos permite concluir que a distribuição de probabilidade da cadeia iniciando no estado após passos é a -ésima linha da matriz que denotamos por

  ( , ≤). Uma maneira geométrica de interpretar cadeias de Markov, em espaço de estados

  Ąnitos é via passeio aleatório sobre um grafo, indiretamente esta abordagem foi usada no exemplo do sapo. Será apresentada a deĄnição de grafo e posteriormente exemplos de passeios aleatórios.

  Definição 1.2.3.

  (Grafo) Um grafo = ( , ) consiste em um conjunto de vértices e um conjunto de arestas . Onde é formado por pares de vértices.

  ⊆ ¶¶ , ♢; , , ̸= . Quando ¶ , ♢ ∈ usaremos o símbolo signiĄca que é vizinho de , ou seja, que e formam uma aresta. O grau de , denotado por ( ), é o números de vizinho de .

  

Definição 1.2.4. (Passeio aleatório) Dado um conjunto Ω e um grafo = (Ω, ), deĄni-

mos um passeio aleatório em um grafo por uma sequência de variáveis aleatórias ( ) =0 onde para cada temos
  • +1

    ∈ Ω e que = = > 0 se, e somente se, .

  Exemplo 1.2.5.

  Um passeio aleatório no -ciclo é uma cadeia de Markov cujo estados

são situados em pontos do círculo com a transição ocorrendo apenas com os seus vizinhos

(observe a Ągura).

  Definição 1.2.6.

  (Passeio aleatório simples) Dado um grafo = ( , ) um passeio

aleatório simples em é uma cadeia de Markov em tal que a matriz de transição é da

forma

  Capítulo 1. Preliminares Figura 2 Ű Um exemplo de um 10-ciclo. ∏︁ ⨄︁ ⋁︁ ⋁︁ ≍ ⋁︁ ⋁︁

  1 ( )

  ( , ) = ⋁︁ ⋁︁ ⋁︁ ⋁︁

  contrário onde ( ) é o número de vizinhos do estado .

  Exemplo 1.2.7. (n-ciclo) Seja Z

  = ¶0, 1, ≤ ≤ ≤ , ⊗ 1♢ e considere a seguinte matriz de

  transição ∏︁ ⋁︁ ⋁︁ ⋁︁ = + 1( ) ⋁︁ ⋁︁

  1 ⋁︁ ⋁︁ ⋁︁ ⨄︁ ⋁︁ ⋁︁ ⋁︁

  2

  1 ( , ) = ⋁︁ ⋁︁ ⋁︁ = ⊗ 1( ). ⋁︁ ⋁︁ ⋁︁ ⋁︁ ⋁︁ ⋁︁ ⋁︁ ⋁︁

  2 0 á O exemplo a seguir mostra que dado um grafo é possível associa-lo a uma cadeia de Markov em como um passeio aleatório em . Reciprocamente, dada uma cadeia de Markov ( ) em Ω, podemos associar um passeio aleatório usando o fato de Ω ser =0 um conjunto Ąnito e usando a matriz de transição para construir as arestas que são as entradas não nulas e assim construímos o grafo = (Ω, ) e interpretamos a cadeia de Markov como um passeio aleatório em Ω.

  Exemplo 1.2.8.

  Considere uma cadeia de Markov em Ω cujo a matriz de transição é dada por:

  1.2. Cadeias de Markov ⎡ ⎤ ⋁︀ ⎥ ⋁︀ 0, 6 0, 4 ⎥ ⋁︀ ⎥ ⋁︀ ⎥ 0, 6 0, 2 0, 2

  = ⨄︀ ⋀︀ ⋁︀ 0, 3 0, 4 0, 3 ⎥ ⋁︀ ⎥ 0, 3 0, 7 portanto podemos construir um grafo = (Ω, ) e um passeio aleatório em que representa a matriz de transição : 0.4

  0.6 0.6 0.2

  2 0.3 0.4

  1 0.3 0.2 0.3

  3

  4

0,7

Exemplo 1.2.9. Considere um grafo em um -ciclo, dizemos que a cadeia de Markov

é preguiçosa, quando tem probabilidade 0, 5 de permanecer onde esta, com probabilidade

1

  ∈ [0, ] de mover no sentido horário e probabilidade 0, 5 ⊗ de mover no sentido anti- 2 horário.

  Vimos pela seção anterior que toda cadeia de Markov pode ser vista como um passeio aleatório em um grafo e a partir desta ilustração pretende-se estudar o comportamento da cadeia quando o tempo tende ao inĄnito, em outras palavras, a tentativa é agora tentar responder a seguinte pergunta: Dada uma cadeia de Markov ( ) com a matriz =0 de transição , existe alguma distribuição Þ tal que Þ = Þ ? Þ é única? essas perguntas motivam a nossa próxima deĄnição. Definição 1.2.10.

  (Distribuição estacionária) Dada uma cadeia de Markov ( ) com =0

a matriz de transição , uma distribuição Þ é dita distribuição estacionaria se Þ = Þ .

  Exemplo 1.2.11.

  No exemplo do sapo temos que ⎡ ⎤ ⎡ ⎤

  ( , ) ( , ) ⨄︀ ⋀︀ ⨄︀ ⋀︀ 1 ⊗ . = =

  ( , ) ( , )

  Capítulo 1. Preliminares Þ = ( , ), é estacionária, pois Þ = Þ. + +

  Note que a distribuição Þ é estacionaria signiĄca veriĄcar o seguinte sistema linear com ♣Ω♣ + 1 equações ∑︁

  Þ ( ) = Þ ∈Ω ∑︁ ( ) ≤ ( , ) ∀ ∈ Ω. ∈Ω Þ ( ) = 1.

  Dada uma cadeia de Markov ( ) não esta claro que esta cadeia possui uma única =0 distribuição estacionária e nem garantimos a sua existência, para uma discussão com mais detalhes sobre esses questionamentos recomenda-se a referência Vamos apresentar o teorema, cuja a demonstração está na referência acima, de uma condição que garante a existência e unicidade da distribuição estacionária, mas antes segue algumas deĄnições. Definição 1.2.12.

  (Irredutível) Uma cadeia de Markov ( ) com matriz de transição =0 é dita ser irredutível se para quaisquer dois estados e ∈ Ω existe algum número inteiro (possivelmente dependente de e ) tal que ( , ) > 0.

  Intuitivamente signiĄca que dados dois estados e sempre é possível sair do estado e após passos chegar no estado para algum inteiro.

  Teorema 1.2.13.

  Seja uma matriz de transição irredutível da cadeia de Markov. Então existe e é única distribuição estacionária Þ.

1.3 Topologia

  Nesta seção vamos estudar de modo diagonal sobre topologia, apesar desse assunto ser bastante amplo, vamos apenas nos concentrar em conceitos que serão utilizados no decorrer deste texto. Para um aprofundamento dos tópicos apresentados veja as referências

  Definição 1.3.1.

  (Topologia) Considere Ω um conjunto não vazio qualquer e á ⊆ Ω uma

família de subconjuntos, então dizemos que á é uma topologia de Ω se satisfaz as seguintes

condições.

  a) Ω, ∅ ∈ á.

b) Se , ,

  1 2 Ð Ð ≤ ≤ ≤ , á, entãoá. =1 c) ; Ð ♢ ⊆ á, entãoá. Ð

  Os elementos da topologia são chamados de abertos, e o par (Ω, á) é chamado de espaço topológico.

1.3. Topologia

  Exemplo 1.3.2. á

  = ¶∅, Ω♢ ou á = (Ω), que é o conjunto das partes de Ω, são chamados topologias triviais.

  Exemplo 1.3.3. Ω = R e considere á uma família de subconjuntos de R tal queá se, e somente se, para todo existe > 0; ( , + ) ⊆ .

  A topologia deĄnida acima é chamada de topologia da norma, as vezes é denotada por á . Note que de modo análogo se Ω é um espaço normado então á é bem deĄnido.

  Com o entendimento mais claro do que é uma topologia, é importante lembrar que algumas noções vistas em um curso de Análise na reta dependem da topologia, o que motiva revisitar esses conceitos.

  Definição 1.3.4.

  (Função contínua) Dados e dois espaços topológicos deĄni-se :

  ⊆ ⊃ contínua em se para todo aberto em tal que ( ) ∈ , tem-se ⊗1 ⊗1

  que ( ) é um aberto em , ou seja, ( ) = e é um aberto.

  Exemplo 1.3.5.

  Considere : R ⊃ R uma função qualquer e considere o espaços topo- lógico trivial (R, ℘(R)) no domínio da função, então é contínua.

  Fica claro pelo exemplo anterior, que a noção de continuidade depende da topologia a ser considerada, mas ao dizer que é continua sem fazer referencia da topologia, Ąca subtendido que a função é continua com respeito a topologia da norma.

  Definição 1.3.6.

  (Compacto) Considere um espaço topológico, então dizemos que um

subconjunto é compacto se toda cobertura de por abertos admite uma subcober-

tura Ąnita.

  Observe que, quanto mais abertos uma topologia possuir, menor é a chance de um conjunto ser compacto e maior é a chance de uma função ser contínua nesse espaço. A ideia é retirar alguns abertos da topologia da norma, de forma que preserve a continuidade dos funcionais lineares e consequentemente aumentar a chance de se obter um conjunto compacto.

  Fixada uma família de funções ℱ, existem topologias em um conjunto Ω para quais todos o elementos de ℱ são contínuos, à saber basta considerar (Ω, (Ω)). Outro fato é que a interseção de topologias ainda é uma topologia, e assim ao considerar uma topologia

  á

  , formada pela interseção de todas as topologias na qual todos o elementos de ℱ são contínuos, obtemos que á é a menor topologia que cumpre tal propriedade, em outras palavras, qualquer topologia á que cumpre a propriedade acima contém a topologia á e com essas observações deĄnimos.

  Definição 1.3.7.

  (Topologia gerada) Dada uma família de funções em Ω, a topologia

  Capítulo 1. Preliminares

Definição 1.3.8. (Topologia fraca) A topologia fraca em um espaço normado Ω é a menor

topologia relativamente à qual todo todos os funcionais lineares são contínuos. Denotare-

mos por á .

  Para encerrar a seção, apresentaremos algumas noções de espaços separáveis e con- vergência fraca que são fundamentais para a compreensão reĄnada de um dos grandes resultados do texto, que é o Teorema Fundamental do Transporte Ótimo e o Teorema de Prokhorov.

  Definição 1.3.9.

  ( Espaços separáveis) Dizemos que um espaço topológico é separável se existe um conjunto enumerável denso em , ou seja, = .

  Exemplo 1.3.10. R é separável, pois possui Q como um subconjunto enumerável e denso.

Exemplo 1.3.11. Um espaço métrico discreto é separável se, e somente se, é enume-

rável.

  Um fato interessante em espaços métricos separáveis, é que podemos supor sem perda de generalidade que toda cobertura aberta de é enumerável, esta propriedade conhecida como propriedade de Linderlof se justiĄca na proposição a seguir.

  Proposição 1.3.12.

  Seja um espaço métrico, então é separável se, e somente se, toda cobertura aberta de admite uma subcobertura enumerável.

Demonstração. Suponha que seja separável, então existe ⊆ enumerável e = .

  Considere , uma cobertura aberta de . Seja ℬ uma família formada por abertos que ′ ′ ∈ ℬ existe um conjunto ∈ de contém algum ponto de . Portanto para cada ℬ ′ ′ ′ ′

  ⊆ ⊆ . modo que ℬ , os conjuntos formam uma coleção enumerável

  Resta mostrar que forma uma cobertura de . De fato, dado qualquer ∈ , ′ ′ ⊆ e assim temos que ∈ para algum . Note que existe um aberto ℬ tal que ∈ ℬ ′ ′ ′ corresponde, na escolha feita acima que, existe no que implica que

  ∈ tal que cobre .

  Reciprocamente, para cada ∈ N, considere uma cobertura aberta formada por bolas 1 com raio centrada em cada elemento de , portanto temos uma cobertura aberta de

  , então podemos extrair uma subcobertura enumerável. Os centros de cada bola dessa subcobertura formam um conjunto enumerável 1 tal que todo ponto de dista menos que de algum ponto de . Segue que = é um subconjunto enumerável denso em . Definição 1.3.13.

  ♢ ⊆ ( )

  (Convergência fraca) Dizemos que uma sequência Û =1

converge fracamente para uma medida Û, se para toda função contínua e limitada ã,

1.3. Topologia ∫︁ ∫︁ ã Û ã Û.

  ⊗⊃ Exemplo 1.3.14.

  Considere nos conjuntos dos números reais uma sequência de

forma que a mesma converge para um número real . Então a medida Ó , converge

n

fracamente para a medida Ó (R) qualquer, note que, pela propriedade

. De fato, seja ã da continuidade da ã temos que. ∫︁ ∫︁ ã Ó = ã( ã Ó . n

  ) ⊗⊃ ã( ) = Definição 1.3.15.

  (Convergência em geral de probabilidade) Seja , ℱ) um espaço (mé-

trico) mensurável. Uma sequência de medidas de probabilidade, converge em geral

para medida de probabilidade , denotado por

  ⊃ , se ( ) ⊃ ( ) para todo ∈ ℱ com ( ) = 0. Onde é a fronteira do conjunto .

  Proposição 1.3.16.

  São equivalentes as seguintes sentenças a) converge fracamente para .

  b) lim sup ( ) ⊘ ( ), sempre que é fechado.

  c) lim inf ( ) ⊙ ( ), sempre que é aberto.

  d) .

  ( ), uma

  Demonstração. ( ) ⇒ ( ) Sejam um conjunto fechado qualquer, ( ) =

  métrica e para cada > 0 considere

  1 ( ) = ( ( , )), > 0 onde

  ( , ) = inf¶ ( , ); . ⋁︁ ⋁︁ ∏︁ ⨄︁ ⋁︁ 1, ⊘ 0 ( ) = ⋁︁ ⋁︁ ⋁︁ 1 ⊗ , 0 ⊘ ⊘ 1 0, ⊙ 1. Considere também o conjunto

  = ¶ ; ( , ) < . e note que por ser fechado ( ) é contínua e limitada, então

  ⊃ quando ⊃ 0. Como ∫︁ ∫︁ ( ) = ( ) ( ) ( )

  ( ) ⊘

  Capítulo 1. Preliminares

  assim, obtemos usando a hipótese que ∫︁ ∫︁ lim sup ( ) ( ) = ( ) ⊘ lim sup ( ) ( ) ⊘ ( ) ⊃ ( ) quando ⊃ 0. O que nos leva a prova da implicação. ( ) ⇐⇒ ( ) Considere um aberto qualquer, então lim sup (

  ) ⊘ ( ) ⇐⇒ lim sup 1 ⊗ ( ) ⊘ 1 ⊗ ( ) lim inf ( ) ⊙ ( ). ( ) ⇒ ( ) Seja um conjunto que cumpre ( ) = 0, temos lim sup

  ( ) ⊘ lim sup ( ) ⊘ ( ) = ( ). lim inf ( ) ⊙ lim inf ( ) ⊙ ( ) = ( ). Conclusão ( ) ⊃ ( ) sempre que ( ) = 0. ( ) ⇒ ( ) Seja uma função contínua e limitada por , ou seja, ♣ ( )♣ ⊘ . Tome = ¶ ∈ R; ( ; ( ) = ) ̸= 0♢.

  E considere uma decomposição = ( , , 1 ≤ ≤ ≤ , ) de [⊗ , ], onde

  < < = 1

  ⊗ = ≤ ≤ ≤ < ⊗1

  /

  com ( )

  ∈ , ∈ ¶0, 1, ≤ ≤ ≤ , ♢ ( Observe que é enumerável, pois os conjuntos sejam disjuntos, é Ąnito e note que toda soma de quantidade não enumerável de positivo ⊗1 é inĄnita). Considere +1 +1 ( , ) ⊗1 ⊗1 = ¶ ; ( ) < ♢, como é contínua temos

  ( ) ( ). Os pontos e / ) = 0, por +1 +1 é aberto e

  ∈ , então ( hipótese temos ∑︁ ∑︁ ⊗1 ⊗1 ( ( ). =0 =0 ) ⊃ ∫︁ ∫︁ ∫︁ ⊗1 ⊗1 ⊗1 Mas ∑︁ ∑︁ ∑︁ ( ) ( ) ( ( (

  ♣ ( )⊗ ( ) ( )♣ ⊘ ♣ ( )⊗ )♣+♣ )⊗ )♣+

  1.4. Função contínua e semicontínua ∑︁ ⊗1 ∫︁ ∑︁ ∑︁ ⊗1 ⊗1

  ( ( +1 ( ( +♣ ) ⊗ ( ) ( )♣ ⊘ 2 max ) + ♣ ) ⊗ )♣. =0 0⊘ ⊗1 =0 =0

  Assim, para e suĄcientemente grande obtém-se ∫︁ ∫︁ lim ( ) ( ) = ( ) ( ).

  O que completa a prova da proposição.

1.4 Função contínua e semicontínua

  Vamos apresentar conceitos de função contínua e semicontínua. A importância destes conceitos é que um do principais resultados deste trabalho se baseia no fato de que a existência de solução do problema de Kantorovich ocorre se a função custo é semicontínua. Esta seção tem como a principal referência Capítulo 2, na seção 6]. Definição 1.4.1.

  (Função semicontínua) Seja : ⊆ R ⊃ R ¶⊗∞, ∞♢ uma função. se, Dizemos que é semicontínua inferior em

  lim inf (1.4) ( ) ⊙ ( ).

  

Lema 1.4.2. Se ( ) é Ąnito, então é semicontínua inferior em se, e somente se,

dado > 0 , existe Ó > 0 tal que ( ) ⊘ ( ) + para todo com < Ó. ( ), em outras Demonstração. Se é semicontínua inferior em , então ( ) ⊘ lim inf

  palavras, dado > 0, existe Ó > 0 tal que se lim inf ( ) = , obtemos ( ) ⊘ .

  ∙ ♣ ( )♣ < sempre que ♣ < Ó e .

  E assim conclui-se que ( ) ⊘ ( ) + .

  Reciprocamente, suponha que dado > 0, existe Ó > 0 tal que ( ) ⊘ ( ) + para ( ), ou seja, todo com < Ó. O objetivo é mostrar que ( ) ⊘ lim inf dado > 0, devemos encontrar Ó > 0 de modo que

  

Para todo com < Ó, então ( ) ⊗ ( ) >

E assim obtemos, ( ) < ( ) ⊗ < ( ) + . Portanto é semicontínua inferior em .

  Capítulo 1. Preliminares Teorema 1.4.3.

  Seja : ⊆ R ⊃ [⊗∞, ∞] uma função semicontínua inferior com compacto, então assume mínimo em . Demonstração. Dividiremos a prova nos seguintes passos

  , onde ∙ Observe que ∈Z = ¶ ; ( ) > ♢. Temos que.

  é aberto em para todo inteiro, pois basta veriĄcar pela deĄnição e usar o lema ∙ anterior.

  ∙ Como é compacto e pelo primeiro passo, temos uma cobertura de abertos, então é possível extrair uma subcobertura Ąnita de . Daí conclui-se que é limitada inferiormente.

  ∙ Considere = inf ♢ ⊆ com e

  ( ). Resta construir uma sequência ¶ (

  ) ⊃ . Para a construção de tal sequência, basta notar que para cada existe 1 e como a sequência esta contida em um compacto, ∈ tal que + então existe uma subsequência convergente, digamos para , e a compacidade de garante que e portanto ( ) = .

  Os próximos resultados são úteis para caracterização de funções semicontínuas e de associar sequência de funções contínuas com a função semicontínua. Estes resultados se- rão importantes na demonstração do teorema de existência de solução do Problema de Kantorovich.

  Lema 1.4.4. ∈N , com

  ♢

  Seja : ⊃ R para todo ∈ N, uma sequência de funções semicontínuas inferiores. Então ( ) = sup ( ) é também semicontínua inferior. ∈N uma sequência de funções semicontínua inferior e deĄna

  ♢

  Demonstração. Seja ¶

  ( ) = sup ( ). Dado > 0, temos

  < ( ) Para algum ( ) ⊗ ∈ N.

  2

  >

  Usando a hipótese, dado > 0 existe um Ó 0 tal que ( ) + .

  ( ) ⊘ Para , < Ó

  2 Combinando as equações e usando a deĄnição de , obtemos ( ) < ( ) + . No que acarreta que é semicontínua inferior.

  Proposição 1.4.5.

  Uma função real deĄnida em um compacto é semicontínua in- ∈N de

  ♢

  ferior se, e somente se, existe uma sequência crescente de funções contínuas å å modo que ( ) = lim ⊃∞

  1.5. Tópicos de análise convexa

Demonstração. Suponha que exista uma sequência crescente de funções contínuas å

  de modo que ( ) = lim å ⊃∞ é contí-

  ( ). Como para cada ∈ N, a função å nua, então å é também semicontínua inferior e pelo lema anterior, conclui-se que é semicontínua inferior. Reciprocamente, suponha que a função seja semicontínua in- ferior. DeĄna å ( ) = inf ( ) + ♣♢. Pela desigualdade triangular obtemos

  å

  ¶ ( ) + ♣ + ♣♢, então obtemos å ( ) ⊘ inf

  ( ) ⊘ å ( ) + ♣, no que implica que para cada , a função å é (uniformemente) contínua em . Também obtemos å +1

  ⊘ å para todo ∈ N. Em particular ( ) é uma cota superior de ¶å

  ( ); ∈ N♢, agora se Ð < ( ), então existe Ó > 0 tal que

  Ð ( ) ⊘ ( ) + ♣ Sempre que ♣ < Ó, . Ð

  , onde = min ( ), e assim å Por outro lado, se ♣ ♣ ⊙ Ó tome Ó ( ) ⊙ inf

  ( ) para consequentemente ¶ ( ) + Ð ♢ = Ð. Portanto conclui-se que Ð å ( ) = sup å ( ). ∈N

  1.5 Tópicos de análise convexa

  Nesta seção falaremos um pouco sobre Análise Convexa com o objetivo extrair alguns resultados dessa área para demonstração de um dos grandes resultados desse trabalho, que é o teorema de Brenier. Para isso vamos iniciar deĄnindo função convexa e as referências desta seção são as referências

  Definição 1.5.1.

  é dito convexo se para todo (Conjunto Convexo) Um conjunto ⊆ R , e para qualquer ∈ [0, 1] temos que (1 ⊗ ) + .

  Definição 1.5.2.

  ( Epigrafo) O Epigrafo de uma função : ⊆ R ⊃ (⊗∞, ∞] é o conjunto ( ) deĄnido por

  ( ) = ¶( , ); , , ( )♢. 2 Exemplo 1.5.3.

  ( ) = 2 , então o epigráĄco de é o conjunto ( ) = ¶( , ); ∈ R

  , , como mostra a Ągura 3.

  Definição 1.5.4.

  (Função convexa) Uma função : ⊆ R ⊃ (⊗∞, ∞] é convexa, se ( ) é um conjunto convexo. 2 No exemplo anterior podemos observar que ( ) = é uma função convexa, um 2

  . Um conceito muito importante exemplo de uma função que não é convexa é ( ) = ⊗ que aparece nesse trabalho é o de subgradiente de uma função convexa, essa noção é importante pois é por meio dela que podemos veriĄcar a existência de solução do problema

  Capítulo 1. Preliminares Figura 3 Ű A região azul é o epigráĄco de .

  de Monge, ou seja, estudar o subgradiente de uma função convexa nos condicionará a determinar existência de acoplamentos ótimos induzidos por alguma aplicação . A partir dessa motivação, segue a deĄnição de subgradiente de um função convexa.

  Definição 1.5.5. pertence ao (Subgradiente de uma função convexa) Um vetor ∈ R subgradiente de uma função convexa : ⊆ R ⊃ R em se ( ) ⊙ ( ) + ⟨ , ⟩ ∀ .

  Denotaremos por ( ) o conjunto dos subgradientes de em e o subgradiente ⊗ ⊗ de , em outras palavras, = ( ). Exemplo 1.5.6.

  : R ⊃ R com ( ) = ♣ , note que não é diferenciável apenas no

  

ponto = 0, mesmo assim podemos determinar (0) e neste caso são os vetores que

cumprem ⊗ ⊗ ⊗ ♣ ⊙ ⟨ , ⟩ ∀ ∈ R portanto, (0) = [0, 1]. No caso

  ♢, fato ( ) com ̸= 0, temos ( ) = ¶ justiĄcado pelo seguinte teorema.

1.5. Tópicos de análise convexa Teorema 1.5.7.

  Seja : ⊆ R ⊃ (⊗∞, ∞] uma função convexa com aberto e

considere um ponto onde é Ąnita. Se é diferenciável em , então ( ) é o único

elemento do subgradiente de em , em particular ( ) ⊙ ( ) + ⟨▽ ( ), ⟩ ∀ .

  Lema 1.5.8.

  Nas mesmas condições do teorema acima, pertence ao subgradiente de em se, e somente se,

  ( ) (1.5) ⊙ ⟨ , ⟩ ∀ .

  ( ) se, e

  Demonstração. Tomando = + Ú , com Ú positivo temos que se

  somente se, para todo no domínio, ( ) ⊙ ( ) + ⟨ , ⟩, assim ( + Ú ) ⊗ ( )

  (1.6) ⊙ ⟨ ,

  Ú

  então se é diferenciável em o limite a esquerda, quando Ú tende a zero, existe e portanto vale a equação Reciprocamente se vale a equação acima para todo , então temos primeiramente pelo teorema do valor médio que existe 0 ⊘ Ú tal que

  ( + ) ( + Ú ) ⊗ ( ) = .

  Ú

  ( + ) ( ) Como a função é convexa então a derivada é crescente, assim

  ⊙ ⊙ ⟨ , ⟩ para todo e portanto vale a equação e assim concluímos que pertence ao subgradiente de em .

  

Demonstração. (Teorema Pelo lema anterior e usando a diferenciabilidade de em

  obtemos ⟨▽ ( ), ⟩ ⊙ ⟨ , ⟩ ∀ daí, o único ponto que satisfaz a inequação acima é = ▽ ( ) e portando ▽ ( )

  é o único subgradiente de em .

  Vale ressaltar que a recíproca é verdadeira, ou seja, se é o único subgradiente de em , então é diferenciável em . Para ver a demonstração da recíproca veja a referência seção 23].

  O teorema a seguir nos mostra uma forma de caracterizar uma função convexa, in- clusive existem referências que deĄnem funções convexas como a reciproca do próximo teorema, que segue.

  Capítulo 1. Preliminares Teorema 1.5.9.

  , então são equiva- Seja : ⊃ R deĄnida no aberto convexo ⊆ R lentes. i) é convexo.

ii) Para todo , ∈ e ∈ [0, 1] ((1 ⊗ ) + ) ⊘ (1 ⊗ ) ( ) + ( ).

  

Demonstração. ) ⇒ ) Sejam , quaisquer, então ( , ( )) e ( , ( )) ∈ ( ).

  Por hipótese, todo ∈ [0, 1] obtemos ((1 ⊗ ) + , (1 ⊗ ) ( ) + ( )) ∈ ( ), ou seja, ((1 ⊗ ) + ) ⊘ (1 ⊗ ) ( ) + ( ). 1 , ) e ( , 1 2 2 ) ⇒ ) Considere ( ) ∈ ( ). Queremos mostrar que para todo

  • + , , ) e ( , ∈ [0, 1], obtemos ((1⊗ )
  • 1 2 1 2 1 1 2 2 (1⊗ ) ) ∈ ( ). Como ( ) ∈ ( ), então ( 1 1 e ( 2 2 1 ) + ( + 2 1 2 e

      ) ⊘ ) ⊘ . No que acarreta (1 ⊗ ) ( ) ⊘ (1 ⊗ ) usando a hipótese obtemos que 1

    • +
    • 2 1 2 . ((1 ⊗ ) ) ⊘ (1 ⊗ ) 1 2 1 + + , 2 Conclusão, ((1 ⊗ ) (1 ⊗ ) ) ∈ ( ).

        Um outro resultado importante para este trabalho é mostrar que se uma função con- vexa é duas vezes diferenciável, então a matriz Hessiana é uma forma quadrática não- negativa, consequentemente todos os seus autovalores são não negativos. Para mostrar este resultado vamos enunciar dois lemas úteis para demonstração, onde o primeiro lema omitiremos a prova, pois a prova é feita em detalhes na referência e não é viável fa- zer a demonstração neste trabalho e o segundo lema, usaremos o primeiro para a sua demonstração. Portanto segue os seguintes lemas.

        Lema 1.5.10.

        As seguintes aĄrmações sobre a função : ⊃ R, derivável no intervalo , são equivalentes: i) é convexa. ii) A derivada

        : ⊃ R é monótona não-decrescente.

      iii) Para quaisquer , ∈ tem-se ( ) ⊙ ( ) + ( )( ⊗ ), ou seja, o gráĄco de está situado acima de qualquer de suas tangentes.

        Demonstração. A prova completa está na referência Capítulo 9, na seção 2].

      1.5. Tópicos de análise convexa Lema 1.5.11.

        Seja ⊆ R aberto convexo. Uma função : ⊃ R diferenciável é

      convexa se, e somente se, para cada , + quaisquer, tem-se ( + ) ⊙ ( )+ ( )≤

      Demonstração. Se é convexa e diferenciável, sabemos que para , + quaisquer

        ( ) = 0. ( + ) = ( ) + ( ) ≤ + ( ) com lim ⊃0

        ♣ ♣ e ( + ) = ((1 ⊗ ) + ( + )) ⊘ (1 ⊗ ) ( ) + ( + ) ∈ (0, 1). Combinando as duas equações temos ( + ) ⊙ ( + )⊗(1⊗ ) ( ) = ( + )⊗ ( )+ ( ) = ( )≤( )+ ( )+ ( ).

        Dividindo por , obtemos ( ) . ( + ) ⊙ ( ) ≤ + ( ) +

        Fazendo ← 0, obtemos ( + ) ⊙ ( ) + ( ) ≤

        Reciprocamente, se vale a desigualdade para qualquer , + . Considere uma função : [0, 1] ⊃ R como ( ) = ( + ). Assim ( ) = ( + ) ≤ . Ora para qualquer ,

        ) ) = ( + + ) com ∈ [0, 1] tem-se ( + ) = ( + + (

        , logo por hipótese = ) + ( + ) + ( + ).

        ( + ) ⊙ ( + ) ≤ = ( + ) ≤ ( ) + ( ) e pelo lema anterior

        Que pode ser interpretado como ( ) ⊙ ( )( temos que é convexa e consequentemente obtemos que é convexa.

        

      Teorema 1.5.12. aberto e convexo. Uma função duas vezes diferenciável

      Seja ⊆ R

        : ⊃ R é convexa se, e somente se, para cada , a Hessiana de é uma 2 √︁ 2 ( ) = Ð Ð ,

        

      forma quadrática não-negativa, ou seja, =1 ⊙ 0 para todo =

      i j (Ð , Ð , . 1 2 ≤ ≤ ≤ , Ð

        ) ∈ R ⊗ ¶0♢ qualquer, então pelo fato de ser

        Demonstração. Suponha convexa e ∈ R

        duas vezes diferenciáveis temos 2

      • ( )

        ( ) Capítulo 1. Preliminares

        onde lim ⊃0 2 = 0. Usando o lema anterior, obtemos 2 2 + ( ) ⊙ 0 para todo ∈ R ⊗ ¶0♢ temos dividindo por ♣ 2 ( )

      • ) ≤ ( ⊙ 0.
      • 2 2 ⊗1 ♣ ♣ ♣ Tomando ⊃ 0, conclui-se ⊙ 0, para todo = ¶ ∈ R ; ♣ ♣ = 1♢ e 2 . pela linearidade da Hessiana, concluímos que ⊙ 0, para todo ∈ R

          Reciprocamente, suponha por absurdo que ( + ) < ( ) + ( ) ≤ para algum ̸= 0. Então pelo fato de ser duas vezes diferenciável temos 2 .

          ≤ ( ) + ( ) < 0 para algum ∈ R 2 No que acarreta, dividindo ambos os lados por 2 e fazendo ⊃ 0 temos < .

          ≤ 0, para algum ∈ R O que nos leva em uma contradição.

        2 Acoplamentos

          A teoria de acoplamentos pode ser explorado em varios ramos da probabilidade. O objetivo deste capítulo é apresentar essa teoria e mostrar algumas aplicações de acopla- mentos que podem ser usados em cadeias de Markov. Um dos principais resultados do capítulo é a prova do teorema da convergência, usando a técnica de acoplamentos e uma forma de calcular a distância de variação total entre duas distribuições de probabilidades via acoplamentos. Nossa principal referência foi o capítulo 3 e 5 de

        2.1 Introdução a tempo de mistura mistura de cadeias de Markov

          O objetivo desta seção é discutir sobre a velocidade de convergência da cadeia de Markov. Primeiro, Ąxado um conjunto Ω Ąnito, deĄniremos uma distância entre duas distribuições, e assim trabalhar em um espaço métrico no conjunto das distribuições de probabilidade em Ω e faremos algumas aplicações práticas sobre convergências das cadeias de Markov.

          Definição 2.1.1.

          (distância de variação total) A distância de variação total entre duas distribuições de probabilidades Û e Ü em Ω é deĄnido por

          = ⊆Ω (2.1) ‖ Û Ü ‖ ♣Û( ) ⊗ Ü( )♣. Vamos mostrar uma proposição que facilitará o cálculo da distância de variação total.

          Proposição 2.1.2.

          Sejam Û e Ü duas distribuições de probabilidade em Ω, então:

        ∑︁

          1 =

          (2.2) ‖ Û Ü ‖ ♣Û( ) ⊗ Ü( )♣.

          2 ∈Ω Demonstração. Sejam = ¶ ; Û( ) ⊙ Ü( )♢ e ⊆ Ω um conjunto qualquer.

          Û ( ) ⊗ Ü( ) ⊘ Û( ) ⊗ Ü( ) ⊘ Û( ) ⊗ Ü( ).

          ), note que o lado direito das De modo análogo obtemos Ü( ) ⊗ Û( ) ⊘ Ü( ) ⊗ Û( equações são iguais. De fato;

          Û

          ) assim ( ) ⊗ Ü( ) = Û( ) ⊗ 1 + 1 ⊗ Ü( ) = Ü( ) ⊗ Û(

          ⊗(Û( ) ⊗ Ü( )) = ⊗(Ü( ) ⊗ Û( )) ⊘ ⊗(Ü( ) ⊗ Û( )) ⊘ Û( ) ⊗ Ü( ). portanto

          ∑︁ Capítulo 2. Acoplamentos

          1

          1 = )) =

          ‖ Û Ü ‖ ♣Û( ) ⊗ Ü( )♣.

          (Û( ) ⊗ Ü( ) + Ü( ) ⊗ Û(

          2

          2 ∈Ω Corolário 2.1.3.

          

        Para quaisquer Û, Ü, Ö vale a desigualdade triangular

        .

          ‖ Û Ü ‖ ⊘‖ Û Ö ‖ + ‖ Ö Ü

          

        Demonstração. Segue do fato de que no lado direito da equação cumpre a desigual-

        dade triangular.

          

        Observação 2.1.4. Nas mesmas condições da proposição anterior, ao observar sua prova,

        chegamos à seguinte expressão

        ∑︁

          = Û (2.3) ‖ Û Ü ∈Ω( )⊙Ü( ) ( ) ⊗ Ü( ).

          Nosso objetivo agora é delimitar a distância máxima ( sobre ( , ∈ Ω) entre ≤) e Þ para isso, é conveniente deĄnir.

          ( ) = max . (2.4) ‖ ∈Ω ( , ≤) ⊗ Þ

          ( ) = max . (2.5) ‖ , ∈Ω ( , ≤) ⊗ ( , ≤) ‖

          Nosso problema de maior interesse é estudar velocidade de convergência de uma de- terminada cadeia. Uma técnica para resolver este tipo de problema é a técnica do acopla- mento. A importância do conceito de acoplamentos entre duas distribuições é que ao invés de comparar duas distribuições, comparamos duas variáveis aleatórias. Em outras pala- vras, queremos usar a teoria de acoplamentos para limitar ( ). Reservaremos a próxima seção para apresentar este conceito.

        2.2 Acoplamento

          Nesta seção apresentaremos a deĄnição e alguns exemplos de acoplamentos. Mostra- remos a relação que este conceito possui com a distância de variação total e preparar esta técnica para aplicações envolvendo cadeias de Markov que serão abordados na próxima seção.

          Definição 2.2.1.

          , Û , Ü ) dois espaços de proba- (Acoplamentos) Sejam ( , ℱ ) e ( ,

        bilidades. Um acoplamento de Û e Ü é uma variável aleatória = ( , ) em um espaço

        2.2. Acoplamento

          Se Û e Ü são as únicas medidas do problema, então sem perda de generalidade podemos escolher Ω = × . Mais ainda, um acoplamento de Û e Ü passa por uma construção de uma medida Þ em × tal que, satisfaz as seguintes condições, que são equivalentes.

          a) ( ) Þ = Û, ( ) Þ = Ü, onde e são respectivamente aplica- # # ⊗1 ) Þ = Þ( ) e ( ) Þ = # #

          ções ( , ) ⊃ e ( , ) ⊃ e também ( ⊗1 Þ ( ) são as imagens da medida sobre uma aplicação.

          b) Para todo conjunto mensurável ⊆ e ⊆ , vale Þ( × ) = Û( ) e Þ( × ) = Ü ( ).

          c) Para toda função mensurável ã e å em , , respectivamente ∫︁ ∫︁ ∫︁ × (ã( ) + å( )) Þ( , ) = ã ( ) Û( ) + å ( ) Ü( ).

          A medida Þ das condições acima, por abuso de linguagem, é dita um acoplamento de

          

        Û e Ü . Denotaremos o conjunto de todas as medidas que são acoplamentos de Û e Ü por

          (Û, Ü). Essas medidas possuem um papel muito importante na teoria de acoplamen- tos. Inclusive um dos problemas principais do texto é minimizar uma determinada função cujo o domínio é justamente o conjunto (Û, Ü). 1 Exemplo 2.2.2.

          ), Bernoulli, a

          

        Sejam Ω = = = ¶cara, coroa, Û = Ü = (1,

        2

        medida de probabilidade de em um lançamento de moeda justa com o resultado podendo

        ser cara e coroa. 1 1) DeĄna duas variáveis aleatórias independentes tal que Ò( = , = ) = . Note 4 que de fato ( , ) formam um acoplamento de Û e Ü pois ∑︁ ∑︁ Ò ( = , = ) = Û( ). Ò ( = , = ) = Ü( ).

          Ou seja, conclui-se que Û e Ü. 2) ( , ) é um outro exemplo de acoplamento de Û e Ü.

          Dado duas distribuições Û e Ü como construir duas variáveis aleatórias, e tal que ( , ) de fato sejam um acoplamento? Um fato interessante sobre acoplamentos é que podemos fazer uma bijeção entre acoplamentos de duas variáveis aleatórias em Ω com uma única variável aleatória em Ω × Ω.

          ∑︁ ∑︁ Capítulo 2. Acoplamentos ∈Ω ∈Ω ( , ) = Û( ) ( , ) = Ü( ).

          Nessas condições, ( , ) forma um acoplamento ao considerar ( , ) = ( =

          

        , = ), em outras palavras, para construir um acoplamento de um par de distri-

          buições, basta preencher as entradas de uma matriz de ordem ♣Ω♣ × ♣Ω♣ cujo a soma na ⊗ésima linha é a ⊗ésima entrada da primeira distribuição e a soma da j-ésima coluna

          é a j-ésima entrada da segunda distribuição e construir uma variável aleatória que está associada a distribuição .

          O próximo teorema relaciona acoplamentos de duas medidas com a distância de vari- ação total. Podemos estimar a distância de variação usando variáveis aleatórias, ou seja, transportar um problema de distribuições para variáveis aleatórias. Este teorema é a base das aplicações na estimativa do tempo de mistura.

          Teorema 2.2.3.

          Sejam Û e Ü duas distribuições de probabilidade em Ω, então

          ‖ Û Ü ‖ = inf¶ ( ̸= ); ( , ) é acoplamento de Û e Ü.

          

        Demonstração. Considere ( , ) um acoplamento qualquer de Û e Ü e seja ⊆ Ω um

          subconjunto qualquer, temos

          Û ( ) ⊗ Ü( ) = ( ) ⊗ ( ) ⊘ ( , / ) ⊘ ( ̸= ).

          ‖ Û Ü ‖⊘ ( ̸= ) ∀( , ). Resta construir um acoplamento de modo que ‖ Û Ü ‖= ( ̸= ). Sendo = ¶ ; Û( ) ⊙ Ü( )♢ a região I tem área Û( ) ⊗ Ü( ). A área da região II tem área Ü( ) ⊗ Û( ) c c

          Figura 4 Ű e temos que a área da região III é igual a 1⊗ ‖ Û Ü T V .

          A ideia é construir variáveis aleatórias e tal que em III, = , veja a Ągura 4, daí considere

        2.2. Acoplamento

          Ò II ( ) = ∏︁ ⋁︁ ⋁︁ ⋁︁ ⋁︁ ⨄︁ ⋁︁ ⋁︁ ⋁︁ ⋁︁ Ü

          ( ̸= ) =‖ Û Ü .

          Ou seja, Û e Ü com = se, e somente se, o lançamento da moeda sair cara, como 1 ⊗ =‖ Û Ü ‖ , obtemos

          ≤ Ò III

          ≤ Ò III + (1 ⊗ )Ò I = Û.

          0 caso contrário. Note que

          ( ) ⊗ Û( ) ‖ Û Ü ‖ se Ü( ) > Û( )

          0 caso contrário. E de modo independente escolha com distribuição

          = ∑︁ min¶Û( ), Ü( )♢. Mas, usando a proposição obtemos ∑︁ min¶Û( ), Ü( )♢ = ∑︁ ;Û( )⊙Ü( )

          ( ) ⊗ Ü( ) ‖ Û Ü ‖ se Û( ) > Ü( )

          Ò I ( ) = ∏︁ ⋁︁ ⋁︁ ⋁︁ ⋁︁ ⨄︁ ⋁︁ ⋁︁ ⋁︁ ⋁︁ Û

          min¶Û( ), Ü( )♢ . E seja = = . ii) Caso a moeda seja coroa, escolha com distribuição

          Ò III ( ) =

          ( ) = 1⊗ ‖ Û Ü . Considere um lançamento de moeda com probabilidade de ser cara. i) Se sair cara, então determine o valor de uma variável aleatória com respeito a distribuição de probabilidade

          

        Ü ( ) +

        ∑︁ ;Ü( )>Û( ) Û

        • (1 ⊗ )Ò II = Ü.

          Capítulo 2. Acoplamentos

        2.3 Acoplamentos em Cadeias de Markov O objetivo desta seção é apresentar aplicações de acoplamentos em cadeias de Markov.

          Iniciaremos apresentando a noção de acoplamentos em cadeias de Markov e usaremos este conceito para calcular o tempo de mistura de algumas cadeias e encerraremos a seção com a demonstração do teorema da convergência via acoplamentos.

          

        Definição 2.3.1. (Acoplamentos em cadeias de Markov) Um acoplamento da cadeia de

        Markov com matriz de transição é um processo ( , ) tal que ( ) e ( ) são cadeias

        de Markov com a mesma matriz de transição .

          Todo acoplamento da cadeia de Markov pode-se modiĄcar a cadeia para que as duas cadeias andem juntas após o primeiro encontro, em outras palavras, Se = = . (2.6)

          , então para todo temos Teorema 2.3.2.

          , Seja ¶( )♢ acoplamentos da cadeia de Markov que cumpre

        com o primeiro instante em que as cadeias se encontram,

          ≍ Û e Ü, considere á

          ou seja, á =

          = min¶ ; .

          Então > ).

          ‖ Û Ü ‖ ⊘ (á

          

        Demonstração. Basta observar que ( ) = (á > ) e combinar com o teorema

          ̸= da seção anterior.

          Corolário 2.3.3.

          Nas mesmas condições do teorema anterior, com e , (á > ).

          ≍ ÓÓ ( ) ⊘ max ,

          Usaremos o corolário anterior para estimar o tempo de mistura de algumas cadeias. A essência do acoplamento de cadeias de Markov é bem simples. A ideia é usar os resultados dessa seção e construir um conjunto de processos em duas cópias da cadeia de Markov que tem tendência probabilística para andar rapidamente juntas.

          Exemplo 2.3.4.

          (Passeio aleatório no círculo) Considere um passeio aleatório em um n-ciclo ou em Z com o conjunto ¶1, 2, ≤ ≤ ≤ , 1

        de vértices. E esse passeio é "preguiçoso", ou seja probabilidade de Ącar parado e pro-

        1 2 babilidade de mover no sentido horário ou anti-horário. 4 Vamos construir um acoplamento ( , ) de duas partículas nesse espaço, onde =

        e = . Suponha que as partículas não se movam simultaneamente para que não haja

        2.3. Acoplamentos em Cadeias de Markov

          

        um salto entre eles. Para cada movimento lançamos uma moeda, se o resultado for cara

        a cadeia ( ) anda um passo e a direção será determinada em um lançamento de outra

        moeda, caso o resultado seja coroa o mesmo ocorre com ( ) e quando as partículas coli-

        dem eles fazem o mesmo movimento.

        Seja a distância no sentido anti-horário entre as duas partículas ( de para ). Note

        que é passeio aleatório simples entre 0 e . Usando o estudo da ruína do apostador

        temos, que se encontra no capítulo 2 da referência ,

          (á) = ( ), onde á = ⊙ 0; ∈ ¶0, ♢♢. Daí estudando o tempo

          de mistura, que denotaremos por

          ( ) = min¶ ; ( ) ⊘ e usando a desigualdade de Markov resulta. , , . , (á) 2á > ♢♢ ⊘

          ( ) ⊘

          4

          1 2 Para = denotaremos simplesmente por , neste caso obtemos = onde 2

          4 . Exemplo 2.3.5.

          Um toro -dimensional é um grafo cujo conjunto de vértices é o produto cartesiano

          Z = Z . ⏟ ⏞ × Z × ≤ ≤ ≤ × Z 1 2 d vezes 1 2 Dizemos que os vértices = ( , , ) e = ( , , ) são vizinhos em Z ≤ ≤ ≤ , ≤ ≤ ≤ ,

          = + 1 mod ou

          se existe algum ∈ ¶1, 2, ≤ ≤ ≤ , de modo que para ̸= e ⊗ 1 mod .

          Quando é par, o grafo Z é bipartido e associando a passeio aleatório vemos que é

        periódico. Para evitar essas complicações, vamos considerar o passeio preguiçoso em Z ,

        a ideia é usar a teoria de acoplamentos para limitar o tempo de mistura deste passeio.

          Teorema 2.3.6. Em um passeio aleatório preguiçoso no toro -dimensional Z 2 ⊗1 log ( ).

          ( ) ⊘ ( ) ≤ 2 Onde ( ) é uma constante que depende da dimensão do toro.

          

        Demonstração. Vamos construir o seguinte acoplamento de Cadeias de Markov de ( , )

          com = e = e considerar á o tempo das cadeias Ącarem acopladas, ou seja,

          á = min = ♢ . O passeio será construído do seguinte modo.

          1. Escolha uma coordenada aleatoriamente.

          Capítulo 2. Acoplamentos

          2. Caso 1: Se as coordenadas de e coincidirem, então elas andam juntas e com

          1

          1

          1 probabilidade , e andam respectivamente 1, ⊗1 e 0.

          4

          4

          2 Caso 2: Se as coordenadas forem distintas, realize um lançamento de moeda para decidir qual cadeia se movimenta e qual Ąca parada, após a escolha, lance outra moeda para decidir qual será a direção do movimento. 1 2 1 2

          , , , ,

          Considere = ( ) e = ( ) e seja ≤ ≤ ≤ , ≤ ≤ ≤ ,

          á = = min¶ ⊙ 0; .

          O tempo que leva para a i-ésima coordenada ser acoplada. Note que para cada coor- denada, o comportamento da partícula coincide com o passeio aleatório no n-ciclo, como visto no exemplo anterior. Assim, deĄnindo como a distância no sentido horário entre 2 e . Então ( . ∈ ¶0, ♢) ⊘

          4 Mais ainda, deĄnindo ∈ ¶0, ♢♣A coordenada i é escolhida♢, obtemos

          = min¶ uma sequência de variáveis aleatórias independentes cuja a distribuição é a geométrica, ou seja, que conta a quantidade de tentativas até chegar ao primeiro sucesso, daí ∑︁ ∑︁ ∑︁ ∑︁ ∑︁ i ∞ ∞

          (á ) = ( ) = ( = ) = ( ) ( = ) = ∑︁ ∑︁ ∞ ∞ =1 =1 =1 =1 =1 2 .

          = ( 1 ) ( = ) = ( = ) = ( ) ⊘ =1 =1

          4 Portanto 2 2 .

          (á) ⊘

          4 Usando a desigualdade de Markov com o teorema concluímos que (á > ) ⊘ 2

          1 2 2 2 , no que acarreta , < e usando a relação do com ( ) , para maiores

          4 detalhes veja na na seção 4.5 da referência temos 2 2 ⊗1 log ( ).

          ( ) ⊘ 2 Exemplo 2.3.7.

          Uma árvore é um grafo conexo sem ciclos. A árvore começa enraizada

        por um único vértice que chamaremos de raiz. A profundidade do vértice é a distância

        de até a raiz. O nível da árvore consiste em todos os vértices de mesma profundidade.

        Os Ąlhos de são os vizinhos de com a profundidade de + 1. A folha são os vértices

        de grau 1. Uma árvore b-ária com profundidade , denotado por , , é uma árvore com

        vértice sendo a raiz com.

        2.3. Acoplamentos em Cadeias de Markov tem grau .

          ∙ Todo vértice de profundidade , com 1 ⊘ ⊗ 1, tem grau + 1.

          ∙ Vértices de profundidades são folhas.

          Figura 5 Ű Uma árvore binária com grau 3. +1 ⊗ 1

          Assim o número total de vértices é = . Vamos estudar o passeio preguiçoso

          ⊗ 1 em , .

          Considere o seguinte acoplamento ( , ), com = e = . Assuma, sem perda

        de generalidade, que está mais próximo da raiz do que . A cada movimento lance uma

        moeda para decidir quem se move, se sair cara +1 = e +1 anda para um vizinho de

        de modo aleatório e uniforme, se sair coroa, então +1 = e +1 anda para um vizinho de .

          Quando as cadeias estiverem no mesmo nível, mude a dinâmica. Considere em um

        passeio preguiçoso e se aproxima da raiz se, e somente se, se aproxima da raiz. Seja

        o conjunto das folhas. Observe que se faz uma visita na folha e retorna a raiz, então

        as cadeias se acoplam. A esperança do número de passos para sair da folha e chegar na

        raiz é a mesma de iniciar da raiz e chegar na folha e digamos que á é o tempo para que

        este evento ocorra. Por argumentos de redes, veja o capítulo 9 da referência temos

          (á) ⊘ 4 . Então

          4 > .á ♢ ⊘

          O que nos leva a concluir que ⊘ 16 .

          Capítulo 2. Acoplamentos Exemplo 2.3.8.

          Seja e dois conjuntos Ąnitos com ♣ = e ♣ = , sendo o conjunto que representa os vértices e as cores. Considere o espaço de estados e uma cadeia de Markov em Ω com uma única distribuição estacionária Þ.

          Ω ⊆

          

        Intuitivamente cada estado é uma coloração de vértices, cuja transição de estados ocorre

        da seguinte maneira. i) Selecione um vértice de acordo com uma distribuição Ąxada e uma cor , em que depende da conĄguração atual

          ∈ de acordo com uma distribuição

          e do vértice ⨄︁ ∏︁

          =

          ii) O novo estado será deĄnido por ( ) =

          ( ) ̸= Figura 6 Ű Como funciona as transições da cadeia.

          Considere pares de estados que são adjacentes em algum caminho e a métrica de Hamming com ( , ) = ♣¶ ; ( ) ̸= ( )♢♣. √︁ Teorema 2.3.9.

          Seja Ω = , e Ñ = , ∈Ω, j

          ¶1 ⊗ ( ) + ∈ j ; = ( ) ‖ ( ( ) −1

          ,

          ‖ ̸= . Então, se Ñ < 1 e ⊙ −1 (Ñ ) conclui-se que ÛÞ ‖ ⊘ .

          Uma explicação sobre Ñ, é que este valor é uma cota superior da esperança da distância entre estados adjacentes após um passo.

        Demonstração. Suponha que à e à são duas distribuições de probabilidades em . Então

        1 2

          deĄnimos a seguinte distribuição 1 2 ¶0, à ( ) ⊗ à ( )♢ + (à ) ( ) = . 1 2

          ⊗ à

        2.3. Acoplamentos em Cadeias de Markov

          , seja ( , ) a distância de Hamming. Considere = ( , ) e uma Para , sequência = , , ℎ = em tal que ( , 1 ⊗1 ≤ ≤ ≤ , ) = 1 para ∈ ¶1, 2, ≤ ≤ ≤ , ℎ♢. ′ ′

          ,

          DeĄna um acoplamento em dos estados ( , ) para ( ) de acordo com o seguinte experimento. , . 1) Escolha de acordo com e de acordo com a , seja , ,

          ⊗ a−1 ‖ 2) Para cada ∈ ¶1, 2, ≤ ≤ ≤ , ℎ♢, com probabilidade 1⊗ ‖ ⊗1

        • + = caso contrário selecione de acordo com ( a , , ) . ′ ′ ′ ′

          ⊗ a−1 3) Assim o estado é atualizado para ( , ), onde = e = . h Note que a marginal de escolher de acordo com , é igual ao acoplamento ótimo a entre , e , , em outras palavras, ( , , . a a−1 ̸= ) =‖ a−1 ‖ ⊗1 a ⊗1 diferem no vértice . Então Usaremos o símbolo para representar a atualização ( ) ⊃ a e suponha que e ′ ′ ′ ′ ′ ′

          ( ( , , , ) = 2) ⊗1 )) = 1 ≤ ( ( ⊗1 ) = 1) + 2 ≤ ( ( ⊗1 ′ ′ ′ ′

          , ) = 0) + ( ( , ) = 2) =

          = 1 ⊗ ( ( ⊗1 ⊗1 ∑︁ = ( ) ( ⊗1 ⊗1 1 ⊗ ( ) ( = ) + ̸= = ) = ̸= ∑︁ a a + , , , , 1 ⊗ ( )[1⊗ ‖ ( a−1 ‖ ( ) ‖ a−1 ‖ ⊘ Ñ. ̸=

          Assim conclui-se que ′ ′ ′ ′ ′ ′ ∑︁ ∑︁ ℎ ℎ ( ( , )) = ( ( , )) = ( ( , (2.7) =1 =1 ⊗1 ⊗1 )) ⊘ Ñℎ = Ñ ( , ). Ou seja, temos que é uma contração pela esperança. Ainda obtemos ( , 2 2 ′ ′

          ) ⊘

          

        Ñ ( , ) e aplicando a esperança em ambos dos lados, usando as propriedades da

          esperança e a equação obtém-se 2 ( ( , ( , ). 2 2 )) ⊘ Ñ ( ( , .

          )) ⊘ Ñ ( , ) ⊘ Ñ Logo ( e através de

          ̸= ) ⊘ Ñ obtemos pelo Teorema ‖ ÛÞ ‖ ⊘ Ñ manipulações com logaritmo conclui-se que ‖ ÛÞ ‖ ⊘ .

          Capítulo 2. Acoplamentos

          O Teorema da Convergência por si só é visto como um resultado muito interessante na teoria de cadeias de Markov. Sabemos que ao considerar uma cadeia de Markov com transição , se for irredutível e aperiódica, então existe uma única distribuição esta- cionária. O Teorema da convergência estima o tempo que leva para que a distribuição convirja para a estacionária. Antes de enunciar e demonstrar o Teorema da convergência, vamos apresentar a noção de cadeia de Markov aperiódica

          Definição 2.3.10.

          (Cadeia aperiódica) Considere uma cadeia de Markov com matriz de

          ( , )♢ o conjunto dos tempos possíveis da cadeia

          transição e seja å( ) = ¶ > 0;

        voltar para o instante inicial . O período do estado é deĄnido pelo máximo divisor

        comum de å( ) e caso o período seja igual a 1 para todos os pontos ∈ Ω, então dizemos

        que a cadeia é aperiódica.

          Teorema 2.3.11.

          (Teorema da Convergência) Suponha que é irredutível e aperiódica com distribuição estacionária Þ. Então existe uma constante Ð ∈ (0, 1) e > 0 tal que ∈Ω . (2.8)

          ‖ ( , ≤) ⊗ Þ ‖ ⊘ Ð

          Demonstração. Usando o teorema com Ü = Þ e Û = Ó chegamos que

          (á > ). (2.9) ‖ Þ

          ( , ≤) ‖⊘ Vamos mostrar que (á <

          ∞) = 1 para todo ∈ Ω, para isso considere o acopla- mento ( , ) de duas cadeias com e ÓÞ. Como é irredutível e aperiódica, usando a proposição 1.7 da referência temos que existe , Ñ = min ( , ) > 0 Ąxando

          

        , , obtém-se que

          ∈ Ω e denotando ¶ ̸= ̸= ♢ = ( ) ⊘ 1 ⊗ Ñ. Usando noções básicas de probabilidade condicional temos

          ( 2 ) ⊘ 1 ⊗ Ñ. 2 ( 2 .

          ) ⊘ (1 ⊗ Ñ) E usando indução, conclui-se que ( .

          ) ⊘ (1 ⊗ Ñ) Portanto quando tende ao inĄnito, então (á > ) tende a zero, ou seja, (á < e

          ∞) = 1 e ainda, usando a noção de divisão Euclidiana podemos escrever = + assim

          (á ) = (á ) =

        • > > > , á >

        2.3. Acoplamentos em Cadeias de Markov

          = (á > ) ⊘ (1 ⊗ Ñ) .

          (á

          >

          ) ⊘ (1 ⊗ Ñ) = (1 ⊗ Ñ) tr0 r = (1 ⊗ Ñ) t r ≤ (1 ⊗ Ñ) r r

          ⊘ ((1 ⊗ Ñ) 1 r ) ≤ .

          Por e substituindo (1 ⊗ Ñ) 1 r por Ð, conclui-se que ‖ Þ ( , ≤) ‖⊘ Ð .

        3 Problema de Monge Kantorovich

          Os problemas de Monge e Kantorovich estão contextualizados na teoria do transporte ótimo, que nasceu na França em 1781, com o artigo de Monge. Essa teoria ganhou um destaque devido a diversos pesquisadores em diferentes áreas da Matemática ter relacio- nado em suas pesquisas. Estes problemas não são apenas importantes na Matemática, em 1975 Kantorovich e Tjalling Koopmans ganharam o prêmio Nobel da economia pelas suas contribuições nesses problemas. Neste capítulo vamos apresentar os problemas de Monge e de Kantorovich, veriĄcar a relação entre os problemas, encontrar condições para que o problema tenha solução e mostrar uma aplicação destes problemas que é demonstrar a desigualdade Isoperimétrica. As principais referências desse capítulo são

          Neste capítulo faremos uso de conceitos estudados como Topologia, Função Semicon- tína e Análise Convexa no decorrer dos resultados, para demonstração dos principais re- sultados desse trabalho, como o Teorema Fundamental do Transporte Ótimo e o Teorema de Brenier.

        3.1 Monge X Kantorovich

          Relembre que, um acoplamento de Û e Ü é a construção de duas variáveis aleatórias e em um mesmo espaço de probabilidade (Ω, ), tal que Û e Ü.

          O objetivo deste capítulo é apresentar o problema de Monge e o problema de Kan- torovich, que dados duas medidas, minimizar uma determinada função cujo domínio é o conjunto de todos os acoplamentos. Esses problemas nos levam a estudar um pouco mais sobre acoplamentos, retornaremos com o seguinte exemplo. 1 Exemplo 3.1.1. Sejam Û = Ü = (1, ) a medida de probabilidade, que podemos asso- 2

          

        ciar a um lançamento de uma moeda justa e Ąxe os seguintes espaços de probabilidade

        1 , Û , Ü , Ò ). 2 1 2

          ( , ℱ ), ( , ℱ ) e ( × , ℱ × ℱ 1

        1) DeĄna duas variáveis aleatórias independentes tal que Ò( = , = ) = . Note

          4 que de fato ( , ) formam um acoplamento de Û e Ü pois ∑︁ Ò ∑︁ ( = , = ) = Û( ).

          Ò ( = , = ) = Ü( ).

          Capítulo 3. Problema de Monge Kantorovich Ou seja, conclui-se que Û e Ü.

          2) = é um outro exemplo de acoplamento de Û e Ü.

          Dada duas distribuições de probabilidades Û e Ü sempre é possível realizar um acopla- mento, por exemplo Þ = Û × Ü, o primeiro acoplamento do exemplo anterior, que é um tipo de acoplamento trivial.

          Observando com mais detalhes, pode-se notar que no primeiro acoplamento do exemplo acima, o resultado da variável aleatória não traz nenhuma informação nova sobre a variável . Já o segundo caso, a informação do resultado de determina completamente o resultado de e esse fato motiva a nossa próxima deĄnição.

          Definição 3.1.2.

          (Acoplamentos determinísticos) Um Acoplamento ( , ) é dito deter- minístico se existe uma função mensurável : ⊃ tal que ( ) = . 1 Exemplo 3.1.3.

          ) e , variáveis aleató-

          Considere Ω = ¶ , , Û = Ü = ( 2 rias em Ω tal que ⨄︁ ⨄︁ ∏︁ ∏︁ 1, = .

          ⊗1, = . ( ) = ( ) = ⎩ ⎩ 1, = .

          ⊗1, = .

          Neste caso ( , ) é um acoplamento de Û e Ü desde que Û e Ü, a conclusão deste exemplo é que o acoplamento ( , ) é determinístico com = ( ) = ⊗ .

          Dizer que um acoplamento ( , ) é determinístico é equivalente a qualquer uma das condições abaixo a) ( , ) é um acoplamento de Û e Ü cuja distribuição Þ é concentrada em um gráĄco de uma função mensurável : ⊃ . # Û = Ü. (Onde # Û ). ⊗1

          b) Û e = ( ), onde = Û

          c) Û e = ( ), onde é a mudança de variáveis de Û para Ü, ou seja, para toda função Ü⊗integrável vale: ∫︁ ∫︁ ã ( ) Ü( ) = ã ( ( )) Û( ).

          d) Þ = ( , ) Û. # A aplicação que aparece nas sentenças acima é chamada aplicação transporte indu- zido por . Informalmente, a aplicação transporta toda massa em , representada com medida Û( ), para o compartimento = ( ) de medida Ü( ).

        3.1. Monge X Kantorovich

          O problema de Monge, informalmente, é Ąxado duas medidas de probabilidades, uma em um conjunto e outro em um conjunto , encontrar uma aplicação : ⊃ de modo que toda a massa em seja transportada para com o menor custo possível. Segue abaixo o problema de Monge de modo formal.

          Problema 3.1.4.

          (Monge) Sejam Û ∈ ( ) e Ü ∈ ( ) duas distribuições de probabi-

        lidade e considere uma função, chamada custo, : × ⊃ R ∪ ¶∞♢. O problema de

        Monge é minimizar a função ∫︁

          ( , ( )) Û( ). (3.1) ⊃

          Sobre todas as aplicações transporte tal que # Û = Ü. Em outras palavras, queremos minimizar sob todos os acoplamentos determinísticos de Û e Ü a função ∫︁ × ( , ) Þ( , ) sendo Þ = ( , ) Û. (3.2) #

          Independente da escolha da função custo , o problema de Monge pode não ser bem posto por que: ∙ A aplicação transporte, , pode não existir, por exemplo, seja Û uma Dirac e Ü uma não Dirac, ao supor que existe uma aplicação que satisfaz o item (b) nas condições acima conclui-se que Ü é uma Dirac o que é um absurdo. # Û = Ü pode não ter uma sequência fracamente fechado, com respeito

          ∙ A restrição a topologia fraca.

          Um fato importante na teoria de acoplamentos, nem todo par de distribuições Û e Ü possui acoplamentos determinístico. Uma maneira de superar essas diĄculdades é relaxar o problema, minimizando a função sob todos os acoplamentos ao invez de minimizar com respeito a todos os acoplamentos determinísticos. Com essa motivação será apresentado o problema de Kantorovich.

          

        Problema 3.1.5. :(Kantorovich) Nas mesmas condições do problema anterior, queremos

        minimizar a função em (Û, Ü), que é o conjunto de todos os acoplamentos de Û e Ü.

        ∫︁ Ò

          (3.3) ⊃ ( , ) Ò( , ) sendo Ò (Û, Ü). × Lembrando que, quando dizemos Ò é um acoplamento de Û e Ü temos.

          Ò ( × ) = Û( ) ∀ ∈ ℬ( ). Ò

          Capítulo 3. Problema de Monge Kantorovich

          Equivalentemente tem-se que ( ) Ò = Û e ( ) Ò # # = Ü. O valor de Ò( × ) representa a quantidade de massa que é levada de para . Algumas das vantagens do problema de Kantorovich são:

          ∙ (Û, Ü) nunca é vazio, pois contém a medida produto Û×Ü, ou seja, Ò( × ) =

          Û ( ) ≤ Ü( ).

          ∙ Plano de transporte, ou seja, acoplamentos inclui acoplamentos determinísticos, desde # Û # Û (Û, Ü). = Ü implica que Ò = ( × )

          ∙ Mínimo sempre existe sob certas hipóteses na função custo, como veremos no Teo- rema

          Geometricamente, o que diferencia o problema de Monge para o de Kantorovich é que no problema de Monge cada massa ∈ é totalmente transportada para algum ( ) = ∈ , já no problema de Kantorovich é possível que exista algum ∈ na qual a sua produção é dividida e distribuída em mais Ąliais, digamos , , 1 2

          ≤ ≤ ≤ ∈ . Veja na Ągura abaixo a comparação dos problemas.

          Figura 7 Ű Problema de Monge Figura 8 Ű Problema de Kantorovich O teorema que será provado no Ąnal desta seção nos diz que, nas condições do pro- blema de Kantorovich quando a função custo é semicontínua inferior, então existe o acoplamento que satisfaz o mínimo em A ideia da prova do teorema passa pelo fato de que uma função semicontínua inferior em um compacto assume mínimo. Daí, é preciso fazer um estudo sobre acoplamentos e espaços Polonês.

          Uma observação importante é que pelo fato do espaço ser separável, temos que a topologia fraca é metrizável, para mais detalhes veja

          Definição 3.1.6.

          (Tight) Uma família ⊆ ( ) é dita tight se para todo > 0 existe um conjunto compacto, que depende de ,

          ⊆ tal que para toda medida Û tem-se

        3.1. Monge X Kantorovich

          Û ( ⊗ ) ⊘ .

          Exemplo 3.1.7.

          Quando é um espaço Polonês (ou seja, espaço métrico separável

        e completo). = ¶Ûé tight. De fato, como é separável então existem elementos

        1 , , 2

          ¶ ≤ ≤ ≤ ♢ tais que Ąxado > 0 ⋃︁ ( , ). = =1

          Assim considerando = ( , ) tem-se que a medida Û do complementar de =1 tende a zero. Como união Ąnita de compactos é compacto usando a deĄnição de convergência, conclui-se que Û é tight.

          Exemplo 3.1.8.

          Nas mesmas condições do exemplo anterior. (Û, Ü) é tight, pois basta observar que para cada Ò (Û, Ü) vale Ò 1 2 1 2 1 2 ).

          ( ⊗ × ⊗ ) ⊘ Ò( ⊗ × ) + Ò( × ⊗ ) = Û( ⊗ ) + Ü( ⊗

          Então de sorte que Û e Ü são tight, chegamos a conclusão de que (Û, Ü) também o é.

          Exemplo 3.1.9.

          = (0, 1) considere a família = ¶Ó ; ∈ ♢. AĄrmamos que não

          é tight. De fato, Para cada compacto e para 0 < < 1, existe um elemento no complementar de pois (0, 1) não é compacto e assim obtemos que Ó k ( ⊗ ) = 1 ⊙ .

          O teorema a seguir faz uma conexão entre uma família tight com conjuntos relati- vamente compactos (ou seja, o fecho do conjunto é compacto). Essa relação é um passo importante para nossa demonstração do teorema de existência de mínimo no problema de Kantorovich. O teorema enunciado a seguir por si só tem uma grande importância em Análise.

          Teorema 3.1.10.

          (Prohorov) Seja ( , ) um espaço métrico Polonês. Então uma família

          ⊆ ( ) é relativamente compacto com respeito a topologia fraca se, e somente se, é tight.

          

        Demonstração. Vamos provar apenas que se é relativamente compacto, então é tight,

          em outras palavras, para cada > 0, deve-se encontrar um conjunto compacto ⊆ tal que para todo Û ∈ .

          Û ( ⊗ ) < .

          Para justiĄcar este resultado, será usado o seguinte roteiro.

          Capítulo 3. Problema de Monge Kantorovich ∈N

          ∙ Fixe > 0, então que para toda cobertura por abertos ¶ ♢ de , existe um inteiro tal que para toda medida Û . ⋃︁

          Û ( =1 ) > 1 ⊗ .

          Caso contrário, existe > 0 tal que para todo , existe uma medida Û ⋃︁ ∈ tal que

          Û ( =1 ) ⊘ 1 ⊗ .

          Assim tomando quando necessário uma subsequência de ¶Û ♢ , existe uma medida

          Û tal que Û ⋃︁ ⋃︁ ⋃︁Û quando tende ao inĄnito. Daí pela proposição j Û Û Û

          ( j ( j ( =1 =1 =1 ) ⊘ lim inf ) ⊘ lim inf ) ⊘ 1 ⊗ para todo n ∈ N. ⊃∞ ⊃∞ ⊃∞ Û ( Mas Como = chegamos em um absurdo, pois 1 = Û( ) = lim ) ⊘ =1 =1 lim ⊃∞

          1 ⊗ = 1 ⊗ . 1 , ∙ Usando que é separável, existe um conjunto enumerável = ¶ ≤ ≤ ≤ ♢ denso em

          . A partir do conjunto , construiremos uma cobertura de , a saber, para cada 1

          ⊙ 1 consideremos a cobertura formada por =1 tal que para toda ∙ Pela primeira aĄrmação obtemos para cada ⊙ 1 , existe medida Û ∈ tem-se ⋃︁ m

          , ( ).

          1

        Û ( ( , .

        ⎸ ⎷ m =1 )) > 1 ⊗ 2 1 ( , ) e observe que é fechado, pois união

          ∙ Considere o conjunto = =1 =1 Ąnita de fechado é fechado e a interseção enumerável de fechados é fechados. Mais ainda, é possível concluir que é limitado, pois para cada Ó > 0 podemos tomar 1 m

          

        > ( , Ó ) no que acarreta que é totalmente limitado e

        Ó e obter que =1 portanto é limitado e assim é compacto com respeito a topologia fraca, obtemos

          assim ⋃︁ ⋃︁ ∑︁ ⋃︁ mm

          1

          1

          Û , Û ,

          [ ( )] ( ( ) ) = ( ⊗ ) = Û( ) ⊘ ∑︁ ⋃︁ ∑︁ ∞ ∞ =1 =1 =1 =1 m

          1

          

        ,

          = ( )) < 2 = .

          1 ⊗ Û(

        3.1. Monge X Kantorovich

          Portanto, conclui-se que é tight. Conclusão, se é relativamente compacto, então é tight. A prova da reciproca pode ser encontrada na referência na seção 5 do capítulo 1.

          Lema 3.1.11.

          Considere e espaços Poloneses, então conjunto (Û, Ü) é convexo e compacto com respeito a topologia fraca.

        Demonstração. Compacidade com respeito a topologia fraca segue do teorema de Proho-

        rov combinado com o exemplo e o fato de que o conjunto (Û, Ü) ser fechado. ∈N uma sequência em (Û, Ü) com

          Resta justiĄcar a última aĄrmativa, seja ¶Ò

          Ò

          ⊃ Ò, note que

          

        Ò Ò Û ( )

          ( × ) = lim ( × ) = lim ⊃∞ ⊃∞

          

        Ò Ò Ü ( )

          ( × ) = lim ( × ) = lim ⊃∞ ⊃∞ 1 e Ò 2 portanto Ò (Û, Ü). Para justiĄcar a Convexidade considere Ò (Û, Ü) por arbitrários e para cada ∈ (0, 1) deĄna à

          à 1 2 (≤) = Ò (≤) + (1 ⊗ )Ò (≤).

          Vamos veriĄcar se à pertence ao (Û, Ü) para todo , qualquer que seja o conjunto mensurável ⊆ e ℬ ⊆ temos

          à 1 2 ( × ) = Ò ( × ) + (1 ⊗ ) ≤ Ò ( × ) = Û( ) + (1 ⊗ ) ≤ Û( ) = Û( ).

          De forma análoga conclui-se que à pertence a (Û, Ü) ( × ) = Ü( ). Portanto à para todo em (0, 1).

          Teorema 3.1.12.

          Seja : × ⊃ R ∪ ¶∞♢ uma função semicontínua inferior e

        limitada inferiormente, então existe um acoplamento em (Û, Ü) que minimiza a

        √︃ função å(Ò) = ( , ) Ò .

          Demonstração. Dividiremos a demonstração nos seguintes passos

          ∙ Usando o lema temos que o conjunto (Û, Ü) é compacto com respeito a topologia fraca. ∙ Pela proposição existe uma sequência de funções contínuas ¶ ♢ tal que ≻ .

          √︃ Capítulo 3. Problema de Monge Kantorovich

          (Ò) = ( , ) Ò em (Û, Ü), note que å é contínua para todo ∙ Considere å

          ∈ N, usando o teorema da convergência monótona, obtemos åå, que nos leva a concluir, também pela proposição que å é uma função semicontínua inferior. ∙ Pelo item anterior temos que å é uma função semicontínua inferior, usando a compa- * cidade de (Û, Ü) e o teorema nos garante que existe um Ò que assume valor mínimo da função å.

          Vale ressaltar no teorema acima que se a função custo for semicontínua, então existe um acoplamento que resolve o Problema de Kantorovich. O exemplo a seguir mostra um exemplo no problema de Kantorovich cujo o custo é uma função semicontínua inferior e não contínua e mesmo assim podemos garantir a existência do acoplamento ótimo.

          Exemplo 3.1.13.

          Seja = = R, considere o Problema de Kantorovich para as medi- das Û e Ü com ⨄︁ ∏︁

          0 se ( , ) = (0, 0) . ( , ) = 1 caso contrário

          Então o teorema nos garante que existe um acoplamento ótimo e mais ainda basta

        considerar qualquer acoplamento que concentre a maior massa possível em (0, 0), ou seja,

        basta considerar Ò um acoplamento de Û e Ü com Ò(0, 0) = min¶Û(0), Ü(0)♢.

          Um fato importante na teoria de acoplamentos é que todo sub-acoplamento (acopla- mento restrito a um subconjunto de × ) de um acoplamento ótimo é ainda ótimo, em outras palavras, para cada transporte ótimo, qualquer sub-plano é ainda ótima. Este fato decorre do teorema a seguir. 1 1 Teorema 3.1.14.

          (Ü), 1 Sejam ( , Û) e ( , Ü) dois espaços poloneses, (Û), √︃ recorde que Û < ∞♢. Considere : × ⊃

          (Û) = ¶ : ⊃ R; é mensurável, R

          ∪¶∞♢ função mensurável tal que ( , ) ⊙ ( )+ ( ). Seja (Û, Ü) o custo do transporte

          

        ótimo de Û e Ü, assumindo que este custo é Ąnito, considere ainda Þ (Û, Ü) um

        plano de transporte ótimo e Þ

          ⊘ Þ e uma medida não negativa em × , tal que Þ Þ ( × ) > 0. Então

          Þ Þ ” =

        Þ

          ( × ) ′ ′

          é um plano de transporte ótimo entre suas marginais Û e Ü . Mais ainda, se Þ é o ′ ′ único plano ótimo de Û e Ü, então Þé o único plano ótimo entre Û e Ü . ′′

        Demonstração. Suponha que Þ não seja um transporte ótimo, então existe uma medida

        Ò

          tal que

          3.2. Ciclo monótono e a dualidade de Kantorovich ⨄︁ ∏︁ ( ) Ò = ( )Þ” = Û . # ( ) Ò = ( )Þ” = Ü . # e ∫︁ ∫︁ × × ′ ′ ′ ′ ( , ) Ò( , ) < ( , ) Þ.

          ) + Ò , onde = Þ Considere Þ = (Þ Þ ( × ) > 0. Assim Þ tem a mesma marginal de Þ e ainda temos que o plano Þ tem um custo menor do que Þ, o que gera uma contradição. Conclusão Þ” é um plano ótimo e a unicidade se justiĄca de modo análoga.

          Exemplo 3.1.15.

          Se ( , ) é um acoplamento ótimo de Û e Ü, e ⊆ × tal que

          [( , ) ∈ )] > 0, então o par ( , ) condicionado a , é um acoplamento ótimo de ′ ′ ′ (Û , Ü ), onde Û

          é a é a distribuição de condicionado com o evento "( , ) ∈ "e Ü distribuição de condicionado ao mesmo evento.

        3.2 Ciclo monótono e a dualidade de Kantorovich

          Para continuar o estudo de acoplamentos vamos fazer um estudo sobre dois conceitos na teoria de transporte ótimo. O primeiro é uma propriedade geométrica chamada - ciclo monótono e a segunda é o problema dual de Kantorovich. Esses tais conceitos tem uma grande importância neste trabalho, pois um dos principais resultados envolvendo os problemas de Monge e Kantorovich está baseado no fato de um determinado conjunto ser ou não -ciclo monótono. Iniciaremos estudando estes conceitos através do seguinte exemplo.

          Exemplo 3.2.1.

          Considere o conjunto das Ąliais de uma empresa que fabrica refri- 1 , , 2

        gerantes e uma grande franquia de lanchonetes, com Ąliais = ¶ ≤ ≤ ≤ , e

        1 , , 2

          = ¶ ≤ ≤ ≤ , . Deve-se transportar produtos da empresa , na qual a proporção

          

        fabricada por cada Ąlial é associada a uma medida de probabilidade, para , cuja de-

        manda de cada fábrica também está associada a uma medida de probabilidade. Cada Ąlial

        produz uma determinada quantidade de refrigerantes e cada Ąlial precisa de uma determinada quantidade do produto de .

          , ) signiĄca o custo do Considere uma função custo : × ⊃ R, onde (

        transporte por unidade de para . O objetivo do problema é transportar os produtos da

        , ) empresa para com o menor custo. Escolha um plano de transporte Ò, sendo Ò( o quanto de produto devemos levar de para .

          Como existem reclamações de que o custo do transporte inicial é muito alto, então

        a tentativa é escolher outro plano com o intuito de reduzir o custo. Para tal propósito

        escolha uma empresa 1 e envie a unidade da produção que era destinada a 1 para 2 ,

          Capítulo 3. Problema de Monge Kantorovich

        assim o lucro é de ( , , ). É claro que resulta excesso de produto de , então

        1 1 1 2 2

          ) ⊗ (

          

        repassa o restante para e assim sucessivamente. Com esta alteração na distribuição

        3 temos um novo plano de transporte, que é melhor do que o antigo se, e somente se, ∑︁ ∑︁

          ( , +1 ( , ) =1 =1 ) ⊘

          onde convencionamos que +1 = 1 , se = . Então se encontrarmos ciclos ( , )

        em seu plano de transferência que cumpre a desigualdade estrita acima, certamente este

        plano não é ótimo. Reciprocamente, se não encontrar um outro plano que cumpre a de-

        sigualdade estrita acima então seu plano não pode ser melhorado, em outras palavras, o

        plano inicial se torna ótimo. Esse fato motiva a seguinte deĄnição.

          Definição 3.2.2. Sejam , conjuntos arbitrários e uma função custo : × ⊃

          R ¶∞♢. O subconjunto Γ ⊆ × é dita c-ciclo monótono se, para todo ∈ N, toda 1 , ), ( , , ) pontos de Γ, 1 2 2 permutação à de ¶1, 2, ≤ ≤ ≤ , e toda família ( ), ≤ ≤ ≤ , (

          temos ∑︁ ∑︁ , ,

          ( ( à ( ) ). =1 =1 ) ⊘

          O plano de transferência é dito c-ciclo monótono se a medida é concentrada em um conjunto c-ciclo monótono.

          Apoiado na intuição da deĄnição acima mostraremos que um plano é ótimo, se o su- porte do plano é um c-ciclo monótono e vale ressaltar que a reciproca vale sob certas condições. Antes de justiĄcar, vamos apresentar um outro conceito importante é o pro- blema dual de Kantorovich. Enquanto o problema central do original é minimizar o custo, no dual é maximizar os lucros.

          Imagine que uma transportadora ofereça um serviço para cuidar do seu problema de transporte, comprando o produto da empresa e depois vendendo o mesmo para . O que acontece no meio do caminho e o modo da distribuição não é mais relevante no problema. Seja å( ) o preço da unidade do refrigerante na Ąlial e ã( ) o preço de venda da unidade do refrigerante para a padaria .

          Aceitando o serviço da transportadora, o preço pago pelo transporte é ã( ) ⊗ å( ), ao invés do custo original de ( , ). Claro que para cada unidade de refrigerante, se a quantidade tiver uma proporção Û( ) de , então o preço total do produto pode ser dado por å( )Û( ). De modo a ser competitiva, a transportadora precisa conĄgurar os preços de tal forma que

          ã

          (3.4)

        3.2. Ciclo monótono e a dualidade de Kantorovich

          No problema anterior, queríamos minimizar o custo, agora o objetivo do problema é maximizar o lucro da transportadora e isto nos leva naturalmente ao problema dual de Kantorovich.

          Problema 3.2.3.

          (Problema dual de Kantorovich) Sejam Û ∈ ( ) e Ü ∈ ( ) duas distribuições de probabilidades. O problema dual de Kantorovich consiste em maximizar ∫︁ ∫︁

          sup ã å (3.5)

          ¶ å,ã ( ) Ü( ) ⊗ ( ) Û( ); ã( ) ⊗ å( ) ⊘ ( , )♢ 1 1 (Ü).

          onde å : ⊃ R e ã : ⊃ R são duas funções reais com å (Û) e ã

          Com a intervenção da transportadora, o embarque de cada unidade de refrigerante não custa mais do que custava quando se lidava com o transporte; é natural que o supremo de não é maior do que o custo do transporte ótimo, note que ∫︁ ∫︁ ∫︁ sup ã å inf

          ¶ ¶ å,ã ( ) Ü( )⊗ ( ) Û( ); ã( )⊗å( ) ⊘ ( , )♢ ⊘ ( , ) Þ( , )♢. Þ (Û,Ü) × O par de funções (å, ã) é dita competitiva se cumpre

          Dado uma Ąlial , é claro que a transportadora deseja aumentar o máximo possível o preço de ã( ), ou seja, que o preço é igual ao ínĄmo de å( ) + ( , ), dentre todas as Ąliais em . Analogamente, dado , o preço å( ) deve ser supremo de ã( ) ⊗ ( , ) dentre todas as Ąliais em . DeĄnimos que o par de preço é tight se ⨄︁ ∏︁

          ã ( ) = inf (å( ) + ( , )

          (3.6)

          å ( ) = sup ∈ (ã( ) ⊗ ( , ).

          Intuitivamente, um par de preços é tight se é impossível aumentar o preço de venda e baixar o preço de compra, sem perder a competitividade. Considere o par de preços competitivos (ã, å) qualquer. Podemos sempre melhorar o par substituindo ã por ã ( ) = inf 1 ∈

          ¶å( ) + ( , )♢. Portanto podemos melhorar ainda mais substituindo å por å ( ) = sup , å ) é ainda 1 ∈ ¶ã ( ) + ( , )♢, então o par (ã 1 1 1 competitivo e é melhor ou igual ao par anterior. Naturalmente a partir de (ã , å ) pode- 1 1 mos repetir o processo gerando o par (ã , å ) e consequentemente através de iterações 2 2 podemos gerar o par (ã .å ) melhor do que todos os pares anteriores, mas o que ocorre é que este processo além de ser estacionário, basta realizar uma iterada, ou seja, ã 1 = ã 2 e å 1 = å 2 .

          De fato, vamos mostrar que ã 1 2 ( ), resta mostrar que vale a outra desigualdade, mas note 1 = ã 2 e o outro caso será análogo. Sabemos que para todo ∈ temos ã ( ) ⊘ ã que usando as deĄnições de cada função e o fato de que o para (ã, å) ser competitivo temos

          ã ( ) + ( , ) = sup 2 1 ( ) ⊘ åã( ) ⊗ ( , )♢ + ( , ) ⊘ å( ) + ( , ).

          Capítulo 3. Problema de Monge Kantorovich No que acarreta ã ( ) e consequentemente a igualdade. 2 1

          ( ) ⊘ ã A partir desse fato pode-se concluir, que usando apenas uma iteração no par obtemos o preço tight. Então quando consideramos o problema dual de Kantorovich, faz sentido concentrar nossa atenção no par de preços dados por Dada uma função å pode- mos reconstruir ã em termos de å, assim podemos considerar que a única informação desconhecida do problema, digamos que seja, a função å.

          Mas esta função desconhecida não pode ser qualquer função, pois é necessário que a

          

        å satisfaça o fato que garantir que å cumpra tal condição é se, e somente se, å for

        uma função c-convexa, que motiva a próxima deĄnição.

          Definição 3.2.4.

          (c-convexidade) Sejam e conjuntos quaisquer e : × ⊃

          R ∪ ¶∞♢ uma função custo. Uma função å : ⊃ R ∪ ¶∞♢ é dita c-convexa se não é

          constante , e se existe uma função Ý : ⊃ R ∪ ¶∘∞♢ tal que

          (3.7) ∀ å( ) = sup (Ý( ) ⊗ ( , )).

          DeĄnimos sua c-transformada sendo uma função å onde ( ) = inf (å( ) + ( , )).

          ∀ å

          A deĄnição da subdiferencial de uma c-convexa å é deĄnida por å

          = ¶( , ) ∈ × ; å ( ) ⊗ å( ) = ( , )♢.

          å se Ou equivalentemente, ( , ) ∈

          ∀ å( ) + ( , ) ⊘ å( ) + ( , ).

          Mais ainda,

        å å

          ( ) = ¶ ; ( , ) ∈ .

          

        Note que pela deĄnição apresentada acima, å é um conjunto c-ciclo monótono

        Exemplo 3.2.5.

          Seja ( , ) espaço métrico e considere ( , ) = ( , ). Então uma

        função å é c-convexa se, e somente se, å é uma função lipschitziana com a constante

        igual a 1. Mais ainda, a sua c-transformada é a própria função. De fato, suponha que

        å seja uma função c-convexa, então existe uma função Ý que cumpre a condição ,

        assim usando a desigualdade triangular, obtemos para quaisquer , .

          å ( ) = sup Ý Ý ∈ ∈ ( ) ⊗ ( , ) ⊙ sup ( ) ⊗ ( , ) ⊗ ( , ) = å( ) ⊗ ( , ).

          No que implica que ( , ) ⊙ å( ) ⊗ å( ), e portanto å é Lipschitziana. Reciproca-

        3.2. Ciclo monótono e a dualidade de Kantorovich

          

        quaisquer , , em particular, Ąxando obtemos que å( ) ⊗ ( , ) ⊘ å( ) e

        å

        consequentemente å( ) ⊙ sup ∈ ( ) ⊗ ( , ) e para = , obtemos que å( ) =

          sup å ∈ ( )⊗ ( , ) e portanto å é uma função c-convexa com sua c-transformada sendo ela mesma.

          

        Exemplo 3.2.6. , a importância deste exemplo se deve

          ( , ) = ⊗ < , > em R × R

          

        ao fato de que uma função å : ⊃ R ∪ ¶∞♢ é c-convexa, se e somente se, å é uma

        função semicontínua inferior e convexa, para maiores detalhes veja a referência na

        seção 1.2.

          Dada uma função å deĄnida em , então sua c-transformada é uma função deĄnida em e reciprocamente, dada uma função em , pode-se deĄnir a sua c-transformada em . Essa simetria de funções entre e e inspirado na equação podemos deĄnir a noção de função c-côncava.

          Definição 3.2.7.

          (c-concavidade) Com a mesma notação da deĄnição anterior, uma

        função ã : ⊃ R ∪ ¶⊗∞♢ é dita c-côncava se não é identicamente ⊗∞ e se existe uma

        . função å : ⊃ R ∪ ¶∘∞♢ tal que ã = å DeĄnimos sua c-transformada, uma função ã deĄnida por

          ( ) = ãã( ) ⊗ ( , )♢.

          E sua c-superdiferencial é um conjunto c-ciclo monótono deĄnida por ã

          = ¶( , ); ã( ) ⊗ ã ( ) = ( , )♢.

          ã Ou equivalentemente,( , ) ∈ , então para todo temos ã ( ) ⊗ ( , ) ⊙ ã( ) ⊗ ( , ).

          Uma observação importante sobre as deĄnições acima, no caso = , que pode ser justiĄcado diretamente da deĄnição, se uma função å é c-convexa, então ⊗å é c-côncava,

          å = (⊗å).

          Teorema 3.2.8.

          (Fundamental do Transporte Ótimo) Seja : × ⊃ R uma função

        contínua e limitada inferiormente e sejam Û ∈ ( ) e Ü ∈ ( ) tal que para algum

        1 1

          (Ü) cumpre

          (Û) e (3.8) ( , ) ⊘ ( ) + ( ).

          Para Ò (Û, Ü) as seguintes condições são equivalentes i) Ò é um acoplamento ótimo.

          Capítulo 3. Problema de Monge Kantorovich ii) (Ò) é um conjunto ciclo monótono, onde (Ò) = ¶( , ); Ò( ) ̸= 0) ∀ , ( , ) ∈ , é Ò mensurável. 1 ã . iii) Existe uma função c-côncava ã tal que ã, 0♢ ∈ (Ü) e (Ò) ⊆ Demonstração. Primeiramente Note que por temos que a função , 0♢ é 1 ′ ′

          (Ò ) para todo acoplamento Ò integrável e (Û, Ü). De fato, ∫︁ ∫︁ ∫︁ ( , ) Ò ( ) Û( ) + × ⊘ ( ) Ü( ) < .

          ) ⇒ ) ∙ Vamos supor por contradição, então existe um número natural e pares

          ( 1 , 1 , ), ≤ ≤ ≤ , ( ) ∈ (Ò) e alguma permutação à de ¶1, 2, ≤ ≤ ≤ , ♢; ∑︁ ∑︁ =1 =1 ( , ) > ( , à ). ( ) e para cada

          ∙ Pela continuidade da função existem abertos ∈ ¶1, 2, ≤ ≤ ≤ , ♢ e ainda que para todo temos que × (Ò) tal que ∑︁ ∑︁

          ( , ) > ( , à ( ) , . (3.9) × =1 =1 ) ∀( ) ⊆

          = Ö + Ò com o intuito de contrariar a ∙ A ideia é construir uma "variação"Ò minimidade de Ò, para isto a medida Ö deve satisfazer

          A) ÖÒ, ou seja, a parte negativa da medida Ö é menor ou igual a Ò.

          B) Nulo na primeira e segunda marginal, ou seja, Ö( , ) = 0 e Ö( , ) = 0. √︃

           Ö C) é negativa.

          ∙ Considere Ω = Π =1 × e ∈ (Ω) deĄnido por

          1

          Ò , i × j

          (≤) = Π =1 (≤)♣ onde = Ò( ). DeĄna Ö por × ∑︁ j σ j j (j) Ö = (Þ , Þ ) # , Þ ) # . ⊗ + ≤ ⊗ (Þ =1

          Note que Ö = ÖÖ , cumpre as condições acima. De fato considere × ⊆ Ω , onde .

          ∪ × × mensurável, então = =1

          3.2. Ciclo monótono e a dualidade de Kantorovich j j j j √︁ √︁

          ( )Ö (Þ , Þ ) (Þ , Þ ) ( # # ( × ) = ≤ =1 ( × ) = ≤ =1 × √︁

          ) = ( , , , ) = 1 1 +1 +1 ≤ =1 × ≤ ≤ ≤ , × × ≤ ≤ ≤ , × √︁ Ò ( ) Ò

          × ( × ) ≤ =1 ⊘ ⊘ Ò( × ). √︁ j j j σ (j) (Þ , Þ ) # ( , Þ ) # (

          ≤ × )⊗(Þ × ) = 0 ( )Ö( × ) = =1 pois note que não existe um conjunto em Ω tal que a imagem desse conjunto pelas projeções seja √︃ √︃ √︃ × . ( ) ( , ) Ö( , ) = ( , ) Ö ( , ) Ö ( , ) ⊗ ( , ) ⊘ 0, por + Portanto segue a prova.

          ) ⇒ ) ∙ Vamos provar primeiramente que se um conjunto Γ ⊆ × é ciclo mo- 1

          (Ü) e nótono, então existe uma função c-côncava ã tal que ã, 0♢ ∈

          ã .

          Γ ⊆ ∙ Fixemos ( , ) ∈ Γ e observe que se existir uma função ã que cumpre as condições acima, então para toda escolha de ( , ∏︁ ⨄︁ ) ∈ Γ temos

          ã ( ) ⊗ ã ( ) ⊘ ( , ) ∀( , ) ∈ × .

          (3.10)

          ã ( ) ⊗ ã ( ) = ( , ) ( , ) ∈ Γ.

          Usando várias vezes as expressões em obtemos a possível candidata

          ã , ) + ã ( ) = ( , , ) + ã( 1 1 1 1 1 1

          ( ) ⊘ ( ) ⊗ ( ) ⊘ ( ( 1 , 1 , 1 )) + ( 2 , 1 ) + ã ( 2 )

          ) ⊗ (

          , , , ,

          = ( ( 1 1 1 )) + ( ( 2 1 2 2 )) ) ⊗ ( ) ⊗ (

        • ã ( , , ))
        • 2 1 1 1 ) ⊘ ≤ ≤ ≤ ( ( ) ⊗ (
        • ( ( , ,
        • 2 1 2 2 ) ⊗ ( )) + ≤ ≤ ≤ + ( , ) ⊗ ( , )) + ã( ).

            ∙ O que motiva a considerar a seguinte função candidata

            ã ( ) = inf ( ( 1 , 1 , 1 ))+( ( 2 , 1 2 , 2 , ( j , j )∈Γ )⊗ ( )⊗ ( ))+≤ ≤ ≤+ ( , )⊗ ( , )). 1 , (3.11) 1 ) =

            Por sabemos que ã( ) ⊘ 0, pois basta tomar = 1 e ( ( , ) e ainda por Γ ser um conjunto ciclo monótono, obtemos que ã( ) ⊙ 0, no que acarreta ã( ) = 0.

            Capítulo 3. Problema de Monge Kantorovich , , ) + ( j j )∈Γ 1

            ∙ ã é uma função c-concava, pois deĄnido å( ) = inf ⊗ ( , ( ( , , 2 1 2 2

            ) ⊗ ( )) + ≤ ≤ ≤ + ( ( , ) ⊗ ( , )) , assim

            å

            ( ) = inf ( , )+å( ) = inf 1 ( , )⊗ ( , ∈ ∈ ,( j j )∈Γ , , )+≤ ≤ ≤+( ( , )⊗ ( , )) ⊘ inf 1 ⊘ ¶ ( , ) ⊗ ( , ) + ≤ ≤ ≤ + ( ( , ) ⊗ ( , )) = ã( ). , , ( , )∈Γ,( j j )∈Γ

            E ainda, para 1 = temos que

            ã inf ))+( ( , , 1

          2

          1 2 2

            ( ) ⊘ ( ( , )⊗ ( , )⊗ ( ))+≤ ≤ ≤+ ( , )⊗ ( , )) = , ( , )∈Γ j j

            , ,

            = ( , )+ inf 1 ))+( ( 2 1 2 ( j j )∈Γ 2 , , (⊗ ( , )⊗ ( ))+≤ ≤ ≤+ ( , )⊗ ( , )) = ( ).

            = ( , ) + å( ) ⊘ å Daí obtemos que a função ã é c-côncava, pois ã = å . 1 (Ü) , de fato

            ∙ ã, 0♢ ∈

            ã ( ) ⊘ ( , ) ⊗ ( , ) ⊘ ( ) + ( ) ⊗ ( , ) < . 1 (Ü).

            Ou seja, ã, 0♢ ∈ ã . ∙ Γ ⊆ ′ ′

            Seja ( , ) ∈ Γ, então para todo ∈ .

            ′ ′ ′ ′ ′ ′

          ã , , )+ inf ( ( , , , , )).

          1 1 1

            ( ) ⊘ ( )⊗ ( )⊗ ( ))+≤ ≤ ≤+( ( )⊗ ( , , ( j j )∈Γ O que implica que ′ ′ ′ ′ ã , , ) + ã( ).

            ( ) ⊘ ( ) ⊗ ( ′ ′ O que nos leva a concluir que ( , ã ã .

            ) ∈ , e portanto Γ ⊆ ∙ Como temos por hipótese que (Ò) é ciclo monótono então segue o re- sultado.

            ) ⇒ ) Seja Ò (Û, Ü) um plano de transporte qualquer. Precisa- √︃ √︃ mos mostrar que Ò Ò , note que por temos ∫︁ ∫︁ ∫︁ ∫︁ ⊘ ( , ) Ò( , ) = ã ( ) Ò( , ) = ã ã ( ) Û( ) = ∫︁ ∫︁ ( )⊗ã ( ) Ü( )⊗ ′ ′ = ã ( ) Ò ( , ) Ò ( , ).

            ( ) ⊗ ã ( , ) ⊘ Portanto Ò é um acoplamento ótimo.

            3.3. Uma sugestão de algoritmo Teorema 3.2.9.

            (Teorema da dualidade) Sejam Û ∈ ( ), Ü ∈ ( ) e : × ⊃

            R

            contínua e limitada inferiormente. Suponha que ( , ) ⊘ ( ) + ( ), nas mesmas

          condições do teorema anterior. Então o mínimo do problema de Kantorovich é igual ao

          supremo do problema dual. Mais ainda, se (ã, å) é o par de preços ótimo, então ã é uma

          função c-côncava e å = ã .

            Demonstração. Note que para todo par (ã, å) temos ∫︁ ∫︁ ∫︁ ∫︁ ã ã å ( ) Û( ).

            ( , ) Ò( , ) ⊙ ( ) ⊗ å( ) Ò( , ) = ( ) Ü( ) ⊗ Seja Ò um acoplamento ótimo, então pelo teorema anterior, existe ã c-concavo tal que 1 1

            ã

            (Ò) ⊆ , max¶0, ã♢ ∈ (Ü) e max¶ã ♢ ∈ (Û). Então por ) ⇒ ), temos ∫︁ ∫︁ ∫︁ ∫︁ ′ ′ ( , ) Ò ( , ) = ã ( ) Ò ( , ) = ã ã ( ) Û( ). 1 ( ) ⊗ ã ( ) Ü( ) ⊗ 1 (Ü) e ã (Û) e ainda conclui-se que (ã , ã ) é um acoplamento

            O que acarreta ã admissível o que mostra a igualdade das soluções do problema original com o dual de Kantorovich.

            3.3 Uma sugestão de algoritmo 1 , , 1 Considere o problema de Kantorovich com = ¶ ≤ ≤ ≤ , ♢ e = ¶ ≤ ≤ ≤ , ♢ e

            medidas Û = ( , ) e Ü = ( , ). Nesta seção iremos propor um algoritmo para 1 1 ≤ ≤ ≤ , ≤ ≤ ≤ , obter o transporte ótimo, a principal referência desta seção é Capítulo 14]. Considere duas matrizes, com linhas e colunas, sendo a primeira a tabela de custo, cuja a entrada é igual a ( , ) e a segunda matriz é o plano de transporte onde a entrada

             , é Ò( , ).

          ∏︀ ⎞

            ( , ) ( , , ) 1 1 1 2 ̂︁ ̂︂ 1 ̂︁ ̂︂ ) ≤ ≤ ≤ ≤ ≤ ≤ ( ̂︁ ( , ) ( , , ) 2 1 2 ̂︁ ̂︂ 2 2 ̂︂ ̂︁ ̂︂ ̂︁ ̂︂ ) ≤ ≤ ≤ ≤ ≤ ≤ ( ∐︁ ̂︀ ... ... ... ... ( 1 , )

            

          , , ,

            ( 1 ) ( 2 ) ∏︀ ) ≤ ≤ ≤ ≤ ≤ ≤ (

            Ò ( 1 , 1 ) Ò( 1 , 2 1 , ) ̂︁ ̂︁ ) ≤ ≤ ≤ ≤ ≤ ≤ Ò( ̂︂ ̂︂ ̂︁ Ò ( 2 , 1 ) Ò( 2 , 2 2 , ) ̂︂ ̂︁ ̂︁ ̂︁ ) ≤ ≤ ≤ ≤ ≤ ≤ Ò( ̂︂ ̂︂ ̂︂ ∐︁ ... ... ... ... ( , ) 1 ̂︀

          Ò ( , ) Ò( , , )

          1 2

            Capítulo 3. Problema de Monge Kantorovich

            Por questão de simpliĄcação chamaremos Ò = Ò( , ). Observe que uma condição para [Ò ] ser um acoplamento de Û = ( , ) e Ü = ( , ) é × 1 1 ∑︁ ≤ ≤ ≤ , ≤ ≤ ≤ , ∑︁ =1 Ò = (3.12) =1 Ò = (3.13) O algoritmo consiste basicamente em aplicar a regra do custo mínimo, ou seja, atribuir maior valor possível para Ò na entrada correspondente ao menor custo. Os passos do algoritmo são

            a) Escolha a menor entrada da tabela de custo, digamos . Se existir mais de uma entrada, escolha uma delas aleatoriamente.

            b) Atribua Ò , deĄnido desse modo chamaremos de variável = min¶ ♢. Cada Ò básica.

            c) Temos os possíveis casos

            < , tome Ò

            ∙ Se = 0 para todo ̸= e observe que nessas condições a -ésima coluna cumpre a equação "Reduza o valor de "para ( ).

            ⊗

            > , tome Ò

            ∙ Se = 0 para todo ̸= e observe que nessas condições a

          • -ésima linha cumpre a equação . "Reduza o valor de "para ( ).

            ⊗ = , preencha com zeros as outras entradas da k-ésima linha ou a l-

            ∙ Se ésima coluna, mas não ambas. Entretanto, se a matriz possui algumas colunas e apenas uma linha para preencher, então escolha a k-ésima linha e se a matriz possui algumas linhas e uma coluna para preencher, então escolha a l-ésima coluna.

            d) Repita os passos anteriores até preencher todas as entradas da matriz.

            Vale ressaltar que o número total de variáveis básicas é + ⊗ 1, pois cada variável básica obtida "é deletado"uma linha ou uma coluna, exceto a última variável básica quando

            "ambos são deletados"e portanto conclui-se que são + ⊗ 1 variáveis básicas.

            Esse algoritmo sugere que o acoplamento obtido pelo algoritmo acima seja ótimo, √︁ √︁ ou seja, esse acoplamento minimiza ( , )Ò( , ). Apesar de não obtermos =1 =1 uma prova para esse fato de um modo geral, dado um exemplo conseguimos justiĄcar essa aĄrmação usando o problema dual de Kantorovich.

            Dado um acoplamento [Ò ] × , tentaremos veriĄcar se essa solução é ótima. A ideia é resolver o seguinte sistema

            , variável básica. (3.14)

            = ( + ) Para todo par ( , ) com Ò

          3.3. Uma sugestão de algoritmo

            ) e = ã( ), referente ao problema dual de Kantorovich. Note que são + incógnitas e + ⊗ 1 equações, pois o número de equações é o número de variáveis básicas. Portanto, uma das incógnitas pode ser Ąxada, digamos igual a zero, e usarmos o sistema para determinar as outras. Uma vez que determinamos e devemos veriĄcar se

            Onde = ⊗å(

          • (

            , ) Para todo ( , ) (3.15)

            Começamos com Ò 11

            = ⊗1, 3 = ⊗2, 4 = ⊗3, 2 = 1, 3 = 2 e 4 = 3. Note que

            , ) Para todo par ( , ) com Ò variável básica. Atribuindo 1 = 0, obteremos 1 = 0,

          2

            Neste momento precisamos veriĄcar se o acoplamento é ótimo para isso

            0 0 0 0 0 0 0 1 4 1 4 0 0 1 4 ̂︂ ̂︂ ̂︂ ̂︂ ̂︂ ̂︂ ̂︀ .

            Seguindo o roteiro apresentado acima chegamos ao acoplamento com as variáveis bá- sicas em negrito ∏︀ ̂︁ ̂︁ ̂︁ ̂︁ ̂︁ ̂︁ ∐︁ 1 4

            0 0 0

            , assim ∏︀ ̂︁ ̂︁ ̂︁ ̂︁ ̂︁ ̂︁ ∐︁ 1 4

            = 1 4

            0 1 2 3 1 0 1 2 2 1 0 1 3 2 1 0 ̂︂ ̂︂ ̂︂ ̂︂ ̂︂ ̂︂ ̂︀

            Se é satisfeito, então podemos aplicar o teorema da dualidade de Kantorovich e isso sugere que o acoplamento [Ò ] seja ótimo, pois ¶ ♢ e ¶ ♢ formam uma solução

            mente vamos construir a tabela de custo ∏︀ ̂︁ ̂︁ ̂︁ ̂︁ ̂︁ ̂︁ ∐︁

            , 1 4 , 0, 1 4

            ) e Ü = ( 2 4

            Considere ( , ) = ♣ , Û = ( 1 4 , 0, 1 4 , 2 4

            Exemplo 3.3.1.

            )Ò = ∑︁ =1 + ∑︁ =1 .

            ,

            ótima do problema dual, ou seja, usando o teorema da dualidade obtemos ∑︁ =1 ∑︁ =1 (

            ). Primeira-

          • ̂︂ ̂︂ ̂︂ ̂︂ ̂︂ ̂︂ ̂︀
            • = (
            • 1

          • 1
          • 2
          • 2
          • 2
          • 2

          • 3
          • 3
          • 3
          • 3
          • 4
          • ∑︁ =1 .

            ) 3

            = 0 = ( 3

            , 3

            ) 4

            = 1 = ( 4

            , 3

            ) 1 + 4 = ⊗3 ⊘ ( 1 , 4 ) 2 + 4 = ⊗2 ⊘ ( 2 , 4 ) 3 + 4 = ⊗1 ⊘ ( 3 , 4 ) 4

            = 0 = ( 4

            , 4

            )

            E observe que ∑︁ =1 ∑︁ =1 ( , )Ò = 1 = ∑︁ =1

            E portanto, o Teorema nos garante que o acoplamento obtido pelo algoritmo é ótimo e as funções å( ) =

            ⊗ e ã( ) = resolvem o problema dual de Kantorovich.

            O problema de Monge consiste em olhar a existência do transporte ótimo induzido por uma aplicação : ⊃ , em outras palavras, planos Ò que são da forma ( , ) #

            Û ,

            onde Û = Þ # Ò e alguma aplicação mensurável.

            Foi discutido no inicio que, em geral o problema de Monge não possui solução. Daí podemos formular a seguinte questão: Fixadas duas medidas Û e Ü e uma função custo , é verdade que existe pelo menos um plano ótimo Ò que é induzido por alguma aplicação?

            A ideia inicial é usar o Teorema Fundamental do Transporte Ótimo, e analisar as propriedades de um conjunto c-ciclo monótono.

            Lema 3.4.1.

            Seja Ò (Û, Ü). Então Ò é induzido por uma aplicação se, e somente

          se, existe um conjunto Γ ⊆ × Ò-mensurável onde Ò é concentrado, tal que existe um

          único = ( ) ∈ Û.q.s. tal que ( , ) ∈ Γ. Neste caso, Ò é induzido pela aplicação .

            Como foi visto no lema acima, um plano ótimo é concentrado em um conjunto c- ciclo monótono e que por sua vez um conjunto c-ciclo monótono está contido em uma

            , 3

            = ⊗1 ⊘ ( 2

            ) 2

            ) 2

            Capítulo 3. Problema de Monge Kantorovich 1 +

          1 = 0 = (

          1 , 1 ) 2 +

          1 = 1 = (

          2 , 1 ) 3

            = 2 = ( 3

            , 1

            ) 4

            = 3 = ( 4

            , 1

            ) 1

            = ⊗1 ⊘ ( 1

            , 2

            = 0 = ( 2

            , 3

            , 2

            ) 3

            = 1 = ( 3

            , 2

            ) 4

            = 2 = ( 4

            , 2

            ) 1

            = ⊗2 ⊘ ( 1

          3.4 Existência de transporte ótimo para o Problema de Monge

          3.4. Existência de transporte ótimo para o Problema de Monge

            c-superdiferencial de uma função c-côncava , ou ainda, que o conjunto c-ciclo monótono está contido em uma c-subdiferencial de uma função c-convexa å. Portanto pelo lema, é necessário entender com que frequência uma c-subdiferencial da å é "valorizado em um ponto singular". Não existe uma resposta geral para esta questão, mas podemos estudar 2

            ♣ ♣ casos particulares. Vamos focar no seguinte caso, e ( , ) = . Para = = R

            2 isso, será preciso apresentar algumas deĄnições e resultados que nos dará condições de responder esta pergunta.

            Definição 3.4.2.

            é dita c-c hipersuperfície se, (c-c hipersuperfície) Um conjunto ⊆ R ⊗1 existem funções convexas , : R

            ⊃ R tal que ⊗1

            , = ¶( , ) ∈ R ; ∈ R ∈ R, = ( ) ⊗ ( )♢.

            Exemplo 3.4.3.

            O GráĄco de uma função convexa e o gráĄco de uma função côncava 1

          são exemplos de c-c hipersuperfície. Em Particular, a esfera pode ser obtida por uma

          1 união de duas c-c hipersuperfície, a saber, = 1 2 onde 1 é o gráĄco da função

            √ √ 2 2

            e 2 .

            1 ⊗ é o gráĄco da função ⊗ 1 ⊗

            Proposição 3.4.4. Uma função : R 2 ⊃ R ¶⊗∞♢ é c-côncavo se, e somente se, a função ( ) =

            ( ) se, 2 ( ) é convexa e semicontínua inferior. Nesse caso ( ).

            somente se,

          Demonstração. Suponha que seja uma função c-côncava, ou seja, existe uma função

          å : R

            ⊃ R ∪ ¶∞♢ tal que 2

            ( ) = inf ∈R då( ).

            2 Queremos mostrar que 2

            ( ) = sup < , > å ( )) d ⊗( ∈R 2 ⊗ lembrando que ( , ) = ⊗⟨ , ⟩ e pelo exemplo concluiremos que é convexo e semicontínua inferior. Observe que 2 2 2

            ♣ ♣ ♣ ♣ ♣ ♣ ( ) = inf

            å ∈R ∈R d då( ) ⇐⇒ ( ) = inf + < , > + ( ) ⇐⇒ 2

            2 2 2 2 ⊗ 2 ♣ ♣ ♣ ♣ ♣ = inf < , å < , > å ( )).

            ( ) ⊗ ⊗ > + ( ) ⇐⇒ ( ) = sup ⊗( ∈R d d 2 2 ⊗ 2 ⊗ ∈R 2 A conta acima nos mostra que é c-côncavo se, e somente se, a função ( ) = 2 ( ) é convexo e semicontínua inferior. Vamos mostrar a segunda parte, que é ( ). Por deĄnição

            ∈

            ⨄︁ ∏︁ 2 Capítulo 3. Problema de Monge Kantorovich ( ) = ( ). 2 ( ) 2

            ∈ ⇐⇒ ⇐⇒

            

          ( ) ( ) para todo

            ⊘ ⊗ ∈ R 2 e ⊗ ♣ ≤ ♣ 2 ( )( ) . ⊗ ⇐⇒ ( ) ⊙ ( )+ < , > para todo ∈ R

            2 Note que ∏︁ ⨄︁ 2 ( ) = ( ). 2

             ( ) 2

            ∈ ⇐⇒ ⇐⇒ ( ) ( ).

            ⊘ ⊗ 2 ⋁︁ ( ) = < , ( ). ⋁︁ ∏︁ ♣ ♣ 2 2 ⋁︁ ⨄︁ ⊗ ⊗ > + ⊗ 2 2 ⋁︁ ⋁︁ ⋁︁ ♣ ♣ 2 2 ⇐⇒ ( ) ( ).

            ⊗ ⊘ < , > + ⊗ 2 2

            2 2

            ♣ ♣ ♣

             ( ) + <

            ⊗ ⊘ ( )⊗ ⊗ , >⇐⇒ ( ) ⊙ ( )+ < , > para todo ∈ R ⇐⇒

            2

            2 ⊗ ♣ ≤ ♣ 2 ( )( ).

            ⇐⇒

            2 O teorema a seguir nos mostra a relação que existe entre funções convexas com c-c hipersuperfície, mais precisamente, fala da relação que existe entre o conjunto dos pontos onde a função convexa não é diferenciável com c-c hipersuperfície. A demonstração do teorema será omitida, mas para maiores informações veja a referência no teorema

            1.24. Teorema 3.4.5.

            (Estrutura do conjunto dos pontos não diferenciáveis de uma função . Então existe uma função convexa : R convexa) Seja ⊆ R

            ⊃ R tal que está

            contido em um conjunto dos pontos onde é não diferenciável se, e somente se, possui uma cobertura enumerável de c-c hipersuperfície.

            Definição 3.4.6.

            ) é dita regular se

            (Medida regular em R ) Uma medida Û ∈ (R Û( ) = 0 para todo c-c hipersuperfície .

            ⊆ R √︃ 2 Teorema 3.4.7.

            ) tal que Û( ) é Ąnito. Então são equi-

            (Brenier) Seja Û ∈ (R valentes.

          3.4. Existência de transporte ótimo para o Problema de Monge

            ) com √︃ 2

             Ü( ) <

          i) Para todo Ü ∈ (R

            Se ( ) ou ( ) são satisfeitos, a aplicação ótima pode ser obtido tomando o gradiente de uma função convexa. Demonstração. ( ) ⇒ ( ) Vamos seguir o seguinte roteiro.

            ( ) ⇒ ( )

            ∞ existe um único plano de transporte de Û para Ü e esse plano é induzido por uma aplicação .

            Û + ( , )

          #

          Û .

            E um plano Ò = 1 [( , ) #

            

          ( ) := Elemento de maior norma em

          ( ).

            

          ( ) := Elemento de menor norma em

          ( ).

            ∙ DeĄna duas aplicações

            ∙ Vamos supor por contradição que existe uma função convexa : R ⊃ R de modo que o conjunto dos pontos não diferenciáveis tenha uma medida Û positiva, em outras palavras, contrariando o teorema ∙ Podemos modiĄcar de modo que fora de um conjunto compacto Ąxado, podemos assumir que a função possui crescimento linear.

            ∙ Desse modo (Ò) está contido no gráĄco do gradiente de uma função convexa e pelo lema podemos concluir que Ò é induzido pela aplicação ▽ .

            ∙ Considere ( ) = ( ) = ♣ 2 . Então sob as nossas hipóteses, podemos garantir que

            ∙ Portanto ▽ : R ⊃ R é bem deĄnido a menos em um conjunto Û desprezível e assim, pelo teorema, coincide com o gráĄco do ▽ Û quase sempre.

            ii) Û é regular.

             = .

            ∙ Pela proposição anterior temos que : ♣≤♣ 2 2 é convexo e

            ∙ Como a função custo é contínua, então existe um plano ótimo, digamos Ò, e usando o teorema fundamental, existe uma função é c-convexa, onde (Ò) ⊆ .

            ∈ 1 (Ü).

            e 1 (Û) e

             ( , ) ⊘ ( ) + ( ).

            ∙ Usando os dois passos anteriores, obtemos (Ò) ⊆ . ∙ Como Û é regular, então o conjunto dos pontos não diferenciáveis de é Û- desprezível, fato justiĄcado pelo teorema .

            Capítulo 3. Problema de Monge Kantorovich

            1 ℒ

            ( ) = ∫︁ ( ) ℒ ♣ .

            Mas pela fórmula de mudança de variáveis temos ∫︁ ℒ ♣

            Û temos ∫︁ Ü ( ) = ∫︁ Û ( ). (3.17)

            (3.16) De fato, observe que por Ü = #

            ( ) Para todo .

            1 ℒ

            ( ) = ( )

            1 ℒ

            . Pela formula da mudança de variáveis obtemos

            Seja : uma aplicação ótima, com ( , ) = 2 2

            ( )ℒ ♣ .

            ( )ℒ ♣ e Ü =

            ∙ Como tem crescimento linear, então Ü = Þ #

            1 ℒ

            Û =

            a aplicação não coincida com o gradiente de um função convexa. Seja

            

          Demonstração. Vamos provar via teorema de Brenier, desprezando todos os pontos onde

            ℒ ( ) 1 d .

            ⊘ ( )

            ℒ ( ) 1⊗ 1 d

            

          Teorema 3.4.8. (Desigualdade Isoperimétrica) Considere uma bola unitária no R e

          um conjunto não vazio aberto qualquer também no R com perímetro ( ). Então

            Vamos encerrar a seção mostrando uma aplicação em Geometria que é a demons- tração da Desigualdade Isoperimétrica, via acoplamentos e o Teorema de Brenier. Este resultado mostra como a teoria pode ser utilizada em outras áreas da Matemática além de Probabilidade. Com estas considerações segue o Teorema da Desigualdade Isoperimétrica.

            ̸= em um conjunto de medida positiva em Û.

            do compacto Ąxado anteriormente a função é diferenciável e assim a subdiferencial de coincide com um gráĄco do seu gradiente, veja o teorema assim a subdiferencial de fora desse compacto tem uma medida Ò desprezível. ∙ Note que Ò (Û, Ü) é c-ciclo monótono, pois pela proposição anterior com- binado com o teorema fundamental do transporte ótimo, temos que (Ò) está contido no gráĄco da subdiferencial de uma função convexa e semicontínua . ∙ Portanto Ò é uma aplicação ótima pelo teorema fundamental do transporte ótimo, mas Ò não é uma aplicação induzida, pois

            Ò tem suporte compacto, pois fora

            Desenvolvendo em obtemos

            3.5. Estabilidade do transporte ótimo ∫︁ ∫︁

            1

            1 =

            ℒ ♣ ℒ ♣ ( ) ( )

            ℒ ℒ Aplicando a formula no lado esquerdo temos ∫︁ ∫︁

            1 ▽ ( )

            = ℒ ♣ ℒ ♣

            ( ) ( ) ℒ ℒ A equação acima nos leva a concluir que a expressão vale para todo .

            Lembre-se que ainda pelo Teorema de Brenier, a aplicação é igual ao gradiente de uma função convexa. Portanto ▽ ( ) é uma matriz simétrica e é não negativa, pelo teorema e assim todos os seus autovalores são não-negativos, para todo . Portanto o ( ) é o produto dos seus autovalores, pois ▽ ( ) é diagonalizável, e o traço de ( ) é a soma dos seus autovalores. Usando a desigualdade entre as médias aritmética e geométrica temos 1 d ▽ ≤ ( )

            ( ( )) ⊘ Para todo . Juntando com a equação obtemos

            1

            1 ▽ ≤ ( ) 1 1 . d d

            ( ) ( ) ℒ ℒ

            Integrando sobre e usando o Teorema do Divergente temos 1 ∫︁ ∫︁ 1⊗ d

            1

            1 ⊗1 ( ) 1 1 ( ). ℒ ⊘ ▽ ≤ ( ) = ⟨ ( ), Ö( )⟩ d d

            ( ) ( ) ℒ ℒ

            Onde Ö : ⊃ R é o vetor unitário normal exterior. Como ( ) ∈ para todo ∈ , temos ♣ ( )♣ ⊘ 1 para qualquer e ⟨ ( ), Ö( )⟩ ⊘ 1 assim. 1 ∫︁ 1⊗ ⊗1 d 1 ( ) ( ) ( ) = . 1 1 ℒ ⊘ ℒ d d

            ( ) ( ) ℒ ℒ Portanto segue o resultado.

          3.5 Estabilidade do transporte ótimo

            Assuma, como anteriormente, que estamos com o problema de transporte ótimo de Kantorovich entre produtores e consumidores, cujas as respectivas distribuições são mo- deladas por duas medidas de probabilidade.

            Estamos interessados em construir e estudar o espaço formado pelas medidas de pro-

            Capítulo 3. Problema de Monge Kantorovich

            Kantorovich para as duas medidas. Note que, o custo ótimo entre duas medidas é deĄnido por: ∫︁ (Û, Ü) = inf ( , ) Ò( , ). (3.18) Ò (Û,Ü) ×

            Onde ( , ) é o custo da unidade de massa transportado de para . Neste contexto não estamos preocupados em determinar a medida Ò que cumpre o ínĄmo de mas sim o custo ótimo entre Û e Ü.

            Um modo de pensar na equação é como sendo uma distância entre Û e Ü, mas em geral não é, devido ao fato do custo não necessariamente uma métrica. Mas podemos deĄnir o custo em termos da distância, o que motiva a deĄnição a seguir.

            Definição 3.5.1.

            (Distância de Wasserstein) Sejam ( , ) um espaço Polonês e

            [1, ∞]. Para quaisquer duas medidas de probabilidade Û e Ü em , a distribuição de

            Wasserstein de ordem entre Û e Ü é deĄnida pela fórmula

          ∫︁

          p 1 Ò .

            (Û, Ü) = [ inf ( , ) ( , )] Ò (Û,Ü) ×

            ou equivalentemente, p 1 (Û, Ü) = inf [ ( ( , ) ] . Û, Ü Exemplo 3.5.2.

            (Ó , Ó ) = ( , ). Neste exemplo, a distância não depende de , mas isso não ocorre em geral.

            Proposição 3.5.3. Nas condições acima é uma métrica.

            Demonstração. (Û, Ü) =

            ∙ (Ü, Û) pois considere duas variáveis aleatórias Û 1 p p 1 e ] = [ ( ( , ) ] no que acarreta que ≍ Ü quaisquer , então [ ( ( , ) (Û, Ü) = (Ü, Û).

            (Û, Ü) = 0 se , e somente se , Û = Ü decorre basicamente explorando propriedades ∙ de métrica e para justiĄcar a reciproca basta usar o fato de que se

            ≍ Û, então ≍ Ü e explorar novamente a continuidade e propriedade da métrica. 1 , Û e 2 ∙ Resta mostrar que vale a desigualdade triangular, ou seja, dadas medidas Û

            Û , queremos mostrar que 3

            (Û 1 , Û 2 (Û 1 , Û 3 ) + (Û 3 , Û 2 ).

            ) ⊘ Sejam ( 1 , 2 ) acoplamento ótimo de (Û 1 , Û 2 ) e ( 2 , 3 ) acoplamento ótimo de (Û 2 , Û 3 ) , onde ( , ) = ( , ) . Considere Ò um acoplamento de Û 1 e Û 3 2 e Þ um acoplamento de Û e Û e deĄna Ö uma medida de probabilidade em como 2 3

          3.5. Estabilidade do transporte ótimo

            Ò( , )Þ( , ) Ö( , , ) = .

            Û ( ) 2 Sejam ( , , ) um vetor aleatório com respeito a distribuição Ö e usando a propri-

            edade da métrica , temos que

             ( , ) ⊘ ( , ) + ( , ).

            Então, tomando ( , ) acoplamento ótimo de Û e Û e ( , ) acoplamento ótimo 1 2 de Û e Û , usando as propriedades da esperança e a desigualdade de Minkowski em 2 3 p p p 1 1 1 , ou seja [ ( , ) ] ] + [ ( , ) ] , conclui-se que

            ⊘ [ ( , ) p p p 1 1 1 (Û 1 , Û 3 ) ] ] + [ ( , ) ] = (Û 1 , Û 2 )+ (Û 2 , Û 3 ).

            ⊘ [ ( , ) ⊘ [ ( , ) Para completar a construção, ainda é necessário restringir a função sob o sub- conjunto de ( ) × ( ) na qual assume valor Ąnito, daí segue a deĄnição do seguinte espaço.

            Definição 3.5.4.

            (Espaço de Wasserstein) Nas mesmas condições da deĄnição anterior, o espaço de Wasserstein de ordem é deĄnido por ∫︁

            ( ( , ) Û( ) < ) = ¶Û ∈ ( ); ∞♢.

            Onde é arbitrário.

            Veremos que o espaço não dependerá da escolha de . Observe que . De fato, seja Þ um acoplamento qualquer de Û e Ü em

            é Ąnito em (

            ), então a desigualdade ⊗1

            

          ( , ) [ ( , ) + ( , ) ]

            ⊘ 2 ( nos diz que ( , )

            ). Agora estudaremos algumas é Þ-integrável pois Û e Ü 2 ( ), iniciando com a noção de 2-uniforme 2

            ), propriedades topológicas do espaço ( integrável e logo após associar esta propriedade com o conceito de tight para extrair mais resultados e obter uma noção mais reĄnada de convergência no espaço de Wasserstein de ordem 2, portanto segue a nossa primeira deĄnição.

            Definição 3.5.5. 2 (

            ) é dita ser 2-uniforme

            (2-uniforme integrável) Uma família integrável se para todo > 0 e > 0 de modo que ∫︁existe 2 sup ( , ) Û( ) Û ( ε ) , c .

            Capítulo 3. Problema de Monge Kantorovich Exemplo 3.5.6.

            ;

            Se for um espaço Polonês inĄnito, ou seja, * = ∞ e = ¶Ó ∈ ♢, então não é 2-uniforme integrável.

            Exemplo 3.5.7.

            Se = ¶Û, então é 2-uniforme integrável.

            ) e ( ) e adote em , × a

            Considere dois espaços métricos Poloneses ( , 2 2 2 distância (( 1 , 1 ), ( 2 , 2 )) = ( 1 , 2 ) + ( 1 , 2 ), então obtemos as seguintes desi- ∫︁ ∫︁ ∫︁ gualdades 2 2 2 ( , ) Ò( , ) = ( , ) Ò( , )+ ( , ) Ò( , ) ( ( , ( , )) ( ( , )) × ×( ( , )) c c c ∫︁ ∫︁ 2 2

            ⊘ ( , ) Û( ) + Ò( , )

            ⊘ ∫︁ ∫︁ ( ( ) ×( ( )) , , c c 2 2 ⊘ ( , ) Û( ) + ( , ) Ü( ).

            ⊘ ( ( ) ( ( )) , , c c por , Válido para quaisquer Ò (Û, Ü) e de modo análogo substituindo 1 2 ( ( 2 2 mostramos que se ⊆ ) e ⊆ ) são 2-uniforme integrável, então o conjunto 2 ( Ò , Þ Ò 1 2Ò ∈ × ); Þ # ∈ # ∈ ♢. É 2-uniforme integrável.

            Definição 3.5.8.

            (Crescimento quadrático) Dizemos que uma função : ⊃ R tem crescimento quadrático se cumpre a seguinte condição 2 ( , ) + 1).

            ♣ ( )♣ ⊘ ≤ ( . Observe que se possui crescimento quadrático e

            Para algum ∈ R e 1 Û 2 ( (

            ∈ ) , então , Û) pois ∫︁ ∫︁ ∫︁ 2

             ( ) Û( ) ( , ) Û( ) + 1 Û( ) < .

            O conceito de 2 - uniforme integráveis em relação a convergência de integrais de funções com crescimento quadrático, desempenha um papel similar ao do conceito de tight em relação a convergência de integrais das funções limitadas , o que mostra a proposição a seguir. Proposição 3.5.9. 2 (

            Seja Û ♢ =1 ⊆ ) uma sequência que converge fracamente para alguma medida Û. Então são equivalentes é 2-uniforme integrável. i) Û ♢ =1 √︃ √︃ Û Û ii) para toda função contínua com crescimento quadrático.

            ⊃

            3.5. Estabilidade do transporte ótimo √︃ √︃ 2 2 iii) ( ) Û ( ) Û para algum , ⊃ ≤, .

            

          Demonstração. ) ⇒ ) Sem perda de generalidade suponha que ⊙ 0. Como é

            ♢ de funções contínuas e limitadas, contínua, então podemos considerar uma sequência ¶ de modo que,

            ≻ , explorando o lema de fatou, veja na referência obtemos ∫︁ ∫︁ ∫︁

            

          Û = lim inf Û Û

          ∫︁ ∫︁ ⊃∞ ⊃∞ ⊘ lim inf ⊘ Û Û .

            ⊘ lim inf ⊘ lim inf ⊃∞ ⊃∞ Ou seja, ∫︁ ∫︁ Û Û . √︃ √︃ ⊘ lim inf ⊃∞ Resta mostrar que lim sup Û Û , para isso Ąxe ⊃∞ ⊘ ∈ e > 0 e encontre > 1 tal que ∫︁ 2

            ( ) Û ( ) , c, , para todo ∈ N. Considere Ú uma função contínua com suporte limitado , assumindo valores em [0, 1], onde em ( , ) a função é identicamente igual a 1. Portanto para todo natural obtemos ∫︁ ∫︁ ∫︁ ∫︁ ∫︁

          • Û =

             Û ∫︁ ∫︁ ∫︁Ú Û ≤ (1 ⊗ Ú) Û ⊘ ≤ Ú Û2 ( ) , c

            ⊘ ≤ Ú Û ≤ ( ≤, ( ) ( ) , , c c 2 ( ) Û + ) + 2 .

          • ( ) Û 1 Û ) + ∫︁ ∫︁ ∫︁

            ≤ Ú Û ≤ (2 ≤, ⊘ ≤ Ú Û ( , ) c √︃ √︃ Como Ú é contínua e limitada, temos que Ú Û Ú Û mais ainda ∫︁ ∫︁ ∫︁ ⊃ lim sup Û Ú Û + 2 Û + 2 . ∈N ⊘ ⊘ √︃ √︃ Como é arbitrário, concluímos que lim sup Û Û e portanto segue o re-

            ⊘ sultado.

             ) ⇒ ) Imediato. )

            ⇒ ) Vamos supor por contradição e assumir que existe > 0 e ∈ tal que para todo > 0 temos

            ∫︁ 2 Capítulo 3. Problema de Monge Kantorovich sup ( ) Û > . ∈N ( ) , c,

            Para suĄciente grande, podemos ver que ∫︁ 2 lim sup ( ) Û > . ∈N ( , ) c, Considere Ú uma função contínua com valores em [0, 1] e suporte em ( , ) e 2 identicamente igual a 1 em ( , ). Explorando o fato de que ( )Ú é contínua e 2, ∫︁ ∫︁ ∫︁ ∫︁ limitada temos que 2 2 2 2

            ( )Ú Û = lim ( )Ú Û = lim ( ( ) Û ( )(1 ) Û ) ∫︁ ∫︁ ∫︁ ∫︁, , , ⊗ ≤, Ú2 ⊃∞ ⊃∞ 2 2 2 ( ) Û + lim inf ( ) Û = ( ) Û ( ) Û

            ⊘ ≤, ⊗ ≤, , ⊗ lim sup ≤, ⊃∞ ( ) , ⊃∞ , c ∫︁ 2 ( ) c ( ) Û ⊘ ≤, .

            Assim concluímos que ∫︁ ∫︁ ∫︁ 2 2 2 ( ) Û = sup ( )Ú Û ( ) Û, , ⊘ ≤, .

            No que acarreta em uma contradição.

            Proposição 3.5.10. A distância é semicontínua inferior com respeito a convergência 2 2 2 ( ) é uma sequência de planos ótimos com a de medidas. Mais ainda, se Ò ♢ ⊆ 2 2 ( ), então Ò é plano ótimo também. sequência convergindo para Ò 2 (

            ♢, ¶Ü ♢ ⊆ ) com ÛÛ e ÜÜ. Para cada natural

            Demonstração. Sejam ¶Û

            , considere Ò acoplamento ótimo de Û e Ü , pelo teorema de Prohorov temos que a 2 sequência Ò ). É claro que 1 2 admite uma subsequência convergente para algum Ò ∈ (

            Þ Ò = Û e Þ Ò = Ü, então # # 2 ∫︁ ∫︁ 2

          2

          2 2 ⊘ ⊘ lim inf (Û, Ü) ( , ) Ò( , ) ( , ) Ò ( , ) = lim inf (Û , Ü ). 2 ⊃∞ ⊃∞ 2 Considere ( ) = ( ) = ( , ) para algum ( 2 e observe que Û, Ü ∈ ). Pelo , )

            Teorema fundamental do transporte ótimo, Ąxe ∈ N e selecione ( (Ò), com

             = 1, 2, , ) ) tal que

            ≤ ≤ ≤ , e note que por ÒÒ não é difícil de ver que ( (Ò lim ( ( , ) + ( , )) = 0. ⊃∞ Através da continuidade da função custo, conclui-se que o (Ò) é ciclo monótono.

            

          Referências

            [1] Ambrosio, L. ; Gigli, N. A user’s guide to optimal transport a [2] Barry, J. Probabilidade: Um Curso em Nível Intermediário, 3 edição, Rio de

            Janeiro: Sociedade Brasileira de Matemática, 2006 [3] Royden,H.L Real Analysis. Macmillan, N.York, 1968 [4] Billingsley, P. Probability and Measure, Wiley Series in Probability and Statistics,

            2012 [5] Botelho,G; Pellegrino, D; Teixeira, E. Fundamentos de Análise Funcional. Rio de Janeiro, SBM, 2012 [6] Bubley, R ; Dyer, M.E. Path Coupling: a Technique for Proving Rapid Mixing

            in Markov Chains

            , Proceedings of the 38th Annual Symposium on Foundations of Computer Science, pp. 223Ű231, 1997 a

            [7] Chung, K. L. A Course in Probability Theory, 3 edição, San Diego: Academic Press, 2001

            [8] Dantzig, G.B ; Ferguson, A.R. Linear Programming and Extensions , United States Air Force Project Rand, 1963 a

            [9] Elon, Lages Lima Análise Real, volume I,11 edição, Projeto Euclides, 2011 a [10] Elon, Lages Lima Curso de Análise, volume I,12 edição, Projeto Euclides, 2011 a [11] Elon, Lages Lima Curso de Análise, volume II,12 edição, Projeto Euclides,2011 a [12] Elon, Lages Lima Espaços métricos, 5 edição, Projeto Euclides, 2013 [13] Levin, David A.; Peres, Yurval; Wilmer, Elizabeth L. Markov Chains and Mixing a

            Times , 1 edição, Providence: American Mathematical Society, 2001

            [14] Rockafellar, R. T Convex Analysis,Princeton University Press, Princeton, 1970 a [15] Shiryaev, A.N. Probability, 2 edition, Spriger, 1995 [16] Villani, C. Optimal transport, old and new, Springer Verlag, 2008

Novo documento