Amostragem de Wang-Landau: mudanças entre as edições

De Física Computacional
Ir para navegação Ir para pesquisar
Sem resumo de edição
Sem resumo de edição
Linha 1: Linha 1:
O algorítmo de amostragem de Wang-Landau é um método de amostragem para simulações de Monte Carlo introduzido por F.Wang e D.P Landau em 2001 que apresenta diversas vantagens sobre outros métodos para sistemas de spins. Dentre eles podemos citar o algoritmo de Metropolis, o algoritmo de ''clustering'' de Wolff, ou em um modelamento de ''ensamble'' multi-canônico. Nestes dois últimos métodos são utilizados métodos de repesagem de histogramas que são limitados em sistemas grandes devido as baixa qualidade estatística nas asas do histograma.  
O algorítmo de amostragem de Wang-Landau é um método de amostragem para simulações de Monte Carlo introduzido por F.Wang e D.P Landau em 2001 que apresenta diversas vantagens sobre outros métodos para sistemas de spins. Dentre eles podemos citar o algoritmo de Metropolis, o algoritmo de ''clustering'' de Wolff, ou em um modelamento de ''ensamble'' multi-canônico. Nestes dois últimos métodos são utilizados métodos de repesagem de histogramas que são limitados em sistemas grandes devido as baixa qualidade estatística nas asas do histograma.  
Dentro deste contexto, o algoritmo Wang-Landau promete resolver problemas encontrados em amostragens convencionais como o ''critical slowing down'' para temperaturas próximas da temperatura critica <math>T_c</math> utilizando-se de caminhadas aleatórias controladas para mapear a densidade de estados <math>g(E)</math> de um sistema, sem fazer uso de qualquer repesagem de histogramas.
Dentro deste contexto, o algoritmo Wang-Landau promete resolver problemas encontrados em amostragens convencionais como o ''critical slowing down'' para temperaturas próximas da temperatura critica <math>T_c</math> utilizando-se de caminhadas aleatórias controladas para mapear a densidade de estados <math>g(E)</math> de um sistema, sem fazer uso de qualquer repesagem de histogramas.
----


A maioria dos algoritmos de amostragem convencionais geram uma distribuição canônica não normalizada  
A maioria dos algoritmos de amostragem convencionais geram uma distribuição canônica não normalizada  
Linha 6: Linha 8:
<math> P(E,T) = g(E)e^{-E/K_BT}, </math>
<math> P(E,T) = g(E)e^{-E/K_BT}, </math>


para uma determinada temperatura $T$, Geralmente estas distribuições são estreitas e se faz necessário múltiplas simulações para obter algum parâmetro termodinâmico para uma distribuição significantemente grande de temperaturas.  
para uma determinada temperatura <math>T</math>, Geralmente estas distribuições são estreitas e se faz necessário múltiplas simulações para obter algum parâmetro termodinâmico para uma distribuição significantemente grande de temperaturas.  
Como <math>g(E)</math>não depende de temperatura do sistema, se pudermos encontrá-lo para todo <math>E</math>, podemos encontrar a função de partição  
Como <math>g(E)</math>não depende de temperatura do sistema, se pudermos encontrá-lo para todo <math>E</math>, podemos encontrar a função de partição  


Linha 12: Linha 14:
<math> Z(T) = \sum_E g(E)e^{-E/K_BT}, </math>  
<math> Z(T) = \sum_E g(E)e^{-E/K_BT}, </math>  


e o sistema esta essencialmente resolvido, uma vez que grande parte dos parâmetros termodinâmicos podem ser derivados de $Z$. Além disso, a amostragem de Wang-Landau é provada ser útil em diversas aplicações como o antiferromagneto de Potts, sistemas de spins aleatórios, sistemas quânticos, etc... .
e o sistema esta essencialmente resolvido, uma vez que grande parte dos parâmetros termodinâmicos podem ser derivados de <math>Z</math>. Além disso, a amostragem de Wang-Landau é provada ser útil em diversas aplicações como o antiferromagneto de Potts, sistemas de spins aleatórios, sistemas quânticos, etc... .


==Descrição do algoritmo de Wang Landau==
==Descrição do algoritmo de Wang Landau==
Linha 27: Linha 29:
#*Se não aceitarmos a mudança de estado do spin, fazemos as atualizações de <math>g(E)</math> e <math>H(E)</math> como <math>g(E_1) \rightarrow g(E_1) \times f</math> e <math>H(E_1) \rightarrow H(E_1) +1</math> respectivamente, de maneira a recontar o estado <math>E_1</math>.  
#*Se não aceitarmos a mudança de estado do spin, fazemos as atualizações de <math>g(E)</math> e <math>H(E)</math> como <math>g(E_1) \rightarrow g(E_1) \times f</math> e <math>H(E_1) \rightarrow H(E_1) +1</math> respectivamente, de maneira a recontar o estado <math>E_1</math>.  
#*Destaca-se que em ambos os casos usamos <math>\ln(g(E)) = \rightarrow \ln(g(E)) + \ln(f)</math>, pois ao longo da simulação acabamos usando números muito grandes.  
#*Destaca-se que em ambos os casos usamos <math>\ln(g(E)) = \rightarrow \ln(g(E)) + \ln(f)</math>, pois ao longo da simulação acabamos usando números muito grandes.  
#Faz-se esta caminhada aleatória nos diferentes estados do sistema até que o histograma $H(E)$ esteja aproximadamente plano. O critério para decidir se um histograma está plano é arbitrário. Para um hamiltoniano Ising 2D este critério pode ser definido tão alto quanto 95\%(i.e. todos os valores de $H(E)$ devem ser pelo menos 95\% de $\left<H(E)\right>$), porém valores mais altos que isso podem resultar no programa nunca identificando o histograma como plano.
#Faz-se esta caminhada aleatória nos diferentes estados do sistema até que o histograma <math>H(E)</math> esteja aproximadamente plano.  
#Checa-se se $H(E)$ está plano a cada 10000 passos MC. Quando está plano, podemos dizer que todos os estados foram visitados uma quantidade de vezes aproximadamente igual e a densidade de estados $g(E)$ converge ao valor real com precisão da ordem de $f$.
#*O critério para decidir se um histograma está plano é arbitrário. Para um hamiltoniano Ising 2D este critério pode ser definido tão alto quanto 95% (i.e. todos os valores de <math>H(E)</math> devem ser pelo menos 95% de <math> \langle H(E) \rangle </math>), porém valores mais altos que isso podem resultar no programa nunca identificando o histograma como plano.
#Reduz-se o fator $f$ da seguinte maneira $f_1 \rightarrow \sqrt{f_0}$, reinicia-se o histograma $H(E) = 0$ e recomeça-se a caminhada aleatória com este novo fator $f$.(Todos os parâmetros não mencionados neste passo permanecem intocados.)
#Checa-se se <math>H(E)</math> está plano a cada 10000 passos MC. Quando está plano, podemos dizer que todos os estados foram visitados uma quantidade de vezes aproximadamente igual e a densidade de estados <math>g(E)</math> converge ao valor real com precisão da ordem de <math>f</math>.
#Continuamos executando os passos VI-VIII reduzindo o fator $f$ segundo a seguinte expressão $f_{i+1} = \sqrt{f_{i}}$
#Reduz-se o fator <math>f</math> da seguinte maneira <math>f_1 \rightarrow \sqrt{f_0}</math>, reinicia-se o histograma <math>H(E) = 0</math> e recomeça-se a caminhada aleatória com este novo fator <math>f</math>. (Todos os parâmetros não mencionados neste passo permanecem intocados).
#Encerra-se a simulação quando $f_{final}$ estiver da ordem do erro desejado. Claro que $f_{final}$ pode ser escolhido arbitrariamente pequeno, mas sempre com um certo limite razoável ($10^{-6}-10^{-8}$), ou a simulação pode tomar tempos não razoáveis para completar.
#Continuamos executando os passos 5-7, reduzindo o fator <math>f</math> segundo a seguinte expressão <math>f_{i+1} = \sqrt{f_{i}}</math>
#Encerra-se a simulação quando <math>f_{final}</math> estiver da ordem do erro desejado.  
#*Claro que <math>f_{final}</math> pode ser escolhido arbitrariamente pequeno, mas sempre com um certo limite razoável <math>(10^{-6}-10^{-8})</math>, ou a simulação pode tomar tempos não razoáveis para completar.
 
==Observações sobre o algoritmo==
Nesta seção discutimos algumas observações importantes a se levar em conta na implementação do método de amostragem de Wang-Landau
===Fator de modificação f===
Quando tratamos da atualização do fator <math>f</math>, a expressão <math>f_{i+1} = \sqrt{f_{i}}</math> é apenas uma recomendação, uma vez que outros valores de <math>n>1</math> podem ser escolhidos para uma atualização do tipo <math>f_{i+1} = f_{i}^{(1/n)}</math>. Não obstante <math>n = 2</math> é adequado para grande parte dos sistemas estudados, resultando em boa acurácia em relativamente pouco tempo de simulação.

Edição das 12h06min de 17 de outubro de 2022

O algorítmo de amostragem de Wang-Landau é um método de amostragem para simulações de Monte Carlo introduzido por F.Wang e D.P Landau em 2001 que apresenta diversas vantagens sobre outros métodos para sistemas de spins. Dentre eles podemos citar o algoritmo de Metropolis, o algoritmo de clustering de Wolff, ou em um modelamento de ensamble multi-canônico. Nestes dois últimos métodos são utilizados métodos de repesagem de histogramas que são limitados em sistemas grandes devido as baixa qualidade estatística nas asas do histograma. Dentro deste contexto, o algoritmo Wang-Landau promete resolver problemas encontrados em amostragens convencionais como o critical slowing down para temperaturas próximas da temperatura critica utilizando-se de caminhadas aleatórias controladas para mapear a densidade de estados de um sistema, sem fazer uso de qualquer repesagem de histogramas.


A maioria dos algoritmos de amostragem convencionais geram uma distribuição canônica não normalizada

para uma determinada temperatura , Geralmente estas distribuições são estreitas e se faz necessário múltiplas simulações para obter algum parâmetro termodinâmico para uma distribuição significantemente grande de temperaturas. Como não depende de temperatura do sistema, se pudermos encontrá-lo para todo , podemos encontrar a função de partição


e o sistema esta essencialmente resolvido, uma vez que grande parte dos parâmetros termodinâmicos podem ser derivados de . Além disso, a amostragem de Wang-Landau é provada ser útil em diversas aplicações como o antiferromagneto de Potts, sistemas de spins aleatórios, sistemas quânticos, etc... .

Descrição do algoritmo de Wang Landau

Descreveremos o funcionamento do algoritmo de Wang-Landau num sistema de spins clássicos de 2 estados com valores discretos de energia e sem campo magnético. Portanto quando nos referirmos a como densidade de estados, interpretamos como o número de estados com energia E. A amostragem de Wang-Landau faz caminhadas aleatórias no espaço de energia mudando os estados de spins aleatoriamente selecionados, porém esta mudança só é aceita com probabilidade proporcional a reciproca da densidade de estados. Durante a caminhada também se acumula o número de vezes que uma energia é visitada durante a caminhada , isto é, ao visitarmos a energia faz-se a atualização da variável . Por outro lado, a atualização da densidade de estados se da por um fator multiplicativo () controlado ao longo da simulação para que seja muito próximo de 1 ao final das caminhadas.

Podemos descrever os passos do algoritmo da seguinte maneira:

  1. Inicializamos as densidades de energias com para todo , da mesma forma para todo .
  2. Inicializamos e um sistema de spins de valor 1 e -1 aleatoriamente distribuídos.
    • O valor de é arbitrário e deve ser escolhido não muito pequeno, pois irá fazer com que a simulação demore muito tempo para explorar diversas energias, por outro lado se escolhido muito grande, levará a erros estatísticos significativos.
  3. Começamos a caminhada inicial escolhendo aleatoriamente um dos spins e mudando o seu estado.
  4. Se denotamos como a energia antes da mudança de estado do spin selecionado e como a energia após, aceitamos este novo estado com a seguinte probabilidade:
    • Se aceitarmos a mudança de estado do spin, fazemos as atualizações de e como e respectivamente.
    • Se não aceitarmos a mudança de estado do spin, fazemos as atualizações de e como e respectivamente, de maneira a recontar o estado .
    • Destaca-se que em ambos os casos usamos , pois ao longo da simulação acabamos usando números muito grandes.
  5. Faz-se esta caminhada aleatória nos diferentes estados do sistema até que o histograma esteja aproximadamente plano.
    • O critério para decidir se um histograma está plano é arbitrário. Para um hamiltoniano Ising 2D este critério pode ser definido tão alto quanto 95% (i.e. todos os valores de devem ser pelo menos 95% de ), porém valores mais altos que isso podem resultar no programa nunca identificando o histograma como plano.
  6. Checa-se se está plano a cada 10000 passos MC. Quando está plano, podemos dizer que todos os estados foram visitados uma quantidade de vezes aproximadamente igual e a densidade de estados converge ao valor real com precisão da ordem de .
  7. Reduz-se o fator da seguinte maneira , reinicia-se o histograma e recomeça-se a caminhada aleatória com este novo fator . (Todos os parâmetros não mencionados neste passo permanecem intocados).
  8. Continuamos executando os passos 5-7, reduzindo o fator segundo a seguinte expressão
  9. Encerra-se a simulação quando estiver da ordem do erro desejado.
    • Claro que pode ser escolhido arbitrariamente pequeno, mas sempre com um certo limite razoável , ou a simulação pode tomar tempos não razoáveis para completar.

Observações sobre o algoritmo

Nesta seção discutimos algumas observações importantes a se levar em conta na implementação do método de amostragem de Wang-Landau

Fator de modificação f

Quando tratamos da atualização do fator , a expressão é apenas uma recomendação, uma vez que outros valores de podem ser escolhidos para uma atualização do tipo . Não obstante é adequado para grande parte dos sistemas estudados, resultando em boa acurácia em relativamente pouco tempo de simulação.