Grupo - Modelo de Potts

De Física Computacional
Revisão de 01h18min de 29 de janeiro de 2018 por Eliseuvf (discussão | contribs)
Ir para navegação Ir para pesquisar

Originalmente descrito por Renfrey Potts em 1951 na sua tese de doutorado, esse modelo é uma generalização do modelo de Ising para a interação entre spins em uma rede cristalina.

Descrição do modelo

No modelo de Potts a q estados são considerados N spins si dispostos em uma rede, geralmente bidimesnsional retangular, cada spin podendo estar em um dos q estados possíveis.

O Hamiltoniano desse sistema é

Hp=J(i,j)δ(si,sj)

onde J é a constante de acoplamento que determina a intensidade da interação, δ(si,sj) é a função delta de Kronecker que retorna 1 se si=sj e retorna 0 para todos os outros casos, e o somatório considera somente os pares (i,j) de spins vizinhos.

No caso ferromagnético J>0 o nível fundamental de energia possui uma degenerescência igual à q correspondendo aos valores possíveis para todos os spins alinhados.

Relação com o modelo de Ising

É importante remarcar que para q=2 o modelo de Potts é equivalente ao modelo de Ising com constante de acoplamento J2 a menos de uma constante aditiva (i,j)J2 no Hamiltoniano.

HI=Hp+(i,j)J2=J(i,j)δ(si,sj)+(i,j)J2=J2(i,j)(2δ(si,sj)1)

nesse caso os spins si e sj tem apenas dois valores possíveis e

2δ(si,sj)1={1,se si=sj1,se sisj

logo considerando como valores possíveis para os spin como 1 e 1 encontramos

HI=Hp+(i,j)J2=J2(i,j)sisj

Simulação Monte Carlo

A abordagem utilizada para simular por Monte Carlo um sistema seguindo o modelo de Potts com q pequeno é naturalmente similar àquela utilizada para o modelo de Ising, seguindo o algoritmo de Metropolis. Entretanto para valores mais elevados de q esse algoritmo se torna ineficiente e o sistema demora um tempo muito longo para entrar em equilíbrio térmico.

Eficiência do algoritmo de Metropolis

Para entender porque o algoritmo de Metropolis não é otimo para uma simulação Monte Carlo de um sistema seguindo o modelo de Potts devemos nos lembrar como ele resolve o problema de amostragem por importância.

As condições necessárias para a amostragem por importância são:

  • Ergodicidade: a garantia de que qualquer estado do sistema é acessível à partir de qualquer outro estado dado um comprimento suficientemente grande da cadeia de Markov.
  • Balanço detalhado: a garantia de que a cadeia de Markov de matriz estocástica P(μν) vai convergir, quando o sistema atingir o equilíbrio térmico, para uma dada distribuição pμ.
pμP(μν)=pνP(νμ)

No caso do ensemble canônico essa distribuição é a distribuição de Boltzmann

pμ=1ZeβEμ

onde Z é a função de partição e β=1kBT é o inverso da temperatura.

Considerando a probabilidade de transição de estado como o produto de uma probabilidade de seleção de um novo estado g(μν), a probabilidade de considerar ν como o próximo estado na cadeia dado o estado atual μ, e uma probabilidade de aceitação de transição A(μν)

P(μν)=g(μν)A(μν)

o algoritmo de Metropolis atribui um valor fixo e uniforme para a probabilidade de seleção

g(μν)=1Nμ,ν

que claramente garante a ergodicidade, restando apenas uma condição sobre os valores das probabilidades de aceitação:

A(μν)A(νμ)=pνpμ=eβ(EνEμ)

que é satisfeita com a seguinte lei de seleção:

A(μν)={eβ(EνEμ),se Eν>Eμ1,caso contrario
Exemplo: rede bidimensional retangular com q=100. Um spin cercado por vizinhos de valores diferentes, a probabilidade de o sistema trocar para um estado de menor energia é 4/100=4%, logo teremos que esperar em média 25 passos para a simulação avançar.

O problema desse algoritmo para um modelo como o de Potts que admite um número elevado de estados possíveis para o spin é evidenciado quando consideramos um sistema à baixa temperatura. Para altas temperaturas a probabilidade de aceitação é igual à 1 ou suficientemente alta por conta de um β pequeno tornando algoritmo eficiente, entretanto à baixa temperatura os spins tendem à se alinhar com seus vizinhos constituindo o fenômeno do ferromagnetismo. Se imaginarmos um spin no estado si cercado por vizinhos de valores diferentes, seguindo o algoritmo de Metropolis, seja qual for o valor si selecionado uniformemente para o novo estado desse spin a probabilidade de aceitação é A(μν)=1 pois essa troca de spin vai diminuir a enrgia do sistema (quando si for estado de um spin vizinho) ou no máximo manter constante a energia do sistema (si continua sendo diferente de todos os spins vizinhos). Com isso, temos um probabilidade de o sistema trocar para um estado de menor energia de Nvq, onde Nv é número de vizinhos mais próximos de cada spin, aumentando muito o tempo necessário para o sistema entrar em equilíbrio.

De maneira similar, se um spin tem o mesmo estado de um de seus vizinhos teremos Nv novos estados ν com taxa de aceitação unitária enquanto todos outros qNv estados terão uma taxa de aceitação muito baixa (dependendo da temperatura) resultando em uma probabilidade de transição pouco maior que Nv/q novamente atrasando a simulação.

Algoritmo do banho térmico

Uma solução possível para o problema apresentado é utilizar o algoritmo de banho térmico que também troca o estado de um spin por vez mas utiliza uma técnica diferente para satisfazer a condição do balanço detalhado. Diferentemente do algoritmo de Metropolis onde a probabilidade de seleção g(μν) é uniforme e a probabilidade de aceitação A(μν) obedece uma lei que resulta em uma probabilidade de transição P(μν) que respeita a condição, no algoritmo do banho térmico a taxa de aceitação é unitária

A(μν)=1μ,ν

e a taxa de seleção é baseado nos pesos de Boltzmann (peso não nulo inclusive para o estado atual do sistema)

g(μν)eβEνpνμ,ν

resultando automaticamente numa probabilidade de transição que respeita o balanço detalhado.

Esse algoritmo é muito mais eficiente para sistemas com alto grau de degenerescencia como o modelo de Potts com grau q elevado.

Códigos utilizados

Modelo de Potts

Referências

Potts, Renfrey B. (1952). "Some Generalized Order-Disorder Transformations". Mathematical Proceedings.

M. E. J. Newman, G. T. Barkema, "Monte Carlo Methods in Statistical Physics". Oxford University Press Inc., New York, 1999.