Otimizações

De Física Computacional
Revisão de 00h35min de 3 de junho de 2016 por Lazzari26 (discussão | contribs)
Ir para navegação Ir para pesquisar

Motivaçao

Cerca de $95\%$ do tempo de uma simulação é gasto com o cálculo das forças e a respectiva integração. Baseado nisso, criam-se métodos de otimização dos programas de simulação que podem acelerar de forma gigantesca (dependendo do número de partículas em interação) este processo. Claro que estes métodos por sua vez não são perfeitos, eles dependem de algumas características do sistema, no caso em questão, a otimização chamada Lista de Verlet baseia-se na simetria do potencial utilizado (Leonard Jones) e no fato de ele provocar uma interação de curto alcance (em relação ao tamanho total do sistema).

Em um programa sem otimização alguma, o calculo executado é a interação de cada partícula com as $N-1$ outras partículas, o que faz com que o tempo escale na ordem: $t_{tot} \sim N(N-1) \sim N^2$. Tomando um bom algoritmo de programação e levando em consideração a terceira lei de Newton, em que a $\vec{F}_{i,j} = -\vec{F}_{j,i}$, pode-se fazer metade das interações executadas antes, onde acaba-se com $t_{tot} \sim N(N-1)/2$.

Método

O que o algoritmo de Verlet propõe é que invés de se calcular a interação de uma partícula com as outras $N-1$, tome-se apenas uma lista das partículas mais próximas (vizinhas) e calcule-se a interação apenas com uma parte delas, é equivalente a propor que as outras partículas mais distantes não interajam significativamente com esta. Mas, dessa forma, como definir o que são as partículas vizinhas?

\begin{figure}[h] \centering \includegraphics[width=11cm]{lenn_jones.png} \caption{Potencial de Lennard-Jones: repulsivo para valores menores que 1.12 $r/\sigma$, e atrativo para valores maiores que isso. O potencial é praticamente nulo para valores maiores que 2.5 $r/\sigma$.} \label{fig1} \end{figure}

Para poder definir as partículas vizinhas, volta-se para a forma com que as partículas interagem entre si. Analisa-se então a \textit{Figura 1} que apresenta o potencial de interação (Potencial de Lennard-Jones), que tem características peculiares, em que é repulsivo para valores menores que 1.12 $r/\sigma$ tendendo ao infinito para distâncias muito pequenas entre particulas (poderia se pensar como uma definição de "tamanho para a partícula). Já para distâncias maiores que 1.12 $r/\sigma$ entre as partículas, o potencial é atrativo e diminui com a distância, tendendo a zero para distâncias grandes. Perceba ainda que para distâncias não tão grandes assim (aproximadamente $2.5$ vezes o tamanho" da partícula, $2.5 r/\sigma$) o potenial já é praticamente nulo em relação às forças de interação de distâncias próximas ao mínimo do potencial.

Neste ponto se percebe uma das grandes limitação da otimização proposta. Para uma simulação de interações de longo alcance, como objetos sob ação de campos gravitacionais por exemplo, esta técnica não se aplica de forma eficaz, pois ao se desprezar as pequenas interações das partículas distantes, pela grande quantidade dessas partículas, perde-se uma quantidade muito grande de informação que poderia agir sob a partícula de referência.

O procedimento é feito então definindo-se os vizinhos, para isso é feita uma análise das distâncias de cada partícula com as outras (processo de tempo $\sim N^2$), a questão principal é saber quais partículas são vizinhas em todos os momentos e, principalmente, quais deixam de ser. É fácil perceber que se for necessário atualizar a lista em cada passo de tempo, se terá a mesma proporção temporal que o cálculo direto sem otimização ($N^2$). Por este motivo, define-se um segundo círculo em torno da partícula, de raio $R_{v}$ tal que $R_{v} > R_{c}$, onde $R_{v}$ é o raio de vizinhos da partícula e $R_{c}$ o raio crítico de interação (a força é calculada apenas para partículas dentro de $R_{c}$).

\begin{figure}[h] \centering \includegraphics[width=12cm]{vizinhos_part.png} \caption{Vizinhos da partícula. Em branco as partículas dentro de $R_{c}$ que exercem força sobre a partícula central, em cinza as partículas vizinhas entre $R_{C}$ e $R_{v}$ e em preto as partículas externas (não listadas em relaçao à partícula do meio). A sequência das imagens mostra uma situação que não deve ocorrer, uma vez que no quadro dois as partículas deveriam ser atualizadas para no terceiro quadro interagirem com a partícula central.} \label{fig1} \end{figure}

O algoritmo consiste em enumerar-se as partículas no interior de $R_{c}$ e as partículas vizinhas entre $R_{c}$ e $R_{v}$, para cada partícula $i$, e considerar apenas as no interior de $R_{c}$ como partículas de interação. As partículas no segundo plano ($R_{c} < r_j < R_{v}$) regulam quando deve-se atualizar a lista de partículas vizinhas, justamente para que não se necessite fazer este processo a cada iteração. O que se propõe então é que quando alguma partícula se movimetar uma distância maior que $|R_{c}-R_{v}|$ a lista deve ser renovada, pois pode deixar de ser vizinha ou entrar na região de interação da partícula referencial. Neste ponto, deve-se pensar na questão de custo benefício pois quanto maiores forem os valores de $R_{c}$ e $R_{v}$, menos vezes será necessário recalcular a lista de vizinhos (que demora $\sim N^2$), em compensação, mais partículas serão consideradas e mais vezes deverá se calcular a força. Então, quais são os valores ideais de $R_{c}$ e $R_{v}$?

Algoritmo

 main()
 {
   inicia_posições()
   inicia_velocidades()
  
   define_lista_de_vizinhos_por_particula()
 
   for(tempo;tempo<tf)
   {
     testa_vizinhos()
     calcula_força()
     integra_movimento()
     faz_medidas()
   }
 }
 define_lista_de_vizinhos()
 {
   rv2 = RC2*RC2;
 
   for(i=0;i<NP;i++)  
   {
     nviz[i] = 0;   k = 0
 
     for(j=0;j<NP;j++)
     {
       if(i==j)    continue
 
       dx = x[i]-x[j];  dy = y[i]-y[j]   
       r2 = dx*dx+dy*dy
  
       if (r2 < rv2) { nviz[i]++; viz[i][k] = j; k++; } 
       //se a distância for menor que rv2 a j é vizinha de i
        
       pas_x[i] = x[i]
       pas_y[i] = y[i]
       //salva a posição pra comparar com o próximo passo e testar
       //se a diferença é menor que |rv-rc|
     }
 }
 testa_vizinhos()
 {
   rviz2 = (rv-RC2)*(rv-RC2)
 
   for(i=0;i<NP;i++)  
   {
     dx = (x[i]-pas_x[i])     
     dy = (y[i]-pas_y[i])
     r2 = dx*dx+dy*dy
        
     if (r2 > rviz2) define_lista_de_vizinhos()
   }
 }

Simulação - Resultados

Para encontrar os valores ideais de $R_{c}$ e $R_{v}$ deve-se testá-los para diferentes parâmetros e os comparar.

\begin{figure}[h] \centering \includegraphics[width=12cm]{var_rc.png} \caption{Tempo de simulação para parâmetros fixos e raio crítico variável.} \label{fig1} \end{figure}

Na \textit{Figura 3} pode-se ver os resultados da variação do raio crítico $R_{c}$ para uma caixa de 256 partículas com densidade igual a 1, 15000 passos computacionais e parâmetro $R_{v} = 3.4$ (logo mais se tornará explicito o porque deste valor para $R_{v}$). Há de se notar que o raio crítico não possui uma grande liberdade de variação, visto que se muito pequeno, despreza interações relevantes no cálculo, e, se muito grande, proporciona uma faixa muito estreita para partículas vizinhas. No gráfico em questão, lê-se tempo de simulação por tamanho de raio crítico, e observa-se ainda que a variação relativa no tempo é muito pequena (em termos de tempos totais de simulação), de apenas 0.4 segundos. Assim, assume-se como um valor razoável $R_{c} = 2.5 r/\sigma$, o valor intermediário dos pontos testados.

Para o raio de vizinhos, $R_{v}$, toma-se a mesma abordagem e obtem-se resultados muito mais significativos. O que se faz é variar o valor de $R_{v}$ e acompanhar algum parâmetro de medida (no caso os gráficos de G de R) para garantir que o sistema ainda represente uma situação física. Na \textit{Figura 4} pode-se observar os efeitos de variação do $R_{v}$ em termos de $r/\sigma$ sob o tempo de simulação para um sistema com 256 partículas, $R_{c} = 2.5$, densidade = 1 e 15000 passos computacionais. Percebe-se que para valores muito próximos de $R_{c}$, a faixa de vizinhos é muito estreita e o tempo de simulação praticamente dobra, em relação ao tempo sem otimizações, e conforme aumenta-se o raio, o tempo diminui no que aparenta ser de forma exponencial até um valor constante próximo de 4.3 segundos para $3.5 < R_{v} < 3.7$. A partir de $R_{v}>3.7$ o gráfico de G de R se distorce e o sistema deixa de ser físico. Desta forma, assume-se $R_{v} = 3.4$ (meio do intervalo) como um tamanho razoável para o raio das partículas vizinhas.

\begin{figure}[h] \centering \includegraphics[width=12cm]{var_rv.png} \caption{Tempo de simulação para parâmetros fixos e raio de vizinhos variável.} \label{fig1} \end{figure}

Por fim então comparam-se os tempos de medidas para variação no número de partículas, onde espera-se que para uma grande quantidade de partículas os efeitos da otimização sejam extremamente significantes.

Para a otimização da Lista de Verlet, por mais que ainda se tenham alguns cálculos de ordem $N^2$, espera-se que sejam muito menos frequentes que no cálculo não otimizado.

\begin{eqnarray} {\tau_{sem-otim.} = cN(N-1)/2} \\ {\tau_{verl} = c n_v N + \alpha N^2} \end{eqnarray}

Onde o parâmetro $c$ tem relação com a forma em que o programa foi escrito, podendo melhorar ou piorar o desempenho a partir de algumas especificidades do programador, N é o número de partículas, $n_v$ é o número de vizinhos de todas as partículas e $\alpha$ é um parâmetro relacionado com a difusão das partículas de um sistema uma vez que quanto mais as partículas andarem, mais terão de ser atualizadas suas listas. Assim, o primeiro termo a direita da \textit{Equação 2} remete ao cálculo das forças e o segundo à atualização das listas de vizinhos.

Na \textit{Figura 5} pode-se analisar então o comportamento do tempo de simulação em relação à quantidade de partículas no sistema, onde os círculos aberto representam as simulações para o programa sem otimização, o programa otimizado com parâmetros ruins e o programa otimizado com parâmetros ótimos; já os traços contínuos represetnam os ajustes lineares das \textit{Equações 1} e \textit{2} para os respectivos programas. O fator flagrante que se marca no gráfico é o fato de que as simulações otimizadas, mesmo para parâmetros ruins, são bem mais rápidas que as efetuadas sem qualquer otimização. Além disso, a partir dos ajustes, obtém-se os coeficientes, já discutidos, das equações de tempo de simulação onde pode-se notar que quando tomam-se parâmetros ruins para a otimização de Verlet (no caso $R_v$), o programa acaba tendo uma dependência muito maior no parâmetro quadrático (aproximadamente 40x maior) e consequentemente isso afeta de forma drástica o tempo de simulação. No caso particular abordado, em que o sistema tem densidade 1, a difusão das partículas é quase inexistente, isso permite que o \textit{fit} com parâmetros ótimos quase não possua dependência quadrática, não sendo esta uma regra geral de bons parâmetros. Marcam-se então as diferenças para 2500 partículas, em que os tempos sem otimização, com otimização ruim e com otimização ótima são, respectivamente, $t_{sem-otim.} = 2115.340$s, $t_{ver-ruim} = 1025.992$s e $t_{ver-bom} = 62.564$s.

\begin{figure}[h] \centering \includegraphics[width=12cm]{var_NP.png} \caption{Comparação de tempos de simulação para diferentes números de partículas e diferentes métodos, onde se apresentam em ordem crescente: Método Otimizado com Parâmetros Ótimos, Método Otimizado com Parâmetros Ruins e Método Não Otimizado.} \label{fig1} \end{figure}

Desta forma pode se ver a grande importância das otimizações para cálculos de simulações numéricas e, mais que isso, o bom acerto dos parâmetros de otimização que são fortemente controlados pelo tipo de interação utilizada e por outros parâmetros do sistema. É importante também lembrar da limitação do método quanto a interações de longo alcance e de potenciais não diretamente limitados.