Linearização de sistemas de equações não lineares: mudanças entre as edições

De Física Computacional
Ir para navegação Ir para pesquisar
Sem resumo de edição
Sem resumo de edição
 
(Uma revisão intermediária pelo mesmo usuário não está sendo mostrada)
(Sem diferença)

Edição atual tal como às 16h45min de 19 de maio de 2021

Anterior: Probabilidade básica | Índice: Ecologia | Próximo: Métodos de Lyapunov

Primeiro temos que um mapa linear é um mapa entre dois espaços vetoriais, isto é, um mapa que preserva as operações de adição de vetores e multiplicação escalar:


Onde são vetores e é escalar. Uma equação linear é então uma equação da forma:

Onde as variáveis e os coeficientes são e respectivamente. De maneira análoga, uma equação diferencial linear tem a seguinte forma geral:

Lembrando que os termos e podem ser não-lineares, e também que equações diferenciais lineares possuem o princípio da superposição, isto é, a superposição de duas ou mais soluções para uma equação diferencial linear homogênea, também é uma solução. Uma equação diferencial de primeira ordem () pode ser escrita então como:

Para facilitar, vamos denotar sem perda de generalidade , e :

Se , então temos apenas , que é classificada como equação homogênea. Podemos perceber que ainda pode aparecer explicitamente em , porém se isto não acontecer, ou seja, for constante, temos então uma equação autônoma . Se temos então um conjunto de equações diferenciais de primeira ordem, podemos escrever na forma vetorial:


Os termos podem ser reescritos em termo das outras equações , Por exemplo , então:

Que ainda pode ser reescrito sem perda de generalidade como:

É comum encontrar na literatura sendo chamado de entrada. Podemos nos atentar que com a matriz podemos escrever com elementos linearmente independentes. Tendo como exemplo o seguinte sistema:

Podemos reescrever por exemplo:


Podemos ver que precisamos conhecer para conhecermos completamente o comportamento de , o que é uma característica de sistemas. Reescrevendo o sistema na forma diferencial tradicional:


Ou seja, temos . Mas ainda podemos reescrever como:

Onde temos . Agora, considerando que as matrizes e sejam independentes do tempo, temos:

Então . Omitindo a informação da dependência no tempo , temos o seguinte vetor:

Onde e . O ponto de equilíbrio ocorre quando para uma entrada constante temos :

  • Se a matriz é inservível, temos um único ponto de equilíbrio.
  • Se a matriz é singular, ou seja, não é inservível (seu determinante é nulo, e como o determinante é o produto dos autovalores[1], consequentemente então um autovalor ao menos é nulo), então dependemos do posto matricial (quantidade de linhas ou colunas independentes) do produto :
    • há um infinito número de pontos de equilíbrio;
      • Nesse caso podemos obter todas soluções a partir de uma solução particular, fazendo (lembrando que o kernel é um sub-espaço formado por vetores que satisfazem [2]).
    • não há pontos de equilíbrio.

Para sistemas lineares, a estabilidade do ponto de equilíbrio não depende do ponto em si. A estabilidade do sistema é completamente determinada pela posição dos autovalores da matriz A.

Considerando então um sistema não linear:

Novamente o ponto de equilíbrio ocorre quando para uma entrada constante quando temos . Mas agora a estabilidade não é uma propriedade global do sistema, mas local. Então a análise deve ser feita em cada ponto de equilíbrio. Vamos expandir então a função na vizinhaça do do ponto de equilíbrio . Para uma variável, temos a seguinte expansão em série de Taylor em torno de :

Para o primeiro grau, uma função para duas variáveis próxima ao ponto pode ser aproximada por[3]:

Mas escrevendo então e :

E tendo os vetores e  :

Onde:

Generalizando para nosso caso temos então:

Uma vez que agora ambos e são vetores . E como , fazendo o deslocamento e , temos:

Onde:

Onde a matriz é a matriz jacobiana que representa a diferenciação de em cada ponto onde é diferenciável.

Sendo que as componentes da matrizes e são constantes, pois é o valor da derivada no ponto de equilíbrio.

Principais materiais utilizados

  1. Analysis of Ordinary Differential Equations (J. M. Cushing, Universidade do Arizona)
  2. Linearization of Nonlinear Systems (Roberto Zanasi, Universidade de Módena e Reggio Emília)

Citações

  1. Facts About Eigenvalues (David Butler, University of Adelaide)
  2. Lecture 13: Image and Kernel (Oliver Knill, Harvard University)
  3. Taylor Polynomials of Functions of Two Variables (Paul Seeburger, LibreTexts)


Anterior: Probabilidade básica | Índice: Ecologia | Próximo: Métodos de Lyapunov