Linearização de sistemas de equações não lineares

De Física Computacional
Revisão de 15h44min de 12 de abril de 2021 por Jhordan (discussão | contribs) (Criou página com 'Primeiro temos que um mapa linear é um mapa <math display="inline">V\rightarrow W</math> entre dois espaços vetoriais, isto é, um mapa que preserva as operações de adiç...')
(dif) ← Edição anterior | Revisão atual (dif) | Versão posterior → (dif)
Ir para navegação Ir para pesquisar

Primeiro temos que um mapa linear é um mapa entre dois espaços vetoriais, isto é, um mapa que preserva as operações de adição de vetores e multiplicação escalar:


Onde são vetores e é escalar. Uma equação linear é então uma equação da forma:

Onde as variáveis e os coeficientes são e respectivamente. De maneira análoga, uma equação diferencial linear tem a seguinte forma geral:

Lembrando que os termos e podem ser não-lineares, e também que equações diferenciais lineares possuem o princípio da superposição, isto é, a superposição de duas ou mais soluções para uma equação diferencial linear homogênea, também é uma solução. Uma equação diferencial de primeira ordem () pode ser escrita então como:

Para facilitar, vamos denotar sem perda de generalidade , e :

Se , então temos apenas , que é classificada como equação homogênea. Podemos perceber que ainda pode aparecer explicitamente em , porém se isto não acontecer, ou seja, for constante, temos então uma equação autônoma . Se temos então um conjunto de equações diferenciais de primeira ordem, podemos escrever na forma vetorial:


Os termo podem ser reescritos em termo das outras equações , Por exemplo , então:

Que ainda pode ser reescrito sem perda de generalidade como:

É comum encontrar na literatura sendo chamado de entrada. Podemos nos atentar que com a matriz podemos escrever com elementos linearmente independentes. Tendo como exemplo o seguinte sistema:

Podemos reescrever por exemplo:


Podemos ver que precisamos conhecer para conhecermos completamente o comportamento de , o que é uma característica de sistemas. Reescrevendo o sistema na forma diferencial tradicional:


Ou seja, temos . Mas ainda podemos reescrever como:

Onde temos . Agora, considerando que as matrizes e sejam independentes do tempo, temos:

Então . Omitindo a informação da dependência no tempo , temos o seguinte vetor:

Onde e . O ponto de equilíbrio ocorre quando para uma entrada constante temos :

  • Se a matriz é inservível, temos um único ponto de equilíbrio.
  • Se a matriz é singular, ou seja, não é inservível (seu determinante é nulo, e como o determinante é o produto dos autovalores[1], consequentemente então um autovalor ao menos é nulo), então dependemos do posto matricial (quantidade de linhas ou colunas independentes) do produto :
    • há um infinito número de pontos de equilíbrio;
      • Nesse caso podemos obter todas soluções a partir de uma solução particular, fazendo (lembrando que o kernel é um sub-espaço formado por vetores que satisfazem [2]).
    • não há pontos de equilíbrio.

Para sistemas lineares, a estabilidade do ponto de equilíbrio não depende do ponto em si. A estabilidade do sistema é completamente determinada pela posição dos autovalores da matriz A.

Considerando então um sistema não linear:

Novamente o ponto de equilíbrio ocorre quando para uma entrada constante quando temos . Mas agora a estabilidade não é uma propriedade global do sistema, mas local. Então a análise deve ser feita em cada ponto de equilíbrio. Vamos expandir então a função na vizinhaça do do ponto de equilíbrio . Para uma variável, temos a seguinte expansão em série de Taylor em torno de :

Para o primeiro grau, uma função para duas variáveis próxima ao ponto pode ser aproximada por[3]:

Mas escrevendo então e :

E tendo os vetores e  :

Onde:

Generalizando para nosso caso temos então:

Uma vez que agora ambos e são vetores . E como , fazendo o deslocamento e , temos:

Onde:

Onde a matriz é a matriz jacobiana que representa a diferenciação de em cada ponto onde é diferenciável.

Principais materiais utilizados

  1. Analysis of Ordinary Differential Equations (J. M. Cushing, Universidade do Arizona)
  2. Linearization of Nonlinear Systems (Roberto Zanasi, Universidade de Módena e Reggio Emília)

Citações

  1. Facts About Eigenvalues (David Butler, University of Adelaide)
  2. Lecture 13: Image and Kernel (Oliver Knill, Harvard University)
  3. Taylor Polynomials of Functions of Two Variables (Paul Seeburger, LibreTexts)