Linearização de sistemas de equações não lineares: mudanças entre as edições

De Física Computacional
Ir para navegação Ir para pesquisar
Jhordan (discussão | contribs)
Criou página com 'Primeiro temos que um mapa linear é um mapa <math display="inline">V\rightarrow W</math> entre dois espaços vetoriais, isto é, um mapa que preserva as operações de adiç...'
 
Jhordan (discussão | contribs)
Sem resumo de edição
Linha 1: Linha 1:
Primeiro temos que um mapa linear é um mapa <math display="inline">V\rightarrow W</math> entre dois espaços vetoriais, isto é, um mapa que preserva as operações de adição de vetores e multiplicação escalar:
  Primeiro temos que um mapa linear é um mapa <math display="inline">V\rightarrow W</math> entre dois espaços vetoriais, isto é, um mapa que preserva as operações de adição de vetores e multiplicação escalar:


<math display="block">f\left(\boldsymbol{u}+\boldsymbol{v}\right)=f\left(\boldsymbol{u}\right)+f\left(\boldsymbol{v}\right)\qquad f\left(c\boldsymbol{u}\right)=cf\left(\boldsymbol{u}\right)</math>
<math display="block">f\left(\boldsymbol{u}+\boldsymbol{v}\right)=f\left(\boldsymbol{u}\right)+f\left(\boldsymbol{v}\right)\qquad f\left(c\boldsymbol{u}\right)=cf\left(\boldsymbol{u}\right)</math>
Linha 25: Linha 25:




Os termo <math display="inline">g_{j}\left(t\right)</math> podem ser reescritos em termo das outras equações <math display="inline">x_{j}</math>, Por exemplo <math display="inline">g_{0}=g_{01}\left(t\right)x_{1}+\dots g_{0n}\left(t\right)x_{n}+b_{0}\left(t\right)</math>, então:
Os termos <math display="inline">g_{j}\left(t\right)</math> podem ser reescritos em termo das outras equações <math display="inline">x_{j}</math>, Por exemplo <math display="inline">g_{0}=g_{01}\left(t\right)x_{1}+\dots g_{0n}\left(t\right)x_{n}+b_{0}\left(t\right)</math>, então:


<math display="block">\begin{aligned}
<math display="block">\begin{align}
\left(\begin{array}{c}
\left(\begin{array}{c}
\dot{x_{0}}\\
\dot{x_{0}}\\
Linha 49: Linha 49:
\vdots\\
\vdots\\
b_{n}\left(t\right)
b_{n}\left(t\right)
\end{array}\right)\end{aligned}</math>Que ainda pode ser reescrito sem perda de generalidade como:
\end{array}\right)\end{align}</math>


<math display="block">\begin{aligned}
Que ainda pode ser reescrito sem perda de generalidade como:
 
<math display="block">\begin{align}
\dot{\boldsymbol{x}} & =A\boldsymbol{x}+\boldsymbol{b}\\
\dot{\boldsymbol{x}} & =A\boldsymbol{x}+\boldsymbol{b}\\
  & =A\boldsymbol{x}+\mathbb{I}\boldsymbol{b}\\
  & =A\boldsymbol{x}+\mathbb{I}\boldsymbol{b}\\
  & =A\boldsymbol{x}+B\boldsymbol{u}\end{aligned}</math>É comum encontrar na literatura <math display="inline">\boldsymbol{u}</math> sendo chamado de entrada. Podemos nos atentar que com a matriz <math display="inline">B</math> podemos escrever <math display="inline">\boldsymbol{u}</math> com elementos linearmente independentes. Tendo como exemplo o seguinte sistema:
  & =A\boldsymbol{x}+B\boldsymbol{u}\end{align}</math>É comum encontrar na literatura <math display="inline">\boldsymbol{u}</math> sendo chamado de entrada. Podemos nos atentar que com a matriz <math display="inline">B</math> podemos escrever <math display="inline">\boldsymbol{u}</math> com elementos linearmente independentes. Tendo como exemplo o seguinte sistema:


<math display="block">\begin{aligned}
<math display="block">\begin{align}
\dot{x} & =\cos\left(t\right)\left(x+1\right)+\sin\left(t\right)\left(y+1\right)+t^{2}\\
\dot{x} & =\cos\left(t\right)\left(x+1\right)+\sin\left(t\right)\left(y+1\right)+t^{2}\\
\dot{y} & =\cos\left(t\right)\left(x+1\right)-\sin\left(t\right)\left(y+1\right)+t\end{aligned}</math>Podemos reescrever <math display="inline">\dot{x}</math> por exemplo:
\dot{y} & =\cos\left(t\right)\left(x+1\right)-\sin\left(t\right)\left(y+1\right)+t\end{align}</math>Podemos reescrever <math display="inline">\dot{x}</math> por exemplo:


<math display="block">\begin{aligned}
<math display="block">\begin{align}
\dot{x} & =\left[\cos\left(t\right)\right]x+\left[\cos\left(t\right)+\sin\left(t\right)\left(y+1\right)+t^{2}\right]\\
\dot{x} & =\left[\cos\left(t\right)\right]x+\left[\cos\left(t\right)+\sin\left(t\right)\left(y+1\right)+t^{2}\right]\\
  & =a\left(t\right)x+g\left(t\right)\end{aligned}</math>
  & =a\left(t\right)x+g\left(t\right)\end{align}</math>




Podemos ver que precisamos conhecer <math display="inline">y\left(t\right)</math> para conhecermos completamente o comportamento de <math display="inline">x\left(t\right)</math>, o que é uma característica de sistemas. Reescrevendo o sistema na forma diferencial tradicional:<math display="block">\begin{aligned}
Podemos ver que precisamos conhecer <math display="inline">y\left(t\right)</math> para conhecermos completamente o comportamento de <math display="inline">x\left(t\right)</math>, o que é uma característica de sistemas. Reescrevendo o sistema na forma diferencial tradicional:<math display="block">\begin{align}
\dot{\boldsymbol{x}} & =A\boldsymbol{x}+\boldsymbol{b}\\
\dot{\boldsymbol{x}} & =A\boldsymbol{x}+\boldsymbol{b}\\
\left(\begin{array}{c}
\left(\begin{array}{c}
Linha 79: Linha 81:
\cos\left(t\right)+\sin\left(t\right)+t^{2}\\
\cos\left(t\right)+\sin\left(t\right)+t^{2}\\
\cos\left(t\right)-\sin\left(t\right)+t
\cos\left(t\right)-\sin\left(t\right)+t
\end{array}\right)\end{aligned}</math>  
\end{array}\right)\end{align}</math>  




Linha 85: Linha 87:
\cos\left(t\right)+\sin\left(t\right)+t^{2}, & \cos\left(t\right)-\sin\left(t\right)+t\end{array}\right)^{T}</math>. Mas ainda podemos reescrever como:
\cos\left(t\right)+\sin\left(t\right)+t^{2}, & \cos\left(t\right)-\sin\left(t\right)+t\end{array}\right)^{T}</math>. Mas ainda podemos reescrever como:


<math display="block">\begin{aligned}
<math display="block">\begin{align}
\dot{\boldsymbol{x}} & =A\boldsymbol{x}+B\boldsymbol{u}\\
\dot{\boldsymbol{x}} & =A\boldsymbol{x}+B\boldsymbol{u}\\
\left(\begin{array}{c}
\left(\begin{array}{c}
Linha 104: Linha 106:
t^{2}\\
t^{2}\\
t
t
\end{array}\right)\end{aligned}</math>
\end{array}\right)\end{align}</math>


Onde temos <math display="inline">\boldsymbol{u}=\left(\begin{array}{cc}
Onde temos <math display="inline">\boldsymbol{u}=\left(\begin{array}{cc}
\cos\left(t\right), & \sin\left(t\right)\end{array},t^{2},t\right)^{T}</math>. Agora, considerando que as matrizes <math display="inline">A</math> e <math display="inline">B</math> sejam independentes do tempo, temos:
\cos\left(t\right), & \sin\left(t\right)\end{array},t^{2},t\right)^{T}</math>. Agora, considerando que as matrizes <math display="inline">A</math> e <math display="inline">B</math> sejam independentes do tempo, temos:


<math display="block">\begin{aligned}
<math display="block">\begin{align}
\left(\begin{array}{c}
\left(\begin{array}{c}
\dot{x_{1}}\\
\dot{x_{1}}\\
Linha 131: Linha 133:
u_{m}
u_{m}
\end{array}\right)\\
\end{array}\right)\\
\dot{\boldsymbol{x}}\left(t\right) & =A\boldsymbol{x}\left(t\right)+B\boldsymbol{u}\left(t\right)\end{aligned}</math>Então <math display="inline">\dot{\boldsymbol{x}}\left(t\right)=f\left(\boldsymbol{x}\left(t\right),\boldsymbol{u}\left(t\right)\right)</math>. Omitindo a informação da dependência no tempo <math display="inline">\left(t\right)</math>, temos o seguinte vetor:
\dot{\boldsymbol{x}}\left(t\right) & =A\boldsymbol{x}\left(t\right)+B\boldsymbol{u}\left(t\right)\end{align}</math>Então <math display="inline">\dot{\boldsymbol{x}}\left(t\right)=f\left(\boldsymbol{x}\left(t\right),\boldsymbol{u}\left(t\right)\right)</math>. Omitindo a informação da dependência no tempo <math display="inline">\left(t\right)</math>, temos o seguinte vetor:


<math display="block">\boldsymbol{f}\left(\boldsymbol{x},\boldsymbol{u}\right)=\left(\begin{array}{c}
<math display="block">\boldsymbol{f}\left(\boldsymbol{x},\boldsymbol{u}\right)=\left(\begin{array}{c}

Edição das 19h03min de 12 de abril de 2021

  Primeiro temos que um mapa linear é um mapa VW entre dois espaços vetoriais, isto é, um mapa que preserva as operações de adição de vetores e multiplicação escalar:

f(u+v)=f(u)+f(v)f(cu)=cf(u)


Onde u,vV são vetores e cK é escalar. Uma equação linear é então uma equação da forma:

a1x1++anxn=bjajxj=bOnde as variáveis e os coeficientes são xj e aj respectivamente. De maneira análoga, uma equação diferencial linear tem a seguinte forma geral:

a0(t)y+a1(t)dx(t)dt++an1(t)dn1x(t)dtn1+an(t)dnx(x)dtn=b(t)nan(t)dnx(t)dtn=b(t)

Lembrando que os termos aj(t) e b(t) podem ser não-lineares, e também que equações diferenciais lineares possuem o princípio da superposição, isto é, a superposição de duas ou mais soluções para uma equação diferencial linear homogênea, também é uma solução. Uma equação diferencial de primeira ordem (n=1) pode ser escrita então como:a0(t)x(t)+a1(t)dx(t)dt=b(t)x˙=b(t)a1(t)a0(t)a1(t)x(t)Para facilitar, vamos denotar sem perda de generalidade g(t)=b(t)a1(t), a(t)=a0(t)a1(t) e x(t)x:

x˙=a(t)x+g(t)=f(t,x)

Se g(t)=0, então temos apenas x˙=a(t)x, que é classificada como equação homogênea. Podemos perceber que t ainda pode aparecer explicitamente em a(t), porém se isto não acontecer, ou seja, a for constante, temos então uma equação autônoma x˙=ax=f(x). Se temos então um conjunto de equações diferenciais de primeira ordem, podemos escrever na forma vetorial:(x0˙x˙n)=(a0(t)x0+g0(t)an(t)xn+gn(t))


Os termos gj(t) podem ser reescritos em termo das outras equações xj, Por exemplo g0=g01(t)x1+g0n(t)xn+b0(t), então:

(x0˙x˙n)=(a0(t)x0+g01(t)x1+g0n(t)xn+b0(t)an(t)xn+gn0(t)x0+gnn1(t)xn1+bn(t))=(a0(t)g0n(t)gn0(t)an(t))(x0xn)+(b0(t)bn(t))

Que ainda pode ser reescrito sem perda de generalidade como:

x˙=Ax+b=Ax+𝕀b=Ax+BuÉ comum encontrar na literatura u sendo chamado de entrada. Podemos nos atentar que com a matriz B podemos escrever u com elementos linearmente independentes. Tendo como exemplo o seguinte sistema:

x˙=cos(t)(x+1)+sin(t)(y+1)+t2y˙=cos(t)(x+1)sin(t)(y+1)+tPodemos reescrever x˙ por exemplo:

x˙=[cos(t)]x+[cos(t)+sin(t)(y+1)+t2]=a(t)x+g(t)


Podemos ver que precisamos conhecer y(t) para conhecermos completamente o comportamento de x(t), o que é uma característica de sistemas. Reescrevendo o sistema na forma diferencial tradicional:x˙=Ax+b(x˙y˙)=(cos(t)sin(t)cos(t)sin(t))(xy)+(cos(t)+sin(t)+t2cos(t)sin(t)+t)


Ou seja, temos b=(cos(t)+sin(t)+t2,cos(t)sin(t)+t)T. Mas ainda podemos reescrever como:

x˙=Ax+Bu(x˙y˙)=(cos(t)sin(t)cos(t)sin(t))(xy)+(11101101)(cos(t)sin(t)t2t)

Onde temos u=(cos(t),sin(t),t2,t)T. Agora, considerando que as matrizes A e B sejam independentes do tempo, temos:

(x1˙x˙n)=(a11a1nan1annn)(x1xn)+(b11b1mbm1bmm)(u1um)x˙(t)=Ax(t)+Bu(t)Então x˙(t)=f(x(t),u(t)). Omitindo a informação da dependência no tempo (t), temos o seguinte vetor:

f(x,u)=(f0(x,u)fn(x,u))Onde x=(x0,,xn)T e u=(u0,,un)T. O ponto de equilíbrio x0 ocorre quando para uma entrada constante u(t)=u0 temos x˙=0:

0=Ax0+Bu0x0=A1Bu0

  • Se a matriz A é inservível, temos um único ponto de equilíbrio.
  • Se a matriz A é singular, ou seja, não é inservível (seu determinante é nulo, e como o determinante é o produto dos autovalores[1], consequentemente então um autovalor ao menos é nulo), então dependemos do posto matricial (quantidade de linhas ou colunas independentes) do produto AB:
    • Posto[A]=Posto[AB] há um infinito número de pontos de equilíbrio;
      • Nesse caso podemos obter todas soluções a partir de uma solução particular, fazendox0=x0+kernel[A] (lembrando que o kernel é um sub-espaço formado por vetores v que satisfazem Av=0[2]).
    • Posto[A]Posto[AB] não há pontos de equilíbrio.

Para sistemas lineares, a estabilidade do ponto de equilíbrio não depende do ponto em si. A estabilidade do sistema é completamente determinada pela posição dos autovalores da matriz A.

Considerando então um sistema não linear:

x˙=f(x,u)

Novamente o ponto de equilíbrio x0 ocorre quando para uma entrada constante u(t)=u0 quando temos x˙=f(x,u)=0. Mas agora a estabilidade não é uma propriedade global do sistema, mas local. Então a análise deve ser feita em cada ponto de equilíbrio. Vamos expandir então a função f(x,u) na vizinhaça do do ponto de equilíbrio (x0,u0). Para uma variável, temos a seguinte expansão em série de Taylor em torno de c:

Pn(x)=f(c)(xc)00!+f(c)(xc)11!++f(n)c(c)(xc)nn!

Para o primeiro grau, uma função para duas variáveis próxima ao ponto (a,b) pode ser aproximada por[3]:

f(x1,x2)f(a,b)+f(x1,x2)x1|(a,b)(x1a)+f(x1,x2)x2|(a,b)(x2b)

Mas escrevendo então x~1=(x1a) e x~2=(x2b):

f(x1,x2)f(a,b)+f(x1,x2)x1|(a,b)x~1+f(x1,x2)x2|(a,b)x~2

E tendo os vetores x~=(x~1,x~2)T e x=(x1,x2)T :

f(x1,x2)f(a,b)+f(x1,x2)(x2,x2)|(a,b)x~

Onde:

f(x1,x2)(x2,x2)=f(x1,x2)x=(f(x1,x2)x1f(x1,x2)x2)T

Generalizando para nosso caso temos então:

f(x,u)=f(x0,u0)+fx(x0,u0)(xx0)+fu(x0,u0)(uu0)fx=f(x,u)x=(f1,,fm)(x1,,xn)

Uma vez que agora ambos f(x,u)=(f1,,fm)T e x=(x1,,xn)T são vetores . E como f(x0,u0)=0, fazendo o deslocamento x~=xx0 e u~=uu0, temos:

f(x,u)=Ax~(t)+Bu~(t)

Onde:

A=(f1,,fn)(x1,,xn)B=(f1,,fn)(u1,,um)

Onde a matriz A é a matriz jacobiana que representa a diferenciação de f em cada ponto onde f é diferenciável.

A=(f1x1f1xnfnx1fnxn)B=(f1u1f1xnfnu1fnum)

Principais materiais utilizados

  1. Analysis of Ordinary Differential Equations (J. M. Cushing, Universidade do Arizona)
  2. Linearization of Nonlinear Systems (Roberto Zanasi, Universidade de Módena e Reggio Emília)

Citações

  1. Facts About Eigenvalues (David Butler, University of Adelaide)
  2. Lecture 13: Image and Kernel (Oliver Knill, Harvard University)
  3. Taylor Polynomials of Functions of Two Variables (Paul Seeburger, LibreTexts)