Zeros de Funções: mudanças entre as edições

De Física Computacional
Ir para navegação Ir para pesquisar
(Criou página com 'O problema aqui é encontrar os valores da variável independente <math>x_i</math> que fazem com a função <math>f(x_i)</math> tenha o valor zero.<br> Matematicamente pode ser f...')
 
Sem resumo de edição
Linha 1: Linha 1:
O problema aqui é encontrar os valores da variável independente <math>x_i</math> que fazem com a função <math>f(x_i)</math>
O problema aqui é encontrar os valores da variável independente <math>x_i</math> que fazem com a função <math>f(x_i)</math>
tenha o valor zero.<br>
tenha o valor zero.
 
Matematicamente pode ser formalizado assim:  
Matematicamente pode ser formalizado assim:  


Linha 26: Linha 27:
De outra forma podemos dizer que trata-se do problema '''inverso:''' dado o valor da função queremos saber de que valor da variável independente partiu.
De outra forma podemos dizer que trata-se do problema '''inverso:''' dado o valor da função queremos saber de que valor da variável independente partiu.


O método de Newton-Raphson é um procedimento para encontrar zeros de funções de maneira iterativa.<br>
Numericamente, temos três métodos usuais que serão descritos aqui, os métodos da Iteração Simples, Newton-Raphson e Método da Bisecção.
Partindo de um ponto qualquer da função vamos ao próximo ponto com deslocamento dado pela derivada no ponto inicial:
 
== Iteração Simples ==
 
Para o método da iteração simples, utiliza-se uma nova função <math>F(x)</math> para encontrar-se o zero da função original <math>f(x)</math>, de modo que se define
 
:<math> F(x) = f(x) + x,</math>
assim
:<math> F(x) = x \,\; para \,\; f(x) = 0.</math>
 
Utilizamos a própria função para definir o valor de <math>x</math> nas iterações, tendo que existir um "chute" inicial para o valor <math>x_0</math>. Assim, a iteração pode ser definida como
 
:<math> x_{n+1} = F(x_n) </math>.
 
Itera-se a equação até atingir-se um valor fixo, ou seja, <math>x_{n+1} = x_n </math>.
 
As duas principais destavantagens deste método devem-se ao fato de ele ser mais lento que demais métodos e quando utlizados para encontrar raízes "instáveis" de iteração. Para descobrir se haverá raizes instáveis de convergência, utilizamos a condição de convergência do método, perturbando a solução <math>x_{n+1} = x_n = x^*</math> e expandindo em série de Taylor:
 
:<math>x^*+\delta = F(x^*+\delta) = F(x^*) + \frac{dF(x^*)}{dx}\delta+ ...</math>
 
Note que para
 
:<math>\|\frac{dF(x^*)}{dx}\| \leqslant 1</math>
 
o efeito da perturbação decai, indicando que a raíz <math>x^*</math> é estável por este método.
 
== Newton-Raphson ==
 
O método de '''Newton-Raphson''' é um procedimento para encontrar zeros de funções de maneira iterativa, assim como o método da iteração simples. Partindo de um ponto qualquer da função vamos ao próximo ponto com deslocamento dado pela derivada no ponto inicial:


:<math>f'(x_{n}) = \frac{ f( x_{n} ) - 0 }{ x_{n} - x_{n+1} } = \frac{0 - f(x_{n})}{(x_{n+1} - x_{n})}\,\!</math>
:<math>f'(x_{n}) = \frac{ f( x_{n} ) - 0 }{ x_{n} - x_{n+1} } = \frac{0 - f(x_{n})}{(x_{n+1} - x_{n})}\,\!</math>
Linha 36: Linha 64:


e o processo é repetido até a precisão desejada.
e o processo é repetido até a precisão desejada.
Notar que numericamente não temos garantia de achar exatamente a raiz. Devemos fixar um <math>\epsilon</math>
Note que numericamente não temos garantia de achar exatamente a raiz. Devemos fixar um <math>\epsilon</math>
que determina a tolerância com que vamos a aceitar o zero. Ou seja quando
que determina a tolerância com que vamos a aceitar o zero. Ou seja quando
<math>|f(x)| < \epsilon</math> paramos a procura.
<math>|f(x)| < \epsilon</math> paramos a procura.
Linha 55: Linha 83:
   else
   else
     x = x - f(x)/g(x)
     x = x - f(x)/g(x)
     if (f(x) < eps) then
     if (abs(f(x)) < eps) then
         print*, "zero de f(x) em x=", x
         print*, "raiz em x=", x, "f(x)=", f(x)
         exit
         exit
     endif
     endif

Edição das 12h00min de 18 de outubro de 2011

O problema aqui é encontrar os valores da variável independente que fazem com a função tenha o valor zero.

Matematicamente pode ser formalizado assim:

Os zeros da função f são também chamados de raízes.

Um exemplo simples é achar as raízes da função . A simplicidade vem do fato dessa função ter inversa, com o qual a solução pode ser encontrada isolando o x: que é o zero dessa função ou equação.

Outro exemplo clássico são as raízes de uma parábola:

da qual existe uma expressão para as raízes (cuja programação é um dos exercícios):

Porem, quando a função é mais complicada, o problema de achar os zeros pode não ter (é o mais comum) solução analítica.

Vale notar que ao tratar dos zeros podemos generalizar o conceito para qualquer outro valor. Por exemplo, achar x tal que é equivalente a achar os zeros de . De outra forma podemos dizer que trata-se do problema inverso: dado o valor da função queremos saber de que valor da variável independente partiu.

Numericamente, temos três métodos usuais que serão descritos aqui, os métodos da Iteração Simples, Newton-Raphson e Método da Bisecção.

Iteração Simples

Para o método da iteração simples, utiliza-se uma nova função para encontrar-se o zero da função original , de modo que se define

assim

Utilizamos a própria função para definir o valor de nas iterações, tendo que existir um "chute" inicial para o valor . Assim, a iteração pode ser definida como

.

Itera-se a equação até atingir-se um valor fixo, ou seja, .

As duas principais destavantagens deste método devem-se ao fato de ele ser mais lento que demais métodos e quando utlizados para encontrar raízes "instáveis" de iteração. Para descobrir se haverá raizes instáveis de convergência, utilizamos a condição de convergência do método, perturbando a solução e expandindo em série de Taylor:

Note que para

o efeito da perturbação decai, indicando que a raíz é estável por este método.

Newton-Raphson

O método de Newton-Raphson é um procedimento para encontrar zeros de funções de maneira iterativa, assim como o método da iteração simples. Partindo de um ponto qualquer da função vamos ao próximo ponto com deslocamento dado pela derivada no ponto inicial:

Desta forma o próximo ponto está dado por:

.

e o processo é repetido até a precisão desejada. Note que numericamente não temos garantia de achar exatamente a raiz. Devemos fixar um que determina a tolerância com que vamos a aceitar o zero. Ou seja quando paramos a procura.

Por outra parte o método não garante a convergência, isto é, pode acontecer que o processo entre num ciclo infinito pipocando de uma lado para outro da raiz, sem poder encontrar uma solução.

Programação

Para programá-lo em FORTRAN o mais prático é definir como funções tanto a própria função como a sua derivada. Sejam elas f(x) e g(x) respectivamente, o trecho de código com a implementação do método fica:

...
x = x0
Do
   if (g(x)==0) then
     print*, "em x=", x, "a derivada é zero"
   else
     x = x - f(x)/g(x)
     if (abs(f(x)) < eps) then
        print*, "raiz em x=", x, "f(x)=", f(x)
        exit
     endif
   endif
endo
...

Plano Complexo

O método pode ser estendido a funções f(z) onde z, e f(z) pertencem a C (domínio dos números complexos). Dessa forma todas as raízes de um polinômio podem em princípio ser encontradas. O método tem a mesma formulação teórica. Só muda o programa pois precisamos usar complexos.

Complex f, z
Real x,y
Read*, x,y

z = CMPLX(x,y) ! função FORTRAN intrínseca para converter un par x,y de variáveis reais numa variável complexa
...

if (abs(f(z)<eps) print*, z

...