Matriz jacobiana

Cálculo
Definições

Conceitos

Tabela de derivadas

  • Somas
  • Produto
  • Regra da cadeia
  • Potências
  • Quocientes
  • Fórmula de Faà di Bruno
Cálculo integral

Definições

Integração por

Cálculo especializado
  • v
  • d
  • e

A Matriz Jacobiana (denominado do matemático alemão Carl Gustav Jakob Jacobi) é a matriz formada pelas derivadas parciais de primeira ordem de uma função vetorial. Se uma função é diferenciável num ponto, a sua derivada é dada em coordenadas pela Jacobiana, mas uma função não precisa ser diferenciável para a existência da Jacobiana; basta que as derivadas parciais existam.

Definição formal

Seja F : R n R m {\displaystyle F:\mathbb {R} ^{n}\to \mathbb {R} ^{m}} , ou seja, uma função que denominaremos "F", com domínio e imagem no espaço euclidiano n e m dimensional, respectivamente. Tal função é definida por um vetor de m componentes, sendo cada componente uma função F i : R n R {\displaystyle F_{i}:\mathbb {R} ^{n}\to \mathbb {R} } . As derivadas parciais dessas funções podem ser organizadas numa matriz m x n, que é denominada Matriz Jacobiana. Assim, a Jacobiana é definida como:

Em linguagem matemática Em Português
[ F 1 x 1 F 1 x n F m x 1 F m x n ] {\displaystyle {\begin{bmatrix}{\frac {\partial F_{1}}{\partial x_{1}}}&\cdots &{\frac {\partial F_{1}}{\partial x_{n}}}\\\vdots &\ddots &\vdots \\{\frac {\partial F_{m}}{\partial x_{1}}}&\cdots &{\frac {\partial F_{m}}{\partial x_{n}}}\end{bmatrix}}} Matriz de m linhas e n colunas. A primeira linha representa as derivadas parciais da função F 1 {\displaystyle F_{1}} em relação a todos os x (de x1 a xn). A segunda linha representa as derivadas parciais de F 2 {\displaystyle F_{2}} (também em relação a todos os x), e assim por diante, até a linha de número m, que representa as derivadas parciais de F m {\displaystyle F_{m}} em relação a todos os xs.

Notação

A Jacobiana é representada por J F ( x 1 , , x n ) {\displaystyle J_{F}(x_{1},\ldots ,x_{n})} ou ( F 1 , , F n ) ( x 1 , , x n ) {\displaystyle {\frac {\partial (F_{1},\ldots ,F_{n})}{\partial (x_{1},\ldots ,x_{n})}}}

A k-ésima linha da matriz é dada pela transposta do gradiente de F k {\displaystyle F_{k}}

Determinante Jacobiano

O Jacobiano é definido como sendo o determinante da Jacobiana. Ele é de grande importância na mudança de variáveis em integrais múltiplas e no Teorema da Função Inversa.

Exemplos

  • Exemplo 1: Seja F ( x , y ) = ( x 2 + y 2 , x y ) {\displaystyle F(x,y)=(x^{2}+y^{2},xy)} . Aqui, F 1 = x 2 + y 2 {\displaystyle F_{1}=x^{2}+y^{2}} e F 2 = x y {\displaystyle F_{2}=xy} . A matriz jacobiana de F é:
J F ( x , y ) = [ F 1 x F 1 y F 2 x F 2 y ] = [ 2 x 2 y y x ] {\displaystyle J_{F}(x,y)={\begin{bmatrix}{\frac {\partial F_{1}}{\partial x}}&{\frac {\partial F_{1}}{\partial y}}\\&\\{\frac {\partial F_{2}}{\partial x}}&{\frac {\partial F_{2}}{\partial y}}\end{bmatrix}}={\begin{bmatrix}2x&2y\\y&x\end{bmatrix}}} [1]

O determinante Jacobiano é 2 ( x 2 y 2 ) {\displaystyle 2(x^{2}-y^{2})} .

  • Exemplo 2: Vamos montar a Jacobiana da mudança de variáveis cartesianas para polares. A função que faz a transformação é:
{ x = r cos θ y = r sen θ {\displaystyle \left\{{\begin{matrix}x=r\cos \theta \\y=r\operatorname {sen} \theta \end{matrix}}\right.}

A Jacobiana é dada então por:

( x , y ) ( r , θ ) = [ cos θ r sen θ sen θ r cos θ ] {\displaystyle {\frac {\partial (x,y)}{\partial (r,\theta )}}={\begin{bmatrix}\cos \theta &-r\operatorname {sen} \theta \\\operatorname {sen} \theta &r\cos \theta \end{bmatrix}}}

O Jacobiano é r {\displaystyle r} . portanto poderá ser feito de acordo com alguns métodos matemáticos

  • Exemplo 3 (mudança de variáveis em Estatística, relacionado à distribuição de Erlang):[2] Seja (X,Y) um par aleatório absolutamente contínuo com densidade de probabilidade conjunta f x , y ( x , y ) {\displaystyle f_{x,y}\left(x,y\right)} . Seja também G uma função G : R 2   R 2 {\displaystyle G:\mathbb {R} ^{2}\ \rightarrow \mathbb {R} ^{2}} injectiva (portanto com inversa) com dois componentes G(x,y) = (u,v). Cada um destes componentes é função de duas variáveis reais, tal que
{ u = g 1 ( x , y ) v = g 2 ( x , y ) {\displaystyle \left\{{\begin{matrix}u=&g_{1}(x,y)\\v=&g_{2}(x,y)\end{matrix}}\right.} , sendo que g1 e g2 possuem derivadas parciais em relação a x e a y

Portanto, podemos definir o par aleatório (U,V)=G(X,Y). Como determinar a densidade de probabilidade conjunta do par (U,V) a partir da densidade conjunta de (X,Y)?

Como G tem inversa, podemos escrever:

{ x = h 1 ( u , v ) y = h 2 ( u , v ) {\displaystyle \left\{{\begin{matrix}x=&h_{1}(u,v)\\y=&h_{2}(u,v)\end{matrix}}\right.}

A densidade conjunta de (U,V) será: f U , V ( u , v ) = | J | f X , Y h 1 ( u , v ) h 2 ( u , v ) {\displaystyle f_{U,V}(u,v)=\left|J\right|f_{X,Y}h_{1}(u,v)h_{2}(u,v)} , em que | J | {\displaystyle \left|J\right|} representa o módulo do determinante jacobiano, isto é, o módulo de | h 1 ( u , v ) u h 1 ( u , v ) v h 2 ( u , v ) u h 2 ( u , v ) v | {\displaystyle {\begin{vmatrix}{\frac {\partial h_{1}(u,v)}{\partial u}}&{\frac {\partial h_{1}(u,v)}{\partial v}}\\{\frac {\partial h_{2}(u,v)}{\partial u}}&{\frac {\partial h_{2}(u,v)}{\partial v}}\end{vmatrix}}} .

Assim, digamos que (U,V) = (X+Y,X-Y). Teremos então

{ u = x + y v = x y { x = u y y = x v { x = u ( x v ) y = ( u y ) v {\displaystyle \left\{{\begin{matrix}u=&x+y\\v=&x-y\end{matrix}}\right.\longrightarrow \left\{{\begin{matrix}x=&{\color {Blue}u-y}\\y=&{\color {Red}x-v}\end{matrix}}\right.\longrightarrow \left\{{\begin{matrix}x=&u-({\color {Red}x-v})\\y=&({\color {Blue}u-y})-v\end{matrix}}\right.\longrightarrow } { x = h 1 ( u , v ) = u + v 2 y = h 2 ( u , v ) = u v 2 {\displaystyle \left\{{\begin{matrix}x=&h_{1}(u,v)=&{\frac {u+v}{2}}\\y=&h_{2}(u,v)=&{\frac {u-v}{2}}\end{matrix}}\right.}

O determinante jacobiano neste caso (chamado de jacobiano da transformação[3]) será | h 1 ( u , v ) u h 1 ( u , v ) v h 2 ( u , v ) u h 2 ( u , v ) v | {\displaystyle {\begin{vmatrix}{\frac {\partial h_{1}(u,v)}{\partial u}}&{\frac {\partial h_{1}(u,v)}{\partial v}}\\{\frac {\partial h_{2}(u,v)}{\partial u}}&{\frac {\partial h_{2}(u,v)}{\partial v}}\end{vmatrix}}} = | 1 2 1 2 1 2 1 2 | = | 1 2 | {\displaystyle ={\begin{vmatrix}{\frac {1}{2}}&{\frac {1}{2}}\\{\frac {1}{2}}&-{\frac {1}{2}}\end{vmatrix}}=\left|-{\frac {1}{2}}\right|} . O módulo deste determinante é 1 2 {\displaystyle {\frac {1}{2}}} . A função densidade de probabilidade conjunta é, portanto:

f U , V ( u , v ) = | J | f X , Y h 1 ( u , v ) h 2 ( u , v ) = 1 2 f X , Y ( u + v 2 , u v 2 ) {\displaystyle f_{U,V}(u,v)=\left|J\right|f_{X,Y}h_{1}(u,v)h_{2}(u,v)={\frac {1}{2}}f_{X,Y}\left({\frac {u+v}{2}},{\frac {u-v}{2}}\right)}

Aproximação linear

A Jacobiana representa a melhor aproximação linear de uma função diferenciável nas vizinhanças de um ponto. Semelhante à aproximação de funções de uma variável pela derivada, uma função vetorial F diferenciável num ponto x 0 {\displaystyle \mathbf {x_{0}} } pode ser aproximada por:

F ( x ) F ( x 0 ) + J F ( x 0 ) ( x x 0 ) T {\displaystyle F(\mathbf {x} )\approx F(\mathbf {x_{0}} )+J_{F}(\mathbf {x_{0}} )\cdot (\mathbf {x} -\mathbf {x_{0}} )^{T}}

sendo x {\displaystyle \mathbf {x} } um ponto próximo de x 0 {\displaystyle \mathbf {x_{0}} } . Essa aproximação é de grande importância no cálculo numérico, onde a Jacobiana e o seu determinante são utilizados para resolver sistemas não-lineares pelo método de Newton (ou método do Gradiente Iterativo).

Ver também

Referências

  1. «Confira este exemplo e faça outros com O Monitor». omonitor.io. Consultado em 23 de março de 2016 
  2. Faculdade de ciências - universidade de Lisboa. Mais sobre variáveis aleatórias. capítulo 3. Páginas 18 e 19. Disponível em: <http://www.deio.fc.ul.pt/disciplinas/ficheiros_apoio/mest_est/probab/TAlpuim_Cap3Novo.pdf[ligação inativa]>. Acesso em: 10 de março de 2011.
  3. CASELLA, George, e BERGER, Roger L. Inferência estatística - tradução da segunda edição norte-americana. São Paulo: Centage Learning, 2010. ISBN 978-85-221-0894-7. Página 142 e 192.


  • v
  • d
  • e
Classes de matriz
Elementos explicitamente restritos
Constante
Condições sobre
autovalores e autovetores
Satisfazendo condições
sobre produtos ou inversas
Com aplicações específicas
Usada em estatística
  • Bernoulli
  • Centro
  • Correlação
  • Covariância
  • Dispersão
  • Duplamente estocástica
  • Informação de Fisher
  • Projeção
  • Precisão
  • Estocástica
  • Transição
Usada em teoria dos grafos
Usada em ciência e engenharia
Termos relacionados
  • Categoria:Matrizes