You are on page 1of 8

Matriz Hessiana

Definicin: Dada una funcin real f de n variables reales:

Si todas las segundas derivadas parciales de f existen, se define la matriz


hessiana de f como: , donde

tomando la siguiente forma

Adems, se tiene que si : con A un conjunto abierto y f


clase , entonces la matriz hessiana est bien definida, y en virtud del
teorema de Clairaut ( teorema de Schwarz), es una matriz simtrica.

Esta matriz debe su nombre al matemtico alemn Ludwig Otto Hesse y fue
introducido por James Joseph Sylvester.

Aplicacin de la matriz hessiana

Concavidad/Convexidad

Sea un conjunto abierto y una funcin con segundas


derivadas continuas:

1. es convexa si y solo si, , la matriz hessiana es


positiva-definida.
2. Si la matriz hessiana es positiva-definida, entonces es
estrictamente convexa.
o Si es una funcin convexa, entonces cualquier punto en que
todas las derivadas parciales son cero, es un minimo local.
3. es cncava si y solo si, , la matriz hessiana es
negativa-definida.
4. Si la matriz hessiana es negativa-definida, entonces f
es estrictamente cncava.
o Si es una funcin cncava, entonces cualquier punto en que
todas las derivadas parciales son cero, es un mximo local.

Mtodo para determinar el carcter de los puntos crticos

Se ver a continuacin cmo hallar los puntos crticos (mximos, mnimos y


puntos de inflexin -o silla o de ensilladura) de una funcin f de mltiples
variables.

1. Se igualan las derivadas parciales primeras a cero.


2. Se resuelven las ecuaciones anteriores y se obtienen las coordenadas
de los puntos crticos.
3. Se construye la matriz hessiana (derivadas segundas parciales).
4. Se sustituyen los puntos crticos en la matriz hessiana para obtener
tantas matrices como puntos crticos tengamos.
5. Dependiendo del tipo de matriz resultante de evaluar la matriz
Hessiana en los diferentes puntos crticos, estos puntos se pueden
evaluar mediante el criterio de Sylvester:

Si todos los menores principales son mayores que 0, o sea,


|Hi|>0 i=1,...,n alcanza el mnimo relativo en el punto.
Si los menores principales de ndice par son mayores que 0 y
los de ndice impar son menores que 0, o sea, |Himpar|<0 y
|Hpar|>0 i=1,...,n alcanza el mximo relativo en el punto.
Si los menores principales son distintos de 0, es decir, |Hi|0
i=1,...,n y no es ninguno de los casos anteriores, es un punto
de silla.

Cuando algn |Hi|=0 no se puede determinar nada, por lo que hace


un estudio particular. Para n=2. el criterio se mejora en el sentido de
que si |H1|=0 y |H2|<0 tiene un punto de silla en el punto.

De forma anloga podemos evaluar los extremos relativos de un campo


escalar f:R^n--->R estudiando los autovalores de su matriz hessiana.

Teorema 9.6(CALCULUS volumen 2. Tom M.Apostol): "Sea f un campo


escalar con derivadas parciales segundas continuas Dijf en una n-bola B(a), y
designemos con H(a) la matriz hessiana en el punto estacionario a. Tenemos
entonces:

a)Si todos los autovalores de H(a) son positivos, f tiene un mnimo relativo
en a.

b)Si todos los autovalores de H(a) son negativos, f tiene un mximo relativo
en a.

c)Si H(a) tiene autovalores positivos y negativos, f tiene un punto de


ensilladura en a."
El el caso particular en el que la funcin a evaluar grafica una superficie en
R^3, f(x,y)=z, y tiene segundas derivadas continuas, se pueden estudiar los
puntos crticos evaluando la matriz hessiana en ellos y luego utilizando el
criterio de determinacin de extremos. Si (a,b) es un punto crtico de f,
(fx(a,b)=0 y fy(a,b)=0) entonces:

- Si el determinante de la matriz hessiana evaluado en el punto (a,b) es


mayor que 0, |H|>0, y fxx(a,b)<0, decimos que f alcanza un mximo relativo
en(a,b).

- Si el determinante de la matriz hessiana evaluado en el punto (a,b) es


mayor que 0, |H|>0, y fxx(a,b)>0, decimos que f alcanza un mnimo relativo
en(a,b).

- Si el determinante de la matriz hessiana evaluado en el punto (a,b) es


menor que 0, |H|<0, decimos que f(a,b) es un Punto de silla.

- Si el determinante de la matriz hessiana evaluado en el punto (a,b) es


igual a 0, |H|=0, el criterio no concluye resultado alguno.

Generalizaciones

Matriz hessiana orlada

La matriz hessiana orlada es una variante de la matriz hessiana utilizada


en problemas de optimizacin restringida. El determinante de sus
principales menores se utiliza como criterio para determinar si un punto
crtico de una funcin es un mnimo, mximo, punto silla o no determinado
(extremos condicionados).1

Aplicacin bilineal hessiana

El concepto de matriz hessiana puede generalizarse a espacios de dimensin


infinita, concretamente a aplicaciones definidas sobre espacios vectoriales
normados. Si una aplicacin (o funcional) est definida es diferenciable en el
sentido de Frchet y su diferencial jacobiana tambin es diferenciable en el
sentido de Frchet puede definirse una forma bilineal continua (y por tanto
acotada) sobre el espacio normado que generaliza la matriz hessiana.

Se dice que una aplicacin entre espacios vectoriales


normados es diferenciable si existe una aplicacin lineal continua
tal que:

En ese caso se escribe:


Puede probarse que es a su vez otro espacio vectorial normado con
la norma:

La segunda derivadas cuando existe es:

La forma bilineal hessiana viene dada por:


Matriz Jacobiana

La matriz jacobiana es una matriz formada por las derivadas parciales de


primer orden de una funcin. Una de las aplicaciones ms interesantes de
esta matriz es la posibilidad de aproximar linealmente a la funcin en un
punto. En este sentido, el jacobiano representa la derivada de una funcin
multivariable.

Propiamente deberamos hablar ms que de matriz jacobiana, de diferencial


jacobiana o aplicacin lineal jacobiana ya que la forma de la matriz
depender de la base o coordenadas elegidas. Es decir, dadas dos bases
diferentes la aplicacin lineal jacobiana tendr componentes diferentes an
tratndose del mismo objeto matemtico. La propiedad bsica de la "matriz"
jacobiana es la siguiente, dada una aplicacin cualquiera
continua, es decir se dir que es diferenciable si existe
una aplicacin lineal tal que:

(1)

Funcin escalar

Empecemos con el caso ms sencillo de una funcin escalar . En este


caso la matriz jacobiana ser una matriz formada por un vector fila que
coincide con el gradiente. Si la funcin admite derivadas parciales para cada
variable puede verse que basta definir la "matriz" jacobiana como:

Ya que entonces se cumplir la relacin (1) automticamente, por lo que en


este caso la "matriz jacobiana" es precisamente el gradiente.

Funcin vectorial

Supongamos es una funcin que va del espacio eucldeo n-


dimensional a otro espacio eucldeo m-dimensional. Esta funcin est
determinada por m funciones escalares reales:

Cuando la funcin anterior es diferenciable, entonces las derivadas parciales


de estas m funciones pueden ser organizadas en una matriz m por n, la
matriz jacobiana de F:
Esta matriz es notada de diversas maneras:

Ntese que la fila, i-sima fila coincidir dada con el gradiente de la funcin
yi, para i = 1,...,m.

Si p es un punto de Rn y F es diferenciable en p, entonces su derivada est


dada por JF(p). En este caso, la aplicacin lineal descrita por JF(p) es la
mejor aproximacin lineal de F cerca del punto p, de esta manera:

para x cerca de p. O con mayor precisin:

En ciertos espacios vectoriales de dimensin no finita, formados por


funciones, puede generalizarse el concepto de matriz jacobiana definiendo
una aplicacin lineal jacobiana.

Ejemplos

Ejemplo 1. La matriz jacobiana de la funcin F : R3 R3 definida como:

es:

No siempre la matriz jacobiana es cuadrada. Vase el siguiente ejemplo.

Ejemplo 2. Supngase la funcin F : R3 R4, cuyas componentes son:


Aplicando la definicin de matriz jacobiana:

Determinante jacobiano

Si m = n, entonces F es una funcin que va de un espacio n-dimensional a


otro. En este caso la matriz jacobiana es cuadrada y podemos calcular su
determinante, conocido como el determinante jacobiano o simplemente
jacobiano.

El determinante jacobiano en un punto dado nos da informacin importante


sobre el comportamiento de F cerca de ese punto. Para empezar, una funcin
F es invertible cerca de p si el determinante jacobiano en p es no nulo. Ms
an, el valor absoluto del determinante en p nos da el factor con el cual F
expande o contrae su volumen cerca de p.

Ejemplos

Ejemplo 1. El determinante jacobiano de la funcin F : R3 R3 definida


como:

es:

El teorema de la funcin inversa garantiza que la funcin es localmente


invertible en todo el dominio excepto quiz donde (es decir,
los valores para los que el determinante se hace cero). Si imaginamos un
objeto pequeo centrado en el punto (1,1,1) y le aplicamos F, tendremos un
objeto aproximadamente 40 veces ms voluminoso que el original.
Ejemplo 2. Cambiando un poco la funcin anterior por sta:

El determinante jacobiano quedar:

En este caso existen ms valores que anulan al determinante. Por un lado


, y por otro:

con

Invertibilidad y jacobiano

Una propiedad interesante del jacobiano es que cuando ste es diferente de


cero en el entorno de un punto dado, entonces el teorema de la funcin
inversa garantiza que la funcin admite una funcin inversa alrededor de
dicho punto.

El teorema anterior expresa una condicin suficiente aunque no necesaria,


ya que por ejemplo la funcin tiene por jacobiano que se anula
en el punto , aunque alrededor de ese punto la funcin sigue teniendo
inversa an cuando el jacobiano es nulo en el origen.

You might also like