You are on page 1of 40

Facultad de Ingeniería Mecánica

Eléctrica, U.V., zona Xalapa

Métodos Numéricos
Interpolación de Lagrange y
Regresión Lineal
MC. Ing. Rafael Campillo Rodríguez
Interpolación Correlación

Lagrange Regresión Lineal


Interpolación
Definición General. Dados n+1 puntos que
corresponden a los datos:

y los cuales se representan gráficamente como puntos en el


plano cartesiano,
Interpolación (Cont.)

Si existe una función f(x) definida en el intervalo [x0,xn]


(donde suponemos que x0 < x1 < x2 < …< xn ), y tal que f(xi) = yi
para i = 0,1,2,…,n , entonces a f(x) se le llama una Función de
Interpolación de los datos, cuando es usada para aproximar
valores dentro del intervalo, y se le llama Función de
Extrapolación de los datos, cuando está definida y es usada
para aproximar valores fuera del intervalo.
Interpolación (Cont.)

Evidentemente pueden existir varios tipos de funciones que


interpolen los mismos datos; por ejemplo, trigonométricas,
exponenciales, polinomiales, combinaciones de éstas, etc.

El tipo de interpolación que uno elige, depende generalmente


de la naturaleza de los datos que se están manejando, así como
de los valores intermedios que se están esperando.

Un tipo muy importante es la interpolación por funciones


polinomiales. Puesto que evidentemente pueden existir una
infinidad de funciones polinomiales de interpolación para una
misma tabla de datos, se antepone el requisito de que el
polinomio de interpolación, sea único.
Interpolación (Cont.)

Definición. Un polinomio de interpolación es una función


polinomial que además de interpolar los datos, es el de menor
grado posible.

Caso n=0: Tenemos los datos:

En este caso, tenemos que f(x)=y0 (polinomio constante) es el


polinomio de menor grado tal que f(x0) = y0, por lo tanto, éste es el
polinomio de interpolación.
Interpolación (Cont.)

Caso n=1: Tenemos los datos:

En este caso, el polinomio de interpolación es la función


lineal que une a los dos puntos dados. Por lo tanto, tenemos
que:
y − y0
f ( x ) = y0 + 1 ( x − x0 )
x1 − x0

Es el polinomio de interpolación.
Interpolación (Cont.)

La siguiente gráfica representa este caso:

y1 − y0
f ( x ) = y0 + ( x − x0 )
x1 − x0

Observación: Vemos que en el polinomio de interpolación


del caso n=1 se encuentra como primer término, y0 , que es el
polinomio de interpolación del caso n=0.
Interpolación (Cont.)

Caso n=2: Tenemos los datos:

Para este caso, el polinomio de interpolación va a ser un


polinomio de grado 2. Tomando en cuenta la observación
anterior, intuímos que el polinomio de interpolación tendrá una
estructura como sigue:

y1 − y0
f ( x ) = y0 + ( x − x0 ) + término cuadrático
x1 − x0

Igual que antes, el polinomio se conforma por los términos


del caso n=1 mas los de la parte correspondiente a n=2.
Interpolación (Cont.)

Por lo tanto, planteamos el polinomio de interpolación como


sigue:

f ( x) = b0 + b1 ( x − x0 ) + b2 ( x − x0 )( x − x1 )

Si asignamos x = x0, se anulan los valores de b1 y b2,


quedándonos el resultado:
f ( x0 ) = b0

Como se debe de cumplir que f(x0) = y0, entonces:

y0 = b0
Interpolación (Cont.)

Si asignamos x = x1, el valor de b2 queda anulado,


resultando lo siguiente:
f ( x1 ) = b0 + b1 ( x1 − x0 )

Como se debe cumplir que f(x1) = y1, y ya sabemos que y0 =


b0, entonces:
y1 = b0 + b1 ( x1 − x0 )

De lo cual obtenemos el valor para b1:


y1 − y0
= b1
x1 − x0
Interpolación (Cont.)

Asignando x = x2, vamos a obtener:

f ( x2 ) = b0 + b1 ( x2 − x0 ) + b2 ( x2 − x0 )( x2 − x1 )

Como se debe cumplir que f(x2) = y2, y ya sabemos que y0 =


b0 y además sabemos que b1 = (y1 – y0) / (x1 – x0), sustituímos
estos datos para después despejar el valor de b2:

y1 − y0
y 2 = y0 + ( x2 − x0 ) + b2 ( x2 − x0 )( x2 − x1 )
x1 − x0
Interpolación (Cont.)

De la cual podemos hacer un despeje parcial para lograr la


siguiente igualdad :
y1 − y0
y 2 − y0 − ( x2 − x0 )
x1 − x0
= b2 ( x2 − x0 )
x2 − x1

Ahora en el numerador del miembro izquierdo de la


igualdad, le sumamos un cero (-y1 + y1), de tal manera que no
se altere la igualdad:
Interpolación (Cont.)

A continuación, aplicamos un poco de álgebra para así


obtener los siguientes resultados:
Interpolación (Cont.)

Y finalmente despejando a b2 vamos a obtener :

y2 − y1 y1 − y0

x −x x1 − x0
b2 = 2 1
x2 − x0

Por lo tanto, el polinomio de interpolación para este caso es:


Interpolación (Cont.)

Observación: Vemos que efectivamente el polinomio de


interpolación contiene al del caso anterior, más un término extra
que es de un grado mayor.

Pero además vemos que cada uno de los coeficientes del


polinomio de interpolación, se forman a base de cocientes de
diferencias de cocientes de diferencias, etc.
Interpolación (Cont.)

Esto da lugar a la definición de diferencias divididas finitas


de Newton.

Un método que nos evita el cálculo de dichas diferencias


divididas finitas y es algorítmicamente mas susceptible de ser
programado en cualquier lenguaje de computación es el
Método de interpolación de Lagrange.
Lagrange

Recordemos que Interpolación es, a partir de una serie de


puntos, obtener una ecuación cuya curva pase por todos ellos o lo
más cerca posible.

En el método de Lagrange, se utiliza una ecuación que aunque


se va alargando conforme mas puntos se quieran unir, es siempre
del mismo tamaño y de la misma forma por lo que una de sus
ventajas es que es más claro y fácil de hacer.

El método de Lagrange se compone por una serie de sumandos,


cada uno se "arma" tomando como referencia cada uno de los
puntos a interpolar empezando desde el primero.
Lagrange (Cont.)

Al final, si se tienen n números para unir, la ecuación resultante tendrá


como grado n-1 así, si se quieren unir 3 puntos, la ecuación que resulta
tiene grado 2.

El planteamiento del Polinomio de Lagrange es el siguiente:

Nuevamente tenemos los datos,


Lagrange (Cont.)

El polinomio de interpolación de Lagrange se plantea como


sigue:
P( x) = y0l0 ( x) + y1l1 ( x) +  + ynln ( x)

Donde los polinomiosli (x) se llaman los polinomios de


Lagrange, correspondientes a la tabla de datos.

Como se debe satisfacer que P(x0) = y0, esto se cumple si


l0 ( x0 ) = 1 y li ( x0 ) =para
0 toda i. ≠ 0

Como se debe satisfacer que P(x1) = y1, esto se cumple si


l1 ( x1 ) = 1 y li ( x1 ) =para
0 toda i. ≠ 0
Lagrange (Cont.)

Y así sucesivamente, veremos finalmente que la condición


Pn ( xn ) = yn se cumple si ln ( xn ) = 1 y li ( xn ) =para
0 toda i. ≠ n

Para ser más claros, analicemos detenidamente el polinomio


para l0 ( x) :

De acuerdo al análisis anterior vemos que deben cumplirse


las siguientes condiciones para
l0 ( x) ,

l0 ( x0 ) = 1 yl0 ( x j ) = 0 j≠0
para toda
Lagrange (Cont.)

Por lo tanto, planteamos


l0 ( x) como sigue:

lo ( x ) = c( x − x1 )( x − x2 ) ( x − xn )

Con esto se cumple la segunda condición sobre


l0 ( x).

La constante c se determinará para hacer que se cumpla la


primera condición:

l0 ( x0 ) = 1 ⇒ 1 = c( x0 − x1 )( x0 − x2 ) ( x0 − xn )

1
⇒c=
( x0 − x1 )( x0 − x2 ) ( x0 − xn )
Lagrange (Cont.)

Por lo tanto el polinomio


l0 ( x) queda definido como:

l0 ( x ) =
( x − x1 )( x − x2 ) ( x − xn )
( x0 − x1 )( x0 − x2 ) ( x0 − xn )

Esto nos sugiere como plantear los polinomios de Lagrange


donde, basados en lo anterior, podemos deducir que:

∏ (x − x )
i≠ j
j

l ( x) =
∏ (x − x )
i para j = 1,…,n
i j
i≠ j
Correlación
El Análisis de Correlación es el método utilizado en la
práctica con el objetivo de determinar la fuerza de la
relación o dependencia lineal que existe entre dos
variables.

El Análisis de Correlación es una herramienta de uso


previo al Análisis de Regresión, que se estudia mas
adelante, con el fin de realizar predicciones en alguna de
las dos variables.

El Análisis de Correlación determinará si vale la pena


realizar dicha regresión.
Correlación (Cont.)

Lo que se requiere para determinar la fuerza de la relación lineal es


un indicador que cumpla con las siguientes características:

1) No ser dependiente de las unidades de medida; que no le afecten unidades


de las variables.

2) Que su valor sea 1 si los puntos presentan una perfecta correlación lineal
positiva.

3) Que su valor sea -1 si los puntos presentan una perfecta correlación lineal
negativa.

4) Que su valor sea 0 si no hay correlación lineal entre las dos variables.
Correlación (Cont.)

A este indicador se le llama “Coeficiente de Correlación


de Pearson” y se le denota por r.

Si el valor resultante de r es igual a 1 o a -1, entonces


existirá una correlación lineal ó relación lineal perfecta entre
las dos variables.

Si r=0, no existe correlación ó relación lineal entre las


dos variables. Sin embargo, hay que hacer notar que a
pesar de que r puede valer cero, no necesariamente significa
una falta de relación entre x e y (puede ser una relación no-
lineal de grado mayor).
Correlación (Cont.)

Existe una Fórmula para el cálculo del Coeficiente de


Correlación de Pearson (r) basada en el concepto de la
Suma de Cuadrados para un conjunto de datos:

n
(∑ xi ) 2
SSx = ∑ xi2 − i =1

i =1 n
Correlación (Cont.)

En esta ocasión estamos tratando con datos


Bivariados (x,y), donde SSx es la suma de cuadrados
para x, y entonces SSy denotará la Suma de Cuadrados
para y; es decir:

n
(∑ yi ) 2
SSy = ∑ yi2 −
i =1

i =1 n
Correlación (Cont.)

Si se reescribe la fórmula de la suma de cuadrados


para que incluya a y en lugar de elevar x al cuadrado,
se tendría:

n n

n
(∑ xi ) (∑ xi )
∑x x −
i =1
i i
i =1

n
i =1

n n

n
(∑ xi ) (∑ yi )
∑ xi yi −
i =1
i =1

n
i =1
Correlación (Cont.)

La fórmula resultante es conocida como Suma de


Productos Cruzados y se denotará por SSxy:
Correlación (Cont.)

Finalmente, los valores de SSx, SSy y SSxy se


utilizan para encontrar la expresión para evaluar el
Coeficiente de Correlación de Pearson (r):

r= SSxy
SSx SSy
Correlación (Cont.)

El Coeficiente de Correlación de Pearson (r) deberá de


ser considerado sólo como un valor de referencia de la
fuerza de relación lineal entre x e y.

Un valor alto de r no implica necesariamente la


existencia de una relación de causa-efecto entre las dos
variables, pues ambas pueden haber sido influidas por otras
variables de tipo externo.

r solo indica tendencia de variación que no siempre


implicará relación directa entre x e y.
Regresión Lineal
El Análisis de Regresión es el método utilizado para
estudiar la relación entre dos o mas variables y para
poder predecir valores en una de ellas.

Si el Coeficiente de Correlación de Pearson resulta


ser un valor alto (cerca de 1 o -1), puede ser deseable
describir la relación de las variables en términos de una
ecuación matemática.

Hacer la determinación de dicha ecuación para definir


la relación lineal existente, requiere de efectuar el
denominado Análisis de Regresión.
Regresión Lineal (Cont.)

Matemáticamente, una relación lineal entre x e y, se


define por la ecuación y = b + mx; donde m es la
pendiente de la recta y la constante b representa el
valor de la intercepción con el eje y.

El objetivo, entonces, es encontrar una ecuación de


este tipo denominada Ecuación de Regresión la cual
puede ser utilizada con propósitos predictivos.

El problema es poder determinar los valores


correspondientes para m y b en dicha ecuación, para
cualquier caso dado.
Regresión Lineal (Cont.)

Si se construye una gráfica de dispersión de los datos y buscamos la línea recta que sea lo mas “cercana” a todos los
puntos, se tiene:

Esta recta se representa por: ŷ = b + mx


Regresión Lineal (Cont.)

Para la recta de regresión, cada punto presenta una


distancia vertical, error o desviación, por arriba o por
debajo de ella.

El método para encontrar la recta de mejor ajuste se


llama Método de los Mínimos Cuadrados.

Este método encuentra la recta para la cual la Suma


de los Cuadrados de los Errores, denotada por SSE,
tiene un valor mínimo.
Regresión Lineal (Cont.)

Por ejemplo, si e1 es la desviación del primer punto a


la recta ŷ=b+mx, entonces la distancia vertical
corresponde al error de usar la recta para predecir al
valor y1 usando x1.

Entonces, se tiene que la expresión ei = yi – ŷi nos


da el valor del error al predecir el i-ésimo valor de y
usando el i-ésimo valor de x.

Por lo que debe de cumplirse para el método de los


mínimos cuadrados que ∑ei2 sea de valor mínimo:
Regresión Lineal (Cont.)

Para los cinco puntos del ejemplo en la gráfica anterior:

∑i 1 2 3 4 5
e 2

i =1
= e 2
+ e 2
+ e 2
+ e 2
+ e 2

∑i 1 1
e 2

i =1
= ( y − ˆ
y ) 2
+ ( y2 − ˆ
y 2 ) 2
+ ( y3 − ˆ
y 3 )2
+ ...

De aquí que: n n
SSE = ∑ ei 2 = ∑ ( yi − yˆi )2
i =1 i =1
Regresión Lineal (Cont.)

La obtención de la Recta de Regresión no es un proceso de prueba


y error para seleccionar la mejor recta según el criterio de los
mínimos cuadrados.

La determinación de las constantes m y b en la ecuación de la


recta ŷ=b+mx, y que hagan que SSE tenga un valor mínimo, es un
proceso algebraico y de cálculo complejo, del cuál, para fines
prácticos, solamente tomaremos sus resultados.
Regresión Lineal (Cont.)

Las fórmulas resultantes del mencionado proceso algebraico y


de cálculo que se obtienen para las constantes m y b para la Recta
de Regresión del método de Mínimos Cuadrados son:

SS xy
m= SS x

b= y −m x
Regresión Lineal (Cont.)

Un detalle muy interesante al efectuar el proceso de regresión es


( x, y )
que el punto definido por los valores promedio siempre se
encontrará localizado sobre la recta óptima obtenida, actuando como
“punto de equilibrio” o “centroide” de los datos.

Hay que tener mucho cuidado al tratar de hacer predicciones para


valores alejados de la variable x a los contenidos en la muestra.

Como recomendación general, sólo deben usarse valores de x


iguales o cercanos a los de la muestra para predicciones confiables.

You might also like