You are on page 1of 12

4.

1 INTERPOLACION LINEAL Y CUADRATICA

La interpolación consiste en hallar un dato dentro de un intervalo en el que


conocemos los valores en los extremos.

El problema general de la interpolación se nos presenta cuando nos dan una función
de la cual solo conocemos una serie de puntos de la misma:

(xo, yo), (x1, y1),........., (xn, yn)

Se pide hallar el valor de un punto x (intermedio de x0 y xn) de esta función.

La interpolación se dirá lineal cuando sólo se tomen dos puntos y cuadrática cuando
se tomen tres.

INTERPOLACIÓN LINEAL

Cuando las variaciones de la función son proporcionales (o casi proporcionales) a los


de la variable independiente se puede admitir que dicha función es lineal y usar para
estimar los valores la interpolación lineal…

Sean dos puntos (xo, yo), (x1, y1), la interpolación lineal consiste en hallar una
estimación del valor y, para un valor x tal que x0<x<x1.

Obtenemos la fórmula de la interpolación lineal.

1
LA INTERPOLACIÓN CUADRÁTICA.

Cuando el polinomio que conviene es de 2º grado la interpolación recibe el nombre de


cuadrática. El polinomio interpolador es único, luego como se encuentre da igual., sin
embargo, a veces los cálculos son muy laboriosos y es preferible utilizar un método
que otro. A la vista de los datos se decide.

En el ejemplo 1 se da el método de resolver el sistema para encontrar los valores que


determinan a la función cuadrática (a, b y c)

También podemos utilizar la expresión del polinomio interpolador así:

y= a + b(x-x0) + c(x-x0)(x-x1), con lo que la búsqueda de los coeficientes es muy


sencilla.

Lagrange (1736-1813) dio una manera simplificada de calcular los polinomios


interpoladores de grado n Para el caso de un polinomio de 2º grado que pasa por los
puntos (x0, y0 ), (x1, y1), (x2, y2):

Que es la fórmula de Lagrange para n=2.

Con frecuencia se tienen que estimar valores intermedios entre valores conocidos. El
método mas común empleado para este propósito es la interpolación polinomial.

Recuerdese que la fórmula general de un polinomio de n-ésimo orden es:

2
Para n + 1 puntos, existe uno y sólo un polinomio de n-ésimo orden o menor que pasa
a través de todos los puntos. Por ejemplo, hay sólo una línea recta (es decir un
polinomio de primer orden) que conecta dos puntos. El polinomio de interpolación
consiste en determinar el único polinomio de n-ésimo orden que se ajusta a los n + 1
puntos dados. Este polinomio proporciona una fórmula para calcular los valores
intermedios.

Aunque existe uno y sólo un polinomio de n-ésimo orden que se ajusta a los n + 1
puntos, existen una gran variedad de fórmulas matemáticas mediante las cuales se
puede expresar este polinomio. En esta unidad se estudian dos técnicas alternativas
que están bien condicionadas para implementarse en una computadora. Estos son los
polinomios de Newton y de Lagrange.

4.2 Polinomios de interpolación: Diferencias divididas de Newton y de


Lagrange.
En análisis numérico, la interpolación polinómica es una técnica de interpolación de
un conjunto de datos o de una función por un polinomio. Es decir, dado cierto número
de puntos obtenidos por muestreo o a partir de un experimento se pretende encontrar
un polinomio que pase por todos los puntos.
Dada una función de la cual se conocen sus valores en un número finito de
abscisas , se llama interpolación polinómica al proceso de hallar
un polinomio de grado menor o igual a m,
cumpliendo .
A este polinomio se le llama Polinomio interpolador de grado m de la función f.
La interpolación polinómica es un método usado para conocer, de un modo
aproximado, los valores que toma cierta función de la cual sólo se conoce su imagen
en un número finito de abscisas. A menudo, ni siquiera se conocerá la expresión de la
función y sólo se dispondrá de los valores que toma para dichas abscisas.
El objetivo será hallar un polinomio que cumpla lo antes mencionado y que permita
hallar aproximaciones de otros valores desconocidos para la función con una precisión
deseable fijada. Por ello, para cada polinomio interpolador se dispondrá de una
fórmula del error de interpolación que permitirá ajustar la precisión del polinomio.

3
Método de las diferencias divididas de Newton
Sea una variable discreta de elementos y sea otra variable
discreta de elementos los cuales corresponden, por parejas, a la imagen u ordenada
y abcisa de los datos que se quieran interpolar, respectivamente, tales que:

Este método es muy algorítmico y resulta sumamente cómodo en determinados


casos, sobre todo cuando se quiere calcular un polinomio interpolador de grado
elevado.
El polinomio de grado resultante tendrá la forma

definiendo como

y definiendo como

Los coeficientes son las llamadas diferencias divididas.


Una vez se hayan realizado todos los cálculos, nótese que hay (muchas) más
diferencias divididas que coeficientes . El cálculo de todos los términos intermedios
debe realizarse simplemente porque son necesarios para poder formar todos los
términos finales. Sin embargo, los términos usados en la construcción del polinomio
interpolador son todos aquellos que involucren a .
Estos coeficientes se calculan mediante los datos que se conocen de la función .

queda definido, como:

Interpolación de Lagrange
Sea la función a interpolar, sean las abscisas conocidas de y
sean los valores que toma la función en esas abscisas, el polinomio
interpolador de grado de Lagrange es un polinomio de la forma

4
donde son los llamados polinomios de Lagrange, que se calculan de este modo:

Nótese que en estas condiciones, los coeficientes están bien definidos y son
siempre distintos de cero.
Se muestra en el ejemplo siguiente el cálculo de un polinomio interpolador de
Lagrange usando interpolación por Lagrange y diferencias divididas de Newton:

Ejemplo: Se quiere hallar el valor de la función para usando


un polinomio interpolador de Lagrange de grado 2.
Para ello se usan los siguientes datos:

 Se usa primero el método directo para calcular el polinomio interpolador de


Lagrange. Con las condiciones dadas, los polinomios de Lagrange son:

5
 Se calcula ahora el polinomio interpolador de grado 2:

 Ahora evaluamos este polinomio en para obtener un valor aproximado


de :

 Si se usase una calculadora para efectuar el cálculo

obtenemos , por lo que el error cometido es el


siguiente:

Se trata de un error del orden del 0.66 %.

Se procede a realizar ahora la interpolación mediante el método de las Diferencias


Divididas de Newton:

6
Se diseña una tabla de Diferencias Divididas esquemática y se realiza los pertinentes
cálculos para obtener los siguientes coeficientes:

 Ahora se debe tomar de estos coeficientes los que se necesitasen para escribir el
polinomio interpolador. Hay que recordar, según lo apuntado anteriormente, que
sólo se usan aquéllos coeficientes que involucren a . De esta forma se obtiene
el polinomio interpolador de Lagrange de grado 2:

Y, como se puede apreciar, se llega al mismo polinomio pero con relativamente menos
trabajo.

7
4.3 REGRESIÓN POR MÍNIMOS CUADRADOS: LINEAL Y CUADRÁTICA.

REGRESIÓN LINEAL.

Hemos enfatizado sobre la importancia de las representaciones gráficas y hemos visto la


utilidad de las versiones linealizadas de los gráficos (X, Y) junto a las distintas maneras
de llevar a cabo la linealización. A menudo nos confrontamos con situaciones en las que
existe o suponemos que existe una relación lineal entre las variables X e Y.

Surge de modo natural la pregunta: ¿cuál es la relación analítica que mejor se ajusta a
nuestros datos? El método de cuadrados mínimos es un procedimiento general que nos
permite responder esta pregunta. Cuando la relación entre las variables X e Y es lineal, el
método de ajuste por cuadrados mínimos se denomina también método de regresión
lineal.

Observamos o suponemos una tendencia lineal entre las variables y nos preguntamos
sobre cuál es lamejor recta:

y(x) = a x + b

Que representa este caso de interés. Es útil definir la función:

Que es una medida de la desviación total de los valores observados yi respecto de los
predichos por el modelo lineal a x + b. Los mejores valores de la pendiente a y la
ordenada al origen b son aquellos que minimizan esta desviación total, o sea, son los
valores que remplazados en la Ec.(1) minimizan la funciónc2. Ec.(2). Los
parámetros a y b pueden obtenerse usando técnicas matemáticas que hacen uso del
cálculo diferencial. Aplicando estas técnicas, el problema de minimización se reduce al
de resolver el par de ecuaciones:

8
Actualmente, la mayoría de los programas de análisis de datos y planillas de cálculo,
realizan el proceso de minimización en forma automática y dan los resultados de los
mejores valores de a y b, o sea los valores indicados por las ecuaciones.

Gráfico de datos asociados a un modelo lineal. La cantidad yi - y(xi)


representa la desviación de cada observación de yi respecto del valor predicho por
el modelo y(x).

El criterio de mínimos cuadrados reemplaza el juicio personal de quien mire los gráficos
y defina cuál es la mejor recta. En los programas como Excel, se realiza usando la
herramienta “regresión lineal” o “ajuste lineal”. Los resultados se aplican en el caso lineal
cuando todos los datos de la variable dependiente tienen la misma incertidumbre
absoluta y la incertidumbre de la variable independiente se considera despreciable.

9
REGRESIÓN MÍNIMO-CUADRÁTICA

Consiste en explicar una de las variables en función de la otra a través de un determinado


tipo de función (lineal, parabólica, exponencial, etc.), de forma que la función de
regresión se obtiene ajustando las observaciones a la función elegida, mediante el
método de Mínimos-Cuadrados (M.C.O.).

Elegido el tipo de función ¦ ( ) la función de regresión concreta se obtendrá minimizando


la expresión:

(yj - ¦ (xi ) ) 2. nij en el caso de la regresión de Y/X

(xi - ¦ (yj ) ) 2. nij en el caso de la regresión de X/Y

Puede probarse que es equivalente ajustar por mínimos cuadrados la totalidad de las
observaciones (toda la nube de puntos) que realizar el ajuste de los puntos obtenidos por
la regresión de la media; de forma que la regresión mínimo-cuadrática viene ser, en cierto
modo, la consecución de una expresión analítica operativa para la regresión en sentido
estricto.

Coeficientes de regresión.

Se llama coeficiente de regresión a la pendiente de la recta de regresión:

en la regresión Y/X : b = Sxy / Sx2

en la regresión X/Y b' = Sxy / Sy2

El signo de ambos coincidirá con el de la covarianza, indicándonos la tendencia (directa


o inversa a la covariación).Es interesante hacer notar que b.b'= r2

BONDAD DEL AJUSTE (Varianza residual, varianza de la regresión y coeficiente


de determinación)

Por bondad del ajuste hay que entender el grado de acoplamiento que existe entre los
datos originales y los valores teóricos que se obtienen de la regresión. Obviamente

10
cuanto mejor sea el ajuste, más útil será la regresión a la pretensión de obtener los valores
de la variable.

Obtener indicadores de esta bondad de ajuste es fundamental a la hora de optar por una
regresión de un determinado tipo u otro.

Puesto que la media de los residuos se anula, el primer indicador de la bondad del ajuste
(no puede ser el error medio) será el error cuadrático medio, o varianza del residuo,
o varianza residual :

Considerando la regresión Y/X:

Que será una cantidad mayor o igual que cero.De forma que cuanto más baja sea mejor
será el grado de ajuste.Si la varianza residual vale cero el ajuste será perfecto (ya que no
existirá ningún error ).

Del hecho de que yi=y*i+ei ,y de que las variables y* ý e están incorrelacionadas se tiene
que:

Donde S2y* es la llamada varianza de la regresión y supone la varianza de la variable


regresión:

Igualdad fundamental anterior de la que se deduce que la varianza total de la variable y


puede descomponerse en dos partes una parte explicada por la regresión( la varianza de
la regresión) y otra parte no explicada (la varianza residual).

Considerando que la varianza nos mide la dispersión de los datos este hecho hay que
entenderlo como que la dispersión total inicial queda, en parte explicada por la regresión
y en parte no.Cuanto mayor sea la proporción de varianza explicada (y menor la no
explicada) tanto mejor será el ajuste y tanto más útil la regresión.

A la proporción de varianza explicada por la regresión se le llama coeficiente de


determinación ( en nuestro caso lineal):

11
que evidentemente estará siempre comprendido entre 0 y 1 y, en consecuencia, da cuenta
del tanto por uno explicado por la regresión.

Una consecuencia importante en la práctica es que la varianza residual será


obviamente:

Es sencillo probar que en el caso lineal que nos ocupa el coeficiente de determinación
coincide con el cuadrado del coeficiente de correlación:

R2 = r2

Con lo cual la varianza residual y la varianza debida a la regresión pueden calcularse a


partir del coeficiente de correlación:

4.4 Aplicaciones.
En el subcampo matemático del análisis numérico, un spline es una curva
diferenciable definida en porciones mediante polinomios.

En los problemas de interpolación, se utiliza a menudo la interpolación


mediante splines porque da lugar a resultados similares requiriendo
solamente el uso de polinomios de bajo grado, evitando así las oscilaciones,
indeseables en la mayoría de las aplicaciones, encontradas al interpolar
mediante polinomios de grado elevado.

Para el ajuste de curvas, los splines se utilizan para aproximar formas


complicadas. La simplicidad de la representación y la facilidad de cómputo
de los splines los hacen populares para la representación de curvas en
informática, particularmente en el terreno de los gráficos por ordenado.

12

You might also like