Professional Documents
Culture Documents
El problema general de la interpolación se nos presenta cuando nos dan una función
de la cual solo conocemos una serie de puntos de la misma:
La interpolación se dirá lineal cuando sólo se tomen dos puntos y cuadrática cuando
se tomen tres.
INTERPOLACIÓN LINEAL
Sean dos puntos (xo, yo), (x1, y1), la interpolación lineal consiste en hallar una
estimación del valor y, para un valor x tal que x0<x<x1.
1
LA INTERPOLACIÓN CUADRÁTICA.
Con frecuencia se tienen que estimar valores intermedios entre valores conocidos. El
método mas común empleado para este propósito es la interpolación polinomial.
2
Para n + 1 puntos, existe uno y sólo un polinomio de n-ésimo orden o menor que pasa
a través de todos los puntos. Por ejemplo, hay sólo una línea recta (es decir un
polinomio de primer orden) que conecta dos puntos. El polinomio de interpolación
consiste en determinar el único polinomio de n-ésimo orden que se ajusta a los n + 1
puntos dados. Este polinomio proporciona una fórmula para calcular los valores
intermedios.
Aunque existe uno y sólo un polinomio de n-ésimo orden que se ajusta a los n + 1
puntos, existen una gran variedad de fórmulas matemáticas mediante las cuales se
puede expresar este polinomio. En esta unidad se estudian dos técnicas alternativas
que están bien condicionadas para implementarse en una computadora. Estos son los
polinomios de Newton y de Lagrange.
3
Método de las diferencias divididas de Newton
Sea una variable discreta de elementos y sea otra variable
discreta de elementos los cuales corresponden, por parejas, a la imagen u ordenada
y abcisa de los datos que se quieran interpolar, respectivamente, tales que:
definiendo como
y definiendo como
Interpolación de Lagrange
Sea la función a interpolar, sean las abscisas conocidas de y
sean los valores que toma la función en esas abscisas, el polinomio
interpolador de grado de Lagrange es un polinomio de la forma
4
donde son los llamados polinomios de Lagrange, que se calculan de este modo:
Nótese que en estas condiciones, los coeficientes están bien definidos y son
siempre distintos de cero.
Se muestra en el ejemplo siguiente el cálculo de un polinomio interpolador de
Lagrange usando interpolación por Lagrange y diferencias divididas de Newton:
5
Se calcula ahora el polinomio interpolador de grado 2:
6
Se diseña una tabla de Diferencias Divididas esquemática y se realiza los pertinentes
cálculos para obtener los siguientes coeficientes:
Ahora se debe tomar de estos coeficientes los que se necesitasen para escribir el
polinomio interpolador. Hay que recordar, según lo apuntado anteriormente, que
sólo se usan aquéllos coeficientes que involucren a . De esta forma se obtiene
el polinomio interpolador de Lagrange de grado 2:
Y, como se puede apreciar, se llega al mismo polinomio pero con relativamente menos
trabajo.
7
4.3 REGRESIÓN POR MÍNIMOS CUADRADOS: LINEAL Y CUADRÁTICA.
REGRESIÓN LINEAL.
Surge de modo natural la pregunta: ¿cuál es la relación analítica que mejor se ajusta a
nuestros datos? El método de cuadrados mínimos es un procedimiento general que nos
permite responder esta pregunta. Cuando la relación entre las variables X e Y es lineal, el
método de ajuste por cuadrados mínimos se denomina también método de regresión
lineal.
Observamos o suponemos una tendencia lineal entre las variables y nos preguntamos
sobre cuál es lamejor recta:
y(x) = a x + b
Que es una medida de la desviación total de los valores observados yi respecto de los
predichos por el modelo lineal a x + b. Los mejores valores de la pendiente a y la
ordenada al origen b son aquellos que minimizan esta desviación total, o sea, son los
valores que remplazados en la Ec.(1) minimizan la funciónc2. Ec.(2). Los
parámetros a y b pueden obtenerse usando técnicas matemáticas que hacen uso del
cálculo diferencial. Aplicando estas técnicas, el problema de minimización se reduce al
de resolver el par de ecuaciones:
8
Actualmente, la mayoría de los programas de análisis de datos y planillas de cálculo,
realizan el proceso de minimización en forma automática y dan los resultados de los
mejores valores de a y b, o sea los valores indicados por las ecuaciones.
El criterio de mínimos cuadrados reemplaza el juicio personal de quien mire los gráficos
y defina cuál es la mejor recta. En los programas como Excel, se realiza usando la
herramienta “regresión lineal” o “ajuste lineal”. Los resultados se aplican en el caso lineal
cuando todos los datos de la variable dependiente tienen la misma incertidumbre
absoluta y la incertidumbre de la variable independiente se considera despreciable.
9
REGRESIÓN MÍNIMO-CUADRÁTICA
Puede probarse que es equivalente ajustar por mínimos cuadrados la totalidad de las
observaciones (toda la nube de puntos) que realizar el ajuste de los puntos obtenidos por
la regresión de la media; de forma que la regresión mínimo-cuadrática viene ser, en cierto
modo, la consecución de una expresión analítica operativa para la regresión en sentido
estricto.
Coeficientes de regresión.
Por bondad del ajuste hay que entender el grado de acoplamiento que existe entre los
datos originales y los valores teóricos que se obtienen de la regresión. Obviamente
10
cuanto mejor sea el ajuste, más útil será la regresión a la pretensión de obtener los valores
de la variable.
Obtener indicadores de esta bondad de ajuste es fundamental a la hora de optar por una
regresión de un determinado tipo u otro.
Puesto que la media de los residuos se anula, el primer indicador de la bondad del ajuste
(no puede ser el error medio) será el error cuadrático medio, o varianza del residuo,
o varianza residual :
Que será una cantidad mayor o igual que cero.De forma que cuanto más baja sea mejor
será el grado de ajuste.Si la varianza residual vale cero el ajuste será perfecto (ya que no
existirá ningún error ).
Del hecho de que yi=y*i+ei ,y de que las variables y* ý e están incorrelacionadas se tiene
que:
Considerando que la varianza nos mide la dispersión de los datos este hecho hay que
entenderlo como que la dispersión total inicial queda, en parte explicada por la regresión
y en parte no.Cuanto mayor sea la proporción de varianza explicada (y menor la no
explicada) tanto mejor será el ajuste y tanto más útil la regresión.
11
que evidentemente estará siempre comprendido entre 0 y 1 y, en consecuencia, da cuenta
del tanto por uno explicado por la regresión.
Es sencillo probar que en el caso lineal que nos ocupa el coeficiente de determinación
coincide con el cuadrado del coeficiente de correlación:
R2 = r2
4.4 Aplicaciones.
En el subcampo matemático del análisis numérico, un spline es una curva
diferenciable definida en porciones mediante polinomios.
12