Professional Documents
Culture Documents
donde
Vectores (1)
El producto interno de dos vectores (o producto escalar) se define por:
Donde el vector ux tiene norma 1 y la misma direccin que x El ngulo entre los vectores x e y est definido por:
Vectores (2)
Un conjunto de vectores x1, x2, , xn son linealmente dependientes si existe un conjunto de coeficientes a1, a2, , an (con al menos uno diferente de cero) tales que
Intuitivamente, esto quiere decir que hay por lo menos un vector redundante, que podemos expresar como combinacin de los otros. Por ejemplo, si a1 0:
x1 = c2 x2 + c3 x3 + + cn xn
con
ck = - ak / a1
Matrices
El determinante de una matriz cuadrada A de d x d dimensiones es:
- donde Aik es el menor, matriz formada cogiendo A y eliminando su fila i y su columna k - El determinante de una matriz es igual al de su transpuesta: |A| = |AT|
La traza de una matriz cuadrada A de d x d dimensiones es la suma de los elementos de su diagonal: El rango de una matriz es el nmero de filas (o columnas) linealmente independientes Se dice de una matriz cuadrada que es no singular si y slo si su rango es igual al nmero de filas (o columnas) - El determinante de una matriz no singular es distinto de 0 Se dice de una matriz cuadrada que es ortonormal si AAT = ATA = I
Matrices
Dado una matriz cuadrada A: - Si xT A x > 0 para todo x 0, entonces se dice que A es definida positiva (ejemplo: matriz de correlacin) - Si xT A x 0 para todo x 0, entonces se dice que A es semidefinida positiva La inversa de una matriz cuadrada A se denomina A-1, y es una matriz tal que A-1 A = A A-1 = I - La inversa de A existe si y slo si A es no singular (su determinante no es cero) En algunos problemas cuando la inversa de A no existe (porque A no es cuadrada, o es singular), se utiliza la pseudoinversa A, que se define como: A = [AT A]-1 AT con A A = I (notad que en general A A I )
Espacios de vectores
El espacio n-dimensional en el cual todos los vectores de n dimensiones residen se denomina un espacio de vectores Se dice que un conjunto de vectores { u1, u2, , un } es una base de un espacio vectorial si cualquier vector x puede ser expresado como una combinacin lineal de los { ui }
- Para ser una base, es necesario y suficiente que los n vectores { ui } sean linealmente independientes Se dice que una base { ui } es ortogonal si Se dice que una base { ui } es ortonormal si
Espacios de vectores
Dados n vectores {v1, v2, , vn} linealmente independientes, podemos construir una base ortonormal {w1, w2, , wn } por el procedimiento de ortonormalizacin de Gram-Schmidt
w1 = v1
wj = v j
i =1
j i
v j wi wi
2
wi
La distancia entre dos puntos en un espacio vectorial se define como la norma del vector diferencia entre los dos puntos:
Transformaciones lineales
Una transformacin lineal es un mapeo del espacio vectorial XN al espacio vectorial YM, y se representa por una matriz - Dado un vector x XN, el correspondiente vector y de YM se calcula as:
- Notad que la dimensin de los dos espacios no tiene por qu ser la misma - Para problemas de reconocimiento de patrones tpicamente tendremos M < N (proyeccin en un espacio de menor dimensin) Se dice que una transformacin lineal representada por la matriz cuadrada A es ortonormal cuando AAT = ATA = I - Esto implica que AT = A-1 - Las transformaciones ortonormales preservan la norma de los vectores:
- Las transformaciones ortonormales se pueden ver como rotaciones del sistema de ejes de referencia - Los vectores fila de una transformacin ortonormal forman una base de vectores ortonormales
con
La matriz formada por los autovectores columna se denomina matriz modal M La matriz es la forma cannica de A: una matriz diagonal con los autovalores en su diagonal
Por ejemplo, la transformacin que rota los vectores de 3 dimensiones en torno al eje Z tiene un solo autovector, que es [0 0 1]T, siendo 1 es su autovalor correspondiente
Estadsticamente Independientes
Variables aleatorias
Cuando consideramos un proceso aleatorio, normalmente nos interesa saber alguna medida o atributo numrico que genera una secuencia de valores modelizables.
Ejemplos: Cuando muestreamos una poblacin nos puede interesar por ejemplo el peso y la altura Cuando calculamos el rendimiento de dos ordenadores nos interesa el tiempo de ejecucin de un programa de test Cuando tratamos de reconocer un avin intruso, nos puede interesar medir los parmetros que caracterizan la forma del avin
Variables aleatorias
Definimos una variable aleatoria X que puede tomar un conjunto de valores {xi} como una funcin X( ) que asigna un nmero real x a cada resultado en el espacio de muestreo de un experimento aleatorio x= X( ).
- Esta funcin X() realiza un mapeo de todos los posibles elementos en el espacio de muestreo a la recta real (nmeros reales). - La funcin X() que asigna valores a cada resultado es fija y determinista - La aleatoriedad en los valores observados se debe a la aleatoriedad del argumento de la funcin X() , es decir, el resultado del experimento Las variables aleatorias pueden ser:
- Discretas: por ejemplo, el resultado en el lanzamiento de un dado Continuas: por ejemplo, el peso de un individuo escogido al azar
map
si a b
fda del resultado de un dado
El equivalente a la fdp para variables aleatorias discretas es la funcin de masa de probabilidad ( fmp ):
fmp
donde
si
Ahora, cul es la probabilidad de que alguien pese 124.876 libras = 56.70 Kg? - De acuerdo a la fdp, es cerca de 0.43 - Pero, intuitivamente, la probabilidad debera ser cero Probabilidad en un punto es cero.
Cmo explicamos esta paradoja ? - La fdp no define una probabilidad, sino una DENSIDAD de probabilidad! - Para obtener una verdadera probabilidad, debemos integrar en un intervalo - La pregunta original es incorrecta, nos deberan haber preguntado: Cul es la probabilidad de que alguien pese 124.876 libras, ms / menos 2 libras ?
Desviacin estndar Es la raz cuadrada de la varianza, por lo que tiene las mismas unidades que la variable aleatoria
Momento de orden N
Vectores aleatorios
La nocin de vector aleatorio es una extensin de la nocin de variable aleatoria - Una variable vectorial aleatoria X es una funcin que asigna un nmero real a cada posible valor del espacio de muestreo S - Consideraremos siempre a un vector aleatorio como un vector columna
x1 x2 x 3
Las nociones de fda y fdp se sustituyen por fda conjunta y fdp conjunta - Dado un vector aleatorio X = [x1 x2 xN]T definimos - La funcin de distribucin acumulada conjunta como:
Vectores aleatorios
El trmino fdp marginal se usa para representar la fdp de un subconjunto de los componentes del vector - Se obtiene integrando la fdp en las componentes que no son de inters - Por ejemplo, si tenemos un vector X = [x1 x2]T , la fdp marginal de x1, dado la fdp conjunta fx1 x2 (x1, x2) es:
Matriz de covarianza
Matriz de covarianza
La matriz de covarianza indica la tendencia de cada par de atributos (las componentes del vector aleatorio) de variar juntas, es decir, co-variar
- Si xi tiende a disminuir cuando xk aumenta, entonces cik < 0 - Si xi y xk no estn correlacionadas, entonces cik = 0 - |cik| i k donde i es la desviacin estndar de xi - cii = i2 = VAR(xi)
Matriz de covarianza
Los componentes de la matriz de covarianza se pueden escribir como: cii = i2 y cik = ik i k - donde ik es el llamado coeficiente de correlacin
Se dice que dos variables aleatorias xi y xk son independientes, su distribucin conjunta ser el producto de las marginales.
Estadsticamente Independientes
En otras palabras, cualquier variable que sea la contribucin de muchos factores aleatorios independientes tiende a ser Gaussiana. Ejemplos: ruido en aparatos medidores,