You are on page 1of 17

Matrices

El concepto de matriz se fraguó a lo largo de los siglos XVIII y XIX con el objetivo de sistematizar
los métodos de resolución de sistemas de ecuaciones lineales con numerosas incógnitas. En la
actualidad, la teoría de matrices se ha convertido en una poderosa herramienta al servicio de muchas
disciplinas científicas, desde la física y las ciencias naturales hasta la economía.

Conceptos generales sobre matrices


En esencia, una matriz se define como un conjunto de números o expresiones numéricas que se
ordenan como una tabla de filas y columnas. Cada una de las intersecciones de filas o columnas se
denomina elemento de la matriz, y contiene un número o una expresión.

Por convenio, las matrices se representan genéricamente del siguiente modo:

En sentido genérico, los elementos de la matriz se simbolizan por aij, siendo i el número de fila y j el
número de columna que ocupan. Las matrices también se representan por la notación A = (aij), con i =
1, 2, 3, ..., m, y j = 1, 2, 3, ..., n.
Una matriz formada por m filas y n columnas se dice que tiene orden o dimensión m x n. Dos
matrices del mismo orden se consideran iguales cuando son iguales, dos a dos, los elementos que
ocupan el mismo lugar.

Clases de matrices
En términos generales, una matriz tiene m filas y n columnas, siendo m  n. En tal caso, la matriz se
llama rectangular. Ahora bien, cuando el número de filas y el de columnas coinciden, la matriz
es cuadrada, con dimensión n x n; en este caso, los elementos de la matriz de subíndices a11, a22, a33,
..., ann ocupan la llamada diagonal principal de la matriz. Esta diagonal adquiere importancia en la
resolución de determinantes (ver t 16).

Una matriz cuadrada se denomina triangular cuando todos los elementos situados por encima o por
debajo de la diagonal principal son nulos.

Una matriz se denomina diagonal cuando todos los elementos, excepto los de la diagonal principal,
son cero.

Otro concepto importante en la teoría de matrices es el de matriz traspuesta. Dada una matriz A de
orden m x n, su traspuesta, denotada por At, es otra matriz de dimensión n x m, donde se han
intercambiado las filas de la primera matriz por columnas y las columnas, por filas.

Suma de matrices
Al sumar dos matrices de igual orden o dimensión se obtiene una nueva matriz cuyos elementos se
calculan como la suma de los elementos de la misma fila y columna de las dos matrices, que actúan
como sumandos.

Dadas dos matrices A = (aij) y B = (bij), con i = 1, 2, 3, ..., m y j = 1, 2, 3, ..., n, ambas de orden m x n,
la matriz suma de las dos se obtendría de la forma siguiente:

Propiedades de la suma de matrices

Propiedad Expresión y significado


Conmutativa A + B = B + A.
Asociativa A + (B + C) = (A + B) + C.
Elemento A + 0 = 0 + A = A, siendo 0 la matriz nula, aquella que, con el
neutro mismo orden que A, tiene todos sus elementos iguales a cero.
Elemento A + (-A) = (-A) + A = 0, donde la matriz (-A) se llama opuesta de la
simétrico matriz A, y 0 corresponde a la matriz nula para la dimensión de A.

Producto y potencias con matrices


En el álgebra de matrices, además de la suma, se definen dos tipos de operaciones como sigue:
 El producto de un número por una matriz, es igual a una nueva matriz, cada uno de cuyos
elementos se corresponde con el de la matriz original multiplicado por el número constante.
 El producto de dos matrices sólo es posible cuando tienen los órdenes «encadenados »; es decir,
una matriz A = (aij) de orden m x n sólo puede multiplicarse por otra B = (bij) si la dimensión de
ésta es n x p, de manera que la matriz producto resultante tiene un orden igual a m x p. La matriz
resultante C = (cij) se calcula de forma que cada uno de sus términos cij es igual a la suma
ordenada de los productos de los elementos de la fila i de A por los de la columna j de B: primer
elemento de la fija i de A por primer elemento de la columna j de B; más el segundo de la fila i
por el segundo de la columna j, etcétera.

Como ampliación del concepto de producto, puede definirse la potencia enésima de una
matriz como el producto de ésta por sí misma n veces. Para que una matriz pueda multiplicarse por sí
misma tiene que ser cuadrada. Es decir:
Sistemas De Ecuaciones Lineales Y Matrices
La teoría general de matrices encuentra una de sus aplicaciones más inmediatas en la resolución de
sistemas de ecuaciones lineales con múltiples incógnitas. Aunque posteriormente fue objeto de un
extenso desarrollo teórico, este campo de las matemáticas surgió en realidad como un instrumento de
cálculo para facilitar las operaciones algebraicas complejas.

Matriz identidad y matriz inversa


Dada una matriz cuadrada A de orden n x n (o, simplemente, n), se define matriz identidad I como
la que, con la misma dimensión n, está formada por elementos que son todos nulos salvo los situados
en la diagonal principal, cuyo valor es 1. Es decir: A  I = I  A = A.

Para dicha matriz A de orden n, se dice que existe una matriz inversa A-1 también de orden n, cuando
el producto de ambas es igual a la matriz identidad: A  A-1= A-1  A = I.

Toda matriz que tiene inversa se dice inversible o regular, mientras que cuando carece de inversa se
denomina matriz singular.

Para calcular la matriz inversa de una dada, puede recurrirse a la resolución de las ecuaciones que
plantearía el producto de matrices A  X = I, siendo los coeficientes de A e I conocidos y los de X
correspondientes a las incógnitas. También se puede aplicar el llamado método de reducción o
gaussiano, según el siguiente esquema:
 Dada la matriz original A = (aij), con i, j = 1, 2, ..., n, se forma primero su matriz ampliada (A |
I).
 Después, se aplican operaciones elementales sobre las filas de la matriz hasta conseguir reducir
A a la matriz unidad. Las mismas transformaciones se van haciendo en I. La nueva matriz
obtenida es A-1.
 Las operaciones elementales que se pueden aplicar a las matrices ampliadas son:
 Multiplicación de una fila por un número distinto de cero.
 Suma ordenada a los elementos de una fila del múltiplo de los de otra.
 Intercambio de filas.

Expresión matricial de un sistema de ecuaciones lineales


Cualquier sistema de ecuaciones lineales puede escribirse siempre en forma matricial de la siguiente
forma:

donde A es la matriz de los coeficientes, X la matriz de las incógnitas y B la matriz de los términos
independientes.

Así, por ejemplo, el sistema de ecuaciones lineales:

Resolución de un sistema por la matriz inversa


Un procedimiento rápido para la resolución de sistemas de ecuaciones lineales mediante matrices es
el llamado método de la matriz inversa. Esta técnica consiste en multiplicar por la izquierda los dos
miembros de la expresión matricial del sistema de ecuaciones por la matriz inversa de la de los
coeficientes (si existe). De este modo:

Cuando la matriz de los coeficientes no es inversible, el sistema no tiene solución (es incompatible).
Resolución de un sistema por eliminación gaussiana
El procedimiento más utilizado para resolver sistemas de ecuaciones lineales mediante matrices es el
llamado método de eliminación gaussiana, que consta de los siguientes pasos:
 Se forma la matriz ampliada del sistema incorporando a la de los coeficientes, por la derecha, una
nueva columna con los elementos de la matriz de los términos independientes.
 Se aplican operaciones elementales sobre las filas de esta matriz ampliada, hasta lograr que por
debajo de la diagonal principal de la matriz todos los términos sean nulos.
 Se obtiene entonces un sistema equivalente de ecuaciones de resolución inmediata.
 Este método permite también realizar una rápida discusión del sistema:
 Si la última fila de la matriz resultante de la transformación de la ampliada produce una ecuación
del tipo 0x + 0y + cz = k, con k  0, el sistema es compatible determinado (tiene una solución
única).
 Cuando esta última fila corresponde a una ecuación del tipo 0x + 0y + 0z = k, el sistema
es incompatible (carece de solución).
 Si esta última fila se traduce en una ecuación del tipo 0x + 0y + 0z = 0, el sistema
será compatible indeterminado (con infinitas soluciones).

Ejemplo de resolución de un sistema de ecuaciones lineales por el método de eliminación gaussiana:


Determinantes
Los determinantes constituyen potentes herramientas que se utilizan comúnmente para la resolución
de sistemas de ecuaciones lineales. Aunque anteriores históricamente a las matrices, en la actualidad
se emplean como entidades matemáticas complementarias de éstas últimas.

Determinantes y matrices
El determinante correspondiente a una matriz cuadrada A, es el valor de la suma de determinados
productos que se realizan con los elementos que componen la matriz.

Dada una matriz cuadrada A de orden n, su determinante se denota por el símbolo |A| o det (A). El
cálculo del valor de este determinante se realiza según diversos procedimientos.

Determinantes de orden 2
El caso más sencillo de determinante es el que corresponde a una matriz cuadrada orden 2. Entonces,
el determinante es un número real obtenido como la siguiente suma de factores:

Regla de Sarrus
Cuando la matriz original A es de orden 3, para calcular su determinante se recurre al uso de la
llamada regla de Sarrus. Este determinante se obtiene de la suma de seis términos:
 Tres positivos, formados por los siguientes productos de tres factores: los tres elementos de la
diagonal principal y los elementos de las dos líneas paralelas a esta diagonal, multiplicados por el
vértice opuesto.
 Otros tres negativos, también constituidos por productos de tres factores: los tres elementos de la
diagonal secundaria y los de las líneas paralelas a ella, multiplicados por el vértice opuesto.

Es decir, dada una matriz A:

Entonces el desarrollo de su determinante, según la regla de Sarrus, vendría dado por:

Menores complementarios
Dada una matriz cuadrada de orden n, se denomina menor complementario a cada una de la matrices
de orden (n - 1) que se obtienen al suprimir la fila y la columna donde se encuentra un elemento (aij)
de la matriz original.

Por ejemplo, para la matriz cuadrada de orden 3

pueden definirse, entre otros, los dos siguientes menores complementarios:


Adjunto y matriz adjunta
Para una matriz cuadrada A de orden n se llama adjunto Aij del elemento aij al valor del menor
complementario de dicho elemento multiplicado por (-1) elevado a i más j. Es decir:

Dada una matriz cuadrada A, se define su matriz adjunta, que se denota por A* o Adj(A), como
aquella en la que los elementos de A están reemplazados por sus adjuntos respectivos:

Desarrollo de un determinante
El valor de un determinante puede obtenerse a partir de los adjuntos de los elementos de su matriz
correspondiente. Así, dada una matriz A, el valor de su determinante |A| es igual a la suma de los
productos de cada uno de los elementos de una de sus filas o sus columnas por los adjuntos respectivos
de dichos elementos. Por ejemplo, si:

En este caso, el determinante se ha desarrollado por la primera fila. En general, un determinante puede
desarrollarse por filas o por columnas.
Este tipo de desarrollo permite calcular el valor del determinante de matrices cuadradas de orden
superior a 3, simplemente reduciendo este orden sucesivamente, por la regla de los adjuntos, hasta 3,
y después aplicando la regla de Sarrus.
Propiedades De Los Determinantes
El uso de determinantes simplifica de forma muy notable la resolución de sistemas de ecuaciones
lineales. Para ello, se aplican propiedades generales que permiten acometer la discusión y la
resolución de tales sistemas mediante un procedimiento riguroso.

Cálculo de determinantes
En el manejo de determinantes se pueden establecer algunas propiedades que facilitan las
operaciones de cálculo. Tales propiedades son:
 1. Una matriz cuadrada con una fila o una columna en la que todos los elementos son nulos
tiene un determinante igual a cero.
 2. El determinante de una matriz con dos filas o dos columnas iguales es nulo.
 3. Cuando dos filas o dos columnas de una matriz son proporcionales entre sí (una se puede
obtener multiplicando la otra por un factor), su determinante es cero.
 4. Al intercambiar dos filas o dos columnas de una matriz, su determinante cambia de signo.
 5. Al multiplicar todos los elementos de una fila o una columna de una matriz por un número, el
determinante de la matriz resultante es igual al de la original multiplicado por ese mismo número.
 6. El determinante de una matriz triangular o una matriz diagonal es igual al producto de los
elementos de su diagonal principal.
 7. Cuando a una fila (o columna) de una matriz se le suma o resta una combinación lineal de
otras filas (o columnas), el valor de su determinante no se altera.

Propiedad 4.

Otras propiedades de los determinantes


 1. El determinante de una matriz cuadrada es igual al de su traspuesta: |A| = |At|.
 2. El determinante de un producto de matrices coincide con el producto de los determinantes de
cada matriz:|A  B| = |A|  |B|.
 3. Cuando una matriz tiene inversa, su determinante es distinto de cero; análogamente, si el
determinante de una matriz no es nulo, dicha matriz tiene inversa.
 4. El determinante de la inversa de una matriz es igual al inverso del determinante de la

matriz.
 5. La suma de los productos de los elementos de una fila o columna de una matriz por
los adjuntos de otra fila o columna es siempre nula.
 6. La matriz de los adjuntos de una matriz A dada de dimensión n tiene un determinante igual al
determinante de A elevado a n-1.

El método de Gauss
La aplicación de las propiedades de los determinantes permite obtener el valor de un determinante
dado a través de su transformación en otro de igual valor. Un procedimiento particularmente
interesante es el llamado método de Gauss, que consiste en:
 Elegir el primer elemento de la diagonal principal del determinante.
 Aplicar las propiedades de cálculo de los determinantes hasta lograr que todos los elementos de la
columna del elegido, salvo él mismo, sean iguales a cero.
 Elegir el segundo elemento de la diagonal principal y aplicar las propiedades de los determinantes
para obtener que todos los elementos de su columna situados debajo de él sean nulos.
 Aplicar sucesivamente este método hasta obtener un determinante triangular o diagonal, cuyo
valor será el producto de los elementos de su diagonal principal.

Rango de una matriz


Dada una matriz cuadrada A de orden n, es posible considerar múltiples submatrices también
cuadradas de orden h, siendo h  n. El determinante de cada una de estas submatrices se dice menorde
orden h de la matriz A.

Entonces, se llama rango de una matriz al máximo orden de sus menores no nulos. El rango se
simboliza por rang (A).
Resolución De Ecuaciones Mediante Matrices
Durante los siglos XVIII y XIX se desarrollaron diversos métodos de resolución de sistemas de
ecuaciones de primer grado basados en la teoría de matrices. A los ya consabidos procedimientos
gráficos y algebraicos usados desde antiguo se sumaron los más elaborados que propusieron, con
casi un siglo de diferencia, Gabriel Cramer y Eugène Rouché.

Métodos de resolución de sistemas de ecuaciones lineales


Para resolver sistemas de ecuaciones lineales (de primer grado) se utilizan comúnmente tres tipos de
procedimientos:
 Métodos algebraicos, clasificados como métodos de sustitución, igualación o reducción (ver t6).
 Métodos gráficos, donde cada ecuación del sistema se corresponde con un plano, en el caso de que
el sistema sea de tres incógnitas, de forma que las soluciones del sistema coinciden con los puntos
de intersección de todos los planos (ver t6).
 Métodos matriciales, basados en el uso de la teoría de matrices.

Métodos matriciales
Un sistema de ecuaciones lineales puede expresarse en forma matricial de la manera siguiente:

CX=B

donde C es la matriz de los coeficientes, X la de las incógnitas y B la de los términos independientes


(ver t15).

En la resolución de sistemas de ecuaciones lineales por métodos matriciales se emplean normalmente


dos procedimientos alternativos: el de la matriz inversa y el método de eliminación gaussiana.

El método de la matriz inversa (ver t15) consiste en hallar la matriz inversa de C para obtener la matriz
de las incógnitas, efectuando la operación C-1  B

X = C-1  B

Por su parte, el método de eliminación gaussiana (ver t15) consiste en obtener una matriz triangular
equivalente a la matriz ampliada del sistema.

Interpretación geométrica
Si se considera que una ecuación del tipo ax + by + cz + d = 0 puede interpretarse geométricamente
como la ecuación de un plano, un sistema cuadrado de tres ecuaciones lineales se corresponde con
tres planos en el espacio cartesiano. De esta forma, las soluciones del sistema son los puntos de
confluencia de los tres planos.

En el análisis geométrico de las posiciones relativas de dos planos, pueden darse tres situaciones
distintas:
 Si los planos se cortan en una recta común, se dicen secantes.
 Cuando tienen todos sus puntos en común, se llaman coincidentes.
 Si no se cortan, se dicen paralelos.

El estudio geométrico de planos en el espacio tiene interés para la discusión de sistemas de ecuaciones
lineales.

Regla de Cramer
Un sistema de ecuaciones lineales se dice de Cramer cuando cumple las siguientes condiciones:
 Es un sistema cuadrado, con igual número de ecuaciones que de incógnitas.
 El determinante de la matriz de los coeficientes asociada es distinto de cero.

En consecuencia, un sistema de Cramer es siempre compatible determinado (tiene una solución


única).

Para calcular la incógnita xi del sistema de ecuaciones lineales, se sustituye la columna i de la matriz
de coeficientes por los términos independientes, se obtiene el determinante de la matriz resultante y
se divide este valor por el del determinante de la matriz de los coeficientes. Por tanto, la solución de
un sistema de Cramer se obtiene hallando cada incógnita Xi según la fórmula:

siendo Ci la matriz resultante de sustituir la columna de la matriz de los coeficientes correspondiente


a la incógnita por la de los términos independientes.

Ejemplo de resolución de un sistema por la regla de Cramer.


Teorema De Rouché-Fröbenius
Con el enunciado del teorema debido al francés Eugène Rouché y al alemán Georg Ferdinand
Fröbenius se hace posible resolver cualquier tipo de sistema de ecuaciones de primer grado, tenga o
no solución. En esencia, este teorema se basa en el análisis del rango de las matrices representativas
del sistema.

Enunciado del teorema de Rouché-Fröbenius


Dado un sistema de m ecuaciones lineales con n incógnitas, cuya expresión general sería:

se pueden definir su matriz de coeficientes C y su matriz ampliada A como:

Según el teorema de Rouché-Fröbenius, la condición necesaria y suficiente para que un sistema de


m ecuaciones lineales con n incógnitas sea compatible (tenga solución) es que el rango de la matriz
de los coeficientes sea igual al rango de la matriz ampliada.

Discusión y clasificación de sistemas lineales


Como consecuencia de la aplicación del teorema de Rouché-Fröbenius, los sistemas de m ecuaciones
lineales con n incógnitas se pueden discutir y resolver con cierta rapidez. Así, se tiene que:
 Si los rangos de las matrices de los coeficientes y ampliada son iguales, el sistema
es compatible (tiene solución). Si el número de incógnitas es igual a dicho rango,
será determinado (una solución), y si el número de incógnitas es mayor que el rango, el sistema
es indeterminado (infinitas soluciones).
 Cuando los rangos de las matrices de los coeficientes y ampliada son distintos, el sistema
es incompatible (no tiene solución).

Discusión de un sistema por el teorema de Rouché-Fröbenius.

Resolución por el teorema de Rouché-Fröbenius


Para resolver un sistema de ecuaciones lineales basándose en el teorema de Rouché- Fröbenius, se
procede del modo siguiente:
 Se discute el sistema, analizando los rangos de las matrices de coeficientes y ampliada.
 Si el sistema es compatible determinado, se toma el menor de la matriz de los coeficientes que ha
dado el rango.
 El sistema equivalente que resulta se resuelve por la regla de Cramer (ver t18).
Sistemas lineales homogéneos
Los sistemas lineales en los que los términos independientes son siempre cero se llaman homogéneos.
Un sistema homogéneo tiene siempre la solución trivial o impropia en la que todas las incógnitas son
iguales a cero. Sin embargo, las raíces de interés en el análisis del sistema son todas las demás, si
existieren, que se dicen soluciones propias.

Si se aplica el teorema de Rouché-Fröbenius a estos sistemas, se obtiene que:


 Cuando el rango de las matrices es igual al número de incógnitas, el sistema es compatible
determinado y por tanto su única solución es la trivial.
 Si el número de incógnitas es mayor que el rango, el sistema es compatible indeterminado y posee
infinitas soluciones.

Un sistema lineal homogéneo nunca puede ser incompatible.

Discusión de un sistema lineal homogéneo por el teorema de Rouché-Fröbenius.

Sistemas dependientes de parámetros


En los sistemas de ecuaciones que dependen de uno o dos parámetros no existe un método fijo de
resolución. Sin embargo, sus soluciones pueden discutirse con mayor facilidad por medio del teorema
de Rouché-Fröbenius.

Normalmente, al calcular los determinantes de las matrices de coeficientes y ampliada, se obtiene una
dependencia de los parámetros, de manera que del estudio de sus posibles valores se deduce si el
sistema es compatible (determinado o indeterminado) o incompatible.
Programación Lineal
La programación lineal es una técnica de modelización matemática desarrollada a partir de la década
de 1930. Desde entonces, se ha aplicado con frecuencia en los procesos de toma de decisión de
numerosos ámbitos económicos y productivos, como la planificación de empresa y la ingeniería
industrial.

Conceptos de programación lineal


La técnica matemática conocida por programación lineal se utiliza para obtener una solución óptima
a un problema condicionado por unas variables de partida sujetas a ciertas restricciones. Un
problema clásico de la programación sería el siguiente: teniendo n productos del tipo A y m del tipo
B, que pueden envasarse en dos clases de paquetes en diferentes proporciones y con un precio distinto
para cada paquete, cuántos paquetes de cada tipo deberán formarse para obtener una cantidad máxima
de ingresos.

En el planteamiento del problema se manejan varios conceptos esenciales:


 Las variables.
 Las restricciones que se imponen, expresadas por inecuaciones lineales.
 La función objetivo, de tipo lineal, que describe el problema.

El grupo de las soluciones posibles recibe el nombre de conjunto restricción o conjunto solución
factible. La solución debe situarse en el área definida por las inecuaciones de restricción, que se
conoce por región factible.

Región factible del sistema de inecuaciones lineales:

La región factible puede estar acotada, como en la figura, o no acotada. Cuando está acotada, se
representa gráficamente como un polígono con un número de lados menor o igual que el de
restricciones (en la figura, el polígono acotado tiene cuatro lados, y las restricciones también son
cuatro).

Se llama solución óptima a la que maximiza o minimiza la función objetivo. Esta solución si es única
siempre se encuentra en un vértice o punto extremo de la región factible.

Resolución por método gráfico


Para resolver gráficamente un problema de programación lineal, se hace lo siguiente:
 Se representan gráficamente las inecuaciones del sistema, obteniéndose el conjunto restricción.
 Si la función objetivo es f (x,y)= ax + by, se trazan rectas paralelas a esta función (que serán de la
forma ax + by=k) y que pasen por cada uno de los vértices del conjunto restricción.
 Se observa en qué vértice la función objetivo se hace máxima (o mínima) sin más que tener en
cuenta cuál de las rectas tiene mayor (o menor) ordenada en el origen.

Esta técnica se conoce por método de las rectas de nivel.

Método algebraico de resolución


Para resolver un problema de programación lineal por métodos algebraicos, se aplica el siguiente
procedimiento operativo:
 1. Se definen las variables.
 2. Para cada restricción existente se escribe una inecuación lineal representativa.
 3. Se define la expresión matemática de la función objetivo.
 4. Se construyen sistemas cuadrados de ecuaciones a partir del conjunto inicial de inecuaciones
lineales. Por ejemplo, si se tuvieran cuatro inecuaciones con dos incógnitas, se podrían construir
seis sistemas distintos de ecuaciones lineales (sustituyendo la desigualdad por igualdad).
 5. Se resuelven todos estos sistemas y se anota el valor de los puntos obtenidos como solución.
 6. Se comprueban estos puntos en cada una de las inecuaciones. Los que cumplan todas las
restricciones serán los vértices de la región factible.
 7. Se calcula el valor de la función objetivo para cada vértice.
 8. La solución óptima será aquella para la cual la función objetivo es máxima (o mínima, según el
planteamiento del problema).

Esta técnica recibe el nombre de método de los vértices.

Tipos de soluciones
En los problemas de programación lineal con dos variables pueden darse varios tipos de soluciones
óptimas:
 Solución única.
 Solución múltiple (infinitas soluciones).
 Solución no acotada (ausencia de solución), cuando la función objetivo no tiene valores
extremos, pues la región factible es no acotada.
 Solución no factible, cuando no existe región factible por falta de puntos comunes en el sistema
de inecuaciones.
 Solución degenerada, si en un solo punto (que se dice degenerado) coinciden tres o más de las
rectas que limitan la región factible.
Método Del Símplex Y Problema Del Transporte
La programación lineal se ha constituido en un método ampliamente utilizado para resolver
problemas de optimización y planificación empresarial. En este contexto, se han definido varios
procedimientos operativos avanzados, entre los que cabe citar el método del símplex y la solución de
los llamados « problemas del transporte ».

Algoritmo del símplex


El método o algoritmo del símplex se utiliza para hallar las soluciones óptimas de un problema
de programación lineal con tres o más variables. Es un procedimiento iterativo de programación
lineal que va desechando las soluciones no factibles y, en cada paso, evalúa si la solución obtenida es
óptima o no. Las etapas de este algoritmo son:
 1. Planteamiento del problema: identificación de las variables y definición de la función
objetivo y del sistema de inecuaciones lineales para restricciones.
 2. Conversión de las desigualdades en igualdades; en cada restricción se introduce una variable
de holgura en el miembro menor (o menor o igual) de la desigualdad.
 3. Igualación a cero de la función objetivo.
 4. Escritura de una tabla inicial símplex (matriz): en las columnas, las variables del problema; una
fila para cada conjunto de coeficientes de una restricción y una fila más para los coeficientes de la
función objetivo.
 5. Determinación de las variables y los coeficientes.

Ejemplo de tabla inicial símplex:


Variable de Variable de Valor crítico Valores
Base
decisión holgura Z solución
x1 x2 x3 h1 h2 h3
h1 3 4 2 1 0 0 0 300
h2 2 1 2 0 1 0 0 200
h3 1 3 3 0 0 1 0 150
Z -2 -4 -5 0 0 1 1 0

Variables y coeficientes
Para determinar las variables de un problema mediante el método del símplex, es preciso hallar
primero la base de resolución. En esta base:
 Se incluye una variable de decisión, la que posee el coeficiente negativo mayor. La columna a la
que corresponde se llama columna pivote.
 Se excluye una variable de holgura. Se divide cada término por el correspondiente de la columna
pivote y se calcula el menor cociente positivo.

Se aplica entonces el método de eliminación gaussiana para anular los términos de la columna pivote,
tantas veces como se precisa hasta que en la última fila sólo haya coeficientes positivos. (Tal será la
solución).

Problema del transporte


El problema del transporte es un planteamiento clásico de las técnicas de programación lineal. En
este problema se pretende elegir el camino óptimo de envío de una mercancía desde
varios orígenes (por ejemplo, plantas de producción) a diferentes destinos (centros de
almacenamiento o consumo), de forma que el coste sea mínimo.
Como en todo problema de programación lineal, han de cumplirse las siguientes etapas:
 Definir las variables del problema (por ejemplo, las cantidades de partida solicitadas en cada
destino, el coste de envío de una unidad de mercancía a cada destino).
 Escribir conceptualmente el sistema de inecuaciones asociado a las restricciones del problema
(por ejemplo, el número de unidades máximas producidas en cada origen y las requeridas en cada
destino).
 Definir conceptualmente la función objetivo, que determina el coste.

Resolución del problema del transporte


Una vez planteado el problema, se construye una tabla de distribución, de la que se obtienen las
expresiones matemáticas de las inecuaciones del sistema y la función objetivo. Para resolverla se usan
los métodos gráficos o algebraicos comunes de la programación lineal.

You might also like