You are on page 1of 102

Universitatea de Ştiinţe Agricole şi Medicină Veterinară

„Ion Ionescu de la Brad” Iaşi

lector dr. Marius Călin

MATEMATICĂ
Curs pentru Învăţământ la Distanţă

2002
CUPRINS
1. ELEMENTE DE MATEMATICĂ LINIARĂ (PAG. 1-1)
1.1 Matrice şi determinanţi (pag. 1-2)
1.2 Ecuaţii liniare (pag. 1-7)
1.3 Sisteme de ecuaţii liniare (pag. 1-17)
1.4 Inegalităţi liniare şi sisteme de inegalităţi liniare (pag. 1-32)
2. INTRODUCERE ÎN PROGRAMAREA LINIARĂ (PAG. 2-1)
2.1 Structura unei probleme de programare liniară (pag. 2-2)
2.2 Rezolvarea grafică a problemelor de programare liniară în două variabile (pag. 2-5)
3. ALGORITMUL SIMPLEX (PAG . 3-1)
3.1 Cerinţele metodei simplex (pag. 3-2)
3.2 Introducere în metoda simplex (pag. 3-5)
3.3 Algoritmul simplex pentru o problemă de maximizare în formă canonică (pag. 3-8)
3.4 Algoritmul simplex pentru o problemă de maximizare cu restricţii de toate tipurile (pag.
3-12)
3.5 Algoritmul simplex pentru o problemă de minimizare (pag. 3-12)
3.6 Situaţii speciale (pag. 3-14)
4. ELEMENTE DE TEORIA PROBABILITĂŢILOR (PAG. 4-1)
4.1 Experimente aleatoare (pag. 4-2)
4.2 Evenimente (pag. 4-2)
4.3 Noţiunea de probabilitate (pag. 4-7)
4.4 Probabilităţi condiţionate. Evenimente independente (pag. 4-11)
4.5 Variabile aleatoare (pag. 4-13)
4.6 Caracteristici numerice ale variabilelor aleatoare (pag. 4-16)

5. LANŢURI MARKOV (PAG. 5-1)


5.1 Procese stochastice (5-2)
5.2 Proprietăţi de bază ale lanţurilor Markov (pag. 5-7)
5.3 Lanţuri Markov regulate (pag. 5-9)

Bibliografie
1
Elemente de
matematică liniară

1.1 Matrice şi determinanţi


1.2 Ecuaţii liniare
1.3 Sisteme de ecuaţii liniare
1.4 Inegalităţi liniare şi sisteme de inegalităţi liniare

Obiectivele capitolului
• Definirea noţiunilor de matematică liniară care vor sta la baza dezvoltărilor din capitolele 2 şi
3
• Discutarea interpretărilor geometrice care se pot face în legătură cu ecuaţiile şi inegalităţile
liniare în două variabile
• Introducerea metodei eliminării totale pentru rezolvarea unui sistem de ecuaţii liniare
• Introducerea noţiunilor legate de explicitarea sistemelor de ecuaţii liniare în raport cu un grup
dat de variabile.
• Aplicarea metodei eliminării totale la calcularea inversei unei matrice

¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦

Acest capitol este destinat introducerii unor noţiuni de bază din matematica liniară.
Matematica liniară este importantă din mai multe motive. Astfel, multe fenomene din lumea reală
care trebuie studiate matematic sunt liniare sau pot fi aproximate ca fiind liniare. Deci,
matematica liniară se aplică în multe domenii. ~n plus, analiza şi manipularea relaţiilor liniare
este mai uşoară decât a relaţiilor neliniare. Mai mult, unele dintre metodele utilizate în
matematica neliniară sunt similare cu cele din matematica liniară sau sunt extensii ale acestora.
1.1 Matrice şi determinanţi
În această secţiune vor fi punctate câteva definiţii şi proprietăţi elementare din algebra
matriceală. Ne vom limita doar la acele elemente care vor fi folosite în secţiunile şi capitolele
următoare.

Definiţia 1.1.1 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Se numeşte matrice o mulţime de m ⋅ n numere (reale sau complexe) aranjate într-un
tablou dreptunghiular având m linii şi n coloane.

 a11 a12 K K a1n 


 
a a 22 K K a 2n 
A =  21 (1.1.1)
K K K K K
 
 a m1 a m2 K K a mn 

Numerele aij, i=1,2 ..., m, j = 1,2, ... ,n se mai numesc elementele matricei A.
O matrice cu m linii şi n coloane se numeşte matrice de tipul (m, n) sau matrice de
ordinul m × n.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Notaţii: ( )
A = a ij , A = a ij , A = a ij , i = 1,2 ,K , m j = 1,2 ,K , n

sau, pe scurt, Am,n.


Mulţimea matricelor de tipul (m, n) având toate elementele din mulţimea R a numerelor
reale se notează Mm,n( R ). În acest curs vor fi folosite numai matrice care au ca elemente numere
reale.

Tipuri speciale de matrice


O matrice de tip (m, 1) se numeşte matrice coloană sau vector coloană:

 a11 
 
a
A =  21  (1.1.2)
 M 
 
 a m1 

O matrice de tip (1, n) se numeşte matrice linie sau vector linie:

A = (a11 a12 K a1n ) (1.1.3)

O matrice de tip (n, n) se numeşte matrice pătratică de ordinul n O matrice de tip (1, n)
se numeşte matrice linie sau vector linie:
 a11 a12 K K a1n 
 
a a 22 K K a 2n 
A =  21 (1.1.4)
K K K K K
 
 a n1 an2 K K a nn 

Elementele a11, a22, ..., ann formează diagonala principală a matricei pătratice.
Matricea de tipul (m, n) având toate elementele egale cu zero se numeşte matricea nulă
de tipul (m, n). Notaţie: Om,n.
O matrice pătratică ale cărei elemente care nu se află pe diagonala principală sunt toate
nule se numeşte matrice diagonală.

 a11 0 K K 0
 
0 a 22 K K 0
A= (1.1.5)
K K K K K
 
 0 0 K K a nn 

Matricea diagonală pentru care a11 = a22 = ... = ann = 1 se numeşte matricea unitate de
ordinul n. Matricea unitate se notează In sau En.

1 0 K K 0
 
0 1 K K 0
In =  (1.1.6)
K K K K K
 
0 0 K K 1

Egalitatea matricelor
Două matrice de acelaşi tip Am,n şi Bm,n sunt considerate egale dacă elementele lor sunt,
respectiv, egale:

a ij = bij i = 1,2 ,K , m j = 1,2 ,K , n (1.1.6)

Notaţie: A = B.

Adunarea matricelor
Două matrice de acelaşi tip Am,n şi Bm,n pot fi adunate. Se defineşte suma matricelor A şi B
ca fiind matricea Cm,n obţinută adunând elementele corespunzătoare din A şi B.

( )
C = cij cij = a ij + bij i = 1,2 ,K , m j = 1,2 ,K , n (1.1.7)
Notaţie: C = A + B.
Adunarea matricelor are următoarele proprietăţi:

1. A+B=B+A (comutativitate)
2. (A + B) + C = A + (B + C) (asociativitate)
3. A+O=O+A=A (element neutru)
4. Pentru orice matrice A ∈ Mm,n( R ) există o matrice - A ∈ Mm,n( R ) astfel încât

A + (-A) = (-A) + A = Om,n (1.1.8)

Matricea -A se numeşte matricea opusă lui A şi

( ) ( )
A = a ij , − A = − a ij , i = 1,2 ,K , m j = 1,2 ,K , n (1.1.9)

Înmulţirea matricelor
Fie două matrice A şi B. Se poate defini produsul AB (în această ordine) dacă numărul de
coloane ale lui A este egal cu numărul de linii ale lui B. Deci, dacă Am,n şi Bn,p, atunci se poate
defini matricea produs Cm,p, de tip (m, p), ale cărei elemente se calculează cu relaţia:

n
cij = ai1b1 j + a i 2 b2 j +K+ a in bnj = ∑a k =1
ik bkj , i = 1,2 ,K , m j = 1,2 ,K , p (1.1.10)

Notaţie: C = AB.

Înmulţirea matricelor are următoarele proprietăţi:


1. (AB)C = A(BC) (asociativitate)
2. A(B + C) = AB + AC (distributivitate la stânga faţă de adunare)
dacă Am,n, Bn,p, Cn,p
3. (A + B)C = AC + BC (distributivitate la dreapta faţă de adunare)
dacă Am,n, Bm,n, Cn,p
4. Dacă A este o matrice pătratică de ordinul n, atunci AIn = InA = A, unde In este matricea
unitate de ordinul n. (element neutru la înmulţire)

Înmulţirea unei matrice cu un scalar


Produsul unei matrice Am,n = (aij), i = 1,2,...,m, j =1,2, ...,n cu un număr (scalar) α∈R este
o matrice Bm,n = (bij), i = 1,2,...,m, j =1,2, ...,n ale cărei elemente se obţin astfel:

bij = αa ij , i = 1,2 ,K , m j = 1,2 ,K , n (1.1.11)

Notaţie: B = αA = Aα.
Înmulţirea cu scalar are următoarele proprietăţi:
1. 1A =A
2. (α + β)A = αA + βA
3. α(A + B) = αA + αB
4. (αβ)A = α(βA)
5. α(AB) = (αA)B

Determinanţi

Definiţia 1.1.2 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Fie o matrice pătratică A de ordinul n.
Se numeşte determinantul lui A, numărul detA definit prin relaţia:

∑ ( − 1)
ω
det A = a1α1 a 2 α 2 K a nα n (1.1.12)
( α1 ,α 2 ,K,α n )

unde
• α 1 , α 2 ,K α n sunt toate elementele mulţimii {1,2 ,K , n} , iar suma cuprinde toate
permutările posibile ale acestora şi
• ω = 0 dacă permutarea este pară şi ω = 1 dacă permutarea este impară.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Notaţie:
a11 a12 K K a1n
a a 22 K K a 2n
det A = 21
K K K K K
a n1 an2 K K a nn

Definiţia 1.1.3 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


O matrice pătratică A de ordinul n al cărei determinant este diferit de zero (det A ≠ 0) se
numeşte matrice nesingulară. În caz contrar, ea se numeşte matrice singulară.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Rangul unei matrice


Fie A o matrice de tip (m, n). Dacă în această matrice se aleg la întâmplare k linii şi k
coloane (k ≤ min{m, n}), elementele aflate la intersecţia acestora formează o matrice pătratică de
ordinul k. Determinantul acestei matrice se numeşte minor de ordinul k al matricei A.

Definiţia 1.1.4 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Se spune că o matricea A are rangul r dacă:
• A are un minor nenul de ordinul r şi
• toţi minorii de ordin mai mare de r sunt nuli.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Notaţie: rang A = r
Următoarea teoremă este utilă pentru calcularea rangului unei matrice.

Teorema 1.1.1 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Fie o matrice A ≠ Om,n. Numărul natural r este rangul matricei date dacă:
• există un minor nenul de ordinul r al matricei A şi
• toţi minorii de ordinul r + 1 (dacă ei există) sunt nuli.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Matrice inversabile
Se poate vorbi de inversa unei matrice doar în cazul matricelor pătratice

Definiţia 1.1.5 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Fie o matricea A pătratică de ordinul n. Se spune că A este inversabilă dacă există o
matricea pătratică de ordinul n notată A-1 astfel încât:

AA −1 = A −1 A = I n (1.1.13)

■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Următoarea teoremă este utilă pentru a decide dacă o matrice este inversabilă.

Teorema 1.1.2 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Fie o matricea A pătratică de ordinul n. Matricea A este inversabilă dacă şi numai dacă ea
este nesingulară, adică det A ≠ 0.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Exemple:
a) adunarea matricelor

 − 1 4 0   2 3 1  − 1 + 2 4 + 3 0 + 1   1 7 1 
  +   =   =  ,
 3 2 − 6   6 − 2 8  3 + 6 2 − 2 − 6 + 8  9 0 2 

b) înmulţirea matricelor

1 2 
 1 0 3    1 ⋅1 + 0 ⋅ 3 + 3 ⋅ 0 1 ⋅ 2 + 0 ⋅ (− 1) + 3 ⋅ 2   1 8 
  ⋅  3 − 1 =  = ,
 − 2 4 1   0 2   (− 2 ) ⋅1 + 4 ⋅ 3 + 1 ⋅ 0 (− 2) ⋅ 2 + 4 ⋅ (− 1) + 1 ⋅ 2  10 − 6 
 

c)înmulţirea unei matrice cu un scalar

 1 2 4   a ⋅1 a ⋅ 2 a ⋅ 4   a 2a 4a 
     
a ⋅  0 3 − 1 =  a ⋅ 0 a ⋅ 3 a ⋅ (− 1) =  0 3a − a .
 2 1 0   a ⋅ 2 a ⋅1 a ⋅ 0   2a a 0 
  
1.2 Ecuaţii liniare
Ecuaţiile liniare vor juca un rol foarte important în modelele matematice care vor fi
abordate în capitolele următoare. De aceea este utilă punctarea, în această secţiune, a elementelor
necesare legate de acest subiect. Vor fi discutate aici şi interpretările geometrice care se pot face
în legătură cu ecuaţiile liniare în două variabile. De aceea, această categorie de ecuaţii liniare va
fi scoasă în evidenţă în mod deosebit.

Definiţia 1.2.1 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


O ecuaţie liniară în două variabile, x şi y, are forma generală:

ax + by = c (1.2.1)

unde a ,b , c ∈R , iar a şi b nu pot fi ambele zero.


■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Definiţia 1.2.2 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


O ecuaţie liniară în n variabile are forma generală:

a1 x1 + a 2 x 2 +K+ a n x n = b (1.2.2)

unde a1 , a 2 ,K , a n ,b ∈R , iar a1 , a 2 ,K , a n nu pot fi toate zero.


■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Se observă că ecuaţiile liniare sunt ecuaţii de gradul întâi: fiecare variabilă de ecuaţie este
(implicit) la puterea întâi.
Definiţia 1.2.2 generalizează definiţia 1.2.1. Atunci când se lucrează cu ecuaţii în două
variabile este posibilă reprezentarea grafică a ecuaţiilor.

Soluţiile ecuaţiei liniare

Definiţia 1.2.3 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Fie o ecuaţie liniară în două variabile ax + by = c . Se numeşte mulţimea soluţiilor
ecuaţiei, mulţimea perechilor ordonate (x, y) care satisfac ecuaţia.

S= {( x , y) | ax + by = c} (1.2.3)

■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

O observaţie importantă este că, oricare ar fi o ecuaţie liniară în două variabile, mulţimea
S a soluţiilor are un număr infinit de elemente. Deci există un număr infinit de perechi ordonate
(x, y) care satisfac ecuaţia.
Pentru a determina o soluţie a ecuaţiei, se ia o valoare oarecare pentru una dintre
variabile, se substituie această valoare în ecuaţie, după care rezultă cealaltă componentă.
Definiţia 1.2.4 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
Fie ecuaţia liniară în n variabile (1.2.2). Se numeşte mulţimea soluţiilor ecuaţiei,
mulţimea n-uplelor ordonate (x1,...,xn) care satisfac ecuaţia.

S= {( x , x
1 2 }
,K , x n ) | a1 x1 + a 2 x 2 +K+ a n x n = b (1.2.4)

■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Ca şi în cazul ecuaţiilor în două variabile, mulţimea S este infinită.

Reper cartezian

Definiţia 1.2.5 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


O dreaptă d pe care s-au luat: un punct O numit origine, un sens de parcurgere (pozitiv)
şi o unitate de măsură exprimată printr-un segment (considerat de lungime 1) se numeşte
axă de coordonate.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Notaţie: Ox

Definiţia 1.2.6 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Fie (Ox, Oy) o pereche ordonată de axe de coordonate cu originea comună O. Acest
ansamblu se numeşte reper cartezian. Dacă cele două axe de coordonate sunt
perpendiculare, atunci reperul cartezian se numeşte drept sau rectangular.
Axa Ox se numeşte abscisă, iar axa Oy se numeşte ordonată.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Notaţie: xOy

Folosind un reper rectangular, fiecare punct din plan


y poate fi identificat unic printr-o pereche ordonată unică de
M(x1, y1)
numere numite coordonatele punctului. Invers, fiecărei
perechi ordonate de numere (x, y) îi corespunde un punct unic
în plan.
y1 În figura 1.2.1 este figurat un punct M(x1, y1) într-un
reper ortogonal xOy.

O x1 x
Fig. 1.2.1

Reprezentarea grafică a unei ecuaţii liniare


A reprezenta grafic o ecuaţie liniară înseamnă a reprezenta într-un reper ortogonal
mulţimea S soluţiilor sale. Fiecare soluţie a ecuaţiei (1.2.1) fiind o pereche ordonată de numere
(x, y), ea poate fi reprezentată ca un punct în plan. De exemplu, dacă x =1 şi y = 3 satisfac o
ecuaţie liniară în două variabile, atunci reprezentarea grafică a acestei soluţii este punctul de
coordonate (1, 3) din plan.

Teorema 1.2.1 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Mulţimea S a soluţiilor unei ecuaţii liniare în două variabile reprezentată grafic într-un
reper cartezian ortogonal este o dreaptă.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Rezultă că, pentru a face reprezentarea grafică a ecuaţiei, este suficient să se determine
două soluţii ale sale. Fiecare soluţie va fi reprezentată printr-un punct în reperul cartezian
bidimensional. Cele două puncte determină dreapta care reprezintă mulţimea soluţiilor ecuaţiei.
y Exemplu:
Să se reprezinte grafic ecuaţia 2x + 4y = 16.
A(0, 4) Trebuie găsite două soluţii ale ecuaţiei pentru a
determina dreapta care este reprezentarea tuturor soluţiilor.
B(8, 0) pentru x = 0 ⇒ y = 4 ⇒ (0, 4) este soluţie
pentru y = 0 ⇒ x = 8 ⇒ (8, 0) este soluţie
O x Reprezentarea este ilustrată în figura 1.2.2.

Fig. 1.2.2

Corespondenţa între mulţimea soluţiilor unei ecuaţii de gradul întâi în două variabile şi
mulţimea punctelor din plan care formează o dreaptă, face utilă trecerea în revistă a câtorva
elemente privind geometria analitică a dreptei în plan.
Prima remarcă în acest sens este că ecuaţia liniară în două variabile în formă generală
(1.2.1) coincide cu ecuaţia unei drepte în formă generală.

Intersecţii cu axele
Atunci când se fac reprezentări grafice ale unei drepte într-un reper cartezian, două puncte
de interes sunt intersecţiile cu axele de coordonate.
Intersecţia dreptei cu axa Ox este punctul care se obţine făcând y = 0.
Intersecţia dreptei cu axa Oy este punctul care se obţine făcând x = 0.
În exemplul ilustrat în figura 1.2.2 aceste puncte au fost calculate şi sunt A(0,4) şi B(8,0).

Ecuaţia x = k
O formă particulară a ecuaţiei ax + by = c se obţine pentru b =0. Ecuaţia devine
c
ax = c sau x =
a
c
Notând = k rezultă o forma particulară
a

y
x=k (1.2.5)
x=k
Această ecuaţie liniară are un caracter special în
k sensul că x este egal cu k, indiferent cât este valoarea lui y.
Consecinţa este că graficul unei astfel de ecuaţii este o
dreaptă paralelă cu axa Oy.
O x O astfel de dreaptă este trasată în figura 1.2.3.

Fig. 1.2.3

Ecuaţia y = k
O altă formă particulară a ecuaţiei ax + by = c se obţine pentru a =0. Ecuaţia devine
c
by = c sau y =
b
c
Notând = k rezultă o forma particulară
b
y
y=k (1.2.6)
y=k
Această ecuaţie liniară are un caracter special în
k sensul că y este egal cu k, indiferent cât este valoarea lui x.
Consecinţa este că graficul unei astfel de ecuaţii este o
dreaptă paralelă cu axa Ox.
O x O astfel de dreaptă este trasată în figura 1.2.4.

Fig. 1.2.4

Rezolvaţi exerciţiile 1 până la 8 de la pagina 1 - 34.

Panta
Orice dreaptă, cu excepţia celor verticale, este caracterizată de pantă. Panta indică
măsura în care se modifică valoarea lui y ca răspuns la o modificare a valorii lui x. Panta este
exprimată printr-un număr real. Semnul acestuia indică tendinţa crescătoare sau descrescătoare a
dreptei.
Panta pozitivă indică un caracter crescător al dreptei
y d4
adică, pe măsura creşterii valorilor lui x, cresc şi valorile lui y
(ca dreapta d1 din figura 1.2.5).
d3 (0) Panta negativă indică un caracter descrescător al
dreptei adică, pe măsura creşterii valorilor lui x, valorile lui y
d1 (+)
descresc (ca dreapta d2 din figura 1.2.5).
d2 (-) Valoarea zero a pantei arată că dreapta este paralelă
cu axa Ox (nu este nici crescătoare nici descrescătoare, ca
O x dreapta d3 din figura 1.2.5).
Se consideră că pentru dreptele paralele cu Oy panta
Fig. 1.2.5
este nedefinită (ca dreapta d4 din figura 1.2.5).
Nu numai semnul pantei este important, ci şi valoare
absolută a acesteia. Cu cât valoarea absolută a pantei este mai mare, cu atât variaţia lui y este mai
mare în raport cu o aceeaşi creştere a lui x.

y y
d2
d2

d1 d1

O x O x
Fig. 1.2.6 Fig. 1.2.7

În figura 1.2.6 sunt două drepte care au pantă pozitivă, dar panta lui d2 este mai mare
decât panta lui d1. În figura 1.2.7 sunt două drepte care au pantă negativă, dar panta lui d2 este
mai mare, în valoare absolută, decât panta lui d1.
Următoarea definiţie sintetizează cele discutate mai sus şi introduce o modalitate de calcul
a pantei unei drepte determinate de două puncte.

Definiţia 1.2.7 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Fie punctele M(x1, y1) şi N(x2, y2) cu x1 ≠ x2.
Se defineşte panta dreptei determinate de punctele M şi N prin

y 2 − y1 (1.2.7)
m=
x 2 − x1

■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Figura 1.2.8 ilustrează calcularea pantei definite prin relaţia 1.2.7.


yy2
N(x2, y2)
y2 - y1

y1 M(x1, y1)

x2 - x1
α
x1 x2
O x
Fig. 1.2.8

O altă interpretare a pantei este dată de următoarea definiţie

Definiţia 1.2.8 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Panta dreptei este variaţia valorii lui y atunci când x creşte cu o unitate.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

În conformitate cu definiţia 1.2.8, dacă o dreaptă are panta 8 3 , aceasta înseamnă că, dacă
x creşte cu o unitate, y va creşte cu 8 3 unităţi.
O altă interpretare a pantei rezultă imediat din figura 1.2.8 în care se evidenţiază faptul că
dreapta face cu abscisa un unghi α măsurat de la Ox în sens trigonometric (sensul contrar rotirii
acelor de ceasornic, aşa cum indică săgeata).

Definiţia 1.2.9 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Panta dreptei este tangenta unghiului α (măsurat în sens trigonometric) pe care dreapta îl
face cu axa Ox.

m = tg α (1.2.7')

■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

În afară de ecuaţia generală (1.2.1), o dreaptă mai poate avea şi alte forme de ecuaţii. Ele
sunt enumerate în continuare.

Ecuaţia prin pantă şi tăietură


Plecând de la ecuaţia generală (1.2.1) se poate obţine o nouă formă făcând transformările
de mai jos

a c
ax + by = c ⇔ by = − ax + c ⇔ y=− x+
b b
a c
Notând − = m şi = k se obţine
b b

y = mx + k (1.2.8)

Relaţia (1.2.8) se numeşte ecuaţia dreptei prin


pantă şi tăietură. Notaţiile alese exprimă tocmai
y faptul că m este panta dreptei, iar k este tăietura
acesteia cu axa Oy (figura 1.2.9).
Într-adevăr:
- pentru x = 0 se obţine y = k, deci punctul de
coordonate (0, k) este intersecţia dreptei cu Oy;
α
k - pentru o creştere unitară x2 - x1 = 1 avem
y 2 − y1 = mx 2 + k − (mx1 + k ) = m( x 2 − x1 ) = m , iar
O x relaţia obţinută arată că o creştere cu o unitate a lui x
Fig. 1.2.9 determină o variaţie cu m a lui y. Conform definiţiei
1.2.8 rezultă că m din relaţia (1.2.8) este chiar panta
dreptei.

Ecuaţia prin pantă şi un punct


Un alt caz este acela în care se cunoaşte panta m a dreptei şi un punct (x0, y0) al acesteia.
Coordonatele punctului vor verifica, deci, ecuaţia (1.2.8). Avem:

y 0 = mx 0 + k ⇔ k = y 0 − mx 0

Înlocuind expresia lui k în ecuaţia prin pantă şi tăietură (1.2.8), după efectuarea calculelor
rezultă expresia

y − y 0 = m( x − x 0 ) (1.2.9)

care se numeşte ecuaţia dreptei prin pantă şi un punct.

Ecuaţia prin două puncte


Dacă se cunosc (figura 1.2.10) coordonatele a două
y puncte de pe dreaptă A(x1, y1) şi B(x2, y2), se poate determina o
nouă formă a ecuaţiei plecând de la faptul că A şi B verifică
atât ecuaţia prin pantă şi tăietură (1.2.8) cât definiţia 1.2.7 a
B(x2, y2) pantei. Astfel,
A(x1, y1)

O x
Fig. 1.2.10
y1 = mx1 + k
y 2 − y1 y 2 − y1
y − y1 ⇔ y1 = x1 + k ⇔ k = y1 − x1
m= 2 x 2 − x1 x 2 − x1
x 2 − x1

Înlocuind acum relaţiile pentru m şi k în ecuaţia prin pantă şi tăietură (1.2.8), rezultă

y 2 − y1 y − y1
y= x + y1 − 2 x1
x 2 − x1 x 2 − x1

Prin prelucrarea relaţiei de mai se sus se pot obţine următoarele trei forme care reprezintă
variante pentru ecuaţia dreptei prin două puncte:

x y 1
y − y1 y − y1 x − x1
y − y1 = 2
x 2 − x1
( x − x1 ) =
y 2 − y1 x 2 − x1
x1 y1 1=0 (1.2.10)
x2 y2 1

(a ) (b) ( c)

Ecuaţia prin tăieturi


În cazul în care se cunosc intersecţiile dreptei cu axele,
y A(a, 0) şi B(0, b), acestea se pot înlocui într-una din formele
B(0, b) ecuaţiei prin două puncte, de exemplu (1.2.10b). După
prelucrări elementare rezultă

x y (1.2.11)
+ −1= 0
a b
A(a, 0)
O x
cunoscută ca ecuaţia dreptei prin tăieturi.
Fig. 1.2.11

Rezolvaţi exerciţiile 9 până la 18 de la pagina 1 - 34.

Poziţiile relative a două drepte


Două drepte d1 şi d2 sunt:
♦ paralele dacă şi numai dacă intersecţia lor este mulţimea vidă;
♦ coincidente dacă şi numai dacă intersecţia lor este o dreaptă;
♦ secante dacă şi numai dacă intersecţia lor este un punct.
Fie, atunci, două drepte în formă explicită, d1: y1 = m1x + k1 şi d1: y2 = m2x + k2. Acestea sunt:
♦ paralele dacă şi numai dacă m1 = m2 şi k1 ≠ k2;
♦ coincidente dacă şi numai dacă m1 = m2 şi k1 = k2;
♦ secante dacă şi numai dacă m1 ≠ m2;
♦ perpendiculare dacă şi numai dacă m1m2 = -1.
Fie două drepte în formă generală, d1: a1x + b1y = c1 şi d2: a2x+ b2y = c2. Ele sunt:
a1 b1 c1
♦ paralele dacă şi numai dacă = ≠ ;
a 2 b2 c2
a b c
♦ coincidente dacă şi numai dacă 1 = 1 = 1 ;
a 2 b2 c2
a b
♦ secante dacă şi numai dacă 1 ≠ 1 ;
a 2 b2
♦ perpendiculare dacă şi numai dacă a1a2 + b1b2 = 0.

Distanţe
Fiind date punctele A(x1, y1) şi B(x2, y2), se arată uşor,
y aplicând teorema lui Pitagora în triunghiul ABP (figura 1.2.12)
că distanţa între A şi B este:
y2
B(x2, y2)
( x 2 − x1 ) + ( y 2 − y1 ) (1.2.12)
2 2
y1 AB =
A(x1, y1) P(x2, y1)

O x1 x2 x
Fig. 1.2.12

Dându-se dreapta h: ax + by = c şi punctul P(x0, y0)


y exterior acesteia (figura 1.2.13), se poate arăta că distanţa de la
punctul P la dreapta h se calculează cu relaţia:
P(x0, y0)

ax 0 + by 0 − c
d ( P; h) = (1.2.13)
2 2
a +b
h

O x
Fig. 1.2.13

Reprezentări pentru ecuaţii liniare în mai mult de două variabile

Pentru ecuaţii liniare în mai mult de două variabile considerentele algebrice rămân
aceleaşi dar, reprezentările grafice se schimbă sau nu mai sunt posibile.
Ecuaţiile liniare în trei variabile,de forma generală
a1x1 + a2x2 + a3x3 = b (1.2.14)

se reprezintă grafic prin plane într-un reper cartezian tridimensional. Reprezentarea se face
aflând punctele de intersecţie ale planului cu axele de coordonate Ox1, Ox2, Ox3.
Proprietate. O ecuaţie de forma xj = k, j = 1, 2, 3 va avea ca grafic un plan perpendicular
pe axa Oxj şi care este situat la distanţa k de origine.
Pentru ecuaţiile liniare în mai mult de trei variabile reprezentarea grafică nu este posibilă.
Se foloseşte, în acest caz, noţiunea de hiperplan ca fiind o reprezentare geometrică abstractă a
ecuaţiei. Astfel, se spune că o ecuaţie liniară în n variabile

a1x1 + a2x2 + ... + anxn = b, n>3

este un hiperplan într-un spaţiu cu n dimensiuni.

1.3 Sisteme de ecuaţii liniare


După cum se va vedea în capitolul 2, multe fenomene din lumea reală se pot modela cu
ajutorul sistemelor de ecuaţii liniare. Această secţiune le este dedicată.

Definiţia 1.3.1 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Se numeşte sistem (liniar) de m ecuaţii cu n necunoscute ansamblul de ecuaţii liniare

a11 x1 + a12 x 2 + K + a1n x n = b1


a x + a x + K + a x = b a ij ∈R , bi ∈R
 21 1 22 2 2n n 2 (1.3.1)

 ........................................... 1 ≤ i ≤ m, 1 ≤ j ≤ n
a m1 x1 + a m2 x 2 + K + a mn x n = bm

Variabilele x1, x2, ..., xn ∈ R se numesc necunoscutele sistemului;


aij 1 ≤ i ≤ m, 1 ≤ j ≤ n se numesc coeficienţii sistemului;
bi 1 ≤ i ≤ m se numesc termenii liberi.
Matricele

 a11 a12 K K a1n   a11 a12 K a1n b1 


   
a a 22 K K a 2n  ~  a 21 a 22 K a 2n b2 
A =  21 şi A =  (1.3.2)
K K K K K K K K K K
   
 a m1 a m2 K K a mn   a m1 a m2 K a mn bm 

se numesc:
A(m, n) - matricea coeficienţilor sistemului sau, simplu, matricea sistemului şi
Ã(m, n+1) - matricea extinsă a sistemului.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Dacă pentru necunoscute şi termenii liberi se folosesc vectorii coloană

 x1   b1 
   
x b
X =  2 şi B= 2 (1.3.3)
 M  M
   
 xn   bm 

atunci sistemul (1.3.1) se poate scrie sub forma matriceală

AX = B (1.3.1')

Dimensiunea matricei sistemului fiind foarte importantă, adesea se folosesc expresiile


sistem m × n sau sistem m pe n.

Un sistem liniar se numeşte omogen dacă bi = 0, 1 ≤ i ≤ m deci dacă termenii liberi sunt
toţi nuli; în caz contrar sistemul se numeşte neomogen.

Definiţia 1.3.2 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Se numeşte soluţie a unui sistem liniar de forma (1.3.1) un n-uplu (x1, x2, ..., xn) care
verifică simultan toate cele m ecuaţii ale acestuia.
Sistemul (1.3.1) se numeşte compatibil dacă are cel puţin o soluţie şi incompatibil în caz
contrar.
Un sistem compatibil se numeşte compatibil determinat dacă are o singură soluţie şi se
numeşte compatibil nedeterminat dacă are mai multe soluţii.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

După cum se vede şi din definiţia 1.3.2, problema fundamentală în legătură cu un sistem
liniar este determinarea mulţimii S a soluţiilor sale, adică a tuturor n-uplelor care verifică
simultan toate ecuaţiile, precum şi încadrarea lui din acest punct de vedere. În legătură cu această
problemă următoarele rezultate sunt esenţiale.

Teorema 1.3.1 (Kronecker-Capelli) ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Fie rangul matricei sistemului rang A = p şi rangul matricei extinse rang à = q.
Atunci sistemul (1.3.1) este compatibil dacă şi numai dacă p = q.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Consecinţa imediată a teoremei Kronecker-Capelli este că stabileşte situaţiile în care se


poate afla un sistem liniar din punctul de vedere al numărului de soluţii. Astfel, se poate
demonstra că este valabilă următoarea

Clasificare ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
Fiind dat un sistem liniar de m ecuaţii cu n necunoscute, există următoarele trei
posibilităţi şi numai acestea:
I. sistemul este compatibil determinat (are soluţie unică); aceasta se întâmplă dacă
rangul matricei sistemului este egal cu rangul matricei extinse şi egal cu numărul
necunoscutelor:
rang A = rang à = n
II. sistemul este compatibil nedeterminat (are o infinitate de soluţii); aceasta se întâmplă
dacă rangul matricei sistemului este egal cu rangul matricei extinse, dar mai mic decât
numărul necunoscutelor:
rang A = rang à şi rang A < n
III. sistemul este incompatibil (nu are nici o soluţie); aceasta se întâmplă dacă rangul
matricei sistemului este mai mic decât rangul matricei extinse:
rang A < rang Ã
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Reprezentări grafice pentru sisteme de ecuaţii cu două necunoscute


În cazul sistemelor cu două necunoscute ecuaţiile se pot reprezenta ca drepte în plan, aşa
cum a fost arătat în paragraful 1.2.2. Un sistem de două ecuaţii cu două necunoscute

 a 1 x + b1 y = c1 (1.3.4)

a 2 x + b2 y = c2

se reprezintă ca două drepte în plan, iar mulţimea soluţiilor

S= {( x , y) | a x + b y = c
1 1 1 ∧ a 2 x + b2 y = c2 } (1.3.5)

va fi formată din acele puncte care aparţin simultan ambelor drepte care pot fi notate, respectiv,
d1 şi d2. Interpretarea grafică duce la situaţiile ilustrate în figurile 1.3.1, a, b şi c.

y y y
d1
d1
d2 d2
y0 d1

O x0 x O x O x
d2

a) b) c)

Fig. 1.3.1
În figura 1.3.1.a dreptele secante d1 şi d2 sunt interpretarea geometrică a unui sistem
compatibil determinat; punctul lor de intersecţie reprezintă soluţia unică, adică S = {(x0, y0)Ţ.
Dreptele paralele din figura 1.3.1.b sunt interpretarea geometrică a unui sistem incompatibil;
absenţa punctelor comune ilustrează lipsa soluţiilor, adică S = ∅. Figura 1.3.1.b este
reprezentarea grafică a unui sistem compatibil nedeterminat; dreptele d1 şi d2 sunt coincidente,
ceea ce ilustrează faptul că mulţimea S este formată dintr-o infinitate de soluţii.
Interpretări geometrice sunt posibile şi pentru sisteme m × 2. Figurile 1.3.2, a, b şi c
ilustrează situaţiile posibile pentru un sistem de 3 ecuaţii cu două necunoscute, respectiv sistem
compatibil determinat, sistem incompatibil şi sistem compatibil nedeterminat.

y y
d1 y
d1
d3 d2 d3
y0
d1
O x0 x O x
d2 O x
d3 d2
a) b) c)

Fig. 1.3.2

Reprezentările grafice discutate mai sus sunt o ilustrare sugestivă a clasificării pentru
sistemele liniare care este indusă de teorema Kronecker-Capelli.
Definiţia următoare şi cele trei transformări care vor fi enunţate după aceasta sunt de mare
importanţă pentru cele ce vor fi abordate în restul acestui capitol, precum şi în următorul.

Definiţia 1.3.3 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Două sisteme de ecuaţii se numesc echivalente dacă au aceeaşi mulţime S a soluţiilor.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Definiţia 1.3.4 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Se numeşte transformare elementară asupra unui sistem de ecuaţii liniare, aplicarea
uneia dintre următoarele operaţii:
T1. Înmulţirea unei ecuaţii cu un număr diferit de zero;
T2. Adunarea unei ecuaţii la o altă ecuaţie;
T3. Schimbarea ordinii ecuaţiilor.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Evident, aplicarea fiecăreia dintre cele trei transformări elementare asupra sistemului
determină o transformare a matricei extinse Ã. De aceea se pot defini corespunzător
transformările elementare ale acesteia.

Definiţia 1.3.4' ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Se numeşte transformare elementară asupra matricei extinse à a unui sistem de ecuaţii
liniare, aplicarea uneia dintre următoarele operaţii:
T1. Înmulţirea unei linii cu un număr diferit de zero;
T2. Adunarea unei linii la o altă linie, element cu element;
T3. Schimbarea ordinii liniilor.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Aplicarea unei transformări elementare asupra sistemului înseamnă aplicarea


transformării elementare corespunzătoare asupra matricei extinse şi invers. De aceea, în
definiţiile 1.3.4 şi 1.3.4', s-a folosit aceeaşi numerotare a transformărilor.

Teorema 1.3.2 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Orice sistem liniar se transformă într-un sistem echivalent prin aplicarea unei succesiuni
arbitrare de transformări echivalente.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Fie acum un sistem de m ecuaţii cu n necunoscute de forma (1.3.1), compatibil


(determinat sau nedeterminat) şi fie rang A = rang à = p; evident, p ≤ min(m, n). Rezultă,
conform definiţiei rangului, că există cel puţin un minor de ordinul p diferit de zero. Fie P(p,p)
matricea corespunzătoare acestui minor. Pentru simplitate, dar fără a afecta generalitatea, se poate
presupune că P este formată chiar din primele p linii şi p coloane ale matricei A:

 a11 a12 K K a1 p 
 
a 21 a 22 K K a2 p 
P =  (1.3.6)
K K K K K
 
 a p1 a p2 K K a pp 

Definiţia 1.3.5 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Determinantul matricei P, det(P) ≠ 0, se numeşte minor principal al sistemului (1.3.1).
Ecuaţiile sistemului care corespund liniilor lui P se numesc ecuaţii principale, iar
celelalte ecuaţii se numesc ecuaţii secundare.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Sistemul format cu ecuaţiile principale este deci, conform relaţiei (1.3.6),

a11 x1 + a12 x 2 + K + a1n x n = b1


a x + a x + K + a x = b
 21 1 22 2 2n n 2 (1.3.7)

 ...........................................
a p1 x1 + a p 2 x 2 + K + a pn x p = b p

Teorema 1.3.3 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Sistemul (1.3.1) şi sistemul (1.3.7) format cu ecuaţiile principale sunt sisteme echivalente.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
Din teorema 1.3.3 rezultă că ecuaţiile secundare ale unui sistem, dacă există astfel de
ecuaţii, pot fi eliminate fără ca aceasta să modifice mulţimea soluţiilor. Se mai poate arăta că
ecuaţiile secundare sunt combinaţii liniare ale ecuaţiilor principale.
Definiţiile 1.3.4 şi 1.3.4', precum şi teorema 1.3.2 permit introducerea unei metode foarte
convenabile de rezolvare a sistemelor de ecuaţii liniare. Metoda permite, de asemenea, eliminarea
ecuaţiilor secundare din cadrul sistemului astfel încât în final să se obţină un sistem format numai
din ecuaţii principale.

Rezolvarea sistemelor de ecuaţii prin metoda eliminării complete


Fie, pentru început, următorul exemplu de sistem de trei ecuaţii cu trei necunoscute:

4 x1 − 2 x 2 − x 3 = 9
 (1.3.8)
 x1 − 3 x 2 + 2 x 3 = 7
 x + x + x =2
 1 2 3

Rezolvând sistemul folosind, de exemplu, regula lui Cramer, se obţine soluţia x1 = 2, x2 =


-1, x3 = 1. Cu alte cuvinte, sistemul (1.3.8) este echivalent cu sistemul

 x1 = 2
 (1.3.9)
 x2 = −1
 x3 = 1

Se pune problema cum s-ar putea face trecerea sistemului dat de la forma (1.3.8) la forma
finală (1.3.9) aplicând transformări elementare. Metoda eliminării complete îşi propune tocmai
ca, prin transformări elementare, să aducă un sistem de la forma sa iniţială la o formă care să
permită citirea directă a soluţiei. Deci, pentru un sistem 3 × 3,

 a11 x1 + a12 x 2 + a13 x 3 = b1  x1 = v1


 
a12 x1 + a 22 x 2 + a 23 x 3 = b2 ⇔ ... ⇔  x2 = v2 (1.3.10)
a x + a x + a x = b  x3 = v2
 31 1 32 2 33 3 3 

forma iniţială transformări soluţie


elementare

De fapt, metoda acţionează asupra matricei extinse à a sistemului, deci asupra liniilor
acesteia se fac transformările:

a11 a12 a13 b1 1 0 0 v1


a12 a 22 a 23 b2 ⇔ ... ⇔ 0 1 0 v2 (1.3.11)
a 31 a 32 a 33 b3 0 0 1 v3
forma iniţială transformări soluţie
elementare

După cum se observă din (1.3.11), soluţia sistemului, x1 = v1, x2 = v2, x3 = v3, poate fi citită
direct de pe matricea extinsă. Pentru sisteme de n ecuaţii cu n necunoscute metoda este cunoscută
şi sub numele de metoda Gauss-Jordan şi constă în transformarea unui sistem de ecuaţii liniare
care are o matrice a coeficienţilor pătratică, într-un sistem echivalent care are ca matrice a
coeficienţilor, chiar matricea unitate.
Generalizarea pentru sisteme m × n este simplă: ideea centrală a metodei eliminării
complete este de a aduce matricea extinsă a sistemului la o formă care să conţină în partea
stângă numărul maxim posibil de coloane ale matricei unitate.
Metoda se aplică iterativ, începând cu coloana 1; la fiecare iteraţie se obţine o nouă
coloană a matricei unitate păstrând, bineînţeles, coloanele obţinute la etapele anterioare.
Procesul de obţinere a unei coloane a matricei unitate se numeşte pivotaj şi se realizează
efectuând transformări elementare asupra liniilor. Pivotajul se desfăşoară în două etape care sunt
descrise în continuare.

Etapele pivotajului ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Fie j coloana asupra căreia se execută pivotajul. Pivotul va fi elementul ajj.
A. Se creează elementului egal cu 1 pe poziţia (j, j). Pentru ca aceast lucru să fie posibil
trebuie ca ajj să fie nenul.
A1. Dacă ajj ≠ 0, atunci se împarte linia j la valoarea ajj (se aplică T1) şi se trece la
etapa B.
A2. Dacă ajj = 0, se caută printre aj+1,j, ..., an,j (adică pe coloana j, sub ajj), un element
nenul;
• Dacă printre aj+1,j, ..., an,j se găseşte un element akj ≠ 0 (j < k ≤ n), atunci se
inversează între ele liniile j şi k (se aplică T3), se obţine astfel ajj ≠ 0, după
care se poate face 1 pe poziţia (j, j) împărţind linia j la valoarea ajj.
• Dacă printre aj+1,j, ..., an,j nu se găseşte nici un element diferit de zero, atunci
se întrerupe pivotajul pe această coloană şi se trece la următoarea.
B. Se transformă în zerouri toate elementele de pe coloană în afara pivotului. Pentru
aceasta se înmulţeşte linia j, a pivotului, cu o valoare convenabilă, adunând-o apoi la
linia în care trebuie să se obţină zeroul (se aplică T1, apoi T2). Astfel, obţinerea pe
poziţia (l, j) a unui zero în locul valorii alj, se face înmulţind linia j (pe care se află
pivotul ajj =1) cu valoarea -alj şi adunând-o la linia l.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

După pivotajul unei coloane se fac următoarele verificări:


Verificarea 1. Se controlează dacă pe vreo linie s-au obţinut zerouri în zona coeficienţilor
sistemului şi o valoare diferită de zero pe poziţia termenului liber. În acest caz pivotajul se
întrerupe: sistemul este incompatibil. Următorul exemplu ilustrează de ce. Să presupunem că,
pentru un sistem de trei ecuaţii cu trei necunoscute se obţine, la un moment dat, matricea extinsă
1 5 −2 2
0 − 6 3 −1
0 0 0 6

Aceasta înseamnă că, prin transformări elementare, s-a ajuns de la sistemul iniţial la sistemul
echivalent

 x1 + 5x 2 − 2 x 3 = 2

 − 6 x 2 + 3x 3 = −1
 0 = 6

Faptul că, în forma la care s-a ajuns, ultima ecuaţie nu are sens denotă că atât acest sistem cât şi
cel iniţial, cu care este echivalent, sunt incompatibile. Aceleaşi consideraţii se pot face, evident,
pentru orice alt sistem adus în această situaţie.
Verificarea 2. Se controlează dacă pe vreo linie s-au obţinut numai zerouri, inclusiv pe
poziţia termenului liber. Atunci linia respectivă poate fi eliminată pentru că ecuaţia
corespunzătoare ei este o combinaţie liniară a celorlalte ecuaţii din sistem (este o ecuaţie
secundară). Se va continua rezolvarea sistemului rămas după eliminarea ecuaţiei secundare. De
exemplu, dacă pentru un sistem de trei ecuaţii cu trei necunoscute se obţine, după primul pivotaj,
matricea extinsă

1 5 −2 2
0 0 0 0
0 3 8 6

atunci această matrice corespunde sistemului, echivalent cu cel iniţial,

 x1 + 5x 2 − 2 x 3 = 2

 0=0
 3x 2 + 8 x 3 = 6

Ecuaţia a doua a sistemului iniţial, fiind o combinaţie liniară a celorlalte două, a devenit
identitatea 0 = 0 şi poate fi eliminată. Rămâne de rezolvat un sistem cu două ecuaţii.

Exemplul 1.3.1
4 x1 − 2 x 2 − x 3 = 9

Să se rezolve sistemul (1.3.8):  x1 − 3x 2 + 2 x 3 = 7
 x + x + x =2
 1 2 3
Este convenabilă, dar nu obligatorie, organizarea calculelor într-o formă tabelară ca cea alăturată.
4 -2 -1 9 ⋅ (− 14)
Pentru fiecare coloană se observă cele
1 -3 2 7
două etape ale pivotajului:
1 1 1 2
1 − 12 − 14 9
4 (-1) (-1) A. Stabilirea pivotului şi aducerea sa
1 -3 2 7 la valoarea 1; în această etapă este
1 1 1 2 notată alături de tabel valoarea
1 − 1
2 − 1
4
9
4 convenabilă cu care trebuie
0 − 52 9
4
19
4 (− 2 5 ) înmulţită linia.
B. Crearea de zerouri pe restul
0 3
2
5
4 − 14
coloanei; pentru această etapă sunt
1 − 12 − 14 9
4 notate alături valorile convenabile
0 1 − 9 10 − 19 10 1
2 − 32 cu care trebuie înmulţită linia
0 3
2
5
4 − 14 pivotului înainte de a fi adunată o
1 0 − 10 7 − 10
13 altă linie, iar săgeţile indică liniile la
0 1 − 9
10 − 19
10
care se face adunarea.
0 0 13
5
13
5 ( 513)
1 0 − 7 10 − 1310
0 1 − 9 10 − 19 10
0 0 1 1 (9 10) (7 10)
1 0 0 2
0 1 0 -1
0 0 1 1

Exemplul 1.3.2
 4 x1 − 2 x 2 − x 3 = 9
 x − 3x + 2 x = 7

Să se rezolve sistemul:  1 2 3
7
 1 x + 10 x 2 − 8 x 3 = 34
 x1 + x 2 + x 3 = 2

Succesiunea de sisteme echivalente obţinute prin aplicarea transformărilor elementare este


ilustrată de matricele extinse corespunzătoare:

2 −1 −1 2 1 − 12 − 12 1 1 − 12 − 12 1
1 4 − 2 10 1 4 − 2 10 0 9 2 − 32 9
⇔ ⇔ ⇔
7 10 − 8 34 7 10 − 8 34 0 27 2 − 9 2 27
1 − 2 2 10 1 −2 2 10 0 − 32 52 9
1 − 12 − 12 1 1 0 − 23 2 S-a obţinut o linie( a treia)
0 1 − 13 2 0 1 − 13 2 formată numai din zerouri,
⇔ ⇔ inclusiv termenul liber; conform
0 27 2 − 9 2 27 0 0 0 0
verificării 2, ea va fi eliminată
0 − 32 52 9 0 0 2 12

1 0 − 23 2 1 0 06 Sistemul este compatibil


⇔ 0 1 − 3 2 ⇔ 0 1 04
1 determinat şi are soluţia:
0 0 1 6 0 0 16
x1 = 6; x2 = 4; x3 = 6

Exemplul 1.3.3
− 2 x1 + x 2 + 3x 3 = 12

Să se rezolve sistemul:  x1 + 2 x 2 + 5x 3 = 10
 6 x − 3x − 9 x = 24
 1 2 3

Succesiunea de sisteme echivalente obţinute prin aplicarea transformărilor elementare este


ilustrată de matricele extinse corespunzătoare:

−2 1 3 12 1 − 12 − 3 2 − 6 1 − 12 − 3 2 − 6
1 2 5 10 ⇔ 1 2 5 10 ⇔ 0 52 13
2 16
6 − 3 − 9 24 6 − 3 − 9 24 0 0 0 60

Ultima linie a matricei extinse la care s-a ajuns a fost scoasă în evidenţă pentru că arată că
s-a ajuns la o situaţia care, conform verificării 1, semnalează un sistem incompatibil.

Exemplul 1.3.4
 x1 + x 2 + x 3 = 20

Să se rezolve sistemul: 2 x1 − 3x 2 + x 3 = −5
6 x − 4 x + 4 x = 30
 1 2 3

Succesiunea de sisteme echivalente obţinute prin aplicarea transformărilor elementare este


ilustrată de matricele extinse corespunzătoare:

1 1 1 20 1 1 1 20 1 1 1 20 1 0 4
5 11
2 − 3 1 − 5 ⇔ 0 − 5 − 1 − 45 ⇔ 0 1 1
5 9 ⇔ 0 1 1
5 9
6 − 4 4 30 0 − 10 − 2 − 90 0 − 10 − 2 − 90 0 0 0 0
După eliminarea ecuaţiei secundare reprezentate de linia a treia formată doar din zerouri
rămâne un sistem compatibil nedeterminat care are necunoscutele principale x1 şi x2, iar
necunocuta secundară este x3. Notând x3 cu α ∈R rezultă că soluţiile se pot scrie:

 4
 x1 = 11 − 5 α
 , α ∈R
1
 x2 = 9 − α
 5

Este clar că, aplicând verificarea 2 după fiecare pivotaj, se vor elimina până în final toate
ecuaţiile secundare (dacă au existat astfel de ecuaţii), iar sistemul rămas va fi format numai din
ecuaţii principale, iar matricea unitate obţinută va avea ordinul egal cu numărul de ecuaţii.
Rezolvaţi exerciţiile 19 până la 24 de la pagina 1-34.

Definiţia 1.3.6 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Se spune că un sistem de ecuaţii liniare este explicitat dacă matricea sistemului conţine
toate coloanele matricei unitate de ordin egal cu numărul ecuaţiilor sistemului.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Conform definiţiei 1.3.6, pentru un sistem compatibil, aplicarea metodei eliminării


complete duce în final la o formă explicită a acestuia. Se poate spune, deci, că rezolvarea
sistemului este acelaşi lucru cu explicitarea sa.
Pe de altă parte, deşi s-a enunţat faptul că metoda eliminării complete se aplică coloană cu
coloană începând cu prima, trebuie remarcat că definiţia 1.3.6 presupune doar prezenţa tuturor
coloanelor matricei unitate şi nu obligă neapărat ca ea să formeze un bloc în cadrul matricei
sistemului. Această observaţie se va dovedi importantă ceva mai târziu.
Teorema următoare asigură că, folosind metoda eliminării complete, se ajunge la o
concluzie asupra naturii sistemului liniar studiat.

Teorema 1.3.4 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Fie sistemul liniar (1.3.1) de m ecuaţii cu n necunoscute. Printr-un număr finit de
transformări elementare se obţine fie rezultatul că sistemul (1.3.1) este incompatibil, fie o
formă explicită a unui sistem echivalent cu (1.3.1).
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Definiţia 1.3.7 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Fie un sistem de ecuaţii liniare adus la o formă explicită.
Variabilele care corespund coloanelor matricei unitate se numesc variabile principale sau
variabile de bază, iar celelalte variabile se numesc variabile secundare sau variabile
nebazice.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
Vom insista în continuare asupra sistemelor compatibile, în special asupra celor
compatibile nedeterminat.
Ţinând cont de teorema 1.3.3 şi de faptul că prin aplicarea verificării 2 în metoda
eliminării complete se elimină ecuaţiile secundare, vom considera pentru moment că un sistem
compatibil nedeterminat are forma (1.3.1), dar ecuaţiile secundare sunt eliminate de la început.
Aşa cum se vede şi din exemplul 1.3.1, un sistem compatibil determinat nu are decât
variabile principale. Aducerea sa la forma explicită înseamnă obţinerea unui sistem echivalent
care are în partea stângă a matricei extinse doar matricea unitate şi nimic altceva. În această
formă, soluţia poate fi citită direct de pe ultima coloană, cea corespunzătoare termenilor liberi.
Reţinând şi presupunerea că sistemul nu are ecuaţii secundare, rezultă că poate fi compatibil
determinat doar un sistem n × n.
De un interes deosebit pentru elementele de programare liniară care vor fi abordate în
capitolul 2 sunt, însă, sistemele compatibile nedeterminat. Conform teoremei 1.3.3, un astfel de
sistem are rangul egal cu numărul ecuaţiilor, iar numărul ecuaţiilor este mai mic decât numărul de
necunoscute (m < n). El va avea m necunoscute principale şi n-m necunoscute secundare. Orice
formă explicită a sistemului va conţine, conform definiţiei 1.3.6, toate coloanele matricei unitate
de ordin egal cu numărul ecuaţiilor. Un astfel de sistem a fost rezolvat în exemplul 1.3.4. Pentru
forma explicită obţinută, variabilele principale sunt x1, x2, iar variabila secundară este x3.
Variabilele principale se exprimă în funcţie de variabilele secundare care pot primi orice valori
reale; în acest fel se obţine infinitatea de soluţii care a fost enunţată la punctul II al clasificării
induse de teorema Kronecker-Capelli. Dintre soluţii, unele au o importanţă specială şi sunt
definite în continuare.

Definiţia 1.3.8 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Se numeşte soluţie de bază a sistemului liniar (1.3.1) de m ecuaţii cu n necunoscute orice
soluţie a sistemului obţinută în cadrul unei forme explicite prin egalarea cu zero a
variabilelor secundare.
Dacă soluţia de bază are exact m componente nenule ea se numeşte nedegenerată, iar
dacă are mai puţin de m componente nenule ea se numeşte degenerată.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Conform definiţiei 1.3.8 rezultă că soluţia de bază a formei explicite la care s-a ajuns
poate fi citită direct din matricea extinsă a acesteia. Ea formează ultima coloană, cea
corespunzătoare termenilor liberi. Exerciţiul din exemplul 1.3.4 este o ilustrare imediată.
Tot din definiţia soluţiei de bază rezultă că, în cadrul acesteia, cel puţin n - m variabile
sunt nule, adică variabilele secundare. Este, însă, posibil ca, din explicitare, să rezulte şi printre
variabilele principale unele egale cu zero. Se poate face, din acest punct de vedere, următoarea
clasificare a soluţiilor de bază ale unui sisteme liniar.

Definiţia 1.3.9 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Dacă o soluţie de bază are exact m componente nenule, ea se numeşte nedegenerată, iar
dacă are mai puţin de m componente nenule se numeşte degenerată.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Explicitarea unui sistem liniar în raport cu un grup dat de m variabile


Până acum s-a pus problema de a explicita un sistem liniar fără a interesa care vor fi
variabilele principale al sistemului aflat sub formă explicită; s-a considerat că ele sunt chiar
primele, în ordine începând cu x1. Mai mult, s-a considerat că sistemele discutate nu au ecuaţii
secundare pentru că, aplicând verificarea 2 la sfârşitul fiecărui pivotaj, acestea sunt oricum
eliminate.
În continuare vom renunţa la ideea simplificatoare că sistemul nu are ecuaţii secundare şi
nici nu vom mai aplica verificarea 2, prin care se elimină aceste ecuaţii, în cadrul metodei
eliminării complete. Aceasta deoarece sistemelor liniare despre care se discută în acest capitol şi
în următorul nu sunt simple exerciţii. Ele trebuie privite ca modele ale unor situaţii din lumea
reală: costuri sau profituri într-un fenomen economic, combinaţii ale unor factori tehnologici într-
un proces industrial sau agricol etc. Prin urmare, nu se poate renunţa la vreuna dintre ecuaţiile
sistemului pe motiv că ea este combinaţie liniară a celorlalte, pentru că astfel s-ar ignora
fenomenul pe care aceasta îl descrie în cadrul modelului.
Tot în acest context, al modelării unui fenomen din lumea reală, trebuie privită şi situaţia
următoare: se pune problema de a explicita un sistem de m ecuaţii cu n necunoscute în raport cu
un grup dat de m variabile (principale). Acest lucru nu este întotdeauna posibil. Astfel, ţinând
cont de ceea ce s-a discutat până acum, în cazul unui sistem compatibil care are ecuaţii
secundare (reductibile) nu se poate face explicitarea în raport cu nici un grup de m variabile. Ba
chiar şi în cazul unui sistem compatibil fără ecuaţii secundare s-ar putea ca explicitarea în raport
cu anumite grupuri de m variabile să nu fie posibilă.
Deci, explicitarea în raport cu un grup dat de m variabile cere să se realizeze prin
transformări elementare toate cele m coloane ale matricei unitate de ordinul m, dar acestea să
apară în anumite coloane ale matricei extinse. Pentru aceasta, se stabilesc cele m coloane care vor
fi supuse pivotajului (nu neapărat primele) şi se începe procesul de la stânga spre dreapta.
Presupunând că s-a făcut pivotajul primelor r-1 coloane din cele m alese, la pasul r se procedează
astfel:
Pe a r-a coloană aleasă se stabileşte poziţia l (linia) unde se doreşte să fie pivotul
Pivotajul se face în cele două etape, uşor modificate faţă de varianta descrisă anterior.

A. Se creează elementului egal cu 1 pe poziţia (l, r). Pentru ca aceast lucru să fie posibil
trebuie ca alr să fie nenul.
A1. Dacă alr ≠ 0, atunci se împarte linia l la valoarea alr (se aplică T1) şi se trece la
etapa B.
A2. Dacă alr = 0, se caută pe coloana r supusă pivotajului un element nenul care să
poată fi adus pe poziţia (l, r) prin schimbarea ordinii liniilor (transformarea T3).
Elementul căutat trebuie să nu fie pe una din liniile pe care se află deja pivoţi
egali cu 1 realizaţi în cele r-1 etape anterioare. Adică, prin aplicarea transformării
T3, coloanele din matricea unitate realizate până atunci trebuie să nu fie distruse
aj+1,j, ..., an,j (adică pe coloana j, sub ajj), un element nenul;
• Dacă pe coloana r se găseşte un element akr ≠ 0 care să poată fi adus pe
poziţia (l, r) fără a afecta coloanele din matricea unitate deja construite,
atunci se inversează între ele liniile k şi l (se aplică T3); se obţine astfel alr ≠
0, după care se poate face 1 pe poziţia (l, r) împărţind linia l la valoarea alr.
• Dacă pe coloana r nu se găseşte nici un element diferit de zero care să poată
fi adus pe poziţia (l, r) fără a afecta coloanele din matricea unitate deja
construite, atunci se întrerupe pivotajul şi se trage concluzia că sistemul nu
poate fi explicitat în raport cu grupul de m variabile cerut.
B. Se transformă în zerouri toate elementele de pe coloană în afara pivotului (aşa cum a
fost arătat deja).
Cele două verificări care trebuiau făcute la varianta anterioară nu mai sunt necesare pentru
că, pe de o parte, am presupus că ne plasăm în situaţia unor sisteme compatibile nedeterminat
(singura interesantă pentru scopurile noastre) şi, pe de altă parte, eliminarea ecuaţiilor secundare
nu este de dorit pentru că ele fac parte din modelarea procesului studiat.
Din cele expuse până aici, fiind dat un sistem liniar de m ecuaţii cu n necunoscute având
m < n, cu cele n variabile ale sistemului se pot forma Cnm grupuri diferite de m variabile. De
aceea, pentru un astfel de sistem este valabilă teorema următoare.

Teorema 1.3.5 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Dacă un sistem liniar de m ecuaţii cu n necunoscute admite cel puţin o formă explicită,
atunci el va admite cel mult Cnm forme explicite.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Prin definiţia 1.3.8 s-a introdus noţiunea de soluţie de bază şi s-a stabilit că fiecărei forme
explicite a sistemului îi corespunde o unică soluţie de bază. Se poate întâmpla, desigur, ca la două
forme explicite să corespundă o aceeaşi soluţie de bază. Ţinând cont şi de teorema 1.3.5 rezultă

Teorema 1.3.6 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Dacă un sistem liniar de m ecuaţii cu n necunoscute are cel puţin o soluţie de bază, atunci
el va admite cel mult Cnm soluţii de bază.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

În definiţia 1.3.9 s-a stabilit o clasificare a soluţiilor de bază în nedegenerate şi


degenerate. Se mai poate face o clasificare după alt criteriu; ea va fi utilă în tratarea problemelor
de programare liniară din capitolul următor.

Definiţia 1.3.10 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Dacă într-o soluţie de bază toate variabilele au valoare nenegativă, atunci soluţia se
numeşte admisibilă sau fezabilă. Dacă în soluţia de bază măcar o variabilă ia valoare
negativă, atunci ea se numeşte neadmisibilă sau nefezabilă.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Din cele discutate până acum rezultă că, plecând de la o formă explicită, printr-un pivotaj
convenabil, se poate ajunge la una din următoarele situaţii:
♦ o nouă formă explicită care diferă de prima printr-o variabilă principală;
♦ se stabileşte că noua formă explicită la care se dorea să se ajungă nu există.
Orice formă explicită a sistemului are m variabile principale şi n-m variabile secundare.
Formele explicite diferă între ele tocmai prin grupul de variabile principale. De aceea, atunci
când se face trecerea de la o formă explicită la alta prin pivotaj, una din variabilele secundare
devine variabilă principală (sau de bază), iar una din variabilele principale de până atunci trebuie
să devină secundară (sau nebazică) pentru ca numărul de m variabile principale să rămână
constant. Se spune că, prin pivotaj, o variabilă secundară intră în bază, iar o variabilă principală
iese din bază. O justificare mai riguroasă a acestor expresii este posibilă dacă se tratează
sistemele de ecuaţii liniare prin prisma structurilor algebrice care se numesc spaţii liniare (sau
spaţii vectoriale).
Corespunzător formelor explicite sunt soluţiile de bază ale sistemului. În rezolvarea
problemelor de programare liniară vor interesa soluţiile de bază corespunzătoare diferitelor forme
explicite precum şi trecerea de la una la alta dintre acestea.

Calcularea inversei unei matrice folosind metoda eliminării complete


Metoda eliminării complete oferă o modalitate comodă de calculare a inversei unei
matrice. După cum s-a văzut în secţiunea 1.1, o matrice pătratică de ordinul n este inversabilă
dacă se poate determina o matrice, notată A-1, astfel încât AA-1 = A-1A = In, unde In este matricea
unitate de ordinul n.
Calcularea lui A-1, dacă aceasta există, se poate face cu metoda eliminării complete. Vom
ilustra acest lucru pe o matrice pătratică de ordinul 2, generalizarea la matrice de orice ordin n
fiind imediată.
Fie, deci, matricea A(2,2) pe care o presupunem inversabilă:

a a 12  (1.3.9)
A =  11 
 a 21 a 22 

Calcularea inversei lui A înseamnă determinarea elementelor necunoscute ale matricei

x x12  (1.3.10)
A −1 =  11 
 x 21 x 22 

astfel încât AA-1 = A-1A = I2, adică

 a11 a12   x11 x12   1 0 (1.3.11)


   = 
 a 21 a 22   x 21 x 22   0 1

Dezvoltând relaţia (1.3.11) se obţine succesiv

 a11 x11 + a12 x 21 a11 x12 + a12 x 22   1 0 (1.3.12)


  = 
 a 21 x11 + a 22 x 21 a 21 x12 + a 22 x 22   0 1

 a11 x11 + a12 x 21 = 1 a11 x12 + a12 x 22 = 0


  (1.3.13)
a 21 x11 + a 22 x 21 = 0 a 21 x12 + a 22 x 22 = 1
Cele două sisteme au, respectiv, matricele extinse

a11 a12 1 a11 a12 0 (1.3.14)


a 21 a 22 0 a 21 a 22 1

Ambele sisteme se pot rezolva prin metoda eliminării complete şi, în cazul în care sunt
compatibile determinat, duc la forme explicite pe care se pot citi direct soluţiile

1 0 b11 1 0 b12 (1.3.15)


0 1 b21 0 1 b22

 x11 = b11  x12 = b12


  (1.3.16)
 x 21 = b21  x 22 = b22

În acest fel s-au determinat elementele matricei A-1, adică

x x12   b11 b12  (1.3.17)


A −1 =  11  = 
 x 21 x 22   b21 b22 

Sistemele (1.3.13) au, ambele, aceeaşi matrice a coeficienţilor, aşa cum se vede şi din
matricele extinse (1.3.14). De aceea, ele pot fi rezolvate simultan scriind împreună cele două
matrice extinse. În acest fel se poate calcula A-1 plecând de la tabloul în care matricea A ocupă
partea stângă, iar matricea unitate partea dreaptă. Se aplică metoda eliminării complete până când
se ajunge la tabloul care are în stânga matricea unitate, moment în care în partea dreaptă apare
matricea A-1.
Dacă nu se poate obţine un tablou final care să conţină în partea stângă matricea unitate,
atunci se trage concluzia că matricea dată nu este inversabilă.

Exemplul 1.3.5
2 0 1 
 
Să se determine inversa matricei A =  2 1 − 1
 3 1 − 1
 
Aplicând metoda descrisă se obţin succesiv tablourile

2 0 1 1 0 0 1 0 12 12 0 0 1 0 12 12 0 0
2 1 −1 0 1 0 ⇔ 2 1 −1 0 1 0 ⇔ 0 1 − 2 −1 1 0
3 1 −1 0 0 1 3 1 −1 0 0 1 0 1 − 52 − 32 0 1
1 0 12 12 0 0 1 0 12 12 0 0 1 0 0 0 −1 1
0 1 − 2 −1 1 0 ⇔ 0 1 − 2 −1 1 0 ⇔ 0 1 0 1 5 −4
0 0 − 12 − 12 − 1 1 0 0 1 1 2 −2 0 0 1 1 2 −2

0 − 1 1 
−1  
S-a obţinut matricea inversă A =  1 5 − 4
 1 2 − 2
 

Exemplul 1.3.6
 2 0 1
 
Să se determine inversa matricei A =  3 1 − 1
− 2 − 2 4 
 

2 0 1 1 0 0 1 0 1
2
1
2 0 0 1 0 12 12 0 0
3 1 − 1 0 1 0 ⇔ K ⇔ 0 1 − 52 − 32 1 0 ⇔ 0 1 − 52 − 32 1 0
−2 −2 4 0 0 1 0 −2 5 1 0 1 0 0 0 −2 2 1

Ultima linie a tabloului final indică incompatibilitatea sistemelor care stau la baza
acestuia. Concluzia care trebuie trasă este că matricea dată nu este inversabilă.
Rezolvaţi exerciţiile 25 şi 26 de la pagina 1-34.

1.4 Inegalităţi liniare şi sisteme de inegalităţi liniare


În aplicaţiile metodelor matematice în lumea reală apar adesea situaţii în care anumite
laturi ale unui fenomen se modelează nu prin ecuaţii liniare, ci prin inegalităţi liniare. O
inegalitate liniară se obţine dacă în expresia formei generale a unei ecuaţii liniare se în locuieşte
semnul = cu unul din semnele <, >, ≤, ≥. Vom începe cu discutarea inegalităţilor şi sistemelor de
inegalităţi în două variabile deoarece acestea pot fi interpretate geometric.

Inegalităţi şi sisteme de inegalităţi în două variabile

Definiţia 1.4.1 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Se numeşte inegalitate liniară sau inecuaţie liniară în două variabile, x şi y, expresia:

< 
≤ 
  (1.4.1)
ax + by   c
≥ 
> 
unde acoladele semnifică faptul că, pe poziţia respectivă, trebuie folosit, după caz, unul
din cele patru simboluri.
Se numeşte soluţie a inegalităţii liniare date mulţimea perechilor ordonate (x, y) care
satisfac (1.4.1).
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Ca şi în cazul ecuaţiilor, a reprezenta grafic o inegalitate liniară în două variabile


înseamnă a reprezenta mulţimea soluţiilor sale care va fi, evident, o mulţime de puncte în plan.
Pentru aceasta se pleacă de la ecuaţia corespunzătoare ax + by = c (care se numeşte ecuaţia
ataşată inecuaţiei date). După cum s-a arătat, reprezentarea ei în plan este o dreaptă, deci
mulţimea punctelor reprezintă geometric mulţimea soluţiilor ecuaţiei. Tot de aici mai rezultă şi că
pentru orice punct M(x, y) din plan care nu este pe această dreaptă vom avea ori ax + by < c, ori
ax + by > c. Un astfel de punct se vede în figura 1.4.1.

Dreapta d: ax + by = c împarte planul în două regiuni


y care se numesc semiplane. În acest context ea este frontiera
celor două semiplane. În figura 1.4.1 cele două semiplane sunt
d colorate cu nuanţe diferite. Atunci când vorbim de unul dintre
semiplane putem să includem în el şi frontiera, caz în care el se
numeşte semiplan închis. Dacă frontiera nu este inclusă, avem
M(x, y)
un semiplan deschis.
Cele două semiplane determinate de dreapta d au
O x importanţă pentru că ele reprezintă mulţimile soluţiilor pentru
Fig. 1.4.1 cele patru forme de inecuaţii exprimate prin (1.4.1).

Astfel, se poate demonstra că:


♦ Mulţimea soluţiilor inecuaţiei ax + by < c este unul din semiplanele deschise
determinate de dreapta ax + by = c; celălalt semiplan deschis reprezintă mulţimea
soluţiilor inecuaţiei ax + by > c;
♦ Pentru inecuaţiile ax + by ≤ c şi ax + by ≥ c mulţimile soluţiilor sunt reprezentate
respectiv de semiplanele închise aflate de o parte şi de alta a dreptei ax + by = c.
Din cele de mai sus rezultă că, pentru a rezolva o inecuaţie linară:
se trasează dreapta corespunzătoare ecuaţiei ataşate;
se alege un punct din plan care nu aparţine dreptei ataşate şi se înlocuiesc
coordonatele acestuia in expresia inecuaţiei;
dacă expresia rezultată după efectuarea calculelor este logic corectă, atunci soluţia
inecuaţiei este reprezentată de întregul semiplan în care se află punctul testat, iar în
caz contrar soluţia este reprezentată de celălalt semiplan;

se ia ca soluţie semiplanul determinat, deschis dacă inegalitatea din enunţ este


strictă şi închis dacă inegalitatea admite şi posibilitatea de egal.
Un set de inegalităţi liniare formează un sistem de inegalităţi (sau inecuaţii) liniare.
Pentru sistemele în două variabile este posibilă rezolvarea grafică prin determinarea intersecţiei
semiplanelor care reprezintă soluţiile inecuaţiilor.
Exemplu. Să se rezolve următorul sistem de inegalităţi liniare în două variabile:

4 x − y ≤ 8

 x − y ≥ −1
x + 2 y ≥ 2

Soluţia grafică este reprezentată în figura 1.4.2 prin punctele din interiorul, precum şi de
pe laturile triunghiului ABC care reprezintă intersecţia semiplanelor determinate de cele trei
inegalităţi din enunţ. Vârfurile triunghiului au coordonatele A(0,1), B(2, 0), C(3, 4).

y C
y y

d3
d2 d2

A d1
d1

B
O x O x O x
Fig. 1.4.2 Fig. 1.4.3 Fig. 1.4.4

Un sistem de inegalităţi liniare poate fi compatibil, dacă are cel puţin o soluţie, deci există
măcar o pereche de valori (x, y) care să verifice toate inecuaţiile, sau incompatibil, în caz contrar.
De exemplu, în figura 1.4.3 este arătat un sistem de două inegalităţi incompatibil. În legătură cu
sistemele de inegalităţi compatibile, are importanţă dacă sistemul are soluţie mărginită sau
soluţie nemărginită. O definire riguroasă a mulţimilor mărginite şi nemărginite cere o tratare
mult prea amplă pentru scopurile pe care ni le-am propus aici, dar reprezentări grafice intuitive
sunt suficiente. Astfel, soluţia sistemului din figura 1.4.2 este mărginită, în timp ce sistemul din
figura 1.4.4 are soluţie nemărginită.
Astfel, o inegalitatea liniară în n variabile are expresia

< 
≤ 
 
a 1 x1 + a 2 x 2 + K + a n x n   b (1.4.1)
≥ 
> 

În acest capitol au fost trecute în revistă câteva noţiuni elementare de matematică liniară.
Ele vor fi utilizate în capitolele 2 şi 3 ca suport pentru introducerea tehnicilor de optimizare
denumite generic programare liniară.
Exerciţii
Să se traseze dreptele de ecuaţii generale
1) 3x − 4 y = 24 2) 4 x − y = 16 3) − 2 x + 3 y = 18 4) x − 2 y = −10
5) 15 x = 20 6) x = 0 7) − 4 y = 0 8) y = 0

Să se traseze dreptele la care se cunosc

9 ) panta = 3, taietura =(0 ,5) 10 ) panta = 3, punctul (2 ,4 ) apartine dreptei


11) panta = −2 ,5, taietura =(0 ,5) 12 ) panta = a , punctul (0 ,0 ) apartine dreptei
13) panta = 0 , taietura =(0 ,0 ) 14 ) panta = − 1 4 , punctul (− 2 ,− 4 ) apartine dreptei
15) punctele(2,1), (4,9 ) apartin dreptei 16 ) punctele (a ,5), (a ,− 3) apartin dreptei
17 ) punctele(− 1,3), (2,− 9 ) apartin dreptei 18) punctele (3,b ), (7 ,b ) apartin dreptei

Să se rezolve următoarele sisteme liniare folosind metoda eliminării totale

 x1 + x 2 + x3 = 2 − 4 x1 + 12 x 2 + 4 x3 = 40
 
19 )  x1 − 3 x 2 + 2 x3 = 7 20 )  x1 + x 2 − 6 x3 = 10
4 x − 2 x − x = 9  x + 3 x − x = 10
 1 2 3  1 2 3

 x1 + x 2 + x3 = 0 2 x1 + 4 x 2 − 2 x3 = 10
 
21) 3 x1 − x 2 + 2 x3 = −1 22 ) 3 x1 − x 2 + 4 x3 = 12
 x + 2 x + 3 x = −5 − x − 2 x + x = 0
 1 2 3  1 2 3

− x1 + 3 x 2 + x3 = 7 4 x1 + 2 x 2 − 5 x3 = 13
 
23) 3 x1 − 9 x 2 − 3 x3 = 14 24 )  x1 + x 2 + x3 = 2
4 x + 2 x − 2 x = 24 2 x − x − 3 x = 3
 1 2 3  1 2 3

Să se determine inversele următoarelor matrice, dacă acestea există, utilizând metoda eliminării
totale.

0 3 1  3 5 2 
   
25) 1 1 0 26 )  4 1 0 
 2 3 3  − 9 − 15 − 6 
   
2
Introducere în
programarea liniară
2.1 Structura unei probleme de programare liniară
2.2 Rezolvarea grafică a problemelor de programare liniară în două variabile

Obiectivele capitolului
• Înţelegerea structurii modelelor de programare liniară şi semnificaţiei elementelor care intră în
componenţa acestora
• Ilustrarea varietăţii aplicaţiilor care pot fi tratate prin programare liniară
• Înţelegerea mecanismelor care stau la baza modelelor de programare liniară prin descrierea
intuitivă oferită de rezolvările grafice
• Discutarea situaţiilor speciale care pot apărea în rezolvarea unei probleme de programare
liniară

Acest capitol este dedicat introducerii noţiunilor de bază legate de programarea liniară
(PL), o metodă de optimizare care s-a dezvoltat în a doua jumătate a secolului al douăzecilea.
Tehnica programării liniare are o largă arie de aplicabilitate în cele mai diverse domenii de
inginerie: economică, agricolă, industrială. În prezent există implementări software puternice cu
ajutorul cărora se pot rezolva pe calculator probleme de programare liniară de mare complexitate.
Cu toate acestea, studierea modelului este necesară pentru că, fară o înţelegere corectă a acestuia,
exploatarea corectă a unui program de calculator dedicat rezolvării problemelor de programare
liniară nu este posibilă. În acest capitol va fi abordată şi rezolvarea grafică a problemelor PL care,
deşi se poate aplica doar problemelor în două variabile, are avantajul de a oferi o imagine
intuitivă a conceptelor implicate într-un program liniar. Noţiunile de algebră liniară introduse în
capitolul precedent îşi vor găsi aici utilizarea.
2.1 Structura unei probleme de programare liniară
Programarea liniară (PL) este o metodă de optimizare matematică. Prin metodă de
optimizare se înţelege o tehnică al cărei scop este să găsească cea mai bună soluţie pentru
atingerea unui anumit obiectiv. În multe cazuri obiectivul este exprimat printr-o valoare
numerică; de aceea, optimizarea poate însemna, după caz, maximizarea sau să minimizarea sa.
De exemplu, dacă într-un mecanism economic obiectivul urmărit este profitul, este clar că se va
urmări obţinerea celei mai mari valori posibile: problema este, deci, de maximizare. Într-o altă
situaţie, cum ar fi un proces de producţie, agricol sau industrial, obiectivul urmărit s-ar putea
referi la consumuri (de materii prime, de energie etc.) În aceste caz problema va fi, bineînţeles, de
minimizare.
Programarea liniară face parte dintr-o colecţie mai mare de discipline matematice care s-
au dezvoltat puternic în a doua jumătate a secolului al douăzecilea şi care au ca trăsătură comună
o puternică legătură cu situaţii care apar în desfăşurarea proceselor din lumea reală. Aceste
discipline au fost incluse înt-un domeniu ştiinţific denumit cercetare operaţională. Din acest
domeniu mai fac parte, de exemplu: teoria aşteptării, teoria jocurilor, programarea neliniară,
teoria reţelelor de transport. Între acestea, însă, programarea liniară a devenit foarte populară în
rândul utilizatorilor deoarece, aşa cum am amintit şi în preambulul capitolului 1, multe fenomene
din lumea reală pot fi descrise, sau cel puţin aproximate, ca fiind liniare. În plus, înţelegerea şi
manipularea modelelor de tip liniar este mai uşoară decât a altor tipuri.
Ca şi în alte tehnici de optimizare, în orice problemă de programare liniară trebuie luate
anumite decizii prin aplicarea cărora să se atingă valoarea optimă a obiectivului. Aceste decizii
sunt reprezentate printr-un set variabile de decizie xj. Variabilele de decizie sunt folosite pentru
formularea modelului de programare liniară. Folosind variabilele de decizie se descrie atât
obiectivul care trebuie atins, cât şi o serie de condiţii restrictive care trebuie respectate de către
soluţia căutată. Pe scurt, obiectul unei probleme de programare liniară poate fi descris astfel.

Obiectul unei probleme PL ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


O problemă de programare liniară îşi propune să maximizeze sau, după caz, minimizeze o
funcţie obiectiv în condiţiile respectării unui set de restricţii.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Funcţia obiectiv este o funcţie liniară de variabilele xj. Ea este reprezentarea matematică a
scopului avut în vedere: nivelul profitului, costurile totale etc.
Setul de restricţii este un sistem liniar de ecuaţii şi inecuaţii în variabilele xj. El descrie
condiţiile pe care trebuie să le satisfacă variabilele de decizie pentru a fi în conformitate cu
realitatea: capacităţi de producţie limitate, nivel minim obligatoriu al vânzărilor etc.
Se observă că atât funcţia obiectiv cât şi restricţiile sunt liniare. De aceea, acest gen de
probleme se numesc de programare liniară.
În următorul exemplu este enunţul unei probleme de programare liniară.

Exemplul 2.1.1

max z = 4 x1 + 2 x 2 (2.1.1)
 x1 + 2 x 2 ≤ 24
 (2.1.2)
 4 x1 + 3x 2 ≥ 30
x1 , x 2 ≥ 0 (2.1.3)

Problema enunţată cere să se maximizeze funcţia z exprimată prin relaţia (2.1.1), care este
o funcţie liniară în două variabile, x1 şi x2. În alegerea valorilor pentru variabilele x1 şi x2, prin
care să se obţină valoarea maximă a lui z, trebuie respectate, însă, cele patru restricţii exprimate
de inegalităţile liniare (2.1.2) şi (2.1.3).
Restricţii structurale şi restricţii de nenegativitate
Se observă că cele patru restricţii ale problemei din exemplul 2.1.1, deşi ar fi putut fi
exprimate sub aceeaşi acoladă, printr-un unic sistem de inegalităţi, au fost separate în două
grupuri. Prin aceasta se pune în evidenţă o diferenţă de semnificaţie între cele două categorii.
Astfel, sistemul (2.1.2) descrie restricţii care reflectă condiţiile impuse de structura situaţiei
analizate: resurse limitate, niveluri minime care trebuie respectate etc. De aceea, ele se numesc
restricţii structurale. Pe de altă parte, condiţiile exprimate de (2.1.3) arată că nici o variabilă de
decizie nu are voie să ia valori negative. Acesta este cazul în majoritatea covârşitoare a
problemelor de programare liniară deoarece variabilele de decizie reprezintă mărimi care nu pot
avea valori negative: sume de bani, cantităţi de produse, consumuri energetice etc. De aceea,
aceste restricţii se numesc restricţii de nenegativitate. Vom considera în cele ce urmează că toate
problemele de programare liniară pe care le vom aborda vor trebui să satisfacă restricţiile de
nenegativitate. Aici mai menţionăm, doar, că există modalităţi de tratare a situaţiilor speciale în
care apar şi variabile de decizie cu valoare negativă.
Din cele discutate rezultă că, în general, o problemă de programare liniară poate fi
enunţată aşa cum este arătat în continuare.

Forma generală a unei probleme PL ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


O problemă de programare liniară cu n variabile de decizie x1, x2, ... ,xn şi având m
restricţii structurale are următoarea formă generală:

(max, min) z = c1 x1 + c2 x 2 + K cn x n (2.1.4)

a11 x1 + a12 x 2 + K + a1n x n (≤ , = , ≥ ) b1



a 21 x1 + a 22 x 2 + K + a 2 n x n (≤ , = , ≥ ) b2
 (2.1.5)
...........................................
a m1 x1 + a m2 x 2 + K + a mn x n (≤ , = , ≥ ) bm

x1 , x 2 ,K , x n ≥ 0 (2.1.6)
Parantezele semnifică faptul că, pe locul respectiv se foloseşte, după
cum este necesar, unul dintre elementele enumerate.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Modelarea unei situaţii reale de decizie ca problemă de programare liniară


În enunţul problemei din exemplul 2.1.1 nu s-a precizat provenienţa acesteia. Deci nu s-a
facut referire la situaţia din lumea reală pe care aceasta o modelează. Ori, aşa cum s-a arătat la
început, programerea liniară s-a dezvoltat tocmai pe baza aplicaţiilor practice pe care este
chemată să le rezolve. De aceea, în continuare vom lua un exemplu de astfel de situaţie de decizie
pentru a vedea cum poate fi aceasta modelată ca problemă de programare liniară. Deşi situaţia
analizată este ipotetică şi foarte simplă, liniile ei principale de acţiune sunt aceleaşi şi în cazul
unor situaţii reale, de mare complexitate.

Exemplul 1.3.6
O firmă fabrică două produse, A şi B. Fiecare produs trebuie prelucrat în două secţii. În
tabelul de mai jos se arată câte ore de lucru sunt necesare, pe unitatea de produs, în fiecare secţie.
Pe ultima coloană sunt date capacităţile de lucru, în ore, ale fiecărei secţii, pe săptămână. Pe
ultima linie a tabelei este arătat profitul care se obţine de pe urma vânzării unei unităţi din fiecare
produs. Se ştie că întreaga producţie are vânzare. Trebuie să se decidă câte unităţi din fiecare
produs trebuie fabricate săptămânal pentru ca profitul total să fie maxim.

Produs A Produs B Capacitate


Secţia 1 3 ore/unitate 2 ore/unitate 120 ore
Secţia 2 4 ore/unitate 6 ore/unitate 260 ore
Profit/unitate produs 5 $/unitate 6 $/unitate

Dacă se notează cu x1 şi x2 numărul de unităţi care trebuie fabricate, respectiv, din


produsele A şi B, atunci trebuie determintate valorile acestor variabile de decizie pentru ca să
rezulte un profit maxim. Profitul total se exprimă prin adunarea contribuţiilor pe care le au
ambele produse. Notându-l cu z, rezultă funcţia obiectiv care, în acest caz, trebuie maximizată:

z = 5x 1 + 6x 2

Din informaţiile date în enunţul problemei, singurele restricţii în stabilirea numărului de


unităţi care trebuie fabricate sunt date de capacităţile de producţie (în ore de lucru) ale celor două
secţii. Ele impun restricţiile structurale ale problemei:

pentru Secţia 1: 3x1 + 2 x 2 ≤ 120


pentru Secţia 2: 4 x1 + 6 x 2 ≤ 260

De asemenea, deşi acest lucru nu a fost precizat explicit, este clar că pentru x1 şi x2 nu pot
fi acceptate valori negative. Prin urmare, variabilele de decizie trebuie să respecte şi restricţiile
de nenegativitate.
Combinând funcţia obiectiv cu restricţiile se obţine următoarea problemă de programare
liniară:

max z = 5x1 + 6x 2 (2.1.7)


 3x1 + 2 x 2 ≤ 120
 (2.1.8)
4 x1 + 6x 2 ≤ 260
x1 , x 2 ≥ 0 (2.1.9)

Singura observaţie care se impune este aceea că, chiar în condiţiile unei probleme simple
ca cea considerată în exemplul precedent, rezolvarea prin simpla încercare a diferite seturi de
valori (variante) pentru variabilele de decizie nu poate duce decât întâmplător la soluţia optimă.
Acest lucru devine cu atât mai dificil şi succesul mai puţin probabil cu cât numărul de variabile
de decizie şi numărul de restricţii structurale cresc. Este clar că soluţia optimă trebuie căutată
folosind o metodă riguroasă de investigare. În cele ce urmează va fi descrisă o astfel de metodă
care poate fi aplicată în cazul problemelor în două variabile. Exemplificările vor fi făcute folosind
problema PL definită mai sus prin relaţiile (2.1.7), (2.1.8), (2.1.9).
2.2 Rezolvarea grafică a problemelor de
programare liniară în două variabile
În situaţiile din lumea reală care conduc la probleme de programare liniară trebuie avute
în vedere, de obicei, mai mult de două variabile de decizie. Dar, interpretările geometrice pe care
sunt posibile în cazul a două variabile au utilitae pentru înţelegerea metodei rezolvare a
problemelor cu n variabile care vor fi abordate în capitolul 3.

Mulţimea soluţiilor admisibile


Primul pas în investigarea mulţimii soluţiilor pentru a o depista pe cea optimă este însăşi
stabilirea acestei mulţimi. Pentru aceasta se foloseşte setul de restricţii al problemei pentru că
soluţiile examinate trebuie să nu contrazică aceste restricţii. Pentru că doar soluţiile care respectă
toate restricţiile pot fi avute în vedere, mulţimea acestora se numeşte mulţimea soluţiilor
admisibile sau mulţimea soluţiilor fezabile. Restricţiile, cele structurale şi cele de nenegativitate,
formează împreună un sistem de inegalităţi liniare. Rezultă că mulţimea soluţiilor admisibile se
va determina prin rezolvarea acestui sistem.

y Aşa cum s-a văzut în secţiunea 1.4, pentru cazul a


60 3x1 + 2x2 = 120 două variabile este posibilă o rezolvare grafică, iar soluţia
este o mulţime de puncte în plan rezultată în urma
45
A intersecţiei tuturor semiplanelor determinate de inecuaţiile
30 B 4x1 + 6x2 = 260 sistemului. Datorită restricţiilor de nenegativitate x1, x2 ≥ 0
15
această mulţime se va afla întotdeauna în cadranul I al
reperului cartezian x1Ox2.
15 30 C 45 60 75 x Pentru restricţiile (2.1.8) şi (2.1.9) soluţia este
O ilustrată în figura 2.1.1. Este vorba de suprafaţa poligonului
OABC, inclusiv laturile. Vârfurile acestuia au coordonatele:
Fig. 2.2.1
O(0, 0), A(0, 43 1 3 ), B(20, 30), C(40, 0) .

De fapt, este evident că, întotdeauna, soluţia va fi o suprafaţă poligonală. De aceea,


pentru mulţimea soluţiilor admisibile se mai folosesc, în cazul problemelor în două variabile,
denumirile: poligonul soluţiilor admisibile sau suprafaţa soluţiilor admisibile. Coordonatele
punctelor care formează suprafaţa soluţiilor admisibile, şi numai acestea, pot reprezenta perechi
de variabile de decizie (x1, x2) care dau soluţia optimă a funcţiei obiectiv z. Aria de căutare s-a
restrâns dar, chiar şi aşa, punctele suprafeţei soluţiilor admisibile sunt în număr infinit, deci nu
vor putea fi verificate toate. Trebuie definită o procedură de căutare printre elementele mulţimii
soluţiilor admisibile, iar pentru aceasta sunt necesare o serie de consideraţii asupra funcţiei
obiectiv.

Funcţia obiectiv
În cazul problemei luate ca exemplu scopul final este de a găsi o variantă de decizie (x1,
x2) pentru care valoarea z a funcţiei obiectiv să fie maximă. Să presupunem, pentru început, că
urmărim combinaţiile (x1, x2) pentru care se obţine o anumită valoare a funcţiei obiectiv, nu
neapărat cea ami mare. De exemplu, interesează ce cantităţi x1 şi x2 din cele două produse trebuie
fabricate pentru ca profitul săptămânal să fie 120$. Conform (2.1.7) trebuie determinate perechile
(x1, x2) pentru care

5x1 + 6 x 2 = 120 (2.2.1)

S-a obţinut ecuaţia generală a unei drepte care poate fi reprezentată pe acelaşi grafic cu poligonul
soluţiilor admisibile, după cum se observă din figura 2.2.2.

y Pentru combinaţia (x1, x2) care să genereze un profit


60 săptămânal de 120$ se pot lua coordonatele oricărui punct
5x1 + 6x2 = 280 de pe dreapta (2.2.1) care se află în suprafaţa soluţiilor
45
A admisibile OABC.
30 B 5x1 + 6x2 = 180 Dacă se doreşte obţinerea unei alte valori a profitului
15 5x1 + 6x2 = 120
săptămânal, de exemplu 180, se obţine o altă dreaptă:
C
15 30 45 60 75 x 5x1 + 6 x 2 = 180 (2.2.2)
O
Fig. 2.2.2 Raţionamentul este asemănător, iar dreapta (2.2.2) a
fost şi ea reprezentată în figura 2.2.2.

Dreptele (2.2.1) şi (2.2.2) sunt paralele (conform proprietăţilor enunţate în finalul secţiunii
1.2). Este, însă, importantă următoarea observaţie: dreapta (2.2.2), al cărei termen liber este mai
mare, este mai depărtată de origine decât dreapta (2.2.1). Acest lucru este valabil pentru orice
fascicul de drepte paralele şi rezultă imediat aplicând formula (1.2.13) a distanţei de la un punct
la o dreaptă pentru originea sistemului de coordonate. Astfel,

−c
d ( O; h) = (2.2.3)
a 2 + b2

Din (2.2.3) rezultă că, pentru un fascicul de drepte paralele hj: ax + by = cj , j = 1,2, ...
(având aceiaşi coeficienţi a şi b), distanţele de la originea O la fiecare dintre acestea cresc odată
cu creşterea valorii absolute a coeficienţilor cj.
Revenind la problema de programare liniară discutată înseamnă că, dacă se cer valori zj
din ce în ce mai mari ale profitului, vor rezulta în cadranul I drepte 5x1 + 6 x 2 = z j paralele şi din
ce în ce mai îndepărtate de origine. Această îndepărtare de origine prin creşterea valorii funcţiei
obiectiv se poate face, însă, doar până la locul în care dreapta mai are, încă, puncte comune cu
suprafaţa restricţiilor: nu trebuie uitat că doar punctele de pe dreaptă care cad pe suprafaţa
restricţiilor reprezintă soluţii fezabile pentru obţinerea profitului respectiv.
În cazul studiat dreapta poate fi deplasată, paralel cu ea însăşi, în cadranul întâi până când
mai are contact cu suprafaţa rerstricţiilor OABC doar în punctul B(20, 30). {tim că acest punct
face parte dintr-o dreaptă 5x1 + 6 x 2 = z j corespunzătoare unui profit dat. Înlocuind coordonatele
acestui punct se obţine expresia acestei drepte: 5x1 + 6 x 2 = 280 . Ea este reprezentată în figura
2.2.2 şi coordonatele oricărui punct al ei reprezintă combinaţii (x1, x2) pentru care se obţine un
profit de 180$. Dar numai un singur punct, B(20, 30), aparţine şi poligonului soluţiilor admisibile.
Concluzia pe care o tragem este că funcţia obiectiv (2.1.7) este maximizată pentru valorile x1 =
20 şi x2 = 30 ale variabilelor de decizie şi, în acest caz, valoarea ei este z = 280. Interpretarea
concluziei în conteztul problemei analizate este că profitul maxim care se poate obţine
săptămânal este de 280$ şi el se obţine dacă se fabrică 20 de unităţi din produsul A şi 30 de
unităţi din produsul B.
Având o problemă de maximizare, am depistat soluţia deplasând dreapta rezultată din
expresia funcţiei obiectiv în sensul depărtării ei de origine (creşterii termenului liber). Este clar
că, în cazul unei probleme de minimizare, deplasarea aceasta trebuie făcută în sens opus.
Bineînţeles, este de aşteptat ca, pentru o astfel de problemă, poligonul soluţiilor admisibile să nu
includă şi originea.

Determinarea soluţiilor problemei


La punctul precedent s-a atătat că, prin deplasarea dreptei care reprezintă funcţia obiectiv,
se pot detecta valorile extreme. Se pune problema cum se poate determina prin calcul până unde
trebuie făcută această deplasare. Aceasta ar oferi o metodă numerică prin care să se caute soluţia
optimă în cadrul poligonului soluţiilor admisibile. Pentru a defini metoda trebuie făcute anumite
consideraţii asupra acestuia.

Definiţia 2.2.1 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


O mulţime de puncte din plan se numeşte convexă dacă are proprietatea că, pentru orice
două puncte M şi N aparţinând mulţimii, întregul segment MN este inclus în mulţime.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

În figura 2.2.3 este arătată o mulţime convexă. În figura 2.2.4 este o mulţime care nu este
convexă; într-adevăr, există măcar două puncte ale mulţimii, de exemplu P şi Q, cu proprietatea
că segmentul care le uneşte nu este inclus în întregime în mulţime. Din figura 2.2.5 se vede clar
că semiplanele sunt mulţimi convexe.
Definiţia 2.2.1 exprimă intuitiv ideea de mulţime convexă în plan (două dimensiuni).
Trebuie reţinut că acest conceptul este valabil şi în spaţii abstracte, cu n dimensiuni. Pentru
definirea sa riguroasă sunt necesare, însă, dezvoltări teoretice mai ample. Oricum, indiferent de
dimensiunea spaţiului în care se operează, este adevărată următoarea teoremă.

y y y
N
P

M
Q d

O x O x O x
Fig. 2.2.3 Fig. 2.2.4 Fig. 2.2.5

Teorema 2.2.1 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Intersecţia unei familii arbitrare de mulţimi convexe este tot o mulţime convexă.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Teorema 2.2.1 împreună cu observaţia, ilustrată prin figura 2.2.5, că un semiplan este o
mulţime convexă, duc la concluzia că soluţia unui sistem de inecuaţii liniare în două variabile,
care este o intersecţie de semiplane, este o mulţime convexă. Aducând acest rezultat în domeniul
problemelor de programare liniară în două variabile, rezultă două afirmaţii foarte importante
pentru rezolvarea grafică a problemelor PL.
1) Mulţimea soluţiilor admisibile este o suprafaţă poligonală convexă.
2) Soluţia optimă a unei probleme PL va inculde întotdeauna un vârf al poligonului
soluţiilor admisibile.
A doua afirmaţie este valabilă atât pentru probleme de maximizare cât şi de minimizare şi
indiferent de panta dreptei care reprezintă funcţia obiectiv. Ea arată că atunci când se face o
deplasare a dreptei, ultimul punct înaintea ieşirii completă din poligonul soluţiilor admisibile va
include cel puţin un vârf al acestuia.
Din cele de mai sus rezultă metoda care trebuie aplicată pentru a determina soluţia
optimă:
1) Se trasează grafic poligonul soluţiilor admisibile.
2) Se determină coordonatele vârfurilor.
3) Se calculează valoarea funcţiei obiectiv pentru fiecare vârf; pentru aceasta se substituie
coordonatele în funcţia obiectiv.
4) Pentru o problemă de maximizare soluţia optimă este în vârful pentru care se obţine
cea mai mare valoare a funcţiei obiectiv, iar pentru o problemă de minimizare se va
căuta valoarea minimă dintre cele date de vârfuri.

Soluţii multiple
Există posibilitatea ca o problemă de programare liniară să aibă mai mult de o soluţie
optimă. Figura 2.2.6 ilustrează cazul când funcţia obiectiv are aceeaşi pantă cu dreapta ataşată
unei restricţii structurale. Dacă funcţia obiectiv este deplasată în sensul, indicat de săgeată,
creşterii distanţei faţă de origine, ultimul punct în care poligonul soluţiilor admisibile este atins va
fi, de fapt, segmentul AB. În această situaţie există, deci, o infinitate de puncte de optim: în
fiecare punct de pe segmentul AB se atinge valoarea maximă pentru funcţia z.
y

B
z

C
O x
Fig. 2.2.6

Atunci când se aplică metoda vârfurilor în determinarea soluţiilor optime, existenţa


soluţiilor multiple este semnalată de apariţia valorii optime în două vârfuri ale poligonului
soluţiilor admisibile. Atunci se trage concluzia că această valoare va apărea pentru orice punct de
pe latura poligonului determinată de cele două vârfuri.

Soluţie inexistentă
Este posibil ca sistemul de restricţii ale unei probleme de programare liniară să nu aibă
nici o soluţie (să fie incompatibil). Deci nu va exista nici o pereche (x1, x2) care să satisfacă toate
restricţiile. Se spune în acest caz că problema nu are soluţii admisibile (fezabile). În figura 1.4.3
din secţiunea 1.4 este dat un exemplu de sistem de inegalităţi liniare incompatibil.

Soluţie nemărginită
Rezolvând sistemul de restricţii se poate constata că suprafaţa soluţiilor admisibile este
nemărginită. Având un astfel de spaţiu al soluţiilor se poate ajunge la nemărginirea soluţiei
optime. În figura 2.2.7 este ilustrată o astfel de situaţie.

B
z
C
O x
Fig. 2.2.7

Spaţiul soluţiilor admisibile care mărginit în partea inferioară dar este nemărginit
superior. Deplasarea spre maxim a dreptei corespunzătoare lui z nu cunduce la atingerea unui
punct care să fie desemnat ca optim în acest sens. Dacă problema ar fi de maximizare concluzia
care ar trebui trasă este că ne aflăm într-o situaţie în care soluţia este nemărginită.
S-ar putea, însă, determina o soluţie optimă dacă problema ar fi de minim (în exemplul
din figura 2.2.7 ea ar corespunde punctului B).

Rezolvaţi grafic problemele de programare liniară enunţate în exerciţiile 1


până la 8 de la pagina 2-10.

În acest capitol au fost introduse principalele idei legate de utilizarea programării liniare
ca metodă de optimizare cu largă aplicabilitate. Metoda grafică de rezolvare a problemelor PL în
două variabile are menirea de a oferi o imagine geometrică intuitivă. Situaţiile din lumea reală
implică, de obicei, mai mult de două variabile. Capitolul următor este dedicat algoritmului
simplex, cu care se rezolvă probleme PL în oricâte variabile.
Exerciţii
Să se rezolve grafic următoarele probleme de programare liniară.

1) max z = 9 x1 + 3x 2 2) min z = 3x1 + 6 x 2


 x1 + x 2 ≤ 20 3x1 + 2 x 2 ≥ 36
 
2 x1 + x 2 ≤ 32 4 x1 + 5x 2 ≥ 90
x1 , x 2 ≥ 0 x1 , x 2 ≥ 0

3) max z = 30 x1 + 20 x 2 4 )min z = 10 x1 + 16 x 2
3x1 + x 2 ≤ 18  x1 ≤ 400
 x + x ≤ 12 
 1

2  x 2 ≥ 200
 x1 ≥2  x + x = 500
 1 2
 x2 ≥ 2
x1 , x 2 ≥ 0
x1 , x 2 ≥ 0

6) max z = 2 x1 + 5x 2
5) max z = 10 x1 + 15x 2
 x1 + x 2 ≤ 16
 x1 + x 2 ≥ 20 x ≤ 12
2 x + x ≤ 48  1
 1 2
 x1 ≥8

 1x ≤ 20  x 2 ≤ 10
 x1 + x 2 ≤ 30 
 x2 ≥ 4
x1 , x 2 ≥ 0 x1 , x 2 ≥ 0

8) max z = 6 x1 + 5x 2
7) max z = 16 x1 + 8 x 2
2 x1 + 4 x 2 ≤ 40
2 x1 + x 2 ≤ 30 
  x1 + 2 x 2 ≤ 30
 x1 + 2 x 2 ≤ 24 1,5x + x ≥ 50
 1 2
x1 , x 2 ≥ 0
x1 , x 2 ≥ 0
3
Algoritmul simplex
3.1 Cerinţele metodei simplex
3.2 Introducere în metoda simplex
3.3 Algoritmul simplex pentru o problemă de maximizare în formă canonică
3.4 Algoritmul simplex pentru o problemă de maximizare cu restricţii de toate tipurile
3.5 Algoritmul simplex pentru o problemă de minimizare
3.6 Situaţii speciale

Obiectivele capitolului
• Înţelegerea algoritmului simplex de rezolvare a problemelor de programare liniară
• Ilustrarea modalităţilor în care trebuie abordate problemele care apar în aplicarea algoritmului
simplex
• Evidenţierea corespondeţelor care pot fi stabilite între mecanismele rezolvării grafice cele care
stau la baza algoritmului simplex
• Discutarea situaţiilor speciale care pot apărea în rezolvarea unei probleme de programare
liniară prin metoda simplex

Abordarea grafică a problemelor de programare liniară este limitată la probleme în două


variabile. Problemele în mai mult de două variabile trebuie rezolvate prin metode algebrice.
Metoda algebrică consacrată pentru rezolvarea unei probleme de programare liniară,
indiferent de numărul de variabile, este algoritmul simplex. Fiind vorba de un algoritm a fost
posibilă implementarea sa în programe pentru calculator. Există în prezent produse software
dedicate acestei categorii de probleme dar, după cum am mai arătat, studiere metodei în sine este
necesară tocmai pentru a putea înţelege şi exploata corect programele respective.

3.1 Cerinţele metodei simplex


Prima variantă a metodei simplex a fost propusă de G. B. Dantzig (1951) şi se numeşte
algoritmul simplex primal. O a doua metodă generală, algoritmul simplex dual, este datorată lui
C. E. Lemke (1953). După elaborarea acestor două metode cercetările s-au îndreptat către
anumite tipuri de probleme de programare liniară şi au apărut diferite soluţii de tratare a acestora.
Sunt, astfel, remarcabile rezultatele care s-au obţinut cu privire la problemele de programare în
numere întregi şi problemele de transport.
Fie forma generală a unei probleme de programare liniară, aşa cum a fost descrisă pentru
prima dată în secţiunea 2.1:

(max, min) z = c1 x1 + c2 x 2 + K cn x n (3.1.1)

a11 x1 + a12 x 2 + K + a1n x n (≤ , = , ≥ ) b1



a 21 x1 + a 22 x 2 + K + a 2 n x n (≤ , = , ≥ ) b2
 (3.1.2)
...........................................
a m1 x1 + a m2 x 2 + K + a mn x n (≤ , = , ≥ ) bm

x1 , x 2 ,K , x n ≥ 0 (3.1.3)

Pentru aplicarea algoritmului simplex trebuie problema să fie adusă într-o formă în care să
îndeplinească următoarele cerinţe.
A. Termenul liber al fiecărei restricţii să fie nenegativ.
Această restricţie se rezolvă înmulţind restricţiile structurale care au termenul liber
negativ cu (-1). Bineînţeles, prin această înmulţire inegalităţile respective îşi vor
schimba sensul.
Exemple:
restricţia 2 x1 − 5x 2 ≤ −10 devine − 2 x1 + 5x 2 ≥ 10
restricţia 6x1 + 3x 2 ≥ −15 devine − 6 x1 − 3x 2 ≤ 15
B. Toate restricţiile structurale trebuie exprimate ca ecuaţii. Pentru a transforma
inegalităţile în egalităţi se introduc o serie de variabile suplimentare după cum
urmează:
b1. Pentru fiecare restricţie de tip ≤ se adună o variabilă ecart nenegativă în partea
stângă a restricţiei.
Exemplu: dacă în cadrul sistemului de restricţii apar inecuaţiile
2 x1 − 5x 2 ≤ 10
− 6 x1 − 3x 2 ≤ 15

atunci se va face transformarea acestora în ecuaţii astfel:


2 x1 − 5x 2 + x 3 = 10, x3 ≥ 0
− 6 x1 − 3x 2 + x 4 = 15, x4 ≥ 0

b2. Pentru fiecare restricţie de tip ≥ se scade o variabilă ecart nenegativă din partea
stângă a restricţiei.
Exemplu: dacă în cadrul sistemului de restricţii apare inecuaţia
x1 + x 2 ≥ 25

atunci se va face transformarea acesteia în ecuaţie astfel:


x1 + x 2 − x 5 = 25, x 5 ≥ 0

b3. Pentru fiecare restricţie de tip ≥ sau de tip = se mai adună o variabilă artificială
nenegativă din partea stângă a restricţiei.
Exemplu: la restricţia de tip ≥ din exemplul precedent se mai adaugă o
variabilă artificială şi ea devine:
x1 + x 2 − x 5 + x 6 = 25, x 5 , x 6 ≥ 0

Variabilele ecart de la punctele b1 şi b2 au semnificaţie ca fiind factorii care


"echilibrează" inegalităţile transformându-le în egalităţi. Variabilele artificiale de la punctul b3,
aşa cum le arată şi numele, nu au o interpretare reală; singurul lor scop este să furnizeze un punct
de plecare convenabil pentru aplicarea metodei simplex. Acest lucru va fi comentat mai târziu.
În final, fie ca exemplu o problemă de programare liniară care are următorul sistem de
restricţii:

 x 1 − x 2 ≥ −10 (A, b1)



 2 x 1 + 3x 2 ≥ 40 (b2, b3)
 x − 2 x = 25 (b3)
 1 2

x1 , x 2 ≥ 0

După aplicarea transformărilor menţionate în paranteze se obţine sistemul de ecuaţii de mai jos,
în care x3 şi x5 sunt variabile ecart, iar x2 şi x4 sunt variabile artificiale.

 − x1 + x 2 + x 3 = 10

 2 x1 + 3 x 2 − x4 + x 5 = 40
 x − 2x + x 6 = 25
 1 2

x1 , x 2 , x 3 , x 4 , x 5 , x 6 ≥ 0

Variabilele nou introduse devin, de asemenea, variabile de decizie, de aceea ele trebuie să
se regăsească şi în cadrul funcţiei obiectiv.
În cadrul funcţiei obiectiv se consideră că variabilele ecart au, iniţial, coeficientul 0.
Variabilele artificiale nu au semnificaţie reală. De aceea, în cadrul funcţiei obiectiv, lor li
se asociază coeficienţi care să le facă să fie extrem de indezirabile pentru a participa la o decizie
care să ducă la optim. Astfel:
• pentru probleme de maximizare li se asociază variabilelor artificiale coeficienţi egali cu -M,
unde M este un număr pozitiv foarte mare, ceea ce face ca -M să fie un număr foarte negativ.
• pentru probleme de minimizare li se asociază variabilelor artificiale coeficienţi egali cu M, un
număr pozitiv foarte mare.
Asignarea de astfel de coeficienţi generează necesitatea de a căuta soluţii ale problemelor PL în
care variabilele artificiale să fie 0.
Prin aplicarea transformărilor enumerate se aduce problema de programare liniară la o aşa
numită formă standard.

Definiţia 3.1.1 ¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦


Se spune că o problemă de programare liniară are forma standard dacă toate restricţiile
sunt ecuaţii şi toate variabilele sunt supuse condiţiilor de nenegativitate:

(max, min) z = c1 x1 + c2 x 2 + K cn x n (3.1.4)

a11 x1 + a12 x 2 + K + a1n x n = b1


a x + a x + K + a x = b
 21 1 22 2 2n n 2
 (3.1.5)
 ...........................................
a m1 x1 + a m2 x 2 + K + a mn x n = bm

x1 , x 2 ,K , x n ≥ 0 (3.1.6)

¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦

Revenind la diferitele forme pe care le poate avea o problemă PL imediat după modelarea
fenomenului studiat şi înainte de a o aduce la forma standard, se pot defini anumite categorii la
care se va apela mai târziu.

Definiţia 3.1.2 ¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦


Pentru o problemă PL de maximizare, restricţiile structurale tip ≤ se numesc concordante.
Pentru o problemă PL de minimizare, restricţiile structurale tip ≥ se numesc concordante.
¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦

Definiţia 3.1.3 ¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦


O problemă de programare liniară are forma canonică dacă toate restricţiile sale
structurale sunt concordante.
O problemă de programare liniară are forma mixtă dacă toate restricţiile sale structurale
sunt fie ecuaţii, fie inegalităţi concordante.
¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦

Din definiţia 3.1.3 rezultă că o problemă de programare liniară în forma canonică se scrie
într-una din următoarele forme

min z = c1 x1 + c2 x 2 + K cn x n (3.1.7)

(3.1.8)
a11 x1 + a12 x 2 + K + a1n x n ≥ b1
a x + a x + K + a x ≥ b (3.1.9)
 21 1 22 2 2n n 2

...........................................
a m1 x1 + a m2 x 2 + K + a mn x n ≥ bm

x1 , x 2 ,K , x n ≥ 0

sau

max z = c1 x1 + c2 x 2 + K cn x n (3.1.10)
a11 x1 + a12 x 2 + K + a1n x n ≤ b1
a x + a x + K + a x ≤ b
 21 1 22 2 2n n 2
 (3.1.11)
 ...........................................
a m1 x1 + a m2 x 2 + K + a mn x n ≤ bm

x1 , x 2 ,K , x n ≥ 0
(3.1.12)

3.2 Introducere în metoda simplex


Pentru început vom relua, dintr-o altă perspectivă, problema care a fost propusă spre
modelare în secţiunea 2.1 şi rezolvată grafic în secţiunea 2.2.

max z = 5x1 + 6x 2 (3.2.1)


 3x1 + 2 x 2 ≤ 120
 (3.2.2)
4 x1 + 6x 2 ≤ 260
x1 , x 2 ≥ 0 (3.2.3)

Conform cerinţelor metodei simplex, sistemul de inegalităţi structurale trebuie


transformat într-un sistem de ecuaţii. În cazul problemei date vor apărea în sistem variabilele
ecart x3 şi x4:

 3 x1 + 2 x 2 + x 3 = 120
 (3.2.4)
4 x1 + 6 x 2 + x 4 = 260
x1 , x 2 , x 3 , x 4 ≥ 0 (3.2.5)

Sistemul (3.2.4), compatibil nedeterminat, este deja explicitat în raport cu variabilele x3 şi


x4. Soluţia de bază corespunzătoare este x1 = 0, x2 = 0, x3 = 120, x4 = 260. Sistemul are două
ecuaţii cu patru necunoscute. Conform teoremelor 1.3.5 şi 1.3.6 din secţiunea 1.3, el va avea cel
mult C42 = 6 forme explicite şi, corespunzător, soluţii de bază. Făcând pivotajele necesare se pot
găsi aceste soluţii de bază. Ele sunt enumerate în tabelul următor.

Nr. crt. Variabile de bază Variabile secundare Punct

1 x1 = 20, x2 = 30 x3 = x4 = 0 B
2 x2 = 60, x4 = -100 x1 = x3 = 0 P
3 x2 = 43 1 3 , x3 = 33 1 3 x1 = x4 = 0 A
4 x1 = 40, x4 = 100 x2 = x3 = 0 C
5 x1 = 65, x3 = -75 x2 = x4 = 0 Q
6 x3 = 120, x4 = 260 x1 = x2 = 0 O

y
60 P 3x1 + 2x2 = 120

45
A
30 B 4x1 + 6x2 = 260

15
Q
15 30 C 45 60 75 x
O
Fig. 3.2.1

În ultima coloană a tabelului sunt notate punctele din planul x1Ox2 cărora le corespund
componentele x1 şi x2 ale soluţiilor de bază respective. În figura 3.2.1 sunt marcate aceste puncte.
Soluţiile numerotate 2 şi 5 nu sunt admisibile (nu respectă restricţiile de nenegativitate);
numerele lor de ordine au fost tăiate din tabel.
Celelalte patru soluţii au în componenţă punctele O, A, B, C, vârfurile poligonului
restricţiilor. Din rezolvarea prin metoda grafică, descrisă în secţiunea 2.2, s-a ajuns la concluzia
că soluţia optimă trebuie căutată printre vârfurile poligonului soluţiilor admisibile. După cum se
observă, vârfurile poligonului soluţiilor admisibile corespund soluţiilor de bază admisibile ale
sistemului restricţiilor structurale pentru problema adusă la forma standard.
Exemplul sugerează un fapt care, după cum se demonstrează, are valabilitate pentru orice
problemă PL, de orice dimensiuni, adusă la forma standard:

Teorema 3.2.1 ¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦


Soluţia optimă a unei probleme de programare liniară în formă standard se află printre
soluţiile de bază admisibile ale sistemului restricţiilor structurale.
¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦
Din discuţia de până acum rezultă o primă posibilitate de abordare a unei probleme PL
adusă la forma standard. Această procedeu se numeşte metoda descrierii totale.
• Se determină toate soluţiile de bază ale sistemului restricţiilor structurale şi se aleg
soluţiile de bază admisibile.
• Se înlocuiesc soluţiile reţinute în funcţia obiectiv şi se determină astfel valoarea optimă
(maximă sau minimă).
Problema care apare este că, pentru o problemă cu un sistem de m restricţii structurale de
câte n variabile, metoda descrierii totale cere determinarea celor până la Cnm soluţii de bază. Când
m şi n sunt mari volumul de calcul devine prea mare, chiar şi în cazul folosirii calculatorului. De
exemplu, pentru m = 10 şi n = 40, situaţie perfect posibilă într-o problemă din lumea reală, ar
10
trebui determinate C40 = 847.660.528 soluţii de bază făcând pentru fiecare pivotajul corespunzător,
iar soluţiile admisibile ar trebui verificate în funcţia obiectiv. Metoda simplex evită examinarea
tuturor soluţiilor de bază admisibile.
Metoda simplex este iterativă şi pleacă de la o soluţie de bază admisibilă de start. La
fiecare iteraţie metoda caută dacă există în continuare o soluţie mai bună decât cea găsită până
atunci. Soluţie "mai bună" înseamnă că, prin înlocuirea sa în funcţia obiectiv, valoarea acesteia
este îmbunătăţită: mai mare, dacă este vorba de o problemă de maximizare, mai mică, dacă este
vorba de o problemă de minimizare. Dacă s-a găsit o soluţie mai bună decât cea curentă,
procedeul se reia. Reluările au loc până când nu mai este posibilă nici o îmbunătăţire a funcţiei
obiectiv.
Generarea fiecărei soluţii de bază succesive cere câte o nouă explicitare a sistemului de
restricţii structurale.
Fapt foarte important, metoda simplex garantează că:
• fiecare soluţie succesivă va fi admisibilă;
• valoarea funcţiei obiectiv va fi cel puţin la fel de bună ca valoarea corespunzătoare
soluţiei precedente
În continuare este discutată aplicarea metodei simplex pentru diferite categorii de
probleme de programare liniară şi pentru diferite tipuri de sisteme de restricţii.

3.3 Algoritmul simplex pentru o


problemă de maximizare în formă canonică
O problemă de maximizare în forma canonică are toate restricţiile structurale de tip ≤. De
aceea, aducerea sa la forma standard se face prin adunarea în partea stângă a fiecărei restricţii a
unei variabile ecart pozitive.
Problema luată în atenţie în secţiunea 2.1 şi tratată din diverse perspective în secţiunile
următoare este în formă canonică:
max z = 5x1 + 6x 2 (3.3.1)
 3x1 + 2 x 2 ≤ 120
 (3.3.2)
4 x1 + 6x 2 ≤ 260
x1 , x 2 ≥ 0 (3.3.3)

După aducerea la forma standard problema devine:

max z = 5x 1 + 6x 2 + 0x 3 + 0x 4 (3.3.4)
 3 x1 + 2 x 2 + x 3 = 120 (3.3.5)

4 x1 + 6 x 2 + x 4 = 260
x1 , x 2 , x 3 , x 4 ≥ 0 (3.3.6)

Soluţia se va găsi prin investigarea soluţiilor de bază ale sistemului (3.3.5). Se observă că
o primă soluţie de bază este oferită chiar de forma standard. Se mai observă, însă că funcţia
obiectiv poate fi privită şi ea ca o ecuaţie liniară care are încă o variabilă, z. Se poate forma astfel
un nou sistem de ecuaţii din (3.3.4) şi (3.3.5):

 z − 5 x1 − 6 x 2 − 0 x 3 − 0 x 4 = 0 (0)

 3 x1 + 2 x 2 + x 3 = 120 (1) (3.3.7)
 4 x1 + 6 x 2 + x 4 = 260 (2)

x1 , x 2 , x 3 , x 4 ≥ 0

Ecuaţiile sistemului (3.3.7) ecuaţiile au fost numerotate, iar funcţia obiectiv a primit
numărul (0). Scopul este în continuare este să se rezolve sistemul de 3 ecuaţii în 5 variabile astfel
încât variabila z să ia valoarea maximă. Deoarece valoarea funcţiei obiectiv este cea care
interesează în mod special, z va trebui să rămână întotdeauna variabilă principală, deci să nu fie
scoasă din bază prin pivotaj.

Tabelul 3.3.1
variabile z x1 x2 X3 x4 bi linia
de bază 1 -5 -6 0 0 0 (0)
x3 0 3 2 1 0 120 (1)
x4 0 4 6 0 1 260 (2)
Metoda simplex se aplică folosind o organizare tabelară. Tabelul iniţial pentru problema
studiată este tabelul 3.3.1. Soluţia de bază de start este formată din variabilele ecart şi,
bineînţeles, funcţia obiectiv: x3 = 120, x4 = 260, z = 0. Ea poate fi citită direct din tabel (prima şi
ultima coloană).
La un pas oarecare al rezolvării metoda simplex constă în compararea variabilelor
secundare cu cele principale pentru a vedea dacă o variabilă secundară ar putea intra în bază
înlocuind pe una principală, scopul fiind să se obţină o valoare mai bună pentru funcţia obiectiv.
O variabilă secundară va înlocui o variabilă principală dacă:
• se vede că astfel funcţia obiectiv va fi îmbunătăţită;
• noua soluţie este admisibilă.
Într-un tablou simplex linia (0) trebuie interpretată astfel: coeficienţii variabilelor (cu
excepţia lui z) reprezintă cu cât se modifică valoarea curentă a funcţiei obiectiv dacă variabila
din coloana respectivă creşte cu o unitate. Semnul coeficienţilor este opus sensului modificării.
Deci, un coeficient negativ arată o creştere a lui z atunci când x-ul respectiv creşte.
Rezultă din cele de mai sus următoarele reguli care trebuie respectate în aplicarea
algoritmului simplex.

Regula 1: verificarea optimalităţii soluţiilor ■■■■■■■■■■■■■■■■■■■■■■■


Într-o problemă de maximizare s-a găsit soluţia optimă (maximum) dacă toţi coeficienţii
din linia funcţiei obiectiv (linia 0 din tabel) sunt nenegativi.
Dacă există în linia funcţiei obiectiv coeficienţi negativi pentru variabilele secundare,
atunci se poate găsi o soluţie mai bună atribuind cantităţi pozitive acestor variabile.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Regula 1 se mai numeşte criteriul de oprire.


Exemplu. Pentru problema noastră, în linia (0) coeficienţii lui x1 şi x2 sunt -5 şi -6,
respectiv (tabelul 3.3.1). Înseamnă că nu s-a ajuns, încă, la soluţia optimă.

Regula 2: desemnarea unei noi variabile de bază ■■■■■■■■■■■■■■■■■■


Într-o problemă de maximizare, variabila secundară care va înlocui o variabilă de bază
este cea care are coeficientul cel mai negativ în linia funcţiei obiectiv (linia 0 din tabel).
La două valori egale se ia una dintre ele, oarecare.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Regula 2 se mai numeşte criteriul de intrare în bază.


Coloana variabilei secundare care întră în bază se numeşte coloana cheie.
Această regulă se justifică tocmai prin faptul că coeficienţii din linia (0) cu cât se
modifică valoarea curentă a funcţiei obiectiv dacă variabila din coloana respectivă creşte cu o
unitate. Creşterea este de sens contrar semnului. Astfel, se va alege coeficientul cel mai negativ
pentru a obţine creşterea cea mai mare.
Exemplu. Pentru problema noastră, se va alege x2 pentru a intra în bază. Fiecare creştere
cu o unitate a lui x2 determină o creştere cu 6 unităţi a valorii funţiei obiectiv. Coloana lui x2 este
coloana cheie.
Se pune acum problema cu câte unităţi să fie crescut x2. Metoda simplex îi permite lui x2
să crească până când una din variabilele de bază este adusă la valoarea zero, ieşind astfel din
bază. Problema care mai trebuie rezolvată este, deci, care este variabila din bază care va ieşi
atunci când va intra o nouă variabilă care, până atunci, a fost secundară (în exemplul studiat, x2).
Decizia asupra cărei variabile principale să fie eliminată din bază se ia examinând
coloana cheie şi coloana termenilor liberi. Într-o reprezentare generală, situaţia se prezintă ca în
tabelul următor:

Tabelul 3.3.2
Z ......... xk ............ bi linia
1 ......... a0k ............ b0 (0)
0 ......... a1k ............ b1 (1)
... ......... ..... ............ ..... .....
0 ......... amk ............ bm (m)
coloana coloana
cheie termenilor
liberi

Pe orice coloană j, valorile aij (i = 1, ... ,m) arată schimbările care apar în fiecare dintre
variabilele care sunt în acel moment în bază dacă variabila din coloana j se modifică cu o unitate.
Semnele sunt, de asemenea, opuse direcţiei de modificare.
Exemplu. Dacă în tabelul 3.3.1 studiem coloana cheie (a lui x2), observăm că, în această
coloană, coeficienţii sunt, respectiv, 2 pe linia variabilei de bază x3 şi 6 pe linia variabilei de bază
x4. Asta înseamnă că, dacă x2 va creşte cu o unitate, valoarea lui x3 descreşte cu 2 (de la valoarea
120), iar x4 va descreşte cu 6 (de la valoarea curentă de 260).
Din consideraţiile făcute rezultă regula care dă variabila principală care va fi eliminată din
bază.

Regula 3: desemnarea variabilei care iese din bază ■■■■■■■■■■■■■■■■■


Fie k coloana cheie într-o problemă de maximizare.
Variabila de bază care va fi înlocuită se stabileşte determinând linia pentru care se
atinge

bi
min pentru a ik > 0, i = 1,2 ,K , m
a ik

■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Regula 3 se mai numeşte criteriul de ieşire din bază.


În afară de identificarea variabilei care iese din bază, valoarea minimă a raportului bi/aik
arată numărul maxim de unităţi care pot fi introduse de variabila care intră în bază.
Dacă l este linia pe care se află elementul care iese din bază şi k este coloana cheie, pentru
trecerea la următoarea formă explicită se va face pivotajul după alk. La noi,

bi 120 260 
min = min  ,  = min{60,43 1 3} = 43 1 3
i =1,2 ai 2  2 2 

deci pivotajul se va face după a22.


Procesul poate fi figurat ca în tabelul 3.3.3 unde săgeata indică variabila secundară care
intră în bază, iar săgeata indică variabila care iese din bază. Pivotajul se face după elementul
marcat.

Tabelul 3.3.3
variabile z x1 x2 x3 x4 bi linia
de bază 1 -5 -6 0 0 0 (0)
x3 0 3 2 1 0 120 (1)
x4 0 4 6 0 1 260 (2)

După efectuarea pivotajului se obţine tabelul 3.3.4 pe care se aplică iar cele trei regului
ale metodei simplex.

Tabelul 3.3.4
variabile z x1 x2 x3 x4 bi linia
de bază 1 -1 0 0 1 260 (0)
x3 0 10
6 0 1 − 1
3 33 1 3 (1)
x2 0 4
6 1 0 1
6 43 1 3 (2)

Din tabelul 3.3.4 se poate citi noua soluţie de bază care, după cum se vede, este mai bună:
z = 260, x3 = 33 1 3 , x2 = 43 1 3 , x1 = 0, x4 = 0.
În continuare se reia procesul verificând în tabelul 3.3.4 dacă s-a obţinut soluţia optimă.
Aplicând regula 1, criteriul de oprire, rezultă că nu s-a ajuns, încă, la soluţia optimă deoarece
mai există în linia (0) coeficienţi negativi. Va trebui aplicată regula 2, criteriul de intrare în bază,
pentru a decide care dintre variabilele secundare trebuie aleasă. În situaţia particulară din tabelul
3.3.4 mai există doar un coeficient negativ în linia (0), cel al lui x1. Coloana acestuia, k = 1,
devine coloana cheie. Aplicând în continuare regula 3, criteriul de ieşire din bază, rezultă că

bi 100 6 130 6   130 


min = min  ⋅ , ⋅  = min 20,  = 20
i =1,2 a i1  3 10 3 4   2 

şi acest minim se obţine pe linia (1) Linia l = 1 va fi linia noului pivot. În concluzie, aşa cum s-a
scos în evidenţă şi în tabelul 3.3.4, x1 intră în bază, x3 iese din bază, iar acest lucru se face prin
pivotaj după a11. În urma pivotajului se obţine tabelul 3.3.5.

Tabelul 3.3.5
variabile z x1 x2 x3 x4 bi linia
de bază 1 0 0 3
5
4
5 280 (0)
x3 0 1 0 3
5 - 15 20 (1)
x2 0 0 1 - 25 3
10 30 (2)

Reluând procesul cu regula 3 de verificare a optimalităţii se observă că pe linia (0) nu


mai sunt coeficienţi negativi. Concluzia este că s-a ajuns la soluţia optimă pentru că nu se mai
pot face îmbunătăţiri. Soluţia optimă se citeşte din tabelul 3.3.5. Ea este z = 280 şi se obţine
pentru x1 =20, x2 =30, x3 = 0, x4 = 0. Bineînţeles, ea coincide cu ceea cea obţinută prin rezolvarea
grafică din secţiunea 2.2.

Rezumatul algoritmului simplex pentru o


problemă de maximizare în forma canonică
Întâi se aduce problema la forma standard adunând în partea stângă a fiecărei inecuaţii
câte o variabilă ecart. Variabilele ecart vor fi şi variabilele de bază de la care se porneşte
procedura de optimizare.
În continuare se aplică ciclic următorii paşi:
1. Se verifică dacă soluţia de bază curentă este cea optimă (regula 1): sunt toţi coeficienţii
din linia (0) mai mari sau egali cu zero?
Dacă DA ⇒ STOP. S-a atins valoarea optimă.
Dacă NU ⇒ se trece la pasul 2.
2. Se aplică criteriul de intrare în bază (regula 2).
Va intra în bază variabila care are în linia (0) valoarea cea mai negativă. Coloana
respectivă devine coloană cheie.
3. Se aplică criteriul de ieşire din bază (regula 3).
Pentru aceasta se calculează pentru coloana cheie k rapoartele bi/aik pentru aik > 0 şi se
alege valoarea minimă. Elementul alk corespunzător raportului minim devine pivot, iar
variabila de bază de pe linia l va deveni secundară (iese din bază).
4. Se face pivotaj după elementul alk şi apoi se reia ciclul cu pasul 1.

3.4 Algoritmul simplex pentru o


problemă de maximizare cu restricţii de toate tipurile
Pentru o problemă de maximizare care are toate tipurile de restricţii (≤, =, ≥), metoda în
sine nu se schimbă. Singurele diferenţe apar în etapa de aducere a problemei la forma standard.
Acest aspect a fost deja discutat în secţiunea 3.2. Mai precis, pentru orice restricţie de tip ≥ se va
scădea o variabilă ecart pozitivă din partea stângă a inegalităţii. De asemenea, pentru restricţiile
de tip ≥ şi pentru cele de tip = se va mai aduna şi câte o variabilă artificială. Variabilele
artificiale au rolul de a oferi o primă soluţie de bază, de plecare, pentru metoda simplex.
În funcţia obiectiv toate variabilele ecart vor primi coeficientul 0, iar variabilele artificiale
vor primi un coeficient -M foarte negativ.
Soluţia de bază iniţială a unei astfel de probleme este formată din variabilele ecart ale
restricţiilor de tip ≤ şi din variabilele artificiale ale restricţiilor de tip ≥ şi =.

3.5 Algoritmul simplex pentru o problemă de minimizare


În cazul problemelor de minimizare procedura simplex se modifică foarte puţin.
O primă diferenţă este că variabilelor artificiale li se atribuie în funcţia obiectiv coeficienţi
+M foarte mari (şi nu -M ca la problemele de maximizare).
O altă diferenţă este interpretarea coeficienţilor de pe linia (0) a problemei. Aceasta duce
la modificarea regulii 1 şi a regulii 2 care, pentru problemele de minimizare devin:

Regula 1A: verificarea optimalităţii soluţiilor ■■■■■■■■■■■■■■■■■■■■■■


Într-o problemă de minimizare s-a găsit soluţia optimă (minimum) dacă toţi coeficienţii
din linia funcţiei obiectiv (linia 0) sunt mai mici sau egali cu zero.
Dacă există în linia funcţiei obiectiv coeficienţi pozitivi pentru variabilele secundare,
atunci se poate găsi o soluţie mai bună atribuind cantităţi pozitive acestor variabile.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Regula 2A: desemnarea unei noi variabile de bază ■■■■■■■■■■■■■■■■■


Într-o problemă de maximizare, variabila secundară care va înlocui o variabilă de bază
este cea care are cel mai mare coeficient pozitiv în linia funcţiei obiectiv (linia 0). La
două valori egale se ia una dintre ele, oarecare.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Exemplu: Să se rezolve următoarea problemă PL

min z = 5x1 + 6 x 2
(3.5.1)
 x1 + x 2 ≥ 10
 (3.5.2)
2 x1 + 4 x 2 ≥ 24
x1 , x 2 ≥ 0
(3.5.3)

După aducerea la forma standard problema devine:

max z = 5x1 + 6 x 2 + 0 x 3 + Mx 4 + 0 x5 + Mx 6 (3.5.4)


 x1 + x 2 − x 3 + x 4 = 10 (3.5.5)

2 x1 + 6 x 2 − x 5 + x 6 = 24
x1 , x 2 , x 3 , x 4 , x 5 , x 6 ≥ 0 (3.5.6)

Variabilele ecart sunt x3 şi x5, iar variabilele artificiale sunt x4 şi x6.

Tabelul 3.5.1
variabile z x1 x2 x3 x4 x5 x6 bi linia
de bază 1 -5 -6 0 -M 0 -M 0 (0)
x4 0 1 1 -1 1 0 0 10 (1)
x6 0 2 4 0 0 -1 1 24 (2)

În tabelulu 3.5.1 se vede prima soluţie de bază a problemei care are ca variabile de bază
tocmai variabilele artificiale x4 şi x6. Se mai observă, însă, că pe coloanele acestora nu sunt numai
zerouri (în afara pivotului): elementele de pe linia (0) au valoarea -M. Vom face 0 în coloana lui
x4 înmulţind linia (1) cu M şi adunând-o la linia (0). Apoi, pentru x6 înmulţim linia (2) cu M şi o
adunăm la linia (0). Se obţine, astfel, tabelul 3.5.2.

Tabelul 3.5.2
Variabile z x1 x2 x3 x4 x5 x6 bi linia
de bază 1 -5+3M -6+5M -M 0 -M 0 34M (0)
x4 0 1 1 -1 1 0 0 10 (1)
x6 0 2 4 0 0 -1 1 24 (2)

S-a ajuns în tabelul 3.5.2 la o primă soluţie de bază în care variabilele principale sunt x4 =
10 şi x6 = 24. Valoarea funcţiei obiectiv este z = 34M.
Tot pe tabelul 3.5.1 se vede cum se face şi pivotajul pentru pasul următor. Într-adevăr,
aplicând regula 1A se observă că nu s-a atins, încă, soluţia optimă: pe linia(0) mai sunt coeficienţi
pozitivi, cei ai lui x1 şi x2 (M este un număr pozitiv foarte mare). Dintre aceştia, cel mai mare este
coeficientul lui x2, de aceea coloana sa devine coloană cheie, iar x2 intră în bază. Rapoartele
pozitive calculate pe coloana cheie (regula 3) dau valoarea minimă pe linia (2), deci x6 iese din
bază. Mai departe rezultă succesiv:

Tabelul 3.5.3
variabile z x1 x2 x3 x4 x5 x6 bi linia
de bază 1 -2+ M 2 0 -M 0 − 32 + M
4
3
2 − 5M 4 36+4M (0)
x4 0 1
2 0 -1 1 1
4 - 14 4 (1)
x2 0 1
2 1 0 0 - 14 1
4 6 (2)

Tabelul 3.5.4
variabile z x1 x2 x3 x4 x5 x6 bi linia
de bază 1 0 0 -4 4-M - 12 1 -M
2 52 (0)
x1 0 1 0 -2 2 1
2 - 12 8 (1)
x2 0 0 1 1 - 12 -1 1
2 2 (2)

Pe linia (0) a ultimului tabel nu mai sunt coeficienţi pozitivi. Conform regulii 1A s-a atins
soluţia optimă (valoarea minimă a lui z). Aceasta este: z = 52 şi se obţine pentru x1 = 8 şi x2 = 2.
Variabilele secundare: x3 = x4 = x5 = x6 = 0.

3.6 Situaţii speciale


Soluţii optime multiple
În cazul problemelor rezolvate grafic s-a văzut că dacă soluţia se atingeîn două vârfuri ale
poligonului soluţiilor admisibile, atunci întreaga latură determinată de acele două vârfuri este
formată din puncte de optim.
Atunci când se foloseşte metoda simplex, existenţa soluţiilor optime multiple este indicată
de următoarele:
1. s-a găsit soluţia optimă şi
2. în linia (0), coeficientul unei variabile secundare este egal cu zero.
Prima condiţie confirmă că nu există o soluţie mai bună decât cea prezentă. A doua
condiţie arată că variabila secundară respectivă poate deveni variabilă de bază, iar valoarea
curentă a funcţiei obiectiv nu se va schimba.
Când se constată că există soluţii optime multiple, celălalt punct în care se atinge optimul
se poate afla tratând variabila secundară cu coeficientul zero ca şi cum ar fi o nouă variabilă de
bază.

Problemă fără soluţii admisibile


În cazul rezolvării grafice s-a arătat că absenţa soluţiilor admisibile pentru problema PL
înseamnă că nu există soluţii care să satisfacă sistemul de restricţii.
Condiţia de absenţă a soluţiilor pentru o problemă de programare liniară rezolvată prin
metoda simplex este semnalată prin apariţia într-o soluţie a unei variabile artificiale cu valoare
pozitivă. Aceasta deoarece variabilele artificiale nu trebuie să aibă semnificaţie practică în
problemă.

Soluţii nemărginite
Soluţiile nemărginite apar când:
1. spaţiul soluţiilor este nemărginit şi
2. îmbunătăţirea funcţiei obiectiv apare odată cu mişcarea înspre zona nemărginită a
spaţiului soluţiilor.
Dacă la o iteraţie a metodei simplex valorile aik (de pe coloana cheie) sunt toate zero sau
negative, atunci problema are soluţii nemărginite.

Rezolvaţi prin metoda simplex problemele de programare liniară enunţate


în exerciţiile 1 până la 12 de la paginile 3-15 şi 3-16.

În capitolul al treilea a fost prezentată una din cele mai cunoscute metode de optimizare:
algoritmul simplex. Problemele din lumea reală pot conţine zeci de variabile şi restricţii
structurale, iar rezolvarea lor se face cu ajutorul calculatorului folosind programe specializate. Cu
toate acestea, studierea modelului din punct de vedere matematic nu este inutilă ci, din contră,
este indispensabilă abordării corecte a unor probleme reale, de mari dimensiuni, cu ajutorul
aplicaţiilor software specializate.

Exerciţii
Să se rezolve prin metoda simplex următoarele probleme de programare liniară:

1) max z = 4 x1 + 2 x 2 2) max z = 4 x1 + 4 x 2
 x1 + x 2 ≤ 50  4 x1 + 8 x 2 ≤ 24
 
6 x1 ≤ 240 24 x1 + 16 x 2 ≤ 96
x1 , x 2 ≥ 0 x1 , x 2 ≥ 0

3) max z = 10 x1 + 12 x 2
4) max z = 6 x1 + 8 x 2 + 10 x 3
 x1 + x 2 ≤ 150
  x1 + 2 ,5x 2 ≤ 1200
3x1 + 6 x 2 ≤ 300 
4 x + 2 x ≤ 160 2 x1 + 3x 2 + 4 x 3 ≤ 2600
 1 2

x1 , x 2 ≥ 0 x1 , x 2 , x 3 ≥ 0
5) max z = 10 x1 + 3x 2 + 4 x 3 6) max z = 4 x1 − 2 x 2 + x 3
8 x1 + 2 x 2 + 2 x 3 ≤ 240 6 x1 + 2 x 2 + 2 x 3 ≤ 240
 
 4 x1 + 3 x 2 ≤ 2600 2 x1 − 2 x 2 + 4 x 3 ≤ 40
x1 , x 2 , x 3 ≥ 0 2 x + 2 x − 2 x ≤ 80
 1 2 3

x1 , x 2 , x 3 ≥ 0
7) max z = 4 x1 + 2 x 2
 x1 + x 2 ≤ 15 8) min z = 4 x1 + 6 x 2

2 x1 + x 2 ≤ 20  3x1 + x 2 ≥ 15

x1 , x 2 ≥ 0 2 x1 + 3x 2 ≥ 17
x1 , x 2 ≥ 0
9) min z = 6 x1 + 3x 2
 x1 + 2 x 2 ≤ 20 10) max z = 5x1 + 3x 2

4 x1 + 2 x 2 ≤ 32 − x1 + 2 x 2 ≤ 10
 x 
 1 ≤8  x2 ≤ 5
x1 , x 2 ≥ 0 x1 , x 2 ≥ 0

11) max z = 25x1 + 50 x 2 12) min z = 6 x1 + 8 x 2 + 16 x 3

2 x1 + 2 x 2 ≤ 1000  2 x1 + x 2 ≥5
 
3x1 ≤ 600  x2 + 2 x3 ≥ 4
 x + 3x ≤ 600 x1 , x 2 , x 3 ≥ 0
 1 2

x1 , x 2 ≥ 0
4
Elemente de
teoria probabilităţilor
4.1 Experimente aleatoare
4.2 Evenimente
4.3 Noţiunea de probabilitate
4.4 Probabilităţi condiţionate. Evenimente independente
4.5 Variabile aleatoare
4.6 Caracteristici numerice ale variabilelor aleatoare

Obiectivele capitolului
• Înţelegerea noţiunilor de experiment aleator şi eveniment aleator
• Definirea principalelor noţiuni privitoare la evenimente, introducerea unei clasificări a
evenimentelor aleatoare şi enumerarea proprietăţilor acestora.
• Introducerea noţiunii de probabilitate.
• Introducerea noţiunii de variabilă aleatoare, a operaţiilor cu variabile aleatoare şi a
caracteristicilor numerice uzuale ale variabilelor aleatoare

Multe fenomene din viaţa reală sunt caracterizate de incertitudine sau de evoluţie
întâmplătoare. Multe decizii trebuie luate în condiţii în care nu se cunosc cu exactitate toate
elementele care să permită o predicţie exactă a rezultatelor unei acţiuni. Teoria probabilităţilor
este unul dintre cele mai puternice instrumente matematice care permit modelarea unor astfel de
situaţii.
Acest capitol este dedicat punctării unor concepte de bază din teoria probabilităţilor. Este
vorba de un minimum necesar înţelegerii domeniului care, în plus, stă la baza dezvoltărilor din
capitolul următor.

4.1 Experimente aleatoare


Definiţia 4.1.1 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
Se numeşte experiment aleator orice acţiune care poate fi repetată în condiţii similare, în
care nu se cunoaşte de la început rezultatul, dar se cunosc toate rezultatele posibile.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Definiţia 4.1.2 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Se numeşte spaţiul de selecţie al unui experiment aleator mulţimea S a tuturor
rezultatelor posibile ale experimentului.
Un rezultat posibil al experimentului (un element al mulţimii S) se numeşte probă.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Din definiţia de mai sus rezultă că, în unele situaţii, se poate folosi termenul de cazuri
posibile ale unui experiment, în loc de mulţimea probelor.

Exemple:
1) Experiment: aruncarea unui zar
Spaţiul de selecţie este finit: S = {1, 2 , 3, 4 , 5, 6}
2) Experiment: tragerea la ţintă
Spaţiul de selecţie este infinit: S = mulţimea punctelor de pe ţintă.

4.2 Evenimente
Definiţia 4.2.1 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
Se numeşte eveniment orice submulţime de rezultate (probe) conţinute în spaţiul de
selecţie S al unui experiment aleator.
Se numeşte eveniment elementar un eveniment care constă exact dintr-o singură probă şi
se numeşte eveniment compus un eveniment constând din mai multe probe.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Notaţii: Evenimentele se notează cu litere mari: A, B, C, ...


Din definiţia de mai sus rezultă că se numeşte eveniment orice situaţie legată de un
experiment aleator şi despre care se poate spune cu certitudine dacă s-a produs sau nu după
efectuarea experimentului.

Definiţia 4.2.2 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Se numeşte sistem de evenimente orice mulţime de evenimente a căror apariţie se
urmăreşte ca urmare a efectuării unui experiment aleator.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Observaţie: un sistem de evenimente poate fi, după caz, finit sau infinit.

Definiţia 4.2.3 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Se numeşte evenimentul sigur, evenimentul care se realizează întotdeauna ca rezultat al
efectuării unui experiment aleator.
Se numeşte evenimentul imposibil, evenimentul care nu se poate realiza niciodată ca
urmare a efectuării experimentului aleator.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
Notaţii: Evenimentul sigur: E. Evenimentul imposibil: ∅

Exemplu:
Experiment: aruncarea unui zar.
Evenimentul sigur: E = {1, 2 , 3, 4 , 5, 6}
Evenimentul imposibil: apariţia altei feţe decât 1, 2, 3, 4, 5, 6.

Definiţia 4.2.4 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Fie un eveniment A. Se numeşte evenimentul contrar (sau opus, complementar) lui A,
evenimentul care se realizează ori de câte ori nu se realizează A şi nu se realizează ori de
câte ori se realizează A.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Notaţii: A , CA .

Exemple:
1) Experiment: aruncarea unui zar
Dacă A = {1, 2 , 5, 6} , atunci A = {3, 4} .
2) Este evident că, pentru orice experiment aleator sunt valabile următoarele:
E = ∅ şi ∅ = E .

Definiţia 4.2.5 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Se spune că evenimentul A implică evenimentul B, sau că evenimentul B este implicat
de evenimentul A dacă B se realizează ori de câte ori se realizează A.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Notaţie: A ⊂ B
Dacă A nu implică B, notaţia este A ⊄ B .

Exemplu:
Experiment: aruncarea unui zar.
Se poate spune că: {1} ⊂ {1, 5}; {2 , 3} ⊂ {1, 2 , 3, 5}; {1, 4} ⊄ {2, 4}
Relaţia de implicaţie are următoarele proprietăţi:
(1) A ⊂ A
(2) A ⊂ E
(3) dacă A ⊂ B şi B ⊂ C , atunci A ⊂ C (tranzitivitate)
(4) ∅ ⊂ A
Proprietatea (4) este admisă prin convenţie pentru generalizare.

Definiţia 4.2.6 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Se spune că evenimentul A este echivalent cu evenimentul B A ⊂ B şi B ⊂ A .
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Notaţie: A = B
Definiţia 4.2.7 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
Fiind date două evenimente A şi B, se numeşte reuniunea lui A cu B evenimentul care se
realizează atunci când se realizează cel puţin unul dintre cele două evenimente.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Notaţie: A ∪ B
Definiţia 4.2.7 justifică şi o altă denumire pentru A ∪ B : "A sau B".
Se mai observă că mulţimea probelor care realizează evenimentul A ∪ B este formată din
reuniunea mulţimilor probelor care realizează evenimentele A şi B.

Exemplu:
Experiment: aruncarea unui zar.
Dacă A = {1, 2 , 3} şi B = {2 , 3, 4} atunci A ∪ B = {1, 2 , 3, 4} .
Reuniunea evenimentelor are următoarele proprietăţi:
(1) A∪ B = B∪ A (comutativitate)
(2) ( A ∪ B) ∪ C = A ∪ ( B ∪ C) (asociativitate)
(3) A ⊂ ( A ∪ B) , B ⊂ ( A ∪ B)
(4) A∪ A = A
(5) A∪ E = E
(6) A∪∅ = A

Definiţia 4.2.8 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Fiind date două evenimente A şi B, se numeşte intersecţia lui A cu B evenimentul care se
realizează atunci când se realizează simultan cele două evenimente.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Notaţie: A ∩ B
Definiţia 4.2.8 justifică şi o altă denumire pentru A ∩ B : "A şi B".
Se mai observă că mulţimea probelor care realizează evenimentul A ∩ B este formată din
intersecţia mulţimilor probelor care realizează evenimentele A şi B.

Exemplu:
Experiment: aruncarea unui zar.
Dacă A = {1, 2 , 3} şi B = {2 , 3, 4} atunci A ∩ B = {2 , 3} .

Intersecţia evenimentelor are următoarele proprietăţi:


(1) A∩ B = B∩ A (comutativitate)
(2) ( A ∩ B) ∩ C = A ∩ ( B ∩ C) (asociativitate)
(3) A ∩ ( B ∪ C) = ( A ∩ B ) ∪ ( A ∩ C) (distributivitatea intersecţiei faţă de reuniune)
(4) A ∪ ( B ∩ C) = ( A ∪ B ) ∩ ( A ∪ C) (distributivitatea reuniunii faţă de intersecţie)
(5) A ⊂ B ⇒ A∩ B = A ; în particular, A ∩ A = A , A ∩ E = A, A ∩ ∅ = ∅
(6) A ∩ B ⊂ A, A ∩ B ⊂ B

Definiţia 4.2.9 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Două evenimente A şi B, se numesc compatibile dacă ele se pot realiza simultan, adică
există probe comune care realizează atât pe A cât şi pe B.
Dacă evenimentele nu se pot realiza simultan, ele se numesc incompatibile.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Notaţii:
• pentru două evenimente compatibile, A∩ B ≠∅;
• pentru două evenimente incompatibile, A ∩ B = ∅ .

Exemplu:
Experiment: aruncarea unui zar.
Dacă A = {1, 2 , 3} , B = {2 , 3, 4} , C = {5, 6,} , atunci A ∩ B ≠ ∅ , iar A ∩ C = ∅ .
Atunci când, în cadrul unui experiment, urmărim un eveniment, de fapt, ne fixăm atenţia
asupra unei părţi din mulţimea probelor experienţei. Rezultă că, un eveniment poate fi identificat
cu mulţimea probelor din care este format. Aceasta justifică atât notaţiile, cât şi folosirea
terminologiei din teoria mulţimilor. Această dualitate de limbaj şi notaţiile corespunzătoare sunt
sintetizate în tabelul 4.2.1.

Tabelul 4.2.1
Evenimente Mulţimi Notaţie

Eveniment sigur Mulţimea totală E


Eveniment imposibil Mulţimea vidă ∅
Contrariul lui A Complementara lui A A , CA

A implică B A inclusă în B A⊂B


A sau B Reuniunea lui A şi B A∪ B
A şi B Intersecţia lui A cu B A∩ B
A, B incompatibile A, B disjuncte A∩ B = ∅
A, B compatibile A, B nedisjuncte A∩ B ≠∅

Prin abstractizarea noţiunilor expuse mai sus se introduce noţiunea de câmp de


evenimente, ale cărui axiome trebuie să asigure că, odată cu evenimentele A şi B, putem vorbi şi
despre următoarele: contrarul lui A, A sau B, A şi B.

Definiţia 4.2.10 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Fie E mulţimea totală (a probelor) şi fie K mulţimea tuturor evenimentelor
corespunzătoare unui experiment. Cuplul (E, K) formează un câmp de evenimente dacă
sunt satisfăcute următoarele axiome:
(i) dacă A ∈ K atunci A ∈ K;
(ii) dacă A ∈ K şi , B ∈ K atunci A ∪ B ∈ K şi A ∩ B ∈ K.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Un câmp de evenimente are următoarele proprietăţi


(1) E ∈ K, ∅ ∈ K;
(2) dacă A , B ∈ K şi A ⊂ B , atunci B - A ∈ K, unde B − A = B ∩ A ;
(3) dacă câmpul de evenimente K este infinit, atunci pentru Ai ∈ K, i ∈ N, avem
∞ ∞

U
i =1
Ai ∈ K şi IA
i =1
i ∈ K.

Observaţii:
1) Dacă mulţimea K este finită, atunci avem un câmp de evenimente finit, iar dacă
mulţimea K este infinită, atunci avem un câmp de evenimente infinit.
2) Evenimentul B - A despre care se discută în proprietatea (2) este diferenţa dintre
evenimentele B şi A, adică evenimentul care se realizează atunci când se realizează B
şi nu se realizează A. Prin urmare, B − A = B ∩ A .

Definiţia 4.2.11 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Fie câmpul de evenimente (E, K). O mulţime de evenimente Ai , i = 1, 2, ... , n formează
un sistem complet de evenimente dacă sunt îndeplinite următoarele condiţii:
(i) A1 ∪ A2 ∪ K ∪ An = E , adică reuniunea tuturor evenimentelor dă evenimentul sigur;
(ii) Ai ∩ A j = ∅ pentru i ≠ j. i, j = 1,2, ..., n, adică evenimentele sunt incompatibile două
câte două.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Definiţia 4.2.12 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Fie câmpul de evenimente (E, K).
Un eveniment A ∈ K se numeşte eveniment compus dacă există două evenimente
B, C ∈ K, diferite de A, astfel încât A = B ∪ C .
Un eveniment care nu este compus şi nu este evenimentul imposibil ∅ se numeşte
eveniment elementar, sau atom.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Rezolvaţi exerciţiile din secţiunea "Evenimente" de la pagina 4-19

4.3 Noţiunea de probabilitate


Fiind dat un câmp de evenimente K se pune problema de a caracteriza printr-un număr
cuprins între 0 şi 1 probabilitatea (şansa) de apariţie a fiecărui eveniment A ∈ K. Au existat
diferite tentative de a măsura această şansă şi, corespunzător, au apărut diferite definiţii ale
probabilităţii. Aceste definiţii vor fi prezentate în continuare pe scurt deşi, aşa cum se va vedea,
doar ultima din enumerare, definiţia axiomatică dată de Kolmogorov, poate fi considerată cea
complet riguroasă. Enunţarea celorlalte definiţii este, însă, utilă pentru că ele sunt intuitive şi pot
fi aplicate situaţiilor particulare pe care le vom aborda în capitolul 5. De asemenea, nu este lipsit
de interes să observăm evoluţia gândirii ştiinţifice în această direcţie care, deşi a surprins de-a
lungul timpului diferite aspecte ale producerii evenimentelor aleatoare, abia în 1931 a dus la o
definire riguroasă şi generală.

Definiţia statistică a probabilităţii


În această abordare, noţiunea teoretică de probabilitate a fost abstrasă din noţiunea de
frecvenţă, care are un caracter experimental.
Fie A un eveniment aleator asociat unui experiment E şi fie n repetări ale experimentului
E. Dacă se notează nA numărul de apariţii ale evenimentului A în cele n încercări, atunci numărul
nA
f n ( A) = se numeşte frecvenţa relativă a evenimentului A în seria dată de repetări ale
n
experimentului.

Exemplu:
Se aruncă o monedă de 100 de ori şi se urmăreşte evenimentul apariţiei feţei cu stema. Să
presupunem că stema a apărut de 53 de ori. Numărul f 100 = 53 100 reprezintă frecvenţa relativă a
evenimentului. La fiecare repetare a experienţei se obţin frecvenţe în jurul valorii de 1 2 . Acest
număr în jurul căruia se grupează frecvenţele relative se numeşte în limbaj curent probabilitatea
ca la o aruncare să apară stema.
Deci, pentru orice astfel de experiment, frecvenţa variază de la o experienţăla alta. Ea are
un caracter empiric, experimental. Dacă se execută un număr mare de experienţe se va manifesta
o anumită legitate exprimată prin oscilaţia frecvenţelor relative în jurul unui număr care
reprezintă o valoare caracteristică obiectivă a fenomenului studiat. Rezultă următoarea definiţie
obţinută pe cale experimentală:

Definiţia 4.3.1 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Se numeşte probabilitatea evenimentului A, numărul P(A), caracteristică intrinsecă a
evenimentului A, care indică aproximativ frecvenţa relativă de apariţie a evenimentului A
într-o serie suficient de mare de repetiţii ale experimentului.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Această definiţie statistică are o serie de neajunsuri, fiind puţin formalizată din punct de
vedere matematic şi având un caracter descriptiv. Practic, se consideră ca valoare aproximativă a
probabilităţii, media aritmaetică a frecvenţelor. Aproximarea va fi cu atât mai bună cu cât
numarul de repetări va fi mai mare. Pentru scopuri limitate, definiţia poate fi, totuşi folosită, aşa
cum se va vedea în capitolul următor.

Definiţia clasică a probabilităţii


Această definiţie este destul de frecvent utilizată pentru că ea este adecvată într-o clasă
destul de largă de situaţii. Ea reduce, totuşi, noţiunea de probabilitate la posibilitatea egală de
apariţie a evenimentelor elementare. Acest lucru este adesea valabil, dar nu întotdeauna.
Presupunerea fundamentală este că mulţimea evenimentelor ataşate unei experienţe poate
fi construită prin operaţia de reuniune a unor evenimente egal posibile. De exemplu, în experienţa
aruncării unui zar, se consideră ca evenimente de bază evenimentele {1}, {2}, {3}, {4}, {5}, {6}
privite ca egal posibile. Toate celelalte evenimente, cu excepţia evenimentului imposibil, sunt
reuniuni ale acestora.

Definiţia 4.3.2 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Se numeşte probabilitatea evenimentului A, numărul P(A) care se calculează ca raportul
între numărul de cazuri favorabile producerii evenimentului şi numarul de cazuri posibile
a apărea în urma efectuării experimentului:

n
P ( A) = (4.3.1)
N

unde n este numărul de cazuri favorabile, iar N este numărul de cazuri posibile.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

{i această definiţie, dată de Laplace, este insuficientă deoarece se aplică doar pentru
câmpuri finite de evenimente şi pleacă de la ipoteza, care nu este întotdeauna adevărată, că
evenimentele elementare sunt "egal posibile". Cu toate acestea, ea are o largă arie aplicabilitate
pentru că, multe situaţii din lumea reală operează cu câmpuri finite în care evenimentele
elementare sunt egal posibile.

Definiţia geometrică a probabilităţii


Prin exemplul următor se ilustrează că definiţia clasică a probabilităţii nu este suficientă
în cazurile câmpurilor de evenimente infinite.

Exemplu:
Se consideră un interval de bază Ω = [a, b] şi un subinterval oarecare A = [a', b'] al
acestuia. Se alege, la întâmplare ("cu ochii închişi"), un punct în intervalul Ω = [a, b]. Care este
probabilitatea ca punctul ales să se nimerească în subintervalul A = [a', b']?
Este clar că, în acest caz, nu se pot număra cazurile favorabile (punctele din intervalul [a',
b']) şi nici cazurile posibile (punctele din intervalul [a, b]), deoarece ambele mulţimi au un număr
infinit de puncte. Trebuie o altă modalitate de exprimare a raportului între "favorabil" şi "posibil".
Se poate intui uşor că, pentru a exprima probabilitatea cerută în problemă, se poate folosi o
măsură pentru intervalele avute în vedere, mai precis lungimea fiecăruia. Făcând raportul acestor
lungimi, se obţine o valoare între 0 şi 1, care depinde doar de lungimea intervalului A şi nu de
aşezarea acestuia în intervalul de bază Ω:

b' − a '
P( A) =
b−a

Conceptul de măsură, uşor de definit pentru intervale, se extinde la clase mult mai largi
de mulţimi, iar teoria măsurii este o ramură amplă a matematicii care tratează domeniul. Pentru
cele necesare în acest context, ne vom limita a afirma faptul că există clase de mulţimi
măsurabile. Aceasta înseamnă că pentru mulţimile dintr-o astfel de clasă s-a definit o măsură
exprimată prin numere pozitive şi finite.
Pentru a da o aşa-numită definiţie geometrică a probabilităţii vom considera, într-un
spaţiu cu n dimensiuni, o mulţime măsurabilă Ω, de bază. Să facem observaţia că despre spaţii
abstracte cu n dimensiuni s-a mai discutat, deja, în finalul secţiunii 1.2. Vom mai nota cu
mulţimea tuturor submulţimilor măsurabile ale lui Ω (sau mulţimea părţilor măsurabile ale lui
Ω). Pentru orice astfel de mulţime A ∈ L (parte măsurabilă a lui Ω), se notează cu µ(A) măsura
lui A. Se aruncă, la întâmplare, un punct în mulţimea Ω şi se cere să se exprime probabilitatea ca
punctul să cadă în mulţimea A. Intuitiv, putem spune că această probabilitate este proporţională
cu măsura mulţimii A şi nu depinde de forma şi aşezarea lui A în Ω. Definiţia poate fi
sistematizată astfel:

Definiţia 4.3.3 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Fie Ω o mulţime măsurabilă, L - mulţimea părţilor măsurabile ale lui Ω şi o mulţime
măsurabilă A ∈ L.
Fie, notat tot cu A, evenimentul ca un punct ales la întâmplare în Ω să aparţină mulţimii A
∈L.
Prin definiţie, probabilitatea evenimentului A este numărul P(A) care se calculează ca
raportul între măsura mulţimii A şi măsura mulţimii Ω.:

µ( A) (4.3.2)
P ( A) =
µ(Ω )

■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Această probabilitate verifică proprietăţile observate atât la definiţia statistică , unde se


foloseşte frecvenţa relativă cât şi la definiţia clasică. {i acestei definiţii i-au fost aduse critici
pentru modul arbitrar în care s-a definit probabilitatea.

Definiţia axiomatică a probabilităţii


Inconvenientele diferitelor definiţii ale probabilităţii au fost depăşite de A. N.
Kolmogorov care a pus bazele axiomatice ale teoriei probabilităţilor (1931). Această
axiomatizare leagă teoria probabilităţilor de teoria măsurii şi teoria funcţiilor de variabile reale.

Definiţia 4.3.4■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
Fie (E, K) un câmp de evenimente.
Se numeşte probabilitate pe câmpul de evenimente (E, K) o funcţie

P: K → [ 0, 1] (4.3.3)

cu proprietăţile

(1) P( E ) = 1
 
(2) P U Ak  = ∑ P( Ak )
 k ∈I  k ∈I
unde I este o mulţime de indici, finită sau infinită, iar pentru orice i,j ∈ I, i ≠ j,
Ai ∩ A j = ∅ , (evenimentele sunt incompatibile două câte două).
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

În definiţia de mai sus, proprietatea (1) spune că probabilitatea evenimentului sigur este
1, iar proprietatea (2) spune că probabilitatea reuniunii a mai multor evenimente incompatibile
este egală cu suma probabilităţilor acelor evenimente.
Dacă (E, K) este un câmp finit de evenimente ale cărui evenimente elementare sunt
E = {e1 , e 2 ,K , e n }

atunci, din definiţia 4.3.4 rezultă:


P( ei ) ≥ 0, i = 1,2 ,K , n
n

∑ P( e ) = P ( E ) = 1
i =1
i

Dacă P(e1) = P(e2) = ...= P(en) spunem că evenimentele elementare sunt egal probabile şi,
în aceste caz, rezultă

1
P( e i ) = (4.3.4)
n

Dacă A ∈ K este un eveniment oarecare, el se poate scrie ca reuniune de evenimente


elementare:
A = ei1 ∪ ei2 ∪ K ∪ eim

de unde,
m  m
1 m
P( A) = P eir  =
U
 r =1 
∑ P( e ) = m ⋅ n = n
r =1
ir

Deci, într-un câmp finit de evenimente ale cărui n evenimente elementare sunt egal
probabile, probabilitatea unui eveniment oarecare A este egală cu raportul dintre numărul m de
evenimente elementare favorabile lui A şi numărul total n de evenimente elementare ale
câmpului:

m
P( A) = (4.3.5)
n

Se vede, astfel, cum definiţia clasică a probabilităţii este conţinută ca un caz particular în definiţia
axiomatică.

Exemplu. Experiment: aruncarea unui zar. Avem: E = {1, 2 , 3, 4 , 5, 6}


Pentru evenimentul A = {1, 3, 5} rezultă probabilitatea P( A) = 3 6 = 1 2 .
Definiţia 4.3.5 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
Fie (E, K) un câmp de evenimente (finit sau infinit).
Se numeşte câmp de probabilitate, un triplet (E, K, P) în care P este o probabilitate
definită pe (E, K).
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Se poate arăta că, pentru orice câmp de probabilitate au loc proprietăţile următoare.
(1) P(∅) = 0
(2) P( A) = 1 − P( A ) , pentru orice A ∈ K.
(3) dacă A, B ∈ K şi A ⊆ B , atunci P( B − A) = P( B) − P( A)
(4) în general, P( B − A) = P( B) − P( A ∩ B)
(5) dacă A ⊆ B , atunci P( A) ≤ P( B) .
(6) 0 ≤ P( A) ≤ 1, pentru orice A ∈ K.
(7) P( A ∪ B) = P( A) + P( B) − P( A ∩ B), pentru orice A,B ∈ K.
 
(8) P U Ai  ≤ ∑ P( Ai ) , unde I este o mulţime de indici, finită sau infinită.
 i ∈I  i ∈I

Încheiem această secţiune cu observaţia suplimentară că, dacă (E, K) este un câmp de
evenimente infinit, atunci (E, K, P) se numeşte câmp de probabilitate borelian.

4.4 Probabilităţi condiţionate. Evenimente independente


Definiţia 4.4.1 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
Fie (E, K, P) un câmp borelian de probabilitate şi A, B ∈ K două evenimente. În plus,
probabilitatea de apariţie a evenimentului A este nenulă (P(A) ≠ 0).
Se numeşte probabilitatea evenimentului B condiţionată de evenimentul A, sau
probabilitatea condiţionată a lui B în raport cu A, expresia:

P( A ∩ B )
PA ( B ) = (4.4.1)
P( A)

■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Notaţii: PA(B) sau P(B|A).


PA(B) exprimă probabilitatea producerii evenimentului aleator B în ipoteza că
evenimentul A, care este tot aleator, s-a produs.
Similar, dacă P(B) ≠ 0, se defineşte probabilitatea condiţionată a lui A în raport cu B:
P( A ∩ B )
PB ( A) = (4.4.2)
P( B )

Definiţia 4.4.2 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Fie (E, K, P) un câmp borelian de probabilitate şi A, B ∈ K două evenimente.
Evenimentele A şi B se numesc independente dacă are loc egalitatea:

P ( A ∩ B ) = P ( A) ⋅ P ( B ) (4.4.3)

■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Ideea intuitivă este că două evenimente se numesc independente dacă producerea unuia
nu depinde de producerea celuilalt. Acest lucru se observă dacă folosim definiţiile 4.4.1 şi 4.4.2.
Astfel, din relaţia 4.4.1 rezultă, în general:

P( A ∩ B ) = P( A) ⋅ PA ( B ) (*)

Dacă, în plus, evenimentele sunt independente are loc relaţia (4.4.3). Deci, pentru doua
evenimente independente se pot combina relaţia (4.4.1) şi relaţia (*) de mai sus şi rezultă:

P( A) ⋅ P( B ) = P( A) ⋅ PA ( B ) ⇒ P( B ) = PA ( B )

Din relaţia obţinută mai sus arată că, dacă evenimentele sunt independente, probabilitatea
lui B condiţionată de A este aceeaşi cu probabilitatea lui B (necondiţionată). Aceasta arată că, B
fiind independent de A, probabilitatea lui B nu depinde de A.
Se pot demonstra următoarele proprietăţi.
(1) Probabilităţile PB(A) şi PA(B) sunt proporţionale:

PA ( B ) PB ( A)
= (4.4.2)
P( B ) P ( A)

Proprietatea se demonstrează imediat folosind relaţiile (4.4.1) şi (4.4.2).


(2) Dacă Ai, i = 1, 2, ..., n formează un sistem complet de evenimente şi B este un
eveniment oarecare, atunci are loc relaţia:

P( B ) = P( A1 ) ⋅ PA1 ( B ) + P( A2 ) ⋅ PA2 ( B ) + K + P( An ) ⋅ PAn ( B ) (4.4.3)


Relaţia de mai sus se numeşte formula probabilităţii totale.
(3) Dacă Ai, i = 1, 2, ..., n formează un sistem complet de evenimente şi B este un
eveniment oarecare, atunci are loc relaţia:

P( Ai ) ⋅ PAi ( B )
PB ( Ai ) = (4.4.4)
P( A1 ) PA1 ( B ) + K + P( An ) PAn ( B )

Relaţia de mai sus se numeşte formula lui Bayes.


(4) Fie evenimentele Ai, i = 1, 2, ..., n. Are loc inegalitatea:

n
P( A1 ∩ A2 ∩ K ∩ An ) ≥ 1 − ∑ P( A )
i =1
i (4.4.5)

sau, echivalent,

n
P( A1 ∩ A2 ∩ K ∩ An ) ≥ ∑ P( A ) − n + 1
i (4.4.5')
i =1

Relaţia (4.5.5) şi cea echivalentă (4.5.5') poartă numele de inegalitatea lui Boole.
(5) Pentru evenimentele Ai, i = 1, 2, ..., n are loc egalitatea

P( A1 ∩ A2 ∩ K ∩ An ) = P( A1 ) ⋅ PA1 ( A2 ) ⋅ PA1 ∩ A2 ( A3 ) ⋅ K ⋅ PA1 ∩K∩ An −1 ( An ) (4.4.6)

Relaţia (4.4.6) se numeşte formula de înmulţire a probabilităţilor.

Rezolvaţi exerciţiile din secţiunea "Probabilităţi" de la pagina 4-20

4.5 Variabile aleatoare


Variabilele aleatoare sunt mărimi care se schimbă sub influenţa unor factori întâmplători.

Exemple:
a) numărul de zile ploioase într-un an, într-o anumită regiune;
b) numărul de băieţi la suta de nou-născuţi;
c) numărul de apeluri telefonice la o centrală în unitatea de timp;
d) timpul de funcţionare fără avarii a unui utilaj (în număr de ore);
e) timpul care se scurge între două apeluri consecutive la o centrală telefonică.
Din exemplele date, se observă că există variabile a căror mulţime de valori este:
• finită: acestea se numesc variabile aleatoare simple (exemplele a şi b);
• numărabilă: acestea se numesc variabile aleatoare discrete (exemplele c şi d);
• continuă: acestea se numesc variabile aleatoare continue (exemplul e).
Cele de până acum duc la concluzia că o variabilă aleatoare poate fi privită ca o
corespondenţă între mulţimea rezultatelor posibile (evenimentele elementare) ale unui experiment
aleator şi mulţimea numerelor reale. Deci, pentru a caracteriza o variabilă aleatoare, trebuie
cunoscute valorile sale posibile împreună cu probabilităţile de a lua aceste valori. Rezultă o
funcţie, aceasta fiind şi modalitatea prin care se poate face definirea riguroasă a noţiunii de
variabilă aleatoare.

Definiţia 4.5.1 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Fie (E, K) un câmp de evenimente.
Se numeşte variabilă aleatoare pe (E, K) orice aplicaţie

X:E → R
(4.5.1)

care are proprietatea că, oricare ar fi un interval I al mulţimii numerelor reale R,

{e | X (e) ∈ I } ∈ K (4.5.2)

■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Notaţii: variabilele aleatoare se notează frecvent cu X, Y, Z, ...


Definiţia spune că, oricare ar fi un interval I al dreptei reale, mulţimea evenimentelor
elementare care se asociază prin funcţia X cu punctele intervalului formează un eveniment din
câmpul de evenimente K.
Această definiţie acoperă toate categoriile de variabile aleatoare, inclusiv pe cele de tip
continuu. În cele ce urmează, ne vor interesa, în special, variabilele aleatoare discrete, adică cele
care au mulţimea valorilor numărabilă. Ba chiar, în multe cazuri, va fi suficient să ne limităm la
variabile aleatoare simple, adică cele care au mulţimea valorilor finită. Pentru aceste categorii de
variabile aleatoare se poate face o reprezentare sub formă de tablou a funcţiei corespunzătoare.
Prima linie a tabloului conţine toate valorile posibile, în ordine crescătoare, pe care le poate lua
variabila aleatoare, iar pe linia a doua se trec probabilităţile corespunzătoare de apariţie a acestor
valori. Dat fiind că probabilităţile de pe linia a doua corespund tuturor valorilor pe care le poate
lua variabila aleatoare, rezultă că suma acestor probabilităţi trebuie să fie, obligatoriu, egală cu 1.
Se obţine, astfel, un aşa-numit tablou de distribuţie (sau repartiţie) al variabilei aleatoare.

Definiţia 4.5.2 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Se numeşte repartiţie, sau distribuţie, a variabilei aleatoare simple X, tabloul:

n
x x2 K xn  x 
X : 1
 p1

p2 K pn 
, sau X : i 
 pi  i =1,2 ,...,n
, unde ∑p
i =1
i = 1. (4.5.3)

Se numeşte repartiţie, sau distribuţie, a variabilei aleatoare discrete X, tabloul:



x x2 K xn K x 
X : 1
 p1

p2 K pn K
, sau X :  i  , unde
 pi  i ∈N
∑p
i =1
i = 1. (4.5.4)

■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Operaţii cu variabile aleatoare simple


Se poate demonstra că, dacă X şi Y sunt variabile aleatoare simple, atunci cu ele se pot
efectua operaţiile definite mai jos, iar rezultatele acestor operaţii sunt tot nişte variabile aleatoare.
x  yj
Fie, deci, variabilele aleatoare simple X :  i  şi Y :   . Se definesc:
 pi  i =1,2 ,...,m  q j  j =1,2 ,...,n

 ax 
1. Înmulţirea cu o constantă a ∈ R aX :  i 
 pi  i =1,2 ,...,m

 a + xi 
2. Adunarea cu o constantă a ∈ R a + X : 
 pi  i =1,2 ,...,m

 xi r 
r
3. Ridicarea la putere X : 
 pi  i =1,2 ,...,m

 xi + yi 
4. Adunarea (variabilelor independente) X + Y:  
 pi q j  i =1,2 ,...,m
j =1,2 ,...,n

 xi yi 
5. Înmulţirea (variabilelor independente) XY :  
 pi q j  i =1,2 ,...,m
j = 1,2 ,...,n

Exemplu
 1 3 4  1 2
Fie variabilele aleatoare X :   şi Y:  .
 0.2 0.3 0.5  0.3 0.7
Se pot da următoarele exemple de operaţii:
. + 1 15
 15 . + 3 15
. + 4  2.5 4.5 55
.
. + X :
15  = 
 0.2 0.3 0.5   0.2 0.3 0.5

 − 2 ⋅ 1 − 2 ⋅ 3 − 2 ⋅ 4  − 2 − 6 − 8
− 2 X :  = 
 0.2 0.3 0.5   0.2 0.3 0.5

 13 33 4 3   1 27 64
X 3:  = 
 0.2 0.3 0.5  0.2 0.3 0.5
 1+1 1+ 2 3+1 3+ 2 4 +1 4+2   2 3 4 5 6 
X + Y:   = 
 0.2 ⋅ 0.3 0.2 ⋅ 0.7 0.3 ⋅ 0.3 0.3 ⋅ 0.7 0.5 ⋅ 0.3 0.5 ⋅ 0.7  0.06 014
. 0.09 0.36 0.55

 1⋅1 1⋅ 2 3⋅1 3⋅ 2 4 ⋅1 4⋅2   1 2 3 4 6 8 


XY:   = 
 0.2 ⋅ 0.3 0.2 ⋅ 0.7 0.3 ⋅ 0.3 0.3 ⋅ 0.7 0.5 ⋅ 0.3 0.5 ⋅ 0.7  0.06 014
. 0.09 015
. 0.21 0.35

4.6 Caracteristici numerice ale variabilelor aleatoare


Deşi, în cazul variabilelor aleatoare discrete, cu ajutorul tabloului de distribuţie se poate
caracteriza complet variabila, de multe ori este suficient să ne rezumăm la o caracteristică mult
mai simplă, chiar dacă ea are o precizie mai mică. În continuare sunt prezentate cele mai utilizate
caracteristici numerice pentru variabilele aleatoare discrete. Bineînţeles ele sunt definite şi pentru
variabilele continue.

Fie variabila aleatoare cu repartiţia


x x2 K xn 
X : 1 
 p1 p2 K pn 

Medie
Media variabilei aleatoare X se defineşte ca:

n
M( X ) = ∑x p
i =1
i i
(4.6.1)

Notaţii: M(X), m, µ

Exemplu
1 2 3 1 2 1
Fie variabila aleatoare X :  1  . Atunci, M ( X ) = 1 ⋅ + 2 ⋅ + 3 ⋅ = 2 .
 4 2
4
1 
4 4 4 4
Media are o serie de proprietăţi care sunt enumerate în continuare.
(1) Media este un număr cuprins între cea mai mică şi cea mai mare valoare a variabilei
aleatoare.
(2) Media unei constante este egală cu constanta: M(a) = a.
n n
Într-adevăr, M (a ) = ∑ api =a ∑ pi = a ⋅ 1 = a .
i =1 i =1

(3) O mărime constantă poate fi scoasă în afara mediei, adică: M (aX ) = aM ( X )


n n
Într-adevăr, M (aX ) = ∑ axi pi =a ∑ xi pi = aM ( X )
i =1 i =1

(4) Pentru două variabile aleatoare independente X şi Y, media sumei este egală cu suma
mediilor, adică: M ( X + Y ) = M ( X ) + M (Y ) .
(5) Pentru două variabile aleatoare independente X şi Y, media produsului este egal cu
produsul mediilor, adică: M ( X ⋅ Y ) = M ( X ) ⋅ M (Y ) .

Mediană
Se numeşte mediană a variabilei aleatoare X, valoarea Me pentru care probabilitatea ca
variabila aleatoare să ia valori mai mici ca Me este egală cu probabilitatea ca X să ia valori mai
mari ca Me, adică P( X < Me) = P( X > Me) .
Pentru o variabilă aleatoare discretă determinarea medianei se face astfel:
a) dacă variabila aleatoare are un număr par de valori (n = 2p), atunci va exista un
interval median [ x p , x p +1 ] şi mediana poate fi orice număr din acest interval. De obicei
x p + x p +1
se ia Me = .
2
b) dacă variabila aleatoare are un număr impar de valori (n = 2p+1), atunci Me = x p +1 .

Mod
Pentru variabila aleatoare discretă X care ia valorile ( xi )i =1,2 ,...,n , aranjate în ordine
crescătoare, cu probabilităţile ( pi ) i =1,2 ,...,n , punctul Mo = xm se numeşte mod dacă sunt satisfăcute
inegalităţile: pm > pm−1 şi pm > pm+1 .

Media M(X), mediana Me şi modul Mo se numesc caracteristici ale tendinţei centrale de


grupare a variabilei X. Între ele nu există, în general, relaţii bine determinate.

Dispersie (varianţă)
Media, mediana şi modul exprimă doar tendinţa centrală a valorilor unei variabile
aleatoare, dar nu oferă nici o informaţie asupra împrăştierii valorilor unei variabile aleatoare. De
aceea, sunt necesare caracteristici care să indice în ce măsură valorile se abat de la valoarea
centrală de grupare. Una din aceste caracteristici este dispersia.
Fie, din nou, variabila aleatoare X cu media M(X):
n
x x2 K xn 
X : 1
 p1 p2
,
K pn 
M( X ) = ∑x p
i =1
i i .

Atunci, variabila aleatoare X - M(X) se numeşte abaterea de la medie a variabilei X; ea


are repartiţia:
 x − M( X ) x 2 − M ( X ) K x n − M ( X )
X : 1 
 p1 p2 K pn 
Problema este că abaterea de la medie nu poate furniza o măsură a împrăştierii valorilor
variabilei deoarece media sa este zero. Într-adevăr, aplicând proprietăţile mediei (notate în
paranteze), rezultă:
( 2) ( 3)
( ) (
M X − M( X ) = M( X ) − M M( X ) = M( X ) − M( X ) = 0 )
De aceea, se defineşte un alt indicator al împrăştierii valorilor variabilei aleatoare:
dispersia. Prin definiţie, dispersia (sau varianţa) variabilei aleatoare X este media pătratelor
abaterilor de la medie.

(
D2 ( X ) = M X − M ( X ) ) (4.6.2)
2

Notaţii: D2(X), σ2
Deci, pentru o variabilă aleatoare simplă cu media m, dispersia va fi:
D 2 ( X ) = ( x1 − m) p1 + ( x 2 − m) p2 + K + ( x n − m) pn
2 2 2

Pe baza proprietăţilor mediei se obţine:

(
D 2 ( X ) = M X − M ( X )) = M  X 2 − 2 XM ( X ) + M ( X ))  = (
2 2

( ) (
= M X 2 − 2 M ( X ) M ( X ) + M ( X )) = M X 2 − M ( X ))
2
( ) ( 2

Deci, formula de calcul a dispersiei este:

( ) (
D 2 ( X ) = M X 2 − M ( X ))
2
(4.6.3)

Exemplu
1 2 3
Să se calculeze dispersiile variabilei aleatoare X :  1 .
 3 1
3 3
1

2
Trebuie calculată variabila aleatoare X pentru că media acesteia intervine în calcularea
dispersiei.
1 4 9
X 2 : 
 13 1
3
1 
3

Avem M ( X ) = +
1
3
2 3 1 4 9 14
+ = 2 şi M X 2 = + + =
3 3 3 3 3 3
( )
. Deci,

( ) (
D 2 ( X ) = M X 2 − M ( X )) =
2 14
3
−4=
2
3
Proprietăţile dispersiei
(1) D 2 ( X ) ≥ 0 . Această proprietate rezultă imediat din definiţie.
(2) D 2 (a ) = 0 (dispersia unei constante este nulă).
(3) D 2 (aX ) = a 2 D 2 ( X )
(4) D 2 ( X + Y ) = D 2 ( X ) + D 2 (Y ) . Proprietatea se verifică imediat cu relaţia (4.6.3).
(5) D 2 (a + X ) = D 2 ( X )

Abaterea medie pătratică (deviaţia standard)


Abaterea medie pătratică (sau deviaţia standard) este rădăcina pătrată a dispersiei. Se
notează D(X) sau σ.

D( X ) = σ = D 2 ( X ) (4.6.4)

Abaterea medie pătratică are aceleaşi dimensiuni ca variabila aleatoare X, de aceea este
mai intuitivă pentru exprimarea împrăştierii valorilor variabilei. De aceea, de regulă, gradul de
împrăştiere a valorilor variabilei aleatoare X în jurul mediei se măsoară prin abaterea medie
pătratică şi nu prin dispersie.
Pentru o variabilă aleatoare simplă X care are media m, abaterea medie pătratică se
calculează astfel:
D( X ) = σ = ( x1 − m) p1 + ( x 2 − m) p2 + K + ( x n − m) pn
2 2 2

Anexă
Pentru a face posibilă calcularea numărului de cazuri favorabile şi a numărului de cazuri
posibile, reamintim semnificaţia noţiunilor de permutări, aranjamente, combinări, precum şi
formulele pentru calcularea acestora.
• Permutări de n (notaţie: n!) înseamnă: în câte moduri se pot ordona n elemente?
Formula de calcul: n ! = 1 ⋅ 2 ⋅ 3 ⋅ K ⋅ n
• Aranjamente de n luate câte k (notaţie: Ank ) înseamnă: câte grupe de k elemente, ordonate, se
pot face dintr-o mulţime de n elemente?
Formula de calcul: Ank = n(n − 1) ⋅ K ⋅ (n − k + 1)
• Combinări de n luate câte k (notaţie: Ank ) înseamnă: câte grupe de k elemente, la care nu
contează ordinea, se pot face dintr-o mulţime de n elemente?
Ank
Formula de calcul: Cnk =
k!

Rezolvaţi exerciţiile din secţiunea "Variabile aleatoare" de la pagina 4-19.

Elementele de teoria probabilităţilor din acest capitol sunt o bază pentru definirea
proceselor abordate în capitolul următor. De asemenea, ele constituie un punct de plecare pentru
dezvoltarea ulterioară a unor elemente de statistică.
Exerciţii
Evenimente
Fie experimentul care constă în aruncarea unui zar. Considerăm următoarele evenimente:
A - apariţia unui număr par de puncte B - apariţia unui număr impar de
puncte
C - apariţia unui număr mai mic sau egal cu 3 D - apariţia uneia din feţele 2 sau 3
L - apariţia uneia din feţele 1 sau 3 F - apariţia unui nr. strict mai mare ca 4
G - apariţia unui număr mai mic sau egal cu 4 H - apariţia feţei 4
I - apariţia feţei 5 J - apariţia feţei 6 K - apariţia feţei 3
1) Care perechi de evenimente sunt incompatibile?
2) Care evenimente implică alte evenimente?
3) Daţi două exemple de evenimente contrare.
4) Care sunt evenimentele elementare din cele de mai sus? De ce?
5) Care din evenimentele de mai sus sunt compuse? De ce?
6) Scrieţi evenimentele: R1: A sau C R2: A şi C R3: A - C
R4: B sau D R5: B şi D R6: B-D
7) Mulţimea de evenimente definite mai sus formează un câmp de evenimente?
8) Se pot forma sisteme complete de evenimente dintre cele de mai sus? Dacă da, daţi
exemple.

Probabilităţi
1) Un student face parte dintr-o grupă de 26 studenţi care, la rândul ei, face parte dintr-un
an cu 76 studenţi. Anul său face parte dintr-o facultate cu 601 studenţi. Studentul se
întâlneşte pe stradă cu un coleg. Care este probabilitatea ca:
a) să fie un coleg de grupă? b) să fie un coleg de an?
2) O urnă conţine 3 bile albe şi 4 bile negre. Altă urnă conţine 4 bile albe şi 5bile negre.
Să se determine probabilităţile următoarelor evenimente:
a) F1 - ambele bile extrase să fie albe. b) F2 - cel puţin o bilă extrasă să fie albă.
c) F3 - bila extrasă din prima urnă să fie albă, iar cealaltă să fie neagră.
3) Trei trăgători trag simultan asupra unei ţinte. Probabilităţile pentru fiecare trăgător să
lovească ţinta sunt, respectiv: p1 = 0.4, p2 =0.5, p3 = 0.7.
4) Să se afle probabilitatea ca ţinta să fie lovită exact o dată.
5) O urnă conţine 3 bile albe şi 4 bile negre. Se extrag succesiv două bile (fără a pune bila
la loc). Fie evenimentele: A - prima bilă extrasă este albă; B - a doua bilă este albă.
Care este probabilitatea ca a doua bilă să fie albă dacă prima a fost albă?
6) Două urne, U1 şi U2, au următoarea compoziţie: U1 - 3 bile albe şi 4 bile negre; U2 - 4
bile albe şi 5 bile negre. Dintr-o urnă, aleasă la întâmplare, se extrage o bilă. Care este
probabilitatea ca bila extrasă să fie albă?
7) Fie 5 urne dintre care: două au compoziţia k1: 3 bile albe şi 4 bile negre; una are
compoziţia k2: 4 bile negre; două au compoziţia k3: 10 bile albe şi 2 bile negre.
a) Care este probabilitatea ca, dintr-o urnă luată la întâmplare, să se extragă o bilă
albă?
b) Ştiind că s-a extras o bilă care s-a nimerit să fie albă, care este probabilitatea ca bila
extrasă să fie dintr-o urnă cu compoziţia k3?
Variabile aleatoare
1) Se aruncă două zaruri şi se notează cu S numărul de puncte care apar. Să se formeze
tabloul de distribuţie al variabilei S.
2) Se aruncă două zaruri. Se acordă 12 puncte dacă suma feţelor care apar este 2 sau 12, 4
puncte dacă suma feţelor este 7 şi 1punct în celelalte cazuri. Să se scrie distribuţia
numărului N de puncte acordat.
3) În condiţiile problemelor precedente să se calculeze variabilele aleatoare S+1 şi 2N.
1 2 3 4
4) Fie variabila aleatoare X :  .
p 7
4 p 1
3 6
1

a) cât este valoarea lui p?


b) care este probabilitatea ca X să ia o valoare mai mică sau egală cu 3?
− 1 0 1 −1 1  2 2 2 2 n n
5) Fie X :   şi Y:   . Calculaţi X , Y , X +Y , X , Y .
 0.3 0.3 0.4  0.5 0.5
6) Să se calculeze media şi dispersia pentru fiecare dintre variabilele aleatoare din
exerciţiile precedente.
5
Lanţuri Markov

5.1 Procese stochastice. Lanţuri Markov


5.2 Proprietăţi de bază ale lanţurilor Markov
5.3 Lanţuri Markov regulate

Obiectivele capitolului
• Înţelegrea noţiunii de proces stochastic.
• Introducerea lanţurilor Markov, o clasă de procese stochastice.
• Ilustrarea tipurilor de situaţii din lumea reală care pot fi modelate şi manipulate folosind
lanţuri Markov.
• Discutarea proprietăţilor de bază ale lanţurilor Markov.
• Studierea unei clase speciale, lanţurile Markov regulate.
¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦

Multe fenomene din lumea reală (management, structuri sociale, economie etc.) pot fi
caracterizate ca având o evoluţie în etape. Mai mult, trecerea de la o etapă la alta comportă
schimbări care nu pot fi stabilite determinist, ci au un caracter aleator. Astfel de fenomene sunt
modelate prin intermediul aşa-numitelor procese stochastice.
O clasă specială de procese stochastice este reprezentată de lanţurile Markov. Acestea s-
au dovedit utile pentru modelarea unui număr mare de situaţii din realitate, de aceea li s-a acordat
o atenţie specială.
În acest capitol se face o introducere în domeniul proceselor stochastice, în special al
lanţurilor Markov. O clasă importantă care va fi avută în vedere sunt lanţurile Markov regulate.
Se va face legătura directă cu tipuri de situaţi din lumea reală care se pretează a fi modelate în
acest fel.
5.1. Procese stochastice. Lanţuri Markov
Multe experimente aleatoare se desfăşoară în etape. De aceea, un astfel de experiment
poate fi considerat ca fiind o secvenţă de subexperimente şi fiecare rezultat al experimentului este
determinat de rezultatele subexperimentelor (în ordine).
Un exemplu este următorul: se dau trei urne, fiecare conţinând bile albe şi bile negre în
câte o proporţie. Se alege o urnă la întâmplare şi, din ea, se extrage o bilă. Se cere probabilitatea
apariţiei unei bile albe din urna 2. Se observă că experimentul are două faze:
♦ alegerea urnei (la întâmplare)
♦ extragerea bilei (tot la întâmplare).

Definiţia 5.1.1 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Se numeşte proces stochastic un experiment aleator care constă dintr-o suită de
subexperimente (tot aleatoare).
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Deci, un proces stochastic este o mulţime indexată de variabile aleatoare, {Xt}, unde t
parcurge o mulţime T. Adesea, T este mulţimea indicilor pozitivi T = N, iar Xt reprezintă o
caracteristică, cantitativă sau calitativă, a sistemului fizic sau economic cercetat.
O modalitate grafică de a descrie un proces stochastic (atunci când numărul de cazuri nu
este prea mare) este prin intermediul unei diagrame ca cea care urmează: Fie, din nou exemplul
celor trei urne. Ele conţin U1: 3a+4n, U2: 4a+5n, U3: 5a+6n (a - bile albe, b - bile negre). Se
poate trasa o diagramă ca cea din figura 5.1.1

3 1 1
a P(a ∩ U 1 ) = ⋅ =
3/7 7 3 7
U1
1 4 4
P(n ∩ U 1 ) =
4/7
⋅ =
n 3 7 21
1 4 4
P(a ∩ U 2 ) = ⋅ =
1/3
a 3 9 27
4/9
1/3
start U2
1 5 5
5/9
P(n ∩ U 2 ) = ⋅ =
n 3 9 27
1/3
1 5 5
P(a ∩ U 3 ) = ⋅ =
a 3 11 33
5/11

U3
1 6 2
6/11 P(n ∩ U 3 ) = ⋅ =
n 3 11 11

Fig. 5.1.1

Observaţie Pe această diagramă se pot vedea uşor şi diferite probabilităţi condiţionate.


De exemplu:
1 4 4
a). Probabilitatea de rezulta o bilă albă care a fost extrasă din urna U2 este ⋅ = .
3 9 27
1 4 5
b). Probabilitatea de a extrage bile albe, indiferent de urnă este + + .
7 27 33
Fie acum o succesiune de experimente, fiecare având aceleaşi rezultate posibile. Prin
urmare, se va considera că t este un moment de timp care ia valorile 1, 2, 3, …(aceasta dă
secvenţa de experimente). Pentru fiecare moment, rezultatele posibile vor fi notate 1, 2, …, m (le
considerăm în număr finit). Cele m rezultate posibile vor fi numite stările în care se poate afla
sistemul la un moment dat. Unitatea de măsură pentru momentele de timp succesive t depinde de
sistemul economic/fizic studiat.
Un tip de astfel de secvenţe este acela în care probabilităţile rezultatelor la un moment dat
sunt independente de rezultatele experimentelor precedente (de exemplu: aruncarea repetată a
unui zar, sau extrageri ale bilei din urnă cu revenire).
Un alt tip de secvenţă este acela în care probabilităţile rezultatelor la un moment dat
depind de rezultatele din experienţele anterioare (ca, de exemplu extragerile succesive din urnă
fără repunerea bilei la loc). În cazul acestui din urmă tip de experiment se pot distinge două
subcazuri extreme:
- o extremă e reprezentată de faptul că probabilităţile rezultatelor la un moment dat
depind de rezultatele tuturor experimentelor precedente din secvenţă;
- cealaltă extremă a nivelului de dependenţă este atunci când probabilităţile rezultatelor la
un moment dat depind doar de rezultatele experimentului precedent. În această situaţie secvenţa
de experimente se numeşte proces (lanţ) Markov.

Definiţia 5.1.2 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Un proces Markov sau lanţ Markov este o succesiune de experimente în care fiecare
experiment are m rezultate posibile E1, E2, … Em, iar probabilitatea fiecărui rezultat
depinde doar de rezultatul experimentului precedent.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Cele de mai sus pot fi formalizate astfel:

Definiţia 5.1.3 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Se spune că un proces stochastic are proprietatea lui Markov dacă este îndeplinită
egalitatea:

P(Xt+1 = jX1 = k1, …, Xt-1 = kt-1, Xt = i) = P(Xt+1 =jXt = i), (5.1.1)

pentru t =1, 2, … şi pentru orice succesiune k1, k2, …kt-1, i, j de stări din mulţimea celor m
stări posibile ale sistemului.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Notă:
În (5.1.1) se foloseşte notaţia P(A/B) pentru probabilitatea evenimentului A condiţionat de
evenimentul B (în loc de PB(A)).
Proprietatea lui Markov arată tocmai faptul că probabilitatea condiţionată a oricărui
eveniment viitor (Xt+1 = j), date fiind evenimentele trecute X1 = k1, …, Xt-1 = kt-1 şi starea prezentă
Xt = i este independentă de stările trecute şi depinde doar de starea prezentă a procesului.
Există o largă varietate de fenomene care sugerează o comportare în maniera unui proces
Markov.
Exemple
♦ probabilitatea ca o persoană să cumpere un produs de o anumită marcă (detergent,
bere etc.) poate depinde de marca aleasă la cumpărătura precedentă;
♦ probabilitatea ca o persoană să aibă cazier poate depinde de faptul că părinţii au avut
sau nu cazier;
♦ probabilitatea ca starea de sănătate a unui pacient să se îmbunătăţească, să se
înrăutăţească sau să rămână stabilă într-o zi poate depinde de ceea ce s-a întâmplat în
ziua precedentă.
Evoluţia unui proces Markov poate fi descrisă prin intermediul unei matrice. Acest lucru
este ilustrat prin definiţia care urmează.

Definiţia 5.1.4 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Fie un proces Markov care are m rezultate posibile mutual exclusive E1, E2, …, Em.
Matricea P definită ca în relaţia (5.1.2) se numeşte matrice de tranziţie într-un pas sau,
pe scurt, matricea de tranziţie.

starea următoare (rezultatul viitor)


1 2 j m
1  p11 p12 L p1 j L p1m 
 
2  p 21 p 22 L p2 j L p 2m 
starea L L L L L 
 =P (5.1.2)
precedentă i  p i1 pi 2 L p ij L p im 
(rezultatul L
 L L L L L 
curent)
m  p m1 pm2 L p mj L p mm 

Un element pij al matricei P se numeşte probabilitatea de trecere într-un pas de la starea


i la starea j

pij = P(Xt+1 = j / Xt = i) (5.1.3)

se mai numeşte
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

După cum se observă din (5.1.2) că matricea de tranziţie într-un pas a fost notată cu P. La
un moment dat sistemul modelat este într-una din cele m stări posibile (curente). O stare
corespunde uneia din rezultatele posibile ale experimentului. La sfârşitul efectuării
experimentului se obţine un nou rezultat care reprezintă o nouă stare în care a trecut sistemul.
Matricea de tranziţie este formată din elementele pij care reprezintă probabilitatea
condiţionată ca sistemul să treacă din starea curentă i în starea următoare j. Deci pij este
probabilitatea să apară rezultatul Ej în pasul următor dacă s-a produs rezultatul Ei în pasul
precedent. Se observă că pij nu depinde de momentul t, ci doar de stările i şi j. Deci pij(t) = pij,
oricare ar fi t şi de aceea pij se numesc probabilităţi de trecere staţionare. Ele sunt caracteristice
lanţurilor Markov.
Din cele de mai sus se poate formula următoarea definiţie a lanţului Markov, echivalentă
cu definiţia 5.1.2.

Definiţia 5.1.5 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Un proces stochastic {Xt}, t = 1, 2, … se numeşte proces Marcov (lanţ Markov) dacă
îndeplineşte următoarele condiţii:
♦ are un număr finit de stări I = {1, 2, …, m},
♦ are proprietatea lui Markov,
♦ are probabilităţile de trecere într-un pas staţionare,
♦ are o mulţime de probabilităţi iniţiale pentru orice stare i ∈ I
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Observaţii
1. Pij cu i = j reprezintă probabilitatea ca sistemul să rămână în aceeaşi stare după
efectuarea experimentului, iar Pij cu i ≠ j reprezintă probabilitatea ca sistemul să
treacă dintr-o stare în alta.
2. Matricea de tranziţie este o matrice pătratică de ordin m.

Proprietăţi
Elementele matricei de tranziţie trebuie să satisfacă următoarele:
1. 0 ≤ pij ≤ 1, i,j = 1,…,m (pentru că este vorba de probabilităţi),
m
2. ∑p
j =1
ij = 1, i = 1,2 ,..., m (suma pe linie trebuie să dea 1 pentru că E1, E2, …Em este un

sistem complet de evenimente).


Proprietatea 2 asigură că, dată fiind o stare curentă i a sistemului, sistemul va trece cu
siguranţă într-o stare j din cele m posibile după efectuarea experimentului.
Exemplu
Comportamentul consumatorilor faţă de un anumit produs, precum şi înclinaţia lor de a
schimba marca produsului pe care îl cumpără a fost modelat ca proces Markov pe durata multor
ani. Fie un eşantion de 250 consumatori ai unui anumit tip de produs cumpărat săptămânal. Ei au
la dispoziţie 3 mărci din produsul respectiv. Tabela de mai jos arată schimbările produse în
preferinţă de la săptămâna a şasea la săptămâna a şaptea.

Marca preferată în săptămâna 7 Total


1 2 3
Marca 1 72 4 4 80
preferată în 2 12 102 6 120
săptămâna 6 3 2 6 42 50
Total 86 112 52 250
Prima linie arată că pentru M1:
72 cumpărători care au cumpărat marca M1 în săptămâna 6 au rămas tot la ea în
săptămâna 7,
4 care au cumpărat M1 în săptămâna 6 au trecut la M2 în săptămâna 7,
4 care au cumpărat M1 în săptămâna 6 au trecut la M3 în săptămâna 7.
Pe de altă parte, tot pentru M1,
12 care au cumpărat M2 în săptămâna 6 au trecut la M1 în săptămâna 7,
2 care au cumpărat M3 în săptămâna 6 au trecut la M1 în săptămâna 7.
Per total, de la o săptămână la alta, pentru M1:
72 au păstrat M1,
4 + 4 = 8 au părăsit M1 pentru alte mărci,
12 + 2 = 14 au venit de la alte mărci la M1. Rezultă un câştig total de 14 - 8 = 6
cumpărători pentru marca M1.
Între săptămâna 6 şi săptămâna 7 rezultă o creştere a procentului din "piaţă" pentru marca
M1 de la 32% (80/250⋅100) la 34,4% (86/250⋅100). Pe lângă ilustrarea schimbărilor nete şi a
cotelor deţinute pe piaţă, tabelele ca cea de mai sus arată şi sursa schimbărilor petrecute. De
exemplu M1 a înregistrat un câştig net de 12 - 4 = 8 consumatori de la marca M2 şi a pierdut 2 - 4
= -2 în favoarea lui M3.
În plus, astfel de tabele pot fi folosite pentru a construi matricea P de tranziţie.

 72 4 4 
 
 80 80 80   0.90 0.05 0.05 
12 102 6   
P= =  0.10 0.85 0.05 .
 120 120 120 
 2  
6 42   0.04 0.12 0.84 
 
 50 50 50 

Această matrice este considerată a fi o bună estimare a matricei de tranziţie "adevărate"


deoarece se bazează pe evaluarea comportamentului a 250 de consumatori pe o perioadă de două
săptămâni.
Examinând matricea P se constată că:
- elementele unei linii reflectă în ce măsură este de aşteptat ca o marcă să îşi reţină clienţii
sau să-i piardă în favoarea alteia.
- elementele de pe o coloană sumarizează în ce măsură e de aşteptat ca o marcă să-
şi păstreze consumatorii sau să mai atragă şi alţii de la alte mărci.
Deci, p11, p22, p33 sunt măsuri ale "puterii de păstrare" a fiecărei mărci. În rest pij (i≠j)
reflectă "puterea de atracţie" a mărcii Mj în condiţiile în care marca din săptămâna precedentă a
fost Mi.
Procesul Markov din exemplul precedent poate fi descris printr-o diagramă (tip arbore)
asemănătoare cu cea de la începutul capitolului şi care este ilustrată în figura 5.1.2.
Dacă ne întrebăm care este probabilitatea ca peste două săptămâni să se cumpere iar marca
M1, rezultă: 0.9 ⋅ 0.9 + 0.05 ⋅ 0.10 + 0.05 ⋅ 0.04 = 0.817 .
Bineînţeles, această diagramă este greu de trasat pentru a vedea predicţii pe mai multe
săptămâni. Pentru a putea face o reprezentare convenabilă, abstractizăm problema şi o
considerăm un sistem care are trei stări posibile, M1, M2, M3. Sistemul trece dintr-o stare în alta
cu diferite probabilităţi. Rezultă o reprezentare ca cea din figura 5.1.3: un aşa-numit graf orientat
care are vârfurile M1, M2, M3, unite prin arce orientate. Acest graf se numeşte diagramă de
tranziţie.

M1
0.90
0.05
M1 M2
0.05
M3
0.90
M1
0.10
0.05 0.85
M1 M2 M2
0.05
M3
0.05

M1
0.04
0.12
M3 M2
0.84
M3
Fig. 5.1.2

M2
0.05
0.85
0.12
0.05
0.10
M1
0.90 0.05
0.04
M3
0.85

Fig. 5.1.3

Rezolvaţi exerciţiile 1 şi 2 de la pagina 5-15

5.2 Proprietăţi de bază ale lanţurilor Markov


S-a văzut că informaţiile despre tranziţiile de la o stare la alta în cadrul unui lanţ Markov
pot fi reprezentate prin diagrama de tranziţie sau prin matricea de tranziţie (într-un pas). Pentru
scopuri de calcul, cea mai utilă este matricea de tranziţie într-un pas. Ea este formată din
elementele pij - probabilitatea de trecere într-un pas de la starea i la starea j (i, j = 1, 2, …, m).
Se poate vorbi, atunci, şi de probabilităţile de tranziţie în exact k paşi şi de o matrice
formată din acestea. Pentru aceasta, în continuare, se vor face următoarele notaţii:
∗ pij(k) - probabilitatea condiţionată de efectuare a tranziţiei din starea i în starea j în
exact k paşi.
∗ P(k) - matricea de tranziţie în k paşi.
Conform celor enunţate rezultă că

P(k) = (pij(k))i,j=1,..m.

Fie acum din nou exemplul anterior în care se modelează alegerea uneia din cele trei
mărci de la o săptămână la alta. Pentru el avem definite: matricea de tranziţie într-un pas,
arborele de tranziţie şi diagrama de tranziţie.
Se pune problema, de exemplu, care este probabilitatea ca, după două săptămâni, cei care
au cumpărat marca M1 să rămână la această preferinţă; deci, interesează p11(2). Din arborele de
tranziţie rezultă: p11(2) = 0.9 ⋅ 0.9 + 0.05 ⋅ 0.10 + 0.05 ⋅ 0.04 = 0.817 . Metoda de calcul folosind
arborele de tranziţie este uşor de aplicat doar în cazul unui număr mic de paşi (în acest caz, două
săptămâni) şi al unui număr mic de stări (în exemplul dat, trei mărci). Se observă uşor, însă, că
din matricea P rezultă: p11(2)= p11⋅p12+ p12⋅p21+ p13⋅p31 iar p12(2)= p11⋅p12+ p12⋅p22+ p13⋅p32, deci
p11(2) este elementul de pe poziţia (1,1) în matricea P⋅P, iar p12(2) este elementul de pe poziţia
(1,2) din matricea P⋅P.

1
Pi1 P1j

i Pi2
2 P2j j
.
Pim .
. Pmj

Fig. 5.2.1

În general, pentru un proces cu m stări, trecerea în doi paşi de la starea i la starea j


înseamnă, aşa cum arată şi figura 5.2.1,

m
pij ( 2 ) = pi 1 ⋅ p1 j + pi 2 ⋅ p 2 j + K + pim ⋅ p mj = ∑ pik ⋅ p kj
k =1

adică pij(2) este elementul (i,j) din P⋅P. Deci se poate spune că P(2) = P⋅P = P2. Se poate face
imediat următoarea generalizarea din teorema 5.2.1:

Teorema 5.2.1 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Fie P matricea de tranziţie într-un pas a unui lanţ Markov.
Atunci, matricea P(k) de tranziţie în k paşi este
P(k ) = P ⋅ P ⋅ K ⋅ P = P k (5.2.1)
14243
k ori

■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Relaţia din teorema 5.2.1 exprimă o proprietate de bază a lanţurilor Markov prin care
acestea se deosebesc de alte procese stochastice.
Conform proprietăţii 2 a matricei de tranziţie P, suma probabilităţilor de pe fiecare linie a
acesteia trebuie să dea 1. Această proprietate rămâne valabilă şi în cazul matricei de tranziţie în k
paşi P(k) = Pk.
Aşa cum s-a definit în capitolul 1, un n-uplu ordonat (x1, x2, …, xn) se numeşte vector n-
dimensional. Un vector mai poate fi reprezentat ca o matrice linie (vector linie) sau ca o matrice
coloană (vector coloană).

Definiţia 5.2.1 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Un vector linie (q1, q2, …, qn) care are proprietăţile

a ) 0 ≤ qi ≤ 1 (5.2.2)
n
b) ∑q
i =1
i =1 (5.2.3)

se numeşte vector de probabilitate sau vector stochastic.


O matrice ale cărei linii sunt vectori stochastici se numeşte matrice stochastică.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Rezultă că fiecare linie a matricei de tranziţie P este un vector de probabilitate. Acelaşi


lucru se poate spune şi despre liniile matricei de tranziţie în k paşi P(k) = Pk. De asemenea,
matricele P şi Pk sunt matrice stochastice.
Rezolvaţi exerciţiile 3, 4, 5 de la pagina 5-15

5.3 Lanţuri Markov regulate


În continuare vom aborda o categorie de lanţuri Markov utile în aplicaţii practice.
Deoarece lanţurile Markov sunt procese stochastice, nu se poate şti cu exactitate ce se
întâmplă în fiecare stare; de aceea, sistemul trebuie descris în termeni de probabilitate.

Definiţia 5.3.1 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Fie un lanţ Markov cu m stări . Un vector de stare pentru lanţul Markov este un vector de
probabilitate X = şx1 x2 … xnţ . Coordonatele xi ale vectorului de stare X trebuie
interpretate ca probabilitatea ca sistemul să se afle în starea i.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
Procesul Markov luat ca exemplu în secţiunea precedentă are trei stări. În această situaţie
vectorul de stare [0.6 0.1 0.3] trebuie interpretat astfel: în săptămâna curentă clienţii aleg marfa
M1 cu probabilitatea 0,6, marca M2 cu probabilitatea 0.1 şi M3 cu 0.3.
Atunci când se ştie cu siguranţă că sistemul este într-o anumită stare, vectorul de stare are
o formă particulară. Astfel, dacă se ştie sigur că sistemul este în starea a i-a, vectorul de stare va
avea a i-a componentă egală cu 1, iar restul 0. X = [0 0 0 … i … 0] .
Comportamentul unui lanţ Markov poate fi descris printr-o secvenţă de vectori de stare.
Starea iniţială a sistemului poate fi descrisă printr-un vector de stare notat X0 . După o tranziţie
sistemul poate fi descris printr-un vector X1, iar după k tranziţii, prin vectorul de stare Xk. Relaţia
dintre aceşti vectori poate fi sumarizată prin următoarea teoremă:

Teorema 5.3.1 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Fie un proces Markov cu matricea de tranziţie P. Dacă Xk şi Xk+1 sunt vectori de stare care
descriu un procesul după k şi k+1 tranziţii, respectiv, atunci

X k +1 = X k ⋅ P (5.3.1)

■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

În particular,

X1 = X 0 ⋅ P
X 2 = X1 ⋅ P = X 0 ⋅ P ⋅ P = X 0 ⋅ P2
M
X k = X 0 ⋅ P k = X 0 ⋅ P(k ) (5.3.2)

Deci, vectorul de stare Xk care descrie sistemul după k tranziţii e produsul între vectorul
stării iniţiale X0 şi matricea Pk.
Observaţie. X0, X1, X2, …Xk, … sunt toţi vectori linie 1 × m.
Exemplul 5.3.1
Fie un proces Markov cu matricea de tranziţie

0 ,5 0 ,4 0 ,1
P =  0 ,1 0 ,6 0 ,3
0 ,3 0 ,6 0 ,1

Dacă vectorul stării iniţiale este X0 = [0,7 0 0,3], să se determine vectorul de stare după o
tranziţie.
Rezolvare: Conform teoremei 5.3.1. avem
0 ,5 0 ,4 0 ,1
X 1 = X 0 P = [0 ,7 0 0 ,3] ⋅  0 ,1 0 ,6 0 ,3 = [0 ,44 0 ,46 0 ,10]
0 ,3 0 ,6 0 ,1

Exemplul 5.3.2
Un lanţ Markov are matricea de tranziţie

0 ,4 0 ,6
P= 
0 ,2 08 

Dacă sistemul îşi începe evoluţia din starea a doua, să se determine vectorul de stare după două
tranziţii.
Rezolvare: X0 = [0 1] (pentru că sistemul este sigur în starea a doua). Atunci avem;

0,4 0 ,6 0,4 0,6


X 2 = X 0 P 2 = [0 1] ⋅  ⋅  = [0,24 0,76]
0,2 0,8 0,2 0,8

Revenind la scopul iniţial al acestei secţiuni, există mai multe moduri de a clasifica
lanţurile Markov. Ne vom referi la clasificarea care împarte lanţurile Markov pe baza
comportamentului lor pe termen lung, deci după starea pe care o ating după un număr mare de
tranziţii. Comportarea pe termen lung a unui proces stochastic poate fi inportantă în multe
aplicaţii.
Aplicând teorema 5.3.1. se poate calcula vectorul de stare Xk pentru orice k, pornind de la
o stare X0 iniţială şi aplicând relaţia 5.3.2.
Problema este că, pentru un număr k mare calcularea lui Pk devine foarte laborioasă. Mai
mult, dacă am calculat Xk pentru un k oarecare, nu putem spune mare lucru despre Xk+1 sau Xk+2
până când nu le calculăm şi pe acestea.
De aceea, dacă interesează studierea unui proces stochastic după un număr mare de
tranziţii, atunci este utilă studierea comportării generale a acestuia pe termen lung. Pentru
anumite tipuri de lanţuri Markov acest lucru este posibil.
În general pentru un lanţ Markov cu m stări, posibilitatea ca sistemul să se afle în starea j
după k tranziţii depinde de starea din care s-a pornit. Astfel, p1j(k) este probabilitatea ca sistemul
să fie în starea j după k tranziţii dacă iniţial se află în starea 1. Semnificaţii similare avem pentru
p2j(k), …, pmj(k). Nu există nici un motiv ca aceste probabilităţi să fie (sau să ne aşteptăm să
devină) egale. Dar, pentru anumite lanţuri Markov există o probabilitate strict pozitivă qj asociată
cu starea j astfel încât după k tranziţii probabilităţile pij(k) devin, toate, foarte apropiate de qj.Cu
alte cuvinte, speranţa ca sistemul să ajungă în starea j după k tranziţii (unde k este suficient de
mare) este cam aceeaşi, indiferent de starea din care se pleacă.
Lanţurile Markov care au o astfel de comportare pe termen lung formează o clasă aparte
care este definită după cum urmează.

Definiţia 5.3.2 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Un lanţ Markov cu matricea de tranziţie P se numeşte regulat dacă există un întreg k
pozitiv astfel încât Pk să aibă toate elementele strict pozitive.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Observaţie. Definiţia nu face referire directă la comportarea lanţului pe termen lung aşa
cum s-a discutat anterior. Legătura lanţurilor Markov regulate cu această comportare va fi
descrisă în continuare.
Exemplul 5.3.3
a) Să se verifice dacă lanţul Markov cu matricea de tranziţie următoare este regulat.

1 1
P = 2 2 .
1 0 

Rezolvare. Avem:

3 1
1 1  1 1 
P = 2 4 4 .
2 ⋅ 2 2 = 1
2

1 1
 0   1 
0  
2 2

S-a găsit deci k = 2 pentru care Pk are toate elementele strict pozitive. Înseamnă ca lanţul Markov
din enunţ este regulat.
b) Aceeaşi problemă, pentru lanţul Markov având:

0 1 
P= .
1 0 

Rezolvare. Avem:
0 1  0 1 1 0
P2 =  ⋅ = =Ι
1 0 1 0 0 1
0 1 1 0  0 1
P3 =  ⋅ =
1 0 0 1 1 0
0 1  0 1 1 0
P4 =  ⋅ = =Ι
1 0 1 0 0 1
Deci
0 1
P = P 3 = K = P 2 k +1 = 
1 0
1 0
P 2 = P 4 = K = P 2k = 
0 1

Rezultă că, pentru oricare k, atât P2k+1 cât şi P2k conţin elementul 0; înseamnă că lanţul
Markov nu este regulat.
Definiţia conceptului de lanţ Markov regulat are importanţă din perspectiva următoarei
consecinţe, care a fost demonstrată. Ea se referă la comportarea lanţului când numărul de tranziţii
k tinde la infinit. ( k → ∞ ).

Teorema 5.3.2 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Fie un proces Markov regulat cu matricea de tranziţie P şi fie P(k) = Pk matricea sa de
tranziţie în k paşi.
Atunci când k tinde la infinit, şirul de matrice Pk tinde către o matrice stochastică A care
are toate liniile identice.

W   w1 w2 L wm 
W   w w L wm 
A= = 1 2 (5.3.2)
 M  L L L L
   
W   w1 w 2 L wm 

■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Definiţia 5.3.3 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Vectorul stochastic W = [ w1 w2 … wm] introdus prin teorema 5.3.2. se numeşte vector
stabil, iar coordonatele sale wi, i = 1,2, …, m se numesc probabilităţile stabile ale lanţului
Markov regulat.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
Exemplul 5.3.4
Fie lanţul Markov regulat care are matricea de tranziţie:

0 ,5 0 ,4 0 ,1
P =  0 ,1 0 ,6 0 ,3
0 ,3 0 ,6 0 ,1

Din calcul se obţine:

0.32 0.50 0.18


P(2 ) = P = 0.20 0.58 0.22
2

0.24 0.54 0.22


0.2456 0.5472 0.2072
P(4) = P = 0.2328 0.5552 0.2120
4

0.2276 0.5520 0.2140


0.2369 0.5526 0.2105
P(8) = P 8 = 0.2368 0.5527 0.2105
0.2369 0.5526 0.2105

Se observă că limitele lui P(8) sunt practic egale. Valorile de la o linie la alta diferă abia
la a patra zecimală, cel mult.
Teorema 5.3.2. arată că probabilitatea ca procesul Markov regulat să ajungă după un timp
suficient de lung într-o anumită stare j este constantă, egală cu wj şi nu depinde de starea din care
porneşte. Evident, aceasta nu înseamnă că procesul intră într-o stare fixă, el continuă să-şi
schimbe stările, astfel încât probabilitatea de trecere de la starea i la starea j în pasul n oarecare
rămâne egală cu pij.
Se pune, în continuare, problema cum să se determine vectorul stabil W. Calcularea lui
P(k) = Pk pentru un k foarte mare şi extragerea lui W ca o linie a lui P(k) este nepractică şi duce la
rezultate aproximative. De aceea, se foloseşte o altă metodă, justificată de următoarea teoremă.

Teorema 5.3.3 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■


Fie un lanţ Markov regulat cu matricea de tranziţie P. Atunci, există un unic vector W
care satisface relaţia

WP = W (5.3.3)

Coordonatele acestui vector sunt probabilităţile stabile ale lanţului Markov.


■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
Din teorema precedentă rezultă WP - W = O, deci
W( P - I) = O (5.3.4)

Rezolvarea acestei ecuaţiei matriceale (5.3.4) duce la rezolvarea unui sistem de ecuaţii
având necunoscutele w1, w2, … wm. Soluţia sistemului formează vectorul stabil W.
Exemplul 5.3.5
Să se determine vectorului W al probabilităţii stabile pentru lanţul Markov regulat care are
matricea de tranziţie:

1 3
 4
P = 4
2 1
 
3 3

Avem:

  14 3
 1 0  
WP = W ⇔ W (P − I ) = O ⇔ [w1 w2 ]    = O ⇔
4
−
1 
 3
2
3 0 1  
 3 2
− 3 4 3 4  − 4 w1 + 3 w2 = 0
⇔ [w1 w2 ] ⇔ 3
 23 − 23 2
 w1 − w2 = 0
 4 3

La sistem se mai adaugă, ca primă ecuaţie, condiţia ca wi să formeze un vector de


probabilitate. Deci, sistemul devine


w1 + w2 = 1

 3 2
− w1 + w2 = 0
 4 3
3 2
 4 w1 − 3 w2 = 0

Se rezolvă sistemul (de exemplu, prin metoda eliminării complete) şi se obţine


 8
w1 = 17

w = 9
 2 17

8 9
Concluzie: vectorul stabil al procesului Markov regulat dat este W =  .
17 17 

Rezolvaţi exerciţiile 6, 7, 8 de la pagina 5-16

Elementele de bază privind procesele stochastice prezentate în acest capitol au avut


menirea de a ilustra aplicarea teoriei probabilităţilor la o clasă de fenomene economice întâlnite
frecvent în practică.

Exerciţii
1) Profiturile unei companii de asigurări sunt determinate de volumul de asigurări
vândute. Acest volum variază de la o săptămână la alta. În fiecare săptămână vânzările pot fi
caracterizate ca mari (M) sau scăzute (S). S-au determinat următoarele probabilităţi:
- dacă volumul de vânzări este mare (M) în săptămâna curentă, atunci va fi tot mare şi
săptămâna viitoare, cu probabilitatea 0.8 şi va fi mic cu probabilitatea 0.2;
- dacă volumul de vânzări este scăzut (S) în săptămâna curentă, atunci va fi mare
săptămâna viitoare, cu probabilitatea 0.4 şi va fi mic cu probabilitatea 0.6.
a) Să se scrie matricea de tranziţie, diagrama tip arbore şi diagrama de tranziţie.
b) Să se calculeze probabilitatea ca volumul vânzărilor peste două săptămâni să fie mare
dacă în săptămâna curentă este mare.
 0.3 0.7
2) Un lanţ Markov are matricea de tranziţie P =   . Să se traseze diagrama de
 0.9 01
.
tranziţie.
 0.3 0.2 0.5
 
3) Un lanţ Markov are matricea de tranziţie P =  0.4 0 0.6 . În observaţia curentă,
 1 0 
 0
lanţul se află în starea 1. Atunci:
- care este probabilitatea să fie tot în starea 1 după o tranziţie?
- care este starea în care este cel mai probabil să se afle după o tranziţie?
Dacă într-un anumit moment procesul se află în starea 3, care este probabilitatea ca după
două tranziţii să ajungă în starea 2?
Dacă sistemul pleacă din starea 2, care este probabilitatea ca în următoarele 4 observaţii
să ocupe succesiv stările 3,1,2,1 (în această ordine)?
4) Un lanţ Marcov are următoarea diagramă de tranziţie:

2
3/4

1
1
1/4
1/2 3
1/2

a) Să se scrie matricea de tranziţie P.


b) Să se determine matricea de tranziţie în trei paşi P(3).
c) Dacă sistemul pleacă din starea 2, care este probabilitatea ca, după 3 tranziţii,
să jungă în starea 3?
 12 1
2 0
 
5) Un lanţ Markov are matricea de tranziţie P =  0 1
2
1
2 .
1 1 
 2 1
4 4

a) Pentru ce stare i este pi3 cea mai mare şi pentru care, cea mai mică?
b) Pentru ce stare i este pi3(2) cea mai mare şi pentru care, cea mai mică?
c) Pentru ce stare i este pi3(3) cea mai mare şi pentru care, cea mai mică?
1 3
4
6) Un lanţ Markov regulat are matricea de tranziţie P =  2 4  . Să se determine vectorul
 3 1
3

W al probabilităţilor stabile pentru acest lanţ.


7) Determinaţi vectorul probabilităţilor stabile pentru lanţul Markov din problema 5.
8) Să se arăte că lanţul Markov care are matricea de tranziţie P de mai jos este regulat.
 13 2
3 0 0
1 
1 1 0
P= 4 4 2
0 1
4
1
4
1 
2
 
0 0 1
2
1 
2
Bibliografie

1. Budnick F.S., 1985 – Finite Mathematics With Applications. McGraw-Hill, NY.

2. Dodescu Gh., - Metode de calcul numeric. Editura Didactică şi pedagogică, Bucureşti

3. Drăgan I.., 1973 – Tehnici de bază în programarea liniară. Editura Universităţii “Al. I.
Cuza” Iaşi.

4. Leonte A., Vraciu G., 1975 – Elemente de calcul matriceal cu aplicaţii. Editura Tehnică,
Bucureşti.

5. Maki D.P., Thompson M., 1983 – Finite Mathematics. McGraw-Hill, NY.

6. Mihu C., 1977 – Metode numerice în algebra liniară. Editura tehnică, Bucureşti

7. Mihu C., 1985 – Sisteme de ecuaţii liniare şi forme pătratice. Editura tehnică, Bucureşti

8. Zidăroiu C., 1983 – Programare liniară. Editura tehnică, Bucureşti

You might also like