Professional Documents
Culture Documents
MATEMATICĂ
Curs pentru Învăţământ la Distanţă
2002
CUPRINS
1. ELEMENTE DE MATEMATICĂ LINIARĂ (PAG. 1-1)
1.1 Matrice şi determinanţi (pag. 1-2)
1.2 Ecuaţii liniare (pag. 1-7)
1.3 Sisteme de ecuaţii liniare (pag. 1-17)
1.4 Inegalităţi liniare şi sisteme de inegalităţi liniare (pag. 1-32)
2. INTRODUCERE ÎN PROGRAMAREA LINIARĂ (PAG. 2-1)
2.1 Structura unei probleme de programare liniară (pag. 2-2)
2.2 Rezolvarea grafică a problemelor de programare liniară în două variabile (pag. 2-5)
3. ALGORITMUL SIMPLEX (PAG . 3-1)
3.1 Cerinţele metodei simplex (pag. 3-2)
3.2 Introducere în metoda simplex (pag. 3-5)
3.3 Algoritmul simplex pentru o problemă de maximizare în formă canonică (pag. 3-8)
3.4 Algoritmul simplex pentru o problemă de maximizare cu restricţii de toate tipurile (pag.
3-12)
3.5 Algoritmul simplex pentru o problemă de minimizare (pag. 3-12)
3.6 Situaţii speciale (pag. 3-14)
4. ELEMENTE DE TEORIA PROBABILITĂŢILOR (PAG. 4-1)
4.1 Experimente aleatoare (pag. 4-2)
4.2 Evenimente (pag. 4-2)
4.3 Noţiunea de probabilitate (pag. 4-7)
4.4 Probabilităţi condiţionate. Evenimente independente (pag. 4-11)
4.5 Variabile aleatoare (pag. 4-13)
4.6 Caracteristici numerice ale variabilelor aleatoare (pag. 4-16)
Bibliografie
1
Elemente de
matematică liniară
Obiectivele capitolului
• Definirea noţiunilor de matematică liniară care vor sta la baza dezvoltărilor din capitolele 2 şi
3
• Discutarea interpretărilor geometrice care se pot face în legătură cu ecuaţiile şi inegalităţile
liniare în două variabile
• Introducerea metodei eliminării totale pentru rezolvarea unui sistem de ecuaţii liniare
• Introducerea noţiunilor legate de explicitarea sistemelor de ecuaţii liniare în raport cu un grup
dat de variabile.
• Aplicarea metodei eliminării totale la calcularea inversei unei matrice
¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦
Acest capitol este destinat introducerii unor noţiuni de bază din matematica liniară.
Matematica liniară este importantă din mai multe motive. Astfel, multe fenomene din lumea reală
care trebuie studiate matematic sunt liniare sau pot fi aproximate ca fiind liniare. Deci,
matematica liniară se aplică în multe domenii. ~n plus, analiza şi manipularea relaţiilor liniare
este mai uşoară decât a relaţiilor neliniare. Mai mult, unele dintre metodele utilizate în
matematica neliniară sunt similare cu cele din matematica liniară sau sunt extensii ale acestora.
1.1 Matrice şi determinanţi
În această secţiune vor fi punctate câteva definiţii şi proprietăţi elementare din algebra
matriceală. Ne vom limita doar la acele elemente care vor fi folosite în secţiunile şi capitolele
următoare.
Numerele aij, i=1,2 ..., m, j = 1,2, ... ,n se mai numesc elementele matricei A.
O matrice cu m linii şi n coloane se numeşte matrice de tipul (m, n) sau matrice de
ordinul m × n.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
Notaţii: ( )
A = a ij , A = a ij , A = a ij , i = 1,2 ,K , m j = 1,2 ,K , n
a11
a
A = 21 (1.1.2)
M
a m1
O matrice de tip (n, n) se numeşte matrice pătratică de ordinul n O matrice de tip (1, n)
se numeşte matrice linie sau vector linie:
a11 a12 K K a1n
a a 22 K K a 2n
A = 21 (1.1.4)
K K K K K
a n1 an2 K K a nn
Elementele a11, a22, ..., ann formează diagonala principală a matricei pătratice.
Matricea de tipul (m, n) având toate elementele egale cu zero se numeşte matricea nulă
de tipul (m, n). Notaţie: Om,n.
O matrice pătratică ale cărei elemente care nu se află pe diagonala principală sunt toate
nule se numeşte matrice diagonală.
a11 0 K K 0
0 a 22 K K 0
A= (1.1.5)
K K K K K
0 0 K K a nn
Matricea diagonală pentru care a11 = a22 = ... = ann = 1 se numeşte matricea unitate de
ordinul n. Matricea unitate se notează In sau En.
1 0 K K 0
0 1 K K 0
In = (1.1.6)
K K K K K
0 0 K K 1
Egalitatea matricelor
Două matrice de acelaşi tip Am,n şi Bm,n sunt considerate egale dacă elementele lor sunt,
respectiv, egale:
Notaţie: A = B.
Adunarea matricelor
Două matrice de acelaşi tip Am,n şi Bm,n pot fi adunate. Se defineşte suma matricelor A şi B
ca fiind matricea Cm,n obţinută adunând elementele corespunzătoare din A şi B.
( )
C = cij cij = a ij + bij i = 1,2 ,K , m j = 1,2 ,K , n (1.1.7)
Notaţie: C = A + B.
Adunarea matricelor are următoarele proprietăţi:
1. A+B=B+A (comutativitate)
2. (A + B) + C = A + (B + C) (asociativitate)
3. A+O=O+A=A (element neutru)
4. Pentru orice matrice A ∈ Mm,n( R ) există o matrice - A ∈ Mm,n( R ) astfel încât
( ) ( )
A = a ij , − A = − a ij , i = 1,2 ,K , m j = 1,2 ,K , n (1.1.9)
Înmulţirea matricelor
Fie două matrice A şi B. Se poate defini produsul AB (în această ordine) dacă numărul de
coloane ale lui A este egal cu numărul de linii ale lui B. Deci, dacă Am,n şi Bn,p, atunci se poate
defini matricea produs Cm,p, de tip (m, p), ale cărei elemente se calculează cu relaţia:
n
cij = ai1b1 j + a i 2 b2 j +K+ a in bnj = ∑a k =1
ik bkj , i = 1,2 ,K , m j = 1,2 ,K , p (1.1.10)
Notaţie: C = AB.
Notaţie: B = αA = Aα.
Înmulţirea cu scalar are următoarele proprietăţi:
1. 1A =A
2. (α + β)A = αA + βA
3. α(A + B) = αA + αB
4. (αβ)A = α(βA)
5. α(AB) = (αA)B
Determinanţi
∑ ( − 1)
ω
det A = a1α1 a 2 α 2 K a nα n (1.1.12)
( α1 ,α 2 ,K,α n )
unde
• α 1 , α 2 ,K α n sunt toate elementele mulţimii {1,2 ,K , n} , iar suma cuprinde toate
permutările posibile ale acestora şi
• ω = 0 dacă permutarea este pară şi ω = 1 dacă permutarea este impară.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
Notaţie:
a11 a12 K K a1n
a a 22 K K a 2n
det A = 21
K K K K K
a n1 an2 K K a nn
Notaţie: rang A = r
Următoarea teoremă este utilă pentru calcularea rangului unei matrice.
Matrice inversabile
Se poate vorbi de inversa unei matrice doar în cazul matricelor pătratice
AA −1 = A −1 A = I n (1.1.13)
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
Următoarea teoremă este utilă pentru a decide dacă o matrice este inversabilă.
Exemple:
a) adunarea matricelor
− 1 4 0 2 3 1 − 1 + 2 4 + 3 0 + 1 1 7 1
+ = = ,
3 2 − 6 6 − 2 8 3 + 6 2 − 2 − 6 + 8 9 0 2
b) înmulţirea matricelor
1 2
1 0 3 1 ⋅1 + 0 ⋅ 3 + 3 ⋅ 0 1 ⋅ 2 + 0 ⋅ (− 1) + 3 ⋅ 2 1 8
⋅ 3 − 1 = = ,
− 2 4 1 0 2 (− 2 ) ⋅1 + 4 ⋅ 3 + 1 ⋅ 0 (− 2) ⋅ 2 + 4 ⋅ (− 1) + 1 ⋅ 2 10 − 6
1 2 4 a ⋅1 a ⋅ 2 a ⋅ 4 a 2a 4a
a ⋅ 0 3 − 1 = a ⋅ 0 a ⋅ 3 a ⋅ (− 1) = 0 3a − a .
2 1 0 a ⋅ 2 a ⋅1 a ⋅ 0 2a a 0
1.2 Ecuaţii liniare
Ecuaţiile liniare vor juca un rol foarte important în modelele matematice care vor fi
abordate în capitolele următoare. De aceea este utilă punctarea, în această secţiune, a elementelor
necesare legate de acest subiect. Vor fi discutate aici şi interpretările geometrice care se pot face
în legătură cu ecuaţiile liniare în două variabile. De aceea, această categorie de ecuaţii liniare va
fi scoasă în evidenţă în mod deosebit.
ax + by = c (1.2.1)
a1 x1 + a 2 x 2 +K+ a n x n = b (1.2.2)
Se observă că ecuaţiile liniare sunt ecuaţii de gradul întâi: fiecare variabilă de ecuaţie este
(implicit) la puterea întâi.
Definiţia 1.2.2 generalizează definiţia 1.2.1. Atunci când se lucrează cu ecuaţii în două
variabile este posibilă reprezentarea grafică a ecuaţiilor.
S= {( x , y) | ax + by = c} (1.2.3)
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
O observaţie importantă este că, oricare ar fi o ecuaţie liniară în două variabile, mulţimea
S a soluţiilor are un număr infinit de elemente. Deci există un număr infinit de perechi ordonate
(x, y) care satisfac ecuaţia.
Pentru a determina o soluţie a ecuaţiei, se ia o valoare oarecare pentru una dintre
variabile, se substituie această valoare în ecuaţie, după care rezultă cealaltă componentă.
Definiţia 1.2.4 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
Fie ecuaţia liniară în n variabile (1.2.2). Se numeşte mulţimea soluţiilor ecuaţiei,
mulţimea n-uplelor ordonate (x1,...,xn) care satisfac ecuaţia.
S= {( x , x
1 2 }
,K , x n ) | a1 x1 + a 2 x 2 +K+ a n x n = b (1.2.4)
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
Reper cartezian
Notaţie: Ox
Notaţie: xOy
O x1 x
Fig. 1.2.1
Rezultă că, pentru a face reprezentarea grafică a ecuaţiei, este suficient să se determine
două soluţii ale sale. Fiecare soluţie va fi reprezentată printr-un punct în reperul cartezian
bidimensional. Cele două puncte determină dreapta care reprezintă mulţimea soluţiilor ecuaţiei.
y Exemplu:
Să se reprezinte grafic ecuaţia 2x + 4y = 16.
A(0, 4) Trebuie găsite două soluţii ale ecuaţiei pentru a
determina dreapta care este reprezentarea tuturor soluţiilor.
B(8, 0) pentru x = 0 ⇒ y = 4 ⇒ (0, 4) este soluţie
pentru y = 0 ⇒ x = 8 ⇒ (8, 0) este soluţie
O x Reprezentarea este ilustrată în figura 1.2.2.
Fig. 1.2.2
Corespondenţa între mulţimea soluţiilor unei ecuaţii de gradul întâi în două variabile şi
mulţimea punctelor din plan care formează o dreaptă, face utilă trecerea în revistă a câtorva
elemente privind geometria analitică a dreptei în plan.
Prima remarcă în acest sens este că ecuaţia liniară în două variabile în formă generală
(1.2.1) coincide cu ecuaţia unei drepte în formă generală.
Intersecţii cu axele
Atunci când se fac reprezentări grafice ale unei drepte într-un reper cartezian, două puncte
de interes sunt intersecţiile cu axele de coordonate.
Intersecţia dreptei cu axa Ox este punctul care se obţine făcând y = 0.
Intersecţia dreptei cu axa Oy este punctul care se obţine făcând x = 0.
În exemplul ilustrat în figura 1.2.2 aceste puncte au fost calculate şi sunt A(0,4) şi B(8,0).
Ecuaţia x = k
O formă particulară a ecuaţiei ax + by = c se obţine pentru b =0. Ecuaţia devine
c
ax = c sau x =
a
c
Notând = k rezultă o forma particulară
a
y
x=k (1.2.5)
x=k
Această ecuaţie liniară are un caracter special în
k sensul că x este egal cu k, indiferent cât este valoarea lui y.
Consecinţa este că graficul unei astfel de ecuaţii este o
dreaptă paralelă cu axa Oy.
O x O astfel de dreaptă este trasată în figura 1.2.3.
Fig. 1.2.3
Ecuaţia y = k
O altă formă particulară a ecuaţiei ax + by = c se obţine pentru a =0. Ecuaţia devine
c
by = c sau y =
b
c
Notând = k rezultă o forma particulară
b
y
y=k (1.2.6)
y=k
Această ecuaţie liniară are un caracter special în
k sensul că y este egal cu k, indiferent cât este valoarea lui x.
Consecinţa este că graficul unei astfel de ecuaţii este o
dreaptă paralelă cu axa Ox.
O x O astfel de dreaptă este trasată în figura 1.2.4.
Fig. 1.2.4
Panta
Orice dreaptă, cu excepţia celor verticale, este caracterizată de pantă. Panta indică
măsura în care se modifică valoarea lui y ca răspuns la o modificare a valorii lui x. Panta este
exprimată printr-un număr real. Semnul acestuia indică tendinţa crescătoare sau descrescătoare a
dreptei.
Panta pozitivă indică un caracter crescător al dreptei
y d4
adică, pe măsura creşterii valorilor lui x, cresc şi valorile lui y
(ca dreapta d1 din figura 1.2.5).
d3 (0) Panta negativă indică un caracter descrescător al
dreptei adică, pe măsura creşterii valorilor lui x, valorile lui y
d1 (+)
descresc (ca dreapta d2 din figura 1.2.5).
d2 (-) Valoarea zero a pantei arată că dreapta este paralelă
cu axa Ox (nu este nici crescătoare nici descrescătoare, ca
O x dreapta d3 din figura 1.2.5).
Se consideră că pentru dreptele paralele cu Oy panta
Fig. 1.2.5
este nedefinită (ca dreapta d4 din figura 1.2.5).
Nu numai semnul pantei este important, ci şi valoare
absolută a acesteia. Cu cât valoarea absolută a pantei este mai mare, cu atât variaţia lui y este mai
mare în raport cu o aceeaşi creştere a lui x.
y y
d2
d2
d1 d1
O x O x
Fig. 1.2.6 Fig. 1.2.7
În figura 1.2.6 sunt două drepte care au pantă pozitivă, dar panta lui d2 este mai mare
decât panta lui d1. În figura 1.2.7 sunt două drepte care au pantă negativă, dar panta lui d2 este
mai mare, în valoare absolută, decât panta lui d1.
Următoarea definiţie sintetizează cele discutate mai sus şi introduce o modalitate de calcul
a pantei unei drepte determinate de două puncte.
y 2 − y1 (1.2.7)
m=
x 2 − x1
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
y1 M(x1, y1)
x2 - x1
α
x1 x2
O x
Fig. 1.2.8
În conformitate cu definiţia 1.2.8, dacă o dreaptă are panta 8 3 , aceasta înseamnă că, dacă
x creşte cu o unitate, y va creşte cu 8 3 unităţi.
O altă interpretare a pantei rezultă imediat din figura 1.2.8 în care se evidenţiază faptul că
dreapta face cu abscisa un unghi α măsurat de la Ox în sens trigonometric (sensul contrar rotirii
acelor de ceasornic, aşa cum indică săgeata).
m = tg α (1.2.7')
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
În afară de ecuaţia generală (1.2.1), o dreaptă mai poate avea şi alte forme de ecuaţii. Ele
sunt enumerate în continuare.
a c
ax + by = c ⇔ by = − ax + c ⇔ y=− x+
b b
a c
Notând − = m şi = k se obţine
b b
y = mx + k (1.2.8)
y 0 = mx 0 + k ⇔ k = y 0 − mx 0
Înlocuind expresia lui k în ecuaţia prin pantă şi tăietură (1.2.8), după efectuarea calculelor
rezultă expresia
y − y 0 = m( x − x 0 ) (1.2.9)
O x
Fig. 1.2.10
y1 = mx1 + k
y 2 − y1 y 2 − y1
y − y1 ⇔ y1 = x1 + k ⇔ k = y1 − x1
m= 2 x 2 − x1 x 2 − x1
x 2 − x1
Înlocuind acum relaţiile pentru m şi k în ecuaţia prin pantă şi tăietură (1.2.8), rezultă
y 2 − y1 y − y1
y= x + y1 − 2 x1
x 2 − x1 x 2 − x1
Prin prelucrarea relaţiei de mai se sus se pot obţine următoarele trei forme care reprezintă
variante pentru ecuaţia dreptei prin două puncte:
x y 1
y − y1 y − y1 x − x1
y − y1 = 2
x 2 − x1
( x − x1 ) =
y 2 − y1 x 2 − x1
x1 y1 1=0 (1.2.10)
x2 y2 1
(a ) (b) ( c)
x y (1.2.11)
+ −1= 0
a b
A(a, 0)
O x
cunoscută ca ecuaţia dreptei prin tăieturi.
Fig. 1.2.11
Distanţe
Fiind date punctele A(x1, y1) şi B(x2, y2), se arată uşor,
y aplicând teorema lui Pitagora în triunghiul ABP (figura 1.2.12)
că distanţa între A şi B este:
y2
B(x2, y2)
( x 2 − x1 ) + ( y 2 − y1 ) (1.2.12)
2 2
y1 AB =
A(x1, y1) P(x2, y1)
O x1 x2 x
Fig. 1.2.12
ax 0 + by 0 − c
d ( P; h) = (1.2.13)
2 2
a +b
h
O x
Fig. 1.2.13
Pentru ecuaţii liniare în mai mult de două variabile considerentele algebrice rămân
aceleaşi dar, reprezentările grafice se schimbă sau nu mai sunt posibile.
Ecuaţiile liniare în trei variabile,de forma generală
a1x1 + a2x2 + a3x3 = b (1.2.14)
se reprezintă grafic prin plane într-un reper cartezian tridimensional. Reprezentarea se face
aflând punctele de intersecţie ale planului cu axele de coordonate Ox1, Ox2, Ox3.
Proprietate. O ecuaţie de forma xj = k, j = 1, 2, 3 va avea ca grafic un plan perpendicular
pe axa Oxj şi care este situat la distanţa k de origine.
Pentru ecuaţiile liniare în mai mult de trei variabile reprezentarea grafică nu este posibilă.
Se foloseşte, în acest caz, noţiunea de hiperplan ca fiind o reprezentare geometrică abstractă a
ecuaţiei. Astfel, se spune că o ecuaţie liniară în n variabile
se numesc:
A(m, n) - matricea coeficienţilor sistemului sau, simplu, matricea sistemului şi
Ã(m, n+1) - matricea extinsă a sistemului.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
x1 b1
x b
X = 2 şi B= 2 (1.3.3)
M M
xn bm
AX = B (1.3.1')
Un sistem liniar se numeşte omogen dacă bi = 0, 1 ≤ i ≤ m deci dacă termenii liberi sunt
toţi nuli; în caz contrar sistemul se numeşte neomogen.
După cum se vede şi din definiţia 1.3.2, problema fundamentală în legătură cu un sistem
liniar este determinarea mulţimii S a soluţiilor sale, adică a tuturor n-uplelor care verifică
simultan toate ecuaţiile, precum şi încadrarea lui din acest punct de vedere. În legătură cu această
problemă următoarele rezultate sunt esenţiale.
Clasificare ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
Fiind dat un sistem liniar de m ecuaţii cu n necunoscute, există următoarele trei
posibilităţi şi numai acestea:
I. sistemul este compatibil determinat (are soluţie unică); aceasta se întâmplă dacă
rangul matricei sistemului este egal cu rangul matricei extinse şi egal cu numărul
necunoscutelor:
rang A = rang à = n
II. sistemul este compatibil nedeterminat (are o infinitate de soluţii); aceasta se întâmplă
dacă rangul matricei sistemului este egal cu rangul matricei extinse, dar mai mic decât
numărul necunoscutelor:
rang A = rang à şi rang A < n
III. sistemul este incompatibil (nu are nici o soluţie); aceasta se întâmplă dacă rangul
matricei sistemului este mai mic decât rangul matricei extinse:
rang A < rang Ã
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
a 1 x + b1 y = c1 (1.3.4)
a 2 x + b2 y = c2
S= {( x , y) | a x + b y = c
1 1 1 ∧ a 2 x + b2 y = c2 } (1.3.5)
va fi formată din acele puncte care aparţin simultan ambelor drepte care pot fi notate, respectiv,
d1 şi d2. Interpretarea grafică duce la situaţiile ilustrate în figurile 1.3.1, a, b şi c.
y y y
d1
d1
d2 d2
y0 d1
O x0 x O x O x
d2
a) b) c)
Fig. 1.3.1
În figura 1.3.1.a dreptele secante d1 şi d2 sunt interpretarea geometrică a unui sistem
compatibil determinat; punctul lor de intersecţie reprezintă soluţia unică, adică S = {(x0, y0)Ţ.
Dreptele paralele din figura 1.3.1.b sunt interpretarea geometrică a unui sistem incompatibil;
absenţa punctelor comune ilustrează lipsa soluţiilor, adică S = ∅. Figura 1.3.1.b este
reprezentarea grafică a unui sistem compatibil nedeterminat; dreptele d1 şi d2 sunt coincidente,
ceea ce ilustrează faptul că mulţimea S este formată dintr-o infinitate de soluţii.
Interpretări geometrice sunt posibile şi pentru sisteme m × 2. Figurile 1.3.2, a, b şi c
ilustrează situaţiile posibile pentru un sistem de 3 ecuaţii cu două necunoscute, respectiv sistem
compatibil determinat, sistem incompatibil şi sistem compatibil nedeterminat.
y y
d1 y
d1
d3 d2 d3
y0
d1
O x0 x O x
d2 O x
d3 d2
a) b) c)
Fig. 1.3.2
Reprezentările grafice discutate mai sus sunt o ilustrare sugestivă a clasificării pentru
sistemele liniare care este indusă de teorema Kronecker-Capelli.
Definiţia următoare şi cele trei transformări care vor fi enunţate după aceasta sunt de mare
importanţă pentru cele ce vor fi abordate în restul acestui capitol, precum şi în următorul.
Evident, aplicarea fiecăreia dintre cele trei transformări elementare asupra sistemului
determină o transformare a matricei extinse Ã. De aceea se pot defini corespunzător
transformările elementare ale acesteia.
a11 a12 K K a1 p
a 21 a 22 K K a2 p
P = (1.3.6)
K K K K K
a p1 a p2 K K a pp
4 x1 − 2 x 2 − x 3 = 9
(1.3.8)
x1 − 3 x 2 + 2 x 3 = 7
x + x + x =2
1 2 3
x1 = 2
(1.3.9)
x2 = −1
x3 = 1
Se pune problema cum s-ar putea face trecerea sistemului dat de la forma (1.3.8) la forma
finală (1.3.9) aplicând transformări elementare. Metoda eliminării complete îşi propune tocmai
ca, prin transformări elementare, să aducă un sistem de la forma sa iniţială la o formă care să
permită citirea directă a soluţiei. Deci, pentru un sistem 3 × 3,
De fapt, metoda acţionează asupra matricei extinse à a sistemului, deci asupra liniilor
acesteia se fac transformările:
După cum se observă din (1.3.11), soluţia sistemului, x1 = v1, x2 = v2, x3 = v3, poate fi citită
direct de pe matricea extinsă. Pentru sisteme de n ecuaţii cu n necunoscute metoda este cunoscută
şi sub numele de metoda Gauss-Jordan şi constă în transformarea unui sistem de ecuaţii liniare
care are o matrice a coeficienţilor pătratică, într-un sistem echivalent care are ca matrice a
coeficienţilor, chiar matricea unitate.
Generalizarea pentru sisteme m × n este simplă: ideea centrală a metodei eliminării
complete este de a aduce matricea extinsă a sistemului la o formă care să conţină în partea
stângă numărul maxim posibil de coloane ale matricei unitate.
Metoda se aplică iterativ, începând cu coloana 1; la fiecare iteraţie se obţine o nouă
coloană a matricei unitate păstrând, bineînţeles, coloanele obţinute la etapele anterioare.
Procesul de obţinere a unei coloane a matricei unitate se numeşte pivotaj şi se realizează
efectuând transformări elementare asupra liniilor. Pivotajul se desfăşoară în două etape care sunt
descrise în continuare.
Aceasta înseamnă că, prin transformări elementare, s-a ajuns de la sistemul iniţial la sistemul
echivalent
x1 + 5x 2 − 2 x 3 = 2
− 6 x 2 + 3x 3 = −1
0 = 6
Faptul că, în forma la care s-a ajuns, ultima ecuaţie nu are sens denotă că atât acest sistem cât şi
cel iniţial, cu care este echivalent, sunt incompatibile. Aceleaşi consideraţii se pot face, evident,
pentru orice alt sistem adus în această situaţie.
Verificarea 2. Se controlează dacă pe vreo linie s-au obţinut numai zerouri, inclusiv pe
poziţia termenului liber. Atunci linia respectivă poate fi eliminată pentru că ecuaţia
corespunzătoare ei este o combinaţie liniară a celorlalte ecuaţii din sistem (este o ecuaţie
secundară). Se va continua rezolvarea sistemului rămas după eliminarea ecuaţiei secundare. De
exemplu, dacă pentru un sistem de trei ecuaţii cu trei necunoscute se obţine, după primul pivotaj,
matricea extinsă
1 5 −2 2
0 0 0 0
0 3 8 6
x1 + 5x 2 − 2 x 3 = 2
0=0
3x 2 + 8 x 3 = 6
Ecuaţia a doua a sistemului iniţial, fiind o combinaţie liniară a celorlalte două, a devenit
identitatea 0 = 0 şi poate fi eliminată. Rămâne de rezolvat un sistem cu două ecuaţii.
Exemplul 1.3.1
4 x1 − 2 x 2 − x 3 = 9
Să se rezolve sistemul (1.3.8): x1 − 3x 2 + 2 x 3 = 7
x + x + x =2
1 2 3
Este convenabilă, dar nu obligatorie, organizarea calculelor într-o formă tabelară ca cea alăturată.
4 -2 -1 9 ⋅ (− 14)
Pentru fiecare coloană se observă cele
1 -3 2 7
două etape ale pivotajului:
1 1 1 2
1 − 12 − 14 9
4 (-1) (-1) A. Stabilirea pivotului şi aducerea sa
1 -3 2 7 la valoarea 1; în această etapă este
1 1 1 2 notată alături de tabel valoarea
1 − 1
2 − 1
4
9
4 convenabilă cu care trebuie
0 − 52 9
4
19
4 (− 2 5 ) înmulţită linia.
B. Crearea de zerouri pe restul
0 3
2
5
4 − 14
coloanei; pentru această etapă sunt
1 − 12 − 14 9
4 notate alături valorile convenabile
0 1 − 9 10 − 19 10 1
2 − 32 cu care trebuie înmulţită linia
0 3
2
5
4 − 14 pivotului înainte de a fi adunată o
1 0 − 10 7 − 10
13 altă linie, iar săgeţile indică liniile la
0 1 − 9
10 − 19
10
care se face adunarea.
0 0 13
5
13
5 ( 513)
1 0 − 7 10 − 1310
0 1 − 9 10 − 19 10
0 0 1 1 (9 10) (7 10)
1 0 0 2
0 1 0 -1
0 0 1 1
Exemplul 1.3.2
4 x1 − 2 x 2 − x 3 = 9
x − 3x + 2 x = 7
Să se rezolve sistemul: 1 2 3
7
1 x + 10 x 2 − 8 x 3 = 34
x1 + x 2 + x 3 = 2
2 −1 −1 2 1 − 12 − 12 1 1 − 12 − 12 1
1 4 − 2 10 1 4 − 2 10 0 9 2 − 32 9
⇔ ⇔ ⇔
7 10 − 8 34 7 10 − 8 34 0 27 2 − 9 2 27
1 − 2 2 10 1 −2 2 10 0 − 32 52 9
1 − 12 − 12 1 1 0 − 23 2 S-a obţinut o linie( a treia)
0 1 − 13 2 0 1 − 13 2 formată numai din zerouri,
⇔ ⇔ inclusiv termenul liber; conform
0 27 2 − 9 2 27 0 0 0 0
verificării 2, ea va fi eliminată
0 − 32 52 9 0 0 2 12
Exemplul 1.3.3
− 2 x1 + x 2 + 3x 3 = 12
Să se rezolve sistemul: x1 + 2 x 2 + 5x 3 = 10
6 x − 3x − 9 x = 24
1 2 3
−2 1 3 12 1 − 12 − 3 2 − 6 1 − 12 − 3 2 − 6
1 2 5 10 ⇔ 1 2 5 10 ⇔ 0 52 13
2 16
6 − 3 − 9 24 6 − 3 − 9 24 0 0 0 60
Ultima linie a matricei extinse la care s-a ajuns a fost scoasă în evidenţă pentru că arată că
s-a ajuns la o situaţia care, conform verificării 1, semnalează un sistem incompatibil.
Exemplul 1.3.4
x1 + x 2 + x 3 = 20
Să se rezolve sistemul: 2 x1 − 3x 2 + x 3 = −5
6 x − 4 x + 4 x = 30
1 2 3
1 1 1 20 1 1 1 20 1 1 1 20 1 0 4
5 11
2 − 3 1 − 5 ⇔ 0 − 5 − 1 − 45 ⇔ 0 1 1
5 9 ⇔ 0 1 1
5 9
6 − 4 4 30 0 − 10 − 2 − 90 0 − 10 − 2 − 90 0 0 0 0
După eliminarea ecuaţiei secundare reprezentate de linia a treia formată doar din zerouri
rămâne un sistem compatibil nedeterminat care are necunoscutele principale x1 şi x2, iar
necunocuta secundară este x3. Notând x3 cu α ∈R rezultă că soluţiile se pot scrie:
4
x1 = 11 − 5 α
, α ∈R
1
x2 = 9 − α
5
Este clar că, aplicând verificarea 2 după fiecare pivotaj, se vor elimina până în final toate
ecuaţiile secundare (dacă au existat astfel de ecuaţii), iar sistemul rămas va fi format numai din
ecuaţii principale, iar matricea unitate obţinută va avea ordinul egal cu numărul de ecuaţii.
Rezolvaţi exerciţiile 19 până la 24 de la pagina 1-34.
Conform definiţiei 1.3.8 rezultă că soluţia de bază a formei explicite la care s-a ajuns
poate fi citită direct din matricea extinsă a acesteia. Ea formează ultima coloană, cea
corespunzătoare termenilor liberi. Exerciţiul din exemplul 1.3.4 este o ilustrare imediată.
Tot din definiţia soluţiei de bază rezultă că, în cadrul acesteia, cel puţin n - m variabile
sunt nule, adică variabilele secundare. Este, însă, posibil ca, din explicitare, să rezulte şi printre
variabilele principale unele egale cu zero. Se poate face, din acest punct de vedere, următoarea
clasificare a soluţiilor de bază ale unui sisteme liniar.
A. Se creează elementului egal cu 1 pe poziţia (l, r). Pentru ca aceast lucru să fie posibil
trebuie ca alr să fie nenul.
A1. Dacă alr ≠ 0, atunci se împarte linia l la valoarea alr (se aplică T1) şi se trece la
etapa B.
A2. Dacă alr = 0, se caută pe coloana r supusă pivotajului un element nenul care să
poată fi adus pe poziţia (l, r) prin schimbarea ordinii liniilor (transformarea T3).
Elementul căutat trebuie să nu fie pe una din liniile pe care se află deja pivoţi
egali cu 1 realizaţi în cele r-1 etape anterioare. Adică, prin aplicarea transformării
T3, coloanele din matricea unitate realizate până atunci trebuie să nu fie distruse
aj+1,j, ..., an,j (adică pe coloana j, sub ajj), un element nenul;
• Dacă pe coloana r se găseşte un element akr ≠ 0 care să poată fi adus pe
poziţia (l, r) fără a afecta coloanele din matricea unitate deja construite,
atunci se inversează între ele liniile k şi l (se aplică T3); se obţine astfel alr ≠
0, după care se poate face 1 pe poziţia (l, r) împărţind linia l la valoarea alr.
• Dacă pe coloana r nu se găseşte nici un element diferit de zero care să poată
fi adus pe poziţia (l, r) fără a afecta coloanele din matricea unitate deja
construite, atunci se întrerupe pivotajul şi se trage concluzia că sistemul nu
poate fi explicitat în raport cu grupul de m variabile cerut.
B. Se transformă în zerouri toate elementele de pe coloană în afara pivotului (aşa cum a
fost arătat deja).
Cele două verificări care trebuiau făcute la varianta anterioară nu mai sunt necesare pentru
că, pe de o parte, am presupus că ne plasăm în situaţia unor sisteme compatibile nedeterminat
(singura interesantă pentru scopurile noastre) şi, pe de altă parte, eliminarea ecuaţiilor secundare
nu este de dorit pentru că ele fac parte din modelarea procesului studiat.
Din cele expuse până aici, fiind dat un sistem liniar de m ecuaţii cu n necunoscute având
m < n, cu cele n variabile ale sistemului se pot forma Cnm grupuri diferite de m variabile. De
aceea, pentru un astfel de sistem este valabilă teorema următoare.
Prin definiţia 1.3.8 s-a introdus noţiunea de soluţie de bază şi s-a stabilit că fiecărei forme
explicite a sistemului îi corespunde o unică soluţie de bază. Se poate întâmpla, desigur, ca la două
forme explicite să corespundă o aceeaşi soluţie de bază. Ţinând cont şi de teorema 1.3.5 rezultă
Din cele discutate până acum rezultă că, plecând de la o formă explicită, printr-un pivotaj
convenabil, se poate ajunge la una din următoarele situaţii:
♦ o nouă formă explicită care diferă de prima printr-o variabilă principală;
♦ se stabileşte că noua formă explicită la care se dorea să se ajungă nu există.
Orice formă explicită a sistemului are m variabile principale şi n-m variabile secundare.
Formele explicite diferă între ele tocmai prin grupul de variabile principale. De aceea, atunci
când se face trecerea de la o formă explicită la alta prin pivotaj, una din variabilele secundare
devine variabilă principală (sau de bază), iar una din variabilele principale de până atunci trebuie
să devină secundară (sau nebazică) pentru ca numărul de m variabile principale să rămână
constant. Se spune că, prin pivotaj, o variabilă secundară intră în bază, iar o variabilă principală
iese din bază. O justificare mai riguroasă a acestor expresii este posibilă dacă se tratează
sistemele de ecuaţii liniare prin prisma structurilor algebrice care se numesc spaţii liniare (sau
spaţii vectoriale).
Corespunzător formelor explicite sunt soluţiile de bază ale sistemului. În rezolvarea
problemelor de programare liniară vor interesa soluţiile de bază corespunzătoare diferitelor forme
explicite precum şi trecerea de la una la alta dintre acestea.
a a 12 (1.3.9)
A = 11
a 21 a 22
x x12 (1.3.10)
A −1 = 11
x 21 x 22
Ambele sisteme se pot rezolva prin metoda eliminării complete şi, în cazul în care sunt
compatibile determinat, duc la forme explicite pe care se pot citi direct soluţiile
Sistemele (1.3.13) au, ambele, aceeaşi matrice a coeficienţilor, aşa cum se vede şi din
matricele extinse (1.3.14). De aceea, ele pot fi rezolvate simultan scriind împreună cele două
matrice extinse. În acest fel se poate calcula A-1 plecând de la tabloul în care matricea A ocupă
partea stângă, iar matricea unitate partea dreaptă. Se aplică metoda eliminării complete până când
se ajunge la tabloul care are în stânga matricea unitate, moment în care în partea dreaptă apare
matricea A-1.
Dacă nu se poate obţine un tablou final care să conţină în partea stângă matricea unitate,
atunci se trage concluzia că matricea dată nu este inversabilă.
Exemplul 1.3.5
2 0 1
Să se determine inversa matricei A = 2 1 − 1
3 1 − 1
Aplicând metoda descrisă se obţin succesiv tablourile
2 0 1 1 0 0 1 0 12 12 0 0 1 0 12 12 0 0
2 1 −1 0 1 0 ⇔ 2 1 −1 0 1 0 ⇔ 0 1 − 2 −1 1 0
3 1 −1 0 0 1 3 1 −1 0 0 1 0 1 − 52 − 32 0 1
1 0 12 12 0 0 1 0 12 12 0 0 1 0 0 0 −1 1
0 1 − 2 −1 1 0 ⇔ 0 1 − 2 −1 1 0 ⇔ 0 1 0 1 5 −4
0 0 − 12 − 12 − 1 1 0 0 1 1 2 −2 0 0 1 1 2 −2
0 − 1 1
−1
S-a obţinut matricea inversă A = 1 5 − 4
1 2 − 2
Exemplul 1.3.6
2 0 1
Să se determine inversa matricei A = 3 1 − 1
− 2 − 2 4
2 0 1 1 0 0 1 0 1
2
1
2 0 0 1 0 12 12 0 0
3 1 − 1 0 1 0 ⇔ K ⇔ 0 1 − 52 − 32 1 0 ⇔ 0 1 − 52 − 32 1 0
−2 −2 4 0 0 1 0 −2 5 1 0 1 0 0 0 −2 2 1
Ultima linie a tabloului final indică incompatibilitatea sistemelor care stau la baza
acestuia. Concluzia care trebuie trasă este că matricea dată nu este inversabilă.
Rezolvaţi exerciţiile 25 şi 26 de la pagina 1-34.
<
≤
(1.4.1)
ax + by c
≥
>
unde acoladele semnifică faptul că, pe poziţia respectivă, trebuie folosit, după caz, unul
din cele patru simboluri.
Se numeşte soluţie a inegalităţii liniare date mulţimea perechilor ordonate (x, y) care
satisfac (1.4.1).
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
4 x − y ≤ 8
x − y ≥ −1
x + 2 y ≥ 2
Soluţia grafică este reprezentată în figura 1.4.2 prin punctele din interiorul, precum şi de
pe laturile triunghiului ABC care reprezintă intersecţia semiplanelor determinate de cele trei
inegalităţi din enunţ. Vârfurile triunghiului au coordonatele A(0,1), B(2, 0), C(3, 4).
y C
y y
d3
d2 d2
A d1
d1
B
O x O x O x
Fig. 1.4.2 Fig. 1.4.3 Fig. 1.4.4
Un sistem de inegalităţi liniare poate fi compatibil, dacă are cel puţin o soluţie, deci există
măcar o pereche de valori (x, y) care să verifice toate inecuaţiile, sau incompatibil, în caz contrar.
De exemplu, în figura 1.4.3 este arătat un sistem de două inegalităţi incompatibil. În legătură cu
sistemele de inegalităţi compatibile, are importanţă dacă sistemul are soluţie mărginită sau
soluţie nemărginită. O definire riguroasă a mulţimilor mărginite şi nemărginite cere o tratare
mult prea amplă pentru scopurile pe care ni le-am propus aici, dar reprezentări grafice intuitive
sunt suficiente. Astfel, soluţia sistemului din figura 1.4.2 este mărginită, în timp ce sistemul din
figura 1.4.4 are soluţie nemărginită.
Astfel, o inegalitatea liniară în n variabile are expresia
<
≤
a 1 x1 + a 2 x 2 + K + a n x n b (1.4.1)
≥
>
În acest capitol au fost trecute în revistă câteva noţiuni elementare de matematică liniară.
Ele vor fi utilizate în capitolele 2 şi 3 ca suport pentru introducerea tehnicilor de optimizare
denumite generic programare liniară.
Exerciţii
Să se traseze dreptele de ecuaţii generale
1) 3x − 4 y = 24 2) 4 x − y = 16 3) − 2 x + 3 y = 18 4) x − 2 y = −10
5) 15 x = 20 6) x = 0 7) − 4 y = 0 8) y = 0
x1 + x 2 + x3 = 2 − 4 x1 + 12 x 2 + 4 x3 = 40
19 ) x1 − 3 x 2 + 2 x3 = 7 20 ) x1 + x 2 − 6 x3 = 10
4 x − 2 x − x = 9 x + 3 x − x = 10
1 2 3 1 2 3
x1 + x 2 + x3 = 0 2 x1 + 4 x 2 − 2 x3 = 10
21) 3 x1 − x 2 + 2 x3 = −1 22 ) 3 x1 − x 2 + 4 x3 = 12
x + 2 x + 3 x = −5 − x − 2 x + x = 0
1 2 3 1 2 3
− x1 + 3 x 2 + x3 = 7 4 x1 + 2 x 2 − 5 x3 = 13
23) 3 x1 − 9 x 2 − 3 x3 = 14 24 ) x1 + x 2 + x3 = 2
4 x + 2 x − 2 x = 24 2 x − x − 3 x = 3
1 2 3 1 2 3
Să se determine inversele următoarelor matrice, dacă acestea există, utilizând metoda eliminării
totale.
0 3 1 3 5 2
25) 1 1 0 26 ) 4 1 0
2 3 3 − 9 − 15 − 6
2
Introducere în
programarea liniară
2.1 Structura unei probleme de programare liniară
2.2 Rezolvarea grafică a problemelor de programare liniară în două variabile
Obiectivele capitolului
• Înţelegerea structurii modelelor de programare liniară şi semnificaţiei elementelor care intră în
componenţa acestora
• Ilustrarea varietăţii aplicaţiilor care pot fi tratate prin programare liniară
• Înţelegerea mecanismelor care stau la baza modelelor de programare liniară prin descrierea
intuitivă oferită de rezolvările grafice
• Discutarea situaţiilor speciale care pot apărea în rezolvarea unei probleme de programare
liniară
Acest capitol este dedicat introducerii noţiunilor de bază legate de programarea liniară
(PL), o metodă de optimizare care s-a dezvoltat în a doua jumătate a secolului al douăzecilea.
Tehnica programării liniare are o largă arie de aplicabilitate în cele mai diverse domenii de
inginerie: economică, agricolă, industrială. În prezent există implementări software puternice cu
ajutorul cărora se pot rezolva pe calculator probleme de programare liniară de mare complexitate.
Cu toate acestea, studierea modelului este necesară pentru că, fară o înţelegere corectă a acestuia,
exploatarea corectă a unui program de calculator dedicat rezolvării problemelor de programare
liniară nu este posibilă. În acest capitol va fi abordată şi rezolvarea grafică a problemelor PL care,
deşi se poate aplica doar problemelor în două variabile, are avantajul de a oferi o imagine
intuitivă a conceptelor implicate într-un program liniar. Noţiunile de algebră liniară introduse în
capitolul precedent îşi vor găsi aici utilizarea.
2.1 Structura unei probleme de programare liniară
Programarea liniară (PL) este o metodă de optimizare matematică. Prin metodă de
optimizare se înţelege o tehnică al cărei scop este să găsească cea mai bună soluţie pentru
atingerea unui anumit obiectiv. În multe cazuri obiectivul este exprimat printr-o valoare
numerică; de aceea, optimizarea poate însemna, după caz, maximizarea sau să minimizarea sa.
De exemplu, dacă într-un mecanism economic obiectivul urmărit este profitul, este clar că se va
urmări obţinerea celei mai mari valori posibile: problema este, deci, de maximizare. Într-o altă
situaţie, cum ar fi un proces de producţie, agricol sau industrial, obiectivul urmărit s-ar putea
referi la consumuri (de materii prime, de energie etc.) În aceste caz problema va fi, bineînţeles, de
minimizare.
Programarea liniară face parte dintr-o colecţie mai mare de discipline matematice care s-
au dezvoltat puternic în a doua jumătate a secolului al douăzecilea şi care au ca trăsătură comună
o puternică legătură cu situaţii care apar în desfăşurarea proceselor din lumea reală. Aceste
discipline au fost incluse înt-un domeniu ştiinţific denumit cercetare operaţională. Din acest
domeniu mai fac parte, de exemplu: teoria aşteptării, teoria jocurilor, programarea neliniară,
teoria reţelelor de transport. Între acestea, însă, programarea liniară a devenit foarte populară în
rândul utilizatorilor deoarece, aşa cum am amintit şi în preambulul capitolului 1, multe fenomene
din lumea reală pot fi descrise, sau cel puţin aproximate, ca fiind liniare. În plus, înţelegerea şi
manipularea modelelor de tip liniar este mai uşoară decât a altor tipuri.
Ca şi în alte tehnici de optimizare, în orice problemă de programare liniară trebuie luate
anumite decizii prin aplicarea cărora să se atingă valoarea optimă a obiectivului. Aceste decizii
sunt reprezentate printr-un set variabile de decizie xj. Variabilele de decizie sunt folosite pentru
formularea modelului de programare liniară. Folosind variabilele de decizie se descrie atât
obiectivul care trebuie atins, cât şi o serie de condiţii restrictive care trebuie respectate de către
soluţia căutată. Pe scurt, obiectul unei probleme de programare liniară poate fi descris astfel.
Funcţia obiectiv este o funcţie liniară de variabilele xj. Ea este reprezentarea matematică a
scopului avut în vedere: nivelul profitului, costurile totale etc.
Setul de restricţii este un sistem liniar de ecuaţii şi inecuaţii în variabilele xj. El descrie
condiţiile pe care trebuie să le satisfacă variabilele de decizie pentru a fi în conformitate cu
realitatea: capacităţi de producţie limitate, nivel minim obligatoriu al vânzărilor etc.
Se observă că atât funcţia obiectiv cât şi restricţiile sunt liniare. De aceea, acest gen de
probleme se numesc de programare liniară.
În următorul exemplu este enunţul unei probleme de programare liniară.
Exemplul 2.1.1
max z = 4 x1 + 2 x 2 (2.1.1)
x1 + 2 x 2 ≤ 24
(2.1.2)
4 x1 + 3x 2 ≥ 30
x1 , x 2 ≥ 0 (2.1.3)
Problema enunţată cere să se maximizeze funcţia z exprimată prin relaţia (2.1.1), care este
o funcţie liniară în două variabile, x1 şi x2. În alegerea valorilor pentru variabilele x1 şi x2, prin
care să se obţină valoarea maximă a lui z, trebuie respectate, însă, cele patru restricţii exprimate
de inegalităţile liniare (2.1.2) şi (2.1.3).
Restricţii structurale şi restricţii de nenegativitate
Se observă că cele patru restricţii ale problemei din exemplul 2.1.1, deşi ar fi putut fi
exprimate sub aceeaşi acoladă, printr-un unic sistem de inegalităţi, au fost separate în două
grupuri. Prin aceasta se pune în evidenţă o diferenţă de semnificaţie între cele două categorii.
Astfel, sistemul (2.1.2) descrie restricţii care reflectă condiţiile impuse de structura situaţiei
analizate: resurse limitate, niveluri minime care trebuie respectate etc. De aceea, ele se numesc
restricţii structurale. Pe de altă parte, condiţiile exprimate de (2.1.3) arată că nici o variabilă de
decizie nu are voie să ia valori negative. Acesta este cazul în majoritatea covârşitoare a
problemelor de programare liniară deoarece variabilele de decizie reprezintă mărimi care nu pot
avea valori negative: sume de bani, cantităţi de produse, consumuri energetice etc. De aceea,
aceste restricţii se numesc restricţii de nenegativitate. Vom considera în cele ce urmează că toate
problemele de programare liniară pe care le vom aborda vor trebui să satisfacă restricţiile de
nenegativitate. Aici mai menţionăm, doar, că există modalităţi de tratare a situaţiilor speciale în
care apar şi variabile de decizie cu valoare negativă.
Din cele discutate rezultă că, în general, o problemă de programare liniară poate fi
enunţată aşa cum este arătat în continuare.
Exemplul 1.3.6
O firmă fabrică două produse, A şi B. Fiecare produs trebuie prelucrat în două secţii. În
tabelul de mai jos se arată câte ore de lucru sunt necesare, pe unitatea de produs, în fiecare secţie.
Pe ultima coloană sunt date capacităţile de lucru, în ore, ale fiecărei secţii, pe săptămână. Pe
ultima linie a tabelei este arătat profitul care se obţine de pe urma vânzării unei unităţi din fiecare
produs. Se ştie că întreaga producţie are vânzare. Trebuie să se decidă câte unităţi din fiecare
produs trebuie fabricate săptămânal pentru ca profitul total să fie maxim.
z = 5x 1 + 6x 2
De asemenea, deşi acest lucru nu a fost precizat explicit, este clar că pentru x1 şi x2 nu pot
fi acceptate valori negative. Prin urmare, variabilele de decizie trebuie să respecte şi restricţiile
de nenegativitate.
Combinând funcţia obiectiv cu restricţiile se obţine următoarea problemă de programare
liniară:
Singura observaţie care se impune este aceea că, chiar în condiţiile unei probleme simple
ca cea considerată în exemplul precedent, rezolvarea prin simpla încercare a diferite seturi de
valori (variante) pentru variabilele de decizie nu poate duce decât întâmplător la soluţia optimă.
Acest lucru devine cu atât mai dificil şi succesul mai puţin probabil cu cât numărul de variabile
de decizie şi numărul de restricţii structurale cresc. Este clar că soluţia optimă trebuie căutată
folosind o metodă riguroasă de investigare. În cele ce urmează va fi descrisă o astfel de metodă
care poate fi aplicată în cazul problemelor în două variabile. Exemplificările vor fi făcute folosind
problema PL definită mai sus prin relaţiile (2.1.7), (2.1.8), (2.1.9).
2.2 Rezolvarea grafică a problemelor de
programare liniară în două variabile
În situaţiile din lumea reală care conduc la probleme de programare liniară trebuie avute
în vedere, de obicei, mai mult de două variabile de decizie. Dar, interpretările geometrice pe care
sunt posibile în cazul a două variabile au utilitae pentru înţelegerea metodei rezolvare a
problemelor cu n variabile care vor fi abordate în capitolul 3.
Funcţia obiectiv
În cazul problemei luate ca exemplu scopul final este de a găsi o variantă de decizie (x1,
x2) pentru care valoarea z a funcţiei obiectiv să fie maximă. Să presupunem, pentru început, că
urmărim combinaţiile (x1, x2) pentru care se obţine o anumită valoare a funcţiei obiectiv, nu
neapărat cea ami mare. De exemplu, interesează ce cantităţi x1 şi x2 din cele două produse trebuie
fabricate pentru ca profitul săptămânal să fie 120$. Conform (2.1.7) trebuie determinate perechile
(x1, x2) pentru care
S-a obţinut ecuaţia generală a unei drepte care poate fi reprezentată pe acelaşi grafic cu poligonul
soluţiilor admisibile, după cum se observă din figura 2.2.2.
Dreptele (2.2.1) şi (2.2.2) sunt paralele (conform proprietăţilor enunţate în finalul secţiunii
1.2). Este, însă, importantă următoarea observaţie: dreapta (2.2.2), al cărei termen liber este mai
mare, este mai depărtată de origine decât dreapta (2.2.1). Acest lucru este valabil pentru orice
fascicul de drepte paralele şi rezultă imediat aplicând formula (1.2.13) a distanţei de la un punct
la o dreaptă pentru originea sistemului de coordonate. Astfel,
−c
d ( O; h) = (2.2.3)
a 2 + b2
Din (2.2.3) rezultă că, pentru un fascicul de drepte paralele hj: ax + by = cj , j = 1,2, ...
(având aceiaşi coeficienţi a şi b), distanţele de la originea O la fiecare dintre acestea cresc odată
cu creşterea valorii absolute a coeficienţilor cj.
Revenind la problema de programare liniară discutată înseamnă că, dacă se cer valori zj
din ce în ce mai mari ale profitului, vor rezulta în cadranul I drepte 5x1 + 6 x 2 = z j paralele şi din
ce în ce mai îndepărtate de origine. Această îndepărtare de origine prin creşterea valorii funcţiei
obiectiv se poate face, însă, doar până la locul în care dreapta mai are, încă, puncte comune cu
suprafaţa restricţiilor: nu trebuie uitat că doar punctele de pe dreaptă care cad pe suprafaţa
restricţiilor reprezintă soluţii fezabile pentru obţinerea profitului respectiv.
În cazul studiat dreapta poate fi deplasată, paralel cu ea însăşi, în cadranul întâi până când
mai are contact cu suprafaţa rerstricţiilor OABC doar în punctul B(20, 30). {tim că acest punct
face parte dintr-o dreaptă 5x1 + 6 x 2 = z j corespunzătoare unui profit dat. Înlocuind coordonatele
acestui punct se obţine expresia acestei drepte: 5x1 + 6 x 2 = 280 . Ea este reprezentată în figura
2.2.2 şi coordonatele oricărui punct al ei reprezintă combinaţii (x1, x2) pentru care se obţine un
profit de 180$. Dar numai un singur punct, B(20, 30), aparţine şi poligonului soluţiilor admisibile.
Concluzia pe care o tragem este că funcţia obiectiv (2.1.7) este maximizată pentru valorile x1 =
20 şi x2 = 30 ale variabilelor de decizie şi, în acest caz, valoarea ei este z = 280. Interpretarea
concluziei în conteztul problemei analizate este că profitul maxim care se poate obţine
săptămânal este de 280$ şi el se obţine dacă se fabrică 20 de unităţi din produsul A şi 30 de
unităţi din produsul B.
Având o problemă de maximizare, am depistat soluţia deplasând dreapta rezultată din
expresia funcţiei obiectiv în sensul depărtării ei de origine (creşterii termenului liber). Este clar
că, în cazul unei probleme de minimizare, deplasarea aceasta trebuie făcută în sens opus.
Bineînţeles, este de aşteptat ca, pentru o astfel de problemă, poligonul soluţiilor admisibile să nu
includă şi originea.
În figura 2.2.3 este arătată o mulţime convexă. În figura 2.2.4 este o mulţime care nu este
convexă; într-adevăr, există măcar două puncte ale mulţimii, de exemplu P şi Q, cu proprietatea
că segmentul care le uneşte nu este inclus în întregime în mulţime. Din figura 2.2.5 se vede clar
că semiplanele sunt mulţimi convexe.
Definiţia 2.2.1 exprimă intuitiv ideea de mulţime convexă în plan (două dimensiuni).
Trebuie reţinut că acest conceptul este valabil şi în spaţii abstracte, cu n dimensiuni. Pentru
definirea sa riguroasă sunt necesare, însă, dezvoltări teoretice mai ample. Oricum, indiferent de
dimensiunea spaţiului în care se operează, este adevărată următoarea teoremă.
y y y
N
P
M
Q d
O x O x O x
Fig. 2.2.3 Fig. 2.2.4 Fig. 2.2.5
Teorema 2.2.1 împreună cu observaţia, ilustrată prin figura 2.2.5, că un semiplan este o
mulţime convexă, duc la concluzia că soluţia unui sistem de inecuaţii liniare în două variabile,
care este o intersecţie de semiplane, este o mulţime convexă. Aducând acest rezultat în domeniul
problemelor de programare liniară în două variabile, rezultă două afirmaţii foarte importante
pentru rezolvarea grafică a problemelor PL.
1) Mulţimea soluţiilor admisibile este o suprafaţă poligonală convexă.
2) Soluţia optimă a unei probleme PL va inculde întotdeauna un vârf al poligonului
soluţiilor admisibile.
A doua afirmaţie este valabilă atât pentru probleme de maximizare cât şi de minimizare şi
indiferent de panta dreptei care reprezintă funcţia obiectiv. Ea arată că atunci când se face o
deplasare a dreptei, ultimul punct înaintea ieşirii completă din poligonul soluţiilor admisibile va
include cel puţin un vârf al acestuia.
Din cele de mai sus rezultă metoda care trebuie aplicată pentru a determina soluţia
optimă:
1) Se trasează grafic poligonul soluţiilor admisibile.
2) Se determină coordonatele vârfurilor.
3) Se calculează valoarea funcţiei obiectiv pentru fiecare vârf; pentru aceasta se substituie
coordonatele în funcţia obiectiv.
4) Pentru o problemă de maximizare soluţia optimă este în vârful pentru care se obţine
cea mai mare valoare a funcţiei obiectiv, iar pentru o problemă de minimizare se va
căuta valoarea minimă dintre cele date de vârfuri.
Soluţii multiple
Există posibilitatea ca o problemă de programare liniară să aibă mai mult de o soluţie
optimă. Figura 2.2.6 ilustrează cazul când funcţia obiectiv are aceeaşi pantă cu dreapta ataşată
unei restricţii structurale. Dacă funcţia obiectiv este deplasată în sensul, indicat de săgeată,
creşterii distanţei faţă de origine, ultimul punct în care poligonul soluţiilor admisibile este atins va
fi, de fapt, segmentul AB. În această situaţie există, deci, o infinitate de puncte de optim: în
fiecare punct de pe segmentul AB se atinge valoarea maximă pentru funcţia z.
y
B
z
C
O x
Fig. 2.2.6
Soluţie inexistentă
Este posibil ca sistemul de restricţii ale unei probleme de programare liniară să nu aibă
nici o soluţie (să fie incompatibil). Deci nu va exista nici o pereche (x1, x2) care să satisfacă toate
restricţiile. Se spune în acest caz că problema nu are soluţii admisibile (fezabile). În figura 1.4.3
din secţiunea 1.4 este dat un exemplu de sistem de inegalităţi liniare incompatibil.
Soluţie nemărginită
Rezolvând sistemul de restricţii se poate constata că suprafaţa soluţiilor admisibile este
nemărginită. Având un astfel de spaţiu al soluţiilor se poate ajunge la nemărginirea soluţiei
optime. În figura 2.2.7 este ilustrată o astfel de situaţie.
B
z
C
O x
Fig. 2.2.7
Spaţiul soluţiilor admisibile care mărginit în partea inferioară dar este nemărginit
superior. Deplasarea spre maxim a dreptei corespunzătoare lui z nu cunduce la atingerea unui
punct care să fie desemnat ca optim în acest sens. Dacă problema ar fi de maximizare concluzia
care ar trebui trasă este că ne aflăm într-o situaţie în care soluţia este nemărginită.
S-ar putea, însă, determina o soluţie optimă dacă problema ar fi de minim (în exemplul
din figura 2.2.7 ea ar corespunde punctului B).
În acest capitol au fost introduse principalele idei legate de utilizarea programării liniare
ca metodă de optimizare cu largă aplicabilitate. Metoda grafică de rezolvare a problemelor PL în
două variabile are menirea de a oferi o imagine geometrică intuitivă. Situaţiile din lumea reală
implică, de obicei, mai mult de două variabile. Capitolul următor este dedicat algoritmului
simplex, cu care se rezolvă probleme PL în oricâte variabile.
Exerciţii
Să se rezolve grafic următoarele probleme de programare liniară.
3) max z = 30 x1 + 20 x 2 4 )min z = 10 x1 + 16 x 2
3x1 + x 2 ≤ 18 x1 ≤ 400
x + x ≤ 12
1
2 x 2 ≥ 200
x1 ≥2 x + x = 500
1 2
x2 ≥ 2
x1 , x 2 ≥ 0
x1 , x 2 ≥ 0
6) max z = 2 x1 + 5x 2
5) max z = 10 x1 + 15x 2
x1 + x 2 ≤ 16
x1 + x 2 ≥ 20 x ≤ 12
2 x + x ≤ 48 1
1 2
x1 ≥8
1x ≤ 20 x 2 ≤ 10
x1 + x 2 ≤ 30
x2 ≥ 4
x1 , x 2 ≥ 0 x1 , x 2 ≥ 0
8) max z = 6 x1 + 5x 2
7) max z = 16 x1 + 8 x 2
2 x1 + 4 x 2 ≤ 40
2 x1 + x 2 ≤ 30
x1 + 2 x 2 ≤ 30
x1 + 2 x 2 ≤ 24 1,5x + x ≥ 50
1 2
x1 , x 2 ≥ 0
x1 , x 2 ≥ 0
3
Algoritmul simplex
3.1 Cerinţele metodei simplex
3.2 Introducere în metoda simplex
3.3 Algoritmul simplex pentru o problemă de maximizare în formă canonică
3.4 Algoritmul simplex pentru o problemă de maximizare cu restricţii de toate tipurile
3.5 Algoritmul simplex pentru o problemă de minimizare
3.6 Situaţii speciale
Obiectivele capitolului
• Înţelegerea algoritmului simplex de rezolvare a problemelor de programare liniară
• Ilustrarea modalităţilor în care trebuie abordate problemele care apar în aplicarea algoritmului
simplex
• Evidenţierea corespondeţelor care pot fi stabilite între mecanismele rezolvării grafice cele care
stau la baza algoritmului simplex
• Discutarea situaţiilor speciale care pot apărea în rezolvarea unei probleme de programare
liniară prin metoda simplex
Pentru aplicarea algoritmului simplex trebuie problema să fie adusă într-o formă în care să
îndeplinească următoarele cerinţe.
A. Termenul liber al fiecărei restricţii să fie nenegativ.
Această restricţie se rezolvă înmulţind restricţiile structurale care au termenul liber
negativ cu (-1). Bineînţeles, prin această înmulţire inegalităţile respective îşi vor
schimba sensul.
Exemple:
restricţia 2 x1 − 5x 2 ≤ −10 devine − 2 x1 + 5x 2 ≥ 10
restricţia 6x1 + 3x 2 ≥ −15 devine − 6 x1 − 3x 2 ≤ 15
B. Toate restricţiile structurale trebuie exprimate ca ecuaţii. Pentru a transforma
inegalităţile în egalităţi se introduc o serie de variabile suplimentare după cum
urmează:
b1. Pentru fiecare restricţie de tip ≤ se adună o variabilă ecart nenegativă în partea
stângă a restricţiei.
Exemplu: dacă în cadrul sistemului de restricţii apar inecuaţiile
2 x1 − 5x 2 ≤ 10
− 6 x1 − 3x 2 ≤ 15
b2. Pentru fiecare restricţie de tip ≥ se scade o variabilă ecart nenegativă din partea
stângă a restricţiei.
Exemplu: dacă în cadrul sistemului de restricţii apare inecuaţia
x1 + x 2 ≥ 25
b3. Pentru fiecare restricţie de tip ≥ sau de tip = se mai adună o variabilă artificială
nenegativă din partea stângă a restricţiei.
Exemplu: la restricţia de tip ≥ din exemplul precedent se mai adaugă o
variabilă artificială şi ea devine:
x1 + x 2 − x 5 + x 6 = 25, x 5 , x 6 ≥ 0
x1 , x 2 ≥ 0
După aplicarea transformărilor menţionate în paranteze se obţine sistemul de ecuaţii de mai jos,
în care x3 şi x5 sunt variabile ecart, iar x2 şi x4 sunt variabile artificiale.
− x1 + x 2 + x 3 = 10
2 x1 + 3 x 2 − x4 + x 5 = 40
x − 2x + x 6 = 25
1 2
x1 , x 2 , x 3 , x 4 , x 5 , x 6 ≥ 0
Variabilele nou introduse devin, de asemenea, variabile de decizie, de aceea ele trebuie să
se regăsească şi în cadrul funcţiei obiectiv.
În cadrul funcţiei obiectiv se consideră că variabilele ecart au, iniţial, coeficientul 0.
Variabilele artificiale nu au semnificaţie reală. De aceea, în cadrul funcţiei obiectiv, lor li
se asociază coeficienţi care să le facă să fie extrem de indezirabile pentru a participa la o decizie
care să ducă la optim. Astfel:
• pentru probleme de maximizare li se asociază variabilelor artificiale coeficienţi egali cu -M,
unde M este un număr pozitiv foarte mare, ceea ce face ca -M să fie un număr foarte negativ.
• pentru probleme de minimizare li se asociază variabilelor artificiale coeficienţi egali cu M, un
număr pozitiv foarte mare.
Asignarea de astfel de coeficienţi generează necesitatea de a căuta soluţii ale problemelor PL în
care variabilele artificiale să fie 0.
Prin aplicarea transformărilor enumerate se aduce problema de programare liniară la o aşa
numită formă standard.
x1 , x 2 ,K , x n ≥ 0 (3.1.6)
¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦
Revenind la diferitele forme pe care le poate avea o problemă PL imediat după modelarea
fenomenului studiat şi înainte de a o aduce la forma standard, se pot defini anumite categorii la
care se va apela mai târziu.
Din definiţia 3.1.3 rezultă că o problemă de programare liniară în forma canonică se scrie
într-una din următoarele forme
min z = c1 x1 + c2 x 2 + K cn x n (3.1.7)
(3.1.8)
a11 x1 + a12 x 2 + K + a1n x n ≥ b1
a x + a x + K + a x ≥ b (3.1.9)
21 1 22 2 2n n 2
...........................................
a m1 x1 + a m2 x 2 + K + a mn x n ≥ bm
x1 , x 2 ,K , x n ≥ 0
sau
max z = c1 x1 + c2 x 2 + K cn x n (3.1.10)
a11 x1 + a12 x 2 + K + a1n x n ≤ b1
a x + a x + K + a x ≤ b
21 1 22 2 2n n 2
(3.1.11)
...........................................
a m1 x1 + a m2 x 2 + K + a mn x n ≤ bm
x1 , x 2 ,K , x n ≥ 0
(3.1.12)
3 x1 + 2 x 2 + x 3 = 120
(3.2.4)
4 x1 + 6 x 2 + x 4 = 260
x1 , x 2 , x 3 , x 4 ≥ 0 (3.2.5)
1 x1 = 20, x2 = 30 x3 = x4 = 0 B
2 x2 = 60, x4 = -100 x1 = x3 = 0 P
3 x2 = 43 1 3 , x3 = 33 1 3 x1 = x4 = 0 A
4 x1 = 40, x4 = 100 x2 = x3 = 0 C
5 x1 = 65, x3 = -75 x2 = x4 = 0 Q
6 x3 = 120, x4 = 260 x1 = x2 = 0 O
y
60 P 3x1 + 2x2 = 120
45
A
30 B 4x1 + 6x2 = 260
15
Q
15 30 C 45 60 75 x
O
Fig. 3.2.1
În ultima coloană a tabelului sunt notate punctele din planul x1Ox2 cărora le corespund
componentele x1 şi x2 ale soluţiilor de bază respective. În figura 3.2.1 sunt marcate aceste puncte.
Soluţiile numerotate 2 şi 5 nu sunt admisibile (nu respectă restricţiile de nenegativitate);
numerele lor de ordine au fost tăiate din tabel.
Celelalte patru soluţii au în componenţă punctele O, A, B, C, vârfurile poligonului
restricţiilor. Din rezolvarea prin metoda grafică, descrisă în secţiunea 2.2, s-a ajuns la concluzia
că soluţia optimă trebuie căutată printre vârfurile poligonului soluţiilor admisibile. După cum se
observă, vârfurile poligonului soluţiilor admisibile corespund soluţiilor de bază admisibile ale
sistemului restricţiilor structurale pentru problema adusă la forma standard.
Exemplul sugerează un fapt care, după cum se demonstrează, are valabilitate pentru orice
problemă PL, de orice dimensiuni, adusă la forma standard:
max z = 5x 1 + 6x 2 + 0x 3 + 0x 4 (3.3.4)
3 x1 + 2 x 2 + x 3 = 120 (3.3.5)
4 x1 + 6 x 2 + x 4 = 260
x1 , x 2 , x 3 , x 4 ≥ 0 (3.3.6)
Soluţia se va găsi prin investigarea soluţiilor de bază ale sistemului (3.3.5). Se observă că
o primă soluţie de bază este oferită chiar de forma standard. Se mai observă, însă că funcţia
obiectiv poate fi privită şi ea ca o ecuaţie liniară care are încă o variabilă, z. Se poate forma astfel
un nou sistem de ecuaţii din (3.3.4) şi (3.3.5):
z − 5 x1 − 6 x 2 − 0 x 3 − 0 x 4 = 0 (0)
3 x1 + 2 x 2 + x 3 = 120 (1) (3.3.7)
4 x1 + 6 x 2 + x 4 = 260 (2)
x1 , x 2 , x 3 , x 4 ≥ 0
Ecuaţiile sistemului (3.3.7) ecuaţiile au fost numerotate, iar funcţia obiectiv a primit
numărul (0). Scopul este în continuare este să se rezolve sistemul de 3 ecuaţii în 5 variabile astfel
încât variabila z să ia valoarea maximă. Deoarece valoarea funcţiei obiectiv este cea care
interesează în mod special, z va trebui să rămână întotdeauna variabilă principală, deci să nu fie
scoasă din bază prin pivotaj.
Tabelul 3.3.1
variabile z x1 x2 X3 x4 bi linia
de bază 1 -5 -6 0 0 0 (0)
x3 0 3 2 1 0 120 (1)
x4 0 4 6 0 1 260 (2)
Metoda simplex se aplică folosind o organizare tabelară. Tabelul iniţial pentru problema
studiată este tabelul 3.3.1. Soluţia de bază de start este formată din variabilele ecart şi,
bineînţeles, funcţia obiectiv: x3 = 120, x4 = 260, z = 0. Ea poate fi citită direct din tabel (prima şi
ultima coloană).
La un pas oarecare al rezolvării metoda simplex constă în compararea variabilelor
secundare cu cele principale pentru a vedea dacă o variabilă secundară ar putea intra în bază
înlocuind pe una principală, scopul fiind să se obţină o valoare mai bună pentru funcţia obiectiv.
O variabilă secundară va înlocui o variabilă principală dacă:
• se vede că astfel funcţia obiectiv va fi îmbunătăţită;
• noua soluţie este admisibilă.
Într-un tablou simplex linia (0) trebuie interpretată astfel: coeficienţii variabilelor (cu
excepţia lui z) reprezintă cu cât se modifică valoarea curentă a funcţiei obiectiv dacă variabila
din coloana respectivă creşte cu o unitate. Semnul coeficienţilor este opus sensului modificării.
Deci, un coeficient negativ arată o creştere a lui z atunci când x-ul respectiv creşte.
Rezultă din cele de mai sus următoarele reguli care trebuie respectate în aplicarea
algoritmului simplex.
Tabelul 3.3.2
Z ......... xk ............ bi linia
1 ......... a0k ............ b0 (0)
0 ......... a1k ............ b1 (1)
... ......... ..... ............ ..... .....
0 ......... amk ............ bm (m)
coloana coloana
cheie termenilor
liberi
Pe orice coloană j, valorile aij (i = 1, ... ,m) arată schimbările care apar în fiecare dintre
variabilele care sunt în acel moment în bază dacă variabila din coloana j se modifică cu o unitate.
Semnele sunt, de asemenea, opuse direcţiei de modificare.
Exemplu. Dacă în tabelul 3.3.1 studiem coloana cheie (a lui x2), observăm că, în această
coloană, coeficienţii sunt, respectiv, 2 pe linia variabilei de bază x3 şi 6 pe linia variabilei de bază
x4. Asta înseamnă că, dacă x2 va creşte cu o unitate, valoarea lui x3 descreşte cu 2 (de la valoarea
120), iar x4 va descreşte cu 6 (de la valoarea curentă de 260).
Din consideraţiile făcute rezultă regula care dă variabila principală care va fi eliminată din
bază.
bi
min pentru a ik > 0, i = 1,2 ,K , m
a ik
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
bi 120 260
min = min , = min{60,43 1 3} = 43 1 3
i =1,2 ai 2 2 2
Tabelul 3.3.3
variabile z x1 x2 x3 x4 bi linia
de bază 1 -5 -6 0 0 0 (0)
x3 0 3 2 1 0 120 (1)
x4 0 4 6 0 1 260 (2)
După efectuarea pivotajului se obţine tabelul 3.3.4 pe care se aplică iar cele trei regului
ale metodei simplex.
Tabelul 3.3.4
variabile z x1 x2 x3 x4 bi linia
de bază 1 -1 0 0 1 260 (0)
x3 0 10
6 0 1 − 1
3 33 1 3 (1)
x2 0 4
6 1 0 1
6 43 1 3 (2)
Din tabelul 3.3.4 se poate citi noua soluţie de bază care, după cum se vede, este mai bună:
z = 260, x3 = 33 1 3 , x2 = 43 1 3 , x1 = 0, x4 = 0.
În continuare se reia procesul verificând în tabelul 3.3.4 dacă s-a obţinut soluţia optimă.
Aplicând regula 1, criteriul de oprire, rezultă că nu s-a ajuns, încă, la soluţia optimă deoarece
mai există în linia (0) coeficienţi negativi. Va trebui aplicată regula 2, criteriul de intrare în bază,
pentru a decide care dintre variabilele secundare trebuie aleasă. În situaţia particulară din tabelul
3.3.4 mai există doar un coeficient negativ în linia (0), cel al lui x1. Coloana acestuia, k = 1,
devine coloana cheie. Aplicând în continuare regula 3, criteriul de ieşire din bază, rezultă că
şi acest minim se obţine pe linia (1) Linia l = 1 va fi linia noului pivot. În concluzie, aşa cum s-a
scos în evidenţă şi în tabelul 3.3.4, x1 intră în bază, x3 iese din bază, iar acest lucru se face prin
pivotaj după a11. În urma pivotajului se obţine tabelul 3.3.5.
Tabelul 3.3.5
variabile z x1 x2 x3 x4 bi linia
de bază 1 0 0 3
5
4
5 280 (0)
x3 0 1 0 3
5 - 15 20 (1)
x2 0 0 1 - 25 3
10 30 (2)
min z = 5x1 + 6 x 2
(3.5.1)
x1 + x 2 ≥ 10
(3.5.2)
2 x1 + 4 x 2 ≥ 24
x1 , x 2 ≥ 0
(3.5.3)
Tabelul 3.5.1
variabile z x1 x2 x3 x4 x5 x6 bi linia
de bază 1 -5 -6 0 -M 0 -M 0 (0)
x4 0 1 1 -1 1 0 0 10 (1)
x6 0 2 4 0 0 -1 1 24 (2)
În tabelulu 3.5.1 se vede prima soluţie de bază a problemei care are ca variabile de bază
tocmai variabilele artificiale x4 şi x6. Se mai observă, însă, că pe coloanele acestora nu sunt numai
zerouri (în afara pivotului): elementele de pe linia (0) au valoarea -M. Vom face 0 în coloana lui
x4 înmulţind linia (1) cu M şi adunând-o la linia (0). Apoi, pentru x6 înmulţim linia (2) cu M şi o
adunăm la linia (0). Se obţine, astfel, tabelul 3.5.2.
Tabelul 3.5.2
Variabile z x1 x2 x3 x4 x5 x6 bi linia
de bază 1 -5+3M -6+5M -M 0 -M 0 34M (0)
x4 0 1 1 -1 1 0 0 10 (1)
x6 0 2 4 0 0 -1 1 24 (2)
S-a ajuns în tabelul 3.5.2 la o primă soluţie de bază în care variabilele principale sunt x4 =
10 şi x6 = 24. Valoarea funcţiei obiectiv este z = 34M.
Tot pe tabelul 3.5.1 se vede cum se face şi pivotajul pentru pasul următor. Într-adevăr,
aplicând regula 1A se observă că nu s-a atins, încă, soluţia optimă: pe linia(0) mai sunt coeficienţi
pozitivi, cei ai lui x1 şi x2 (M este un număr pozitiv foarte mare). Dintre aceştia, cel mai mare este
coeficientul lui x2, de aceea coloana sa devine coloană cheie, iar x2 intră în bază. Rapoartele
pozitive calculate pe coloana cheie (regula 3) dau valoarea minimă pe linia (2), deci x6 iese din
bază. Mai departe rezultă succesiv:
Tabelul 3.5.3
variabile z x1 x2 x3 x4 x5 x6 bi linia
de bază 1 -2+ M 2 0 -M 0 − 32 + M
4
3
2 − 5M 4 36+4M (0)
x4 0 1
2 0 -1 1 1
4 - 14 4 (1)
x2 0 1
2 1 0 0 - 14 1
4 6 (2)
Tabelul 3.5.4
variabile z x1 x2 x3 x4 x5 x6 bi linia
de bază 1 0 0 -4 4-M - 12 1 -M
2 52 (0)
x1 0 1 0 -2 2 1
2 - 12 8 (1)
x2 0 0 1 1 - 12 -1 1
2 2 (2)
Pe linia (0) a ultimului tabel nu mai sunt coeficienţi pozitivi. Conform regulii 1A s-a atins
soluţia optimă (valoarea minimă a lui z). Aceasta este: z = 52 şi se obţine pentru x1 = 8 şi x2 = 2.
Variabilele secundare: x3 = x4 = x5 = x6 = 0.
Soluţii nemărginite
Soluţiile nemărginite apar când:
1. spaţiul soluţiilor este nemărginit şi
2. îmbunătăţirea funcţiei obiectiv apare odată cu mişcarea înspre zona nemărginită a
spaţiului soluţiilor.
Dacă la o iteraţie a metodei simplex valorile aik (de pe coloana cheie) sunt toate zero sau
negative, atunci problema are soluţii nemărginite.
În capitolul al treilea a fost prezentată una din cele mai cunoscute metode de optimizare:
algoritmul simplex. Problemele din lumea reală pot conţine zeci de variabile şi restricţii
structurale, iar rezolvarea lor se face cu ajutorul calculatorului folosind programe specializate. Cu
toate acestea, studierea modelului din punct de vedere matematic nu este inutilă ci, din contră,
este indispensabilă abordării corecte a unor probleme reale, de mari dimensiuni, cu ajutorul
aplicaţiilor software specializate.
Exerciţii
Să se rezolve prin metoda simplex următoarele probleme de programare liniară:
1) max z = 4 x1 + 2 x 2 2) max z = 4 x1 + 4 x 2
x1 + x 2 ≤ 50 4 x1 + 8 x 2 ≤ 24
6 x1 ≤ 240 24 x1 + 16 x 2 ≤ 96
x1 , x 2 ≥ 0 x1 , x 2 ≥ 0
3) max z = 10 x1 + 12 x 2
4) max z = 6 x1 + 8 x 2 + 10 x 3
x1 + x 2 ≤ 150
x1 + 2 ,5x 2 ≤ 1200
3x1 + 6 x 2 ≤ 300
4 x + 2 x ≤ 160 2 x1 + 3x 2 + 4 x 3 ≤ 2600
1 2
x1 , x 2 ≥ 0 x1 , x 2 , x 3 ≥ 0
5) max z = 10 x1 + 3x 2 + 4 x 3 6) max z = 4 x1 − 2 x 2 + x 3
8 x1 + 2 x 2 + 2 x 3 ≤ 240 6 x1 + 2 x 2 + 2 x 3 ≤ 240
4 x1 + 3 x 2 ≤ 2600 2 x1 − 2 x 2 + 4 x 3 ≤ 40
x1 , x 2 , x 3 ≥ 0 2 x + 2 x − 2 x ≤ 80
1 2 3
x1 , x 2 , x 3 ≥ 0
7) max z = 4 x1 + 2 x 2
x1 + x 2 ≤ 15 8) min z = 4 x1 + 6 x 2
2 x1 + x 2 ≤ 20 3x1 + x 2 ≥ 15
x1 , x 2 ≥ 0 2 x1 + 3x 2 ≥ 17
x1 , x 2 ≥ 0
9) min z = 6 x1 + 3x 2
x1 + 2 x 2 ≤ 20 10) max z = 5x1 + 3x 2
4 x1 + 2 x 2 ≤ 32 − x1 + 2 x 2 ≤ 10
x
1 ≤8 x2 ≤ 5
x1 , x 2 ≥ 0 x1 , x 2 ≥ 0
2 x1 + 2 x 2 ≤ 1000 2 x1 + x 2 ≥5
3x1 ≤ 600 x2 + 2 x3 ≥ 4
x + 3x ≤ 600 x1 , x 2 , x 3 ≥ 0
1 2
x1 , x 2 ≥ 0
4
Elemente de
teoria probabilităţilor
4.1 Experimente aleatoare
4.2 Evenimente
4.3 Noţiunea de probabilitate
4.4 Probabilităţi condiţionate. Evenimente independente
4.5 Variabile aleatoare
4.6 Caracteristici numerice ale variabilelor aleatoare
Obiectivele capitolului
• Înţelegerea noţiunilor de experiment aleator şi eveniment aleator
• Definirea principalelor noţiuni privitoare la evenimente, introducerea unei clasificări a
evenimentelor aleatoare şi enumerarea proprietăţilor acestora.
• Introducerea noţiunii de probabilitate.
• Introducerea noţiunii de variabilă aleatoare, a operaţiilor cu variabile aleatoare şi a
caracteristicilor numerice uzuale ale variabilelor aleatoare
Multe fenomene din viaţa reală sunt caracterizate de incertitudine sau de evoluţie
întâmplătoare. Multe decizii trebuie luate în condiţii în care nu se cunosc cu exactitate toate
elementele care să permită o predicţie exactă a rezultatelor unei acţiuni. Teoria probabilităţilor
este unul dintre cele mai puternice instrumente matematice care permit modelarea unor astfel de
situaţii.
Acest capitol este dedicat punctării unor concepte de bază din teoria probabilităţilor. Este
vorba de un minimum necesar înţelegerii domeniului care, în plus, stă la baza dezvoltărilor din
capitolul următor.
Din definiţia de mai sus rezultă că, în unele situaţii, se poate folosi termenul de cazuri
posibile ale unui experiment, în loc de mulţimea probelor.
Exemple:
1) Experiment: aruncarea unui zar
Spaţiul de selecţie este finit: S = {1, 2 , 3, 4 , 5, 6}
2) Experiment: tragerea la ţintă
Spaţiul de selecţie este infinit: S = mulţimea punctelor de pe ţintă.
4.2 Evenimente
Definiţia 4.2.1 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
Se numeşte eveniment orice submulţime de rezultate (probe) conţinute în spaţiul de
selecţie S al unui experiment aleator.
Se numeşte eveniment elementar un eveniment care constă exact dintr-o singură probă şi
se numeşte eveniment compus un eveniment constând din mai multe probe.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
Observaţie: un sistem de evenimente poate fi, după caz, finit sau infinit.
Exemplu:
Experiment: aruncarea unui zar.
Evenimentul sigur: E = {1, 2 , 3, 4 , 5, 6}
Evenimentul imposibil: apariţia altei feţe decât 1, 2, 3, 4, 5, 6.
Notaţii: A , CA .
Exemple:
1) Experiment: aruncarea unui zar
Dacă A = {1, 2 , 5, 6} , atunci A = {3, 4} .
2) Este evident că, pentru orice experiment aleator sunt valabile următoarele:
E = ∅ şi ∅ = E .
Notaţie: A ⊂ B
Dacă A nu implică B, notaţia este A ⊄ B .
Exemplu:
Experiment: aruncarea unui zar.
Se poate spune că: {1} ⊂ {1, 5}; {2 , 3} ⊂ {1, 2 , 3, 5}; {1, 4} ⊄ {2, 4}
Relaţia de implicaţie are următoarele proprietăţi:
(1) A ⊂ A
(2) A ⊂ E
(3) dacă A ⊂ B şi B ⊂ C , atunci A ⊂ C (tranzitivitate)
(4) ∅ ⊂ A
Proprietatea (4) este admisă prin convenţie pentru generalizare.
Notaţie: A = B
Definiţia 4.2.7 ■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
Fiind date două evenimente A şi B, se numeşte reuniunea lui A cu B evenimentul care se
realizează atunci când se realizează cel puţin unul dintre cele două evenimente.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
Notaţie: A ∪ B
Definiţia 4.2.7 justifică şi o altă denumire pentru A ∪ B : "A sau B".
Se mai observă că mulţimea probelor care realizează evenimentul A ∪ B este formată din
reuniunea mulţimilor probelor care realizează evenimentele A şi B.
Exemplu:
Experiment: aruncarea unui zar.
Dacă A = {1, 2 , 3} şi B = {2 , 3, 4} atunci A ∪ B = {1, 2 , 3, 4} .
Reuniunea evenimentelor are următoarele proprietăţi:
(1) A∪ B = B∪ A (comutativitate)
(2) ( A ∪ B) ∪ C = A ∪ ( B ∪ C) (asociativitate)
(3) A ⊂ ( A ∪ B) , B ⊂ ( A ∪ B)
(4) A∪ A = A
(5) A∪ E = E
(6) A∪∅ = A
Notaţie: A ∩ B
Definiţia 4.2.8 justifică şi o altă denumire pentru A ∩ B : "A şi B".
Se mai observă că mulţimea probelor care realizează evenimentul A ∩ B este formată din
intersecţia mulţimilor probelor care realizează evenimentele A şi B.
Exemplu:
Experiment: aruncarea unui zar.
Dacă A = {1, 2 , 3} şi B = {2 , 3, 4} atunci A ∩ B = {2 , 3} .
Notaţii:
• pentru două evenimente compatibile, A∩ B ≠∅;
• pentru două evenimente incompatibile, A ∩ B = ∅ .
Exemplu:
Experiment: aruncarea unui zar.
Dacă A = {1, 2 , 3} , B = {2 , 3, 4} , C = {5, 6,} , atunci A ∩ B ≠ ∅ , iar A ∩ C = ∅ .
Atunci când, în cadrul unui experiment, urmărim un eveniment, de fapt, ne fixăm atenţia
asupra unei părţi din mulţimea probelor experienţei. Rezultă că, un eveniment poate fi identificat
cu mulţimea probelor din care este format. Aceasta justifică atât notaţiile, cât şi folosirea
terminologiei din teoria mulţimilor. Această dualitate de limbaj şi notaţiile corespunzătoare sunt
sintetizate în tabelul 4.2.1.
Tabelul 4.2.1
Evenimente Mulţimi Notaţie
U
i =1
Ai ∈ K şi IA
i =1
i ∈ K.
Observaţii:
1) Dacă mulţimea K este finită, atunci avem un câmp de evenimente finit, iar dacă
mulţimea K este infinită, atunci avem un câmp de evenimente infinit.
2) Evenimentul B - A despre care se discută în proprietatea (2) este diferenţa dintre
evenimentele B şi A, adică evenimentul care se realizează atunci când se realizează B
şi nu se realizează A. Prin urmare, B − A = B ∩ A .
Exemplu:
Se aruncă o monedă de 100 de ori şi se urmăreşte evenimentul apariţiei feţei cu stema. Să
presupunem că stema a apărut de 53 de ori. Numărul f 100 = 53 100 reprezintă frecvenţa relativă a
evenimentului. La fiecare repetare a experienţei se obţin frecvenţe în jurul valorii de 1 2 . Acest
număr în jurul căruia se grupează frecvenţele relative se numeşte în limbaj curent probabilitatea
ca la o aruncare să apară stema.
Deci, pentru orice astfel de experiment, frecvenţa variază de la o experienţăla alta. Ea are
un caracter empiric, experimental. Dacă se execută un număr mare de experienţe se va manifesta
o anumită legitate exprimată prin oscilaţia frecvenţelor relative în jurul unui număr care
reprezintă o valoare caracteristică obiectivă a fenomenului studiat. Rezultă următoarea definiţie
obţinută pe cale experimentală:
Această definiţie statistică are o serie de neajunsuri, fiind puţin formalizată din punct de
vedere matematic şi având un caracter descriptiv. Practic, se consideră ca valoare aproximativă a
probabilităţii, media aritmaetică a frecvenţelor. Aproximarea va fi cu atât mai bună cu cât
numarul de repetări va fi mai mare. Pentru scopuri limitate, definiţia poate fi, totuşi folosită, aşa
cum se va vedea în capitolul următor.
n
P ( A) = (4.3.1)
N
unde n este numărul de cazuri favorabile, iar N este numărul de cazuri posibile.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
{i această definiţie, dată de Laplace, este insuficientă deoarece se aplică doar pentru
câmpuri finite de evenimente şi pleacă de la ipoteza, care nu este întotdeauna adevărată, că
evenimentele elementare sunt "egal posibile". Cu toate acestea, ea are o largă arie aplicabilitate
pentru că, multe situaţii din lumea reală operează cu câmpuri finite în care evenimentele
elementare sunt egal posibile.
Exemplu:
Se consideră un interval de bază Ω = [a, b] şi un subinterval oarecare A = [a', b'] al
acestuia. Se alege, la întâmplare ("cu ochii închişi"), un punct în intervalul Ω = [a, b]. Care este
probabilitatea ca punctul ales să se nimerească în subintervalul A = [a', b']?
Este clar că, în acest caz, nu se pot număra cazurile favorabile (punctele din intervalul [a',
b']) şi nici cazurile posibile (punctele din intervalul [a, b]), deoarece ambele mulţimi au un număr
infinit de puncte. Trebuie o altă modalitate de exprimare a raportului între "favorabil" şi "posibil".
Se poate intui uşor că, pentru a exprima probabilitatea cerută în problemă, se poate folosi o
măsură pentru intervalele avute în vedere, mai precis lungimea fiecăruia. Făcând raportul acestor
lungimi, se obţine o valoare între 0 şi 1, care depinde doar de lungimea intervalului A şi nu de
aşezarea acestuia în intervalul de bază Ω:
b' − a '
P( A) =
b−a
Conceptul de măsură, uşor de definit pentru intervale, se extinde la clase mult mai largi
de mulţimi, iar teoria măsurii este o ramură amplă a matematicii care tratează domeniul. Pentru
cele necesare în acest context, ne vom limita a afirma faptul că există clase de mulţimi
măsurabile. Aceasta înseamnă că pentru mulţimile dintr-o astfel de clasă s-a definit o măsură
exprimată prin numere pozitive şi finite.
Pentru a da o aşa-numită definiţie geometrică a probabilităţii vom considera, într-un
spaţiu cu n dimensiuni, o mulţime măsurabilă Ω, de bază. Să facem observaţia că despre spaţii
abstracte cu n dimensiuni s-a mai discutat, deja, în finalul secţiunii 1.2. Vom mai nota cu
mulţimea tuturor submulţimilor măsurabile ale lui Ω (sau mulţimea părţilor măsurabile ale lui
Ω). Pentru orice astfel de mulţime A ∈ L (parte măsurabilă a lui Ω), se notează cu µ(A) măsura
lui A. Se aruncă, la întâmplare, un punct în mulţimea Ω şi se cere să se exprime probabilitatea ca
punctul să cadă în mulţimea A. Intuitiv, putem spune că această probabilitate este proporţională
cu măsura mulţimii A şi nu depinde de forma şi aşezarea lui A în Ω. Definiţia poate fi
sistematizată astfel:
µ( A) (4.3.2)
P ( A) =
µ(Ω )
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
Definiţia 4.3.4■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
Fie (E, K) un câmp de evenimente.
Se numeşte probabilitate pe câmpul de evenimente (E, K) o funcţie
P: K → [ 0, 1] (4.3.3)
cu proprietăţile
(1) P( E ) = 1
(2) P U Ak = ∑ P( Ak )
k ∈I k ∈I
unde I este o mulţime de indici, finită sau infinită, iar pentru orice i,j ∈ I, i ≠ j,
Ai ∩ A j = ∅ , (evenimentele sunt incompatibile două câte două).
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
În definiţia de mai sus, proprietatea (1) spune că probabilitatea evenimentului sigur este
1, iar proprietatea (2) spune că probabilitatea reuniunii a mai multor evenimente incompatibile
este egală cu suma probabilităţilor acelor evenimente.
Dacă (E, K) este un câmp finit de evenimente ale cărui evenimente elementare sunt
E = {e1 , e 2 ,K , e n }
∑ P( e ) = P ( E ) = 1
i =1
i
Dacă P(e1) = P(e2) = ...= P(en) spunem că evenimentele elementare sunt egal probabile şi,
în aceste caz, rezultă
1
P( e i ) = (4.3.4)
n
de unde,
m m
1 m
P( A) = P eir =
U
r =1
∑ P( e ) = m ⋅ n = n
r =1
ir
Deci, într-un câmp finit de evenimente ale cărui n evenimente elementare sunt egal
probabile, probabilitatea unui eveniment oarecare A este egală cu raportul dintre numărul m de
evenimente elementare favorabile lui A şi numărul total n de evenimente elementare ale
câmpului:
m
P( A) = (4.3.5)
n
Se vede, astfel, cum definiţia clasică a probabilităţii este conţinută ca un caz particular în definiţia
axiomatică.
Se poate arăta că, pentru orice câmp de probabilitate au loc proprietăţile următoare.
(1) P(∅) = 0
(2) P( A) = 1 − P( A ) , pentru orice A ∈ K.
(3) dacă A, B ∈ K şi A ⊆ B , atunci P( B − A) = P( B) − P( A)
(4) în general, P( B − A) = P( B) − P( A ∩ B)
(5) dacă A ⊆ B , atunci P( A) ≤ P( B) .
(6) 0 ≤ P( A) ≤ 1, pentru orice A ∈ K.
(7) P( A ∪ B) = P( A) + P( B) − P( A ∩ B), pentru orice A,B ∈ K.
(8) P U Ai ≤ ∑ P( Ai ) , unde I este o mulţime de indici, finită sau infinită.
i ∈I i ∈I
Încheiem această secţiune cu observaţia suplimentară că, dacă (E, K) este un câmp de
evenimente infinit, atunci (E, K, P) se numeşte câmp de probabilitate borelian.
P( A ∩ B )
PA ( B ) = (4.4.1)
P( A)
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
P ( A ∩ B ) = P ( A) ⋅ P ( B ) (4.4.3)
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
Ideea intuitivă este că două evenimente se numesc independente dacă producerea unuia
nu depinde de producerea celuilalt. Acest lucru se observă dacă folosim definiţiile 4.4.1 şi 4.4.2.
Astfel, din relaţia 4.4.1 rezultă, în general:
P( A ∩ B ) = P( A) ⋅ PA ( B ) (*)
Dacă, în plus, evenimentele sunt independente are loc relaţia (4.4.3). Deci, pentru doua
evenimente independente se pot combina relaţia (4.4.1) şi relaţia (*) de mai sus şi rezultă:
P( A) ⋅ P( B ) = P( A) ⋅ PA ( B ) ⇒ P( B ) = PA ( B )
Din relaţia obţinută mai sus arată că, dacă evenimentele sunt independente, probabilitatea
lui B condiţionată de A este aceeaşi cu probabilitatea lui B (necondiţionată). Aceasta arată că, B
fiind independent de A, probabilitatea lui B nu depinde de A.
Se pot demonstra următoarele proprietăţi.
(1) Probabilităţile PB(A) şi PA(B) sunt proporţionale:
PA ( B ) PB ( A)
= (4.4.2)
P( B ) P ( A)
P( Ai ) ⋅ PAi ( B )
PB ( Ai ) = (4.4.4)
P( A1 ) PA1 ( B ) + K + P( An ) PAn ( B )
n
P( A1 ∩ A2 ∩ K ∩ An ) ≥ 1 − ∑ P( A )
i =1
i (4.4.5)
sau, echivalent,
n
P( A1 ∩ A2 ∩ K ∩ An ) ≥ ∑ P( A ) − n + 1
i (4.4.5')
i =1
Relaţia (4.5.5) şi cea echivalentă (4.5.5') poartă numele de inegalitatea lui Boole.
(5) Pentru evenimentele Ai, i = 1, 2, ..., n are loc egalitatea
Exemple:
a) numărul de zile ploioase într-un an, într-o anumită regiune;
b) numărul de băieţi la suta de nou-născuţi;
c) numărul de apeluri telefonice la o centrală în unitatea de timp;
d) timpul de funcţionare fără avarii a unui utilaj (în număr de ore);
e) timpul care se scurge între două apeluri consecutive la o centrală telefonică.
Din exemplele date, se observă că există variabile a căror mulţime de valori este:
• finită: acestea se numesc variabile aleatoare simple (exemplele a şi b);
• numărabilă: acestea se numesc variabile aleatoare discrete (exemplele c şi d);
• continuă: acestea se numesc variabile aleatoare continue (exemplul e).
Cele de până acum duc la concluzia că o variabilă aleatoare poate fi privită ca o
corespondenţă între mulţimea rezultatelor posibile (evenimentele elementare) ale unui experiment
aleator şi mulţimea numerelor reale. Deci, pentru a caracteriza o variabilă aleatoare, trebuie
cunoscute valorile sale posibile împreună cu probabilităţile de a lua aceste valori. Rezultă o
funcţie, aceasta fiind şi modalitatea prin care se poate face definirea riguroasă a noţiunii de
variabilă aleatoare.
X:E → R
(4.5.1)
{e | X (e) ∈ I } ∈ K (4.5.2)
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
n
x x2 K xn x
X : 1
p1
p2 K pn
, sau X : i
pi i =1,2 ,...,n
, unde ∑p
i =1
i = 1. (4.5.3)
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
ax
1. Înmulţirea cu o constantă a ∈ R aX : i
pi i =1,2 ,...,m
a + xi
2. Adunarea cu o constantă a ∈ R a + X :
pi i =1,2 ,...,m
xi r
r
3. Ridicarea la putere X :
pi i =1,2 ,...,m
xi + yi
4. Adunarea (variabilelor independente) X + Y:
pi q j i =1,2 ,...,m
j =1,2 ,...,n
xi yi
5. Înmulţirea (variabilelor independente) XY :
pi q j i =1,2 ,...,m
j = 1,2 ,...,n
Exemplu
1 3 4 1 2
Fie variabilele aleatoare X : şi Y: .
0.2 0.3 0.5 0.3 0.7
Se pot da următoarele exemple de operaţii:
. + 1 15
15 . + 3 15
. + 4 2.5 4.5 55
.
. + X :
15 =
0.2 0.3 0.5 0.2 0.3 0.5
− 2 ⋅ 1 − 2 ⋅ 3 − 2 ⋅ 4 − 2 − 6 − 8
− 2 X : =
0.2 0.3 0.5 0.2 0.3 0.5
13 33 4 3 1 27 64
X 3: =
0.2 0.3 0.5 0.2 0.3 0.5
1+1 1+ 2 3+1 3+ 2 4 +1 4+2 2 3 4 5 6
X + Y: =
0.2 ⋅ 0.3 0.2 ⋅ 0.7 0.3 ⋅ 0.3 0.3 ⋅ 0.7 0.5 ⋅ 0.3 0.5 ⋅ 0.7 0.06 014
. 0.09 0.36 0.55
Medie
Media variabilei aleatoare X se defineşte ca:
n
M( X ) = ∑x p
i =1
i i
(4.6.1)
Notaţii: M(X), m, µ
Exemplu
1 2 3 1 2 1
Fie variabila aleatoare X : 1 . Atunci, M ( X ) = 1 ⋅ + 2 ⋅ + 3 ⋅ = 2 .
4 2
4
1
4 4 4 4
Media are o serie de proprietăţi care sunt enumerate în continuare.
(1) Media este un număr cuprins între cea mai mică şi cea mai mare valoare a variabilei
aleatoare.
(2) Media unei constante este egală cu constanta: M(a) = a.
n n
Într-adevăr, M (a ) = ∑ api =a ∑ pi = a ⋅ 1 = a .
i =1 i =1
(4) Pentru două variabile aleatoare independente X şi Y, media sumei este egală cu suma
mediilor, adică: M ( X + Y ) = M ( X ) + M (Y ) .
(5) Pentru două variabile aleatoare independente X şi Y, media produsului este egal cu
produsul mediilor, adică: M ( X ⋅ Y ) = M ( X ) ⋅ M (Y ) .
Mediană
Se numeşte mediană a variabilei aleatoare X, valoarea Me pentru care probabilitatea ca
variabila aleatoare să ia valori mai mici ca Me este egală cu probabilitatea ca X să ia valori mai
mari ca Me, adică P( X < Me) = P( X > Me) .
Pentru o variabilă aleatoare discretă determinarea medianei se face astfel:
a) dacă variabila aleatoare are un număr par de valori (n = 2p), atunci va exista un
interval median [ x p , x p +1 ] şi mediana poate fi orice număr din acest interval. De obicei
x p + x p +1
se ia Me = .
2
b) dacă variabila aleatoare are un număr impar de valori (n = 2p+1), atunci Me = x p +1 .
Mod
Pentru variabila aleatoare discretă X care ia valorile ( xi )i =1,2 ,...,n , aranjate în ordine
crescătoare, cu probabilităţile ( pi ) i =1,2 ,...,n , punctul Mo = xm se numeşte mod dacă sunt satisfăcute
inegalităţile: pm > pm−1 şi pm > pm+1 .
Dispersie (varianţă)
Media, mediana şi modul exprimă doar tendinţa centrală a valorilor unei variabile
aleatoare, dar nu oferă nici o informaţie asupra împrăştierii valorilor unei variabile aleatoare. De
aceea, sunt necesare caracteristici care să indice în ce măsură valorile se abat de la valoarea
centrală de grupare. Una din aceste caracteristici este dispersia.
Fie, din nou, variabila aleatoare X cu media M(X):
n
x x2 K xn
X : 1
p1 p2
,
K pn
M( X ) = ∑x p
i =1
i i .
(
D2 ( X ) = M X − M ( X ) ) (4.6.2)
2
Notaţii: D2(X), σ2
Deci, pentru o variabilă aleatoare simplă cu media m, dispersia va fi:
D 2 ( X ) = ( x1 − m) p1 + ( x 2 − m) p2 + K + ( x n − m) pn
2 2 2
(
D 2 ( X ) = M X − M ( X )) = M X 2 − 2 XM ( X ) + M ( X )) = (
2 2
( ) (
= M X 2 − 2 M ( X ) M ( X ) + M ( X )) = M X 2 − M ( X ))
2
( ) ( 2
( ) (
D 2 ( X ) = M X 2 − M ( X ))
2
(4.6.3)
Exemplu
1 2 3
Să se calculeze dispersiile variabilei aleatoare X : 1 .
3 1
3 3
1
2
Trebuie calculată variabila aleatoare X pentru că media acesteia intervine în calcularea
dispersiei.
1 4 9
X 2 :
13 1
3
1
3
Avem M ( X ) = +
1
3
2 3 1 4 9 14
+ = 2 şi M X 2 = + + =
3 3 3 3 3 3
( )
. Deci,
( ) (
D 2 ( X ) = M X 2 − M ( X )) =
2 14
3
−4=
2
3
Proprietăţile dispersiei
(1) D 2 ( X ) ≥ 0 . Această proprietate rezultă imediat din definiţie.
(2) D 2 (a ) = 0 (dispersia unei constante este nulă).
(3) D 2 (aX ) = a 2 D 2 ( X )
(4) D 2 ( X + Y ) = D 2 ( X ) + D 2 (Y ) . Proprietatea se verifică imediat cu relaţia (4.6.3).
(5) D 2 (a + X ) = D 2 ( X )
D( X ) = σ = D 2 ( X ) (4.6.4)
Abaterea medie pătratică are aceleaşi dimensiuni ca variabila aleatoare X, de aceea este
mai intuitivă pentru exprimarea împrăştierii valorilor variabilei. De aceea, de regulă, gradul de
împrăştiere a valorilor variabilei aleatoare X în jurul mediei se măsoară prin abaterea medie
pătratică şi nu prin dispersie.
Pentru o variabilă aleatoare simplă X care are media m, abaterea medie pătratică se
calculează astfel:
D( X ) = σ = ( x1 − m) p1 + ( x 2 − m) p2 + K + ( x n − m) pn
2 2 2
Anexă
Pentru a face posibilă calcularea numărului de cazuri favorabile şi a numărului de cazuri
posibile, reamintim semnificaţia noţiunilor de permutări, aranjamente, combinări, precum şi
formulele pentru calcularea acestora.
• Permutări de n (notaţie: n!) înseamnă: în câte moduri se pot ordona n elemente?
Formula de calcul: n ! = 1 ⋅ 2 ⋅ 3 ⋅ K ⋅ n
• Aranjamente de n luate câte k (notaţie: Ank ) înseamnă: câte grupe de k elemente, ordonate, se
pot face dintr-o mulţime de n elemente?
Formula de calcul: Ank = n(n − 1) ⋅ K ⋅ (n − k + 1)
• Combinări de n luate câte k (notaţie: Ank ) înseamnă: câte grupe de k elemente, la care nu
contează ordinea, se pot face dintr-o mulţime de n elemente?
Ank
Formula de calcul: Cnk =
k!
Elementele de teoria probabilităţilor din acest capitol sunt o bază pentru definirea
proceselor abordate în capitolul următor. De asemenea, ele constituie un punct de plecare pentru
dezvoltarea ulterioară a unor elemente de statistică.
Exerciţii
Evenimente
Fie experimentul care constă în aruncarea unui zar. Considerăm următoarele evenimente:
A - apariţia unui număr par de puncte B - apariţia unui număr impar de
puncte
C - apariţia unui număr mai mic sau egal cu 3 D - apariţia uneia din feţele 2 sau 3
L - apariţia uneia din feţele 1 sau 3 F - apariţia unui nr. strict mai mare ca 4
G - apariţia unui număr mai mic sau egal cu 4 H - apariţia feţei 4
I - apariţia feţei 5 J - apariţia feţei 6 K - apariţia feţei 3
1) Care perechi de evenimente sunt incompatibile?
2) Care evenimente implică alte evenimente?
3) Daţi două exemple de evenimente contrare.
4) Care sunt evenimentele elementare din cele de mai sus? De ce?
5) Care din evenimentele de mai sus sunt compuse? De ce?
6) Scrieţi evenimentele: R1: A sau C R2: A şi C R3: A - C
R4: B sau D R5: B şi D R6: B-D
7) Mulţimea de evenimente definite mai sus formează un câmp de evenimente?
8) Se pot forma sisteme complete de evenimente dintre cele de mai sus? Dacă da, daţi
exemple.
Probabilităţi
1) Un student face parte dintr-o grupă de 26 studenţi care, la rândul ei, face parte dintr-un
an cu 76 studenţi. Anul său face parte dintr-o facultate cu 601 studenţi. Studentul se
întâlneşte pe stradă cu un coleg. Care este probabilitatea ca:
a) să fie un coleg de grupă? b) să fie un coleg de an?
2) O urnă conţine 3 bile albe şi 4 bile negre. Altă urnă conţine 4 bile albe şi 5bile negre.
Să se determine probabilităţile următoarelor evenimente:
a) F1 - ambele bile extrase să fie albe. b) F2 - cel puţin o bilă extrasă să fie albă.
c) F3 - bila extrasă din prima urnă să fie albă, iar cealaltă să fie neagră.
3) Trei trăgători trag simultan asupra unei ţinte. Probabilităţile pentru fiecare trăgător să
lovească ţinta sunt, respectiv: p1 = 0.4, p2 =0.5, p3 = 0.7.
4) Să se afle probabilitatea ca ţinta să fie lovită exact o dată.
5) O urnă conţine 3 bile albe şi 4 bile negre. Se extrag succesiv două bile (fără a pune bila
la loc). Fie evenimentele: A - prima bilă extrasă este albă; B - a doua bilă este albă.
Care este probabilitatea ca a doua bilă să fie albă dacă prima a fost albă?
6) Două urne, U1 şi U2, au următoarea compoziţie: U1 - 3 bile albe şi 4 bile negre; U2 - 4
bile albe şi 5 bile negre. Dintr-o urnă, aleasă la întâmplare, se extrage o bilă. Care este
probabilitatea ca bila extrasă să fie albă?
7) Fie 5 urne dintre care: două au compoziţia k1: 3 bile albe şi 4 bile negre; una are
compoziţia k2: 4 bile negre; două au compoziţia k3: 10 bile albe şi 2 bile negre.
a) Care este probabilitatea ca, dintr-o urnă luată la întâmplare, să se extragă o bilă
albă?
b) Ştiind că s-a extras o bilă care s-a nimerit să fie albă, care este probabilitatea ca bila
extrasă să fie dintr-o urnă cu compoziţia k3?
Variabile aleatoare
1) Se aruncă două zaruri şi se notează cu S numărul de puncte care apar. Să se formeze
tabloul de distribuţie al variabilei S.
2) Se aruncă două zaruri. Se acordă 12 puncte dacă suma feţelor care apar este 2 sau 12, 4
puncte dacă suma feţelor este 7 şi 1punct în celelalte cazuri. Să se scrie distribuţia
numărului N de puncte acordat.
3) În condiţiile problemelor precedente să se calculeze variabilele aleatoare S+1 şi 2N.
1 2 3 4
4) Fie variabila aleatoare X : .
p 7
4 p 1
3 6
1
Obiectivele capitolului
• Înţelegrea noţiunii de proces stochastic.
• Introducerea lanţurilor Markov, o clasă de procese stochastice.
• Ilustrarea tipurilor de situaţii din lumea reală care pot fi modelate şi manipulate folosind
lanţuri Markov.
• Discutarea proprietăţilor de bază ale lanţurilor Markov.
• Studierea unei clase speciale, lanţurile Markov regulate.
¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦
Multe fenomene din lumea reală (management, structuri sociale, economie etc.) pot fi
caracterizate ca având o evoluţie în etape. Mai mult, trecerea de la o etapă la alta comportă
schimbări care nu pot fi stabilite determinist, ci au un caracter aleator. Astfel de fenomene sunt
modelate prin intermediul aşa-numitelor procese stochastice.
O clasă specială de procese stochastice este reprezentată de lanţurile Markov. Acestea s-
au dovedit utile pentru modelarea unui număr mare de situaţii din realitate, de aceea li s-a acordat
o atenţie specială.
În acest capitol se face o introducere în domeniul proceselor stochastice, în special al
lanţurilor Markov. O clasă importantă care va fi avută în vedere sunt lanţurile Markov regulate.
Se va face legătura directă cu tipuri de situaţi din lumea reală care se pretează a fi modelate în
acest fel.
5.1. Procese stochastice. Lanţuri Markov
Multe experimente aleatoare se desfăşoară în etape. De aceea, un astfel de experiment
poate fi considerat ca fiind o secvenţă de subexperimente şi fiecare rezultat al experimentului este
determinat de rezultatele subexperimentelor (în ordine).
Un exemplu este următorul: se dau trei urne, fiecare conţinând bile albe şi bile negre în
câte o proporţie. Se alege o urnă la întâmplare şi, din ea, se extrage o bilă. Se cere probabilitatea
apariţiei unei bile albe din urna 2. Se observă că experimentul are două faze:
♦ alegerea urnei (la întâmplare)
♦ extragerea bilei (tot la întâmplare).
Deci, un proces stochastic este o mulţime indexată de variabile aleatoare, {Xt}, unde t
parcurge o mulţime T. Adesea, T este mulţimea indicilor pozitivi T = N, iar Xt reprezintă o
caracteristică, cantitativă sau calitativă, a sistemului fizic sau economic cercetat.
O modalitate grafică de a descrie un proces stochastic (atunci când numărul de cazuri nu
este prea mare) este prin intermediul unei diagrame ca cea care urmează: Fie, din nou exemplul
celor trei urne. Ele conţin U1: 3a+4n, U2: 4a+5n, U3: 5a+6n (a - bile albe, b - bile negre). Se
poate trasa o diagramă ca cea din figura 5.1.1
3 1 1
a P(a ∩ U 1 ) = ⋅ =
3/7 7 3 7
U1
1 4 4
P(n ∩ U 1 ) =
4/7
⋅ =
n 3 7 21
1 4 4
P(a ∩ U 2 ) = ⋅ =
1/3
a 3 9 27
4/9
1/3
start U2
1 5 5
5/9
P(n ∩ U 2 ) = ⋅ =
n 3 9 27
1/3
1 5 5
P(a ∩ U 3 ) = ⋅ =
a 3 11 33
5/11
U3
1 6 2
6/11 P(n ∩ U 3 ) = ⋅ =
n 3 11 11
Fig. 5.1.1
pentru t =1, 2, … şi pentru orice succesiune k1, k2, …kt-1, i, j de stări din mulţimea celor m
stări posibile ale sistemului.
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
Notă:
În (5.1.1) se foloseşte notaţia P(A/B) pentru probabilitatea evenimentului A condiţionat de
evenimentul B (în loc de PB(A)).
Proprietatea lui Markov arată tocmai faptul că probabilitatea condiţionată a oricărui
eveniment viitor (Xt+1 = j), date fiind evenimentele trecute X1 = k1, …, Xt-1 = kt-1 şi starea prezentă
Xt = i este independentă de stările trecute şi depinde doar de starea prezentă a procesului.
Există o largă varietate de fenomene care sugerează o comportare în maniera unui proces
Markov.
Exemple
♦ probabilitatea ca o persoană să cumpere un produs de o anumită marcă (detergent,
bere etc.) poate depinde de marca aleasă la cumpărătura precedentă;
♦ probabilitatea ca o persoană să aibă cazier poate depinde de faptul că părinţii au avut
sau nu cazier;
♦ probabilitatea ca starea de sănătate a unui pacient să se îmbunătăţească, să se
înrăutăţească sau să rămână stabilă într-o zi poate depinde de ceea ce s-a întâmplat în
ziua precedentă.
Evoluţia unui proces Markov poate fi descrisă prin intermediul unei matrice. Acest lucru
este ilustrat prin definiţia care urmează.
se mai numeşte
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
După cum se observă din (5.1.2) că matricea de tranziţie într-un pas a fost notată cu P. La
un moment dat sistemul modelat este într-una din cele m stări posibile (curente). O stare
corespunde uneia din rezultatele posibile ale experimentului. La sfârşitul efectuării
experimentului se obţine un nou rezultat care reprezintă o nouă stare în care a trecut sistemul.
Matricea de tranziţie este formată din elementele pij care reprezintă probabilitatea
condiţionată ca sistemul să treacă din starea curentă i în starea următoare j. Deci pij este
probabilitatea să apară rezultatul Ej în pasul următor dacă s-a produs rezultatul Ei în pasul
precedent. Se observă că pij nu depinde de momentul t, ci doar de stările i şi j. Deci pij(t) = pij,
oricare ar fi t şi de aceea pij se numesc probabilităţi de trecere staţionare. Ele sunt caracteristice
lanţurilor Markov.
Din cele de mai sus se poate formula următoarea definiţie a lanţului Markov, echivalentă
cu definiţia 5.1.2.
Observaţii
1. Pij cu i = j reprezintă probabilitatea ca sistemul să rămână în aceeaşi stare după
efectuarea experimentului, iar Pij cu i ≠ j reprezintă probabilitatea ca sistemul să
treacă dintr-o stare în alta.
2. Matricea de tranziţie este o matrice pătratică de ordin m.
Proprietăţi
Elementele matricei de tranziţie trebuie să satisfacă următoarele:
1. 0 ≤ pij ≤ 1, i,j = 1,…,m (pentru că este vorba de probabilităţi),
m
2. ∑p
j =1
ij = 1, i = 1,2 ,..., m (suma pe linie trebuie să dea 1 pentru că E1, E2, …Em este un
72 4 4
80 80 80 0.90 0.05 0.05
12 102 6
P= = 0.10 0.85 0.05 .
120 120 120
2
6 42 0.04 0.12 0.84
50 50 50
M1
0.90
0.05
M1 M2
0.05
M3
0.90
M1
0.10
0.05 0.85
M1 M2 M2
0.05
M3
0.05
M1
0.04
0.12
M3 M2
0.84
M3
Fig. 5.1.2
M2
0.05
0.85
0.12
0.05
0.10
M1
0.90 0.05
0.04
M3
0.85
Fig. 5.1.3
P(k) = (pij(k))i,j=1,..m.
Fie acum din nou exemplul anterior în care se modelează alegerea uneia din cele trei
mărci de la o săptămână la alta. Pentru el avem definite: matricea de tranziţie într-un pas,
arborele de tranziţie şi diagrama de tranziţie.
Se pune problema, de exemplu, care este probabilitatea ca, după două săptămâni, cei care
au cumpărat marca M1 să rămână la această preferinţă; deci, interesează p11(2). Din arborele de
tranziţie rezultă: p11(2) = 0.9 ⋅ 0.9 + 0.05 ⋅ 0.10 + 0.05 ⋅ 0.04 = 0.817 . Metoda de calcul folosind
arborele de tranziţie este uşor de aplicat doar în cazul unui număr mic de paşi (în acest caz, două
săptămâni) şi al unui număr mic de stări (în exemplul dat, trei mărci). Se observă uşor, însă, că
din matricea P rezultă: p11(2)= p11⋅p12+ p12⋅p21+ p13⋅p31 iar p12(2)= p11⋅p12+ p12⋅p22+ p13⋅p32, deci
p11(2) este elementul de pe poziţia (1,1) în matricea P⋅P, iar p12(2) este elementul de pe poziţia
(1,2) din matricea P⋅P.
1
Pi1 P1j
i Pi2
2 P2j j
.
Pim .
. Pmj
Fig. 5.2.1
m
pij ( 2 ) = pi 1 ⋅ p1 j + pi 2 ⋅ p 2 j + K + pim ⋅ p mj = ∑ pik ⋅ p kj
k =1
adică pij(2) este elementul (i,j) din P⋅P. Deci se poate spune că P(2) = P⋅P = P2. Se poate face
imediat următoarea generalizarea din teorema 5.2.1:
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
Relaţia din teorema 5.2.1 exprimă o proprietate de bază a lanţurilor Markov prin care
acestea se deosebesc de alte procese stochastice.
Conform proprietăţii 2 a matricei de tranziţie P, suma probabilităţilor de pe fiecare linie a
acesteia trebuie să dea 1. Această proprietate rămâne valabilă şi în cazul matricei de tranziţie în k
paşi P(k) = Pk.
Aşa cum s-a definit în capitolul 1, un n-uplu ordonat (x1, x2, …, xn) se numeşte vector n-
dimensional. Un vector mai poate fi reprezentat ca o matrice linie (vector linie) sau ca o matrice
coloană (vector coloană).
a ) 0 ≤ qi ≤ 1 (5.2.2)
n
b) ∑q
i =1
i =1 (5.2.3)
X k +1 = X k ⋅ P (5.3.1)
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
În particular,
X1 = X 0 ⋅ P
X 2 = X1 ⋅ P = X 0 ⋅ P ⋅ P = X 0 ⋅ P2
M
X k = X 0 ⋅ P k = X 0 ⋅ P(k ) (5.3.2)
Deci, vectorul de stare Xk care descrie sistemul după k tranziţii e produsul între vectorul
stării iniţiale X0 şi matricea Pk.
Observaţie. X0, X1, X2, …Xk, … sunt toţi vectori linie 1 × m.
Exemplul 5.3.1
Fie un proces Markov cu matricea de tranziţie
0 ,5 0 ,4 0 ,1
P = 0 ,1 0 ,6 0 ,3
0 ,3 0 ,6 0 ,1
Dacă vectorul stării iniţiale este X0 = [0,7 0 0,3], să se determine vectorul de stare după o
tranziţie.
Rezolvare: Conform teoremei 5.3.1. avem
0 ,5 0 ,4 0 ,1
X 1 = X 0 P = [0 ,7 0 0 ,3] ⋅ 0 ,1 0 ,6 0 ,3 = [0 ,44 0 ,46 0 ,10]
0 ,3 0 ,6 0 ,1
Exemplul 5.3.2
Un lanţ Markov are matricea de tranziţie
0 ,4 0 ,6
P=
0 ,2 08
Dacă sistemul îşi începe evoluţia din starea a doua, să se determine vectorul de stare după două
tranziţii.
Rezolvare: X0 = [0 1] (pentru că sistemul este sigur în starea a doua). Atunci avem;
Revenind la scopul iniţial al acestei secţiuni, există mai multe moduri de a clasifica
lanţurile Markov. Ne vom referi la clasificarea care împarte lanţurile Markov pe baza
comportamentului lor pe termen lung, deci după starea pe care o ating după un număr mare de
tranziţii. Comportarea pe termen lung a unui proces stochastic poate fi inportantă în multe
aplicaţii.
Aplicând teorema 5.3.1. se poate calcula vectorul de stare Xk pentru orice k, pornind de la
o stare X0 iniţială şi aplicând relaţia 5.3.2.
Problema este că, pentru un număr k mare calcularea lui Pk devine foarte laborioasă. Mai
mult, dacă am calculat Xk pentru un k oarecare, nu putem spune mare lucru despre Xk+1 sau Xk+2
până când nu le calculăm şi pe acestea.
De aceea, dacă interesează studierea unui proces stochastic după un număr mare de
tranziţii, atunci este utilă studierea comportării generale a acestuia pe termen lung. Pentru
anumite tipuri de lanţuri Markov acest lucru este posibil.
În general pentru un lanţ Markov cu m stări, posibilitatea ca sistemul să se afle în starea j
după k tranziţii depinde de starea din care s-a pornit. Astfel, p1j(k) este probabilitatea ca sistemul
să fie în starea j după k tranziţii dacă iniţial se află în starea 1. Semnificaţii similare avem pentru
p2j(k), …, pmj(k). Nu există nici un motiv ca aceste probabilităţi să fie (sau să ne aşteptăm să
devină) egale. Dar, pentru anumite lanţuri Markov există o probabilitate strict pozitivă qj asociată
cu starea j astfel încât după k tranziţii probabilităţile pij(k) devin, toate, foarte apropiate de qj.Cu
alte cuvinte, speranţa ca sistemul să ajungă în starea j după k tranziţii (unde k este suficient de
mare) este cam aceeaşi, indiferent de starea din care se pleacă.
Lanţurile Markov care au o astfel de comportare pe termen lung formează o clasă aparte
care este definită după cum urmează.
Observaţie. Definiţia nu face referire directă la comportarea lanţului pe termen lung aşa
cum s-a discutat anterior. Legătura lanţurilor Markov regulate cu această comportare va fi
descrisă în continuare.
Exemplul 5.3.3
a) Să se verifice dacă lanţul Markov cu matricea de tranziţie următoare este regulat.
1 1
P = 2 2 .
1 0
Rezolvare. Avem:
3 1
1 1 1 1
P = 2 4 4 .
2 ⋅ 2 2 = 1
2
1 1
0 1
0
2 2
S-a găsit deci k = 2 pentru care Pk are toate elementele strict pozitive. Înseamnă ca lanţul Markov
din enunţ este regulat.
b) Aceeaşi problemă, pentru lanţul Markov având:
0 1
P= .
1 0
Rezolvare. Avem:
0 1 0 1 1 0
P2 = ⋅ = =Ι
1 0 1 0 0 1
0 1 1 0 0 1
P3 = ⋅ =
1 0 0 1 1 0
0 1 0 1 1 0
P4 = ⋅ = =Ι
1 0 1 0 0 1
Deci
0 1
P = P 3 = K = P 2 k +1 =
1 0
1 0
P 2 = P 4 = K = P 2k =
0 1
Rezultă că, pentru oricare k, atât P2k+1 cât şi P2k conţin elementul 0; înseamnă că lanţul
Markov nu este regulat.
Definiţia conceptului de lanţ Markov regulat are importanţă din perspectiva următoarei
consecinţe, care a fost demonstrată. Ea se referă la comportarea lanţului când numărul de tranziţii
k tinde la infinit. ( k → ∞ ).
W w1 w2 L wm
W w w L wm
A= = 1 2 (5.3.2)
M L L L L
W w1 w 2 L wm
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
0 ,5 0 ,4 0 ,1
P = 0 ,1 0 ,6 0 ,3
0 ,3 0 ,6 0 ,1
Se observă că limitele lui P(8) sunt practic egale. Valorile de la o linie la alta diferă abia
la a patra zecimală, cel mult.
Teorema 5.3.2. arată că probabilitatea ca procesul Markov regulat să ajungă după un timp
suficient de lung într-o anumită stare j este constantă, egală cu wj şi nu depinde de starea din care
porneşte. Evident, aceasta nu înseamnă că procesul intră într-o stare fixă, el continuă să-şi
schimbe stările, astfel încât probabilitatea de trecere de la starea i la starea j în pasul n oarecare
rămâne egală cu pij.
Se pune, în continuare, problema cum să se determine vectorul stabil W. Calcularea lui
P(k) = Pk pentru un k foarte mare şi extragerea lui W ca o linie a lui P(k) este nepractică şi duce la
rezultate aproximative. De aceea, se foloseşte o altă metodă, justificată de următoarea teoremă.
WP = W (5.3.3)
Rezolvarea acestei ecuaţiei matriceale (5.3.4) duce la rezolvarea unui sistem de ecuaţii
având necunoscutele w1, w2, … wm. Soluţia sistemului formează vectorul stabil W.
Exemplul 5.3.5
Să se determine vectorului W al probabilităţii stabile pentru lanţul Markov regulat care are
matricea de tranziţie:
1 3
4
P = 4
2 1
3 3
Avem:
14 3
1 0
WP = W ⇔ W (P − I ) = O ⇔ [w1 w2 ] = O ⇔
4
−
1
3
2
3 0 1
3 2
− 3 4 3 4 − 4 w1 + 3 w2 = 0
⇔ [w1 w2 ] ⇔ 3
23 − 23 2
w1 − w2 = 0
4 3
w1 + w2 = 1
3 2
− w1 + w2 = 0
4 3
3 2
4 w1 − 3 w2 = 0
8 9
Concluzie: vectorul stabil al procesului Markov regulat dat este W = .
17 17
Exerciţii
1) Profiturile unei companii de asigurări sunt determinate de volumul de asigurări
vândute. Acest volum variază de la o săptămână la alta. În fiecare săptămână vânzările pot fi
caracterizate ca mari (M) sau scăzute (S). S-au determinat următoarele probabilităţi:
- dacă volumul de vânzări este mare (M) în săptămâna curentă, atunci va fi tot mare şi
săptămâna viitoare, cu probabilitatea 0.8 şi va fi mic cu probabilitatea 0.2;
- dacă volumul de vânzări este scăzut (S) în săptămâna curentă, atunci va fi mare
săptămâna viitoare, cu probabilitatea 0.4 şi va fi mic cu probabilitatea 0.6.
a) Să se scrie matricea de tranziţie, diagrama tip arbore şi diagrama de tranziţie.
b) Să se calculeze probabilitatea ca volumul vânzărilor peste două săptămâni să fie mare
dacă în săptămâna curentă este mare.
0.3 0.7
2) Un lanţ Markov are matricea de tranziţie P = . Să se traseze diagrama de
0.9 01
.
tranziţie.
0.3 0.2 0.5
3) Un lanţ Markov are matricea de tranziţie P = 0.4 0 0.6 . În observaţia curentă,
1 0
0
lanţul se află în starea 1. Atunci:
- care este probabilitatea să fie tot în starea 1 după o tranziţie?
- care este starea în care este cel mai probabil să se afle după o tranziţie?
Dacă într-un anumit moment procesul se află în starea 3, care este probabilitatea ca după
două tranziţii să ajungă în starea 2?
Dacă sistemul pleacă din starea 2, care este probabilitatea ca în următoarele 4 observaţii
să ocupe succesiv stările 3,1,2,1 (în această ordine)?
4) Un lanţ Marcov are următoarea diagramă de tranziţie:
2
3/4
1
1
1/4
1/2 3
1/2
a) Pentru ce stare i este pi3 cea mai mare şi pentru care, cea mai mică?
b) Pentru ce stare i este pi3(2) cea mai mare şi pentru care, cea mai mică?
c) Pentru ce stare i este pi3(3) cea mai mare şi pentru care, cea mai mică?
1 3
4
6) Un lanţ Markov regulat are matricea de tranziţie P = 2 4 . Să se determine vectorul
3 1
3
3. Drăgan I.., 1973 – Tehnici de bază în programarea liniară. Editura Universităţii “Al. I.
Cuza” Iaşi.
4. Leonte A., Vraciu G., 1975 – Elemente de calcul matriceal cu aplicaţii. Editura Tehnică,
Bucureşti.
6. Mihu C., 1977 – Metode numerice în algebra liniară. Editura tehnică, Bucureşti
7. Mihu C., 1985 – Sisteme de ecuaţii liniare şi forme pătratice. Editura tehnică, Bucureşti