You are on page 1of 233

Logica Matematica

Corso A

Corso di Laurea in Informatica


Anno 2005-06
Indice

Indice i

1 Introduzione 1

2 Dal linguaggio naturale alla logica 3


2.1 Predicati e relazioni 3
2.1.1 Termini 5
2.2 Connettivi 6
2.2.1 Esercizi 10
2.3 Variabili 12
2.4 Quantificatori 15
2.5 Esempi 18
2.5.1 dal linguaggio naturale 18
2.5.2 dalla matematica 22
2.6 Esercizi 27

3 Logica proposizionale 28
3.1 Sintassi 28
3.1.1 Il linguaggio proposizionale 29
3.1.2 Analisi sintattica 31
3.1.3 Esercizi 39
3.2 Semantica 41
3.2.1 Tavole di verità 42
3.2.2 Esercizi 44
3.2.3 Validità e conseguenza 45
3.2.4 Esercizi 50
3.3 Sull0 implicazione 52

4 Insiemi e algebre di Boole 56


4.1 Algebra degli insiemi 57

i
4.2 Algebre di Boole 67
4.2.1 Esercizi 70
4.3 Algebra delle proposizioni 71
4.4 Rapporti tra proposizioni e insiemi 76

5 Relazioni 81
5.1 Prodotto cartesiano 81
5.2 Relazioni 82
5.2.1 Esercizi 85
5.3 Relazioni d0 ordine 86
5.4 Relazioni di equivalenza 90
5.5 Funzioni 93

6 Forme normali 97
6.1 Definibilità dei connettivi 97
6.1.1 Esercizi 99
6.2 Forme normali disgiuntive 100
6.3 Forme normali congiuntive 101
6.4 Esercizi 106

7 Alberi di refutazione 108


7.1 Il metodo 108
7.2 Correttezza e completezza 115
7.3 Forme normali 119
7.4 Esercizi 120

8 Linguaggi predicativi 122

ii
8.1 Alfabeto 124
8.2 Termini e formule 124
8.3 Variabili libere e vincolate 128
8.4 Interpretazioni 131
8.5 Esercizi 134

9 Leggi logiche 136


9.1 Esercizi 145
9.2 Quantificatori e dimostrazioni 145

10 Sillogismi 155
10.1 Sillogismi categorici 156
10.2 Diagrammi di Venn 165

11 Alberi di refutazione 170


11.1 Regole per i quantificatori 170
11.1.1 Esercizi 177
11.2 Applicazione ai sillogismi 177
11.2.1 Esercizi 180

12 Il principio di induzione 181


12.1 I numeri naturali 181
12.2 Il principio di induzione 185
12.3 L0 induzione empirica 191
12.4 Il ragionamento induttivo 195
12.5 Esercizi 197
12.6 Definizioni ricorsive 200
12.6.1 Esercizi 206
12.7 Il principio del minimo 207
12.8 Varianti dell0 induzione 214
12.9 Errori e paradossi 219
12.10 Definizioni induttive 221
12.10.1 Esercizi 229

iii
1 Introduzione
Lo scopo di questo corso è quello di rendere familiari con le forme di ragiona-
mento tipiche degli argomenti matematici; in informatica in particolare inte-
ressano soprattutto quelli che mirano a trovare la soluzione di un problema,
a dimostrare che è una soluzione e a presentarla come un algoritmo.
Un algoritmo è un insieme articolato e connesso di istruzioni per risolvere
un problema; gli algoritmi non sono scritti in un linguaggio di program-
mazione, ma inizialmente nel linguaggio matematico o addirittura in quello
naturale, e in questo devono essere formulati e riconosciuti tali, prima che la
loro descrizione guidi alla traduzione nei relativi programmi.
La maggior parte degli algoritmi che sostengono le prestazioni dei calcola-
tori non sono numerici ma riguardano manipolazioni di simboli (ad esempio
l’ordinamento di una lista, o la fusione di due liste in una), quindi la prima
consapevolezza - e competenza - da acquisire è che il linguaggio matematico
non è solo quello dei numeri, ma abbraccia qualsiasi argomento che si possa
riferire ad elementi strutturati.
I ragionamenti relativi devono avere ed hanno lo stesso rigore di quelli
numerici, e si svolgono con l’ausilio di un simbolismo appropriato, che è
quello della logica matematica (= logica formale moderna).
In vista della precisione richiesta, che non ammette rilassamenti né licen-
ze, è bene realizzare che ogni ragionamento si può rappresentare in forme
standardizzate di passaggi, e imparare a farlo, usando regole logiche e la
proprietà fondamentale dei numeri naturali che è il principio di induzione.
Il corso è l’equivalente di quelli che nelle università americane si chiamano
di Introduction to Proofs, che contengono in genere anche elementi di ma-
tematica discreta (strutture finite, combinatoria). Tali corsi sono concepiti
come ponte tra la scuola secondaria e il college, rivolti a studenti che hanno
appreso la matematica come un insieme di ricette e di calcoli, senza aver mai
imparato a seguire e tanto meno a fare una dimostrazione. Soprattutto non
hanno coscienza del fatto che le dimostrazioni sono presenti ovunque, à la
Molière, in particolare ogni volta che si stabilisce in modo giusto e preciso
cosa fa e cosa deve fare un algoritmo.
Nella scuola italiana qualche esperienza con le dimostrazioni si acquisisce
con la geometria, ma limitatamente alle sue costruzioni, nulla relativamente
all’aritmetica o ad altre strutture simboliche e senza approfondire le ragio-
ni di tale forma di ragionamento tipicamente matematica. Né tale problema
sarà indagato in questo corso introduttivo: lo studio delle dimostrazioni e l’o-

1
biettivo della familiarità con esse sono perseguiti qui non in vista di spiegare
il senso dell’impostazione deduttiva delle teorie, ma solo per abituare a vede-
re le connessioni tra i vari risultati, la loro mutua dipendenza e derivabilità,
il che aiuta anche a ricordarli meglio.
Capire le dimostrazioni presuppone comunque la comprensione degli ar-
gomenti trattati, e costituisce quindi un’occasione di ripasso di nozioni ele-
mentari di aritmetica che sono alla base del pensiero informatico.
Nel testo, il segno !!! a margine segnala che si deve prestare particolare
attenzione. !!!
Gli esercizi sono di due tipi; alcuni ripetitivi, per soddisfare le richieste di
studenti che vogliono tanti esempi sui quali applicare le tecniche o verificare
i concetti imparati; gli altri servono per approfondimento e non sono meno
importanti, anzi; tutti sono parte del programma.
I riferimenti in nota del tipo “Horstmann, p. 186 rimandano al testo del
corso di Programmazione C. S. Horstmann, Java 2 .
Le parti scritte in corpo minore sono letture con informazioni integrative.
Il segno 2 è usato per indicare la fine di una dimostrazione, al posto del
tradizionale QED.

2
2 Dal linguaggio naturale alla logica
La prima competenza che bisogna acquisire è quella della formalizzazione,
ovvero della traduzione di frasi della lingua naturale o del gergo matematico
- che è un misto di formule e di parole - in espressioni di un linguaggio
semplificato, schematico e dalla sintassi precisa.
Le frasi che si prendono in cosiderazione formano un sottoinsieme della
totalità delle frasi. Non si considerano espressioni di interrogazione, esclama-
zione o comando, ma solo frasi dichiarative. Ci si riduce, come primo livello di
semplificazione, a frasi elementari che esprimono fatti, e a loro combinazioni
mediante particelle logiche.
Non si considerano inoltre frasi con indicatori di tempo e luogo (tempi
dei verbi, avverbi di tempo, luogo e modo).
La semplificazione è guidata dalla volontà di restringersi ad espressioni
matematiche o comunque preparate alla loro traduzione in programmi (nei
linguaggi imperativi si usano comandi, ma questi sono rivolti alla macchina,
non costituiscono le frasi da elaborare).
Si devono evitare ambiguità e ridondanze, non per sfizio ma con l’obiettivo
di capire e far emergere la struttura logica. Una frase come

La vecchia porta la sbarra

è ambigua perché non è chiara la sua struttura sintattica: se “vecchia” sia un


aggettivo sostantivato o un aggettivo, se “porta” e “sbarra” siano sostantivi
(nomi) o forme verbali.
Una frase come

Giovanni vede Mario che è malato e piange

e ambigua per ragioni di scansione, occorrono delimitatori come le virgole.

2.1 Predicati e relazioni


Le frasi elementari nel linguaggio naturale sono di diverso tipo, ma in tutte si
può individuare un soggetto, un verbo e un complemento (eventualmente più
soggetti e più complementi, o nessuno). I verbi possono essere intransitivi o
transitivi, ed esprimere stati o azioni.

3
Nella terminologia logica si introducono “predicati” (o “proprietà”) e “re-
lazioni”; i primi corrispondono ai verbi intransitivi e alla copula “essere”, le
seconde ai verbi transitivi.
Si dice che una proprietà è goduta da un soggetto, o che un soggetto ha
una determinata proprietà o che soddisfa un predicato. Si dice anche che
una proprietà è predicata di un soggetto, espressione dalla quale si vede il
collegamento tra i due termini.
Con “la rosa è profumata” o “la rosa profuma” si esprime il fatto che
la rosa ha una proprietà, quella di essere profumata. La frase “la rosa ha
profumo” invece usa il verbo “avere”, che ha un soggetto e un complemento
oggetto; in logica si dice che sussiste una relazione tra la rosa e il profumo, o
che rosa e profumo stanno in una relazione, che è la relazione di possesso.
Tutti i verbi si potrebbero standardizzare nella forma della attribuzione
di uno stato a uno o più termini, e questo corrisponderebbe ad avere un so-
lo verbo, la copula “essere”, nelle due versioni “essere qualcosa” per i verbi
intransitivi e “essere nella relazione . . . con” per i verbi transitivi. Questo
è il motivo per cui nella trattazione formale successiva (cap. 8) si userà la
dizione unica “predicati” per proprietà e relazioni, distinguendo quelli a un
argomento (proprietà) da quelli a più argomenti (relazioni). Il “numero di ar-
gomenti” è il numero di entità a cui si applica il predicato. Ma informalmente
si preferisce distinguere tra predicati in senso stretto (a un solo argomento),
o predicati monadici, e relazioni (a più argomenti).
La frase “Giovanni dorme” può diventare “Giovanni ha la proprietà di
stare dormendo” (o “Giovanni è dormiente”, “Giovanni sta dormendo”, “Gio-
vanni è nello stato di sonno”).
“Giovanni possiede un Piaggio 50” diventa “la relazione di possesso sussi-
ste tra Giovanni e un Piaggio 50”, o meglio come vedremo “la relazione di pos-
sesso sussiste tra Giovanni e una cosa, e questa cosa è un Piaggio 50”; “Gio-
vanni ama Maria”, cosı̀ come “Maria è amata da Giovanni”1 , vuol dire che
la relazione di amore sussiste tra Giovanni e Maria (ma non necessariamente
tra Maria e Giovanni, perché la relazione di amore non è simmetrica).
Le frasi matematiche elementari, uguaglianze e disuguaglianze, “è uguale
a”, “è minore di”, rientrano in questa tipologia. Cosı̀ quelle insiemistiche con
“appartiene a”, cioè “è un elemento di”.
1
La distinzione tra forma attiva e passiva è inessenziale, salvo dal punto di vista
psicologico.

4
Alcune frasi possono essere rese sia mediante relazioni che mediante pre-
dicati; dipende da come si definiscono le relazioni e i predicati. In “Giovanni
è amico di Mario” si può considerare la proprietà “essere amico di Mario” e
attribuirla a Giovanni, oppure la relazione “essere amico di” e affermare che
sussiste tra Giovanni e Mario.
Non si può dire che una sia giusta e l’altra no; dipende dal contesto; se
dopo la prima osservazione si vuole aggiungere che Giovanni piange perché
Mario è malato, e bisogna quindi citare di nuovo Mario, si deve usare il
nome “Mario” e allora è meglio la versione relazionale, perché in quella con il
predicato in nome “Mario” scompare, nella versione formalizzata, assorbito
dal simbolo per il predicato: “essere amico di Mario” in quanto predicato,
nell’analisi logica, è una unità linguistica non scomponibile, anche se espressa
in italiano da una successione di parole tra le quali compare “Mario”.
Le relazioni a due argomenti, come quelle viste negli esempi, si chiamano
binarie. Le relazioni non sono solo binarie: “il punto C giace tra A e B” è
un esempio di una relazione ternaria, o tra tre termini.

2.1.1 Termini
I soggetti o gli oggetti, più in generale i termini tra cui sussiste una relazione,
sono indicati da vari costrutti linguistici. Il più semplice è il nome proprio,
come “Giovanni” e “Maria”. Gli altri sono le descrizioni e i nomi comuni.
In “Maria ama il padre di Giovanni”, “padre di Giovanni” è una descri-
zione, ben precisa, di una persona. Analogamente “il quadrato di 2” è una
descrizione di un numero; entrambe le descrizioni sono ottenute applicando
una funzione2 , nel primo caso “padre di” nel secondo “il quadrato di”, a
descrizioni più semplici, che in questi esempi sono nomi. Si possono dare
descrizioni più complesse, come “la madre del padre di Giovanni” o “meno
il quadrato di 2”.
I nomi comuni richiedono una trattazione indiretta. Nella frase “Giovanni
possiede un Piaggio 50”, il Piaggio 50 di Giovanni è uno di una categoria di
cose simili; “Piaggio 50” non è un nome proprio, ma un nome comune; è
in effetti un predicato, ragione della versione sopra proposta per la frase,
che Giovanni possiede una cosa che ha la proprietà di essere un Piaggio 50.
Questa frase non è più tuttavia elementare, è in effetti la congiunzione di due
frasi: “Giovanni possiede una cosa” e “questa cosa è un Piaggio 50”.
2
Preciseremo in seguito cosa sono le funzioni dal punto di vista matematico.

5
Da questo esempio si vede la necessità di chiarire ancora almeno tre aspet-
ti: come rendere “cosa”, come rendere la congiunzione delle due frasi, e come
rendere “questa cosa”, che nella seconda frase stabilisce un collegamento con
la prima.

2.2 Connettivi
Le particelle logiche della lingua italiana sono parole come “e”, “oppure”,
“se” e altre, che collegano frasi di senso compiuto. Nella lingua italiana
queste parole da una parte sono polivalenti e ambigue, hanno diversi sensi
- in generale discriminati dal contesto - e dall’altra si presentano in tante
versioni equivalenti.
La congiunzione “e” può ad esempio essere resa da una virgola, da “e
anche”, da “ma” e ancora altre espressioni. Il senso avversativo di “ma” è
uno degli aspetti che vengono lasciati cadere nel passaggio ad un linguaggio
formalizzato, in quanto esprime un’aspettativa soggettiva. La congiunzione
è resa anche da costrutti più complicati, come “sia . . . sia”: “parto sia che
piova sia che faccia bel tempo” significa “se fa bel tempo parto, e se piove
parto”, magari con l’aggiunta di un “ugualmente” che di nuovo esprime una
determinazione soggettiva.
La stessa congiunzione talvolta esprime qualcosa di più o di diverso dalla
semplice affermazione di entrambe le proposizioni congiunte; talvolta può
significare “e poi”, come in “si sposarono e vissero felici”; talvolta significa
“e quindi”, come in “si immerge una cartina di tornasole, e diventa rossa” (se
questa frase è intesa non come una descrizione di avvenimenti, nel qual caso
“e” significa “e dopo”, ma come come una caratterizzazione di particolari
sostanze).
La disgiunzione, “o” o “oppure”, talvolta ha un senso debole (“uno o
l’altro o tutt’e due”), talvolta un senso esclusivo (“uno o l’altro ma non tutt’e
due”). L’affermazione “piove o c’è il sole” è compatibile con la situazione in
cui piove da una nuvola anche se c’è il sole. Il latino aveva due parole diverse
vel e aut, ma la distinzione non è rimasta nelle lingue moderne. La differenza
qualche volta è espressa dalla semplice ripetizione di “o” (“o piove o c’è il
sole”) ma più spesso dall’enfasi della pronuncia; il tono e il contesto devono
essere tenuti presenti per capire il significato inteso. C’è voluto del tempo per
tornare a riconoscere due particelle diverse, e anche per accettare vel come
disgiunzione:

6
Alcuni dicono che per la verità di una disgiunzione si richiede
sempre che uno dei disgiunti sia falso, perché se entrambi fossero
veri non sarebbe una vera disgiunzione, come dice Boezio. Questo
però non mi piace. In realtà io dico che se entrambe le parti di
una disgiunzione sono vere, l’intera disgiunzione è vera (Walter
Burleigh, De Puritate, XCI, 3-19, XIV sec .)

La disgiunzione in italiano talvolta è resa con “ovvero”, ma questa parola


significa anche “cioè”, “vale a dire”, cioè una precisazione, non un’alternativa.
La “o” si esprime anche con “altrimenti” come in “Lasciate un messaggio,
altrimenti non sarete richiamati”, solo apparentemente più ingiuntiva della
versione con la “o” (si vedano gli esercizi).
Qualche volta la stessa frase può essere espressa sia con la “e” che con
la “o”. Si può dire equivalentemente sia “Tutti, bianchi o neri, hanno un’a-
nima”, sia “Tutti, bianchi e neri hanno un’anima”. L’affermazione “mele e
pere sono frutti” vuole anche dire che “una cosa che sia una mela o una pera
è un frutto”.
La negazione di una frase si realizza in diversi modi, di solito con la
particella “non”, inserita però (o soppressa) in vari modi nella frase da negare,
con diversi costrutti che coinvolgono altre parole, in particolare i verbi. Da
“piove” a “non piove”, o “non è vero che piove”; da “qualche volta piove” a
“non piove mai”; da “piove sempre” a “qualche volta non piove”; da “non
ama nessuno” a “ama qualcuno”, da “è bello” a “è brutto”, e cosı̀ via. Per
negare “non piove” non si dice “non non piove” ma “piove” o “non è vero
che non piove”.
Per mettere in evidenza proprietà delle particelle logiche, che non dipen-
dono dal significato delle frasi che connettono, negli esempi proposti useremo
d’ora in avanti le lettere A, B, . . . per indicare frasi imprecisate, e scriveremo:
“A e B”, “A oppure B” e simili.
La parola “se” è un’altra particella dai molteplici sensi, e dalle molteplici
rese, ad esempio con “B, se A”, “A solo se B”, “se A allora B”, “A implica !!!
B”, “A, quindi B” - ma “quindi” ha anche un significato temporale, come
“poi”.
Quando si afferma “se A allora B”, A è detta condizione sufficiente per
B, e B condizione necessaria per A. “A è condizione sufficiente per B” e “B
condizione necessaria per A” sono altri modi di esprimere “se A allora B”.
Al “se . . . allora” sarà dedicata una discussione speciale per la sua impor-
tanza rispetto all’inferenza logica.

7
Spesso “se . . . allora” non è presente in frasi che tuttavia esprimono quel
tipo di collegamento: “un numero primo maggiore di 2 è dispari” signifi-
ca “se un numero è primo e maggiore di 2 allora è dispari”. Torneremo
sull’argomento.
In considerazione delle ambiguità e molteplicità di espressione messe in
luce, un primo passo è quello di introdurre una sola versione fissa delle par-
ticelle logiche, sia come simboli che come significati; fatto questo tuttavia,
la competenza più importante consiste poi nel saper tradurre le frasi della
lingua naturale, disambiguandole quando necessario e possibile, e trovando
la versione formale corrispondente.
La precedente discussione non esaurisce certo la complessità della lingua,
ma è stata proposta a titolo esemplificativo. Solo una costante (auto)analisi
delle varie forme espressive (leggi: tanti esercizi) aiuta a riconoscere le varie
insidie.
La standardizzazione è necessaria per poter comunicare con le macchine;
ma prima di parlare alle macchine occorre parlare ad altre persone e a se
stessi per costruire gli algoritmi. Nell’apprendere a formalizzare si deve anche
raffinare la propria logica naturale.
Tuttavia non esiste un elenco completo di quelle che nei linguaggi naturali
si riconoscono come particelle logiche. Non abbiamo menzionato ad esem-
pio “né . . . né”, o “a meno che”3 . Qualche volta, parole che non sembrano
particelle logiche possono essere usate in questo modo, e lo si riconosce nel-
la formalizzazione: “quando” è di solito una determinazione temporale, ma
“quando piove, prendo l’ombrello” viene resa quasi necessariamente da “se
piove, prendo l’ombrello”.
Nell’ottica della formalizzazione, chiedere cosa significa “quando piove,
prendo l’ombrello” non è altro che la richiesta di tradurre la frase in un’al-
tra in cui compaia una delle particelle logiche riconosciute tali e scompaia
“quando”, se non è tra quelle; cosı̀ si vede a quale delle particelle note la
parola è equivalente; ma non sempre è evidente una possibile riduzione di
una frase ad un’altra, né sempre una sola.
Esistono peraltro parole anche di difficile catalogazione, che sembrano particelle
3
Si noti l’uso della “o” nella nostra frase, di nuovo scambiabile con “e”: si voleva
dire che non abbiamo menzionato “né . . . né” e non abbiamo menzionato “a meno che”;
avremmo potuto dire che non abbiamo menzionato né “né . . . né” né “a meno che”, usando
proprio “né . . . né”; l’uso di “o” suggerisce un’altra versione equivalente: “una particella
che sia “né . . . né” o “a meno che” non l’abbiamo menzionata”.

8
logiche in quanto legano due frasi, ma hanno sfumature importanti che si perdono
nella formalizzazione: ad esempio “siccome piove, prendo l’ombrello”, o “prendo
l’ombrello perché piove” potrebbero essere espresse dall’asserzione unica “la pioggia
è la causa del mio prendere l’ombrello”, che coinvolge peraltro la delicata parola
“causa”; le frasi contengono tuttavia una determinazione temporale implicita (“sta
piovendo”), o anche una qualitativa (un riferimento forse a un particolare tipo di
pioggia - a dirotto) che non le rende del tutto equivalenti a “quando piove, prendo
l’ombrello” o a “la pioggia è la causa del mio prendere l’ombrello”.
Esistono parimenti frasi che ne assommano diverse; la stessa “siccome piove,
prendo l’ombrello” invece che una frase può essere considerata un argomento, poi-
ché in essa si afferma un fatto, che piove, oltre a un legame condizionale. Potrebbe
corrispondere ad un esempio di modus ponens (si vedrà a suo tempo): “Se piove,
prendo l’ombrello. Piove. Quindi prendo l’ombrello”.
Useremo simboli speciali per rappresentare alcune particelle logiche che
sembrano di uso più comune, almeno nei discorsi meno sofisticati. Per queste
si potrebbero usare parole della lingua italiana - o comunque di una lingua
naturale - fissando per convenzione in modo rigido il loro significato, come
si fa ad esempio quando per la congiunzione si usa and, in informatica.
Quando si usano and e simili, si vuole che il linguaggio sia friendly perché
ci si deve concentrare su altro; noi invece vogliamo concentrarci proprio su
quelle parole, per cui sono meglio simboli nuovi, insoliti, che sorprendano.
Useremo per le particelle logiche i simboli:

¬ per la negazione
∧ per la congiunzione
∨ per la disgiunzione inclusiva
⊕ per la disgiunzione esclusiva
→ per il condizionale “se . . . allora”
↔ per il bicondizionale “se e solo se”

senza escluderne a priori altri, e li chiameremo connettivi proposizionali. La


negazione è un connettivo unario (cioè agisce su una proposizione), gli altri
indicati sono connettivi binari (cioè connettono due proposizioni).
La scelta di simboli artificiali è più vantaggiosa anche perché, proceden-
do, questi simboli non saranno soltanto abbreviazioni, ma insieme ad altri
diventeranno una struttura che è essa stessa, se si vuole, oggetto di una teoria
matematica, con suoi problemi specifici.
Ad esempio una prima questione, comprensibile anche solo sulla base di
quanto detto finora, è se le particelle sopra scelte sono anche fondamentali,

9
e in che senso, o se sono sufficienti, o quante ce ne potrebbero essere. Un’al-
tra riguarda l’equivalenza, affermata per alcuni esempi precedenti, tra frasi
diverse espresse con particelle diverse.
Queste strutture forniranno inoltre un ricco campo di scrittura di algo-
ritmi non numerici ma simbolici, applicati a liste o alberi o altre strutture di
dati.
Il significato delle particelle logiche è lo stesso a prescindere dal lessico, e
per studiarlo occorre non fissarsi su un linguaggio particolare; la trattazione
deve valere per tutti, quindi useremo lo stesso artificio matematico di usa-
re lettere per indicare entità non precisate, che nelle applicazioni dovranno
essere asserzioni sensate.
La formalizzazione del linguaggio naturale non è qualcosa di meccanico e di
compiuto per l’intera gamma delle potenzialità espressive. Esistono argomenti
controversi e ancora oggetto di discussioni e di proposte per una formalizzazione
soddisfacente - che rientrano in studi più avanzati.
La restrizione alle frasi dichiarative è uno di questi, dal momento che i comandi
ad esempio hanno un ruolo apparentemente importante nella programmazione.
Abbiamo visto qualche difficoltà con “siccome” e il suo significato causale. Allo
stesso modo è discutibile se “è necessario che . . . ” sia da considerare una particella
logica: “è necessario che al giorno segua la notte” (o “al giorno segue necessaria-
mente la notte”) non sembra equivalente a “al giorno segue la notte” e neanche
a “al giorno segue sempre la notte”, che è equivalente alla precedente se “segue”,
privo di determinazioni temporali, assorbe il “sempre”; anche “necessariamente 2
+ 2 = 4” forse dice di più di “2 + 2 = 4”, ma non è del tutto chiaro che cosa.
Ancora, è possibile sostenere che il costrutto “è vero che . . . ” è pleonastico,
in quanto “è vero che piove” è equivalente a “piove”, ma è altrettanto possibile
sostenere che non è possibile farne a meno.
Altre locuzioni della lingua naturale non formalizzabili le vedremo in seguito.

2.2.1 Esercizi
1. Esaminare i seguenti discorsi (e altri tratti a scelta da fonti letterarie
o giornalistiche) ed individuare le particelle logiche e le frasi elementa-
ri (racchiudendole tra parentesi e se necessario riformulando in modo
equivalente i discorsi e le loro frasi).

Se non è possibile prevedere tutte le azioni delle persone allo-


ra o l’universo non è deterministico o le persone non sono per-
fettamente razionali. Chi sostiene il determinismo deve dun-

10
que sostenere che se le azioni delle persone sono prevedibili
allora le persone sono perfettamente razionali.

Svolgimento. Introdurre abbreviazioni per le frasi che si ripetono, in


modo da arrivare, nel caso del primo brano, a

Se non Prev allora o non Det o non Raz. Chi sostiene Det
allora deve sostenere che se Prev allora Raz

e ancora, togliendo il “chi sostiene”, a

Se non Prev allora o non Det o non Raz. Se Det allora si ha


che se Prev allora Raz.

Le abbreviazioni aprono la strada all’uso delle lettere per indicare pro-


posizioni; quando si saranno viste alcune leggi logiche, sarà si potrà tor-
nare a esprimere un giudizio sulla correttezza o meno dell’argomento,
che per ora non interessa.
Altri esercizi:

Se non è possibile prevedere tutte le azioni delle persone al-


lora o l’universo non è deterministico o le persone non so-
no perfettamente razionali. Chi sostiene il determinismo de-
ve dunque sostenere che se le azioni delle persone non sono
prevedibili allora le persone non sono perfettamente razionali.

Se le persone sono interamente razionali, allora o tutte le


azioni di una persona possono essere previste in anticipo o
l’universo è essenzialmente deterministico. Non tutte le azio-
ni di una persona possono essere previste in anticipo. Dun-
que, se l’universo non è essenzialmente deterministico, allora
le persone non sono interamente razionali.

Il numero di queste e di tutte le altre frasi supera il numero


dei neuroni del cervello, per cui, anche ammettendo - che non
è - che ogni frase richieda un neurone o una combinazione di
neuroni per la memorizzazione, non si può pensare che tutte

11
le frasi della competenza linguistica siano immagazzinate in
memoria.

2. Con il costrutto “se . . . allora” e le frasi “dico x” e “x è una verità”


esprimere: “dico tutta la verità e solo la verità”.

3. Scrivere con le giuste particelle logiche:


a) non c’è fumo senza arrosto
b) fumo vuol dire fuoco.

4. Come si può esprimere (in almeno due modi) “Lasciate un messaggio,


o non sarete richiamati” usando il condizionale?

5. Trasformare la frase

Gli studenti che hanno sostenuto la prima o la seconda prova


di esonero devono . . .

nella congiunzione di due frasi.

6. Trovare altre particelle logiche della lingua italiana, oltre a quelle men-
zionate nel testo.

7. Discutere se “cioè” è una particella logica o no, e a quali altre è


eventualmente equivalente, in diversi contesti.

8. Cosa significa per voi “necessariamente 2 + 2 = 4”?

2.3 Variabili
Gli esempi dell’esercizio 1 mostrano che le semplificazioni sono troppo dra-
stiche se si vogliono usare solo i connettivi tra frasi complete; quelle collegate
restano complesse e non analizzate. Torniamo perciò a quanto lasciato in
sospeso, a come rappresentare “una cosa” e “questa cosa”. Nella grammati-
ca, un ruolo fondamentale è svolto dai pronomi, che si presentano in grande
varietà, come “uno”, “chiunque”, “ogni”, “qualche” e simili.
I pronomi servono a formare nuove frasi collegandone alcune che hanno
un riferimento in comune; nella frase “se uno ha un amico, è fortunato” si
individuano due proposizioni componenti “uno ha un amico” e “è fortunato”.

12
La seconda frase non presenta il soggetto, ma s’intende che è lo stesso della
prima; si può ripetere (“uno è fortunato”) oppure più spesso, in altri casi,
si deve precisare, con un indicatore che faccia capire esplicitamente che il
soggetto è lo stesso (ad esempio “egli”, “costui” e simili).
Nella seconda di due frasi collegate, il soggetto della prima può essere
presente come oggetto, ad esempio in “se uno è generoso, tutti ne dicono
bene”, dove “ne” significa “di lui”.
Anche per questo tipo di parti del discorso, si hanno molte versioni equiva-
lenti, ciascuna con i suoi vantaggi e la sua convenienza, ad esempio “chiunque
abbia un amico è fortunato”, “coloro che hanno un amico sono fortunati”;
talvolta addirittura basta un’unica frase indecomponibile, come “i generosi
sono lodati” per “coloro che sono generosi sono lodati”4 .
È necessario comunque mettere in rilievo il fatto che entrambe le frasi
hanno un riferimento comune; se si formalizza la frase “se uno ha un amico,
uno è fortunato” introducendo una lettera A per la prima e una lettera B
per la seconda, si ottiene A → B che non mostra la struttura fine della frase,
e non permette quindi di indagare se sia vera o no.
Il simbolismo deve essere arricchito. L’uso dei pronomi è standardizzato
per mezzo di simboli che si chiamano variabili: x, y, . . .. Il simbolo x sta per
“una cosa”, “uno”, “una persona” se il discorso si riferisce a esseri umani,
“un numero” se il discorso si riferisce ai numeri e cosı̀ via.
La variabile è creduta un elemento alieno del linguaggio, che compare solo
nei simbolismi matematici, ma non è cosı̀.
“Se uno ha un amico, è fortunato” equivale nella semiformalizzazione “se
x ha un amico, x è fortunato”.
Avendo introdotto questi simboli speciali, come peraltro abbiamo già
fatto con i connettivi, tanto vale utilizzare anche altre schematizzazioni e
completare il distacco del lessico naturale.
Introduciamo perciò simboli per designare predicati, e altri per costruire
termini, che corrispondono alle descrizioni.
Useremo preferibilmente

le lettere P , Q, R, . . . per predicati e relazioni


le lettere f , g, . . . per funzioni
4
La possibilità di questa espressione è all’origine di una diversa analisi del linguaggio,
che ha portato alla prima logica formale della storia, nell’opera di Aristotele, come vedremo
trattando i sillogismi.

13
le lettere a, b, c, . . . per costanti (nomi propri)
le lettere x, y, . . . per variabili, con o senza indici.

La struttura di una frase del tipo “Giovanni dorme” è rappresentata da


“dorme(Giovanni)”, o

P (a).

“Giovanni ama Maria” da “ama(Giovanni, Maria)”, o

R(a, b),

Più in generale, i termini a cui si applica la relazione non sono necessa-


riamente costanti, o nomi, ma anche descrizioni, come “Il padre di Giovanni
ama Maria”, che diventa

R(f (a), b),

o descrizioni incomplete, cioè contenenti variabili, come

“Uno dorme”: P (x).

Tuttavia la rappresentazione grafica scelta per i simboli non è essenziale,


per comodità di traduzione si possono anche usare altre lettere, come le
iniziali delle parole italiane (A per “essere amici”), o addirittura complessi
di lettere o parole intere, magari in caratteri particolari, come amici(x, y).
Anche la particolare forma R(a, b) non è rigida, talvolta può essere so-
stituita da aRb. Questo succede in particolare con i simboli per tradizionali
relazioni matematiche che hanno adottato tale notazione: 1 < x, x = y.
Possiamo ora volgerci alla formalizzazione della frase “Giovanni possiede
un Piaggio 50”: con una costante g per “Giovanni”, un simbolo di relazione R
per “possedere”, un simbolo di predicato P per “Piaggio 50”, si può provare
a scrivere

R(g, x) ∧ P (x),

ma non è sufficiente.

14
2.4 Quantificatori
L’uso delle variabili o della loro versione con pronomi presenta aspetti de-
licati per trattare i quali il formalismo finora introdotto non è abbastanza
discriminante.
Se si dice “A Giovanni piace il Piaggio 50” si intende che a Giovanni
piacciono tutti i Piaggio 50, anche se probabilmente desidera averne solo
uno; se si usa R(y, x) per la relazione “a y piace x” la frase diventerebbe
uguale alla precedente, pur avendo un altro senso (in particolare può essere
vera, mentre la precedente falsa).
Nella frase “se uno ha un amico, è fortunato” ci sono due tipi di “uno”,
il primo “uno” è il soggetto, presente tacitamente anche come soggetto di
“è fortunato”, e il secondo è l’“un” di “ha un amico”5 . Il primo “uno”
significa “chi”, nel senso di “chiunque”, il secondo significa “qualche”. La
stessa parola “uno”, e le corrispondenti variabili x e y possono cioè avere sia
un senso universale che uno particolare.
Anche se il senso della frase è ovvio, per chiarezza è meglio dire “chiunque
abbia qualche amico è fortunato”. Cosı̀ si potrebbe dire “A Giovanni piace
un qualunque Piaggio 50” o “A Giovanni piacciono tutti i Piaggio 50” o “A
Giovanni piacciono i Piaggio 50”. La varietà di costrutti linguistici disponi-
bili nelle lingue naturali ha la funzione di evitare possibili ambiguità in altre
frasi di non immediata decifrazione.
Un esempio di frase ambigua, se presa isolatamente, è “uno che segue il
corso di Logica si addormenta”. Il professore spera che voglia solo dire che
si conosce uno studente che tende ad addormentarsi, ma magari gli studenti
intendono che tutti si addormentano sempre.
L’uso delle variabili da sole non risolve le ambiguità, anzi le potrebbe
accrescere, se vengono a mancare le differenze di significato dei pronomi
specifici; in “se x ha y come amico, x è fortunato”, se y fosse presa in senso
universale, come la x, allora la frase significherebbe che chi è amico di tutti
è fortunato, che è discutibile, piuttosto è un santo.
Un altro esempio è il seguente: nelle due frasi di argomento aritmetico

un numero moltiplicato per se stesso dà 1

e
5
Non c’è differenza tra “uno” e “un”; si potrebbe dire in entrambi i casi “una persona”,
ristabilendo l’uniformità.

15
un numero sommato al suo opposto dà 0

“un numero” è da intendersi in modo diverso; nel primo caso l’unico numero
con quella proprietà è 1, e la frase potrebbe essere una sua descrizione estra-
polata dal contesto, o un indovinello: “quale è . . . ?”; nel secondo caso “un
numero” significa “qualunque numero”.
La differenza non si coglie neanche se si formalizza, la prima frase con
x · x = 1 e la seconda con x + (−x) = 0; per capire la differenza si deve
pensare a quali specifici numeri soddisfano le formule, −1 e 1 in un caso,
tutti i numeri nell’altro. Nella terminologia usuale, la prima è un’equazione,
la seconda un’identità.
Le variabili da sole non rendono la duttilità delle parole che indicano se
si parla di uno, qualcuno o tutti.
Si introducono due simboli che si chiamano quantificatori,
∀ quantificatore universale
e
∃ quantificatore esistenziale
e questi segni si premettono alle formule con variabili per segnalare che, nel
loro raggio d’azione determinato dalle parentesi, le variabili stesse devono
essere intese nel senso di “tutti” ovvero nel senso di “qualcuno”.
La frase “uno che ha un amico è fortunato” diventa, schematizzata,

∀x(∃yA(x, y) → F (x)).

L’uso delle parentesi sarà codificato quando si studierà il formalismo. Per


ora basti osservare che quando un quantificatore si riferisce a una variabile
fissandone il senso, universale o particolare, in una frase, tutta la frase che
contiene quelle occorrenze della variabile, nell’esempio ∃yA(x, y) → F (x), va
racchiusa tra parentesi.
Quando si leggono frasi già formalizzate, i quantificatori ∀x e ∃x si leggono
usualmente sempre nello stesso modo: “per tutti gli x” (o “per ogni x”) e
“esiste un x tale che” (o “esistono x tali che”), anche quando non è la lettura
più elegante. Invece in italiano ci sono diversi modi di esprimersi.
Alcune espressioni della lingua naturale hanno tuttavia significati collo-
quiali che non hanno interesse logico e che comunque non sono esprimibili
nel formalismo. Anzi bisogna fare attenzione a non lasciarsi influenzare. Ad
esempio “qualche” viene spesso usato per dire “pochi”, per indicare un certo
numero ma non grande, e spesso maggiore di uno, ché se è uno si dice “uno”.

16
Invece ∃x vuol sempre dire “esiste almeno un . . . ”, e possono essere uno,
dieci o centomila, o anche tutti.
Quando si usa “qualche” talvolta in italiano si sottintende “non tutti”6 ;
invece ∃x . . . è compatibile col fatto che tutti soddisfino la condizione; è
solo un’affermazione più debole: se si sa che tutti i gamberi sono rossi, si
può affermare ∃x(gambero(x) ∧ rosso(x)) come vero; naturalmente cosı̀ non
si afferma che tutti i gamberi sono rossi (che sarebbe ∀x(gambero(x) →
rosso(x))) ma che esiste un gambero rosso.
In molte frasi i quantificatori apparentemente non si riferiscono a tutti gli
elementi dell’universo di discorso ma a parti più ristrette; le frasi aritmetiche
per esempio raramente iniziano con “tutti i numeri”, piuttosto con “tutti i
numeri positivi”, o “tutti i numeri primi”; e raramente si parla di tutti gli
esseri viventi, ma piuttosto di tutti gli uomini, o di tutte le donne, o di tutti
gli italiani e cosı̀ via restringendo.
Nel formalismo logico la restrizione dei quantificatori avviene nel seguente
modo. La frase “tutti i tedeschi sono biondi” si rappresenta con due predicati, !!!
“tedesco” e “biondo”, e la forma
∀x(T (x) → B(x)),
dove il quantificatore ∀x è letto “per tutte le persone”, cioè con la x che varia
su tutto l’universo del discorso (la specie umana): “per ogni x, se x è tedesco
allora x è biondo.
Questa forma è corretta grazie alle proprietà del condizionale, che vedre-
mo meglio in seguito. Se T (x) → B(x) è vero per tutte le persone, allora
ogni tedesco rende vero il condizionale, l’antecedente e quindi vero il con-
seguente, ed è vero che tutti i tedeschi sono biondi; se viceversa è vero che
tutti i tedeschi sono biondi, anche l’enunciato di sopra che si riferisce con
∀x non ai tedeschi ma a tutte le persone è vero: se uno è tedesco, allora è
biondo e il condizionale è vero; se Giovanni è brutto ma non è tedesco, lo
si vorrà considerare un controesempio che falsifica l’affermazione? Non sem-
bra ragionevole; si assume che T (Giovanni) → B(Giovanni) sia vero, e cosı̀
T (x) → B(x) è vera per tutte le persone.
In pratica, gli aggettivi sono resi da predicati con l’ausilio del condizionale:
in “tutte le persone tedesche sono bionde” l’aggettivo “tedesco” diventa il
predicato “essere tedesco” e la frase “tutte le persone, se sono tedesche, sono
bionde”.
6
Da un compito in classe: “Se qualche triangolo isocele è equilatero, di conseguenza
qualche triangolo isocele non lo è”. La conclusione è vera, ma “di conseguenza” no.

17
“Tutti i P sono . . . ” e “qualche P è . . . ”, dove P delimita il campo di
variabilità del riferimento, si realizzano dunque introducendo un predicato
unario P e scrivendo rispettivamente ∀x(P (x) → . . .) e ∃x(P (x) ∧ . . .). Si
noti ovviamente la differenza nel caso del quantificatore esistenziale, dove !!!
la restrizione è realizzata con la congiunzione, che viene dalla traduzione di
“esiste uno che è P e che . . . ”.

2.5 Esempi
2.5.1 dal linguaggio naturale
1. “Maria ama il padre di Giovanni” è formalizzata da

A(m, f (g))

dove m e g sono costanti, m per “Maria” e g per “Giovanni”, ed f un


simbolo funzionale per “il padre di . . . ”.
2. Per formalizzare “Maria ama il figlio di Giovanni” non si può usare
un simbolo f per “il figlio di”, perchè “figlio di” non è una funzione
univoca: a una persona possono corrispondere diversi figli, o nessuno.
Allora “Maria ama il figlio di Giovanni” si formalizza come sotto “Maria
ama un figlio di Giovanni” e a parte si afferma che Giovanni ha un solo
figlio (vedremo come).
3. “Maria ama un figlio di Giovanni” è formalizzata da

∃x(A(m, x) ∧ F (x, g))

letta

esiste un x tale che Maria ama x e x è figlio di Giovanni,

dove F è un simbolo relazionale a due posti, e F (x, y) sta per “x è figlio


di y”.
Si potrebbe anche dire “Maria ama uno, che è figlio di Giovanni” o
“Maria ama un tizio che è figlio di Giovanni”.
In questo caso “figlio di Giovanni” ha la funzione di nome comune,
come “Piaggio 50” in “Giovanni possiede in Piaggio 50”, e infatti si
formalizza nello stesso modo.

18
4. “Maria ama i figli di Giovanni”, che significa che Maria ama tutti i figli
di Giovanni, si formalizza con

∀x(F (x, g) → A(m, x))

e non con ∀x(A(m, x) ∧ F (x, g)); questa significa che tutti sono figli di
Giovanni, e che Maria li ama tutti; il che implica che Giovanni sia Dio,
e forse Maria la Madonna.
Per la formalizzazione corretta, può essere utile vedere nella frase un ca-
so di quantificatore ristretto, ai figli di Giovanni, leggendola al passivo:
“Tutti i figli di Giovanni sono amati da Maria”.

5. “Non tutte le ciambelle riescono col buco”.


Si scelga un predicato C per “essere una ciambella” e una relazione
B(x, y) per “x è un buco di y”. Quindi si trasforma la frase elimi-
nando “non tutte” a favore di “qualche ciambella non riesce col buco”.
“Riuscire con buco” o “avere il buco” possono essere trattate come
equivalenti: la prima versione allude al processo di fabbricazione che
finisce male, la seconda al risultato. Allora

∃y(C(y) ∧ ¬ ∃xB(x, y)).

6. “Ogni rosa ha le sue spine”.


Sia R il predicato “essere una rosa” e S(x, y) la relazione “x è una spina
di y”.

∀x(R(x) → ∃yS(y, x)).

Si noti che se S(x, y) è la relazione “x è una spina di y”, S(y, x) si


legge “y è una spina di x”. C’è grande libertà nell’uso delle variabili:
∃yS(y, x) si potrebbe scrivere anche ∃zS(z, x); in italiano hanno la
stessa traduzione “x ha qualche spina”. Quello che importa è non usare
la stessa variabile quando devono essere distinte: se si scrive ∃xS(x, x)
si dice che c’è una rosa che è una spina.

19
7. “Ogni rosa ha qualche spina”.
la frase è la stessa di prima, perché se una rosa ha delle spine queste
sono sue. Entrambe possono comunque essere formalizzate anche in un
altro modo, con un predicato per “essere una spina” e una relazione
binaria H di possesso:

∀x(R(x) → ∃y(S(y) ∧ H(x, y))).

8. “Chi rompe paga e i cocci sono suoi”.


“Rompere” è verbo transitivo, salvo che in usi metaforici, quindi bi-
sogna pensare che si dica “chi rompe qualcosa, una qualunque cosa”;
sia R(x, y) la relazione “x rompe y”; sia quindi C(x, y) la relazione che
intercorre tra due pezzi di materia se il primo è un coccio dell’altro, cioè
un pezzo che risulta dalla sua rottura; scegliamo la relazione S(x, y) a
indicare che x paga il valore di y, e sia infine H(x, y) la relazione “x
assume il possesso di y”. Allora

∀x∀y(R(x, y) → S(x, y) ∧ ∀z(C(z, y) → H(x, z))).

Il complesso ∀x∀y . . . si legge “per ogni x e per ogni y . . . ”. È anche !!!


lecito abbreviare con ∀x, y . . ., cosı̀ come ∃x∃y . . . con ∃x, y . . ..
“Chiunque rompa qualunque cosa . . . ” o “Qualunque cosa uno rompa
. . . ” sono equivalenti: in base a questa lettura è evidente che risulterà
che ∀x∀y . . . è equivalente a ∀y∀x . . . e che ∃x∃y . . . è equivalente a
∃y∃x . . .
La precedente formula è tuttavia ambigua, e deve essere corretta in

∀x∀y(R(x, y) → (S(x, y) ∧ ∀z(C(z, y) → H(x, z))))

in modo che entrambe le conseguenze (pagare e tenere i cocci) dipen-


dano da R(x, y). Altrimenti se si pensasse a (R(x, y) → S(x, y)) ∧ . . .
la frase ∀z(C(z, y) → H(x, z)) significherebbe che x si prende i cocci di
ogni cosa, che l’abbia rotta lui o no.

20
9. “Un regalo conquista un amico”.
Cominciamo a riformulare la frase spogliandola di significati metaforici
(un regalo è una cosa e non conquista nulla). Si intende ovviamente
dire che chi fa un regalo acquista un amico, e più dettagliatamente
che se una persona fa un regalo a un’altra persona, questa diventa suo
amico. Usiamo una relazione ternaria R(x, y, z) per “x regala y a z” e
una relazione binaria per A(x, y) “x diventa amico di y”.

∀x∀y(∃zR(x, z, y) → A(y, x)).

10. “A Natale si fanno regali agli amici”.


Si intende che a Natale ognuno fa un regalo a ciascuno dei suoi amici.
Non è il caso di mettere in evidenza “Natale”, che non è rilevante per
la struttura logica della frase. Usiamo una relazione ternaria R(x, y, z)
per “x a Natale regala y a z” e una relazione binaria A(x, y) per “y è
un amico di x”.

∀x∀y(A(x, y) → ∃zR(x, z, y)).

11. “Chi non risica non rosica”.


“Risicare” è verbo intransitivo (anche se qualche volta si dice “ha ri-
schiato qualcosa”, ma si intende “ha rischiato un po’ ”). “Rosicare”
è transitivo, anche se nella frase non compare il complemento oggetto,
ma si intende “non rosica nulla”. Usiamo un predicato R per “risicare”
e una relazione S(x, y) per “x rosica y”.

∀x(¬R(x) → ¬ ∃yS(x, y)).

12. “Sono eligibili tutti e soli gli studenti in corso”.


Non interessa a cosa siano eligibili; serve un predicato per “essere
eligibile”, uno per “essere studente” e uno per “essere in corso”.

∀x(E(x) ↔ S(x) ∧ C(x)).

La dizione “tutti e soli” è strettamente legata a “se e solo se”. “Tutti !!!
gli studenti in corso sono eligibili” è formalizzata da

21
∀x(S(x) ∧ C(x) → E(x)),

mentre “solo gli studenti in corso sono eligibili” da

∀x(E(x) → S(x) ∧ C(x)).

La congiunzionne di queste due ultime frasi è equivalente, come vedre-


mo, alla prima.

2.5.2 dalla matematica


1. La frase “dati due numeri, uno minore dell’altro, esiste un terzo numero
compreso tra i due”, vera nel campo dei razionali e in quello dei reali,
falsa negli interi, può essere resa da

∀x∀y(x < y → ∃z(x < z ∧ z < y)).

La congiunzione x < z ∧ z < y si può abbreviare, secondo l’uso


matematico, con x < z < y.
Non esiste un quantificatore che quantifichi sulle coppie; ci si comporta
come se la frase fosse “dato un primo numero e dato un secondo numero
. . . ”. Ma “un primo” e “un secondo” servono solo a facilitare l’espres-
sione, si sarebbe potuto dire anche “dato un numero e dato un numero
. . . ”, con qualche difficoltà nel seguito per i riferimenti appropriati.
Si faccia attenzione che neanche la presenza di “due” vuol dire che i
numeri devono essere considerati diversi; tale forma comune di espres-
sione distingue il modo, il momento in cui i numeri sono presentati, o
pensati, ma non è escluso in generale che si presenti lo stesso numero
due volte.
Nell’esempio 10 precedente, a Natale uno fa anche regali a se stesso, se
si vuole bene.
“Dati due numeri” significa “fatta due volte la scelta di un numero”, e
le scelte possono cadere sullo stesso numero. In termini probabilistici,
si tratta di scelte con reimmissione; oppure si deve considerare che la
scelta di un numero non lo toglie certo dall’insieme. “Dati due numeri,
esiste la loro somma” si può scrivere

22
∀x∀y∃z(z = x + y)

ma esiste anche la somma di ogni numero con se stesso; x e y possono


prendere tutti i valori in tutte le combinazioni possibili, quindi anche
valori uguali.
Quando tuttavia si mette come sopra la condizione “uno minore del-
l’altro” - come nella frase proposta - allora si esclude che possano essere
uguali perchè la relazione “minore di” non è riflessiva. Tuttavia lo si
esclude solo attraverso una deduzione, non con la semplice scrittura:
se x e y denotano lo stesso numero, e bisogna considerare anche questo
caso per verificare se la frase è vera, in x < y → ∃z(x < z ∧ z < y)
l’antecedente x < y risulta falso (come nell’esempio dei tedeschi).
Con “un terzo” di nuovo si vuol dire semplicemente “un numero”, e che
sia diverso dai primi due segue automaticamente se “compreso” signi-
fica “strettamente compreso”; altrimenti, se la relazione d’ordine fosse
intesa come ≤ allora potrebbe anche essere uguale a uno dei due; non
è questo il senso della frase, che vuole esprimere la densità dell’ordine
dei numeri reali - e anche dei razionali.
Se nella stessa formula il segno di relazione è interpretato su di una
relazione riflessiva, come

∀x∀y(x ≤ y → ∃z(x ≤ z ∧ z ≤ y)),

o più in generale “se R è riflessiva allora . . . ”, ovvero

∀xR(x, x) → ∀x∀y(R(x, y) → ∃z(R(x, z) ∧ R(z, y))),

allora la formula è banalmente vera per ogni relazione7 .

2. “La relazione R è riflessiva”, che significa che ogni elemento sta nella
relazione R con se stesso, si scrive

∀xR(x, x),

come abbiamo fatto sopra.


7
Con “banalmente” s’intende che dati x e y come z si può prendere o x o y, e la formula
non ci dà veramente informazioni.

23
3. “La relazione R è simmetrica”, che significa che se la relazione R sus-
siste tra uno primo e un secondo elemento allora sussiste anche tra il
secondo e il primo, si scrive

∀x∀y(R(x, y) → R(y, x)).

4. “La relazione R è transitiva”, che significa che se R sussiste tra un


primo elemento e un secondo, e tra questo e un terzo, allora sussiste
anche tra il primo e il terzo, si scrive,

∀x∀y∀z(R(x, y) ∧ R(y, z) → R(x, z)).

5. Come non esiste un quantificatore sulle coppie, cosı̀ non esiste un quan-
tificatore che esprima “esiste esattamente un . . . ”, o “esiste un so-
lo . . . ”. Tale locuzione si realizza mediante l’uguaglianza come nel
seguente esempio.
La frase “dati due numeri, esiste un solo numero che è la loro somma”
si formalizza come

∀x∀y∃z(z = x + y ∧ ∀u(u = x + y → u = z)).

6. In generale “Esiste un solo x tale che P (x)” si formalizza come

∃x(P (x) ∧ ∀y(P (y) → x = y)).

7. In modo analogo si può esprimere la locuzione “esistono esattamente


due elementi tali che . . . ” (esercizio).

8. Non si riesce invece con nessun giro di formule del formalismo che
stiamo usando ad esprimere “la maggior parte degli elementi . . . ” o
“quasi tutti . . . ”.

9. Analogamente non si riesce ad esprimere “tanti”.

10. La frase “dati due numeri diversi tra loro, esiste un numero che è
propriamente compreso tra i due numeri dati” si rappresenta con

∀x∀y(x 6= y → ∃z(x < z < y ∨ y < z < x)).

24
11. La frase “ogni numero positivo ha una radice quadrata”, vera nei reali,
falsa nei razionali, si rappresenta come

∀x(0 < x → ∃y(x = y 2 )),

dove con y 2 si indica la funzione di elevamento al quadrato.

12. “un numero è divisibile per un altro numero se e solo se esiste un terzo
numero che moltiplicato per il secondo dà il primo”.
Scriviamo x|y per “y è divisibile per x” o “x divide y” e usiamo il solito
segno di moltiplicazione:

∀x∀y(x|y ↔ ∃z(y = x · z)).

13. “Esistono due numeri primi consecutivi”.


Per questa frase complicata procediamo in due passi; usiamo un’abbre-
viazione pr(x) per “x è primo ”e scriviamo

∃x∃y(x = y + 1 ∧ pr(x) ∧ pr(y))

riservandoci di sostituire pr(x) con la sua scrittura corretta data nel


prossimo esercizio.
Che i numeri siano due non risulta dallo scrivere ∃x∃y ma da x = y + 1
che implica x 6= y (vedremo che lo si deduce facilmente dagli assiomi
dei numeri naturali); si potrebbe anche scrivere:

∃x(pr(x) ∧ pr(x + 1)),

dando per scontato, come sopra, che x 6= x + 1.

14. “Un numero è primo se e solo se è maggiore di 1 ed è divisibile solo per


1 e per se stesso”.
Per esprimere questa che è la definizione di un nuovo predicato usiamo
un nuovo simbolo pr(x) e scriviamo

∀x(pr(x) ↔ x > 1 ∧ ∀z(z|x → z = 1 ∨ z = x)).

25
15. “2 è l’unico numero primo pari”.
“Numero pari” significa “divisibile per 2”. La frase si può trasformare
in “2 è primo e pari e se un numero è primo e pari allora è uguale a 2”.
Quindi

pr(2) ∧ 2|2 ∧ ∀x(pr(x) ∧ 2|x → x = 2).

16. “Esistono numeri pari arbitrariamente grandi”.


La locuzione “arbitrariamente grandi” o “grandi quanto si vuole” si-
gnifica che comunque si dia un numero, ne esiste uno più grande con
la proprietà in oggetto - non che un numero è grande quanto si vuole,
un numero è quello che è. Quindi

∀x∃y(x < y ∧ 2|y).

17. “Ci sono almeno due quadrati minori di 10”.


Consideriamo 10 una costante. “x è un quadrato” significa che x è il
quadrato di qualche numero, e si formalizza come ∃u(x = u2 ). Quindi

∃x∃y(x 6= y ∧ x < 10 ∧ y < 10 ∧ ∃u(x = u2 ) ∧ ∃u(y = u2 )),

dove x 6= y è un’abbreviazione per ¬ (x = y).


Si noti che da ∃u(x = u2 ) ∧ ∃u(y = u2 )) non segue che la u sia la
stessa, e quindi x e y uguali; le due frasi sono indipendenti; è come se
si dicesse: “esiste un numero il cui quadrato è x ed esiste un numero
il cui quadrato è y”; non vuol dire che sia lo stesso numero. Ma si
sarebbe potuto anche scrivere ∃u(x = u2 ) ∧ ∃v(y = v 2 )).

Dagli esempi si traggono diverse regole euristiche: riformulare la frase !!!


in un italiano semplice, con soggetto, verbo e complementi; trasformare i
pronomi quantitativi come “ognuno”, “alcuni”, “nessuno”, “uno” . . . usando
sempre solo “per tutti . . . ” ed “esiste un . . . ”, anche se la frase diventa
barocca; guardare i verbi, se sono intransitivi o transitivi, e sostituire le
frasi elementari con le dizioni “ha la proprietà . . . ” e “sussiste la relazione
. . . ”; non prendere relazioni troppo inglobanti che nascondano la sintassi
informale, immaginando possibili proseguimenti della frase che richiedono
di riprendere certi elementi; invece lasciare cadere particolari empirici; nelle
frasi matematiche, risalire sempre alle definizioni dei termini coinvolti.

26
2.6 Esercizi
1. Formalizzare frasi del linguaggio comune come le seguenti e altre a
piacere:
Il mio cellulare è migliore del tuo ma costa di più.
Chi è senza peccato scagli la prima pietra.
Senza soldi si vive male.
Senza amici si è soli.
I supermercati abbondano di ogni ben di Dio.
Maria ama il figlio di Giovanni.
Il 33,3% circa degli italiani possiede due macchine.
Chi ha superato solo una delle due prove di esonero, all’esame porta
solo la parte non superata.
Chi lascia la via vecchia per la nuova sa quel che lascia ma non sa quel
che trova.

2. Formalizzare “A Giovanni piacciono i Piaggio 50”; trasformarla prima


in italiano in modo da far comparire un quantificatore ristretto.

3. Formalizzare “I professori premiano gli studenti meritevoli”.

4. In un’assemblea di politici, questi si dividono in onesti e disonesti, e si


sa che a) esiste almeno un politico onesto; b) presi due politici a caso,
uno almeno è disonesto. Si formalizzino le condizioni sui politici.
Se nell’assemblea ci sono cento politici, si può decidere (dedurre) quanti
sono gli onesti e quanti i disonesti? Formalizzare anche la risposta.

27
3 Logica proposizionale
La logica proposizionale studia quello che si può dire sulle frasi considerando
solo la struttura determinata dai connettivi; si considerano cioè frasi formate
da frasi più semplici per mezzo dei connettivi.
Introdotti i simboli per i connettivi, occorre dare le loro precise regole
d’uso - alcune delle quali abbiamo già anticipato negli esempi - sia dal punto
di vista sintattico (dove scriviamo ad esempio ¬ per formare la negazione
di un’asserzione?), sia dal punto di vista semantico (come interpretiamo il
significato delle frasi composte, in funzione delle frasi componenti?).

3.1 Sintassi
La necessità di fornire regole rigide per la formazione delle frasi è data dalla
volontà di evitare le ambiguità possibili nelle lingue naturali. Alcune am-
biguità si riferiscono proprio alla distribuzione dei connettivi; supponiamo
ad esempio di leggere un problema rappresentato dall’insieme delle seguenti
disequazioni:

x2 + 4x + 3 < 0 e x < −3 o x > −2.

Lo studente tende a rispondere “risolvo la prima, poi interseco con x < −3


e unisco con x > −2, ma è l’ordine di queste operazioni che conta, che non
sempre è quello del first come, first served , con la scrittura da sinistra a
destra.
Si può intendere che si chieda quali siano i valori per cui si ha che

x2 + 4x + 3 < 0 e x < −3

oppure si ha che

x > −2;

si può anche intendere che si chieda quali siano i valori per cui si ha

x2 + 4x + 3 < 0

ma ristretti ad essere

x < −3 o x > −2.

28
Nel primo caso la risposta è (−2, +∞), nel secondo caso è (−2, −1).
Naturalmente l’ambiguità, che nel parlato si risolve con le pause, nella
scrittura matematica si risolve con le parentesi, il primo caso essendo

(x2 + 4x + 3 < 0 e x < −3) o x > −2

e il secondo caso

x2 + 4x + 3 < 0 e (x < −3 o x > −2).

La stessa soluzione delle parentesi1 adotteremo per le formule logiche.

3.1.1 Il linguaggio proposizionale


Le frasi di ogni linguaggio sono stringhe2 di simboli dell’alfabeto. L’alfabeto
del linguaggio proposizionale contiene, oltre ai connettivi, le parentesi sinistra
“(” e destra “)”, e un insieme L di lettere, dette lettere proposizionali.
Tali lettere si chiamiamo anche variabili proposizionali, ma preferiamo
non seguire questo uso perché il loro dominio di variabilità (le frasi) è per
ora troppo indefinito3 .
Le parole accettabili di questo alfabeto si chiameranno proposizioni, un
termine tecnico per distinguerle dalle asserzioni dei linguaggi dotati di senso.
Quello che importa delle proposizioni è solo la loro struttura formale, che poi
si dovrà riconoscere nelle frasi dei linguaggi naturali o matematici, quando
il linguaggio proposizionale sarà interpretato sostituendo alle lettere frasi
relative ad un precisato argomento.
Non tutte le stringhe di simboli dell’alfabeto sono ammesse come propo-
sizioni. Una generica stringa, anche illecita, è chiamata “parola”.
La definizione dell’insieme P delle proposizioni stipula innanzi tutto che:

Per ogni lettera p ∈ L, (p) è una proposizione atomica


1
Le parentesi sono state anche aggiunte al linguaggio naturale - almeno nella saggistica,
meno in letteratura - con un’altra funzione, quella di racchiudere un inciso (una frase
parentetica appunto) non di articolare una frase complessa.
2
Con “stringa” s’intende una lista o una successione finita. Non è necessario entra-
re nei particolari del tipo di rappresentazione dei dati che si sceglie, finché non si deve
implementare.
3
Quando introdurremo la semantica formale diventerà preciso.

29
(cioè non ulteriormente analizzata e scomposta nel contesto della trattazio-
ne).
Per il resto della definizione, occorre parlare di proposizioni qualunque e
della loro composizione; è quindi necessario avere delle variabili che variano
sull’insieme delle proposizioni, e che si chiamano metavariabili 4 ; useremo le
lettere A, B, . . .
Si danno quindi le seguenti clausole:

1 Se A è una proposizione, anche (¬A) lo è.

2 Se • è un connettivo binario, e se A e B sono proposizioni, anche (A • B)


lo è.

Le clausole della definizione sono anche regole di costruzione. S’intende che


ogni proposizione si ottiene applicando un numero finito di volte le clausole
della definizione.
Esempi

1. (p ∩ q) non è una proposizione perché ∩ non è un elemento dell’alfa-


beto5 .

2. p ∧ q non è una proposizione, perché:


Ogni proposizione contiene almeno una parentesi6 .

3. )p( non è una proposizione, come non lo sono p o )p), perché:


Ogni proposizione inizia con una parentesi ( e termina con una parentesi
).
4
La ragione di questo termine, non usato altrove in matematica, se non in logica, è che
queste variabili indicano elementi di una struttura che è anch’essa un linguaggio, e che
contiene a sua volta variabili (le lettere) che devono essere interpretate su frasi; “meta”
significa “sopra”, “oltre”, e deriva dal greco, dove significava piuttosto “dopo”; ma da che
sono stati chiamati “metafisica” i libri di Aristotele che seguivano quelli di fisca, è venuta
questa variante di significato.
5
Per i linguaggi formali si chiede sempre che l’alfabeto e le sue diverse categorie di
simboli siano insiemi decidibili , cioè tali che l’appartenenza o meno ad essi di un simbolo
possa essere decisa da un algoritmo.
6
Tutte queste proprietà diventeranno esercizi sul principio di induzione nel paragrafo
12.

30
4. ((p) → (q)) è una proposizione perché ottenuta dalle proposizioni ato-
miche (p) e (q) con una applicazione della clausola induttiva relativa a
→.
5. (¬((p) → (q))) è una proposizione perché ottenuta dalle proposizioni
atomiche (p) e (q) con una prima applicazione della clausola induttiva
relativa a → e una seconda applicazione della clausola relativa a ¬.
6. ((p) non è una proposizione perché:
In ogni proposizione il numero di parentesi sinistre è uguale al numero
di parentesi destre.
7. (pq) non è una proposizione perché non è atomica e non contiene nessun
connettivo.
Se una proposizione è della forma (¬A) o della forma (A • B), ¬ e • sono
rispettivamente il suo connettivo principale, e A e B le sottoproposizioni
immediate.
Si dice che (¬A) è una negazione, citando il suo connettivo principale, la
negazione di A - e si legge “non A”; si dice che (A ∧ B) è una congiunzione,
la congiunzione di A e B - e si legge “A e B”; A e B sono le proposizioni
congiunte in (A∧B); analogamente per la disgiunzione7 (A∨B) - che si legge
“A o B”; (A⊕B) si può leggere “o A o B”; (A → B) si dice un condizionale -
e si legge di solito “se A allora B”; A si chiama antecedente, e B conseguente;
(A ↔ B) si dice bicondizionale - e si legge “A se e solo se B”.

3.1.2 Analisi sintattica


Una proposizione è una lista di simboli, ma è anche passibile di una rap-
presentazione con una diversa struttura. A ogni proposizione è associato
un albero di costruzione, o di analisi sintattica 8 , che è un albero etichettato
finito binario.
Un albero binario9 è un insieme parzialmente ordinato10 X con una re-
lazione  con le seguenti proprietà.  è una relazione riflessiva, transitiva
7
Chiameremo ∨ semplicemente disgiunzione, e ⊕ disgiunzione esclusiva o forte.
8
In inglese parsing.
9
Esistono definizioni leggermente diverse, più o meno generali, ad esempio con una o
più radici; diamo quella che serve ai nostri scopi.
10
Presenteremo in seguito la definizione di relazione d’ordine e della terminologia
connessa; per ora è sufficiente la rappresentazione grafica data sotto.

31
e antisimmetrica11 . Gli elementi dell’albero si chiamano nodi . Se x  y, si
dice che y è un successore, o un discendente di x. Esiste un nodo minimo
r tale che r  x per ogni nodo di X, e si chiama radice. I nodi a tali che
non esiste b 6= a per cui a  b si chiamano foglie12 . Ogni nodo che non sia
una foglia ha uno o al massimo due successori immediati13 , dove si dice che
b è un successore immediato di a se a  b, a 6= b e non esiste un c tale che
a  c  b, con c 6= a e c 6= b.

La rappresentazione usuale di un albero binario è di questo tipo:


.&
• •
.& ↓
• • •

dove con la freccia si indica il successore immediato, la radice è in alto e


l’albero cresce verso il basso.
Un ramo è un insieme totalmente ordinato14 di nodi che va dalla radice
a una foglia. La sua lunghezza è il numero di nodi che vi appartengono.
L’altezza dell’albero è la massima lunghezza dei suoi nodi.
Un albero si dice etichettato se ad ogni nodo è associato un elemento di
qualche insieme prefissato, che si chiama etichetta (label ). Le etichette si
possono sovrapporre ed identificare con i nodi.

L’albero sintattico di una proposizione è definito in questo modo:

• la radice è (etichettata con) la proposizione data


11
Questo significa come vedremo che: a) x  x, b) se x  y e y  z allora x  z e c) se
x  y e y  x allora x = y.
12
Esistono sempre se l’albero, ovvero l’insieme dei nodi X, è finito.
13
Un’altra terminologia è “figli”. Se ci sono due figli, s’intende che sono esplicitamente
distinti il primo e il secondo - sulla pagina, a sinistra e a destra.
14
Per ora basti intendere che ogni nodo del ramo salvo l’ultimo ha esattamente un
successore immediato, e con ogni nodo ci sono i precedenti.

32
• ogni nodo ha nessuno, uno o due successori immediati a seconda che
la proposizione etichetta del nodo sia atomica, o della forma (¬A), o
della forma (A • B). Nel secondo caso il successore è etichettato con
A, nel terzo caso i due successori sono etichettati rispettivamente con
A e con B.

Si chiama altezza della proposizione l’altezza del suo albero di costruzione.

Esempio L’albero per (((p) ∧ (¬(q))) ∨ (¬(p))) è il seguente:

(((p) ∧ (¬(q))) ∨ (¬(p)))


.&
((p) ∧ (¬(q))) (¬(p))
.& ↓
(p) (¬(q)) (p)

(q)

La sua altezza è quattro.

Le etichette dei nodi dell’albero di costruzione di una proposizione sono le


sue sottoproposizioni. Le lettere che compaiono nelle (proposizioni atomiche
nelle) foglie sono le lettere che occorrono nella proposizione; si dice che un
simbolo occorre in una proposizione se è un elemento della lista (che è la
proposizione); le occorrenze di un simbolo in una proposizione sono i vari
posti della lista in cui il simbolo si presenta. Se p, . . . , q sono le lettere che
occorrono nella proposizione A, si scrive anche A[p, . . . , q]. Qualche volta
si usa questa notazione anche se p, . . . , q sono solo alcune delle lettere che
occorrono in A, o viceversa se le lettere che occorrono in A sono incluse tra
le p, . . . , q; invece di introdurre notazioni distinte apposite, la differenza sarà
chiarita dal contesto o da esplicite precisazioni.
Le parentesi sono essenziali per individuare il connettivo principale di una
proposizione, e quindi per costruire il suo albero sintattico. Per individuare
il connettivo principale, si usa un contatore di parentesi15 .
Il contatore scansisce la lista da sinistra verso destra, e scatta di +1
quando incontra una parentesi sinistra, di −1 quando incontra una parentesi
destra. Condizione necessaria affinché una parola sia una proposizione è che

33
il contatore, inizializzato a 0, torni a 0 solo alla fine della parola. Perché poi !!!
la parola sia una proposizione bisogna che gli altri simboli siano distribuiti
in mezzo alle parentesi in modo corretto.
Ad esempio per

(((p) ∧ (¬(q))) ∨ (¬(p)))

il contatore assume i valori:

0 1 2 3 2 3 4 3 2 1 2 3 2 1 0.

Per individuare il suo possibile connettivo principale, si elimina la coppia di


parentesi esterne, e si mette di nuovo in funzione il contatore su

((p) ∧ (¬(q))) ∨ (¬(p))

notando che esso assume questa volta i valori

0 1 2 1 2 3 2 1 0 1 2 1 0

tornando a 0 la prima volta quando arriva alla fine di

((p) ∧ (¬(q))),

e a destra c’è un connettivo binario.


(Siccome il contatore è stato applicato ad una parola che non è una propo-
sizione - se anche quella originaria lo è, per l’eliminazione delle due parentesi
- non sorprende il suo comportamento16 .)
La parola ((p) ∧ (¬(q))) è candidata ad essere una sottoproposizione; il
connettivo ∨ che compare nel prossimo posto a destra è candidato a essere
il connettivo principale; l’ipotesi cioè è che se il procedimento va a buon fine
la proposizione sia della forma (A ∨ B). Se anche la parte restante

(¬(p))

è una proposizione si sarà trovato che la parola data è la disgiunzione di


((p) ∧ (¬(q)) e di (¬(p)).
Poiché quest’ultima si vede facilmente che è una proposizione, proseguia-
mo l’analisi di
15
Horstmann, p. 76.
16
Invece di prendere nota di dove il contatore torna a 0 sulla parola ridotta, si può
ovviamente prendere nota di dove torna a 1 in quella originaria.

34
((p) ∧ (¬(q))).
Il contatore applicato a questa assume i valori
0 1 2 1 2 3 2 1 0
e applicato a
(p) ∧ (¬(q))
i valori
0 1 0 1 2 1 0
tornando la prima volta a 0 alla fine di (p), individuando a destra il connet-
tivo ∧, che lega (p) e (¬(q)). In questo modo si arriva a costruire l’albero
sintattico.
Invece
(((p) ∧ (q(¬))) ∨ (¬(p)))
non è una proposizione, nonostante il contatore si comporti come nel caso
precedente (esercizio).
Oltre ai casi che si presentano nel precedente esempio, un altro possibile
è il seguente. Data la parola
(¬((p) → ((p) ⊕ (q))))
il contatore assume i valori
0 1 2 3 2 3 4 3 4 3 2 1 0
ma se si tolgono le parentesi esterne e si riapplica il contatore, esso torna a 0
solo alla fine. In questo caso il connettivo, che deve esserci perché è ovvio che
non si tratta di formula atomica, non può che essere la negazione, all’inizio.
Infatti in questo caso c’è. Se non ci fosse, la parola sarebbe della forma ((A)),
che non è una proposizione.
Alcune parentesi sono sovrabbondanti, ma solo quelle della coppia più
esterna e quelle nelle proposizioni atomiche, dove sono usate sia per unifor-
mità sia per sottolineare la differenza tra una lettera come elemento dell’al-
fabeto e la lettera come proposizione17 . Ma ora per comodità di scrittura e
17
Tra simboli dell’alfabeto e parole c’è una differenza di tipo logico. Nei linguaggi
naturali si presentano alcune eccezioni, ma solo le vocali “a”, “e”, “i”, “o” sono usate
come parole; tuttavia è raro che si parli dell’alfabeto; quando lo si fa, si scrive appunto
“e” e non e.

35
lettura è meglio ridurre il numero di parentesi con le seguenti convenzioni:
non si scrivono le parentesi intorno alle lettere nelle proposizioni atomiche,
non si scrivono le parentesi più esterne, e si eliminano alcune coppie di pa-
rentesi intorno ad alcune sottoproposizioni, con un criterio sufficiente a farle
ripristinare in modo corretto e univoco che è formulato nel seguente modo.
Si ordinano per priorità i connettivi secondo le seguente graduatoria:
¬





Data quindi una parola le cui parentesi non rispettano le condizioni per
essere una proposizione (sı̀ però la parità, il fatto che il numero di parentesi
sinistre sia uguale a quello delle parentesi destre, il fatto che in ogni punto
che non sia l’ultimo il numero di sinistre è maggiore o uguale di quello delle
destre, e tutte le proprietà che si mantengono quando si eliminano alcune
coppie di parentesi corrispondenti) le parentesi si rimettono secondo questo
procedimento: prima si rimettono le parentesi a sinistra e a destra delle
lettere18 ; quindi si prende in esame la negazione, se occorre nella parola; si
esamina un’occorrenza della negazione che non abbia immediatamente alla
sua destra un’altra negazione19 . Alla sua destra c’è una parentesi sinistra -
altrimenti si può dire che quella parola non proviene dalla eliminazione di
coppie di parentesi da una genuina proposizione (brevemente, che non è una
proposizione). Sia σ la parola alla sua destra che termina con la parentesi
destra che chiude la parentesi sinistra. Per trovare la parentesi destra che
“chiude” la parentesi sinistra si usa di nuovo il contatore in modo ovvio. !!!
Allora si rimette una parentesi sinistra alla sinistra della negazione, se non
18
Questo praticamente si può fare anche alla fine, per non appesantire la scrittura,
ma si faccia attenzione che in questo caso, nel procedimento sotto descritto, adiacenti ai
connettivi si possono trovare anche lettere, oltre a parole che sono delimitate da parentesi.
In particolare la negazione che non abbia alla sua destra un’altra negazione può avere o
una parentesi, e si procede come nel testo, oppure una lettera p e allora si introducono le
parentesi (¬p) se non ci sono già. Si veda oltre l’esempio.
19
A parte questa condizione, l’ordine in cui si lavora sulle eventuali diverse occorrenze
della negazione, se ce ne è più di una, non è rilevante; lo si può anche (immaginare di)
fare in simultanea. Un calcolatore lo può fare in parallelo. Lo stesso vale per gli altri
connettivi.

36
c’è già, e una parentesi destra a destra di σ, se non c’è già, ottenendo (¬σ);
si ripete per ogni occorrenza di ¬, quindi si passa ai connettivi binari e per
ciascuno di essi, indicato con •, nell’ordine di priorità, si considerano le più
corte sottoparole σ e τ a sinistra e a destra di • che sono chiuse tra due
parentesi sinistre e destre, e si introduce una parentesi ( a sinistra di σ e ) a
destra di τ , se non ci sono già, ottenendo (σ • τ ), e cosı̀ via.
Per occorrenze dello stesso connettivo si conviene l’associazione a destra,
cioè ad esempio con A → B → C si intende A → (B → C).

Esempi
Data p ∧ ¬q ∨ ¬p, la reintroduzione delle parentesi avviene attraverso
questa successione di passi:

1 (p) ∧ ¬(q) ∨ ¬(p)

2 (p) ∧ ¬(q) ∨ (¬(p))

3 (p) ∧ (¬(q)) ∨ (¬(p))

4 ((p) ∧ (¬(q))) ∨ (¬(p))

5 (((p) ∧ (¬(q))) ∨ (¬(p))).

I passi 2 e 3 si possono naturalmente fare in parallelo.

Data p → ¬(q ∧ ¬¬r)

1 (p) → ¬((q) ∧ ¬¬(r))

2 (p) → ¬((q) ∧ ¬(¬(r)))

3 (p) → ¬((q) ∧ (¬(¬(r))))

4 (p) → (¬((q) ∧ (¬(¬(r)))))

5 ((p) → (¬((q) ∧ (¬(¬(r))))))

oppure, per rendere più chiara la lettura

1 p → ¬(q ∧ ¬(¬r))

2 p → ¬(q ∧ (¬(¬r)))

37
3 p → (¬(q ∧ (¬(¬r))))

4 (p → (¬(q ∧ (¬(¬r)))))

rimettendo infine le parentesi intorno alle lettere.


Si noti che se fosse stata data p → ¬q ∧ ¬¬r la reintroduzione delle
parentesi avrebbe portato a una diversa proposizione:

((p) → ((¬(q)) ∧ (¬(¬(r)))))

(esercizio, e si confrontino i due alberi sintattici), per cui le due parentesi la-
sciate in p → ¬(q ∧¬¬r) sono essenziali, se si vuole parlare della proposizione !!!
((p) → (¬((q) ∧ (¬(¬(r))))) .

Non è comunque necessario né obbligatorio togliere tutte le parentesi;


per agevolare la lettura, o all’inizio quando non si è ancora fatta esperienza,
può essere conveniente lasciarne alcune, che pure grazie alle convenzioni si
potrebbero eliminare. Cosı̀ ad esempio si potrà scrivere p → (q ∧ r) invece
di p → q ∧ r oppure (p ∨ q) → r invece di p ∨ q → r.
Le parentesi si rimettono solo se si ha necessità di capire quale è il connet-
tivo principale, per svolgere l’analisi sintattica. Le parentesi esterne posso-
no tranquillamente essere tralasciate, finché la proposizione non deve essere
combinata con altre mediante qualche connettivo - allora si devono rimettere.
L’albero sintattico si può costruire direttamente anche per le espressioni
prive di tutte le parentesi, se si tiene presente la priorità dei connettivi. Il
connettivo principale è sempre quello di priorità più bassa. !!!

Esempio L’albero per p ∧ ¬q ∨ ¬p è il seguente, essendo ∨ il connettivo


principale:

p ∧ ¬q ∨ ¬p
.&
p ∧ ¬q ¬p
.& ↓
p ¬q p

q.

38
Le etichette sono diverse, ma l’albero è lo stesso della proposizione analizzata
in precedenza.
Dal prossimo paragrafo, chiameremo “proposizioni” anche le parole otte-
nute da proposizioni per eliminazione di parentesi.

3.1.3 Esercizi
1. Discutere se le seguenti parole sono proposizioni:
(p ∧ (q)
(p)) ∧ q)
((p) ∧ q)
((p) ∧ (¬(q)))
((p) → ∧)
p
((p)).

2. Verificare quali delle seguenti parole sono proposizioni - secondo la defi-


nizione originaria - e quali no, costruendo l’albero sintattico e spiegando
dove eventualmente la costruzione fallisce e per quale ragione:
(¬(¬p))
((p) → ((q) ∨ (¬(r))))
(¬¬((p) → (q)))
((((p) → (q)) ∧ (p)) → (q))
((¬(p)) ∧ (q)) ∨ (r))
(((¬(p)) ∧ (q)) ∨ (r))
((p) ∧ (q) ∧ (r)).

3. Dare ragioni per le seguenti proprietà (e si vedano poi gli esercizi in


12.10.1):
Ogni proposizione ha lunghezza maggiore o uguale a 3.
In ogni proposizione non atomica occorre un connettivo.
In nessuna proposizione occorrono due connettivi consecutivi.
In nessuna proposizione occorre la sottosequenza (), né )p.

39
In ogni proposizione la sua lunghezza (come lista) è maggiore della sua
altezza.

4. Una misura di complessità delle proposizioni è una funzione dalle pro-


posizioni nei numeri naturali che soddisfa la condizione che la misura
di una proposizione è maggiore delle misure delle proposizioni compo-
nenti, e le atomiche hanno tutte la stessa misura minima. Il numero (di
occorrenze) dei connettivi è una misura di complessità, come lo sono la
lunghezza (della stringa) e l’altezza (dell’albero sintattico).
Trovare la relazione tra il numero di occorrenze di connettivi e l’altezza.
Dimostrare con un controesempio che il numero di connettivi diversi
non è una misura di complessità.

5. Eliminare le parentesi, applicando le convenzioni sulla priorità dei con-


nettivi, dalle seguenti proposizioni:
((p) ∧ ((¬(q)) → (¬(p))))
((¬(¬(¬(p)))) ∨ ((p) ∧ (q)))
(((¬(p)) ∨ (¬(q))) ∧ ((¬(p)) ∨ (q)))
(((p) ⊕ (¬(q))) → ((p) ∨ (¬(q)))).

6. Reintrodurre le parentesi nelle seguenti parole in modo da ottenere, se


possibile, proposizioni, o se no spiegare il perché:
¬¬p
¬p ∧ q ∨ r
p → q ∨ ¬r
(p → q) ∧ p → q
p→q∧p→q
p ∨ q ∧ r → ¬p
p ∧ q ∧ r ∨ ¬r
p ∧ (→ r ∨ q)
p ⊕ ¬q → ¬p ⊕ q
p ⊕ q ∨ r.

40
7. Definire le proposizioni nel seguente modo: Ogni lettera p è una pro-
posizione; se A è una proposizione, anche ¬(A) è una proposizione; se
• è un connettivo binario e A e B sono proposizioni, anche (A) • (B) è
una proposizione.
Definire il nuovo procedimento per decidere se una parola è una pro-
posizione e costruire l’albero sintattico.
Discutere eventuali vantaggi e svantaggi della definizione alternativa.

3.2 Semantica
La semantica ha a che fare con le interpretazioni, grazie alle quali le proposi-
zioni, con la sostituzione di frasi alle lettere, vengono ad assumere un senso
(che a noi non interessa, lo bypassiamo) e diventano vere o false. Tale attri-
buzione finale di valori di verità è per noi l’operazione di interpretazione, che
viene studiata in astratto per vedere se abbia proprietà generali, indipendenti
dalle interpretazioni concrete.
I valori di verità saranno rappresentati dall’insieme20 {0, 1}. Ci si colloca
con tale scelta nell’ottica della logica classica a due valori.
Nell’insieme {0, 1} è necessario introdurre un minimo di struttura21 : la
più semplice consiste in convenire che 0 < 1 e usare la sottrazione come se 0
e 1 fossero numeri interi, con | x | a indicare il valore assoluto.
Un’interpretazione è una funzione22 i : L −→ {0, 1}; una valutazione è
una funzione v : P −→ {0, 1} che soddisfa le seguenti condizioni23 :

v((¬A)) = 1 − v(A)
v((A ∧ B)) = min{v(A), v(B)}
v((A ∨ B)) = max{v(A), v(B)}
v((A ⊕ B)) = | v(A) − v(B) |
v((A → B)) = max{1 − v(A), v(B)}
v((A ↔ B)) = 1− | v(A) − v(B) | .
20
Altre notazioni per i valori di verità sono {V, F }, {T, F }, {>, ⊥}, {True, False}.
21
Vedremo in seguito che si può considerare un’algebra di Boole.
22
La notazione con la freccia sarà spiegata in seguito; per ora si intenda che a ogni lettera
corrisponde un valore di verità, e per la valutazione v che a ogni proposizione corrisponde
o 0 o 1.
23
Si noti che in v((¬A)) e in altre espressioni analoghe ci sono due tipi di parentesi, che
andrebbero tipograficamente distinte; quelle interne sono le parentesi della proposizione,
quelle esterne servono per la notazione funzionale v(x).

41
In alternativa, si considerano 0 e 1 come interi modulo24 2, {0, 1} = Z2 , e si
scrivono le condizioni:

v((¬A)) = 1 + v(A)
v((A ∧ B)) = v(A) · v(B)
v((A ∨ B)) = v(A) + v(B) + v(A) · v(B)
v((A ⊕ B)) = v(A) + v(B)
v((A → B)) = 1 + v(A) · (1 + v(B))
v((A ↔ B)) = 1 + (v(A) + v(B)).

Ogni interpretazione i si estende a una valutazione i∗ ponendo


i∗ ((p)) = i(p)
e definendo i∗ sulle proposizioni composte in modo da soddisfare le condizioni
della definizione di valutazione.
Per ogni valutazione v il valore di verità di una proposizione A si ottiene
applicando ai valori delle sottoproposizioni immediate di A una funzione, che
dipende dal connettivo principale di A.

3.2.1 Tavole di verità


Ad ogni connettivo è associata una funzione di verità, cioè una funzione da
{0, 1}n in {0, 1}, dove n è il numero di argomenti del connettivo ({0, 1}n è
l’insieme delle n-uple di 0 e 1). Per il loro carattere finito queste funzioni
sono rappresentate da tabelle, che sono dette tavole di verità.
La tavola di verità della negazione è:

A ¬A
0 1
1 0
la tavola di verità della congiunzione:

A B A∧B
0 0 0
0 1 0
1 0 0
1 1 1
24
Per chi non sa cosa significa, sarà spiegato in seguito, l’importante è che 1 + 1 = 0.

42
la tavola di verità della disgiunzione:

A B A∨B
0 0 0
0 1 1
1 0 1
1 1 1
la tavola di verità della disgiunzione esclusiva:

A B A⊕B
0 0 0
0 1 1
1 0 1
1 1 0
la tavola di verità del condizionale:

A B A→B
0 0 1
0 1 1
1 0 0
1 1 1
e la tavola di verità del bicondizionale:

A B A↔B
0 0 1
0 1 0
1 0 0
1 1 1

Quando si deve trovare il valore di verità di una proposizione, o di un nu-


mero finito di esse, sotto un’interpretazione, è sufficiente considerare i valori
assunti dalle lettere che vi compaiono, quindi le interpretazioni diventano
assegnazioni di valori 0 o 1 ad un numero finito di lettere, e per ogni propo-
sizione ce ne è un numero finito. Data una proposizione, il calcolo dei suoi
valori di verità per ogni possibile interpretazione si può organizzare in una
tabella con i valori progressivi attribuiti alle sottoproposizioni (individuate
dall’analisi sintattica), come nei seguenti esempi:

43
Se A è p ∧ ¬p → q:

p q ¬p p ∧ ¬p p ∧ ¬p → q
0 0 1 0 1
0 1 1 0 1
1 0 0 0 1
1 1 0 0 1

Se A è p ∨ r → ¬p ∧ (q → r):

p q r ¬p q → r ¬p ∧ (q → r) p ∨ r A
0 0 0 1 1 1 0 1
0 0 1 1 1 1 1 1
0 1 0 1 0 0 0 1
0 1 1 1 1 1 1 1
1 0 0 0 1 0 1 0
1 0 1 0 1 0 1 0
1 1 0 0 0 0 1 0
1 1 1 0 1 0 1 0

Tali tabelle si chiamano tavole di verità delle proposizioni.


Come si vede dagli esempi, ci sono proposizioni che per ogni interpreta-
zione hanno il valore 1, altre che per alcune interpretazioni hanno il valore 0
e per altre interpretazioni il valore 1. Si possono dare esempi di proposizioni
che per ogni interpretazione assumono il valore 0 (esercizio).
Si ricordi che una proposizione, in quanto schema, non è né vera né falsa; !!!
solo la sua tavola di verità completa spiega tutti i possibili modi in cui lo
schema può realizzarsi nelle diverse interpretazioni.

3.2.2 Esercizi
1. Costruire la tavola di verità delle proposizioni:
(p → p) → p
p → (p → p)
p∨q →p∧q

44
p∨q∧r →p∧r∨s
(p ∨ q) ∧ r → p ∧ (r ∨ s)
p → (q → p).
2. Spiegare quale è la disgiunzione usata nella programmazione, in consi-
derazione del fatto che ivi si adotta la valutazione pigra: “quando vie-
ne valutata una disgiunzione, e la prima condizione è vera, la seconda
condizione non viene esaminata”25 .
3. Trovare le tavole di verità corrispondenti a “a meno che”, “anche se”.
4. Scrivere la tavola di verità per le particelle logiche “né . . . né” e “non
(è vero che) sia . . . sia . . . ”.
5. Costruire la tavola di verità per “se . . . allora . . . , altrimenti . . . ”.
Avvertenza. Si faccia attenzione che il costrutto if . . . then nei lin-
guaggi di programmazione è usato piuttosto come ↔; se lo statement
è falso l’istruzione non viene eseguita: ad esempio “se si esegue

if importo ≤ saldo then saldo := saldo - importo,

l’enunciato dell’assegnazione verrà eseguito solo se l’importo da prele-


vare è minore o uguale al saldo”26 .

3.2.3 Validità e conseguenza


Se i∗ (A) = 1, si dice che A è vera nell’interpretazione i, o che i soddisfa A,
o che i è un modello di A, e si scrive anche !!!
i |= A.
Se esiste almeno una i tale che i |= A, si dice che A è soddisfacibile, o
(semanticamente) consistente. Se non esiste alcun modello di A, si dice che
A è insoddisfacibile, o (semanticamente) inconsistente, o contraddittoria, o
una contraddizione. Se per ogni i si ha i |= A, si dice che A è logicamente
valida, o logicamente vera, o una tautologia, e si scrive
|= A.
25
Horstmann, p. 212.
26
Horstmann, p. 186.

45
Si dice che B è conseguenza logica di A, o che A implica B, e si scrive

A |= B

se per ogni i, se i |= A allora i |= B. Si noti che, grazie alla tavola di verità


del condizionale,

Osservazione 3.2.1 Per ogni A e B,

A |= B se e solo se |= A → B.

Se A è27 A1 ∧. . .∧An , invece di A1 ∧. . .∧An |= B si scrive A1 , . . . , An |= B.


Se T = {A1 , . . . , An }, allora si dice che i soddisfa T se e solo se i |= A1 ∧
. . . ∧ An .
Se A |= B e B |= A, si dice che A e B sono logicamente equivalenti , o
anche solo equivalenti, e si scrive A ≡ B.

Osservazione 3.2.2 Per ogni A e B,

A ≡ B se e solo se |= A ↔ B.

Si noti che |= e ≡ sono segni metalinguistici, non connettivi.


Le tautologie, in particolare quelle che sono nella forma di equivalenze o
implicazioni, sono dette anche leggi logiche.
Un elenco di leggi logiche notevoli è presentato nella pagina successiva.

27
Si veda fra due pagine per la notazione.

46
Leggi logiche notevoli 1

A→A legge dell0 identità


A ↔ ¬¬A legge della doppia negazione
A∧B ↔B∧A commutatività di ∧
(A ∧ B) ∧ C ↔ A ∧ (B ∧ C) associatività di ∧
A∨B ↔B∨A commutatività di ∨
(A ∨ B) ∨ C ↔ A ∨ (B ∨ C) associatività di ∨
A∧A↔A idempotenza di ∧
A∨A↔A idempotenza di ∨
A∧B →A eliminazione di ∧
A→A∨B introduzione di ∨
A ∧ (B ∨ C) ↔ (A ∧ B) ∨ (A ∧ C) distributività
A ∨ (B ∧ C) ↔ (A ∨ B) ∧ (A ∨ C) distributività
A ∧ (A ∨ B) ↔ A legge di assorbimento
A ∨ (A ∧ B) ↔ A legge di assorbimento
¬(A ∧ B) ↔ (¬A ∨ ¬B) legge di De M organ
¬(A ∨ B) ↔ (¬A ∧ ¬B) legge di De M organ
¬A ∨ A legge del terzo escluso
¬(A ∧ ¬A) legge di non contraddizione
A → B ↔ ¬B → ¬A legge di contrapposizione
A ∧ ¬A → B Lewis, o ex falso quodlibet
A → (B → A) aff ermazione del conseguente
¬A → (A → B) negazione dell 0 antecedente
(A → B ∧ ¬B) → ¬A legge di riduzione all0 assurdo
(A → ¬A) → ¬A riduzione all0 assurdo debole
(¬A → A) → A consequentia mirabilis
((A → B) → A) → A legge di P eirce
(A → B) ∨ (B → A) legge di Dummett
A → ((A → B) → B) modus ponens
A → (B → C) ↔ B → (A → C) scambio antecedenti
(A → C) ∧ (B → C) ↔ A ∨ B → C distinzione di casi
(A → B) ∧ (¬A → B) → B distinzione di casi
(A → (B → C)) → ((A → B) → (A → C)) distributività di →
(A → B) ∧ (B → C) → (A → C) transitività di →
A → (B → C) ↔ (A ∧ B) → C importazione/esportazione
delle premesse

47
Per verificare queste leggi, dove A, B, . . . sono qualunque, si devono pri-
ma verificare le stesse nel caso particolare che A, B, . . . siano atomiche (ad
esempio p → p per la legge dell’identità), e poi sfruttare il fatto che se A[p]
è una tautologia e B è qualunque, allora anche il risultato della sostituzione
di B a p in A è una tautologia (vedi esercizi).
Per le leggi che nella tabella sono scritte come condizionali e non bicondi-
zionali, si vedrà in seguito che l’implicazione inversa in generale non sussiste
(salvo alcuni casi, ad esempio per l’inverso della riduzione all’assurdo debole
¬A → (A → ¬A), che rientra nell’affermazione del conseguente).
L’associatività della congiunzione giustifica che si possa scrivere senza
ambiguità, indipendentemente dalle convenzioni sulle parentesi, A ∧ B ∧ C
per (indifferentemente) A ∧ (B ∧ C) o (A ∧ B) ∧ C, o in generale A1 ∧ . . . ∧ An
(e lo stesso per la disgiunzione). A ∧ (B ∧ C) e (A ∧ B) ∧ C sono diverse
(si disegni il loro albero sintattico) ma si dice che sono uguali a meno di
equivalenza logica.

Anche le seguenti sono leggi logiche:

A → B ↔ ¬A ∨ B
(A ↔ B) ↔ (A → B) ∧ (B → A)
A ⊕ B ↔ (A ∧ ¬B) ∨ (B ∧ ¬A)
A ⊕ B ↔ (A ∨ B) ∧ ¬(A ∧ B).

Si noti che le due leggi per ⊕ forniscono un esempio di come una particella
logica possa essere espressa con diversi giri di frase equivalenti; queste equi-
valenze in genere mostrano cosa significa che frasi diverse vogliono dire la
stessa cosa.
Per mezzo di esse, dalle leggi elencate sopra se ne derivano altre; ad
esempio dal modus ponens e dall’esportazione, con la prima, si ricava

A ∧ (¬A ∨ B) → B sillogismo disgiuntivo.

Ma queste leggi soprattutto permettono di vedere che i connettivi ⊕, →, ↔


sono definibili in termini di ¬, ∧ e ∨.

Alcune leggi sono spesso presentate in forma di regole di inferenza; ad


esempio il modus ponens, invece che da A, A → B |= B, da

48
A, A → B
,
B
il sillogismo disgiuntivo da

A, ¬A ∨ B
B
o da

¬A, A ∨ B
,
B
l’eliminazione della congiunzione da

A∧B A∧B
e
A B
e l’introduzione della disgiunzione da

A B
e
A∨B A∨B
e altre ancora possibili.

Le regole e la loro rappresentazione grafica si interpretano nel seguente


modo. Le leggi corrispondenti permettono di asserire che se sono vere le
proposizioni sopra la riga, o premesse della regola, allora è vera anche la
proposizione sotto la riga, o conclusione. Regole d’inferenza di questo genere
si dicono corrette se le premesse implicano logicamente la conclusione - quindi
le regole sopra elencate sono corrette.
Per mezzo delle regole di inferenza si deduce una proposizione da un’altra,
o da altre date, che si chiamano assunzioni; si dice che una proposizione B si
deduce da un’altra A se A |= B e se questo fatto è riconosciuto e certificato
da una spiegazione.

49
Un modo per riconoscere la sussistenza di A |= B è quello di inserire tra A
e B altre proposizioni legate tra loro dalla relazione di premesse-conclusione
di regole corrette.

Ad esempio per stabilire

(r → p ∨ q) ∧ r ∧ ¬p |= q

si può eseguire la seguente deduzione:

(r → p ∨ q) ∧ r ∧ ¬p
r →p∨q
r
¬p
p∨q
q

usando l’eliminazione della congiunzione, il modus ponens e il sillogismo


disgiuntivo.
La relazione di conseguenza logica è evidentemente transitiva: se A |= C
e C |= B allora A |= B (esercizio).

3.2.4 Esercizi
1. Verificare con le tavole di verità le precedenti leggi logiche.

2. Spiegare perché

• Se |= A allora B |= A per ogni B.


• Se |= A allora |= A ∨ B per ogni B.
• Se |= A e |= A → B allora |= B.

3. Spiegare perché se A[p] è una tautologia, anche la proposizione che si


ottiene sostituendo p con una B qualunque è una tautologia.

4. Verificare la seguente generalizzazione delle leggi di assorbimento, che


A ≡ A ∨ C se C |= A, e che A ≡ A ∧ C se A |= C. !!!

5. Verificare che A ≡ T ∧ A se T è una tautologia e che A ≡ F ∨ A se F


è una contraddizione, e dedurlo dal risultato del precedente esercizio.

50
6. Verificare che A → B ≡ ¬(A ∧ ¬B) (sia con le tavole, sia in base alla
definizione di interpretazione).

7. Verificare che A ⊕ B è equivalente a ¬(A ↔ B), in base alla definizione


di interpretazione.

8. Verificare che |= A ⊕ ¬A.

9. Verificare che |= A ⊕ B → A ∨ B ma non viceversa.

10. Spiegare perché A → A ⊕ B non è logicamente vera.

11. Verificare che p ∨ q è equivalente a p ∨ (q ∧ ¬p) ed a p ⊕ (q ∧ ¬p).

12. Verificare che la regola del sillogismo disgiuntivo è corretta anche con
⊕ al posto di ∨.

13. Notare che ¬(A ⊕ B) ≡ ¬A ⊕ B (provare a trovare frasi in italiano che


si possono dire bene in entrambi i modi).

14. Verificare se valgono le distributive tra ∧ e ⊕.

15. Verificare se A ⊕ (B ⊕ C) ≡ (A ⊕ B) ⊕ C.

16. In base al precedente esercizio, discutere quando A1 ⊕ . . . ⊕ An è vera.

17. Verificare che ¬¬¬¬A ≡ A e che ¬¬¬¬¬¬¬A ≡ ¬A. Generalizzare.

18. Si consideri il problema del merging di due liste List1 e List2 in una
terza lista List3 (ad esempio nomi, in ordine alfabetico).
Una prima formulazione dell’algoritmo è la seguente: nello scorrere le
due liste, se List1 non è esaurita e List2 è esaurita oppure l’elemento
in considerazione di List1 precede il primo non ancora inserito di List2,
allora l’elemento di List1 è inserito in List3.
Un’altra formulazione potrebbe essere la seguente: il prossimo elemento
in List3 è preso da List1, ed è il primo elemento di List1 non ancora
inserito, quando List1 non è esaurita e List2 sı̀, oppure quando List1
non è esaurita e l’elemento in considerazione di List1 precede il primo
non ancora inserito di List2.
Usando lettere p, q, r per rappresentare rispettivamente “List1 non è
esaurita”, “List2 è esaurita” e “l’elemento di List1 precede quello di

51
List2”, scrivere le proposizioni corrispondenti alle due versioni delle
condizioni (che portano entrambe a mettere in List3 l’elemento in esame
di List1), e discutere se siano o no equivalenti, in base a quali leggi.
Si noti che ovviamente nella prima versione c’è un’ambiguità dovuta
alla presenza di congiunzione e disgiunzione; discutere le due versioni
e scegliere quella giusta.

19. Si distribuiscono carte da gioco, più di una per giocatore, e si sa che


un giocatore ha in mano un Asso o un Re. Si considerino le seguenti
due proposizioni:
A: se in mano ha un Asso, ha un 2
B: se in mano ha un Re, ha un 2.
Che cosa si può dedurre da A ⊕ B, cioè se esattamente una tra le
proposizioni A e B è vera?
Che cosa si può dedurre se entrambe le proposizioni A e B sono vere?

20. Per conquistare la principessa, Aladino deve scegliere di aprire una di


due scatole A e B; sa che in una c’è un anello di fidanzamento, nell’altra
un serpente velenoso. Sulla scatola A è scritto: “Almeno una di queste
scatole contiene un anello”; sulla scatola B è scritto: “Nella scatola
A c’è un serpente velenoso che uccide all’istante”. Ad Aladino viene
detto che o entrambe le scritte sono vere, o entrambe false. Quale
scatola apre?

21. “Se io ho ragione, tu hai torto; se tu hai ragione, io ho torto; quindi


uno di noi ha ragione”. Corretto o no? Perché?

22. “La storia insegna che non si impara niente dalla storia”. Vero o falso?
Perché?
Suggerimento. Riduzione all’assurdo debole.

3.3 Sull’implicazione
Abbiamo distinto il condizionale, che è un connettivo, o il nome di una pro-
posizione della forma A → B, dall’implicazione, che è una relazione tra
proposizioni, e non si scrive A → B ma |= A → B. “A implica B” significa
“il condizionale A → B è una tautologia”.

52
La terminologia è qualche volta ambigua perché per leggere ad esempio
una regola come il sillogismo disgiuntivo si trova anche detto “se A e ¬A ∨ B
allora B”, in alternativa a “A e ¬A ∨ B implicano B”. Se si è in un contesto
deduttivo si capisce forse che si sta parlando dell’implicazione e non leggendo
semplicemente la forma di una proposizione. L’importante ad ogni modo non
è la terminologia quanto capire la differenza.
Il soggetto di “A implica B” non è A ma A → B. Qualche volta, in
analogia al caso dell’equivalenza, si introduce un simbolo speciale per l’im-
plicazione, che assomigli a un connettivo, ad esempio A ⇒ B; il nostro
simbolo è |=.
Si dice ad esempio “il condizionale p → p ∨ q ha cinque simboli”, non
“l’implicazione p → p ∨ q ha cinque simboli”, perché l’implicazione è un
fatto che sussiste o no, e un fatto non è formato da simboli. Al massimo è
un predicato, sotto cui cadono alcuni condizionali, come in “il condizionale
p → p ∨ q è un’implicazione”. Oppure si può dire che vale l’implicazione
p → p ∨ q, ma non si parlerà ad esempio dell’implicazione p → q ∨ r, che non
è una tautologia.
Siccome purtroppo la terminologia non è uniforme, e si possono trovare
usate entrambe le parole, bisogna fare attenzione al contesto.
Nella tradizione logica, il condizionale era anche chiamato “implicazione mate-
riale”, per distinguere la relazione di conseguenza da altre forme di implicazione,
o da altri sensi del costrutto “se . . . allora”.
In effetti, il significato di “se . . . allora” è polimorfo:

• significato logico (o inferenziale):


Se tutti gli uomini sono mortali e Socrate è un uomo, allora Socrate è
mortale.

• significato definitorio:
Se è scapolo, allora non è sposato.

• significato causale:
Se si immerge una cartina di tornasole e diventa rossa, allora il liquido è un
acido.

• significato materiale:
Se la Terra vola, allora la Terra è piatta.

53
È difficile trovare qualcosa di positivo in comune tra queste diverse accezioni del
“se . . . allora”. In particolare il caso che ha sollevato maggiori discussioni è l’ultimo,
come considerare il condizionale se antecedente e conseguente sono entrambe false.
Una cosa in comune ce l’hanno, ed è che in tutte le accezioni l’unico modo
per dichiarare il condizionale falso è quello di riscontrare antecedente vera e con-
seguente falsa, anche per il significato materiale: “se la Terra è rotonda, allora il
Sole è freddo” si considera falso.
Allora il significato parziale comune si può esprimere riempiendo la tavola di
verità con i valori che sono di fatto quelli di ¬(A ∧ ¬B): !!!

Un condizionale è corretto [secondo Crisippo] se la negazione della


sua conclusione è incompatibile con la sua premessa (Sesto Empirico,
Schizzi pirroniani , II, 110-2).

Si ottiene cosı̀ quella che gli antichi chiamavano implicazione materiale:

Secondo lui [Filone di Megara] ci sono tre modi in cui un condizionale


può essere vero, e uno in cui può essere falso. Perché un condizio-
nale è vero quando inizia con una verità e termina con una verità,
come “se è giorno, è chiaro”. Ed è vero anche quando inizia con una
falsità e termina con una falsità, come “se la terra vola, la terra ha
ali”. Analogamente, è vero un condizionale che inizia con una falsità
e termina con una verità, come “se la terra vola, la terra esiste”. Un
condizionale è falso soltanto quando inizia con una verità e termina
con una falsità, come “se è giorno, è notte” (Sesto Empirico, Contro i
matematici , VIII, 113).

Con questa scelta per la tavola di → si giustifica la regola del modus ponens, che
è quello che interessa, per l’uso che se ne fa nei discorsi con “se . . . allora”.

Il motivo per cui il condizionale è difficile e controverso è che non gli si può
associare una rappresentazione mentale immediata di quello che descrive. Quando
si ascolta A ∧ B, le rappresentazioni nella mente del fatto descritto da A e di quello
descritto da B vengono fuse in un’unica rappresentazione, del fatto descritto da A∧
B, affiancandole o integrandole; anche con A ∨ B le due rappresentazioni possono
essere compresenti, con l’attenzione che si sposta dall’una all’altra e viceversa,
come se si guardassero alternativamente due quadri vicini. Con il condizionale non
è possibile avere una rappresentazione del fatto descritto da A → B, combinando
quelle relative ad A e B. Non esiste una rappresentazione unica della falsità di
A. Vengono meno perciò gli ausili dell’immaginazione e della sensibilità; l’unico
modo per dominare il condizionale è quello di imparare bene fino a interiorizzarle

54
le sue condizioni d’uso, sia il calcolo dei valori di verità sia le leggi e le regole che
lo concernono.
La definizione del condizionale tuttavia non è solo adeguata per svolgere le
dimostrazioni, grazie alla giustificazione del modus ponens, ma è anche comoda
(nella scelta di dare il valore vero quando l’antecedente è falsa) per la costruzione
generale dei linguaggi formali, e la trattazione dei quantificatori universali ristretti,
come abbiamo visto.

55
4 Insiemi e algebre di Boole
Esempi di proposizioni a cui si applicano utilmente le nozioni e le tecniche
logiche sono le formule matematiche; consideriamo dapprima formule senza
quantificatori, che sono quelle a cui gli studenti sono abituati, anzi le uniche
che sono abituati a chiamare formule. In esse compaiono le variabili x, y, . . .
Le variabili che occorrono in una formula, ad esempio x in 1 < x <
3, si chiamano anche variabili individuali, perchè prendono come valori gli
elementi dell’universo del discorso. In generale, un’asserzione in cui compare
la variabile x sarà indicata con p(x).
Una formula del genere, ad esempio 1 < x < 3, non si può dire né vera
né falsa, in quanto non è precisato se la variabile della essere intesa in senso
universale o particolare. Non la si riesce neanche a leggere in italiano: “un
numero compreso tra 1 e 3”? “i numeri compresi tra 1 e 3”? ma manca il
verbo. Non si può leggere “un numero è compreso tra 1 e 3” perché allora
come leggere 3 < x < 1? Di fronte a questa si dice “non esiste un numero
maggiore di 3 e minore di 1”, ma allora si introducono i quantificatori.
Di solito la si legge tuttavia come una proposizione che afferma qualcosa
a proposito di x, dove x denota un elemento non precisato dell’universo: “x
è compreso tra 1 e 3”; è come se fosse presente un numero incappucciato, che
dice “io sono compreso tra 1 e 3”. Se si toglie il cappuccio ed appare 2 ha
detto il vero, se appare 0, o 3 o 5 ha detto il falso.
Supponiamo che l’universo sia costituito dai numeri naturali. Se il nu-
mero incappucciato continua dicendo “quindi io sono il numero 2”, bisogna
ammettere che l’inferenza è corretta, anche senza togliergli il cappuccio. La
formula 1 < x < 3 è soddisfatta dal solo elemento 2, e possiamo affermare
1 < x < 3 → x = 2.
Se invece l’universo di discorso, che dalla formula in sé non si evince, è !!!
quello
√ dei numeri reali, la formula è soddisfatta anche da 1.1, da 1.9, da 2.5,
da 2 e da tutti gli infiniti elementi dell’intervallo (1, 3).
Le formule p(x) senza quantificatori sono usate in matematica per studiare
da quali elementi sono soddisfatte: innanzi tutto se ∀xp(x) è vero o falso,
e se ∃xp(x) è vero o falso; ma soprattutto, quando ∃xp(x) è vero, quale è
l’insieme dei valori che soddisfano p(x).
La formula 1 < x < 3 d’altra parte è un’abbreviazione per 1 < x ∧ x < 3;
perché un valore di x la soddisfi, questo valore deve soddisfare sia 1 < x sia
x < 3.
Abbiamo dunque formule che assomigliano a quelle le linguaggio propo-

56
sizionale, in quanto sono composizione mediante connettivi di formule atom-
iche, solo che queste ultime invece di lettere sono espressioni che contengono
anche x. Si potrebbe dire che si tratta di un linguaggio proposizionale ap-
plicato. Ogni volta che si dà a x un valore, nell’universo fissato, è come
assegnare il valore vero o falso alle componenti atomiche. Parleremo per
semplicità anche in questo caso per ora di proposizioni, per non complicare
la terminologia, quando applicheremo risultati della logica proposizionale,
oppure le chiameremo formule, in analogia alle formule matematiche.

4.1 Algebra degli insiemi


Se le proposizioni si riferiscono a un dominio di discorso costituito da un
insieme U , “U ” per “universo”, ad ognuna di queste proposizioni p(x) è
associato un insieme, che si può chiamare insieme di verità di p(x):

Vp(x) = {x ∈ U | p(x) è vero in U }.

Nel linguaggio insiemistico, x ∈ X significa che x è un elemento di X,


o che x appartiene a X; x 6∈ X significa che x non appartiene a X, è
un’abbreviazione per ¬ (x ∈ X).
Con la notazione {x ∈ U | p(x) è vero in U }, si indica l’insieme degli
elementi di U per cui p(x) è vero in U , o che soddisfano la condizione p(x)
in U . Talvolta si scrive anche {x ∈ U | p(x)} o addirittura {x | p(x)} se è
chiaro l’insieme ambiente U .

Con la notazione {x1 , . . . , xn } si indica l’insieme i cui elementi sono x1 ,


. . . , xn .
L’insieme {x, y} si chiama coppia (non ordinata) di x e y, che sono gli
unici elementi di {x, y}: x ∈ {x, y} e y ∈ {x, y}1 , e inoltre z ∈ {x, y} → z =
x ∨ z = y. La coppia {x, y} ha due elementi se x 6= y; altrimenti se x = y ne
ha uno solo, si indica {x} e si chiama anche insieme unitario, o singoletto di
x.
L’insieme di verità di p(x) è anche l’insieme definito da p(x) in U . Ad
esempio, se U = {a, b, c, d} e p(x) è x = a ∨ x = b, l’insieme definito da p(x)
in U è {a, b}.
1
Talvolta si scrive x, y ∈ X per “x ∈ X e y ∈ X”, quindi x, y ∈ {x, y}.

57
Se U è l’insieme dei numeri naturali e p(x) è la condizione “x è divisibile
per 2”, l’insieme di verità di p(x) è l’insieme dei numeri pari, e tale insieme
è definito dalla condizione “x è divisibile per 2”.

Un insieme di verità è un sottoinsieme di U ; si dice che X è un sottoin-


sieme di Y , o che è contenuto2 in Y , in simboli X ⊆ Y , se ogni elemento di
X è anche elemento di Y : per ogni x, se x ∈ X allora x ∈ Y .
Qualche volta, raramente, si scrive Y ⊇ X per X ⊆ Y .
Si dice che X è un sottoinsieme proprio di Y , e si scrive X ⊂ Y , se X ⊆ Y
ma X 6= Y .
Se X ⊆ Y e Y ⊆ X allora X e Y hanno gli stessi elementi; questo
per definizione significa che X = Y . Quello che caratterizza gli insiemi non
sono le loro eventuali definizioni ma i loro elementi; ad esempio l’insieme dei
triangoli con tre lati uguali e l’insieme dei triangoli con tre angoli uguali sono
lo stesso insieme. Cosı̀ pure {x, y} = {y, x}, da cui la dizione “non ordinata”
per la coppia.

Le operazioni insiemistiche principali, sui sottoinsiemi di un insieme U ,


sono le seguenti:

Complemento. Il complemento di X (rispetto a U ) è l’insieme degli elementi


di U che non appartengono a X:
∼ X = {x ∈ U | x 6∈ X}.

Differenza. La differenza di X meno Y è l’insieme degli elementi di U che


appartengono a X e non a Y :
X \ Y = {x ∈ U | x ∈ X ∧ x 6∈ Y }.

Differenza simmetrica. La differenza simmetrica di X e Y è l’insieme degli


elementi di U che appartengono a X e non a Y o a Y e non a X:
X4Y = {x ∈ U | x ∈ X ⊕ x ∈ Y }.

Intersezione. L’intersezione di X e Y è l’insieme degli elementi di U che


appartengono sia a X sia a Y :
2
Si distingue tra “essere contenuto”, che si riferisce a sottoinsiemi, ed “appartenere”,
che si riferisce ad elementi.

58
X ∩ Y = {x ∈ U | x ∈ X ∧ x ∈ Y }.

X ∩ Y si legge: “X intersezione Y ” o “X intersecato con Y ” o “l’intersezione


di X e Y ”.

Unione. L’unione di X e Y è l’insieme degli elementi di U che appartengono


ad almeno uno dei due insiemi X e Y :

X ∪ Y = {x ∈ U | x ∈ X ∨ x ∈ Y }

X ∪ Y si legge: “X unione Y ” o “X unito a Y ” o “l’unione di X e Y ”.

L’intersezione di X e Y è il più grande insieme che è contenuto sia in X


sia in Y , nel senso che

X ∩ Y ⊆ X3
X ∩Y ⊆Y

se Z ⊆ X e Z ⊆ Y allora Z ⊆ X ∩ Y

mentre l’unione di X e Y è il più piccolo insieme che contiene sia X sia Y ,


nel senso che

X ⊆X ∪Y
Y ⊆X ∪Y

se Y ⊆ X e Z ⊆ X allora Y ∪ Z ⊆ X.

Per dimostrare X ∩ Y ⊆ X ad esempio, si osservi che se x ∈ X ∩ Y allora


x ∈ X ∧ x ∈ Y , ma x ∈ X ∧ x ∈ Y → x ∈ X, quindi x ∈ X. Inoltre
x ∈ X ∧ x ∈ Y → x ∈ Y , quindi X ∩ Y ⊆ Y . In modo analogo per le altre.
Si faccia attenzione che in italiano l’unione è descritta anche con la con-
giunzione: l’unione di X e di Y contiene gli elementi di X e di Y .
3
Si noti che non occorrono parentesi perché non è possibile interpretare questa formula
come X ∩ (Y ⊆ X) in quanto si avrebbe un’operazione tra un insieme e una proposizione
- un errore di tipo, si dice in logica. Qualche volta le parentesi di mettono per agevolare
la lettura.

59
Nella proprietà di minimalità dell’unione troviamo la spiegazione dello
scambio di “e” ed “o” osservato in precedenza in certe frasi. Se si indica
con Y l’insieme delle mele, con Z l’insieme delle pere, e con X l’insieme dei
frutti, allora la frase “mele e pere sono frutti”, intesa come “le mele sono
frutti e le pere sono frutti” significa che Y ⊆ X ∧ Z ⊆ X, ma questa implica
Y ∪ Z ⊆ X, cioè che “mele o pere sono frutti”.
Viceversa, se Y ∪Z ⊆ X, allora siccome Y ⊆ Y ∪Z si ha, per la transitività
di ⊆ - vedi oltre - che Y ⊆ X e analogamente Z ⊆ X, cioè “mele o pere sono
frutti” implica a sua volta “le mele sono frutti e le pere sono frutti”.

Le operazioni insiemistiche corrispondono ai connettivi: l’appartenenza al


complemento è definita mediante la negazione, l’appartenenza all’intersezione
mediante la congiunzione, e cosı̀ via. In analogia, si possono usare le stesse
convenzioni sull’ordine di priorità dei simboli di operazione (∼, ∩, ∪) per !!!
ridurre il numero di parentesi.
Viceversa, ai connettivi proposizionali corrispondono le operazioni in-
siemistiche sugli insiemi di verità delle proposizioni componenti.

V¬p(x) = ∼ Vp(x)
Vp(x)∧q(x) = Vp(x) ∩ Vq(x)
Vp(x)∨q(x) = Vp(x) ∪ Vq(x) .

In particolare si ha Vx∈X = X.
Si può osservare allora che le operazioni non sono tutte indipendenti, ad
esempio:

X \ Y = X ∩ (∼ Y ).

Infatti

X \Y = {x | x ∈ X ∧ x 6∈ Y }
= {x | x ∈ X ∧ x ∈∼ Y }
= {x | x ∈ X ∩ (∼ Y )}
= X ∩ (∼ Y ).
Ma le mutue relazioni delle operazioni le vedremo meglio più avanti.

L’insieme vuoto ∅ è l’insieme che non ha alcun elemento, ed è un sottoin-


sieme di qualsiasi U , definito da una condizione contraddittoria qualunque:

60
∅ = {x ∈ U |p(x) ∧ ¬p(x)},
o
∅ = {x ∈ U |x 6= x}.
Se si denotasse questo insieme ∅U e si definisse ∅V = {x ∈ V | x 6= x} si
avrebbe ∅U = ∅V perché i due insiemi hanno gli stessi elementi, nessuno per
entrambi.
Caratteristica dell’insieme vuoto è che per ogni x, in qualunque U , x 6∈ ∅.
Due insiemi X e Y la cui intersezione sia vuota, X ∩ Y = ∅, cioè non
abbiano alcun elemento in comune, si dicono disgiunti .

Le relazioni tra le operazioni insiemistiche sono espresse da un gruppo di


leggi.

1 X ∩X =X idempotenza dell0 intersezione


2 X ∪X =X idempotenza dell0 unione
3 X ∩Y =Y ∩X commutatività dell0 intersezione
4 X ∪Y =Y ∪X commutatività dell0 unione
5 X ∩ (Y ∩ Z) = (X ∩ Y ) ∩ Z associatività dell0 intersezione
6 X ∪ (Y ∪ Z) = (X ∪ Y ) ∪ Z associatività dell0 unione
7 X ∩ (Y ∪ Z) = (X ∩ Y ) ∪ (X ∩ Z) distributività di ∩ rispetto a ∪
8 X ∪ (Y ∩ Z) = (X ∪ Y ) ∩ (X ∪ Z) distributività di ∪ rispetto a ∩
9 X ∩ (X ∪ Y ) = X assorbimento
10 X ∪ (X ∩ Y ) = X assorbimento
11 ∼ (∼ X) = X doppio complemento
12 ∼ (X ∩ Y ) = (∼ X) ∪ (∼ Y ) legge di De M organ
13 ∼ (X ∪ Y ) = (∼ X) ∩ (∼ Y ) legge di De M organ
14 ∼∅=U
15 ∼U =∅
16 X ∩ (∼ X) = ∅ legge dell0 inverso per ∩
17 X ∪ (∼ X) = U legge dell0 inverso per ∪
18 X ∩U =X legge dell0 elemento neutro per ∩
19 X ∪U =U
20 X ∩∅=∅
21 X ∪∅=X legge dell0 elemento neutro per ∪ .

61
Esistono altre leggi che riguardano la relazione ⊆ (alcune già menzionate),
come

22 X⊆X
23 ∅⊆X
24 X⊆U
25 X ⊆X ∪Y
26 X ∩Y ⊆X

e proprietà come

27 se X ⊆ Y e Y ⊆ Z allora X ⊆ Z
28 X ⊆ Y se e solo se X ∩ Y = X
29 X ⊆ Y se e solo se X ∪ Y = Y
30 X ⊆ Y se e solo se X ∩ (∼ Y ) = ∅
31 X ⊆ Y se e solo se ∼ X ∪ Y = U
32 se X ⊆ Y e X ⊆ Z allora X ⊆ (Y ∩ Z)
33 se Y ⊆ X e Z ⊆ X allora (Y ∪ Z) ⊆ X.

Ma non tutte sono indipendenti. La loro dimostrazione può consistere nel


mostrare direttamente che i due insiemi implicati hanno gli stessi elementi.

Esempi

3 X ∩ Y = Y ∩ X.
Dimostrazione Se x ∈ X ∩ Y , allora x ∈ X ∧ x ∈ Y ; ma per la
commutatività della congiunzione si ha allora x ∈ Y ∧ x ∈ X, quindi
x ∈ Y ∩ X. Il viceversa, partendo da x ∈ Y ∩ X, è analogo.

4 X ∪ Y = Y ∪ X.
Dimostrazione Se x ∈ X ∪ Y allora x ∈ X ∨ x ∈ Y . La conclusione
segue come sopra per la commutatività della disgiunzione. Oppure
usiamo la distinzione di casi: se x ∈ X, allora x ∈ Y ∨ x ∈ X per la
tautologia A → B ∨ A. Se x ∈ Y allora per la tautologia A → A ∨ B

62
si ha x ∈ Y ∨ x ∈ X. Quindi x ∈ X ∨ x ∈ Y → x ∈ Y ∨ x ∈ X e
X ∪ Y ⊆ Y ∪ X. Il viceversa è analogo.
5 X ∩ (Y ∪ Z) = (X ∩ Y ) ∪ (X ∩ Z).
Dimostrazione Mostriamo prima che X ∩ (Y ∪ Z) ⊆ (X ∩ Y ) ∪ (X ∩ Z).
Se x ∈ X ∩(Y ∪Z) allora x ∈ X e x ∈ Y ∪Z. Ci sono due casi: o x ∈ Y
o x ∈ Z. Nel primo caso, x ∈ X e x ∈ Y , quindi x ∈ X ∩ Y , e quindi
x ∈ (X ∩ Y ) ∪ (X ∩ Z) per la 25, che supponiamo dimostrata4 . Nel
secondo caso, x ∈ X e x ∈ Z, quindi x ∈ X ∩ Z e quindi x appartiene
a (X ∩ Y ) ∪ (X ∩ Z), per la 25 e la 4.
Si mostri ora nello stesso modo (esercizio) che (X ∩ Y ) ∪ (X ∩ Z) ⊆
X ∩ (Y ∪ Z), e l’uguaglianza è provata.
21 X ∪ ∅ = X.
Dimostrazione Se x ∈ X ∪ ∅, allora x ∈ X ∨ x ∈ ∅, ma x 6∈ ∅ quindi
per il sillogismo disgiuntivo x ∈ X. Il viceversa segue dalla 25.
24 X ⊆ U.
Dimostrazione x ∈ U → (x ∈ X → x ∈ U ) - quale legge logica
interviene?
23 ∅ ⊆ X.
Dimostrazione Per ogni x, x ∈ ∅ → x ∈ X è vera, qualunque sia X,
perché l’antecedente è falso.
17 X ∪ (∼ X) = U .
Dimostrazione Per ogni x, x ∈ X ∨ ¬(x ∈ X) è vera per la legge del
terzo escluso. Cosı̀ si dimostra ⊇, il viceversa è 24.
30 X ⊆ Y se e solo se X ∩ (∼ Y ) = ∅.
Dimostrazione Da sinistra a destra. Se x ∈ X allora x ∈ Y ; se ora
esistesse un x ∈ X ∩(∼ Y ) si avrebbe una contraddizione x ∈ Y e x ∈∼
Y . La dimostrazione è per assurdo, ma di questa forma particolare:
per dimostrare A → B si assume A ∧ ¬B. Da questa si deriva una
contradizione, quindi ¬(A ∧ ¬B), cioè A → B.
Il viceversa per esercizio.
4
La dimostrazione è implicita nella precedente dimostrazione di 4.

63
Come si vede dagli esempi, alcune proprietà delle operazioni sono di-
retta conseguenza delle omonime proprietà dei connettivi corrispondenti; dal
terzo esempio relativo alla 5 si vede anche che in dimostrazioni di questo
tipo fa comodo, per saltare qualche passaggio, fare appello ad altre delle
leggi elencate - più semplici, o intuitive o già dimostrate. Più in generale,
una volta dimostrate alcune delle suddette leggi in modo diretto, è possibile
derivare le altre in stile algebrico, usando quelle già dimostrate e le leggi
dell’uguaglianza.
Con leggi dell’uguaglianza si intendono le proprietà riflessiva, simmetrica
e transitiva di =, rappresentate dalle formule
x=x
x=y→y=x
x = y ∧ y = z → x = z,
e le proprietà di sostituzione, che sono di due tipi:
t = s → f (t) = f (s),
dove t ed s sono termini del linguaggio in uso, e f (x) un altro termine con-
tenente la x, e
t = s → (p(t) ↔ p(s)),
dove p(x) sta per una proposizione qualunque contenente x.
Queste leggi sono tacitamente usate nei passaggi di trasformazione di
formule algebriche, o di proposizioni di qualunque linguaggio che contenga
l’uguaglianza. I passaggi da un’uguaglianza ad un’altra presuppongono il
modus ponens: da t = s a f (t) = f (s) grazie a t = s → f (t) = f (s).
Nel caso delle leggi insiemistiche in esame le variabili sono X, Y, . . . invece
che x, y . . ., perché tali leggi non si riferiscono agli elementi ma ai sottoinsiemi.

Esempi
1. La 15 segue dalla 14 e dalla 11 con i passaggi

∼∅=U
∼ (∼ ∅) =∼ U
∅ =∼ U
∼ U = ∅.

64
2. La 17 segue dalla 16 e dalle 12, 14, 11, 4, nell’ordine, con i seguenti
passaggi

X ∩ (∼ X) = ∅
∼ (X ∩ (∼ X)) =∼ ∅
(∼ X) ∪ (∼ (∼ X)) = U
(∼ X) ∪ X = U
X ∪ (∼ X) = U .

3. La 18 segue da 17, 7, 1, 16 e 21 con i seguenti passaggi

X ∪ (∼ X) = U
U = X ∪ (∼ X)
X ∩ U = X ∩ (X ∪ (∼ X))
X ∩ U = (X ∩ X) ∪ (X ∩ (∼ X))
X ∩U =X ∪∅
X ∩ U = X.

4. La 31: X ⊆ Y se e solo se ∼ X ∪ Y = U , segue dalla 30 e da De


Morgan con 11 e 14.

Grazie alla validità delle leggi associative per unione e intersezione, queste
operazioni possono essere generalizzate a più di due insiemi.
Se A1 , . . . , An sono n sottoinsiemi di U , la loro unione è l’insieme i cui
elementi sono gli elementi di U che appartengono a qualche Ai , in simboli:

n
[
Ai = {x ∈ U | per qualche i, 1 ≤ i ≤ n, x ∈ Ai }
i=1

o anche
Sn S
i=1 Ai , o semplicemente Ai .

65
L’intersezione generalizzata degli n insiemi è l’insieme degli elementi che
appartengono a tutti gli Ai , in simboli:

n
\
Ai = {x ∈ U | per ogni i, 1 ≤ i ≤ n, x ∈ Ai }
i=1

o anche
Tn T
i=1 Ai , o semplicemente Ai .
Per queste operazioni generalizzate valgono molte delle leggi dell’unione
e intersezione, opportunamente riformulate, ad esempio le proprietà commu-
tativa, associativa e di assorbimento; valgono le leggi di De Morgan:
∼ ( ni=1 Ai ) = ni=1 (∼ Ai )
T S

e
∼ ( ni=1 Ai ) = ni=1 (∼ Ai ).
S T

Valgono le leggi distributive di una operazione generalizzata rispetto a una


normale (non con entrambe generalizzate):

n
\ n
\
( Ai ) ∪ B = (Ai ∪ B)
i=1 i=1
e

n
[ n
[
( Ai ) ∩ B = (Ai ∩ B).
i=1 i=1

Più in generale ancora, si definisce l’unione


S S
i∈I Ai o {Ai | i ∈ I}
per una famiglia di insiemi indiciata5 da I ponendo che
S
x ∈ i∈I Ai se e solo se esiste un i ∈ I per cui x ∈ Ai ,
e analogamente per l’intersezione. La definizione come si vede è la stessa,
con “i ∈ I” al posto di “1 ≤ i ≤ n”.
5
Si chiama cosı̀ e si indica anche con {Ai }i∈I un insieme i cui elementi corrispondono
ciascuno ad un elemento di un insieme I, detto insieme degli indici. Si veda alla fine del
paragrafo 5.

66
4.2 Algebre di Boole
Indagando la reciproca derivabilità delle varie leggi, ci si accorge che tutte
(sia quelle elencate che altre, quelle che sono valide per ogni famiglia di
sottoinsiemi di un insieme) sono derivabili dalle seguenti:

3 X ∩Y =Y ∩X commutatività dell0 intersezione


4 X ∪Y =Y ∪X commutatività dell0 unione
5 X ∩ (Y ∩ Z) = (X ∩Y)∩Z associatività dell0 intersezione
6 X ∪ (Y ∪ Z) = (X ∪Y)∪Z associatività dell0 unione
7 X ∩ (Y ∪ Z) = (X ∩ Y ) ∪ (X ∩ Z) distributività di ∩ rispetto a ∪
8 X ∪ (Y ∩ Z) = (X ∪ Y ) ∩ (X ∪ Z) distributività di ∪ rispetto a ∩
16 X∩ ∼ X = ∅ legge dell0 inverso per ∩
17 X∪ ∼ X = U legge dell0 inverso per ∪
18 X ∩U =X legge dell0 elemento neutro per ∩
21 X ∪∅=X legge dell0 elemento neutro per ∪ .

Queste leggi si chiamano assiomi delle algebre di Boole. La scelta degli


assiomi non è arbitraria (ci sono ragioni di analogia con altri sistemi di as-
siomi per altre strutture) ma non è univoca. Abbiamo visto ad esempio che
se ci fosse la 1, la 18 sarebbe superflua. L’importante è la mutua e varia in-
terderivabilità delle leggi tra loro, e che tutte le leggi valide per i sottoinsiemi
di un insieme non vuoto U siano derivabili da quelle scelte come assiomi. La
raccolta di queste negli assiomi è solo, inizialmente, una comodità mnemon-
ica.
L’insieme dei sottoinsiemi di un insieme non vuoto U , con le operazioni
∼, ∩, ∪ e gli elementi speciali ∅ e U è un particolare esempio di algebra di
Boole, che si chiama algebra di insiemi; ne vedremo altre.
Vediamo come si derivano dagli assiomi alcune delle altre leggi prima
elencate.
1 X =X ∩X
X =X ∩U per la 18
X = X ∩ (X∪ ∼ X) per la 17
X = (X ∩ X) ∪ (X∩ ∼ X) per la 7
X = (X ∩ X) ∪ ∅ per la 16
X =X ∩X per la 21.

67
2 X =X ∪X (esercizio)

20 X ∩∅=∅
X ∩ ∅ = X ∩ (X∩ ∼ X) per la 16
X ∩ ∅ = (X ∩ X)∩ ∼ X per la 5
X ∩ ∅ = X∩ ∼ X per la 1
X ∩∅=∅ per la 16.

19 X ∪U =U (esercizio).

Prima di considerare altre leggi, occorre dimostrare l’unicità degli ele-


menti neutri e del complemento. Per quello dell’intersezione, questo significa:

34 Se X ∩ Y = Y per ogni Y , allora X = U .


Dimostrazione Sostituendo U a Y si ha X ∩ U = U ma X ∩ U = X per
la 18, quindi X = U .

Per l’elemento neutro dell’unione, l’unicità significa:

35 Se X ∪ Y = Y per ogni Y , allora X = ∅ (esercizio).

L’unicità del complemento, o dell’inverso, è la proprietà che:

36 Se X ∩ Y = ∅ e X ∪ Y = U allora X =∼ Y .
Dimostrazione
X =X ∩U per la 18
= X ∩ (Y ∪ ∼ Y ) per la 17
= (X ∩ Y ) ∪ (X∩ ∼ Y ) per la 7
= ∅ ∪ (X∩ ∼ Y ) per l0 ipotesi
= (Y ∩ ∼ Y ) ∪ (X∩ ∼ Y ) per la 16
= (Y ∪ X)∩ ∼ Y per la 7
= U∩ ∼ Y per l0 ipotesi
=∼ Y per la 18,
usando anche la 3.

11 X =∼∼ X

Dimostrazione Siccome X∩ ∼ X = ∅ e X∪ ∼ X = U , per la 36 ora


vista con ∼ X al posto di Y da 16 e 17 si ha X =∼∼ X.

68
13 ∼ (X ∪ Y ) =∼ X∩ ∼ Y

Dimostrazione Per applicare la 36, facciamo vedere che

(∼ X∩ ∼ Y ) ∪ (X ∪ Y ) = U

(∼ X∩ ∼ Y ) ∩ (X ∪ Y ) = ∅.

La prima segue da questi passaggi (abbreviati, esplicitarli tutti per


esercizio, serve anche la 19 di sopra):

(∼ X∩ ∼ Y ) ∪ (X ∩ Y ) = (∼ X ∪ X ∪ Y ) ∩ (∼ Y ∪ X ∪ Y )
=U ∩U =U

e la seconda (utilizzando 20) da:

(∼ X∩ ∼ Y ) ∩ (X ∪ Y ) = (∼ X∩ ∼ Y ∩ X) ∪ (∼ X∩ ∼ Y ∩ Y )
= ∅ ∪ ∅ = ∅.

37 X ∩ Y = X se e solo se X∩ ∼ Y = ∅

Dimostrazione
X =X ∩U per la 18
= X ∩ (Y ∪ ∼ Y ) per la 17
= (X ∩ Y ) ∪ (X∩ ∼ Y ) per la 5
quindi se X∩ ∼ Y = ∅ allora X = X ∩ Y .
Viceversa se X = X ∩ Y
U = ∼X ∪ X per la 17
= ∼ X ∪ (X ∩ Y )
= (∼ X ∪ X) ∩ (∼ X ∪ Y ) per la 6
= U ∩ (∼ X ∪ Y ) per la 17
= ∼X ∪ Y per la 18
Quindi ∅ = X∩ ∼ Y per la 13 e la 15 (esercizio).

69
9 X ∩ (X ∪ Y ) = X

Dimostrazione Si noti che

X ∩ (X ∪ Y ) = (X ∩ X) ∪ (X ∩ Y ) = X ∪ (X ∩ Y )

per la 1 e la 5, per cui la 9 e la 10 si dimostrano insieme.


Per la 37 e la 13

X ∩ (X ∪ Y ) = X se e solo se X ∩ (∼ X∩ ∼ Y ) = ∅

ma X ∩ (∼ X∩ ∼ Y ) = (X ∩ ∼ X)∩ ∼ Y = ∅ ∩ ∼ Y = ∅, per
l’associatività, la commutatività e la 20.

4.2.1 Esercizi
1. Dimostrare
A ∩ (B ∪ (C \ A)) = A ∩ B
A ∩ B ∩ (A ∪ B) = A ∩ B
A ∪ (C ∩ (A ∪ B)) = A ∪ (C ∩ B)
(A \ B) ∪ (B ∩ A) = A
(A ∩ (B ∪ C)) ∩ (∼ B ∪ A) = (A ∩ B) ∪ (A ∩ C).

2. Dimostrare le proprietà 22 - 33 della relazione ⊆, a partire dagli assiomi,


usando 28 come definizione di ⊆6 .

3. Lo stesso, usando una volta 29, una volta 30 e una volta 31 come
definizione di ⊆

4. Dimostrare, a partire dagli assiomi delle algebre di Boole, tutte le altre


leggi sopra elencate per le operazioni di un’algebra di insiemi.
6
La 22 e la 27, insieme a “X = Y se e solo se X ⊆ Y e Y ⊆ X” stabiliscono che ⊆ è
una relazione di ordine parziale, secondo la definizione che sarà data nel paragrafo 5.

70
4.3 Algebra delle proposizioni
Due altre notevoli algebre di Boole sono importanti, l’algebra 2 e l’algebra
delle proposizioni.
Quando si dice che gli assiomi sopra elencati sono gli assiomi delle algebre
di Boole, non si intende che i simboli di operazioni usati nella formulazione
degli assiomi denotino le operazioni insiemistiche di unione, intersezione e
complemento; altrimenti le uniche algebre di Boole sarebbero le algebre di
insiemi. S’intende solo che siano operazioni rispettivamente binarie (le prime
due) e unaria (la terza), e che soddisfino le proprietà espresse dagli assiomi.
Può essere utile addirittura riscrivere gli assiomi con altri simboli che non
abbiamo un significato già consolidato7 :

x◦ y =y◦x commutatività
x+y =y+x commutatività
x ◦ (y ◦ z) = (x ◦ y) ◦ z associatività
x + (y + z) = (x + y) + z associatività
x ◦ (y + z) = (x ◦ y) + (x ◦ z) distributività
x + (y ◦ z) = (x + y) ◦ (x + z) distributività
x ◦ (−x) = 0 inverso
x + (−x) = 1 inverso
x◦ 1=x elemento neutro
x+0=x elemento neutro

e indicare la relazione definita da x ◦ y = x con ≤.


Si ha 0 ≤ x ≤ 1 per ogni x (esercizio). La relazione ≤ è un ordine parziale
per l’esercizio 1 di 4.3.1.
L’algebra 2 è l’algebra il cui universo è {0, 1} con 0 < 1, rappresentata
dal diagramma

1

0

dove ↑ è < e x + y = max{x, y} e x ◦ y = min{x, y}.


7
Con l’ordine di priorità −, ◦, +. ◦ è una pallina e non un punto, per distinguerla dalla
moltiplicazione.

71
L’algebra 2 è l’algebra dei valori di verità. Le sue tre operazioni sono
quelle che intervengono nel calcolo dei valori di verità di negazioni, disgiun-
zioni e congiunzioni.
Esistono altre algebre di Boole finite, come ad esempio l’algebra 4
1
% -
a b
- %
0
dove a e b sono inconfrontabili rispetto a ≤; ≤ è proprio parziale.
Esercizio: definire le operazioni in modo che questa struttura diventi
un’algebra di Boole.
Esercizio. Dimostrare che è l’algebra dei sottoinsiemi di un universo con
due elementi.
L’algebra delle proposizioni si ottiene nel seguente modo; già si sono di-
mostrate (considerando anche gli esercizi) quasi tutte le leggi logiche che
hanno lo stesso nome degli assiomi delle algebre di Boole:

A∧B ↔B∧A commutatività


A∨B ↔B∨A commutatività
A ∧ (B ∧ C) ↔ (A ∧ B) ∧ C associatività
A ∨ (B ∨ C) ↔ (A ∨ B) ∨ C associatività
A ∧ (B ∨ C) ↔ (A ∧ B) ∨ (A ∧ C) distributività
A ∨ (B ∧ C) ↔ (A ∨ B) ∧ (A ∨ C) distributività.

Le equivalenze non sono uguaglianze ma si possono trasformare in vere


uguaglianze tra (nuovi) oggetti con la seguente costruzione.
La relazione ≡ è una relazione di equivalenza, vale a dire soddisfa le
proprietà:

A≡A rif lessiva


se A ≡ B allora B ≡ A simmetrica
se A ≡ B e B ≡ C allora A ≡ C transitiva.
Si definisce allora per ogni A la classe di equivalenza di A come

72
[A] = {B | A ≡ B}

e si ha che

[A] = [B] se e solo se A ≡ B

(esercizio).
Date due proposizioni A e B, esse o sono logicamente equivalenti o no.
Nel primo caso, [A] = [B]. Nel secondo caso le due classi [A] e [B] sono
disgiunte: se infatti ci fosse un elemento C in comune, vorrebbe dire che
A ≡ C e che B ≡ C, ma allora per la transitività si avrebbe A ≡ B e
[A] = [B].
A si dice un rappresentante della classe [A]; ogni classe ha più rappresen-
tanti, anzi infiniti. Se B ∈ [A] allora B ≡ A quindi [A] = [B] e B è un altro
rappresentante di [A]. In particolare ad esempio [A] = [A∧A] = [A∧A∧A] . . .
Si possono definire tra queste classi le seguenti operazioni:

−[A] = [¬A]
[A] ◦ [B] = [A ∧ B]
[A] + [B] = [A ∨ B].

Le definizioni sono ben poste, in questo senso. Si tratta di operazioni sulle


classi, ma la loro definizione fa riferimento ad un particolare rappresentante
delle classi. Ad esempio −[A] è definita con ¬A e non ad esempio con ¬¬¬A.
Se si cambia il rappresentante di una classe, si vuole che il risultato, che è
una classe, sia lo stesso.
In effetti è cosı̀ per le operazioni sopra definite. Ad esempio se A1 ≡ A
e B1 ≡ B, siccome A1 ∧ B1 ≡ A ∧ B (esercizio - si veda anche paragrafo
6.1) si ha [A1 ] ◦ [B1 ] = [A ∧ B], cosı̀ come [A] ◦ [B] = [A ∧ B], quindi
[A1 ] ◦ [B1 ] = [A] ◦ [B].
Si giustifica in questo modo la dizione “a meno di equivalenza” con cui una
proposizione è considerata uguale ad ogni altra ad essa logicamente equiva-
lente, o almeno indistinguibile da quelle, ai fini della trattazione semantica.
Date queste definizioni, le precedenti equivalenze danno allora origine alle
uguaglianze:

73
[A] ◦ [B] = [B] ◦ [A] commutatività di ◦
[A] + [B] = [B] + [A] commutatività di +
[A] ◦ ([B] ◦ [C]) = ([A] ◦ [B]) ◦ [C] associatività di ◦
[A] + ([B] + [C]) = ([A] + [B]) + [C] associatività di +
[A] ◦ ([B] + [C]) = ([A] ◦ [B]) + ([A] ◦ [C]) distributività
[A] + ([B] ◦ [C]) = ([A] + [B]) ◦ ([A] + [C]) distributività.

Tutte le tautologie sono tra loro equivalenti, e non equivalenti a nessuna


proposizione non logicamente valida; lo stesso per le contraddizioni; denoti-
amo con 1 la classe delle tautologie, e con 0 la classe delle contraddizioni.
Allora [A] ◦ (−[A]) = [A ∧ ¬A] = 0 e [A] + (−[A]) = [A ∨ ¬A] = 1 e
possiamo quindi aggiungere:

[A] ◦ (−[A]) = 0 inverso


[A] + (−[A]) = 1 inverso
[A] ◦ 1 = [A] elemento neutro
[A] + 0 = [A] elemento neutro

completando la lista degli assiomi delle algebre di Boole.


Le ultime due leggi seguono dal fatto (o lo esprimono in altra forma) che
se T è una tautologia A∧T ≡ A e se F è una contraddizione allora A∨F ≡ A.

La relazione [A] ≤ [B] è definita da [A]◦[B] = [A], oppure dall’equivalente


[A] ◦ −[B] = 08 .
Inseriamo qui una dimostrazione dell’equivalenza tra due definizioni di
≤, dove si noterà l’analogia formale con quella fatta per 37.
Se

x◦y =x

allora

1 = x + (−x)
1 = (x ◦ y) + (−x)
1 = (x + (−x)) ◦ (y + (−x))
1 = y + (−x)
0 = x ◦ (−y).
8
O anche da [A]+[B] = [B]; a seconda dei casi converrà usare l’una o l’altra definizione.

74
Viceversa se

x ◦ (−y) = 0

allora

x=x◦1
x = x ◦ (y + (−y))
x = (x ◦ y) + (x ◦ (−y))
x = x ◦ y.

Esercizio. Dimostrare l’equivalenza con la (versione corrispondente della) 29.


Dall’equivalenza booleana delle due definizioni di ≤ si deriva la seguente
proprietà logica, che

A ≡ A ∧ B se e solo se |= A → B.

Una dimostrazione logica di questo fatto ricalca la dimostrazione algebrica


di sopra.
Allora la seguente è una deduzione del fatto che |= A → B segue da
A ≡ A ∧ B:

A ∨ ¬A
(A ∧ B) ∨ ¬A
(A ∨ ¬A) ∧ (B ∨ ¬A
B ∨ ¬A
A → B.

Ogni proposizione di questa lista o è una tautologia o segue logicamente dalle


precedenti e da A ≡ A ∧ B, quindi l’ultima è una tautologia.
Viceversa, se |= A → B, quindi A ∧ ¬B è una contraddizione

A ↔ A ∧ (B ∨ ¬B)
A ↔ (A ∧ B) ∨ (A ∧ ¬B)
A ↔ A ∧ B.

Esercizio. Dimostrare in modo analogo che A ≡ A ∨ B se e solo se |= B → A.


La corrispondenza tra le deduzioni algebriche e quelle logiche è fondata
sulla corrispondenza tra [A] ≤ [B] e |= A → B.

75
Il fatto che per ogni A, 0 ≤ [A] ≤ 1 corrisponde al fatto che una con-
traddizione implica qualsiasi proposizione, e una tautologia è implicata da
qualsiasi proposizione.
La relazione booleana ≤ ha le seguenti proprietà, che se a ≤ b allora
−b ≤ −a e per ogni c, c ◦ a ≤ c ◦ b e c + a ≤ c + b (esercizio).
Queste proprietà corrispondono per l’implicazione al fatto che se |= A →
B allora |= ¬B → ¬A e per ogni C, |= C ∧ A → C ∧ B e |= C ∨ A → C ∨ B
(esercizio).
La proprietà transitiva di ≤ corrisponde alla transitività del condizionale,
mentre la proprietà di sostituzione t = s → f (t) = f (s) corrisponde ad
un’analoga proprietà logica: se in una proposizione si sostituisce una sotto-
proposizione con una equivalente, il risultato è una proposizione equivalente
a quella iniziale.
Conviene indicare l’operazione di rimpiazzamento di una sottopropo-
sizione B con C in una proposizione A, con la notazione: A[B//C].
Si ha allora che

se B ≡ C allora A ≡ A[B//C].

Nell’esempio di sopra A ∨ ¬A ≡ (A ∧ B) ∨ ¬A poiché A ≡ A ∧ B.


Nella dimostrazione, per trattare i vari casi, si fa uso dei seguenti fatti
Per ogni A e B,
se A ≡ B, allora ¬A ≡ ¬B
se A1 ≡ A2 e B1 ≡ B2 , allora A1 • B1 ≡ A2 • B2
che si dimostrano facilmente con le tavole di verità per i vari connettivi.

4.4 Rapporti tra proposizioni e insiemi


I rapporti tra algebra degli insiemi con operazioni insiemistiche, logica propo-
sizionale con connettivi e algebra boleana sono molteplici e bidirezionali.
Sostanzialmente l’argomento è sempre lo stesso, con varianti formali, e a sec-
onda delle preferenze si può adottare l’uno o l’altro dei tipi di simbolismo
coinvolti; la familiarità con l’uno aiuta anche nello svolgimento dell’altro, ma
il ragionamento è identico.
Abbiamo visto come, per dimostrare le leggi dell’algebra degli insiemi
(cioè identità valide per tutti i sottinsiemi di un qualunque insieme non vuoto

76
U ), procedendo direttamente in base alla definizione di uguaglianza tra in-
siemi (X = Y se e solo se X ⊆ Y e Y ⊆ X) ci si riconduca ad applicare leggi
logiche a proposizioni costruite su atomiche della forma x ∈ X, x ∈ Y, . . .
Si possono anche al contrario derivare le leggi logiche dalle leggi dell’algebra
degli insiemi.
In generale due proposizioni (con o senza la x) logicamente equivalenti9
hanno lo stesso insieme di verità in ogni U .
Supponiamo infatti che p(x) sia equivalente a q(x). Allora siccome p(x) →
q(x) e q(x) → p(x) sono sempre vere, Vp(x)→q(x) e Vq(x)→p(x) sono entrambi
uguali a U ; ma siccome Vp(x)→q(x) = (∼ Vp(x) ) ∪ Vq(x) , se questo è uguale a
U allora Vp(x) ⊆ Vq(x) ; stabilito nello stesso modo il viceversa, partendo da
Vq(x)→p(x) , si ha Vp(x) = Vq(x) .
Vale anche il viceversa; diciamo che una proposizione p(x) è valida in U
se Vp(x) = U ; allora se Vp(x) = Vq(x) in U si ha che p(x) ↔ q(x) è valida in U .
Basta ripercorrere all’indietro i precedenti passaggi.
Supponiamo allora di voler dimostrare |= ¬(p ∨ q) ↔ ¬p ∧ ¬q.
Pensiamo ad un insieme qualunque U (che non c’è bisogno di precisare,
in accordo col fatto che usiamo leggi valide per insiemi qualunque). Conside-
riamo i sottoinsiemi Vp = {x ∈ U | p } e Vq = {x ∈ U | q }. Per definizione di
insieme di verità, x ∈ Vp ↔ p, cioè Vp è definito ponendo che x ∈ Vp è vero se
e solo se p è vero. Se p non contiene x, p o è vera o è falsa, indipendentemente
da x. In tal caso Vp = {x ∈ U | p } o è ∅ o è U .
Dalla definizione di insieme di verità e dalla legge insiemistica

∼ (Vp ∪ Vq ) = (∼ Vp ) ∩ (∼ Vq ),

cioè

x ∈∼ (Vp ∪ Vq ) se e solo se x ∈ (∼ Vp ) ∩ (∼ Vq ),

segue, siccome x ∈ ∼ (Vp ∪ Vq ) se e solo se ¬(p ∨ q), e analogamente per


x ∈ (∼ Vp ) ∩ (∼ Vq ), che

¬(p ∨ q) ↔ ¬p ∧ ¬q
9
Nel senso che p(x) e q(x) hanno sempre lo stesso valore di verità calcolato a partire
dalla attribuzione di 0 e 1 alle loro componenti atomiche, anche se contengono x.

77
è vero qualsiasi siano p e q, la cui verità o falsità non gioca alcun ruolo nella
dimostrazione10 .
Un altro modo più semantico è il seguente. Siccome p e q non contengono
la x, gli insiemi Vp = {x ∈ U | p } e Vq = {x ∈ U | q } come abbiamo detto
sono o ∅ o U .
Possiamo interpretare allora ∼ (Vp ∪ Vq ) = (∼ Vp ) ∩ (∼ Vq ) o direttamente
¬(p ∨ q) ≡ ¬p ∧ ¬q nell’algebra 2, riscrivendola formalmente come

−(x + y) = −x ◦ −y,

che è una legge valida in 2. Questo significa che comunque si sostituiscano i


valori 0 o 1 a x e y l’uguaglianza vale, e questo è un altro modo di dire che
comunque si diano a p e q i valori 0 o 1 si ottiene che ¬(p ∨ q) e ¬p ∧ ¬q
hanno lo stesso valore, cioè la tavola del bicondizionale ¬(p ∨ q) ↔ ¬p ∧ ¬q
ha tutti 1 nella colonna finale.

Un ragionamento semantico del genere può sostituire il modo di procedere


formale diretto, in cui una deduzione algebrica viene trasformata in una logica,
come negli esempi visti sopra; occorre prestare attenzione alle insidie delle analogie
formali quando è coinvolta la relazione ≤.
Consideriamo la seguente dimostrazione booleana di una proprietà di x ◦ y che
formalmente corrisponde alla massimalità dell’intersezione:

se z ≤ x e z ≤ y allora z ≤ x ◦ y.

Algebricamente, nel senso delle algebre di Boole, se

z ◦ (−x) = 0

z ◦ (−y) = 0

allora

z ◦ (−x) + z ◦ (−y) = 0
z ◦ (−x + −y) = 0
z ◦ −(x ◦ y) = 0
z ≤ x ◦ y.
10
Si vede in particolare che le leggi logiche dimostrate per il linguaggio proposizionale
costruito astrattamente sulle lettere, valgono anche per proposizioni contententi variabili.

78
Si conclude quindi correttamente che

z ≤x∧z ≤y →z ≤x◦y

vale in tutte le algebre di Boole.


Poiché sappiamo che ≤ corrisponde a →, siamo tentati di scrivere

|= (C → A) ∧ (C → B) → (C → A ∧ B),

ottenendo in tal modo la versione corrispondente della massimalità della congiun-


zione.
Ma questo passaggio non è corretto. Infatti se interpretiamo direttamente la
legge booleana z ≤ x ∧ z ≤ y → z ≤ x ◦ y nell’algebra delle proposizioni dobbiamo
scrivere

[C] ≤ [A] ∧ [C] ≤ [B] → [C] ≤ [A ∧ B],

che equivale a

se [C → A] = 1 e [C → B] = 1 allora [C → A ∧ B] = 1,

se |= C → A e |= C → B allora |= C → A ∧ B.

Questa affermazione è diversa e più debole di quella voluta (spiegare perché).


Per ricavare booleanamente la legge della massimalità della congiunzione ci
sono due strade. Bisogna dimostrare che è uguale a 1 l’elemento booleano cor-
rispondente alla proposizione in questione; siccome essa contiene il condizionale,
una possibilità è quella di eliminare il condizionale a favore di altri connettivi
booleani, quindi ad esempio di dimostrare che

−((−z + x) ◦ (−z + y)) + (−z + x ◦ y) = 1;

ma

(−z + x) ◦ (−z + y)) = −z + x ◦ y

per la proprietà distributiva, quindi ci si riduce a −a + a = 1, che è vero.


Altrimenti, si può associare anche al connettivo → un’operazione booleana
(non un’asserzione quale è x ◦ (−y) = 0), come per negazione, congiunzione e !!!
disgiunzione. L’operazione binaria x ⇒ y associata11 a → è introdotta come ci si
aspetta con la definizione
11
Questo è il motivo per cui non usiamo questo segno per indicare l’implicazione |= A →
B, che booleanamente corrisponde all’asserzione x ≤ y.

79
x ⇒ y = −x + y.

Si ha che x ⇒ y = 1 se e solo se x ≤ y (esercizio).


La legge proposizionale |= (C → A) ∧ (C → B) → (C → A ∧ B) si ottiene
dimostrando che

((z ⇒ x) ◦ (z ⇒ y)) ⇒ (z ⇒ (x ◦ y)) = 1

nel seguente modo:


(z ⇒ x) ◦ (z ⇒ y) = (−z + x) ◦ (−z + y)
= −z + (x ◦ y)
=z ⇒x◦y
quindi
(z ⇒ x) ◦ (z ⇒ y) = z ⇒ (x ◦ y).
Ma si noti che se a = b allora a ≤ b e quindi a ⇒ b = 1, e anche b ⇒ a = 1.
Quindi risulta dalla dimostrazione anche il viceversa, e in effetti

|= (C → A) ∧ (C → B) ↔ (C → A ∧ B).

Le mutue relazioni illustrate tra insiemi, algebre di Boole e proposizioni


che secondo gli assiomi valgono per le proposizioni scritte con i connettivi
¬, ∧, ∨ si estendono a tutte le proposizioni che contengono gli altri connettivi
che sono definibili in termini di questi, come ⊕, →, ↔.

80
5 Relazioni
5.1 Prodotto cartesiano
Un’operazione su insiemi diversa, e in un certo senso più importante di quelle
booleane è il prodotto cartesiano di due insiemi.
Si indica hx, yi la coppia ordinata di x e y, e x e y si chiamano rispettiva-
mente prima e seconda componente di hx, yi, o proiezioni. La coppia ordinata
è ben diversa dalla coppia non ordinata {x, y}, per cui vale {x, y} = {y, x}
e non ha senso parlare di primo o secondo elemento. Invece hx, yi = 6 hy, xi
a meno che non sia x = y; inoltre hx, yi = hz, ui se e solo se x = z e y = u,
cioè se le due coppie hanno uguali rispettivamente le prime e le seconde
proiezioni1 .
Il prodotto cartesiano di X e Y è

X × Y = {hx, yi | x ∈ X e y ∈ Y }.

L’operazione × è diversa da quelle booleane in quanto se anche X ⊆ U


e Y ⊆ U , X × Y non è un sottoinsieme di U ; è un insieme di elementi
strutturati, in generale un insieme più ricco; se ad esempio U è la retta
numerica2 , U × U è il piano (cartesiano), dove ogni punto è individuato dalle
sue due coordinate, che sono le due componenti della coppia, e sono dette
ascissa la prima componente, ordinata la seconda. Le coppie hx, xi formano
la diagonale di U .
Esempio Se X è {a, b, c, . . . , h} e Y è {1, 2, 3, . . . , 8}, X × Y si può
identificare con la scacchiera.
Se X e Y sono due insiemi finiti, il numero di elementi di X × Y è il
prodotto del numero di elementi di X e del numero di elementi di Y , da cui
il nome.
Il prodotto cartesiano di due insiemi non è commutativo3 .
1
Non spieghiamo l’artificio con cui si definisce la coppia ordinata; risulta tuttavia che
x e y non sono elementi di hx, yi, e infatti si chiamano componenti, o proiezioni.
2
Con “retta numerica” si intende di solito l’insieme dei numeri reali; tuttavia a seconda
del contesto può anche significare un altro sistema numerico. Ricordiamo che gli insiemi
dei numeri naturali, interi, razionali e reali si indicano usualmente con N, Z, Q, R. Se
la retta numerica è N o Z, il piano è il reticolo infinito dei punti a coordinate naturali, o
intere.
3
Non è neanche associativo, anche se X × (Y × Z) e (X × Y ) × Z possono essere messi
in corrispondeza biunivoca e identificati; quindi con una opportuna definizione delle terne

81
Il prodotto X ×X si indica anche con X 2 , e |X × ·{z
· · × X} con X n , insieme
n
delle n-uple di elementi non necessariamente distinti di X.

5.2 Relazioni
Un sottoinsieme di un insieme X × Y si chiama anche relazione tra X e Y . !!!
Se X = Y una relazione R ⊆ X × X si dice anche relazione in X.
La rappresentazione grafica usuale delle relazioni è quella per mezzo di
un diagramma cartesiano, come il seguente:

YO
· · · · · · · · ·
· · · · •· · · · ·
· · · · · · · · ·
· · · •· · · · · ·
· · · · · · · · ·
· · •· · · · · · ·
· · · · · · · · ·
2· •· · · · · · · ·
· · · · · · · · ·
•· · · · · · · · ·/ X
1

dove X = {0, . . . , 8} e Y = {0, . . . 9} e la relazione è {hx, yi | y = 2x} =


{h0, 0i, h1, 2i, h2, 4i, h3, 6i, h4, 8i}.
Se gli insiemi sono infiniti, se ne può indicare solo una porzione; ad es-
empio la diagonale

ZO
· · · · · · · · •·
· · · · · · · •· ·
· · · · · ·•· · ·
· · · · · •· · · ·
· · · · •· · · · ·/Z
· · · •· · · · ·
· · •· · · · · · ·
· •· · · · · · · ·
•· · · · · · · · ·
hx, y, zi si può definire il prodotto a tre fattori X × Y × Z, e anche quello a n fattori con
le n-uple come elementi.

82
rappresenta la relazione {hx, yi ∈ Z × Z | x = y } solo in una regione limitata
del piano a coordinate intere, ma si intende che va estesa uniformemente
all’infinito.

Esempi
La relazione di paternità è una relazione nell’insieme del genere umano,
l’insieme di tutte le coppie hx, yi dove x è un maschio che ha generato, e y
uno dei suoi figli.
La relazione di discendenza genealogica nell’insieme del genere umano è
l’insieme di tutte le coppie hx, yi dove x è un antenato (maschile o femminile)
di y.
La relazione di divisibilità4 {hx, yi ∈ N × N | x | y } tra numeri naturali
è rappresentata, nell’area limitata disegnata, dal diagramma:

NO
· •· · •· · · · · · •·
· •· •· · •· · · · •· ·
· •· · · · · · •· · ·
· •· •· •· · · •· · · ·
· •· · · · •· · · · ·
· •· •· · •· · · · · ·
· •· · •· · · · · · ·
· •· •· · · · · · · ·
· •· · · · · · · · ·
· •· •· •· •· •· •· •· •· •· /N

La relazione {hx, yi ∈ Z × Z | x = y 2 } è parzialmente rappresentata da


4
Con x | y indichiamo che esiste uno z tale che xz = y, e diciamo che x divide y o è un
divisore di y o che y è divisibile per x, o y è un multiplo di x. Con questa definizione x | 0
perché x0 = 0, mentre escludiamo 0 | 0, che pure rientrerebbe nella definizione, perché
quando si introduce la divisione si vuole l’unicità del quoziente z in xz = y, mentre 0z = 0
per ogni z.

83
ZO
· · · · · · · · · · ·
· · · · · · · · · · ·
· · · · · · · · · · ·
· · · · · · · · · •· ·
· · · · · · •· · · · ·
· · · · · •· · · · · ·/Z
· · · · · · • · · · ·
· · · · · · · · · •· ·
· · · · · · · · · · ·
· · · · · · · · · · ·
· · · · · · · · · · ·

La relazione {hx, yi ∈ Z × Z | xy = 4} è un insieme finito i cui elementi


sono tutti indicati nel grafico:

ZO
· · · · · · · · · · ·
· · · · · · •· · · · ·
· · · · · · · · · · ·
· · · · · · · •· · · ·
· · · · · · · · · •· ·
· · · · · · · · · · · /Z
· •· · · · · · · · · ·
· · · •· · · · · · · ·
· · · · · · · · · · ·
· · · · •· · · · · · ·
· · · · · · · · · · ·

mentre {hx, yi ∈ Q × Q | xy = 4} è un insieme infinito; alcuni suoi punti5


sono indicati nel grafico:
5
Le coppie ordinate che sono elementi di una relazione si chiamano anche punti, in
analogia ai punti del piano.

84
QO
· · · · · · · · · · ·
· · · · · · •· · · · ·
· · · · · · ·•• · · · ·
· · · · · · · •· •· · ·
· · · · · · · · · •· •·
· · · · · · · · · · · /Q
· •· · · · · · · · · ·
· · · ••· · · · · · · ·
· · · ·•· · · · · · ·
· · · · •· · · · · · ·
· · · · · · · · · · ·

Si dice talvolta che {hx, yi ∈ Q × Q | xy = 4} e {hx, yi ∈ Z × Z | xy =


4} sono la stessa relazione, {hx, yi | xy = 4} considerata una volta in Q
e una volta in Z. Tale modo di esprimersi non è corretto (al massimo, la !!!
seconda è una restrizione della prima), ancorché diffuso e innocuo, una volta
che si abbiano le idee chiare: uguale è la formula xy = 4 che definisce le
due relazioni, ma le relazioni in sé sono due insiemi diversi. Spesso, negli
insiemi finiti soprattutto, perché gli insiemi infiniti trattabili sono solo quelli
definibili, non c’è alcuna formula definitoria.
Ad esempio, se U = {0, 1, . . . , 9}, l’insieme {h2, 4i, h2, 6i, h2, 8i} è una
relazione in U . L’unico modo di caratterizzarla è quella di elencare le sue
coppie.

Considerare una relazione solo come l’insieme delle coppie di individui


che stanno nella relazione stessa, e non la definizione (la proprietà che lega
le componenti delle coppie), significa trattare le relazioni dal punto di vista
estensionale.
Talvolta come notazione invece di scrivere che hx, yi ∈ R si scrive anche
R(x, y), o anche x R y.

5.2.1 Esercizi
1. Disegnare in un diagramma cartesiano le relazioni (o parte di esse):
{hx, yi ∈ N × N | x2 + y 2 < 20}
{hx, yi ∈ Z × Z | x2 + y 2 < 20}
{hx, yi ∈ N × N | x < 6 ∧ y < 4}.
2. Abbiamo visto esempi di relazioni finite e infinite; come è {hx, yi ∈

85
Z × Z | xy = 12 }?

5.3 Relazioni d’ordine


Data una relazione R ⊆ X × Y si chiama dominio di R l’insieme

dom(R) = {x ∈ X | esiste un y ∈ Y tale che hx, yi ∈ R } ⊆ X

e si chiama immagine l’insieme

im(R) = {y ∈ Y | esiste un x ∈ X tale che hx, yi ∈ R } ⊆ Y .

Se R è una relazione in U si ha sia dom(R) ⊆ U sia im(R) ⊆ U . L’unione


dom(R) ∪ im(R) si chiama anche campo di R e si denota campo(R)6 .
Esempio Nella relazione di paternità il dominio è l’insieme di tutti gli
uomini che hanno generato, l’immagine l’insieme di tutti gli uomini e tutte
le donne7 .
Le relazioni si distinguono e si classificano in base ad alcune proprietà di
cui possono o no godere.
Una relazione R in un insieme U soddisfa la proprietà riflessiva se per
ogni x ∈ campo(R) hx, xi ∈ R. Invece si dice antiriflessiva se per ogni
x ∈ campo(R) hx, xi 6∈ R.
Una relazione R in un insieme U soddisfa la proprietà transitiva se per
ogni x, y, z ∈ campo(R), se succede che hx, yi ∈ R e hy, zi ∈ R allora anche
hx, zi ∈ R.
Una relazione R in un insieme U soddisfa la proprietà simmetrica se per
ogni x, y ∈ campo(R), se succede che hx, yi ∈ R allora anche hy, xi ∈ R. Una
relazione è simmetrica se è uguale alla sua simmetrica (nel piano, rispetto
alla diagonale) che si ottiene scambiando ogni coppia hx, yi con hy, xi.
Invece una relazione R si dice antisimmetrica se hx, yi ∈ R e x 6= y
implicano hy, xi 6∈ R, o in modo equivalente, per contrapposizione, se hx, yi ∈
R e hy, xi ∈ R implicano x = y.
Esempi
La relazione di paternità è antiriflessiva e non è transitiva, ed è antisim-
metrica. La relazione di discendenza è transitiva.
6
La notazione non è del tutto standard.
7
Qualcuno può non essere d’accordo sul caso critico di Adamo ed Eva, se ci crede; non
consideriamo i problemi della clonazione.

86
Le relazioni {hx, yi | xy = 4} e {hx, yi | x = y} sono simmetriche8 . La
prima non è riflessiva, ma neanche antiriflessiva. La seconda è riflessiva. La
relazione {hx, yi | x = y 2 } non è simmetrica.
La relazione di conseguenza logica, nell’insieme delle proposizioni, è rif-
lessiva (legge dell’identità) e transitiva (transitività del condizionale).

Un tipo importante di relazioni è quello costituito dalle relazioni d’ordine. !!!


Una relazione R in un insieme U si chiama relazione d’ordine se soddisfa le
proprietà riflessiva, transitiva e antisimmetrica per gli elementi nel campo(R).
Si dice anche che R è un ordine in U , un ordine del campo(R).
Per le relazioni d’ordine si suole usare il simbolo ; le condizioni a cui
deve soddisfare  sono dunque

xx
xy∧y z →xz
x  y ∧ y  x → x = y.

Se a queste si aggiunge la condizione che due elementi qualunque siano con-


frontabili:

xy∨y x

per ogni x, y ∈ campo(), che si chiama anche condizione di connessione,


allora  è un ordine totale di campo().
Altrimenti, se non è verificata la condizione di connessione, si parla di
ordine parziale.
Un insieme U si dice totalmente, o parzialmente ordinato, se esiste una
relazione  in U con campo() = U che è un ordine totale o rispettivamente
parziale. Un insieme ordinato si indica spesso con la coppia hU, i, che mette
in evidenza la relazione d’ordine.
Esempi
L’insieme N con la relazione ≤ è totalmente ordinato.
L’insieme {0, 1, . . . n} con la relazione ≤ è totalmente ordinato.
La relazione ⊆ nell’insieme dei sottoinsiemi di U è un ordine parziale.
Un albero è un insieme parzialmente ordinato.
Un ramo di un albero è un insieme totalmente ordinato, e chiuso verso il
basso9 .
8
In un insieme numerico qualunque.
9
Questo significa che se x appartiene al ramo e y  x anche y appartiene al ramo.

87
Dato un ordine  si può sempre introdurre una nuova relazione ≺ con la
definizione x ≺ y ↔ x  y ∧ x 6= y, che risulta antiriflessiva, antisimmetrica
e transitiva.
Osservazione. L’antiriflessività vale in generale per una relazione R tale
che hx, yi ∈ R → x 6= y.
Viceversa, data una relazione ≺ antisimmetrica e transitiva, si può definire
x  y ↔ x ≺ y ∨ x = y e si ha una relazione d’ordine.
Un minorante di x - rispetto a un ordine hU, i - è un elemento y ∈ U
tale che y  x. Il minorante è stretto, o proprio, se x 6= y.
Un maggiorante di x è un elemento y ∈ U tale che x  y. Il maggiorante
è stretto, o proprio, se x 6= y.
Dato un insieme totalmente o parzialmente ordinato hU, i, un elemento
x ∈ U si dice minimo - rispetto all’ordine - se x  y per ogni y ∈ U . Si dice
massimo se y  x per ogni y ∈ U .
Dato X ⊆ U , un minimo di X è un elemento x ∈ X tale che x  y per
ogni y ∈ X; simmetricamente per il massimo.
Il minimo di un insieme X è unico; analogamente il massimo.
Dato un insieme parzialmente ordinato hU, i, un elemento x ∈ U si dice
minimale - rispetto all’ordine - se non ha minoranti propri. Si dice massimale
se non ha maggioranti propri.
Se X ⊆ U , un elemento minimale di X è un elemento x ∈ X tale che
per nessun y ∈ X, y 6= x si ha y  x, cioè che non ha minoranti propri
appartenenti a X; simmetricamente per un elemento massimale. Gli elementi
minimali o massimali non sono necessariamente unici.

Esempi
La relazione d’ordine totale ≤ nell’insieme dei numeri naturali ha un min-
imo, nessun massimo. Negli altri insiemi numerici degli interi, dei razionali
e dei reali10 ≤ è un ordine totale senza né minimo né massimo.
La relazione d’ordine parziale ⊆ nell’insieme dei sottinsiemi di un insieme
U ha un massimo U e un minimo ∅. Nell’insieme dei sottoinsiemi non vuoti di
U esistono tanti elementi minimali, gli {x}, quanti sono gli elementi x ∈ U .
Nell’insieme di tutti gli insiemi contenuti sia in X sia in Y l’intersezione
X ∩ Y è il massimo.
10
I numeri complessi invece non possono essere ordinati in modo che la relazione d’ordine
sia compatibile con le operazioni, ad esempio nel senso che se x  y allora x + z  y + z.

88
In generale, in un’algebra di Boole, la relazione {hx, yi | x ◦ −y = 0} è un
ordine parziale con minimo 0 e massimo 1.

Dato un insieme X ⊆ campo(), un elemento x ∈ U , anche non apparte-


nente a X, si dice minorante di X se x  y per ogni y ∈ X; simmetricamente
per il maggiorante.
Se un insieme ha un minorante, si dice che è limitato inferiormente. Se
ha un maggiorante, si dice che è limitato superiormente.
Se esiste il minimo dell’insieme dei maggioranti di X, questo elemento di
U si chiama estremo superiore di X; il massimo dell’insieme dei minoranti,
se esiste, si chiama estremo inferiore di X.

Esempio 2 è in R l’estremo superiore dell’insieme {x ∈ Q | x2 < 2}.
Tale insieme non ha estremo superiore in Q.
Un ordine si dice discreto se per ogni elemento x che abbia maggioranti
propri esiste un elemento z, che si può chiamare successore immediato, tale
che x ≺ z e per nessun v sia x ≺ v ≺ z, e per ogni elemento x che ab-
bia minoranti propri esiste un elemento y, che si può chiamare predecessore
immediato, tale che y ≺ x e per nessun u sia y ≺ u ≺ x.
t ty x
t zt t

Esempio L’ordine dei numeri naturali e quello dei numeri interi sono
ordini discreti.
Un ordine si dice denso se dati due qualunque elementi distinti x e y, con
x ≺ y, esiste uno z tale che x ≺ z ≺ y.
Esempio L’ordine dei razionali e quello dei reali sono ordini densi.

Una relazione d’ordine totale  di un insieme U si dice un buon ordine


se ogni X ⊆ U non vuoto ha minimo. Un insieme con un buon ordine si dice
bene ordinato.
Esempi
Tipici insiemi bene ordinati sono {0, . . . , n} con la relazione ≤ e l’insieme
N = {0, . . . , n, . . .} con la stessa relazione.
L’insieme degli interi non è bene ordinato da ≤. L’insieme dei razionali
non è bene ordinato da ≤.

89
Il fatto che l’insieme dei naturali sia bene ordinato significa che al di là
della catena formata da 0 e dal successore di 0, e dal successore del successore
di 0 e cosı̀ via, non ci sono altri elementi, come sarebbe ad esempio in una
struttura del genere:
t0 t t t t t t s s s s r qq t

e questo è importante per le proprietà dei naturali che studieremo nel para-
grafo 12.
La struttura ordinata disegnata sopra ha un massimo, e certo non può
essere fatta cosı̀ una struttura con le proprietà dei numeri naturali. Ogni
elemento deve avere un successore e ogni elemento diverso da 0 un predeces-
sore. Al di là di tutti i numeri raggiungibili da 0 ci potrebbe essere ancora
ad esempio una struttura ordinata come quella degli interi; ma se ci fossero
elementi non standard ci sarebbe una catena discendente
0
t t t t t t t s s s s r qq q q q r r s

l’insieme non sarebbe bene ordinato; il sottoinsieme formato dalla catena


discendente da destra non avrebbe minimo.

5.4 Relazioni di equivalenza


L’essenziale sulle relazioni di equivalenza è stato detto a proposito dell’algebra
delle proposizioni. Ricordiamo che una relazione R in un insieme U si dice
una equivalenza se essa è riflessiva, simmetrica a transitiva, vale a dire, per
gli elementi di campo(R):
xR x
xR y → yR x
xR y ∧ yR z → xR z.
Non ci sarebbe bisogno di richiedere la riflessività in quanto essa è con-
seguenza delle altre due: infatti
xR y ∧ yR x → xR x,
quindi basta che x sia in relazione R con un elemento qualsiasi11 , xRy o yRx,
e lo è se x è nel campo, perché xR x. Tuttavia si menziona la riflessività per
la sua importanza.
11
Se c’è solo x nel campo di R, allora deve già essere xR x.

90
Esempi

1. La relazione di uguaglianza è una equivalenza.

2. Nell’insieme U = {a, b, c, d, e} la relazione

R = {ha, ai, hb, bi, hc, ci, hd, di, he, ei,
ha, bi, hb, ai, ha, ci, hc, ai, hb, ci, hc, bi,
hd, ei, he, di}

è una relazione di equivalenza, rappresentata dal seguente diagramma.

UO
e· · · •· •·
d· · · •· •·
c•· •· •· · ·
b•· •· •· · ·
a•· •· •·c · ·e/ U
b d

3. Nel dominio degli interi, la relazione di congruenza x ≡ y (mod p),


p ≥ 2, che vale se la differenza x − y è divisibile per p, è una relazione
di equivalenza12 .

4. La relazione di parallelismo tra rette in un piano è una relazione di


equivalenza.

5. La relazione di similitudine tra triangoli è una equivalenza.

6. La relazione di equivalenza logica è una equivalenza.

Data una relazione di equivalenza R in un insieme U = campo(R), si


definisce per ogni x ∈ U la classe di equivalenza di x come

[x] = {y ∈ U | xR y }
12
x ≡ y (mod p) si legge“x congruo a y modulo p”.

91
e x si chiama rappresentante della classe [x].
Date due classi [x] e [y ], queste o sono uguali (hanno gli stessi elementi)
o sono disgiunte. Se xR y, allora ogni z ∈ [x], essendo xR z, è anche zR y,
quindi z ∈ [y], e viceversa. Allora x e y sono due diversi rappresentanti della
stessa classe.
Se x non sta nella relazione R con y, allora non ci può essere uno z ∈
[x] ∩ [y ], altrimenti si avrebbe zR x e zR y, e quindi xR y.
L’insieme U è ripartito dalla relazione di equivalenza R in una famiglia
di insiemi disgiunti, di cui U è l’unione. Una tale famiglia si chiama appunto
partizione di U .

Esempi
Per la relazione dell’esempio 2 di sopra, [a] = [b] = [c] = {a, b, c} e
[d] = [e] = {d, e}. Nel grafico si vedono i due agglomerati di punti che
formano le due classi disgiunte.
Per la relazione di congruenza x ≡ y (mod 2) ci sono due classi, quella
dei numeri pari e quella dei numeri dispari.

L’insieme {[x] | x ∈ U } delle classi di equivalenza di un insieme U ,


rispetto alla relazione R, è detto il quoziente di U rispetto ad R, ed è indicato
con U/R .
Il quoziente dell’insieme dei numeri naturali rispetto a x ≡ y (mod 2) è
l’insieme {0, 1}.
Se si definiscono operazioni e relazioni nel quoziente, a partire da oper-
azioni e relazioni tra gli elementi di U , occorre sempre fare attenzione che
siano bene definite, vale a dire che, nel caso di operazioni ad esempio, la classe
risultante non dipenda dalla scelta dei rappresentanti delle classi argomento.

Esempio Nel quoziente degli interi rispetto alla relazione x ≡ y (mod p),
che si indica Zp , si definisce la somma +p con13

[x] +p [y] = [x + y],

e analogamente il prodotto, rendendo possibile la cosiddetta aritmetica mod-


ulare.
L’operazione +p è ben definita perché se [x1 ] = [x] e [y1 ] = [y ], allora
x = mp+r, y = np+s e x1 = m1 p+r e y1 = n1 p+s; quindi (x+y)−(x1 +y1 ) =
13
Usiamo questo segno per distinguere la somma delle classi dalla somma degli interi.

92
(m + n − m1 − n1 )p è divisibile per p e x + y e x1 + y1 appartengono alla
stessa classe.
Nella congruenza (mod 2), in Z2 , 1 +2 1 = 0 corrisponde al fatto che la
somma di due dispari qualunque è pari.

5.5 Funzioni
Una relazione R si dice funzionale se per ogni x ∈ dom(R) esiste un solo y
tale che hx, yi ∈ R.
Una relazione funzionale R tra X e Y si dice anche una funzione tra X
e Y , o una funzione da dom(R) in Y . Se si parla di una funzione da X in Y
s’intende che il suo dominio è tutto X.
Per le funzioni si usano di solito i simboli f, g, . . .. Se f è una funzione
da X in Y si scrive anche

f : X −→ Y .

Se hx, yi ∈ f , si scrive y = f (x) e si dice che y è il valore di f per l’argomento


x, o l’immagine di x mediante f .
Sinonimi per “funzione” sono “applicazione”, “mappa” o “corrispondenza”.
Si dice pure che y corrisponde a x o che è il valore associato all’argomento
x, e talvolta si scrive f : x 7→ y per y = f (x).
Se Z ⊆ X, l’immagine di Z mediante f è l’insieme delle immagini f (y),
per ogni y ∈ Z: {f (y) | x ∈ Z}.
Tale insieme si indica anche con f “Z, non con f (Z), ché Z 6∈ dom(f ). !!!
Se y ∈ im(f ), l’insieme {x ∈ X | f (x) = y} si chiama controimmagine
di y e si indica f −1 (y). f −1 (y) è un insieme, e in generale con più di un
elemento.
Un modo abbreviato di presentare una funzione è quello di scrivere la
formula che definisce la relazione, ad esempio si parla della funzione y = x2 ,
ma occorre allora precisare a parte il dominio e l’immagine della funzione.
Una funzione f : X −→ Y si dice iniettiva o uno-uno se a elementi diversi
corrispondono valori diversi: x 6= y → f (x) 6= f (y).
Una funzione iniettiva si indica talvolta con la notazione:

f : X ,→ Y .

93
Se una funzione f è iniettiva, per ogni y ∈ im(f ) f −1 (y) ha un solo elemento
x che si chiama lui controimmagine di y. Quindi f −1 è una funzione, con
dominio im(f ).
Viceversa, se ogni f −1 (y) ha un solo elemento, per y ∈ im(f ), f è iniettiva.
Una funzione f : X −→ Y si dice suriettiva, o sopra se Y = im(f ),
ovvero se per ogni y ∈ Y esiste almeno un x ∈ X tale che y = f (x).
Esempi
La funzione
f : Z −→ Z
x 7→ 2x
è iniettiva, non suriettiva.
La funzione
f : Q −→ Q
x 7→ 2x
è iniettiva e suriettiva.
La funzione
f : Q −→ Q
x 7→ x2
non è iniettiva e non è suriettiva, cosı̀ come14
f :Rp−→ R
x 7→ |x|.
La funzione
f : R −→ R
x 7→ x3 − x.
invece non è iniettiva ma è suriettiva.
La corrispondenza definita da x 7→ x1 , o dalla formula y = 1
x
, definisce
una funzione tra Q e Q il cui dominio è Q \ {0}:

f : Q \ {0} −→ Q
x 7→ x1
14
√ p
Se x è presa col segno positivo; altrimenti {hx, yi | y = |x|} non è una funzione.

94
è iniettiva e non è suriettiva.
La funzione
f : Q \ {0} −→ Q \ {0}
x 7→ x1
è iniettiva e suriettiva.
Una funzione f : X −→ Y che sia iniettiva e suriettiva si dice biiettiva, o
una biiezione tra X e Y o una corrispondenza biunivoca tra X e Y .
Se X = Y si parla di una biiezione di X in sé.
Esempi
La funzione
f : Q −→ Q
x 7→ 2x
è una biiezione di Q in se stesso.
La funzione
f : Z −→ Z
x 7→ 2x
è invece solo una iniezione di Z in sé.
La funzione
f : Q \ {0} −→ Q \ {0}
x 7→ x1
è una biiezione di Q \ {0} in sé..
La funzione che a ogni i < n associa i + 1 e a n associa 0 è una biiezione
di {0, 1, . . . , n} in sé.
Le biiezioni di un insieme finito in sé si chiamano permutazioni dell’insieme.
Il concetto di “funzione” è molto comodo per definire o collegare diversi
altri concetti matematici; abbiamo visto quello di “permutazione”; le se-
quenze ha0 , . . . , an i di elementi di X si possono definire come funzioni da
{0, 1, . . . , n} in X; le disposizioni di X a n elementi, se X ha più di n el-
ementi, sono le funzioni iniettive da {0, 1, . . . , n} in X; un insieme {ai }i∈I
indiciato da I è l’immagine di una funzione da I nell’insieme cui apparten-
gono gli ai ; un sottoinsieme X ⊆ U è anche uguale a c−1 X (1), dove cX è la
funzione caratteristica di X, cioè la funzione U −→ {0, 1} definita da

95

1 se x ∈ X
cX (x) =
0 se x ∈
6 X,
e cosı̀ via, tutte le nozioni matematiche si possono esprimere in termini in-
siemistici.

Se per una funzione f : X −→ Y il dominio è un prodotto cartesiano


X = V × W , allora si dice che la f è una funzione di due variabili, o di due
argomenti, e per ogni hv, wi ∈ V × W il valore di f si indica con f (v, w).
Analogamente se il dominio è un prodotto di più di due fattori. Per una
funzione f di n argomenti il valore della funzione per la n-upla hx1 , . . . , xn i
si indica con f (x1 , . . . , xn ).

96
6 Forme normali
Dopo aver imparato le definizioni riguardanti la semantica delle proposizioni,
e alcune prime tecniche per stabilire in particolare se sono tautologie, sia di-
rettamente con il calcolo del valori di verità sia deducendole da altre con
passaggi logici o algebrici booleani, passiamo a porci alcuni problemi meta-
teorici sul linguaggio proposizionale.

6.1 Definibilità dei connettivi


Ad ogni proposizione è associata una tavola di verità, come abbiamo visto
negli esempi di 3.3.1. Viceversa, data una qualunque tavola di verità, come
ad esempio

p q r ?
0 0 0 1
0 0 1 1
0 1 0 1
0 1 1 1
1 0 0 0
1 0 1 0
1 1 0 0
1 1 1 0

esiste una proposizione scritta utilizzando soltanto i connettivi ¬, ∧, ∨ che


ha quella data come sua tavola di verità associata.
La proposizione si costruisce nel seguente modo, appoggiandosi come es-
empio alla tavola di sopra. Sarà una disgiunzione con tanti disgiunti quante
sono nella tavola le righe che hanno il valore 1, quindi A1 ∨ A2 ∨ A3 ∨ A4 ;
ogni disgiunto Ai dovrà essere vero solo per l’interpretazione della riga cor-
rispondente; la riga assegna valori 0,1 alle lettere, quindi 1 a certe lettere e
1 alle negazioni di certe altre lettere; una congiunzione è vera se e solo se
tutti i congiunti sono veri; Ai potrà quindi essere una congiunzione di tante
proposizioni quante sono le colonne di entrata della tavola, nell’esempio 3,
e ciascuna di queste proposizioni sarà una lettera o la negazione di quella
lettera a seconda che nella riga corrispondente la lettera abbia il valore 1
oppure 0. Quindi
(¬p ∧ ¬q ∧ ¬r) ∨ (¬p ∧ ¬q ∧ r) ∨ (¬p ∧ q ∧ ¬r) ∨ (¬p ∧ q ∧ r).

97
Per le proprietà della valutazione della disgiunzione e congiunzione - che una
disgiunzione è vera se e solo se almeno un disgiunto è vero, e una congiunzione
se e solo se tutti i congiunti sono veri - e della negazione, si può facilmente
vedere procedendo al contrario che la tavola associata a questa proposizione
è uguale alla tavola data, che era la tavola di p ∨ q → ¬p ∧ (q → r). 2

Il risultato si esprime anche dicendo che tutte le funzioni di verità sono


definibili in termini dell’insieme di connettivi {¬, ∧, ∨}, o che questo è un
insieme adeguato di connettivi. Questo significa che non si è perso nulla, !!!
quanto a capacità espressiva, non ammettendo nell’alfabeto altri connettivi,
ad esempio quello per la duplice negazione “né . . . né”; se avessimo introdotto
un connettivo ↑ o nor per questa combinazione di proposizioni, con la tavola

A B A↑B
0 0 1
0 1 0
1 0 0
1 1 0

a posteriori potremmo ora sostituire ogni occorrenza della proposizione p ↑ q


con l’equivalente ¬p ∧ ¬q 1 .
Si faccia attenzione a cosa significa che un simbolo è definibile, a differenza !!!
ad esempio dalla definibilità di un insieme.
Un insieme X ⊆ U è definibile in U se X è l’insieme di verità in U di una
formula.
Un simbolo di operatore binario • si dice definibile (in termini di altri) se
p • q ↔ A(p, q) oppure p • q = A(p, q), a seconda che p • q sia una formula
oppure un termine, dove A è un’espressione che non contiene • e contiene
solo gli altri simboli o nozioni nei termini dei quali • si dice definito.
S’intende che il bicondizionale o l’uguaglianza definitorie devono essere
valide nel contesto in esame: in logica sarà |= p • q ↔ A(p, q), mentre una
uguaglianza p • q = A(p, q) deve essere dimostrata nella relativa teoria, arit-
metica o algebra o altro.
Analogamente se il numero di argomenti è diverso da 2.
1
Se c’è una sola riga con valore 1, la proposizione costruita come detto sopra è della
forma A1 , dove A1 è una congiunzione. Si può dire tuttavia che anche in questo caso la
proposizione associata alla tavola è una disgiunzione, pensando che A1 ≡ A1 ∨ A1 .

98
Ad esempio in geometria piana per due rette “r//s ↔ r e s non si
intersecano”, in aritmetica “x | y ↔ esiste uno z per cui xz = y”, o
il simbolo di potenza al quadrato “x2 = x · x”, nell’algebra degli insiemi
“X \ Y = X∩ ∼ Y ”.
Ma il precedente risultato dice anche che gli stessi connettivi del lin-
guaggio proposizionale sono sovrabbondanti, perché {¬, ∧, ∨} è adeguato, e
neanche il più ridotto possibile. Quando un sistema adeguato è minimale,
nel senso che nessun suo sottoinsieme proprio è ancora adeguato, si chiama
una base, in analogia con le basi degli spazi vettoriali (si vedano gli esercizi).
Si ha che p ⊕ q risulta equivalente a (¬p ∧ q) ∨ (p ∧ ¬q), e p → q ≡
(¬p ∧ ¬q) ∨ (¬p ∧ q) ∨ (p ∧ q) e analogamente p ↔ q (esercizio).
Ognuna di queste equivalenze comporta l’eliminabilità del connettivo
definito, cioè che all’interno di una proposizione una sottoproposizione, ad
esempio della forma A → B, può essere rimpiazzata dalla proposizione equiv-
alente (¬A ∧ ¬B) ∨ (¬A ∧ B) ∨ (A ∧ B).

6.1.1 Esercizi
1. Dimostrare che {¬, ∧} e {¬, ∨} sono due basi di connettivi, definendo
la disgiunzione nel primo e la congiunzione nel secondo.

2. Dimostrare che {¬, →} è una base di connettivi.

3. Dimostrare che il connettivo “né . . . né” da solo costituisce una base,


definendo in termini di esso la negazione e la congiunzione.

4. Scrivere la funzione di verità del connettivo ↓ o nand, “non entrambe”,


o “non sia . . . sia”, e dimostrare che costituisce da solo una base di
connettivi.

5. Esaminare tutte le tavole di verità a una entrata, e spiegare perché non


esiste un connettivo per “è necessario che”.

6. Discutere se è possibile ripetere la trattazione di questo paragrafo con ⊕


al posto di ∨ (cioè associare a ogni tavola una proposizione con ¬, ∧, ⊕
che abbia quella data come sua tavola di verità).
L’insieme {¬, ∧, ⊕} è adeguato? E {¬, ⊕}? E {⊕, ∧}?

99
6.2 Forme normali disgiuntive
La proposizione costruita a partire da una tavola di verità nel modo sopra
descritto ha una forma particolare. Si chiami letterale una proposizione che
sia o una lettera p, letterale positivo, o la negazione di una lettera ¬p, letterale
negativo.
La proposizione associata alla tavola ha dunque la forma di una disgiun-
zione di congiunzioni di letterali. Una tale forma di chiama forma normale
disgiuntiva. Poiché è evidente che

Osservazione 6.2.1 Per ogni A e B che contengano le stesse lettere,

A ≡ B se e solo se A e B hanno la stessa tavola di verità

si può concludere che

Teorema 6.2.1 Per ogni proposizione A esiste una proposizione con le stesse
lettere che è in forma normale disgiuntiva ed è logicamente equivalente ad A.

Dimostrazione. Come nell’esempio di sopra, data A si calcoli la sua tavola,


quindi si costruisca la proposizione in forma normale disgiuntiva associata
alla tavola.
Nel caso che la tavola di A non abbia alcun 1 nella colonna dei valori,
quindi che A sia una contraddizione, la proposizione equivalente in forma
normale disgiuntiva si può scrivere nella forma (¬p ∧ p) ∨ . . . ∨ (¬q ∧ q) come
disgiunzione di contraddizioni elementari, una per ogni lettera di A. 2

Anche una proposizione come ¬p ∨ q è in forma normale disgiuntiva,


perchè il concetto di congiunzione e disgiunzione è usato ovviamente in senso
generalizzato, ammettendo due o più componenti, o anche una sola2 . Le
proposizioni in forma normale disgiuntiva associate a tavole di proposizioni
non contraddittorie hanno l’ulteriore proprietà che in ogni disgiunto com-
paiono le stesse lettere, e che in ogni congiunzione ogni lettera compare una
sola volta, o positiva o negata3 . Qualche volta si usa l’aggettivo regolare per
indicare questa caratteristica delle forme normali. Una proposizione in forma
normale disgiuntiva regolare permette di leggere direttamente i modelli della
proposizioni, uno per ogni disgiunto:
2
Vedi anche la nota 1 del paragrafo.
3
Questa disgiunzione nel testo è esclusiva.

100
(¬p ∧ q) ∨ (p ∧ ¬q)

ha due modelli, i1 (p) = 0 e i1 (q) = 1, e i2 (p) = 1 e i2 (q) = 0.


Tale possibilità di lettura dei modelli sussiste peraltro anche per le forme
normali disgiuntive non regolari, considerando però le interpretazioni come
definite in modo arbitrario sulle lettere che non occorrono in alcuni disgiunti:

(¬p ∧ q) ∨ p

ha tre modelli: da ¬p ∧ q viene i1 (p) = 0 e i1 (q) = 1, e da p viene i(p) = 1,


che però ne riassume due: i2 (p) = 1 e i2 (q) = 1, e i3 (p) = 1 e i3 (q) = 0.
Qualche volta, sempre per le forme non regolari, disgiunti diversi hanno
modelli in comune; e ovviamente se in una congiunzione occorre sia una
lettera sia la sua negazione quella congiunzione non ha modelli.

6.3 Forme normali congiuntive


Un altro modo di associare a una tavola una proposizione scritta solo con
i connettivi ¬, ∧ e ∨ è il seguente, dove sono scambiati i ruoli di 0 e 1 e
di congiunzione e disgiunzione: si cerca ora una proposizione che sia falsa
esattamente nei casi prescritti dalla tavola data. In riferimento allo stesso
esempio di prima, la proposizione deve essere falsa solo ed esattamente in
corrispondenza alle ultime quattro righe della tavola, sarà perciò una con-
giunzione A5 ∧ A6 ∧ A7 ∧ A8 , e ogni Ai sarà la disgiunzione di tre letterali,
ogni letterale positivo o negativo a seconda che nella riga in questione la !!!
lettera abbia il valore 0 oppure 1. Quindi:

(¬p ∨ q ∨ r) ∧ (¬p ∨ q ∨ ¬r) ∧ (¬p ∨ ¬q ∨ r) ∧ (¬p ∨ ¬q ∨ ¬r).

Per confermare che questa proposizione ha la tavola data come sua tavola di
verità occorre questa volta ricordare che una congiunzione è falsa se e solo
se una delle proposizioni congiunte è falsa, e che una disgiunzione è falsa se
e solo se tutte le proposizioni disgiunte sono false.
Una proposizione che sia una congiunzione di disgiunzioni di letterali si
dice in forma normale congiuntiva.

Esempio La forma normale congiuntiva di p → q, applicando il proced-


imento descritto, è ¬p ∨ q, che è forma congiuntiva, se si considera, come si
considera, la congiunzione in senso generalizzato; ¬p ∨ q è dunque in forma
sia congiuntiva sia disgiuntiva.

101
Come sopra, risolvendo a parte anche il caso in cui nella tavola non ci
siano 0, si ha:

Teorema 6.3.1 Per ogni proposizione A esiste una proposizione con le stesse
lettere che è in forma normale congiuntiva ed è equivalente ad A.

Le forme normali, non necessariamente regolari, sono convenienti per verifi-


care in modo efficiente (alla sola scansione e ispezione della lista) la validità !!!
logica o l’insoddisfacibilità, ma ciascuna forma è adeguata solo per una delle
due proprietà.

Teorema 6.3.2 Una proposizione in forma normale congiuntiva è una tau-


tologia se e solo se in ogni sua clausola c’è una lettera che occorre sia positiva
sia negata.
Una proposizione in forma normale disgiuntiva è insoddisfacibile se e solo
se in ogni suo disgiunto c’è una lettera che occorre sia positiva sia negata.

Dimostrazione. Per le forme congiuntive, una clausola in cui occorra una


lettera e la negazione della stessa lettera è una tautologia, e una congiunzione
è una tautologia se e solo se lo sono le sue componenti. Una clausola in cui
non si verifichi la presenza di una lettera e della sua negazione può assumere
il valore 1 se a tutti i letterali si assegna il valore 1 interpretando a 1 le lettere
dei letterali positivi e a 0 le lettere dei letterali negativi.
Un ragionamento analogo vale per le forme disgiuntive. 2

Si noti che due proposizioni equivalenti non debbono necessariamente


avere le stesse lettere, ad esempio q ∧ (¬p ∨ p) è equivalente a q, e ¬p ∨
p è equivalente a q → q (sono tutt’e due tautologie); quando si controlla
che per ogni interpretazione le due proposizioni hanno lo stesso valore si
considerano interpretazioni definite sull’insieme più ampio di lettere, ma si
possono trascurare in una proposizione i valori delle lettere non occorrenti.
Le proposizioni in forma normale che si ottengono da una tavola non sono
sempre le più semplici possibili. Se ad esempio il criterio che interessa è quello
della lunghezza, la forma ¬p ∨ q, è preferibile alla forma normale disgiuntiva
regolare che si ottiene dalla tavola del condizionale. A ¬p ∨ q si può passare
dalla forma normale disgiuntiva regolare (¬p ∧ ¬q) ∨ (¬p ∧ q) ∨ (p ∧ q) con i
seguenti passaggi:

102
(¬p ∧ ¬q) ∨ (¬p ∧ q) ∨ (p ∧ q)
(¬p ∧ (¬q ∨ q)) ∨ (p ∧ q)
¬p ∨ (p ∧ q)
(¬p ∨ p) ∧ (¬p ∨ q)
¬p ∨ q

applicando le leggi distributive e la semplificazione delle tautologie (si noti


che la seconda proposizione non è in forma normale).
Come mostra l’esempio, esistono quindi diverse forme normali disgiuntive
(e lo stesso per le congiuntive) equivalenti a una data proposizione; si parlerà
perciò solo impropriamente della forma normale disgiuntiva (o congiuntiva)
di una proposizione A, ma si userà ugualmente tale dizione, intendendola a
meno di equivalenza logica; si chiamerà in tal modo una qualunque forma
normale disgiuntiva (o congiuntiva) che sia equivalente ad A4 , e si potrà
anche scrivere, se conveniente, dnf(A) (rispettivamente cnf(A)).

Il risultato generale che ogni proposizione è equivalente a una propo-


sizione in forma normale disgiuntiva o congiuntiva si può ottenere anche ap-
plicando un algoritmo forma normale di trasformazioni successive come
nell’esempio di sopra per il condizionale.
Il procedimento è il seguente:

• eliminare ⊕, ↔ e →

• spostare ¬ verso l’interno con le leggi di De Morgan

• cancellare le doppie negazioni, con la legge della doppia negazione

• cancellare le ripetizioni, con le leggi di idempotenza

• applicare ripetutamente le leggi distributive.

L’ultima indicazione può sembrare vaga, ma si può rendere più precisa e


deterministica. Con i passi precedenti si è ottenuta una proposizione equiv-
alente che è formata a partire da letterali con applicazioni ripetute di ∧
e ∨, anche se non necessariamente nell’ordine che produce una forma nor-
male. Supponiamo di volerla trasformare in forma normale congiuntiva (per
4
Non necessariamente con le stesse lettere, come mostra l’esempio delle due forme
normali disgiuntive p ∨ (q ∧ ¬q) ≡ p.

103
la forma normale disgiuntiva il procedimento è lo stesso con scambiati i ruoli
di ∧ e ∨).
Consideriamo il connettivo principale della proposizione; se è ∧, passiamo
alle due sottoproposizioni immediate trasformandole separatamente con il
procedimento sotto descritto5 e facendo alla fine la congiunzione delle due
forme congiuntive cosı̀ ottenute; se è ∨, e la proposizione è della forma A ∨ B,
è necessaria qualche preparazione.
Se in A non occorresse per nulla ∧, potremmo lavorare su B come detto
sotto, dopo aver fatto, per la precisione, lo scambio con B ∨ A. Possiamo
allora supporre che A sia della forma C ∧ D, perché se A a sua volta fosse
una disgiunzione C ∨ D, potremmo considerare al suo posto l’equivalente
C ∨ (D ∨ B) e andare a cercare ∧ in C, oppure in D dopo aver fatto lo
scambio con l’equivalente D ∨ (C ∨ B).
La proposizione data si trasforma allora nella equivalente (C ∨B)∧(D∨B)
e possiamo applicare ricorsivamente il procedimento alle due proposizioni più
corte C ∨ B e D ∨ B. Quando procedendo in questo modo si è portato il
connettivo ∧ a legare solo letterali a sinistra di B, si passa a lavorare nello
stesso modo su B.

Esempio Da
(p → q) → (r ∨ ¬p)
¬(p → q) ∨ (r ∨ ¬p)
¬(¬p ∨ q) ∨ (r ∨ ¬p)
(¬¬p ∧ ¬q) ∨ (r ∨ ¬p)
(p ∧ ¬q) ∨ (r ∨ ¬p),
che è in forma normale disgiuntiva
(p ∧ ¬q) ∨ r ∨ ¬p
con due disgiunti unitari r e ¬p. Se invece si vuole la forma normale con-
giuntiva, si continua con
(p ∨ (r ∨ ¬p)) ∧ (¬q ∨ (r ∨ ¬p))
(p ∨ r ∨ ¬p) ∧ (¬q ∨ r ∨ ¬p).

Esempio Trasformare la forma normale disgiuntiva (p ∧ ¬q) ∨ (¬p ∧ q)


in forma normale congiuntiva:
5
L’algoritmo che stiamo presentando è ricorsivo - si veda il paragrafo 12.

104
(p ∧ ¬q) ∨ (¬p ∧ q)
(p ∨ (¬p ∧ q)) ∧ (¬q ∨ (¬p ∧ q)).
Il primo congiunto si trasforma in
(p ∨ ¬p) ∧ (p ∨ q),
il secondo in
(¬q ∨ ¬p) ∧ (¬q ∨ q),
quindi la proposizione in
(p ∨ ¬p) ∧ (p ∨ q) ∧ (¬q ∨ ¬p) ∧ (¬q ∨ q),
da cui si possono ancora eliminare le tautologie, ottenendo
(p ∨ q) ∧ (¬q ∨ ¬p).
Non è detto che questo procedimento, che ha il merito di far vedere
la terminazione del compito, se lo si segue come filo d’Arianna, sia sem-
pre il più efficiente; può essere utilmente integrato con l’applicazione in
itinere dell’eliminazione delle ripetizioni, e con l’eliminazione delle tautolo-
gie dalle congiunzioni, e della contraddizioni dalle disgiunzioni, ogni volta
che sia possibile; sono utili le leggi di assorbimento ed equivalenze come !!!
¬(A → B) ≡ A ∧ ¬B; oppure ci sono scorciatoie come quando, volendo mi-
rare a una forma congiuntiva, si incontra una sottoproposizione della forma
(A ∧ B) ∨ (C ∧ B) che conviene rimpiazzare direttamente con (A ∨ C) ∧ B.

Esempio Trasformare (¬p ∧ q) ∨ (¬q ∧ ¬p) in forma normale congiuntiva.


Con la distributività (e la commutatività) si ottiene subito
¬p ∧ (q ∨ ¬q)
e quindi ¬p.
Applicando invece l’algoritmo forma normale si ottiene
((¬p ∧ q) ∨ ¬q) ∧ ((¬p ∧ q) ∨ ¬p).
Il secondo congiunto è equivalente a ¬p per assorbimento; il primo è equiva-
lente a (¬p ∨ ¬q) ∧ (q ∨ ¬q), quindi a ¬p ∨ ¬q, e in definitiva

(¬p ∨ ¬q) ∧ ¬p,

105
che per l’assorbimento è equivalente a ¬p. Questa seconda strada è più lunga,
ma è proposta solo per illustrare l’effetto delle varie mosse possibili.
Le forme normali disgiuntive e congiuntive si trovano ai poli estremi di
uno spettro su cui si immagini di collocare le proposizioni misurando la loro
distanza con il numero di applicazioni delle proprietà distributive necessarie
per passare dall’una all’altra. Se si pensasse di decidere se una proposizione
in forma normale disgiuntiva è una tautologia applicando il teorema 6.3.2,
dovendola prima trasformare in forma congiuntiva, si affronterebbe un com-
pito non inferiore come complessità a quello di costruire la tavola di verità
completa (e forse più rischioso, se fatto a mano).

6.4 Esercizi
1. Scrivere la forma normale congiuntiva e disgiuntiva, usando le tavole
di verità, delle seguenti proposizioni:
(p ∨ q → r) ∧ ¬p ∧ ¬r
¬p → ¬(q → p)
(¬(p → q) ∨ ¬q) → p.
2. Per le proposizioni del precedente esercizio, trasformare la forma nor-
male disgiuntiva in quella congiuntiva e viceversa con l’algoritmo forma
normale.
3. Scrivere la forma normale disgiuntiva e congiuntiva, usando l’algoritmo
forma normale, delle seguenti proposizioni:
(p ∨ q) → ¬(p → (q → r))
(p ∨ q) → ¬(p ∧ (q → r))
p → (¬q ∨ p → (r → p))
p ⊕ (¬p ⊕ q) → q.
4. Trasformare le leggi logiche del paragrafo 3.3.3 in forma normale con-
giuntiva e disgiuntiva.
5. Osservare che la tavola della proposizione p ∨ q → ¬p ∧ (q → r) di 3.3.1
è uguale a quella di ¬p (se questa è estesa a una tavola a tre entrate
p, q, r indipendente da q e r) e trasformare in ¬p la sua forma normale
disgiuntiva ottenuta dalla tavola.

106
6. Scrivere ¬p ∨ q → ¬p ∧ q in forma normale disgiuntiva e leggerne i
modelli. Discutere le relazioni con p ⊕ q.
7. Verificare, ai fini dell’applicazione delle trasformazioni con le leggi dis-
tributive, che è
(A ∨ B) ∧ (C ∨ D) ≡ (A ∧ C) ∨ (A ∧ D) ∨ (B ∧ C) ∨ (B ∧ D)
e analogamente
(A ∧ B) ∨ (C ∧ D) ≡ (A ∨ C) ∧ (A ∨ D) ∧ (B ∨ C) ∧ (B ∨ D).
8. Verificare come si trasforma, applicando le leggi di De Morgan, la
negazione di una forma normale congiuntiva (rispettivamente disgiun-
tiva) in una forma normale disgiuntiva (rispettivamente congiuntiva).
9. Spiegare, utilizzando le leggi di De Morgan e la legge della doppia
negazione, perché cnf(A) ≡ ¬dnf(¬A) e dnf(A) ≡ ¬cnf(¬A).
L’osservazione fornisce un altro modo per ottenere la forma normale
disgiuntiva, o congiuntiva, di una proposizione. Se si vuole ad esempio
la forma normale disgiuntiva di A, si può provare a vedere se non sia
relativamente facile ottenere cnf(¬A); ottenuta questa, la si nega e
si applica De Morgan; spesso si evita cosı̀ l’applicazione ripetuta delle
leggi distributive.
Errore frequente: lo studente ha trovato dnf(A) e per ottenere cnf(A) !!!
nega dnf(A) e applica De Morgan, ricordando malamente l’esercizio 8,
perché ottiene sı̀ una forma congiuntiva, ma quella della negazione:
cnf(¬A). È forse il residuo dell’idea di premettere due negazioni, us-
andone una per trasformare dnf in cnf con De Morgan: ¬¬dnf(A),
¬(¬dnf(A)), ¬cnf(¬A). Di quella esterna però ci si dimentica - se si
tenesse conto dell’altra negazione, una nuova applicazione di De Mor-
gan riporterebbe a dnf(A). Due negazioni consecutive non possono
creare nulla di nuovo.
10. In riferimento alle osservazioni del precedente esercizio, trovare la forma
normale disgiuntiva e congiuntiva e confrontare i diversi modi per ot-
tenerle, per le proposizioni
(p → q) → (r → ¬p)
p ∨ q → ¬p ∨ q
p ∨ (q ∧ r) → (¬r → p).

107
7 Alberi di refutazione
7.1 Il metodo
La risposta alle domande semantiche, sulla verità logica o sulla insoddisfaci-
bilità delle proposizioni, si può dare con metodi più efficienti della ricerca
esaustiva offerta dalla costruzione delle tavole di verità, che è di complessità
esponenziale. Uno di questi è il metodo degli alberi di refutazione 1 . Il nome
deriva dal fatto che sono impostati, per rispondere alla domanda sulla verità
logica, secondo la ricerca del controesempio: si cerca di scoprire se esiste
un’interpretazione che falsifichi la proposizione. Il metodo ha la proprietà che
o la trova, se esiste, e quindi fornisce un’interpretazione in cui la negazione
della proposizione è vera (controesempio: la proposizione è falsa) oppure !!!
mostra che non è possibile che esista, e quindi la proposizione è una tautolo-
gia.
Più in generale, il metodo serve a stabilire se esista o no un’interpretazione
che soddisfa una proposizione composta, non partendo dal basso dalle possi-
bili interpretazioni delle lettere (bottom up) ma dall’alto, dalla proposizione
data, scendendo verso le sottoproposizioni componenti (top down); nel pro-
cesso, si accumulano condizioni necessarie che l’ipotetica interpretazione, se
esiste e soddisfa la radice, dovrebbe pure soddisfare - nel senso di quali
altre proposizioni essa dovrebbe soddisfare o no - fino alle condizioni nec-
essarie riguardanti le proposizioni atomiche; queste, se non sono incom-
patibili tra di loro, si traducono in condizioni sufficienti per la definizione
dell’interpretazione.
Gli alberi di refutazione possono dunque essere usati anche per rispondere
alle altre domande semantiche, ad esempio quella sulla soddisfacibilità.
Si chiamano in generale calcoli logici i metodi per rispondere ai quesiti
logici sulla verità, l’insoddisfacibilità, la conseguenza, metodi che sono pro-
cedure guidate dalla sintassi, e che si articolano in applicazioni iterate di
regole che producono strutture come sequenze o alberi di proposizioni, che si
chiamano derivazioni o dimostrazioni.
Gli alberi di refutazione sono alberi etichettati con proposizioni. Identi-
fichiamo per comodità di scrittura i nodi con le loro etichette. Nella radice
è una proposizione, di cui si vuole sapere se esiste un modello. L’albero è
1
Altri nomi usati, insieme a qualche variante di presentazione, sono quelli di alberi
semantici , oppure di tableaux semantici.

108
sviluppato secondo la seguente procedura.
Ad ogni stadio, si saranno già prese in considerazione alcune proposizioni,
messe tra parentesi quadre o segnate con un asterisco, e ne resteranno da
considerare altre. Se sono già state considerate tutte, l’albero è terminato;
se no, si prende in esame una proposizione A non ancora considerata, e a
seconda della sua forma si prolunga l’albero nel modo seguente, dopo aver
segnato A e aver notato quali sono i rami non chiusi che passano per A, dove
un ramo si dice chiuso se su di esso occorre sia una proposizone sia la sua
negazione:
• Se A è una proposizione senza connettivi, non si fa nulla (si va al passo
successivo).
• Se A è B ∧ C, alla fine di ogni ramo non chiuso passante per A si
appendono alla foglia due nodi in serie etichettati con B e C, come
nello schema:
[B ∧ C]
..
.

F

B

C
• Se A è B ∨ C, alla fine di ogni ramo non chiuso passante per A si
aggiunge alla foglia una diramazione con due nodi B e C, come nello
schema:
[B ∨ C]
..
.

F
. &
B C
con l’ovvia generalizzazione (qui e nella prececente regola) che se si
tratta di congiunzioni o disgiunzioni generalizzate si appendono in serie
o rispettivamente si fanno diramazioni con tanti nodi quante sono le
sottoproposizioni immediate.

109
• Se A è B → C, alla fine di ogni ramo non chiuso passante per A si
aggiunge alla foglia una diramazione con due nodi ¬B e C, come nello
schema:
[B → C]
..
.

F
. &
¬B C

• Se A è ¬B e B non ha connettivi, non si fa nulla.

• Se A è della forma ¬B e B è ¬C, al fondo di ogni ramo non chiuso


passante per A si appende alla foglia il successore C, come nello schema:

[¬¬C]
..
.

F

C

• Se A è della forma ¬B e B è B1 ∨ B2 , alla fine di ogni ramo non chiuso


passante per A si aggiungono alla foglia due nodi in serie ¬B1 e ¬B2 ,
come nello schema:
[¬(B1 ∨ B2 )]
..
.

F

¬B1

¬B2
con l’ovvia generalizzazione se B è una disgiunzione generalizzata.

• Se A è della forma ¬B e B è B1 → B2 , alla fine di ogni ramo non


chiuso passante per A si appendono alla foglia due successori in serie

110
B1 e ¬B2 , come nello schema:
[¬(B1 → B2 )]
..
.

F

B1

¬B2

• Se A è della forma ¬B e B è B1 ∧ B2 , alla fine di ogni ramo non chiuso


passante per A si aggiunge alla foglia una diramazione con due nodi
¬B1 e ¬B2 , come nello schema:
[¬(B1 ∧ B2 )]
..
.

F
. &
¬B1 ¬B2

Ovviamente se per il nodo in considerazione non passa alcun ramo non chiuso,
non si fa nulla. Dalla formulazione è chiaro che quando tutti i rami sono
chiusi il procedimento termina, anche se non tutte le proposizioni sono state
considerate, e in tal caso l’albero si considera terminato e si dice chiuso.
Non diamo le regole per il bicondizionale (esercizio) perché non sareb-
bero altro che l’adattamento di quelle che derivano dal fatto che p ↔ q è
equivalente a (p → q) ∧ (q → p). Lo stesso per ⊕, ma si preferisce eliminare
prima questi connettivi (comunque, si diano le regole per ⊕ - esercizio), e
questa è l’unica preparazione o trasformazione che si fa sulle proposizioni;
altrimenti si prendono cosı̀ come sono, e questo è un vantaggio del metodo, !!!
nessun preprocessing.

Si leggano con attenzione le regole, cogliendone tutte le informazioni e i


vincoli: ad esempio, quando si lavora su di un nodo, si aggiungono propo-
sizioni su tutti i rami passanti per quel nodo, ma non sugli altri. !!!

111
Esempio
1. Consideriamo la proposizione ¬((¬p ∨ q) ∧ p → q) che mettiamo nella
radice dell’albero

¬((¬p ∨ q) ∧ p → q)

2. Lavorando su di esso, che è la negazione di un condizionale, otteniamo


[¬((¬p ∨ q) ∧ p → q)]

(¬p ∨ q) ∧ p

¬q

3. Lavorando su (¬p ∨ q) ∧ p otteniamo


[¬((¬p ∨ q) ∧ p → q)]

[(¬p ∨ q) ∧ p]

¬q

¬p ∨ q

p

4. Lavorando prima su ¬q, senza alcun effetto, e poi su ¬p ∨ q

[¬((¬p ∨ q) ∧ p → q)]

[(¬p ∨ q) ∧ p]

[¬q]

[¬p ∨ q]

p
. &
¬p q.

112
Non è neanche necessario indicare che si sono presi in considerazione le
restanti proposizioni, perché il loro effetto è nullo. L’albero è chiuso, perché
su uno dei sue due rami occorrono p e ¬p, e sull’altro occorrono q e ¬q.
Se si deve interpretare come è stato ottenuto un albero sviluppato, è di
aiuto che sia segnato a fianco di ogni proposizione l’ordine in cui è stata presa
in considerazione, come in

[¬((¬p ∨ q) ∧ p → q)]1

[(¬p ∨ q) ∧ p]2

[¬q]3

[¬p ∨ q]4

p
. &
¬p q.

Esempio

¬((p ∧ q) ∨ (¬p ∧ q) ∨ ¬q)1



¬(p ∧ q)3

¬(¬p ∧ q)4

¬¬q2

q
.&
¬p ¬q
.& chiuso
¬¬p ¬q
chiuso

113
dove il ramo di destra con foglia ¬q non è sviluppato con
¬q
. &
¬¬p ¬q

come dovrebbe essere per il lavoro su ¬(¬p ∧ q), perché il ramo è già chiuso;
il ramo di sinistra non è prolungato con
¬¬p

p

perché anch’esso chiuso.

Avvertenza Non si confondano gli alberi di refutazione con gli alberi !!!
sintattici. L’albero sintattico si una proposizione contiene solo le sottopropo-
sizioni di quella data, l’albero di refutazione anche altre. Ad esempio

p∨q →p∧q
.&
p∨q p∧q
.& .&
p q p q

è l’albero sintattico di p ∨ q → p ∧ q. Il suo albero di refutazione è invece

p∨q →p∧q
.&
¬(p ∨ q) p∧q
↓ ↓
¬p p
↓ ↓
¬q q

dove, oltre a una struttura diversa, compaiono proposizioni come ¬p, ¬q,
¬(p ∨ q).
In alcune presentazioni gli alberi di refutazione sono alberi i cui nodi
sono proposizioni etichettate con i simboli V ed F , per “vero” e “falso”. La

114
corrispondenza con la presente versione si ottiene sostituendo V A con A e
F A con ¬A, e viceversa.
Ad esempio le due regole per la congiunzione sono:
V ∧: Quando si lavora su V (A ∧ B) (al fondo di ogni ramo . . . ) si appen-
dono in serie V A e V B.
F ∧: Quando si lavora su A F (A ∧ B) (al fondo di ogni ramo . . . ) si
appende una diramazione con con F A e F B.

7.2 Correttezza e completezza


Il primo problema con ogni algoritmo è quello della terminazione, in parti-
colare per gli algoritmi di decisione; se l’algoritmo non si ferma sempre, con
una risposta, dopo un numero finito di passi, non ci si può affidare ad esso
per decidere le questioni che interessano (nel senso di lanciarlo e stare ad
aspettare).

Lemma 7.2.1 (Terminazione) La costruzione dell’albero di refutazione in-


izializzato con una proposizione termina sempre in un numero finito di passi.

Dimostrazione. Se ad ogni stadio si lavora su una proposizione di quelle che


hanno altezza massima n tra quelle non ancora considerate, l’applicazione
delle regole fa sı̀ che dopo un numero finito di passi tutte quelle di altezza
n siano state considerate, e l’altezza massima delle proposizioni non ancora
considerate sia quindi < n. Infatti le proposizioni introdotte nell’albero con
le regole hanno tutte altezza minore della proposizione che governa la regola,
salvo il caso di B → C, per cui si introducono ¬B e C, e ¬B può avere la
stessa altezza di B → C (quando? esercizio); ma la successiva applicazione
di una delle regole per proposizioni negate a ¬B, che si può eseguire subito,
la sostituisce con proposizioni di altezza minore.
Anche se dunque nel corso del procedimento il numero di proposizioni
nei nodi dell’albero cresce con il crescere dell’albero, diminuisce quello delle
proposizioni di altezza massima, e dopo un numero finito di passi ci saranno
solo proposizioni di altezza minima, senza connettivi, non ancora considerate,
e a quel punto il processo termina, se non è terminato prima per la chiusura
dell’albero. 2

115
Quando si dà un metodo sintattico per rispondere a quesiti di natura
semantica (o un calcolo per risolvere un problema), si pone la questione, e la
richiesta, della correttezza e completezza del metodo. Correttezza significa
che le risposte che dà il metodo sono giuste, completezza significa che quando
la risposta c’è il metodo la dà, quella giusta.
Qualche ambiguità può sussistere quando le domande possibili sono di-
verse, e tuttavia collegate. Ad esempio per il fatto che

Osservazione 7.2.2 Per ogni p,


A è una tautologia se e solo se ¬A è insoddisfacibile
ci si può porre come problema semantico sia il problema della verità log-
ica sia il problema dell’insoddisfacibilità. Un calcolo si può pensare sia
come calcolo per stabilire la verità logica sia come un calcolo per stabilire
l’insoddisfacibilità. Scegliamo il metodo degli alberi di refutazione per il
problema dell’insoddisfacibilità, e come risposta preferenziale affermativa la
chiusura dell’albero (un esito in generale più rapido e che non richiede ulte-
riori elaborazioni); abbiamo allora
Teorema 7.2.3 (Correttezza) Se l’albero di refutazione con radice A si
chiude, allora A è insoddisfacibile.
Dimostrazione 2 . Procediamo per contrapposizione dimostrando che se esiste
un’interpretazione i che soddisfa A, allora a ogni stadio di sviluppo dell’albero
esiste almeno un ramo tale che i soddisfa tutti le proposizioni del ramo.
Allora l’albero non è mai chiuso, perché se un ramo è chiuso non tutte le sue
proposizioni possono essere vere in una stessa interpretazione.
Allo stadio n, consideriamo un ramo σ le cui proposizioni siano tutte
soddisfatte da i, e una proposizione B su di esso, quindi vera in i, e non
ancora considerata (se non ce ne sono, il lavoro su quel ramo è terminato
senza che esso sia chiuso, e tale rimane alla fine, e l’albero finale non è
chiuso). Se B è una congiunzione, al ramo sono aggiunti due nodi che sono
anch’essi etichettati con proposizioni vere in i, e il ramo prolungato soddisfa,
allo stadio successivo, la proprietà richiesta. Se B è una disgiunzione B1 ∨B2 ,
2
Per questo e per il successivo teorema diamo dimostrazioni complete, anche se, es-
sendo per induzione, si potranno apprezzare solo in seguito. Si può tuttavia già cogliere
ugualmente l’essenza del ragionamento e la ragione della validità del risultato.

116
o il ramo3 σ _ B1 o il ramo σ _ B2 soddisfano la proprietà richiesta, a seconda
che B1 o B2 siano vere in i. Lo stesso vale per gli altri casi (esercizio). 2
Viceversa

Teorema 7.2.4 (Completezza) Se A è insoddisfacibile, l’albero di refu-


tazione con radice p si chiude.

Dimostrazione. Dimostriamo che

Lemma 7.2.5 Se l’albero non si chiude, allora per ogni ramo non chiuso
e terminato esiste un’interpretazione i che soddisfa tutti le proposizioni del
ramo, inclusa la radice.

Dimostrazione del lemma. Sia σ un ramo non chiuso dell’albero terminato.


Si definisca un’interpretazione i ponendo i(p) = 1 per ogni proposizione
atomica p che occorre come nodo nel ramo σ, e i(p) = 0 per ogni proposizione
atomica tale che ¬p occorre come nodo nel ramo σ. Si dimostra ora che ogni
proposizione di σ è vera in i. Supponiamo questo verificato per tutte le
proposizioni sul ramo che hanno un’altezza minore di un numero fissato n,
e facciamo vedere che lo stesso vale per quelle di altezza n. Se B è una
congiunzione B1 ∧ B2 , quando è stata presa in considerazione B si sono
aggiunti come nodi del ramo sia B1 che B2 , che sono quindi in σ e hanno
altezza minore di n e quindi si suppongono vere in i; dunque anche B è vera
in i. Se B è una disgiunzione B1 ∨ B2 , quando è stata presa in considerazione
B si sono aggiunti a tutti i rami passanti per B, incluso (quello che sarebbe
diventato) σ, o B1 o B2 ; quindi una delle due è su σ, e vera in i, quindi anche
B è vera. Gli altri casi si trattano nello stesso modo. 2 2

Se in un ramo terminato non chiuso manca una lettera che occorre nella
radice, nel definire l’interpretazione si può dare ad essa il valore che si vuole;
ciò significa che al ramo è associata più di una interpretazione.
L’esito complessivo dei teoremi di correttezza e completezza è che il
metodo degli alberi prende in esame tutte le possibili strade per provare
a definire interpretazioni, e se ce ne sono le fornisce tutte, e se non ce ne sono
lo rivela.
3 _
σ B1 è il ramo prolungato con B1 ; la notazione è quella della concatenazione di liste.

117
La dimostrazione delle proprietà di correttezza e completezza non prende
in considerazione l’ordine in cui si sviluppa l’albero. Il procedimento degli
alberi di refutazione si può rendere deterministico fissando un ordine progres-
sivo per le proposizioni introdotte e quelle da prendere in considerazione ma
proprio il fatto che la dimostrazione è indipendente dall’ordine permette di
vedere che la risposta dell’albero e le sue proprietà non dipendono dall’ordine
eventualmente fissato; lavorare su una proposizione prima che su di un’altra
può modificare l’albero ma non la risposta finale; ogni mossa dipende solo
dalla proposizione in considerazione e non dalle altre presenti in altri nodi.
Si può sfruttare questa circostanza (oltre che come si è fatto nella di-
mostrazione della terminazione) per formulare utili regole euristiche, come
quella di prendere in esame prima le proposizioni che si limitano ad allungare !!!
i rami e non introducono diramazioni.
Riassumendo

Corollario 7.2.6 Per ogni A,


A è soddisfacibile se e solo se l’albero di refutazione con radice A non si
chiude

mentre, nello spirito del controesempio,

Corollario 7.2.7 Per ogni A,


A è una tautologia se e solo se l’albero di refutazione con radice ¬A si chiude.

Per la nozione di conseguenza logica, serve infine il

Corollario 7.2.8 Per ogni A e B,


|= A → B se e solo se l’albero di refutazione con radice ¬(A → B), o con
radice A ∧ ¬B, si chiude.

Si noti che è indifferente avere nella radice ¬(A → B) oppure l’equivalente


A ∧ ¬B perché in entrambi i casi l’applicazione delle regole per la negazione
di un condizionale o per la congiunzione portano ad aggiungere alla radice


A

¬B

118
dopo di che si continua lavorando solo su A e su ¬B e loro sottoproposizioni.
Si può addirittura partire con

A

¬B

se interessa la domanda A |= B.

7.3 Forme normali


Gli alberi di refutazione permettono di ottenere altre informazioni sulle propo-
sizioni a cui si applicano. Se A è una proposizione soddisfacibile, e quindi
l’albero di refutazione con radice A non si chiude, una forma normale dis-
giuntiva di A si può ottenere nel seguente modo: per ogni ramo terminato
e non chiuso, si faccia la congiunzione di tutti i letterali che sono nodi del !!!
ramo, quindi si faccia la disgiunzione di queste congiunzioni. Le proprietà
dimostrate della correttezza e della completezza garantiscono che questa dis-
giunzione è proprio equivalente a A (esercizio).
Esempio

¬(p ∨ ¬q) ∨ q ∨ ¬(p → q)


. ↓ &
¬(p ∨ ¬q) q ¬(p → q)
↓ ↓
¬p p
↓ ↓
¬¬q ¬q

q.

L’albero non è chiuso e la forma normale disgiuntiva della radice è (¬p ∧ q) ∨


q ∨ (p ∧ ¬q); i tre modelli dati dai tre rami non chiusi sono
i1 (p) = 0, i1 (q) = 1,
i2 (q) = 1,
i3 (p) = 1, i3 (q) = 0
dove il secondo sta per due interpretazioni, di cui una però coincide con la

119
prima; rami diversi non danno necessariamente interpretazioni diverse. La !!!
proposizione non è una tautologia in quanto manca l’interpretazione i(p) =
i(q) = 0 tra i suoi modelli.

Se l’albero per A si chiude, si sa che A è una contraddizione e una forma


normale disgiuntiva si scrive direttamente.
Dall’albero di A non si legge invece la forma normale congiuntiva di A;
per ottenere questa, una via indiretta è la seguente: si mette nella radice ¬A, !!!
si sviluppa l’albero per ¬A e si trova una forma normale disgiuntiva di ¬A.
Quindi si nega questa premettendo una negazione, e si applicano le leggi di
De Morgan.
Poiché l’albero terminato e non chiuso permette di leggere i modelli della
radice, per verificare che A è una tautologia si può anche sviluppare l’albero
con radice A, e controllare che ci siano alla fine 2n interpretazioni associate ai
rami non chiusi, se A ha n lettere. Ma se la domanda è se A sia una tautologia,
è più conveniente impostare l’albero con ¬A, perché se la risposta è positiva !!!
essa arriva dalla chiusura dell’albero, in generale più in fretta dello sviluppo
integrale dell’albero con radice A e del conteggio dei modelli.

7.4 Esercizi
1. Verificare con gli alberi di refutazione le leggi logiche del paragrafo
3.3.3.

2. Verificare con gli alberi di refutazione se le seguenti proposizioni sono


tautologie, e se no indicare i controesempi:
(p ∨ q) ∧ (r → ¬p) → (r → q)
((p → ¬p) ∧ (q → p)) → ¬q
(p ∧ q) ∨ (¬p ∧ q) ∨ q
(p ∧ q) ∨ (¬p ∧ q) ∨ ¬q.

3. Verificare con gli alberi di refutazione che le seguenti proposizioni sono


insoddisfacibili:
((p ∨ q) ∧ (¬p ∨ q) ∧ ¬q) → q
(p → ¬q) ∧ (¬p ∨ q)

120
(p → ¬q) ∧ ¬p ∧ q
(p → ¬q) ∧ p ∧ q
(p ∨ ¬q ∨ r) ∧ ¬r ∧ (¬p ∨ q) ∧ ¬p.

4. Trovare con gli alberi di refutazione la forma normale disgiuntiva e i


modelli delle seguenti proposizioni:
p ∧ q → (p → q)
p ∧ q → (p → q ∧ r)
(p → (q ∨ (p ∧ r))) ∧ (¬p ∧ (q → p)).

5. Con gli alberi di refutazione trovare la forma normale congiuntiva delle


seguenti proposizioni:
p ∧ q → (p → q ∧ r)
(p ∨ q → r) ∧ ¬p → (p ∨ r)
(p → (q ∨ (p ∧ r))) ∧ (¬p ∧ (q → p)).

121
8 Linguaggi predicativi
Finora abbiamo considerato, nell’algebra degli insiemi, solo formule conte-
nenti una variabile x, a cui abbiamo associato, in ogni universo U , un insieme
di verità.
Gli insiemi di verità si incontrano invero quasi solo in matematica, dove è
proprio tipico lo studio di insiemi definibili. Ad esempio dopo aver introdotto
la definizione dei numeri primi ci si chiede come è l’insieme dei numeri primi
(se finito o infinito), si elaborano algoritmi per trovare i suoi elementi, se
ne studiano sottoinsiemi. Studiare il concetto di “numero primo” significa
studiare l’insieme dei numeri definiti dal concetto “primo”.
Tuttavia la definizione dei numeri primi richiede i quantificatori. Le
definizioni riguardanti le proprietà delle relazioni coinvolgono quantificatori.
In generale tutte le frasi che intervengono in matematica coinvolgono quantifi-
catori che devono essere padroneggiati correttamente per fare dimostrazioni
corrette.
Supponiamo di stare ragionando su questioni di aritmetica, e di voler ad
esempio dimostrare che
il successore di un numero pari è dispari.
Il primo passo della versione aritmetica è quello di scrivere:
se x è pari, allora x + 1 è dispari.
Questa abbiamo visto che è una delle funzioni delle variabili, quella di indicare
un elemento generico. Quindi occorre sostituire i termini tecnici con le loro
definizioni, continuando con
se x è divisibile per 2, allora x + 1 non è divisibile per 2.
La frase “x è divisibile per 2” si formalizza con ∃y(x = 2 · y), che traduce:
“esiste un numero che moltiplicato per 2 dà x”; tale numero è indicato con
y, perché non lo conosciamo, e non possiamo conoscerlo se non conosciamo
x, o finché non conosciamo x; non possiamo dire che y è x/2 perché a rigore
non abbiamo l’operazione di divisione, se stiamo considerando solo i numeri
naturali (la si introduce proprio cosı̀, come inversa della moltiplicazione, ma
in generale insieme a un resto)1 .
1
Naturalmente una possibilità di espressione esplicita con un termine del linguaggio è
comoda, quando è disponibile; in generale però y non è una funzione esplicita di x con un
simbolo dell’alfabeto.

122
La frase successiva “x + 1 è dispari” significa che tutti i numeri z molti-
plicati per 2 sono diversi da x + 1.
In italiano, si direbbe correttamente:
se per qualche y si ha x = 2y, allora per nessun z si ha x + 1 = 2z.
Nel gergo matematico, si scrive soltanto
se x = 2y, allora x + 1 6= 2z,
ma la scrittura precisa è

∃y(x = 2y) → ∀z(x + 1 6= 2z).

Vero è che i quantificatori devono essere eliminati per svolgere le dimostrazioni


che richiedono manipolazioni algebriche di formule, e si dovrà arrivare, come
vedremo, a
x = 2y → x + 1 6= 2z,
ma l’aver scritto i quantificatori aiuta a ricordare come devono essere trattate
le variabili.
In questo caso, dato x, anche y è determinato e fissato; invece x+1 6= 2z è
un’affermazione relativa a tutti gli z (a tutti i numeri da pensare presi come
valori di z) e va dimostrato come si dimostrano le affermazioni universali,
riferite a z. Ad esempio per assurdo, oppure per induzione, tecnica che
vedremo in seguito.
Si noti che anche in italiano si passa spesso, nei ragionamenti, da frasi
che contengono i quantificatori “qualche”, “tutti”, o equivalenti, a frasi con
“uno”, o equivalenti, vale a dire di quelle che prese isolatamente sarebbero
ambigue. Ad esempio, per giustificare l’affermazione “chi segue il corso di
Logica non impara niente” si potrebbe argomentare nel seguente modo, prima
eliminando un quantificatore universale e infine ripristinandolo: chiunque
segue il corso di Logica (prima o poi) si addormenta; uno che segue il corso di
Logica si addormenta; uno che si addormenta perde qualche spiegazione; uno
che perde una spiegazione non capisce neanche il resto; quindi uno che segue
il corso di Logica non capisce la materia, quindi, come volevasi dimostrare,
tutti quelli che seguono il corso di Logica non imparano niente. Vedremo in
seguito l’organizzazione in un formato standard di queste mosse logiche.
I quantificatori si tolgono nel corso di un argomento per poter lavorare
solo a livello proposizionale o algebrico; tale eliminazione è soggetta a precisi

123
vincoli che vedremo. Nelle definizioni invece occorre scrivere tutti i necessari
quantificatori nel modo corretto; non è lecito ometterne alcuni.
Per una trattazione rigorosa dei quantificatori occorrono altre precisazioni,
che si possono dare meglio nel contesto di un linguaggio formale, adatto alla
formalizzazione di tutte le frasi, che presentiamo in maniera analoga a quanto
fatto per il linguaggio proposizionale.

8.1 Alfabeto
L’alfabeto è stato già descritto informalmente nel capitolo 1.
Per ottenere i linguaggi predicativi, all’alfabeto costituito dai connettivi e
dalle parentesi si aggiungono le variabili, con i due quantificatori, e simboli di
predicato, di funzione e di costante. Le variabili sono disponibili in quantità
illimitata, anche se ogni volta se ne utilizzeranno solo un numero finito. Gli
altri simboli differiscono da linguaggio a linguaggio, possono anche mancare,
anche se almeno un simbolo di predicato deve sempre essere presente.
I simboli di predicato, di funzione e di costante costituiscono la parte
extralogica dell’alfabeto di un linguaggio.

8.2 Termini e formule


La struttura di base di un’affermazione atomica è l’attribuzione di un pred-
icato a uno o più termini. Se t1 , . . . , tn sono termini, non necessariamente
distinti2 , si scriverà

P (t1 , . . . , tn )

a indicare che il predicato P (o più precisamente la proprietà P se n = 1, o


la relazione P se n > 1) sussiste per gli individui denotati dagli n termini.
I termini sono le costanti, le variabili e, se f è un simbolo di funzione a n
posti, e t1 , . . . , tn sono n termini, non necessariamente distinti, f (t1 , . . . , tn )
è un termine.
La scrittura f (t1 , . . . , tn ), come abbiamo detto parlando delle funzioni,
è quella usuale per indicare il valore di f in corrispondenza agli argomenti
t1 , . . . , tn . Ma le virgole non appartengono al linguaggio predicativo; le parole
2
Si potrebbe anche dire: “data una n-upla di termini”, dove le componenti di una
n-upla non sono necessariamente distinte.

124
sono liste di simboli dell’alfabeto e quella che costituisce in effetti il termine
in questione è semplicemente la concatenazione f t1 . . . tn .
Si può dimostrare che non esiste ambiguità nel ricostruire come è com-
posto il termine a partire da quali argomenti e quale simbolo funzionale,
anche senza parentesi (e tanto meno virgole). Si deve solo supporre che nel
dare l’alfabeto a ogni simbolo f sia associato in modo esplicito il numero
di argomenti di f . Questo fatto mostra i vantaggi della notazione prefissa
rispetto a quella infissa nella manipolazione meccanica.
Lo stesso vale per la scrittura P (t1 , . . . , tn ), che useremo ma che cor-
risponde alla parola P t1 . . . tn .
I termini chiusi sono i termini che non contengono variabili. !!!
Quando si trattano argomenti matematici, si usano le convenzioni a cui
si è abituati, di scrivere i simboli delle operazioni usuali3 in mezzo ai termini,
laddove la notazione funzionale preferisce mettere il simbolo di funzione da-
vanti; la stessa notazione infissa si adotta per le relazioni =, < e ≤.
Esempio Supponiamo di avere una costante 0 e un simbolo funzionale a
un argomento, indicato con 0 ; scriveremo x0 per 0 (x) e quindi x00 per 0 (0 (x)), . . .
I termini sono
0, x, y, . . . per tutte le variabili
0 0 0
0 , x , y , ...
000 , x00 , y 00 , . . .
...
L’insieme degli infiniti termini può essere enumerato in una successione unica,
ad esempio
0, 00 , x, 000 , x0 , y, 0000 , x00 , y 0 , z, . . .
Il criterio che guida l’enumerazione è quello, dopo il primo passo iniziale 0, 00 ,
di introdurre una nuova variabile, aggiungere un apice ai termini precedenti,
e ricominciare con una nuova variabile.
L’insieme dei termini distribuito in una matrice infinita viene percorso
secondo le diagonali:
3
In aritmetica e algebra si parla preferibilmente di operazioni, ma sono la stessa cosa
delle funzioni. Qualche volta il segno di moltiplicazione non si scrive.

125
0 x y z ...
 
7 7
?
 
00 x0 y 0 . . .
7


000 x00 y 00 . . .
7


0000
..
.

Se le variabili sono indicate con t2 , t3 , . . ., e 0 con t1 , si può determinare


m
z}|{
00 0
esplicitamente con operazioni aritmetiche il posto di tn . . . , in funzione di n
ed m4 .
L’enumerazione per diagonali della matrice infinita i cui posti sono indi-
viduati dalla riga n-esima e dalla colonna m-esima dimostra che N × N è in !!!
corrispondenza biunivoca con N.

I termini 0, 00 , 000 , . . . sono quelli che denotano i numeri naturali. Talvolta


si pensa che ci sia a disposizione una costante diversa per ogni numero nat-
urale, perché si pensa a 0, 1, 2, 3, . . ., ma le cifre distinte sono solo dieci. Gli
altri numeri sono denotati da termini chiusi, quelli che si possono formare
con la rappresentazione posizionale. Pensare di disporre di infinite costanti
è possibile teoricamente, ma non è realizzabile in concreto.

Se è presente anche un solo simbolo di funzione a due argomenti l’insieme


dei termini è molto più complicato.

Le versioni formali delle frasi saranno chiamate formule, in analogia alle


formule matematiche.
Le formule sono definite nel seguente modo:

1 Se P è un predicato a n posti e t1 , . . . , tn termini, (P (t1 , . . . , tn )) è una


formula.

2 Se A è una formula, anche (¬A) lo è.


4
Esercizio, dopo il principio di induzione.

126
3 Se A e B sono formule e • un connettivo binario, anche (A • B) è una
formula.

4 Se A è una formula, e x una variabile, anche (∀xA) e (∃xA) sono formule.


Le parentesi si riducono con le stesse convenzioni viste per le proposizioni,
dove ora i quantificatori sono al primo posto nell’ordine di priorità, insieme !!!
alla negazione (se adiacenti, si procede prima dall’interno, o da destra verso
sinistra, come già per la negazione nel linguaggio proposizionale).

Esempio ∃xP (x) ∧ ∃y¬Q(y) → ¬∃x∃yR(x, y) rimettendo le parentesi,


non intorno alle formule atomiche e la coppia esterna, diventa
∃xP (x) ∧ ∃y¬Q(y) → ¬∃x(∃yR(x, y))
∃xP (x) ∧ ∃y¬Q(y) → ¬(∃x(∃yR(x, y)))
∃xP (x) ∧ ∃y¬Q(y) → (¬(∃x(∃yR(x, y))))
∃xP (x) ∧ ∃y(¬Q(y)) → (¬(∃x(∃yR(x, y))))
∃xP (x) ∧ (∃y(¬Q(y))) → (¬(∃x(∃yR(x, y))))
(∃xP (x)) ∧ (∃y(¬Q(y))) → (¬(∃x(∃yR(x, y))))
((∃xP (x)) ∧ (∃y(¬Q(y)))) → (¬(∃x(∃yR(x, y))))
da cui si vede la struttura, che è quella di un condizionale con l’antecedente
che è una congiunzione e il conseguente che è una negazione; ∧, → e ¬ col-
legano tra loro formule quantificate (cioè che iniziano con un quantificatore).
Per le formule si possono costruire gli alberi sintattici individuando il
segno logico principale, che ora può essere un connettivo oppure un quantifi-
catore, per le formule del tipo (∀xA) e (∃xA).
Nei nodi dell’albero sintattico di una formula occorrono le sottoformule
della formula stessa.
L’albero sintattico per ∃xP (x) ∧ ∃y¬Q(y) → ¬∃x∃yR(x, y) è il seguente:

∃xP (x) ∧ ∃y¬Q(y) → ¬∃x∃yR(x, y)


.&
∃xP (x) ∧ ∃y¬Q(y) ¬∃x∃yR(x, y)
.& ↓
∃xP (x) ∃y¬Q(y) ∃x∃yR(x, y)
↓ ↓ ↓

127
P (x) ¬Q(y) ∃yR(x, y)
↓ ↓
Q(y) R(x, y).

Esempi
1. Tipiche formule atomiche di argomenti aritmetici e algebrici sono x −
1 = 0, x · y + x = x · (y + 1), x + (y + z) = (x + y + z), x < x + 1, e in
generale t1 = t2 e t1 ≤ t2 o t1 < t2 dove t1 e t2 sono termini.
2. Le identità booleane sono altri esempi di formule atomiche, ma si sono
anche incontrate altre formule più complesse del linguaggio insiemistico,
ad esempio le definizioni

∀x(x ∈ X ∩ Y ↔ x ∈ X ∧ x ∈ Y )
X ⊆ Y ↔ ∀x(x ∈ X → x ∈ Y )

o teoremi come

∀x(x ∈ X → x ∈ X ∨ x ∈ Y ),

che prima avevamo scritto senza quantificatori universali per l’abitudine


che c’è nell’esposizione matematica di ometterli quando si tratta di
identità (cioè di formule valide per ogni x).
In queste formule X, Y, . . . non sono variabili, ma simboli predicativi a
un posto; x ∈ X è una scrittura alternativa per la notazione predicativa
X(x)5 .
3. “La funzione y = x3 è iniettiva e suriettiva”.

∀x1 ∀x2 (x1 6= x2 → x31 6= x32 ) ∧ ∀y∃x(y = x3 )

4. Un enunciato del linguaggio aritmetico che afferma che la relazione


“y = 2 · x” è una relazione funzionale e iniettiva è il seguente:
∀x∃y(y = 2·x∧∀z(z = 2·x → z = y))∧∀x1 ∀x2 (x1 6= x2 → 2·x1 6= 2·x2 ).

5
Si può anche considerare ∈ come un simbolo di relazione tra insiemi, quando si studiano
questioni più avanzate che coinvolgono insiemi di insiemi, insiemi i cui elementi sono
insiemi, e non si fa una distinzione logica tra individui ed insiemi; tutte le variabili variano
su insiemi e si possono trovare formule come x ∈ y ∧ y ∈ z.

128
8.3 Variabili libere e vincolate
La clausola 4 della definizione del linguaggio predicativo6 è la clausola nuova,
rispetto al linguaggio proposizionale.
In una formula del tipo (∀xA), o (∃xA), A si chiama raggio d’azione
del primo quantificatore universale, o rispettivamente esistenziale. Tutte
le occorrenze di x all’interno del raggio d’azione vanno intese in senso o
universale, o rispettivamente esistenziale (con una riserva che vedremo).
Naturalmente in (∀xA) fuori dal raggio d’azione del primo quantificatore
non c’è nulla, ma si potrebbe pensare a (∀xA) come parte di un’altra formula,
ad esempio (∀xA) ∧ B.
Per le occorrenze di x al di fuori del raggio d’azione del quantificatore, se
non cadono dentro al raggio d’azione di un altro quantificatore, il senso in cui
vanno interpretate non è determinato. L’interpretazione di tutta la formula
allora è ambigua, o necessita di ulteriori precisazioni per essere compresa.
Ad esempio ∀x(x2 + 1 > 0), che si legge “per tutti gli x, x2 + 1 > 0”,
ha un senso compiuto, è l’affermazione di un fatto, e in particolare è vera in
tutti i domini numerici usuali ordinati; nella formula

(∀x(x2 + 1 > 0)) ∧ x < 0

invece l’ultima x è indeterminata, non cadendo nel raggio d’azione di nessun


quantificatore7 . Si può studiare l’insieme di verità associato; nell’universo dei
reali, per esempio, tale insieme è l’insieme dei numeri negativi; nell’universo
dei naturali, è vuoto. La prima parte ∀x(x2 + 1 > 0) della congiunzione è
vera in entrambi i casi e non contribuisce nulla alla delimitazione dell’insieme
di verità.
In ∀x(x2 + 1 > 0) ∧ ∃x(x < 0) l’ultima occorrenza di x cade nel raggio
d’azione di ∃x, e si ha la congiunzione di due formule che corrispondono
entrambe ad affermazioni di senso compiuto, vere negli interi, razionali o
reali, mentre la seconda è falsa nei naturali.
Le occorrenze di una variabile entro il raggio d’azione di un quantificatore
relativo a quella variabile si dicono vincolate dal quantificatore nella formula
6
Con “linguaggio” s’intende talvolta il complesso di alfabeto, regole sintattiche e nozioni
semantiche, altre volte semplicemente l’insieme delle formule (o delle proposizioni nel caso
del linguaggio proposizionale).
7
Abbiamo messo ancora le parentesi esterne a (∀x(x2 + 1 > 0)) perché fosse chiaro dove
finisce il raggio d’azione del quantificatore universale.

129
(e cosı̀ pure la x adiacente a ∀ in ∀x o a ∃ in ∃x, che spesso non viene neanche
menzionata); le altre si dicono libere.
Se si vuole mettere in evidenza che la formula A contiene occorrenze libere
di x si scrive A(x), se contiene occorrenze libere di x e di y A(x, y).
Qualche volta si dice brevemente che x è libera in A per dire che in
A vi sono occorrenze libere di x, o che x è vincolata per dire che vi sono
occorrenze vincolate, ma bisogna fare attenzione che allora come abbiamo
visto una variabile può essere sia libera sia vincolata in una formula.
Le formule in cui non ci sono occorrenze libere di variabili si dicono enun-
ciati . Sono le formule per cui ha senso chiedere se sono vere o false (una volta
fissata l’interpretazione con il dominio di discorso).
Le formule che non sono enunciati saranno anche chiamate, per sottolin-
eare la differenza, formule aperte; esse non esprimono frasi, piuttosto definis-
cono insiemi, o relazioni, a seconda di quante variabili libere hanno.
Un’altra loro funzione è quella di intervenire nel procedimento per de-
cidere se gli enunciati sono veri o falsi.
Esempi
In ∀x(x2 + 1 > 0) ∧ x < 0 le prime due occorrenze di x sono vincolate; la
terza è libera.
In ∀x(x2 + 1 > 0) ∧ ∃x(x < 0) tutte le occorrenze della x sono vinco-
late, ma le prime due dal quantificatore universale, le altre dal quantificatore
esistenziale.

Un quantificatore può cadere entro il raggio d’azione di un altro quantifi-


catore, come si è visto in diversi esempi.
Ma un quantificatore relativo a una variabile x può anche cadere entro il !!!
raggio d’azione di un altro quantificatore relativo alla stessa x. Ad esempio,
dopo aver considerato la formula del tipo p(x), con una variabile x che occorre
libera:
∀x(x2 + 1 > 0) ∧ x < 0
nel dominio degli interi, e aver verificato che il suo insieme di verità non è
vuoto, si ottiene un enunciato vero premettendo ∃x. Infatti
Vp(x) 6= ∅ se e solo se ∃x(x ∈ Vp(x) ) se e solo se ∃xp(x).
Ma allora si ottiene l’enunciato
∃x(∀x(x2 + 1 > 0) ∧ x < 0),

130
che richiede di essere letto con attenzione. Quando nella costruzione di una
formula si premette ad A un quantificatore con la variabile x, questo quan-
tificatore vincola tutte le occorrenze di x che sono libere in A, e solo quelle. !!!
Proprio per come è stato ottenuto, è chiaro che il quantificatore esistenziale
nell’esempio vincola l’occorrenza di x che prima era libera, cioè l’ultima, e
solo quella. L’azione del quantificatore esistenziale premesso ∃x scavalca la !!!
parte d. . .e in
d∀x(x2 + 1 > 0)∧ex < 0,
dove non ci sono occorrenze libere di x, per agire su x < 0 dove x occorre
libera. Le occorrenze vincolate di x in d. . .e, essendo già vincolate, sono
insensibili all’azione di un altro quantificatore. In effetti, è come se fosse
scritto ad esempio
∀z(z 2 + 1 > 0) ∧ x < 0,
e si ottenesse perciò
∃x(∀z(z 2 + 1 > 0) ∧ x < 0),
che è un modo di scrivere l’enunciato più chiaro, ed equivalente. Se si legge la
frase in italiano si vede bene che non c’è interferenza tra le occorrenze libere
e vincolate di x, perché si possono usare locuzioni diverse; “esiste un numero
tale che, mentre ogni numero elevato al quadrato e aumentato di 1 è maggiore
di 0, lui è negativo”8 . Ancor meglio, conviene leggere: “mentre ogni numero
elevato al quadrato e aumentato di 1 è maggiore di 0, esiste un numero che
è negativo”. Infatti un altro modo di evitare difficoltà interpretative è quello
di andare a piazzare il nuovo ∃x dove è richiesto, cioè scrivendo
∀x(x2 + 1 > 0) ∧ ∃x(x < 0).
Vedremo in seguito che tali trasformazioni equivalenti sono legittime.
Infine un quantificatore relativo ad una variabile x si può premettere
anche a una formula che non contenga alcuna occorrenza di x libera, ad
esempio ∃x∀y(y 2 + 1 > 0) o ∀x(y < 0). La definizione di “formula” non
lo esclude9 . In questi casi l’effetto del primo quantificatore è nullo, la sua
presenza superflua, e la formula ottenuta equivalente a quella originaria.
8
Si è usato qui “mentre” come congiunzione, per sottolineare la non connessione tra le
due parti della frase.
9
Non lo esclude perché sarebbe stato complicato inserire la condizione sulle occorrenze
libere nella definizione stessa iniziale.

131
8.4 Interpretazioni
Le formule matematiche presentate negli esempi visti finora possono essere
interpretate in diversi domini numerici; alcune sono vere negli uni e false
negli altri. La possibilità di diverse interpretazioni è ancora più evidente in
formule del tipo ∀x(∃yA(x, y) ↔ F (x)), dove ci sono simboli predicativi A
e F che non hanno un’interpretazione nemmeno nell’uso comune (come è il
caso dei simboli matematici), e questa è la caratteristica della logica formale.
∀x(∃yA(x, y) ↔ F (x)) può essere interpretato nell’universo delle persone,
e significare che chi ha un amico è felice, e solo se ha un amico - se A e F
sono interpretati in questo modo10 ; potrebbe significare che uno è felice se e
solo se ha un lavoro, o ancora avere altri significati; ma lo stesso enunciato
può essere interpretato nei numeri naturali, usando A(x, y) per “x è divisibile
per y con quoziente maggiore di 1 e minore di x” e F (x) per “x è un numero
composto”, e l’enunciato è vero in questa intepretazione.
Prima di chiedersi se un enunciato è vero o no occorre precisare quale
interpretazione si ha in mente, vale a dire innanzi tutto quale sia l’universo del
discorso, che deve essere un insieme non vuoto U ; quindi si devono stabilire le
relazioni e funzioni su questo insieme che corrispondono ai simboli predicativi
e funzionali che occorrono nell’enunciato. Se ci sono costanti, bisogna fissare
gli elementi di U di cui le costanti sono nomi.
Dare un’interpretazione significa conoscere gli insiemi definiti dalle loro !!!
formule atomiche, o i loro insiemi di verità11
Dare un’interpretazione comporta anche in particolare di determinare
quali elementi denotano le costanti e tutti i termini chiusi, e se questi el-
ementi stanno o no nelle relazioni in esame, e quindi se gli enunciati atomici
sono veri o no.
Un enunciato privo di quantificatori, ma contenente connettivi, ad esem-
pio 1 = 1 + 0 ∨ 1 6= 1 è vero in un’interpretazione U se assume il valore 1
quando sia considerato come una proposizione costruita a partire dagli enun-
ciati atomici, ai quali sono assegnati 1 o 0 a seconda che siano veri o no
nell’interpretazione U .
10
Qualcuno potrebbe non essere d’accordo che l’enunciato è vero, perché il suo amico
è un cane, e se l’universo è l’universo delle persone, l’∃y non è verificato dal cane; se si
vuole inserire anche gli animali nel discorso, allora l’universo deve essere modificato di
conseguenza a tutti gli esseri viventi.
11
Non si intende che queste conoscenze siano effettive, ma solo determinate in linea di
principio.

132
Un enunciato che inizia con un quantificatore universale ∀xA è vero in !!!
un’interpretazione U se l’insieme di verità di A è tutto U . Si dice anche in
tal caso che la formula A è valida nell’interpretazione.
Un enunciato che inizia con un quantificatore universale ∃xA è vero in
un’interpretazione U se l’insieme di verità di A non è vuoto. Si dice anche
che la formula A è soddisfacibile nell’interpretazione U .
L’insieme di verità di una formula composta si ottiene, a partire dagli
insiemi corrispondenti alle formule atomiche, ricordando la corrispondenza
tra i connettivi e le operazioni insiemistiche.
Tuttavia l’interrelazione tra quantificatori e connettivi nella valutazione12
di una formula è resa complicata dal fatto che i quantificatori possono trovarsi
non solo all’inizio di una formula, e quindi occorre saper trovare anche gli
insiemi di verità di formule che contengono quantificatori.
Ad esempio nell’insieme dei numeri interi Z, l’insieme di verità di

x > 0 ∧ ∃y(x = 2y)

è l’intersezione dell’insieme dei numeri positivi {x | x > 0} e dell’insieme


{x | ∃y(x = 2y)}.
Per determinare questo insieme, occorre prima considerare l’insieme di
coppie {hx, yi | x = 2y }, che è una relazione, ed è l’insieme di verità della
formula x = 2 · y nell’insieme Z × Z (esercizio: rappresentare questo insieme
in un sistema di assi cartesiani xy nel piano), e quindi prendere le ascisse x di
queste coppie. Questo è in generale l’effetto di un quantificatore esistenziale
∃, quello di eseguire una proiezione secondo l’asse della sua variabile.
Per quel che riguarda ∀, l’insieme {x | ∀yA(x, y)} si ottiene dall’insieme
{hx, yi | A(x, y)} considerando tutti e soli gli x tali che tutti i punti della
retta parallela all’asse y passante per l’ascissa x stanno nella relazione definita
da A. Per questo l’effetto di una quantificatore universale si chiama anche
cilindrificazione.

La definizione di verità in U di un enunciato A è allora la seguente:


siccome se un enunciato A è vero in un’interpretazione su U , l’insieme {x ∈
U | A vero in U } è U , e se A è falso è ∅, possiamo dire in generale che un
enunciato è vero in U se il suo insieme di verità è tutto U .
In particolare ritroviamo che ∀xA è vero in U se e solo se A è valida in
U . Si giustifica cosı̀ l’abitudine delle esposizioni di matematica di omettere
12
Si chiama anche qui valutazione l’estensione dell’interpretazione a tutte le formule.

133
i quantificatori universali, ad esempio davanti agli assiomi, presentati come
formule valide.
La verifica della verità di un enunciato si riduce dunque al calcolo del
suo insieme di verità, ∅ o U , calcolo che può richiedere, come si è visto
nell’esempio di sopra, la considerazioni di sottoinsiemi di U × U o di spazi di
maggiori dimensioni.
L’insieme di verità di una formula soddisfa le seguenti condizioni:
se A è della forma ∀xB, l’insieme di verità di A è la cilindrificazione
dell’insieme di verità di B; se A è un enunciato, il suo insieme di verità è U
se l’insieme di verità di B è U , altrimenti è ∅;
se A è della forma ∃xB, l’insieme di verità di A è la proiezione dell’insieme
di verità di B; se A è un enunciato, il suo insieme di verità è U se l’insieme
di verità di B non è vuoto, altrimenti è ∅;
se A è della forma ¬B, l’insieme di verità di A è il complemento dell’insieme
di verità di B;
se A è della forma B ∧ C, l’insieme di verità di A è l’intersezione degli
insiemi di verità di B e di C;
se A è della forma B ∨ C, l’insieme di verità di A è l’unione degli insiemi
di verità di B e di C;
se A è atomica, il suo insieme di verità è dato dalla relazione corrispon-
dente al suo simbolo relazionale.

È palese la maggiore complessità della valutazione delle formule rispetto


alle valutazioni proposizionali, e tanto più è auspicabile trovare un riduzione
meccanica di tale compito.
Per lo studio di questioni logiche, si cercherà di usare ove possibile inter-
pretazioni costruite su insiemi finiti, ovviamente più maneggevoli; ma non
sarà sempre possibile, perché esistono enunciati che hanno solo modelli in- !!!
finiti, ad esempio l’enunciato ∀x∃yR(x, y) ∧ ∀x¬R(x, x).
Ricordiamo infine le abbreviazioni che si adottano per i quantificatori
ristretti (si veda il capitolo 1) del tipo ∀x < 0 . . . per ∀x(x < 0 → . . .), ∀x ∈
X . . . per ∀x(x ∈ X → . . .) e rispettivamente ∃x < 0 . . . per ∃x(x < 0 ∧ . . .)
o ∃x ∈ X . . . per ∃x(x ∈ X ∧ . . .)

134
8.5 Esercizi
1. Scrivere in linguaggio predicativo tutte le definizioni relative alle re-
lazioni d’ordine del paragrafo 5.3 (massimo, maggiorante, . . . ).

2. Quali sono gli insiemi di verità in N di

∃y(2y = x ∧ ∃z(2z = y))

∃y(2y = x ∧ ∃y(2y = x)) ?

3. Quali sono gli insiemi di verità in N di

∃y(xy = 2 ∧ ∃z(yz = 2))

∃y(xy = 2 ∧ ∃y(xy = 2)) ?

135
9 Leggi logiche
La terminologia semantica introdotta per i linguaggi proposizionali si estende
agli enunciati predicativi. Un’interpretazione (del linguaggio) dell’enunciato
A si dice modello di A se A è vero nell’interpretazione.
Un enunciato A si dice logicamente vero se è vero in ogni interpretazione,
e si scriverà |= A.
Un enunciato B si dice conseguenza logica di A se in ogni interpretazione
in cui A è vero anche B è vero, e si scriverà A |= B.
Un enunciato B si dice logicamente equivalente a un enunciato A se A |=
B e B |= A.
Un enunciato A si dice insoddisfacibile o contraddittorio o inconsistente
se non è vero in nessuna interpretazione.
Vale ancora che per ogni A e B, A |= B se e solo se |= A → B se e solo
se A ∧ ¬B è insoddisfacibile.
Qualche volta, poiché gli enunciati sono pur sempre formule, si dice anche
“A logicamente valida” per |= A.
Ma inoltre si estendono le definizioni in modo da applicarle proprio anche
a formule aperte. Se A è una formula in cui occorre x libera, A si dice
logicamente valida se ∀xA è logicamente vero, cosı̀ come si dice valida in
un’interpretazione se ∀xA è vero in quell’interpretazione. Una formula si
dice soddisfacibile se esiste un’interpretazione in cui essa è valida1 .
Le formule logicamente valide continuano a chiamarsi anche leggi logiche.

Esempi di leggi logiche si ottengono facilmente partendo da tautolo-


gie proposizionali e rimpiazzando le lettere che vi compaiono con formule
qualunque di un linguaggio predicativo, la stessa formula a tutte le occor-
renze della stessa lettera.
Ad esempio da |= p ∨ ¬p segue |= ∃xP (x) ∨ ¬∃xP (x). Infatti, data una
qualunque intepretazione, con un qualunque predicato per P , in essa ∃xP (x)
risulterà o vero o falso. Se risulta vero, è come se si assegnasse il valore 1
a p nella proposizione; se risulta falso, è come se si assegnasse 0 a p nella
proposizione; ma questa è una tautologia, per cui risulta vera in entrambi
i casi, e i calcoli che si fanno a partire dai valori di p per arrivare al valore
dalla proposizione p ∨ ¬p sono gli stessi che si fanno a partire dal fatto che
∃xP (x) è vero o no per arrivare a dire se ∃xP (x) ∨ ¬∃xP (x) è vero o no. Non
1
Si ricordi che invece una formula A si dice soddisfacibile in un’interpretazione U se
∃xA è vero in U ; e generalizzando, se A è del tipo A(x, y), s’intende ∃x∃yA(x, y) vero.

136
c’è bisogno di considerare alcuna interpretazione e vedere se in essa ∃xP (x)
è vero o falso, perché comunque essa sia, e comunque sia l’interpretazione di
P , e quindi il valore di ∃xP (x), in essa ∃xP (x) ∨ ¬∃xP (x) risulterà vero.
Lo stesso succede con qualsiasi altra tautologia, e con la sostituzione di
una qualunque formula.
Quindi tutte le leggi logiche proposizionali restano tali considerando ora
le lettere A, B, . . . che vi compaiono come formule di un qualunque linguaggio
predicativo.
Ma esistono anche altre leggi logiche per formule con quantificatori che
non si ottengono in questo modo e dipendono proprio dal significato dei
quantificatori. Ad esempio

∀x¬A ↔ ¬∃xA

è una di queste2 .
Per verificarlo si ragiona nel seguente modo: in una qualunque interpre-
tazione, se ∀x¬A è vero, l’insieme di verità di ¬A è tutto l’universo, quindi
l’insieme di verità di A è vuoto; allora ∃xA è falso, e quindi ¬∃xA è vero.
Analogamente nell’altra direzione (esercizio)3 . 2
La legge si può considerare una generalizzazione di quelle di De Morgan,
se si pensa che affermare ∀xA(x) sia come fare una grande congiunzione per
tutte le A(x), al variare di x nell’universo, e affermare ∃xA(x), cioè che A
vale per almeno un x, sia come fare una grande disgiunzione.
Si è visto già nella definizione di unione e intersezione generalizzate come
i quantificatori esistenziale ed universale siano usati come generalizzazione
della disgiunzione e della congiunzione.
Se si combina questa legge logica con quella della doppia negazione si
ottengono altre versioni, come

¬∀x¬A ↔ ∃xA

∀xA ↔ ¬∃x¬A
2
Nella verifica di questa e delle successive leggi logiche, come già nella precedente della
forma A ∨ ¬A, supporremo per semplicità che si tratti di enunciati, solo per mostrare in
modo più facile l’idea soggiacente.
3
La legge vale naturalmente anche se x non occorre libera in A, ma in tal caso non dice
nulla, si riduce a ¬A ↔ ¬A.

137
che mostrano come i due quantificatori non siano indipendenti, ma l’uno
definibile in termini dell’altro, e della negazione. Si chiamano anche leggi
della interdefinibilità dei quantificatori.

La legge tipica del quantificatore universale è la legge di particolariz-


zazione

∀xA(x) → A(t),

dove A(t) si ottiene sostituendo il termine t a tutte le occorrenze libere di x


in A4 .
Questa legge intuitivamente esprime il fatto che, se in una qualunque
interpretazione vale ∀xA(x), allora A vale per un qualsiasi individuo, in par-
ticolare quello descritto da t; ma occorre prestare attenzione alle insidie lin-
guistiche non percepibili in una trattazione formale. La lettura della legge è
corretta se affermando che vale A(t) si intende che la proprietà espressa da
A vale per l’individuo rappresentato da t, sempre la stessa proprietà appli-
cata a diversi individui. Alcune sostituzioni sintatticamente lecite tuttavia
modificano il senso di A(t).
Se ad esempio A(x) è la formula ∃y(x 6= y), allora è vero che, poniamo
nei naturali, ma qualsiasi interpretazione con almeno due elementi andrebbe
ugualmente bene, ∀x∃y(x 6= y) e in particolare ∃y(0 6= y), ∃y(1 6= y), ∃y(1 +
1 6= y), come pure ∃y(x2 6= y) o ∃y(z 6= y).
Se però si sostituisce a x la variabile y allora non si ha più la stessa
proprietà affermata per y, come prima lo era per x, o per z o per x2 , ma si
ha ∃y(y 6= y), che a parte che è falsa, non ha più lo stesso significato.
Un esempio tratto, forzosamente, dal linguaggio comune potrebbe essere
il seguente, dove si suppone di usare “Tizio” e “Caio” come variabili: invece
di dire che ognuno ha un padre, si dica “ogni Tizio ha un Caio per padre”;
particolarizzando, non si può dedurre “Caio ha Caio per padre”.
Le sostituzioni richiedono cautela anche al di fuori del contesto della par-
ticolarizzazione; ad esempio, posto che x|y ↔ ∃z(y = x · z) significa che x
4
In verità una notazione corretta per il risultato della sostituzione di t a tutte le oc-
correnze libere di x in A sarebbe A[t/x], perché altrimenti con la scomparsa di x non si
capisce a quale variabile sia stato sostituito t. Ma nei contesti come quello della legge di
particolarizzazione non c’è rischio di confusione.
Si noti che A[t/x] ha senso anche se x non ha occorrenze libere in A e il risultato allora
è A stesso. Anche la legge di particolarizzazione vale inquesto caso, ma ∀xA → A[t/x] si
riduce a A → A.

138
divide y, allora (2x)|y significa che 2x divide y, 1|y che 1 divide y, 0|y che
0 divide y, u|y che u divide y, ma ∃z(y = z · z) significherebbe che y è un
quadrato.
Quando si applica la legge di particolarizzazione per dedurre A(t) da !!!
∀xA(x) perciò, t per essere ammissibile non deve essere e non deve contenere
variabili quantificate in A e tali che qualche occorrenza libera di x cade nel
raggio d’azione dei loro quantificatori. I termini chiusi sono sempre ammis-
sibili.
Le applicazioni della legge sono frequenti; gli assiomi di una teoria sono in
genere enunciati che iniziano con un quantificatore universale (oppure sono
presentati come formule valide, supponendo tacitamente una possibilità di
sostituzione di termini qualsiasi alle variabili che è di fatto un’applicazione
della particolarizzazione).
Si trovano sia esempi di applicazioni in cui t è chiuso sia esempi in cui
contiene variabili.
Esempio
La legge boleana dell’unicità dell’elemento neutro dell’addizione

∀x(x + y = x) → y = 0

si può dimostrare in questi due modi.


Applicando a ∀x(x+y = x) la particolarizzazione con 0 si ottiene 0+y = 0
da cui con trasformazioni algebriche, utilizzando y + 0 = y, si arriva a y = 0.
Applicando invece a ∀x(x+y = x) la particolarizzazione con −y si ottiene
−y + y = −y, quindi 1 = −y e y = 0.
Nell’esempio la formula quantificata universalmente è del tipo ∀xA(x, y),
e −y è ovviamente ammissibile perché A(x, y) non contiene quantificatori.

Una legge simmetrica rispetto a quella di particolarizzazione, che si chiama


anche di generalizzazione esistenziale, o di indebolimento esistenziale, af-
ferma che è logicamente valida

A(t) → ∃xA(x),

con le stesse restrizioni su t.


Ad esempio, siccome y + (−y) = 0 vale negli interi, si può dedurre ∃x(y +
x = 0); qui bisogna pensare che A(t) è y + (−y) = 0, con −y per t, e che
è ottenuta da y + x = 0 per sostituzione di −y a x. Ma potrebbe essere

139
stata ottenuta per sostituzione di −y a z in y + z = 0 e si può altrettanto
correttamente dedurre ∃z(y + z = 0).
Un’applicazione di questa regola appare nella dimostrazione che se due
numeri sono divisibili per 3 anche la loro somma lo è: dato due numeri n ed
m, per ipotesi esistono i e j tali che n = 3i e m = 3j, quindi n + m = 3(i + j)
da cui ∃k(n + m = 3k).

Se si combinano in serie particolarizzazione e generalizzazione esistenziale


si ottiene
∀xA(x) → ∃xA(x),
che è valida in quanto si considerano solo sempre interpretazioni in cui
l’universo non è vuoto5 .

Sono leggi logiche anche le leggi di rinomina delle variabili vincolate,


∀xA(x) ≡ ∀yA(y)
e
∃xA(x) ≡ ∃yA(y),
dove y è una variabile che non occorre in A(x)6 . È come se in italiano una
frase venisse espressa una volta con un “tutti” una volta con “chiunque” o
altro costrutto, una volta come “Ogni Tizio . . . ” e una volta come “Ogni
Caio . . . ”.
Le leggi di rinomina seguono dalla legge di particolarizzazione e dalle
prossime leggi riguardanti condizionale e quantificatori (esercizio).

Altre leggi stabiliscono dei rapporti tra connettivi e quantificatori che


permettono di trasformare le formule in altre equivalenti con un diverso segno
logico principale:
∀x(A ∧ B) ≡ ∀xA ∧ ∀xB distributività di ∀ su ∧
∃x(A ∨ B) ≡ ∃xA ∨ ∃xB distributività di ∃ su ∨
5
Se si scegliesse come U l’insieme di tutte le creature della fantasia, non si potrebbe
pretendere, come non si pretende, che ivi valgano tutte le leggi della logica. Lo stesso
nell’universo di quei filosofi che dicono che tutto è apparenza.
6
Sarebbero possibili condizioni meno forti sull’eventuale presenza di y in A(x), che
tuttavia devono sempre evitare che si verifichi il fenomeno di stravolgimento di senso
illustrato a proposito della particolarizzazione, e che non è il caso di approfondire.

140
sono immediate conseguenze del significato dei simboli logici.
Mentre è pure ovvio che siano logicamente valide

∀xA ∨ ∀xB → ∀x(A ∨ B)


∃x(A ∧ B) → ∃xA ∧ ∃xB,

non valgono le implicazioni inverse.


Se ad esempio U è un insieme con due elementi {a, b} e l’interpretazione
di P è {a} e l’interpretazione di Q è {b}, allora in questa interpretazione
∀x(P (x) ∨ Q(x)) è vero, mentre sono falsi sia ∀xP (x) (l’insieme di verità di
P (x) non è tutto U ) sia ∀xQ(x).
Esercizio. Si trovi un’interpretazione in cui ∃xA∧∃xB è vero e ∃x(A∧B)
è falso.
Sono particolarmente importanti le leggi che regolano i rapporti tra quan-
tificatori e condizionale. Mentre è facile convincersi che la distributività di ∀
su →

∀x(A → B) → (∀xA → ∀xB)

è logicamente valida, l’inversa non lo è. Per trovare un controesempio, si


deve pensare ad un’interpretazione in cui ∀xP (x) → ∀xQ(x) sia vero sem-
plicemente perché ∀xP (x) è falso, mentre non è vero ∀x(P (x) → Q(x)).
L’insieme U = {a, b, c} con {a, b} per l’insieme di verità di P (x) e {b, c} per
l’insieme di verità di Q(x) risponde allo scopo.
La non validità di

(∀xA → ∀xB) → ∀x(A → B)

è il motivo per cui A |= B non equivale a |= A → B se A e B sono formule !!!


aperte, ma solo se sono enunciati.

Se A non contiene x libera, allora

∀x(A → B(x)) ≡ A → ∀xB(x)

∃x(A → B(x)) ≡ A → ∃xB(x).

141
Per verificare la prima, dato un U qualsiasi e supposto per semplicità che A
sia un enunciato, distinguiamo due casi. Se A è falso, A → ∀xB(x) è vero,
ma d’altra parte anche ∀x(A → B(x)) è vero perché l’insieme di verità di
A → B(x), che è sempre soddisfatta se A è falso, è tutto U .
Se A è vero, l’insieme di verità di A → B(x) è uguale all’insieme di verità
di B(x). Se è uguale a U , ∀x(A → B(x)) è vero, ma anche ∀xB(x) lo è, e
cosı̀ pure A → ∀xB(x). Se non è uguale a U si ha falso da entrambi i lati. 2

Queste leggi esprimono un caso particolare della possibilità di mettere il


quantificatore nella posizione in cui il suo raggio d’azione esplica la sua fun-
zione effettiva, sulle occorrenze libere della variabile (spostarlo all’indentro).
Altri casi analoghi, e non indipendenti dai precedenti, sono le leggi

∀x(A ∨ B(x)) ≡ A ∨ ∀xB(x)

∃x(A ∧ B(x)) ≡ A ∧ ∃xB(x)

se x non occorre libera in A.


Ovviamente, per la commutatività di ∧ e ∨, la formula senza la variabile
libera può essere sia la prima sia la seconda della congiunzione e rispetti-
vamente disgiunzione. Invece il condizionale non è commutativo. Tuttavia
esistono leggi riguardanti i quantificatori nell’antecedente, ma forse più sor- !!!
prendenti:

∀x(A(x) → B) ≡ ∃xA(x) → B

∃x(A(x) → B) ≡ ∀xA(x) → B

se x non occorre libera in B.


La prima legge corrisponde al seguente uso linguistico: quando si dice
che qualche cosa, espressa da B, dipende solo dal fatto che (l’insieme di
verità di) A non sia vuoto, e non da un particolare elemento (come sarebbe
se x occorresse in B e dovesse soddisfarla), allora si può enfatizzare che
qualunque elemento va bene. Se si afferma “se uno ha un amico è felice” -
∃xA(x, y) → F (y) - si vuol dire che qualunque sia l’amico, anche un cane,
porta felicità (a y).

142
Per la dimostrazione, si supponga ∃xA(x) → B vero, quindi B vero o
∃xA(x) falso. Se B è vero, allora l’insieme di verità di A(x) → B è tutto
l’universo, perché per ogni elemento il condizionale ha il conseguente vero. Se
∃xA(x) è falso, di nuovo l’insieme di verità di A(x) → B è tutto l’universo,
perché per ogni elemento il condizionale ha l’antecedente falso.
Se invece ∃xA(x) → B è falso, allora B è falso e ∃xA(x) è vero, quindi
almeno un elemento soddisfa A. Quando si esamina la formula A(x) → B,
per questo elemento si ha vero-falso per il condizionale, che risulta falso, e
quindi l’insieme di verità di A(x) → B non è tutto l’universo e ∀x(A(x) → B)
è falso. 2
L’altra analoga legge si ricava nello stesso modo; se ∃x(A(x) → B) è vero
in U , allora qualche elemento di U soddisfa A(x) → B; se B è vero, anche
∀xA(x) → B lo è; se A(x) non è soddisfatto da questo elemento, allora
∀xA(x) è falso e ∀xA(x) → B è vero.
Se ∃x(A(x) → B) è falso, per qualunque elemento A(x) → B non è
soddisfatta, quindi il calcolo del condizionale porta a un vero-falso, e A(x)
deve essere soddisfatta e B deve essere falso; ma allora ∀xA(x) è vero e B è
falso e ∀xA(x) → B falso. 2

Le equivalenze che permettono di spostare all’interno i quantificatori per- !!!


mettono anche di spostarli all’esterno; si ottiene cosı̀ che ogni formula è
equivalente ad una formula in cui tutti i quantificatori sono all’inizio - e
formano il cosiddetto prefisso - seguiti da una formula senza quantificatori -
detta matrice; una formula scritta in questo modo di dice in forma prenessa 7 .
Ad esempio
∀xP (x) ∨ ∀xQ(x) → ∀x(P (x) ∨ Q(x))
è equivalente (esercizio) a
∃x∃y∀z(P (x) ∨ Q(y) → P (z) ∨ Q(z))
ma anche a
∀z∃x∃y(P (x) ∨ Q(y) → P (z) ∨ Q(z))
ed esistono altre forme prenesse della stessa formula, a seconda dell’ordine
in cui si esportano i quantificatori.
7
L’interesse di tale trasformazione sta nel suo essere il passo preliminare di
un’elaborazione su cui si basano i dimostratori automatici più efficienti.

143
Si noti lo scambio dei quantificatori universali ed esistenziali nei due pre-
fissi; lo scambio di solito non è permesso, non è valido in generale, ma capita
con prefissi diversi di due forme premesse equivalenti di una stessa formula.
Le regole viste, ed elencate nella tabella di sotto, sono sufficienti a trasfor-
mare ogni formula in forma prenessa.

Leggi logiche notevoli 2

∀x¬A ↔ ¬∃xA De M organ generalizzata


¬∀x¬A ↔ ∃xA ”
∀xA ↔ ¬∃x¬A ”
∀xA(x) → A(t) particolarizzazione (t ammissibile)
A(t) → ∃xA(x) generalizzazione esistenziale ”
∀xA(x) ↔ ∀yA(y) rinomina
∃xA(x) ↔ ∃yA(y) rinomina
∀x(A ∧ B) ↔ ∀xA ∧ ∀xB distributività di ∀ su ∧
∃x(A ∨ B) ↔ ∃xA ∨ ∃xB distributività di ∃ su ∨
∀xA ∨ ∀xB → ∀x(A ∨ B) distributività parziale di ∀ su ∨
∃x(A ∧ B) → ∃xA ∧ ∃xB distributività parziale di ∃ su ∧
∀x(A → B) → ∀xA → ∀xB distributività parziale di ∀ su →
∀x(A → B(x)) ↔ A → ∀xB(x) (x non libera in A)
∃x(A → B(x)) ↔ A → ∃xB(x) (x non libera in A)
∀x(A ∨ B(x)) ↔ A ∨ ∀xB(x) (x non libera in A)
∃x(A ∧ B(x)) ↔ A ∧ ∃xB(x) (x non libera in A)
∀x(A(x) → B) ↔ ∃xA(x) → B (x non libera in B)
∃x(A(x) → B) ↔ ∀xA(x) → B (x non libera in B)
∀x∀yA(x, y) ↔ ∀y∀xA(x, y) scambio dei quantif icatori
∃x∃yA(x, y) ↔ ∃y∃xA(x, y) scambio dei quantif icatori

Tuttavia alcune ulteriori leggi utili si derivano da esse con l’uso della
rinomina delle variabili vincolate. Ad esempio dalla distributività di ∀ su
∧ segue ∀xA ∧ B ≡ ∀x(A ∧ B) se x non libera in B, e analogamente dalla
distributività di ∃ su ∨ segue ∃xA ∨ B ≡ ∃x(A ∨ B) se x non libera in B.
Per trasformare in forma prenessa ∀xA(x) ∧ ∃xB(x) si può allora ot-
tenere prima ∃x(∀xA(x) ∧ B(x)); quindi poiché x è libera in B(x) si sostitu-

144
isce ∀xA(x) ∧ B(x) con l’equivalente ∀z(A(z) ∧ B(x)), dopo la rinomina di
∀xA(x) ∧ B(x) in ∀zA(z) ∧ B(x);
Si ottiene infine ∀xA(x) ∧ ∃xB(x) ≡ ∃x∀z(A(z) ∧ B(x)), oppure in altro
modo (esercizio) ∀xA(x) ∧ ∃xB(x) ≡ ∀x∃z(A(x) ∧ B(z)).

9.1 Esercizi
1. Dedurre la generalizzazione esistenziale dalla particolarizzazione uni-
versale e da De Morgan generalizzata.

2. Dedurre le leggi di rinomina dalla legge di particolarizzazione e dalle


leggi relative a condizionale e quantificatori.

3. Dedurre le une dalle altre le leggi riguardanti ∀ e ∨, ∃ e ∧, ∀ e →.

4. Trasformare in forma prenessa le seguenti formule:

∀x∃yR(x, y) ∧ (∃xP (x) ∨ ∃xQ(x))

∀x∃yR(x, y) ∨ (∃xP (x) ∧ ∃xQ(x))

∀xP (x) ∨ ∀x(Q(x) → ∃zR(x, z))

∀x(P (x) ∨ ∀xQ(x)) → ∃x(P (x) ∨ Q(x)).

9.2 Quantificatori e dimostrazioni


Completata la presentazione del linguaggio dei predicati e delle principali
leggi logiche, possiamo vedere come intervengono nelle dimostrazioni; di
solito in queste si glissa sulla gestione delle variabili.
Le frasi matematiche presenti nelle premesse e conclusioni di una di-
mostrazione sono rappresentate da enunciati di linguaggi predicativi, mentre
i passaggi intermedi di solito sono formule, formule algebriche8 o loro com-
binazioni proposizionali, con variabili libere; si tratta di vedere come si fa a
togliere e (ri)mettere i quantificatori.
Queste mosse sono le sole da aggiungere; per il resto restano valide tutte
le regole logiche e le strategie proposizionali, visto che le regole di inferenza
8
Una definizione generale di “formula algebrica” potrebbe essere “formula atomica con
predicato = o < e termini complessi”.

145
che rispettano la relazione di conseguenza logica valgono anche quando le
lettere indicano formule di linguaggi predicativi.
Consideriamo l’esempio già menzionato di

il successore di un numero pari è dispari,

che in simboli diventa

∀x(∃y(x = 2 · y) → ¬∃y(x + 1 = 2 · y)).

Per dimostrare questo enunciato, dimostriamo la formula

∃y(x = 2 · y) → ¬∃y(x + 1 = 2 · y),

quantificando alla fine universalmente la variabile x trattata in senso univer-


sale nel corso della dimostrazione.
Per dimostrare un condizionale, assumiamo come premessa l’antecedente
e deduciamo il conseguente.
Data ∃y(x = 2 · y), diciamo “sia c un elemento tale che x = 2 · c” e
scriviamo

x = 2 · c,

dove c è una nuova costante.


Si dice che x = 2 · c è ottenuta per esemplificazione esistenziale. La mossa
riassume il ragionamento “introduciamo un nome temporaneo per uno9 di
questi elementi che soddisfano la formula x = 2 · y”, nome che non può
essere uno di quelli disponibili nell’alfabeto perché non si sa quale sia questo
elemento10 .
Ora da x = 2 · c occorre dedurre ¬∃y(x + 1 = 2 · y). La forma negativa
suggerisce di fare una dimostrazione per assurdo; si assume quindi

∃y(x + 1 = 2 · y).
9
In questo esempio particolare ce ne può essere solo uno, ma in generale, col quantifi-
catore esistenziale, non si sa quanti ≥ 1 ce ne sono.
10
Siccome c dipende da x, si dovrebbe piuttosto avere una funzione di x, o una notazione
del tipo cx , che però sarebbe inutilmente pesante.

146
Di nuovo, sia d una nuova costante, per cui x + 1 = 2 · d. d non solo
deve essere nuova non solo rispetto a quelle del linguaggio originario, ma
anche rispetto a quelle introdotte nel corso dell’argomentazione; in attesa di
ulteriori elaborazioni non si sa infatti e non si può dire se l’elemento sia lo
stesso o diverso11 .
Ora occorre svolgere le conseguenze di x = 2 · c ∧ x + 1 = 2 · d. c e d
vengono da due mosse indipendenti che non permettono di sapere come sono
fra loro i due elementi cosı̀ denotati; si devono quindi considerare tutte le
possibilità, che c = d, che c < d, che d < c.
c = d porta a una contraddizione x = x + 1; d < c porta a una contrad-
dizione x + 1 < x; c < d porta, per sottrazione, a 1 = 2 · (d − c) ≥ 2; in ogni
caso una contraddizione, a partire da ∃y(x + 1 = 2 · y), e da x = 2 · c, quindi
¬∃y(x + 1 = 2 · y), come si voleva dimostrare12 .
¬∃y(x + 1 = 2 · y) è stata dedotta da x = 2 · c, ma nella conclusione non si
parla di c, utilizzata come appoggio nel ragionamento; il che è bene, perché
non sarebbe opportuno concludere un teorema con una formula in cui occorre
un elemento sconosciuto. D’altra parte l’obiettivo della dimostrazione, fissato
all’inizio, non contemplava elementi sconosciuti, ma enunciati determinati.
E infine nella dimostrazione non si è usata alcuna proprietà di c, se non il
fatto che x = 2 · c.
Si conclude allora che ¬∃y(x + 1 = 2 · y) è stata in realtà dedotta da
∃y(x = 2 · y). 213
Quest’ultimo passaggio tecnicamente chiude l’applicazione della regola
dell’esemplificazione esistenziale, che copre tutti i passi dal momento in cui
si dice “sia c un elemento tale che x = 2c” fino a quando scompare la c. Esso
può sembrare diverso da una meccanica applicazione di una regola sintattica
(che ha una o due premesse e una conclusione immediata).
11
Se alla fine dovesse risultare che d è uguale a c, vuol dire che si sono attributi due
nomi allo stesso elemento, che non è inusuale, sia nella vita comune sia in matematica,
ogni volta che si dimostra che due termini sono uguali, ad esempio 0 = 0 + 0.
12
Ripasso di logica proposizonale: se da p e q segue una contraddizione C, p ∧ q → C,
ne segue ¬(p ∧ q), le due proposizioni sono incompatibili, ma quale salvare? ¬(p ∧ q) è
equivalente sia a p → ¬q sia a q → ¬p. Tuttavia dallo svolgimento della dimostrazione si
vede che in realtà si è dimostrato l’equivalente, per importazione/esportazione, p → (q →
C), da cui p → (¬C → ¬q) e quindi p → ¬q (perché?), e la scelta è dunque implicita
nell’impostazione della dimostrazione.
13
La dimostrazione termina poi scrivendo prima ∃y(x = 2 · y) → ¬∃y(x + 1 = 2 · y) e
quindi poiché x era qualunque, ∀x(∃y(x = 2 · y) → ¬∃y(x + 1 = 2 · y)).

147
Prima di discutere questo fatto, vediamo un altro caso di esemplificazione
esistenziale: dimostriamo che se un numero è divisibile per 4 allora è divisibile
per 2. In questo caso l’elemento sconosciuto apparentemente si mantiene
fino alla fine, nella conclusione, ed allora deve essere eliminato da questa con
un’applicazione della generalizzazione esistenziale.
Da

∃y(x = 4 · y)

si passa a

x=4·c
x = (2 · 2) · c
x = 2 · (2 · c)

Di qui si vede che x è divisibile per 2, ma non si può terminare con questa
formula. Per generalizzazione esistenziale invece, considerata la formula x =
2 · (2 · c) come formula del tipo A[2 · c/y], con A(y) uguale a x = 2 · y, si può
allora dedurre

∃y(x = 2 · y),

per concludere

∃y(x = 4 · y) → ∃y(x = 2 · y)

e quindi

∀x(∃y(x = 4 · y) → ∃y(x = 2 · y)). 2

Il problema logico della regola di esemplificazione esistenziale consiste nel


fatto che A(c) non è conseguenza logica di ∃yA(y), e quindi nella successione
di formule che costituiscono la proposta dimostrazione non è più vero che
ogni formula è conseguenza logica delle precedenti (o un assioma del dominio
in oggetto o una legge logica).
A(c) non è conseguenza logica di ∃yA(y) perché può succedere che in
un’interpretazione ∃yA(y) sia vero ma c non sia uno degli elementi che sod-
disfano A. Ad esempio ∃y(0 < y) è vero in N, ma se c denota 0 allora 0 < c
è falso. È vero che noi affermiamo A(c), ma questa si presenta come una
nuova assunzione su c, non come una conseguenza di ∃yA(y).

148
Si può tuttavia dimostrare che, nelle condizioni della regola applicata a !!!
∃yA(y), se B è una formula che non contiene c, e se B è conseguenza logica
di A(c) allora B è conseguenza logica di ∃yA(y) - nonostante A(c) non sia
conseguenza logica di ∃yA(y).
La spiegazione, in breve, è la seguente. Posto che B segua da A(c), dove
c non occorre in B, si ha

A(c) → B.

Ma di c non si sa nulla, a parte il fatto A(c). Qualunque elemento denoti c


va bene, e soddisfa A(c) → B. Questo sembra potersi esprimere come

∀c(A(c) → B)

a parte l’errore sintattico di quantificare un simbolo che abbiamo chiam-


ato costante. Ma se l’avessimo chiamato variabile, se avessimo usato una
variabile w della nostra disponibilità illimitata di variabili, una che non oc-
corresse altrimenti nella dimostrazione (in modo da non avere vincoli che non
ci devono essere, salvo A(w)), avremmo concluso

A(w) → B

con w non in B, quindi

∀w(A(w) → B)

e infine

∃wA(w) → B.

Torneremo in seguito sul problema.


Ora ci limitiamo a far vedere che la regola di esemplificazione esistenziale
si può giustificare con una serie di regole logiche usuali, nel senso che le sue
applicazioni possono essere sostituite da altri ragionamenti che non ne fanno
uso.
Consideriamo di nuovo l’esempio di

∃y(x = 2 · y) → ¬∃y(x + 1 = 2 · y).

Poiché y non è libera nel conseguente, si può scrivere in modo equivalente

∀y(x = 2 · y → ¬∃y(x + 1 = 2 · y));

149
come nell’esempio dell’amico che rende felici, che può essere qualunque, anche
ora si dice che y può essere qualunque, purché soddisfi poi l’antecedente
x = 2 · y.
Allora la y di x = 2 · y è trattata in questa versione della dimostrazione
come una variabile universale. Data una y qualunque, occorre dimostrare
che
x = 2 · y → ¬∃y(x + 1 = 2 · y),
ovvero
x = 2 · y → ∀y(x + 1 6= 2 · y).
Il quantificatore del conseguente può essere spostato nel prefisso, dopo aver
eseguito un’opportuna rinomina, e la formula da dimostrare è equivalente a
∀z(x = 2 · y → x + 1 6= 2 · z);
quindi possiamo provare a dimostrare
x = 2 · y → x + 1 6= 2 · z,
con tutte le variabili intese in senso universale.
Per assurdo, assumiamo la negazione del condizionale, quindi
x = 2 · y ∧ x + 1 = 2 · z,
e con gli stessi calcoli fatti sopra, con y e z al posto rispettivamente di c e d,
arriviamo a una contraddizione.
Abbiamo quindi
x = 2 · y → x + 1 6= 2 · z,
e quantificando universalmente
∀x∀y∀z(x = 2 · y → x + 1 6= 2 · z),
da cui con le leggi logiche pertinenti
∀x(∃y(x = 2 · y) → ∀z(x + 1 6= 2 · z)). 2

Si noti che di solito nel gergo matematico, dove non si usa indicare i
quantificatori, attraverso un’interpretazione (corretta) dell’enunciato da di-
mostrare si imposta direttamente proprio

150
se x = 2 · y, allora x + 1 6= 2 · z.

Altro esempio. Per dimostrare


∃y(x = 4 · y) → ∃y(x = 2 · y)
si trasformi la formula nell’equivalente
∀y(x = 4 · y → ∃y(x = 2 · y))
e si provi a dimostrare
x = 4 · y → ∃y(x = 2 · y).
Partendo da x = 4 · y si fanno gli stessi passaggi di prima, x = (2 · 2) · y,
x = 2 · (2 · y) e quindi con la generalizzazione esistenziale ∃y(x = 2 · y). 2

Un problema delle esemplificazioni esistenziali, non logico ma pratico, è che non


c’è l’abitudine di usare coerentemente costanti, ma spesso si utilizzano le variabili.
In riferimento all’esempio precedente, dato ∃y(x = 2 · y) si propone: “sia y un
elemento tale che x = 2 · y”.
L’uso di variabili è legittimo, ma richiede diverse cautele.
La variabile y di “sia y tale che A(y)”, a seguito di ∃yA(y), non deve comparire
libera in eventuali altre formule già utilizzate nella dimostrazione, e che pongono
vincoli sull’elemento denotato da y, mentre di questo si sa solo, e si vuole usare solo
il fatto che soddisfa A(y). Nel caso in esame, ∃y(x = 2·y) è la prima assunzione da
cui si parte, quindi non si presenta questo problema, altrimenti si deve usare una
nuova variabile e dire “sia w tale che A(w)” - o fare prima una rinomina di ∃yA(y).
Questo ha anche il vantaggio, se la variabile è insolita, di ricordare il suo status
speciale. Il termine usato per l’esemplificazione esistenziale deve essere appunto un
termine, vale a dire un’espressione che denota un elemento (sconosciuto salvo per
il fatto che deve soddisfare A) delle interpretazioni. Che il simbolo nuovo sia un
c non presente nell’alfabeto, o un simbolo w presente nell’alfabeto ma mai usato,
e si chiami di conseguenza costante o variabile non fa nessuna differenza, se lo si
gestisce in modo corretto. Se è una variabile, questa variabile libera ha un senso
particolare, non universale, condizione che deve essere tenuta presente nel corso di
tutta la dimostrazione, finché essa non scompare.
La variabile introdotta in un’esemplificazione esistenziale scompare nello stesso
modo come abbiamo visto scomparire la c, ad esempio per generalizzazione esisten-
ziale14 .
14
È in genere il destino più comune delle variabili introdotte a partire da un quantifica-
tore esistenziale.

151
Da “sia y un elemento tale che x = 2·y” la dimostrazione prosegue come sopra:
si deve dimostrare che da x = 2 · y segue ¬∃y(x + 1 = 2 · y).
Per assurdo, si assume x = 2 · y e ∃y(x + 1 = 2 · y) e di nuovo si applica
l’esemplificazione esistenziale. La regola richiede che si utilizzi una variabile diversa
da quelle che occorrono libere nella parte precedente, in questo caso da y.
Si perviene cosı̀ a x = 2 · y ∧ x + 1 = 2 · z da cui segue una contraddizione con
gli stessi calcoli di sopra, con y e z al posto rispettivamente di c e d. 2
Altro esempio. La dimostrazione di ∃y(x = 4 · y) → ∃y(x = 2 · y) si svolge
come sopra assumendo ∃y(x = 4 · y) ed esemplifcando: sia y uno di questi, per cui
x=4·y
x = (2 · 2) · y
x = 2 · (2 · y)
∃y(x = 2 · y),
quest’ultima per generalizzazione esistenziale. 2
È come se il quantificatore ∃y, staccato dall’ipotesi, restasse a seguire dall’alto
i vari passi e trasformazioni della sua y, in questo caso in 2 · y, per poi alla fine
ripiombare nella posizione dovuta.

L’uso delle variabili faciliterebbe, come abbiamo visto sopra, la giustificazione


logica della regola di esemplificazione esistenziale.
Noi useremo sempre le costanti per le esemplificazioni esistenziali, ma si deve
essere avvertiti della possibilità di incontrare l’uso di variabili. Talvolta si incon-
trano soluzioni intermedie, ad esempio simboli come x0 , k che sembrano diversi
dalle variabili15 .

La regola relativa all’eliminazione temporanea del quantificatore esisten-


ziale afferma dunque che si può esemplificare un’affermazione esistenziale
∃yA(y) con A(c) o A(w) se per questa via si perviene a una conclusione
che non contiene la costante o non contiene libera la variabile usata per
l’esemplificazione.
Tuttavia le cautele e le restrizioni per questa regola non sono ancora finite.
Finché la costante o la variabile introdotte come esemplificazione di un
quantificatore esistenziale non sono scomparse, l’argomento è incompleto, e
non terminato, come in sospeso, per il riferimento a questo elemento sconosci-
uto. La costante o variabile può scomparire o per passaggi proposizionali
15
“Teorema: se esiste un massimo interno al dominio, esiste un punto in cui la derivata
si annulla. Dimostrazione: sia x0 un punto di massimo . . . ”. “Teorema: se x è pari allora
. . . Dimostrazione: sia x = 2 · k . . . ”.

152
(come sopra, una dimostrazione per assurdo di un altro enunciato, oppure
per il taglio di un modus ponens), o per generalizzazione esistenziale16 .
Quello che bisogna assolutamente evitare è di quantificare universalmente !!!
una variabile che sia stata introdotta come esemplificazione di un quantifica-
tore esistenziale (in questo l’uso di una costante ha ovvi vantaggi).
Un esempio di errore clamoroso dovuto a una simile disattenzione è la
seguente dimostrazione di ∃x∀y(x < y) a partire da ∀x∃y(x < y).
Assunto ∀x∃y(x < y), per particolarizzazione si ha ∃y(x < y); per es-
emplificazione esistenziale, sia y tale che x < y. Se ora dimenticandosi della
natura esistenziale di y si affermasse ∀y(x < y) si potrebbe concludere per
generalizzazione esistenziale che ∃x∀y(x < y).
Ma questa conclusione non è conseguenza della premessa, come si vede
dal fatto che la premessa è ad esempio vera negli interi, mentre la conclusione
non lo è.
Anche la gestione della introduzione del quantificatore universale è più
delicata di quanto finora abbiamo lasciato intendere. Si possono legittima-
mente (ri)quantificare universalmente le variabili libere che derivano per par-
ticolarizzazione da un quantificatore universale, ma non è questa tutta la
storia. A volte sembra di lavorare con varibili libere che non derivano da
una particolarizzazione, e che pure hanno un significato universale. La vera
condizione è che le variabili non occorrano libere nelle premesse. !!!
Ad esempio, se si parte da 0 < x e con un argomento corretto, utilizzando
le proprietà dei numeri reali, si conclude ∃y(x = y 2 ), non si può affermare
∀x∃y(x = y 2 ) - c’è una condizione restrittiva su x stabilita dalla premessa.
In realtà l’argomento che porta da 0 < x a ∃y(x = y 2 ) stabilisce 0 < x →
∃y(x = y 2 ) per x qualunque, senza alcuna premessa (salvo le proprietà dei
numeri reali espresse da enunciati, senza variabili libere). Quindi x non è
libera nelle premesse della derivazione di quest’ultima formula, che non ci
sono, e si può correttamente quantificarla in ∀x(0 < x → ∃y(x = y 2 )).
Un altro caso del genere si ha nell’esempio precedente “se x è pari allora
x + 1 è dispari”. La dimostrazione che da “x è pari” porta a “x + 1 è dispari”
stabilisce “x è pari → x + 1 è dispari” senza premesse che non siano gli
16
L’affermazione ∃yA(y) introdotta per generalizzazione esistenziale comporta
un’affermazione apparentemente più debole, generica, rispetto a A(t), che sembra indi-
care esplicitamente un elemento con la proprietà A, ma nelle applicazioni come si è visto,
se t deriva da un’esemplificazione esistenziale, allora in realtà anche la sua denotazione è
vaga.

153
assiomi dei numeri naturali, espressi da enunciati. Quindi si può quantificare
universalmente la x.

Infine esiste un problema con la generalizzazione universale all’interno


della esemplificazione esistenziale.
Un esempio di errore dovuto a cattiva gestione della quantificazione uni-
versale è il seguente. Da ∀x∃y(x < y) per particolarizzazione si ha ∃y(x < y)
e per esemplificazione, sia c tale che x < c. Se ora si quantifica universalmente
x si ottiene ∀x(x < c) e per generalizzazione esistenziale ∃y∀x(x < y). La
conclusione, che afferma l’esistenza di un massimo per <, è palesemente falsa
nei naturali, dove invece la premessa è vera. Ma la premessa è un enunciato, e
sembrerebbe quindi che non vi fossero variabili libere nelle premesse e tutte
le regole fossero applicate correttamente. La spiegazione sta nel fatto che !!!
quanto si dice “sia c tale che x < c” inizia, come abbiamo detto sopra, un ar-
gomento particolare, una sorta di dimostrazione a parte che non si considera
conclusa finché tale c non sparisce legittimamente. In questa dimostrazione
subordinata, x < c è una premessa, e x è libera in x < c, e non è lecito perciò
quantificare universalmente la x.
Due altre possibili spiegazioni della restrizione sono le seguenti. Si immagini di
non usare la regola di esemplificazione esistenziale, quindi di provare a dimostrare

∀x∃y(x < y) → ∃y∀x(x < y)

come

∃x∀y(x < y → ∃y∀x(x < y)).

Dopo i preliminari “sia x tale che . . . ” si deve cercare di dedurre partendo da x < y
prima ∀x(x < y) e quindi ∃y∀x(x < y). Ma l’assunzione x < y non può essere
quantificata universalmente, è una premessa della derivazione del condizionale.
Oppure si può pensare che quando si passa da ∃y(x < y) a x < c il termine c
dipenda da x (si scriva cx per ricordarlo, potrebbe essere addirittura proprio un
termine c(x), c nuovo simbolo funzionale). Allora l’applicazione della regola di
generalizzazione esistenziale per ottenere ∃z∀x(x < z) da ∀x(x < cx ) non sarebbe
lecita in quanto cc non sarebbe ammissibile per ∀x(x < z).
Queste sottigliezze sono precisate e rese di agevole applicazione nei sis-
temi di regole che costituiscono i calcoli logici per i linguaggi predicativi, ad
esempio il calcolo della deduzione naturale, che rientrano negli argomenti non
propedeutici.

154
10 Sillogismi
I sillogismi sono forme di ragionamento studiate fin dall’antichità che coin-
volgono enunciati di linguaggi predicativi, ancorché di un tipo semplificato;
molti argomenti del linguaggio comune si presentano in tale forma, e rapp-
resentano perciò un utile esercizio, sia di formalizzazione sia di deduzione,
anche al di fuori della matematica.
Gli enunciati che intervengono nei sillogismi contengono solo predicati
monadici, a un posto, e inoltre sono di una forma particolare.
Gli enunciati presi in considerazione e combinati tra loro affermano sem-
pre una delle seguenti circostanze: che tutti quelli che hanno una proprietà
P hanno anche la proprietà Q; che nessuno di quelli che hanno una proprietà
P hanno la proprietà Q; oppure che qualcuno che ha la proprietà P ha anche
Q, o infine che qualcuno con la proprietà P non ha Q.
Enunciati di questa forma si chiamano, nella tradizione logica, propo-
sizioni categoriche1 .
A prima vista si direbbe che il loro studio costituisca un’analisi dei quan-
tificatori, ma è forse più corretto dire che mette in evidenza e sfrutta alcune
relazioni insiemistiche della sola intersezione, e precisamente
A ∩ B = A, ovvero A⊆B
A ∩ B = ∅, ovvero A e B sono disgiunti
A ∩ B 6= ∅, ovvero A e B non sono disgiunti.
Le proposizioni categoriche venivano scritte e lette nel seguente modo,
dove a fianco mettiamo la versione insiemistica e quella logica moderna:

A Tutti i P sono Q P ⊆Q ∀x(P (x) → Q(x))


E Nessun P è Q P ∩Q=∅ ∀x(P (x) → ¬Q(x))
I Qualche P è Q P ∩ Q 6= ∅ ∃x(P (x) ∧ Q(x))
O Qualche P non è Q P 6⊆ Q ∃x(P (x) ∧ ¬Q(x)).

Le lettere a sinistra sono la sigla con cui venivano indicate le corrispondenti


1
Si ammetteva un’estensione a proposizioni contenenti termini singolari come “Socrate”
introducendo un predicato S per “socraticità”, con un unico elemento, e traducendo
“Socrate è mortale” con “Tutti quelli che hanno la proprietà S sono mortali”.

155
proposizioni2 : A ed E sono proposizioni affermative, rispettivamente uni-
versale ed esistenziale; I e O sono negative, rispettivamente universale ed
esistenziale.
Le parole “tutti”, “nessuno”, “qualche” diventavano superflue, sostituite
dalla sigla prefissa; scrivendo “A : P Q” si intendeva la frase “tutti i P sono
Q”, con “I : P Q” la frase “qualche P è Q”, e cosı̀ via. Il simbolismo logico
come si vede ha una lunga storia.
Siccome c’era sempre solo una variabile individuale, non si è sentita
l’esigenza di indicarla. Il verbo era sempre il verbo “essere”; noi dobbiamo
distinguere i casi universali che richiedono condizionale e quelli particolari,
resi da una congiunzione.

10.1 Sillogismi categorici


I sillogismi categorici3 sono inferenze in cui occorrono due premesse e una
conclusione, tutte e tre proposizioni categoriche, costruite con tre predicati,
di cui uno inevitabilmente occorre due volte nelle premesse, per stabilire un
legame, e si possono presentare ad esempio nel seguente modo:
I : P M
E: S M
O: S P.
Il predicato S si chiama di solito soggetto, il predicato P predicato e il
predicato M termine medio.
Un sillogismo è valido se la conclusione è conseguenza logica delle pre- !!!
messe.
Tutti i possibili sillogismi si caratterizzano per due aspetti; il primo è
il tipo di proposizioni categoriche che nell’ordine lo costituiscono, si chiama
modo, ed è rappresentato da tre lettere; ad esempio il modo del sillogismo di
sopra è I E O.
Il secondo parametro è la disposizione dei tre predicati nelle tre propo-
sizioni, e si chiama figura. Se si standardizza le presentazione, ad esempio
chiedendo che la conclusione contenga sempre la coppia S P nell’ordine - da
2
I simboli per i quantificatori vengono probabilmente da questa tradizione di usare le
lettere per indicare il tipo di quantificazione. In tutte le lingue dei logici moderni, italiano,
inglese, tedesco, “esiste” inizia con “e”, mentre “tutti” inizia con “a” in tedesco e inglese.
Le lettere A e I sono le prime vocali di affirmo, E e O quelle di nego.
3
D’ora in avanti diremo soltanto “sillogismi”.

156
cui il nome di questi due predicati4 -, osservando che il termine medio deve
sempre comparire in entrambe le premesse - altrimenti si vede facilmente che
il sillogismo non è valido5 - e che l’ordine delle premesse non è rilevante (per
la terminologia, si chiama premessa maggiore quella che contiene S, e minore
l’altra) si ottengono in tutto quattro figure:

SM SM MS MS
P M MP MP P M.

I sillogismi possibili sono 256 (esercizio), ma quelli validi solo6 15.


Dimostrare la validità di un sillogismo equivale a dimostrare che la con-
clusione è conseguenza logica delle premesse, e questo si può fare con la
derivazione della conclusione dalle premesse con passaggi che conservano la
conseguenza logica. Per dimostrare che un sillogismo non è valido, quando
non lo è, non basta non riuscire a costruire la derivazione dalle premesse,
occorre trovare un controesempio.
Per svolgere le dimostrazioni, occorre usare solo, sulle premesse, la regola
di particolarizzazione sugli enunciati universali e quella di esemplificazione
esistenziale sugli enunciati esistenziali; questa conviene applicarla prima della
particolarizzazione. Quindi si applicano leggi proposizionali e infine i quan-
tificatori si reintroducono o con la generalizzazione esistenziale, se la conclu-
sione è esistenziale, o con quella universale, se la conclusione è universale.
Esempi
Derivazione della conclusione dalle premesse del sillogismo valido

E: P M
I : S M
O: S P,
ovvero
4
Sono grammaticalmente il soggetto e il predicato della conclusione.
5
A meno che la conclusione non coincida con una premessa.
6
Una lunga controversia ha riguardato il fatto di considerare o no predicati vuoti,
decisione che influenza la validità o meno di certi sillogismi. Nell’antichità si preferiva evi-
tarli; nella trattazione moderna prevale l’interpretazione cosiddetta booleana, che ammette
predicati vuoti. Sono 15 i sillogismi validi nell’interpretazione booleana.

157
∀x(P (x) → ¬M (x))
∃x(S(x) ∧ M (x))
∃x(S(x) ∧ ¬P (x)).

Presentiamo la dimostrazione nella seguente tabella, in una colonna in


versione formale, con la successione di formule, nell’altra con la loro lettura
in linguaggio naturale.

Linguaggio predicativo Linguaggio naturale


∃x(S(x) ∧ M (x)) Qualche S è un M.

S(c) ∧ M (c) Sia c un S che è anche un M.

S(c) Allora c è un S e

M (c) c è un M.

∀x(P (x) → ¬M (x)) N essun P è M.

P (c) → ¬M (c) Se c è un P allora c non è un M, o


Se c fosse un P non sarebbe un M.
per contrapposizione
M (c) → ¬P (c) Se c è un M allora non è un P.

da questo e da M (c) M a siccome c è un M,


¬P (c) allora c non è un P.

da questo e da S(c) Siccome c è un S,


S(c) ∧ ¬P (c) c è un S che non è un P.

∃x(S(x) ∧ ¬P (x)) Qualche S non è un P.

158
In modo del tutto analogo, si dimostri (esercizio) la validità del sillogismo:

A: P M
O : S M
O: S P,
ovvero

∀x(P (x) → M (x))


∃x(S(x) ∧ ¬M (x))
∃x(S(x) ∧ ¬P (x)).

Un altro esempio di sillogismo valido è il seguente:

A: M S
I : M P
I: S P,

ovvero

∀x(M (x) → S(x))


∃x(M (x) ∧ P (x))
∃x(S(x) ∧ P (x)).

con la dimostrazione:

159
Dimostrazione

Linguaggio predicativo Linguaggio naturale


∃x(M (x) ∧ P (x)) Qualche M è P.

M (c) ∧ P (c) Sia c un M che è anche un P.

M (c) c è un M.

P (c) c è un P.

∀x(M (x) → S(x)) T utti gli M sono S.

M (c) → S(c) Se c è un M allora c è un S.

S(c) Siccome c è un M,
c è un S.

S(c) ∧ P (c) Siccome c è un P


c è un S che è anche un P.

∃x(S(x) ∧ P (x)) Qualche S è un P.

Valido è anche il sillogismo

A: S M
A : M P
A: S P,

ovvero

∀x(S(x) → M (x))
∀x(M (x) → P (x))
∀x(S(x) → P (x)),

160
con la seguente dimostrazione:

Dimostrazione

Linguaggio predicativo Linguaggio naturale


∀x(S(x) → M (x)) T utti gli S sono M.

S(x) → M (x) U no che sia un S è anche un M.

∀x(M (x) → P (x)) T utti gli M sono P.

M (x) → P (x) U no che sia un M è anche un P.

per transitività da 2 e 4
S(x) → P (x) U no che sia un S è anche un P.

∀x(S(x) → P (x)) T utti gli S sono P.

Si noti che “Qualche S è P ” sembra più debole di “Tutti gli S sono P ”, e


quindi si potrebbe pensare che sia conseguenza delle stesse premesse. Invece
il sillogismo

A: S M
A : M P
I: S P,

ovvero

∀x(S(x) → M (x))
∀x(M (x) → P (x))
∃x(S(x) ∧ P (x)),

non è valido in quanto, se S è vuoto ∃x(S(x) ∧ P (x)) è falso, nonostante

161
∀x(S(x) → P (x)) sia vero (da ∀x(S(x) → P (x)) segue ∃x(S(x) → P (x)) -
verificato da un elemento non appartenente a S - non ∃x(S(x) ∧ P (x)))7 .

Per verificare che un sillogismo non è valido occorre trovare un controe-


sempio, vale a dire un’interpretazione in cui le premesse sono vere e la con-
clusione falsa.
Ad esempio il sillogismo

∀x(S(x) → M (x))
∃x(M (x) ∧ P (x))
∃x(S(x) ∧ P (x))

è falsificato dalla seguente interpretazione: U = {a, b, c}, S = {a}, M =


{a, c}, P = {b, c}.

Un argomento in linguaggio naturale8 si dice corretto se è un caso parti-


colare di un sillogismo formale valido.
Si consideri il seguente argomento:
I progressisti sono sostenitori dello stato sociale
Alcuni ministri del governo sono sostenitori dello stato sociale
Quindi alcuni ministri sono progressisti.

Si chiede se è corretto. Prima di proseguire, si prenda tempo (non troppo)


e si dia una risposta.
La maggior parte delle persone risponde sı̀. Un modo tradizionale di
convincere che invece non è corretto è quello di osservare: sarebbe come dire
che
siccome
I cavalli sono veloci
e
Alcuni asini sono veloci
allora
Alcuni asini sono cavalli.
7
Questo è un esempio di un sillogismo non valido nell’interpretazione booleana, mentre
sarebbe valido se non fossero ammessi predicati vuoti.
8
O in un formalismo interpretato, ad esempio una dimostrazione aritmetica.

162
“Sarebbe come dire” significa che se il primo argomento fosse corretto
allora il sillogismo

A: P M
I : S M
I: S P
sarebbe valido e allora anche il nuovo argomento, della stessa struttura for-
male, dovrebbe essere corretto. Ma quest’ultimo ovviamente non lo è.
Che non lo sia, e quindi che si sia esibito un controesempio, non è mai del
tutto chiaro se gli esempi sono fatti in linguaggio naturale. Nessun insieme
definito nel linguaggio naturale ha i confini esattamente delimitati senza am-
biguità. Per questo i controesempi devono essere insiemi astratti, dove gli
elementi e i non elementi sono individuati in maniera precisa e indiscutibile.
Nel caso in oggetto, un controesempio è fornito da U = {a, b, c, d} con
S = {c, d}, P = {a, b} e M = {a, b, c}.

Un esempio dello stesso tipo è il seguente. L’inferenza


Nessun triangolo rettangolo è equilatero
Qualche triangolo isoscele è equilatero
Quindi qualche triangolo rettangolo non è isoscele
è corretta?
Dopo aver risposto . . . , si consideri che sarebbe come dire
Nessun cerchio quadrato è equilatero
Qualche triangolo è equilatero
Quindi qualche cerchio quadrato non è un triangolo
conclusione che implica che esiste un cerchio quadrato. Oppure
Nessun cane è un ruminante
Qualche quadrupede è un ruminante
Quindi qualche cane non è un quadrupede.
Il sillogismo

E: S M
I : P M
O: S P

163
non è valido se S è vuoto oppure se S ⊆ P .

Nel valutare la correttezza logica di un argomento, non bisogna utilizzare


nessuna conoscenza non esplicitata relativa ai predicati concreti che vi sono !!!
coinvolti.

Avevamo presentato a suo tempo un argomento di Lewis Carroll:


a) I bambini sono illogici
b) Le persone che sanno come trattare i coccodrilli non sono disprezzate
c) Le persone illogiche sono disprezzate
d) Quindi i bambini non sanno trattare i coccodrilli.

Questo argomento non è in verità un sillogismo perché è formato da quat-


tro proposizioni categoriche; tuttavia si può spezzare in due sillogismi con-
catenati; gli argomenti riducibili a catene di sillogismi si chiamano soriti.

L’argomento di Carroll si può dimostrare corretto con la seguente scom-


posizione. Consideriamo prima l’argomento:

b) Le persone che sanno come trattare i coccodrilli non sono disprezzate


c) Le persone illogiche sono disprezzate
e) Quindi le persone illogiche non sanno trattare i coccodrilli

che è un sillogismo di modo EAE, figura

P M
S M
valido, con M uguale a “essere disprezzato”, S uguale a “persone illogiche”
e P uguale a “saper trattare i coccodrilli”.
Combiniamo ora la conclusione e con a:

a) I bambini sono illogici


e) Le persone illogiche non sanno trattare i coccodrilli
d) Quindi i bambini non sanno trattare i coccodrilli

ottenendo sillogismo di modo AAA valido, e si ha la conclusione d.

Dimostriamo che il sillogismo sopra considerato

164
E: P M
A : S M
E: S P
ovvero
∀x(P (x) → ¬M (x))
∀x(S(x) → M (x))
∀x(S(x) → ¬P (x))

è valido:

Dimostrazione

Linguaggio predicativo Linguaggio naturale


∀x(P (x) → ¬M (x)) N essun P è M.

P (x) → ¬M (x) U no che sia P non è M.


per contrapposizione
M (x) → ¬P (x) Allora uno che sia M non è P.

∀x(S(x) → M (x)) Ogni S è M.

S(x) → M (x) U no che sia un S è M.


per transitività di →
S(x) → ¬P (x) Quindi uno che sia un S non è P.

∀x(S(x) → ¬P (x)) N essun S è P.

Esercizio. Si mostri che il sorite di Lewis Carroll si può anche spezzare in


due sillogismi di cui il primo ha come premesse b) e c). Quale è la conclusione
intermedia?

10.2 Diagrammi di Venn


I tre predicati che intervengono in ogni sillogismo sono rappresentati da tre
insiemi, come in figura, senza escludere a priori nessuna possibilità per quanto

165
riguarda le loro intersezioni (i loro complementi sono le regioni esterne ai
cerchi).

'$
'$
S P
'$
&%
&%

&%
M

Nel disegno sono presenti diverse aree: S, S ∩ P , S ∩ M , S ∩ P ∩ M , S \ P ,


S \ M , S \ (P ∪ M ), . . . (completare per esercizio; quante sono e perché?).
Alcune possono essere vuote, altre no, a seconda degli insiemi, e di quanto
su di essi stipulano le premesse.
Le premesse dei sillogismi si riferiscono solo ad alcune delle aree e sono
equivalenti all’asserzione che certe intersezioni sono vuote o non vuote:

A:S M S ∩ (∼ M ) = ∅
E:S M S∩M =∅
I: S M S ∩ M 6= ∅
O:S M S ∩ (∼ M ) 6= ∅
e cosı̀ le proposizioni categoriche che coinvolgono altre coppie di predicati.

Dato un sillogismo, se le aree corrispondenti ad una sua premessa risul-


tano vuote le tratteggiamo, se risultano non vuote mettiamo una crocetta !!!
all’interno.

Esempi
Consideriamo il sillogismo:

A: P M
O: S M
O: S P
ovvero

166
∀x(P (x) → M (x))
∃x(S(x) ∧ ¬M (x))
∃x(S(x) ∧ ¬P (x)).

La prima premessa ci fa tratteggiare P ∩ (∼ M ), che deve essere vuota.


La seconda premessa ci fa mettere una crocetta in S ∩ (∼ M ). Quest’area
sarebbe composta di due parti, quella che interseca P e quella che non lo
interseca; ma la prima è tratteggiata, in quanto S ∩ (∼ M ) ∩ P ⊆ P ∩ (∼ M ),
già considerata; quindi la crocetta si mette in S ∩ (∼ M ) ∩ (∼ P ).

'$'$
S P
× '$

 

&%&%


&%
M

Ora si interpreta quello che dice la figura, come conseguenza delle due pre-
messe, confrontandolo con quello che afferma la conclusione. La conclusione
afferma che deve esserci una crocetta in S ∩ (∼ P ) e infatti la crocetta è stata
disegnata in quell’area, come conseguenza delle due premesse; è stata messa !!!
prima di guardare la conclusione.

Un altro sillogismo valido è


E: P M
I: S M
O: S P

ovvero
∀x(P (x) → ¬M (x))
∃x(S(x) ∧ M (x))
∃x(S(x) ∧ ¬P (x)).

La prima premessa ci fa tratteggiare l’area P ∩ M che deve essere vuota

167
perché P ⊆ ∼ M . La seconda premessa ci fa mettere una crocetta nell’area
S ∩ M , ma di fatto nell’area S ∩ M ∩ (∼ P ) perché S ∩ M ∩ P = ∅.

'$
'$
S P
'$
× &%
&%

&%
M

Come conseguenza si ha una crocetta in S ∩ (∼ P ), che è quello che afferma


la conclusione: S ∩ (∼ P ) 6= ∅.

Consideriamo ora un sillogismo non valido:

A: S M
I: M P
I: S P

ovvero
∀x(S(x) → M (x))
∃x(M (x) ∧ P (x))
∃x(S(x) ∧ P (x)).

La prima premessa fa tratteggiare S ∩ (∼ M ) che è vuota essendo S ⊆ M .


La seconda premessa ci fa mettere una crocetta in M ∩ P , ma questa è divisa
in due sottoaree M ∩ P ∩ S e M ∩ P ∩ (∼ S), e non sappiamo dove mettere
la crocetta. La si mette sulla linea di divisione delle due sottoaree, proprio !!!
per indicare che non si sa in quale parte metterla.

168
'$
'$
S  P
'$
 
 
 

 +

 

&%
&%

&%
M

Ma la conclusione dice che dovrebbe esserci una crocetta in S ∩ P e questa


indicazione precisa non è conseguenza delle premesse; la crocetta è sul bordo,
non è comunque nell’interno dell’area S ∩ P , potrebbe essere in (∼ S) ∩ P .
Per certe esemplificazioni particolari dei predicati in gioco risulta in effetti
cosı̀, esiste un controesempio, anche se i diagrammi di Venn non lo esibiscono.
Esercizio. Si usino i diagrammi di Venn per verificare che il sillogismo
E: S M
I : P M
O: S P
non è valido e trovare se possibile un controesempio in base a quanto suggerito
dal diagramma.

Per riuscire non solo a dimostrare la validità dei sillogismi, ma a trovare i


controesempi in modo meccanico, soccorre un metodo che estende gli alberi
di refutazione a enunciati predicativi.

169
11 Alberi di refutazione
11.1 Regole per i quantificatori
La tecnica degli alberi di refutazione si estende agli enunciati dei linguaggi
predicativi aggiungendo le seguenti regole per i quantificatori, una per ∃ e
una per ∀, mentre quelle per ¬∃ e per ¬∀ si riducono alle prime due grazie
alle leggi di De Morgan generalizzate:
• Se A è ∃xB, si introduce una nuova costante c e alla fine di ogni ramo
non chiuso passante per A si appende alla foglia il successore B(c)1 ,
come nello schema

[∃xB]
..
.

F

B(c)

• Se A Se A è ∀xB, allora alla fine di ogni ramo non chiuso passante per
A, per tutti i termini chiusi t1 , . . . , tn che occorrono in qualche enunciato
del ramo, e tali che B(ti ) non occorre già nel ramo, si appendono alla
foglia n + 1 nodi in serie, prima B(t1 ), . . . , B(tn ) e poi ancora ∀xB, !!!
come nello schema

[∀xB]
..
.

F

B(t1 )

1
S’intende che se B non contiene la x libera B(c) è B.

170
..
.

B(tn )

∀xB

• Se A è ¬∀xB, alla fine di ogni ramo non chiuso passante per A si


appende alla foglia il successore ∃x¬B(x), come nello schema

[¬∀xB]
..
.

F

∃x¬B(x)

• Se A Se A è ¬∃xB, alla fine di ogni ramo non chiuso passante per A si


appende alla foglia ∀x¬B, come nello schema

[¬∃xB]
..
.

F

∀x¬B

Se l’albero è inizializzato con un enunciato, tutti i nodi dell’albero sono


etichettati con enunciati, di un linguaggio possibilmente arricchito con nuove
costanti. Il ruolo dei letterali è ora svolto dagli enunciati atomici e dalle
negazioni degli enunciati atomici.
La prima regola corrisponde all’esemplificazione esistenziale, la seconda
alla particolarizzazione.

171
Nell’applicazione della regola per ∃xB la costante deve essere diversa da
quelle che occorrono già in enunciati del ramo - nuova perché le informazioni !!!
disponibili non permettono di dire se l’elemento che esemplifica B sia uno già
noto o no - ma non necessariamente diversa da quelle che sono solo su altri
rami. Ogni ramo è una strada indipendente dalle altre; tuttavia per evitare
confusioni è bene ogni volta prendere una costante che sia diversa da tutte
quelle che occorrono in tutto l’albero.

Il senso della regola per ∀ è il seguente; si vorrebbe sostituire a x tutti i


termini chiusi; ma questi sono in generale infiniti, e neppure ben determinati,
per il fatto che successive applicazioni delle altre regole ad altri nodi possono
introdurre nuove costanti sui rami considerati; allora s’incominciano a sos-
tituire i termini esplicitamente esistenti, ma si riscrive l’enunciato ∀xB in
modo che quando eventualmente (se il ramo non si è nel frattempo chiuso) si
torna a considerare l’enunciato, se nel frattempo si sono creati nuovi termini
chiusi anche i nuovi vengano sostituiti (si veda l’esempio qui sotto).

Se in una prima applicazione della e regola per ∀ non esistono termini


chiusi negli enunciati dell’albero, si introduce una nuova costante c e si sos-
tituisce quella (ma si tratta di un’eccezione, da non confondere con la regola !!!
per ∃; è come se ci fosse sempre una costante iniziale, ad esempio in c = c
congiunta alla radice; oppure è come pensare che l’universo non è mai vuoto,
e c è un suo elemento).
In pratica, non c’è bisogno di riscrivere ∀xB, basta non marcarlo come
già considerato e ricordarsi di tornare periodicamente a visitarlo. E quando
tutti gli altri enunciati siano stati considerati e non ci siano altri termini da
sostituire, lo si marca definitivamente per terminare.
La regola per ¬∃ fa scattare in un secondo momento la regola per ∀
(e analogamente per la regola relativa a ∀¬). Dato ¬∃xA, si può allora
applicare direttamente la particolarizzazione a ¬A, vale a dire, aggiungere
¬A(t1 ), . . . , ¬A(tn ) e riscrivere ¬∃A.

Esempi
L’albero:
¬(∀x(P (x) → Q(x)) → (∀xP (x) → ∀xQ(x)))1

∀x(P (x) → Q(x))5

172

¬(∀xP (x) → ∀xQ(x))2

∀xP (x)4

¬∀xQ(x)3

¬Q(c)

P (c)

P (c) → Q(c)
. &
¬P (c) Q(c)
chiuso chiuso

è chiuso.
L’albero:

∃xP (x) ∧ ∀x(P (x) → ∃yQ(y)) ∧ ¬∃yQ(y)1



∃xP (x)2

∀x(P (x) → ∃yQ(y))3,7

¬∃yQ(y)4,8

P (c)

P (c) → ∃yQ(y)5

¬Q(c)
.&
¬P (c) ∃yQ(y)6
chiuso ↓

Q(d)

173
P (d) → ∃yQ(y)

¬Q(d)
chiuso

è chiuso. Sono state eseguite due applicazioni della regola per ∀ e ¬∃ a


∀x(P (x) → ∃yQ(y)) e a ¬∃yQ(y); la seconda scatta dopo che ∃yQ(y) ha
prodotto Q(d), introducendo la nuova d.
È quasi superfluo dire che, come si è fatto nei due esempi, conviene ap- !!!
plicare prima le regole per ∃ e ¬∀ e dopo le regole per ∀ e ¬∃.

Applicheremo il metodo degli alberi di refutazione solo a enunciati che non


contengono simboli funzionali, sicché i termini chiusi potenziali si riducono !!!
alle costanti.
Anche con questa restrizione tuttavia non vale più la proprietà di termi-
nazione, come mostra l’albero per l’enunciato ∀x∃yR(x, y)
∀x∃yR(x, y)

∃yR(c, y)

R(c, c1 )

∃yR(c1 , y)

R(c1 , c2 )

∃yR(c2 , y)

..
.
Valgono però le proprietà fondamentali di correttezza e completezza.

Teorema 11.1.1 (Correttezza) Se l’albero di refutazione con radice A si


chiude, allora A è insoddisfacibile. 2

I precendenti esempi di alberi chiusi verificano il primo che ∀x(P (x) →


Q(x)) |= ∀xP (x) → ∀xQ(x) e il secondo che ∃xP (x)∧∀x(P (x) → ∃yQ(y)) |=
∃yQ(y).

174
Teorema 11.1.2 (Completezza) Se A è insoddisfacibile, l’albero con radice
A si chiude.

La dimostrazione come nel caso proposizionale segue dal


Lemma 11.1.1 Se l’albero di refutazione con radice A non si chiude, allora
per ogni ramo non chiuso, finito e terminato, o infinito, esiste un modello di
A. 2
Considereremo solo alcuni esempi per mostrare come si definiscono le inter-
pretazioni per i rami non chiusi, per enunciati che non contengono simboli
funzionali.

Esempio
L’albero

P (c) ∧ (∃xP (x) → ∃xQ(x)



P (c)

∃xP (x) → ∃xQ(x)
. &
¬∃xP (x) ∃xQ(x)
↓ ↓
¬P (c) Q(d)
chiuso

mostra che l’enunciato P (c) ∧ (∃xP (x) → ∃xQ(x)) è soddisfacibile con


un modello, dato dal ramo di destra, perché quello di sinistra è chiuso.
L’interpretazione è definita nel seguente modo: l’universo è l’insieme delle
costanti che occorrono in enunciati del ramo, in questo caso U = {c, d}; !!!
quindi i predicati sono definiti in base a quali enunciati atomici occorrono
sul ramo, in questo caso P = {c}, che deve rendere vero P (c), e Q = {d},
che rende vero Q(d).

Le proprietà di correttezza e completezza assicurano che quando l’albero


termina, la risposta è quella giusta; inoltre, poiché se un albero si chiude
esso si chiude dopo un numero finito di passi, in tutti i casi in cui la radice è
insoddisfacibile l’albero lo rivela chiudendosi; quando la radice è soddisfaci-
bile, può darsi che l’albero termini, e lo riveli, come può darsi che continui

175
all’infinito, e non è detto che ci sia mai uno stadio in cui ci accorgiamo che
l’albero andrà avanti a crescere all’infinito (altrimenti è come se sapessimo
che non si chiude).
Un metodo con queste caratteristiche si dice metodo di semidecidibilità
e l’insieme degli enunciati insoddisfacibili è semidecidibile.

11.1.1 Esercizi
1. Verificare con gli alberi di refutazione tutte le leggi logiche finora in-
contrate.

2. Verificare con gli alberi di refutazione che ∃xP (x)∧∃xQ(x) → ∃x(P (x)∧
Q(x)) e ∀x(P (x) ∨ Q(x)) → ∀x(P (x) ∨ ∀xQ(x)) non sono logicamente
veri.

3. Trovare con gli alberi di refutazione un controesempio a ∀xP (x) →


∀xQ(x) |= ∀x(P (x) → Q(x)).

11.2 Applicazione ai sillogismi


Gli enunciati che contengono solo predicati monadici e non contengono sim-
boli funzionali formano un linguaggio monadico.
Rientrano in questa categoria le proposizioni categoriche che intervengono
nei sillogismi, ma anche molti altri enunciati più complicati.
Si può dimostrare che l’albero con un enunciato monadico nella radice
termina sempre in un numero finito di passi.
Gli alberi di refutazione costituiscono perciò un metodo effettivo per de- !!!
cidere se un enunciato monadico è logicamente vero o no. Quindi la logica dei
linguaggi monadici è decidibile, come quella proposizionale. In particolare
gli alberi permettono di decidere se un sillogismo è valido o no.
Che un albero con un enunciato monadico nella radice termini sempre lo si
può vedere nel seguente modo. Innanzi tutto bisogna preparare l’enunciato,
se non è ancora nella forma voluta, in modo che non presenti quantifica-
tori incapsulati, o nidificati, cioè nessun quantificatore cada dentro al raggio
d’azione di un altro. Questa trasformazione è possibile applicando le leggi
logiche sui quantificatori.
Ad esempio

∀x∃y(P (x) ∨ ∃zQ(z) → Q(y))

176
diventa

∀x(P (x) ∨ ∃zQ(z) → ∃yQ(y))

quindi

∃x(P (x) ∨ ∃zQ(z)) → ∃yQ(y)

∃xP (x) ∨ ∃zQ(z) → ∃yQ(y).

Un esempio più difficile2 è il seguente

∀x∃y(P (x) ∨ ∀zQ(z) → P (x) ∨ Q(y))

che diventa

∀x(P (x) ∨ ∀zQ(z) → ∃y(P (x) ∨ Q(y)))


∀x(P (x) ∨ ∀zQ(z) → P (x) ∨ ∃yQ(y))
∀x(¬(P (x) ∨ ∀zQ(z)) ∨ P (x) ∨ ∃yQ(y))
∀x((¬P (x) ∧ ¬∀zQ(z)) ∨ P (x) ∨ ∃yQ(y))
∀x(((¬P (x) ∨ P (x)) ∧ (¬∀zQ(z) ∨ P (x))) ∨ ∃yQ(y))
∀x((¬∀zQ(z) ∨ P (x)) ∨ ∃yQ(y))
(∀x(¬∀zQ(z) ∨ P (x))) ∨ ∃yQ(y)
(¬∀zQ(z) ∨ ∀xP (x)) ∨ ∃yQ(y)
¬∀zQ(z) ∨ ∀xP (x) ∨ ∃yQ(y).

Eseguita la trasformazione si adotta la seguente euristica di sviluppo !!!


dell’albero. Se alcuni enunciati inseriti nell’albero hanno un connettivo come
segno logico principale, si applicano ad essi e ai loro eventuali risultati le
regole proposizionali relative, finché si perviene alla situazione in cui tutti gli
enunciati non ancora considerati, se non sono atomici o negazioni di atomici,
iniziano con un quantificatore o con la negazione di un quantificatore.
2
Non vogliamo nascondere che il risultato non è banale; per la dimostrazione occorre
sfruttare, come s’intravvede dall’esempio, le forme normali disgiuntive e congiuntive della
matrice, dopo aver messo l’enunciato in forma prenessa.

177
A questo punto si lavora prima sugli enunciati che iniziano con un ∃ o un
¬∀, il cui effetto è quello di introdurre nuove costanti - e sono i soli che intro-
ducono nuove costanti. Essi danno origine a enunciati privi di quantificatori,
per l’assenza di quantificatori incapsulati.
Ora si applicano le regole agli enunciati che iniziano con ∀ o ¬∃, eseguendo
tutte le sostituzioni possibili delle costanti, che danno di nuovo origine a
enunciati privi di quantificatori. Tali enunciati non devono essere riscritti,
perché il seguito del lavoro non costringerà più a tornare su di essi; non si
generano più altri enunciati che iniziano con ∃ o ¬∀. Ai nuovi enunciati
privi di quantificatori si applicano eventualmente le regole proposizionali del
caso, ma l’applicazione di regole proposizionali dopo un numero finito di passi
termina.

Esempi
Il sillogismo

∀x(S(x) → M (x))
∃x(M (x) ∧ P (x))
∃x(S(x) ∧ P (x))

equivalente all’affermazione che

∀x(S(x) → M (x)) ∧ ∃x(M (x) ∧ P (x)) |= ∃x(S(x) ∧ P (x))

è controllato per mezzo del seguente albero:

∀x(S(x) → M (x))3

∃x(M (x) ∧ P (x))1

¬∃x(S(x) ∧ P (x))4

M (c) ∧ P (c)2

M (c)


P (c)

178
S(c) → M (c)5

¬(S(c) ∧ P (c))6
.&
¬S(c) M (c)
.& .&
¬S(c) ¬P (c) ¬S(c) ¬P (c)
chiuso chiuso

Due rami sono chiusi; gli altri due danno le stesse informazioni, in quanto
contengono entrambi M (c), P (c), ¬S(c). Il controesempio fornito da questo
albero è U = {c} con M = {c}, P = {c} e S = ∅.
Questa non è l’interpretazione proposta a suo tempo come controesempio,
che era stata U = {a, b, c}, S = {a}, M = {a, c}, P = {b, c}, ma ques’ultima
si ottiene dalla presente aggiungendo a e b all’universo; l’interpretazione for-
nita dall’albero è minimale, e lo è sempre3 .
È raro che si trovi un solo modello di un enunciato, in realtà non ce ne è
mai uno solo, ma la dimostrazione di questo fatto è complicata4 .

Il sillogismo:

∀x(M (x) → S(x))


∃x(M (x) ∧ P (x))
∃x(S(x) ∧ P (x))

è valido.
L’albero:

∀x(M (x) → S(x))2



3
Si potrebbe dire che è minima, a meno di biiezioni che rispettano i predicati in gioco,
e si chiamano “isomorfismi”.
4
Viene in mente ∀x(c = x), che sembrerebbe avere solo un tipo di modello, con un solo
elemento, ma non è cosı̀ perché l’interpretazione di =, le cui proprietà necessarie ma anche
sufficienti, se si esplicitano, sono le proprietà riflessiva, simmetrica e transitiva, oltre alla
sostitutività, potrebbe essere solo una relazione di equivalenza.

179
∃x(M (x) ∧ P (x))1

¬∃x(S(x) ∧ P (x))3

M (c) ∧ P (c)

M (c)

P (c)

M (c) → S(c)4

¬(S(c) ∧ P (c))5
.&
¬M (c) S(c)
chiuso .&
¬S(c) ¬P (c)
chiuso chiuso

è chiuso.

11.2.1 Esercizi
Verificare con gli alberi di refutazione la validità o meno dei 256 sillogismi.

180
12 Il principio di induzione
Come si fa a dimostrare che un enunciato universale1 ∀xA(x) vale in un
universo infinito? Non si possono certo passare in rassegna tutti gli elementi
dell’universo. Alcune regole logiche sembrano utilizzabili, in particolare la
riduzione all’assurdo o quelle che permettono di derivare enunciati universali
da altri, già però noti, come la distributività di ∀ su →:
∀x(B(x) → A(x)) ∀xB(x)
∀xA(x).
Con le sole regole logiche si dimostrano solo enunciati veri in tutte le inter-
pretazioni, non in una particolare.
Un insieme infinito peraltro non può essere dato se non attraverso una
definizione, che ne mette in evidenza alcune proprietà caratteristiche. Queste
sono assunte in genere come assiomi della struttura, e a partire da essi si
deducono altre proprietà vere nella struttura stessa (e in tutte le eventuali
altre che soddisfano gli assiomi). !!!
Le strutture numeriche classiche, che sono insiemi infiniti, hanno poi cias-
cuna qualche caratteristica particolare che permette di svolgere ragionamenti
tipici ed esclusivi2 , ad esempio la continuità per i numeri reali. La più sem-
plice struttura numerica è quella dei numeri naturali N.

12.1 I numeri naturali


I numeri naturali3
0, 1, 2, . . . , n, n0 , . . .
sono descrivibili in modo compatto e uniforme come se fossero tutti generati
da un primo che è lo 0. Non è raccomandabile usare all’inizio le cifre 0, 1, . . . , 9
perché esse presuppongono la rappresentazione in una base, che è argomento
di là da venire. Meglio scrivere:
1
Diciamo brevemente cosı̀ per un enunciato che inizia con un quantificatore universale,
anche se non è corretto; gli enunciati universali sono quelli che in forma prenessa hanno
solo quantificatori universali nel prefisso.
2
E questo vale anche per strutture finite, per cui sono pure disponibili tecniche parti-
colari. Si veda ad esempio 12.7.
3
Consideriamo anche 0 tra i numeri naturali, benché non sia molto naturale rispetto
alla prima funzione dei numeri, quella di contare; talvolta i numeri naturali senza lo 0 sono
anche detti numeri di conto.

181
0, 00 , 000 , . . . , n, n0 , . . .

che rappresenta visivamente il fatto che ogni numero4 n, salvo lo 0, ha un suc-


cessore indicato con n0 , e iterando il successore non si ottiene mai un numero
già considerato, perché i successori di due numeri diversi sono diversi5 .
Queste proprietà sono esprimibili con enunciati predicativi:

∀x(0 6= x0 )
∀x∀y(x 6= y → x0 6= y 0 )
che costituiscono i primi assiomi dei numeri naturali6 .
Si è abituati a dire che ogni numero si ottiene dal precedente con “+ 1”,
ma l’operazione di addizione compare, è definita, solo nella più ricca struttura
che si ottiene sulla base della definizione fondamentale.
Quando si parte da zero7 per introdurre N, si vuol dire innanzi tutto che
N è un insieme infinito; la definizione è la seguente: un insieme X è infinito
se esiste una iniezione di X su un sottoinsieme proprio di se stesso.
I tre assiomi sopra presentati esprimono questo fatto, con la funzione
iniettiva (terzo assioma) “successore” che manda tutto l’insieme N (primo
assioma) nel suo sottoinsieme proprio N \ {0} (secondo assioma)8 .

Ora però N non è solo un insieme infinito: ogni suo elemento si ottiene
da 0 iterando un numero finito di volte l’operazione di successore. Non ci
sono altri elementi al di fuori di questa catena senza fine. La condizione non
sembra facile da esprimere, perché per parlare di iterare un numero finito
di volte il successore parrebbe necessario avere già la nozione di numero
naturale.
4
Il fatto che n nella successione venga dopo i puntini, non significa che è un numero
grande; n è una variabile che indica un numero qualunque, e può assumere anche i valori
0, 1,. . .
5
E lo 0 non ha nulla di magico ma è solo il primo. Meglio ancora indicare la serie con

|, ||, |||, . . .

con la cosidetta rappresentazione unaria, usata ad esempio nelle macchine di Turing.


6
Vale anche ∀x∃y(y = x0 ), che non scriviamo perché nei linguaggi predicativi si intende
che le funzioni sono totali, e quelle non ovunque definite si trattano con speciali artifici.
7
In tutti i sensi.
8
Dopo si vede che è sopra: ∀x(x 6= 0 → ∃y(x = y 0 )).

182
Tuttavia soccorre questa idea, derivata dalla precedente intuizione, che
se una proprietà, espressa da una formula A(x), è tale che si trasporta nel
passaggio da n a n0 , o che è invariante rispetto al successore, cioè è tale
che se vale per un generico n allora vale per n0 , in simboli A(n) → A(n0 ),
allora come ogni numero si ottiene da 0 passando attraverso una catena di
successori, cosı̀ se A vale per 0 allora A vale per tutti i numeri.
Un’immagine comoda per rappresentarsi la situazione è quella di una
successione di pezzi di domino messi in piedi in equilibrio precario, distanti
tra loro meno della loro altezza. Cosı̀ se un pezzo cade verso destra fa cadere
verso destra quello adiacente. Se cade il primo, fa cadere il secondo, che fa
cadere il terzo, e tutti cadono.

-






In alternativa, si può esprimere in termini insiemistici l’idea che N deve


essere il più piccolo insieme infinito con l’affermazione

0 ∈ X ∧ ∀x(x ∈ X → x0 ∈ X) → N ⊆ X,

che N è il più piccolo insieme che contiene 0 ed è chiuso rispetto al successore9 .


Da questa condizione, pensando a X come all’insieme di verità di una
formula A(x), o dalle precedenti considerazioni intuitive, si ricava l’assioma
di induzione

A(0) ∧ ∀x(A(x) → A(x0 )) → ∀xA(x),

dove A è una formula qualsiasi del linguaggio aritmetico, che all’inizio con-
tiene solo 0 e 0 , oltre a =.

Non sviluppiamo la costruzione sistematica dell’aritmetica a partire da


questi assiomi, che tuttavia sono sufficienti, perché tale trattazione non fa
9
N è contenuto in ogni insieme che sia infinito grazie alla stessa iniezione “successore”
e con lo stesso elemento non appartenente all’immagine dell’iniezione

183
parte del programma. Nel seguito ci limiteremo a familiarizzarci con le con-
seguenze dell’assioma di induzione in una varietà di esempi, e per far questo
daremo per note alcune proprietà aritmetiche, algebriche e geometriche ele-
mentari.
In particolare useremo subito il fatto che dalla definizione dell’addizione
(che daremo in seguito) segue che n0 = n + 1 e adotteremo questa notazione
per il successore.
Supporremo anche definita10 la relazione d’ordine totale ≤ con minimo 0.

12.2 Il principio di induzione


Dall’assioma di induzione segue una regola dimostrativa che si chiama pro-
priamente principio di induzione e che si può schematizzare nel seguente
modo:

A(0) Base
∀x(A(x) → A(x + 1)) P asso induttivo
∀xA(x).

Per dimostrare ∀xA(x) sono sufficienti due mosse: la prima consiste nel di-
mostrare A(0), e la seconda nel dimostrare ∀x(A(x) → A(x + 1)).
Si dice allora che ∀xA(x) è stata dimostrata per induzione su x, e A(x)
si chiama la formula d’induzione.
La base non si riferisce necessariamente solo a 0. Se a cadere verso destra
non è il primo domino, ma il sesto

@
R
@
@






a cadere saranno tutti i domino dal sesto in poi.


10
Per mezzo dell’addizione la definizione sarà: x ≤ y ↔ ∃z(x + z = y). Per ora la
possiamo pensare postulata come relazione d’ordine, per poter fare esercizi con formule
familiari e per scrivere alcune formule in modo più comodo.

184
In corrispondenza a questa idea si ha una formulazione più generale del
principio di induzione:

A(k) Base
∀x ≥ k (A(x) → A(x + 1)) P asso induttivo
∀x ≥ kA(x).

Se si deve dimostrare ad esempio ∀x > 0 A(x) si dimostra come base A(1).

La dimostrazione del passo induttivo è la parte più importante e delicata;


la base di solito si riduce a calcoli di verifica. Trattandosi di un enunciato
universale, la dimostrazione di solito si imposta come dimostrazione di

A(x) → A(x + 1)

per un x generico.
Si assume quindi A(x), chiamandola ipotesi induttiva e si cerca di dedurre
A(x + 1):

A(x) Ipotesi induttiva


..
.
A(x + 1).
Come abbiamo osservato in precedenza, se si riesce a dedurre A(x + 1)
dall’assunzione A(x) si stabilisce A(x) → A(x + 1) senza alcuna assunzione
particolare, a parte gli assiomi che sono enunciati, e quindi si può quantificare
universalmente ∀x(A(x) → A(x + 1)).
Una volta dimostrato il passo induttivo - e la base - la conclusione ∀xA(x)
segue come bonus.
Errori umoristici non infrequenti: !!!
da A(x), per sostituzione, A(x + 1)
oppure
da A(x), direttamente per generalizzazione ∀xA(x).
Qualcuno giustifica questi errori alludendo a difficoltà immaginarie dovute
a una pericolosa somiglianza tra quello che si deve dimostrare e quello che
si assume. Ma nella dimostrazione del passo induttivo la tesi ∀xA(x) non
interviene per nulla. Quello che si assume nel passo induttivo, A(x), è che A
valga per un elemento, ancorché non precisato; quello che si vuole dimostrare

185
in grande è ∀xA(x), cioè che A vale per tutti gli elementi; in piccolo, nel passo
induttivo, si vuole solo dimostrare che A vale per un altro elemento, una bella
differenza, anche sintatticamente visibile, se si usassero i quantificatori.
Se ci sono difficoltà, sono le difficoltà tipiche della manipolazione di vari-
abili e quantificatori.

Esempio Dimostrare per induzione11 che


n(n+1)
1 + 2 + ... + n = 2
.
S’intende, poiché l’espressione di sinistra ha senso solo per n ≥ 1, che si deve
dimostrare ∀x ≥ 1 (1 + 2 + ... + x = x(x+1)2
), ma useremo la variabile n come
d’uso12 .
Altrimenti, si considera la formula con 0 + 1 + . . . + n a sinistra e allora
la base è 0.
Chiamiamo P (n) la formula di induzione13 .
La dimostrazione per induzione della formula si svolge nel seguente modo:
Base: per n = 1, P (1) è 1 = 1(1+1)
2
, e l’espressione di destra si riduce a 1,
quindi P (1) è dimostrata;
Passo induttivo: ammesso
n(n+1)
1 + 2 + ... + n = 2
,

cioè P (n), aggiungendo n + 1 ad ambo i membri si ha


n(n+1)
1 + 2 + ... + n + (n + 1) = 2
+ (n + 1)

n(n+1)+2(n+1)
= 2

(n+1)(n+2)
= 2

che è P (n + 1). 2
11
Uno dei primi algoritmi che si chiede di scrivere (Horstmann, p. 45) e quello per la
somma 1 + 2 + . . . + n.
12
L’uso di n come variabile libera universale per i numeri naturali è tipica della scrittura
matematica; se si usano i quantificatori introducendo la notazione logica è meglio tornare
alla x. Il passo induttivo può comunque essere sempre presentato come dimostrazione di
A(n) → A(n + 1).
13
Usiamo P perché è una formula atomica.

186
Sono possibili diversi sviluppi del passo induttivo, in avanti o all’indietro;
in avanti si procede come nell’esempio, si scrive l’ipotesi induttiva P (n) e poi
la si manipola cercando di arrivare a P (n + 1).
Nel procedimento all’indietro si può affrontare direttamente quello che si
deve dimostrare, P (n + 1), impostando l’espressione

1 + 2 + ... + n + (n + 1) = ?,

di cui si vuole trovare il valore che confermi P (n + 1).


Un primo passo è quello di riempire l’ignoto “?” con qualcosa di noto, ad
esempio

1 + 2 + ... + n + (n + 1) = (1 + 2 + ... + n) + (n + 1),

valida per la proprietà associativa, quindi si osserva che è comparsa una


sottoespressione presente nell’ipotesi induttiva

1 + 2 + ... + n + (n + 1) = (1 + 2 + ... + n) + (n + 1),

e allora “per ipotesi induttiva”, cioè facendo giocare a questo punto un ruolo
a P (n),
n(n+1)
1 + 2 + ... + n + (n + 1) = 2
+ (n + 1),

e sviluppando i calcoli a destra del segno = si arriva a


(n+1)(n+2)
1 + 2 + ... + n + (n + 1) = 2
.

La formula P (n + 1) è stata cosı̀ dimostrata ma assumendo a un certo punto


P (n), quindi si è stabilito P (n) → P (n + 1). 2

Da sconsigliare ai principianti il procedimento all’indietro che consiste nel par- !!!


tire da
(n+1)(n+2)
1 + 2 + . . . + n + (n + 1) = 2 ,

riscrivere questa somma come


(n+1)(n+2)
(1 + 2 + . . . + n) + (n + 1) = 2 ,

facendo emergere l’espressione 1 + 2 + . . . + n, quindi “per ipotesi induttiva”


n(n+1) (n+1)(n+2)
2 + (n + 1) = 2 .

187
Verificato che quest’ultima uguaglianza è valida, perché diventa
(n+1)(n+2) (n+1)(n+2)
2 = 2 ,

P (n + 1) è dimostrato. 2
Avvertenza P (n + 1) è dimostrato dai passaggi di sopra non perché da essa !!!
segua un’identità; lo studente di logica sa che dal fatto che A → B sia vero e B
sia vero non segue la verità di A.
I passaggi di sopra vanno letti all’indietro partendo dall’ultima uguaglianza, e
tutte le uguaglianze scritte sono tra loro equivalenti (se si assume P (n)). P (n+1) è
conseguenza di P (n) e di n(n+1)
2 +(n+1) = (n+1)(n+2)
2 , che è un’identità aritmetica.
In questa impostazione, ci sono due movimenti logici all’indietro: innanzi
tutto si parte dalla tesi da dimostrare P (n + 1), quindi si sviluppa una serie di
uguaglianze, che tuttavia, essendo collegate da equivalenza, vanno lette nell’ordine
inverso, dall’ultima identità fino a P (n + 1).

Nella dimostrazione del passo induttivo possono intervenire tutte le strate-


gie dimostrative. Illustriamo un problema in cui interviene la distinzione dei
casi.
Esempio Dimostrare che

1 − 12 + 13 + . . . + (−1)n−1 n1

è sempre strettamente positivo.


S’intende che si deve dimostrare che per ogni n ≥ 1

1 − 12 + 31 + . . . + (−1)n−1 n1 > 0.

Dimostrazione

Base: Per n = 1 la somma è 1 e 1 > 0.

Passo induttivo: Consideriamo

1 − 21 + 31 + . . . + (−1)n n+1
1

e distinguiamo due casi.


Se n + 1 è dispari, allora la somma fino a n + 1, riscritta come

(1 − 12 + 13 + . . . − n1 ) + 1
n+1

188
1
si ottiene da quella fino a n sommando n+1 , una quantità positiva.
1
Siccome per ipotesi induttiva anche (1 − 2 + 3 + . . . − n1 ) > 0, si ha la
1

conclusione voluta.
Se n + 1 è pari, la somma

1 − 12 + 13 + . . . + 1
n
− 1
n+1

si può riscrivere

(1 − 21 ) + ( 13 − 14 ) + . . . + ( n1 − 1
n+1
)

per la proprietà associativa, e quindi osservare che è la somma di quan-


tità tutte positive. 2

Si noti che l’ipotesi induttiva interviene solo in uno dei due casi in cui è
distinta la dimostrazione del passo induttivo, ma comunque interviene.
Se si fosse voluto dimostrare che

1 − 12 + 13 + . . . + (−1)i−1 1i + . . . − 1
2n
>0

non ci sarebbe stato bisogno dell’induzione e si sarebbe potuto procedere


come nel precedente caso pari con la sola proprietà associativa.
In verità anche questa proprietà dipende dall’induzione, perché in una
trattazione sistematica l’associatività della somma, come anche il fatto che
la somma di un numero finito di addendi positivi è positiva, si dimostrano a
loro volta per induzione, e lo vedremo più avanti quando discuteremo della
somma generalizzata.
Tutti i risultati aritmetici dipendono dall’induzione, perchè questo è il solo
assioma dell’aritmetica, a parte quelli riguardanti 0 e successore. Tuttavia
c’è un uso prossimo e uno remoto dell’induzione; se si conoscono dei risultati
(comunque a loro volta siano stati dimostrati) e li si usa in modo diretto
in una dimostrazione, questa per parte sua non è una dimostrazione per
induzione.
Esistono casi in cui invece si ha una scelta tra due metodi dimostrativi,
uno per induzione e uno no. Ad esempio si può dimostrare per induzione che
n3 − n è multiplo di 3: partendo da (n + 1)3 − (n + 1)

(n + 1)3 − (n + 1) = n3 + 3n2 + 3n + 1 − n − 1 = (n3 − n) + 3n2 + 3n

189
che è divisibile per 3 in quanto somma di addendi tutti divisibili per 3 (il
primo per ipotesi induttiva). 2
Ma si può anche fattorizzare n3 − n in (n − 1)n(n + 1) e osservare che uno
dei tre consecutivi deve essere divisibile per 3. 2
Di solito quando sono disponibili due vie, una per induzione e una che
potremmo chiamare algebrica, la seconda dà maggiori informazioni, in quanto
lega il problema dato con altri.

Nell’ultimo esempio abbiamo commesso un errore nell’esposizione della


dimostrazione per induzione, un errore che lo studente non deve commettere, !!!
quello di aver trascurato di dimostrare la base.
La leggerezza in questo caso è innocua, perché subito rimediabile: per
n = 0 n3 − n vale 0 che è divisibile per 3. Ma in altri casi può essere fatale.
Si consideri ad esempio la seguente dimostrazione sul valore della somma
dei primi n pari:

2 + 4 + + 2n = n(n + 1) + 5.

Se indichiamo la somma con Sn = 2 + 4 + + 2n, è facile verificare che

Sn = n(n + 1) + 5 → Sn+1 = (n + 1)(n + 2) + 5

ma la formula è falsa. Lo si vede subito per n = 0 ed n = 1. Si potrebbe


pensare che valga solo da un certo punto in poi, e si può provare con altri
valori, ma sempre con esito negativo.
Viene il dubbio che sia sempre falsa, e cosı̀ è, ma questa affermazione
richiede a sua volta una dimostrazione (trattandosi di un’affermazione uni-
versale infinita: sempre, per ogni n, Sn 6= . . .)14 .
Una facile dimostrazione si trova se viene in mente di osservare che n(n +
1) + 5 è sempre dispari, come somma di un pari e di un dispari, mentre
la somma di pari è pari (ma le stesse considerazioni si potrebbero fare con
n(n + 1) + k, k > 0 qualunque).

12.3 L’induzione empirica


Come non si deve trascurare la base, cosı̀ non si deve trascurare il passo indut-
tivo. Se non si dimostra il passo induttivo, non c’è traccia di dimostrazione
14
E quindi si può dimostrare per induzione (esercizio).

190
per un’asserzione del tipo ∀xA(x). Al massimo si possono verificare alcuni
casi particolari iniziali, per numeri piccoli. Questa verifica è talvolta detta
induzione empirica.

Con “induzione empirica” si intende il passaggio da un numero finito, limitato,


di osservazioni, alla formulazione di una legge generale; dal fatto che tutti i cigni
osservati sono bianchi alla affermazione che tutti i cigni sono bianchi. L’esempio,
classico nei testi di filosofia della scienza, è stupido, ma è difficile trovarne di scien-
tifici, nonostante si pensi che l’induzione caratterizzi le scienze empiriche, perché
forme di induzione di questo genere sono in verità del tutto estranee alla ricerca sci-
entifica. La parola è usata comunque in contrasto con “deduzione”, a indicare un
passaggio dal particolare all’universale (come se la deduzione fosse, cosa che non è,
se non raramente, un passaggio dall’universale al particolare15 ). L’induzione em-
pirica è anche detta induzione per enumerazione, dizione che suggeriamo di evitare
perché non faccia venire in mente i numeri.
Quando all’inizio dell’età moderna si ebbe una ripresa della ricerca matematica,
la parola “induzione” era usata nella scienza per indicare la formulazione di leggi
generali suggerite e verificate da un certo numero di casi particolari. Anche i
matematici, figli del loro tempo, usavano la parola in questo modo e per essere
scienziati pretendevano di usare anch’essi l’induzione. Lo si riscontra soprattutto
in quegli autori, come Eulero, che basavano le loro congetture su molti calcoli ed
esplorazioni delle proprietà dei numeri. Il primo autore che formulò e propose
il principio d’induzione matematica nella forma moderna fu Pascal, ed egli volle
chiamare cosı̀ questo principio, che implicitamente era stato usato già da Euclide
e da Fermat in altra versione16 , considerandolo la vera forma d’induzione adatta
a, o tipica della matematica . In verità non v’è alcun rapporto; è vero che con
l’induzione matematica si arriva a una conclusione valida per l’infinità dei numeri
con due soli passaggi, ma si tratta di due dimostrazioni, non di due osservazioni.

L’esplorazione di un piccolo numero di casi non è mai sufficiente a di-


mostrare ∀xA(x); al massimo può servire a trovare un controesempio, se si
è fortunati. L’induzione empirica addirittura può essere ingannevole quando
sono tanti i casi confermati; “tanti” è sempre relativo; ad esempio il polinomio

f (n) = n2 + n + 41

è tale che f (n) è un numero primo per n = 0, 1, 2, . . . , 39 (verificare qualche


15
Lo è solo nelle applicazioni della particolarizzazione universale.
16
Il principio della discesa finita, discusso più avanti.

191
caso). La congettura che si potrebbe indurre che f (n) sia sempre primo è
tuttavia smentita dal controesempio

f (40) = 402 + 40 + 41 = 402 + 80 + 1 = (40 + 1)2 = 412 .

Di fronte alla congettura che f (n) sia sempre primo, naturalmente viene
naturale l’idea di controllare gli eventuali zeri e scomporre il polinomio (se
si sa che gli zeri permettono una scomposizione). Il tentativo di dimostrare
il passo induttivo invece fallisce per mancanza di idee.
L’esplorazione empirica è utile tuttavia e raccomandabile quando non !!!
viene proposta una formula da dimostrare, ma la si deve trovare, quando
cioè bisogna formulare una congettura - e poi dimostrarla.
Ad esempio se si vuole trovare una formula per
1 1 1 1
2
+ 2·3
+ 3·4
+ ... + n(n+1)
,

se si calcolano i primi valori dell’espressione


1 1
n=1 2
= 2

1 1 2
n=2 2
+ 2·3
= 3

1 1 1 3
n=3 2
+ 2·3
+ 3·4
= 4

n
si può arrivare alla congettura che la risposta in generale sia n+1 , quindi
provare a dimostrarla (esercizio, e come ulteriore esercizio trovare e dimostrare
la formula in modo algebrico senza induzione).

Quando come in questo caso si esegue un’induzione empirica, conviene


fare attenzione che i calcoli possono dire di più che suggerire solo la con-
gettura, possono anche suggerire la traccia della dimostrazione del passo
induttivo.
Consideriamo ad esempio come si possa valutare e dimostrare l’espressione
per la somma dei primi dispari

1 + 3 + ... + (2n + 1)

192
I primi calcoli mostrano come risultato dei quadrati,

n=0 1=1
n=1 1+3=4
n=2 1+3+5=9
n=3 1 + 3 + 5 + 7 = 16

ed è semplice forse il riconoscimento puro e semplice della legge, ma si può


fare di meglio: se si riporta nella riga sottostante il valore ottenuto, per la
somma dei primi termini, e se si indica sempre l’ultimo addendo con 2i + 1,
come suggerisce l’espressione iniziale, si ottiene:

n=2 1 + (2 · 1 + 1) = 4
n=3 22 + (2 · 2 + 1) = 9
n=4 32 + (2 · 3 + 1) = (3 + 1)2 .

All’inizio si possono avere dubbi: 4 = 22 può essere 4 = 2 · 2, anzi lo è,


ovviamente; il problema è quale scrittura sia più suggestiva della direzione
giusta da prendere; qui diventa presto trasparente la formula del quadrato
(n + 1)2 = n2 + 2n + 1.
Un ulteriore passo di conferma dà

n=5 42 + (2 · 4 + 1) = (4 + 1)5

e quello che si intravvede è lo schema del passo induttivo:

1 + 3 + + (2n − 1) + (2n + 1) =
n2 + (2n + 1) = (n + 1)2 .

L’uso dell’ipotesi induttiva 1 + 3 + . . . + (2n − 1) = n2 per sostituire


1 + 3 + . . . + (2n − 1) con n2 in 1 + 3 + . . . + (2n − 1) + (2n + 1) corrisponde
nei calcoli precedenti ai successivi rimpiazzamenti di 1 + 3 con 4 = 22 , di
1 + 3 + 5 con 9 = 32 , di 1 + 3 + 5 + 7 con 16 = 42 .
La dimostrazione per induzione non è diversa dai calcoli che hanno fatto
intravvedere la risposta; sono gli stessi calcoli che si ripetono (non i risultati
parziali, o non solo quelli), e che passando alle variabili si trasformano nel
passo induttivo.
Per riuscire a vedere lo schema bisogna che si facciano sı̀ i calcoli con i
numeri piccoli, ma non guardando solo al risultato, bensı̀ allo spiegamento
delle operazioni aritmetiche implicate; si ottiene il tal modo il collegamento

193
o il passaggio dall’aritmetica all’algebra; l’algebra, rispetto all’aritmetica,
non è altro che questa attenzione non al risultato numerico - che non può
esserci, in presenza delle variabili - ma alla struttura e all’organizzazione
delle operazioni da eseguire, e il loro trasporto alle variabili. L’importante è
lasciare indicate sempre le espressioni dei calcoli eseguiti.

12.4 Il ragionamento induttivo


L’induzione non è solo una tecnica di dimostrazione, ma una tecnica di ra-
gionamento, che porta a trovare il risultato. Bisogna imparare a ragionare !!!
per induzione.
Il ragionamento induttivo è il ragionamento che costruisce una situazione
dinamica: s’immagina un insieme di n elementi e ci si chiede: cosa succede
se se ne aggiunge un altro?
Consideriamo l’esempio del numero di sottoinsiemi di un insieme; se U
ha 0 elementi, U = ∅, l’unico sottoinsieme di U è U , che quindi ha un
sottoinsieme; se U = {a} ha un elemento, i suoi sottoinsiemi sono ∅ e {a} =
U ; se U = {a, b} ha due elementi, i suoi sottoinsiemi sono ∅, {a}, {b}, {a, b}.
I conti empirici sono abbastanza complicati, da 2 in avanti; per essere
sicuri di avere elencato tutti i sottoinsiemi, occorre in pratica fare il ragion-
amento che presentiamo sotto, e che consiste nel considerare il passaggio da
un insieme con n elementi ad uno con n + 1; il ragionamento si può e si deve
fare prima di avere la risposta; questa può essere lasciata indicata, come
incognita funzionale, con la scrittura f (n) per il numero di sottoinsiemi di
un insieme con n elementi.
Il ragionamento necessario è il seguente: supponiamo che un insieme con n
elementi abbia f (n) sottoinsiemi; se a un insieme U di n elementi si aggiunge
un a 6∈ U , tra i sottoinsiemi di U ∪ {a} ci sono quelli che non contengono a,
che sono quindi tutti i sottoinsiemi di U , e quelli che contengono a. Questi
tuttavia si ottengono tutti da sottoinsiemi di U aggiungendo a a ciascuno
di essi; o detto in altro modo, se a ciascuno di questi si sottrae a si otten-
gono tutti i sottoinsiemi di U . Quindi anche i sottoinsiemi di U ∪ {a} del
secondo tipo sono tanti quanti i sottoinsiemi di U . In formule l’insieme dei
sottoinsiemi di U ∪ {a} è dato da

{X | X ⊆ U } ∪ {X ∪ {a} | X ⊆ U },

e la cardinalità di questo insieme è f (n) + f (n). Ne segue ovviamente che

194
f (n + 1) = 2f (n).

Una funzione definita in questo modo, per cui il suo valore per un numero
qualsiasi si ottiene eseguendo operazioni note sul valore della funzione per il
numero precedente, si dice che è definita ricorsivamente. Funzioni di questo
genere si ottengono di solito quando si esegue un ragionemento induttivo.
L’argomento delle funzioni definite ricorsivamente sarà affrontato tra breve.
In alcuni casi casi, come l’attuale, da equazioni ricorsive come quella di
sopra, che definiscono implicitamente una funzione, si ricava un’espressione
esplicita.
Il ragionamento è di nuovo induttivo; tenendo conto anche della con-
dizione di base, f (0) = 1, si ricavano i seguenti valori

n=0 f (0) = 1
n=1 f (1) = 2
n=2 f (2) = 2 · f (1) = 2 · 2
n=3 f (3) = 2 · f (2) = 2 · 2 · 2 = 23
n=4 f (4) = 2 · f (3) = 2 · 23 = 24

e quindi si può non solo congetturare la risposta f (n) = 2n ma dimostrarla,


con il passo induttivo

f (n + 1) = 2f (n) = 2 · 2n = 2n+1 .

In alcuni casi di definizioni ricorsive l’espressione esplicita si ricava con


particolari manipolazioni algebriche. Ad esempio, se si vuole valutare la
somma della progressione geometrica di ragione 2:

1 + 2 + 22 + 23 + ... + 2n = f (n)

si può osservare che

1 + 2 + 22 + 23 + ... + 2n = 1 + 2(1 + 2 + 22 + 23 + . . . + 2n−1 )

trovando la relazione ricorsiva

f (n) = 1 + 2f (n − 1);

ma se il primo membro si scrive f (n − 1) + 2n si ha

f (n − 1) + 2n = 1 + 2f (n − 1)

195
e quindi
f (n − 1) = 2n − 1,
da cui
1 + 2 + 22 + 23 + ... + 2n = 2n+1 − 1,
caso particolare della somma della progressione geometrica di ragione r
r n+1 −1
1 + r + r2 + . . . + rn = r−1
.

12.5 Esercizi
Sono diversi i campi in cui l’induzione si rivela utile. Il più ricco di appli-
cazioni naturalmente è quello della

Aritmetica
Si dimostri per induzione, e anche in altro modo se possibile:
1 1 1 1 n
1. 2
+ 2·3
+ 3·4
+ ... + n(n+1)
= n+1

n(n+1)(2n+1)
2. 1 + 4 + 9 + . . . + n2 = 6

3. 2 + 4 + . . . + 2n = ?
n3 −n
4. 2 + 6 + 12 + . . . + (n2 − n) = 3

n(n+1)(n+2)
5. 2 + 2 · 3 + 3 · 4 + . . . + n(n + 1) = 3

6. n3 + 3n2 + 2n è divisibile per 6

7. n5 + 4n + 10 è divisibile per 5

8. n ≥ 3 → (n + 1)2 < 2n2

9. n > 0 → 2n | (n + 1)(n + 2) · · · (2n)


r n+1 −1
10. 1 + r + r2 + . . . + rn = r−1
.
m
z}|{
00 0
11. Calcolare il posto del termine tn . . . nell’enumerazione dei termini vista
nell’esempio del paragrafo 8.2

196
Problemi divertenti
12. Ammettiamo di avere francobolli da 3 e da 5 centesimi. Far vedere che
qualsiasi tassa postale maggiore di 7 può essere pagata con bolli da 3
e 5.
Suggerimento: prima si suppone che per n si sia usato almeno un bollo
da 5; poi, se si sono usati solo bolli da 3, si osserva che n deve essere
almeno 9.
Alternativa: distinguere i tre casi: n = 3k, n = 3k + 1, n = 3k + 2.
13. Lo stesso con
bolli da 2 e 3, tutti gli n maggiori di 1,
bolli da 3 e 7, tutti quelli maggiori di 11,
bolli da 2 e da 2k + 1, tutti quelli maggiori di 2k − 1.

Esercizi di geometria
14. Quante rette passano per n punti (di cui mai tre allineati)?
Suggerimento: impostare un ragionamento induttivo “se si aggiunge
un punto . . . ”.
15. Quante sono le diagonali di un poligono convesso di n lati?
16. Quante diagonali non intersecantesi occorrono per dividere un poligono
convesso di n lati in triangoli disgiunti?
17. La somma degli angoli interni di un poligono convesso con n lati è
π(n − 2).

Argomenti di analisi
18. Se n intervalli su una retta sono a due a due non disgiunti, la loro
intersezione non è vuota.
Suggerimento: anche se la base è n = 2, nella dimostrazione del passo
induttivo occorre (almeno nell’impostazione in mente a chi scrive) uti-
lizzare il caso n = 3, che va dimostrato a parte, sfruttando proprietà di
connessione degli intervalli (se due punti appartengono a un intervallo,
tutti i punti intermedi anche vi appartengono).

197
Combinatoria
19. Quante sono le funzioni da un insieme con n elementi in un insieme con
m elementi?
Suggerimento. Per induzione su n, con un ragionamento induttivo.
Supposto di conoscere quante sono le funzioni da un insieme X con n
elementi in un insieme Y con m elementi, si aggiunga a X un elemento
a 6∈ X. Le funzioni di dominio X ∪ {a} si ottengono da quelle di
dominio X aggiungendo una coppia ha, yi con y ∈ Y .

20. Quanti sono i sottoinsiemi di un insieme con n elementi?

21. Quante sono le relazioni tra un insieme con m elementi e un insieme


con n elementi?

22. Quante sono le permutazioni di un insieme con n elementi?

23. In una festa, le buone maniere richiedono che ogni persona saluti con un
“Buona sera” ogni altra persona, una sola volta; se ci sono n persone,
quanti “Buona sera” sono pronunciati? E se ci si dà la mano, quante
strette di mano occorrono?

24. Con quale degli esercizi precedenti si è già risolto il problema 23?
Facciamo osservare che molti problemi in cui il passo induttivo, se
s’imposta un ragionamento per induzione, consiste in un +n, come al-
cuni di quelli di sopra, si possono risolvere anche direttamente con un
conto del numero di eventi rilevanti, che porta non a caso a risultati
in forma di prodotto; è un’applicazione del cosiddetto principio fonda-
mentale del conteggio che vedremo più avanti.

Teoria degli algoritmi


25. La Torre di Hanoi. Ci sono tre aste verticali; all’inizio su di una sono
infilzati n dischi con un buco nel centro, di raggio decrescente dal basso
verso l’alto. Bisogna spostare la pila in un’altra asta, muovendo un
disco alla volta da una pila e infilzandolo in un’altra, servendosi anche
della terza asta come passaggio. La condizione è che in nessun momento
su nessuna pila ci sia un disco al di sotto del quale ce ne è uno di raggio
minore.

198
Dimostrare che lo spostamento è possibile, per induzione su n, risol-
vendo prima n = 3, e calcolare quante mosse (ogni mossa è lo sposta-
mento di un disco) sono necessarie.

Fondamenti
26. Dimostrare che la funzione successore N −→ N \ {0} è suriettiva, o
sopra N \ {0}.
Osservazione. Questo equivale a dimostrare che ∀x(x = 0∨∃y(x = y 0 )).

12.6 Definizioni ricorsive


Supponiamo di conoscere due funzioni numeriche17 e consideriamo la seguente
coppia di equazioni:

f (x1 , 0) = g(x1 )
f (x1 , x0 ) = h(x1 , f (x1 , x)).
Per ogni m ed n il valore f (m, n) può essere calcolato in modo effettivo
attraverso la seguente successione di valori:
f (m, 0) = g(m)
f (m, 1) = h(m, f (m, 0))
f (m, 2) = h(m, f (m, 1))
e cosı̀ via fino a f (m, n).
Lo abbiamo già visto in un paragrafo precedente a proposito della funzione
definita da 
f (0) = 1
f (n0 ) = 2f (n).
17
Con “funzione numerica” intendiamo ora una funzione f : N −→ N, o f : N × N −→ N,
o anche a più argomenti.

199
Qui abbiamo considerato il caso di una funzione a due argomenti, di cui uno
funge da parametro.
Più in generale, se sono date due funzioni: g(x1 , . . . , xr ) a r argomenti
e h(x1 , . . . , xr , x, y) a r + 2 argomenti18 , dove r può essere 0, la coppia di
equazioni

f (x1 , . . . , xr , 0) = g(x1 , . . . , xr )
f (x1 , . . . , xr , x0 ) = h(x1 , . . . , xr , x, f (x1 , . . . , xr , x))
definisce ricorsivamente f (x1 , . . . , xr , x) a partire da g e h.
Questa forma di ricorsione si chiama propriamente ricorsione primitiva,
ma noi non cosidereremo le forme più generali di ricorsione19 .
In una ricorsione primitiva, il valore di f ( con valori fissati dei parametri)
per ogni numero x0 maggiore di 0 dipende, attraverso operazioni note, dal
valore di f per il predecessore x. x si chiama anche variabile di ricorsione.
È ovvia la differenza rispetto alle definizioni esplicite; l’equazione di ri-
corsione f (x1 , . . . , xr , x0 ) = h(x1 , . . . , xr , x, f (x1 , . . . , xr , x)) non è del tipo
f (~x) = . . . 20 dove . . . non contiene f , come richiesto dalla definibilità es-
plicita, al contrario la definizione appare circolare.
Un teorema generale, che dipende solo dalla struttura fondamentale di
N, cioè dagli assiomi che abbiamo proposto, afferma tuttavia che questo tipo
di definizione individua una e una sola funzione che soddisfa le equazioni di
ricorsione per tutti i possibili argomenti.
Dal precedente esempio, è chiaro come si possa ottenere ogni valore con
un numero finito di passi.
L’unicità della funzione si dimostra nel seguente modo. Supponiamo che
due funzioni f1 ed f2 soddisfino entrambe le equazioni. Dimostriamo per
induzione su x che f1 e f2 hanno sempre lo stesso valore:
Base: f1 (x1 , . . . , xr , 0) = g(x1 , . . . , xr ) = f2 (x1 , . . . , xr , 0).
Passo induttivo: Se f1 (x1 , . . . , xr , x) = f2 (x1 , . . . , xr , x), allora
f1 (x1 , . . . , xr , x0 ) = h((x1 , . . . , xr , x, f1 (x1 , . . . , xr , x))
= h((x1 , . . . , xr , x, f2 (x1 , . . . , xr , x))
= f2 ((x1 , . . . , xr , x0 ).2
18
In verità, per considerare tutti i casi possibili, g ed h non devono avere necessariamente
lo stesso numero di parametri, e h può non dipendere da x.
19
L’argomento rientra in un’introduzione alla teoria della calcolabilità.
20
~x sta per una n-upla di elementi, n imprecisato.

200
Con ovvie modifiche si definiscono ricorsivamente funzioni il cui dominio
è l’insieme dei numeri ≥ k, f : N \ {0, . . . , k − 1} −→ N, con equazioni del
tipo 
f (k) = n0
f (x0 ) = h(x, f (x)) x ≥ k.
Con una semplice ricorsione primitiva si definisce l’addizione:


x+0 = x
x + y 0 = (x + y)0 .
In queste equazioni + è il nuovo simbolo per la funzione da definire, a due
argomenti; x funge da parametro e y da variabile di ricorsione. Le funzioni
date sono per la prima equazione la funzione identità x 7→ x e per la seconda
la funzione successore.
Si vede che, se con 1 si indica 00 , allora x + 1 = x + 00 = (x + 0)0 = x0 . !!!
Con l’addizione a disposizione si definisce ricorsivamente la moltiplicazione
come una iterazione dell’addizione con le equazioni:

x·0 = 0
x · y 0 = x · y + x.
In modo analogo si definiscono la potenza, come iterazione del prodotto,
e altre operazioni aritmetiche. Ad esempio il fattoriale

0! = 1
x0 ! = x! · x0 .

La definizione del prodotto permette di dimostrare che la cardinalità21


c(X × Y ) del prodotto cartesiano di due insiemi X e Y è c(X) · c(Y ).
Siano X e Y due insiemi di cardinalità rispettivamente n ed m. Se a Y
si aggiunge un elemento a 6∈ Y , allora

X × (Y ∪ {a}) = (X × Y ) ∪ {hx, ai | x ∈ X}.

Ma ovviamente c({hx, ai | x ∈ X}) = c(X) = n, ed inoltre X × Y e {hx, ai |


x ∈ X} sono disgiunti; allora la cardinalità dell’unione è la somma delle
cardinalità (vedi esercizio 1 di 12.6.1), per cui
21
Il numero di elementi.

201
c(X × (Y ∪ {a})) = n · m + n = n · (m + 1). 2
A questo risultato si dà addirittura il nome di Fundamental Counting Prin-
ciple per la sua utilità in combinatoria, già menzionata.

Quando una funzione è definita per ricorsione, la dimostrazione delle sue


proprietà è svolta nel modo più naturale per induzione. Ad esempio dimos-
triamo la proprietà associativa dell’addizione:
(x + y) + z = x + (y + z),
per induzione su z.
Base: (x + y) + 0 = x + y = x + (y + 0).
Passo induttivo: Se (x + y) + z = (x + (y + z), allora

(x + y) + z 0 = ((x + y) + z)0
= (x + (y + z))0
= x + (y + z)0
= x + (y + z 0 ).2
Con la ricorsione non si definiscono solo funzioni numeriche, ma anche
funzioni non numeriche che dipendono da un parametro numerico. Ad esem-
pio l’unione e l’intersezione generalizzata di n insiemi A1 , . . . , An si possono
definire con
 S1
 i=1 Ai = A1
 Sn+1
Ai = ( ni=1 Ai ) ∪ An+1
S
i=1
e rispettivamente
 T1
 i=1 Ai = A1
 Tn+1
Ai = ( ni=1 Ai ) ∩ An+1 .
T
i=1

Se gli insiemi sono dati come A0 , . . . , An l’unione si definisce come


 S0
 i=0 Ai = A0
 Sn Sn−1
i=0 Ai = ( i=0 Ai ) ∪ An

202
e analogamente per l’intersezione.

Se invece si vuole definire un’unione generalizzata su infiniti insiemi


S
i∈N Xi ,

o
S∞
i=0 Xi ,
si ricorre
S come si è visto alla generalizzazione della definizione originaria:
x ∈ i∈N Xi se e solo se esiste un i ∈ N tale che x ∈ Xi .
Analogamente per l’intersezione.

In modo ricorsivo si definisce anche la somma generalizzata, o sommatoria


da 1 a n (per la sommatoria da 0 a n si applicano agli indici le stesse modifiche
di sopra per l’unione):
 P1
 i=1 ai = a1
 Pn+1
ai = ( ni=1 ai ) + an+1 ,
P
i=1

Pn
o più in generale ai , per n ≥ k ≥ 0, con
i=k
 Pk
 i=k ai = ak
 Pn+1
ai = ( ni=k ai ) + an+1 .
P
i=k

P∞
La sommatoria infinita i=0 ai rientra negll’argomento delle serie, studi-
ate in Analisi.

Anche le relazioni possono essere definite per ricorsione, sostituendo bi-


condizionali alle uguaglianze, ad esempio

x < 0 ↔ x 6= x
x < y 0 ↔ x < y ∨ x = y,

o con un altro metodo che vedremo in seguito e che utilizza anche nella
notazione la definizione di relazione come insieme di coppie ordinate.

203
La ricorsione primitiva può essere combinata con altre forme di definizione,
come la definizione per casi, o essere usata per definire simultaneamente due
funzioni.
Un esempio è la seguente definizione di quoziente e resto per la divisione
di m per n, con m ≥ n > 0 (n è fissato, la ricorsione è su m).
 
qm se rm < n − 1
qm+1 =


q + 1 se rm = n − 1

m



rm + 1 se rm < n − 1


 rm+1 =


0 se rm = n − 1
(qm è un’altra notazione per q(m); si dovrebbe scrivere q(m, n) o qm,n , ma
non è il caso di appesantire la notazione).
Come base della ricorsione si pone, per m = n, qn = 1 e rn = 0. Si
dimostra (esercizio) per induzione su m, con base m = n, che

m = nqm + rm con 0 ≤ rm < n,

ottenendo quindi il teorema fondamentale della divisione

∃q∃r(m = nq + r ∧ 0 ≤ r < n).

Alcune forme frequenti di ricorsione non hanno apparentemente il formato


della ricorsione primitiva; ad esempio la successione22 dei numeri di Fibonacci
è definita in modo che, a parte i primi due, arbitrari, ogni elemento dipende
dai due immediati predecessori23 :

 a0 = 1
a1 = 1
an+2 = an + an+1 .

Tali forme di ricorsione sono di fatto riconducibili alla ricorsione primitiva,


e le proprietà di una successione come quella di Fibonacci possono essere
meglio dimostrate con un’induzione appropriata, come vedremo, oltre che
con quella normale.
22
Una successione a0 , a1 , . . . di elementi di un insieme U non è altro che una funzione
N −→ U tale che n 7→ an , e si indica {an | n ∈ N} o brevemente {an }.
23
Horstmann, p. 273 e p. 646.

204
12.6.1 Esercizi
1. Dimostrare per induzione che se due insiemi finiti X e Y sono disgiunti,
c(X ∪ Y ) = c(X) + c(Y ).
Suggerimento: l’induzione è su c(Y ), ma occorre dimostrare a parte il
caso in cui c(Y ) = 1, cioè che se a X si aggiunge un elemento a 6∈ X
allora c(X ∪ {a}) = c(X) + 1 (e questo è l’unico momento della di-
mostrazione in cui interviene la condizione che gli insiemi siano dis-
giunti). La dimostrazione richiede il teorema 12.7.1, ne è un immediato
corollario.
2. Dimostrare la proprietà distributiva x·(y+z) = x·y+x·z per induzione
su z.
3. Dimostrare per induzione la proprietà associativa della moltiplicazione.
4. Definire ricorsivamente mn (vedi esercizio 19 di 12.5) e dimostrare
mp+q = mp · mq .
5. Dimostrare per induzione che n > 3 → n2 < n!.
6. Dimostrare per induzione che n > ? → n3 < n!.
7. Dimostrare per induzione che n > ? → 2n < n!.
8. Dimostrare per induzione che x ∈ ni=1 Ai se e solo se x appartiene ad
S
almeno uno degli Ai (l’unione generalizzata era stata introdotta proprio
con questa definizione, che ora va dimenticata a favore di quella ricor-
siva; oppure si veda l’esercizio come una dimostrazione dell’equivalenza
delle due definizioni).
9. Dimostrare per induzione che x ∈ ni=1 Ai se e solo se x appartiene a
T
tutti gli Ai .
10. Dimostrare che ni=1 m = m · n, dove ni=1 m significa ni=1 ai con
P P P
tutti gli ai = m.
11. Trovare e dimostrare per induzione la formula per la
Psomma dei primi
n
termini della progressione aritmetica di ragione k: i=0 (a + ik).
Suggerimento: le somme, già considerate, dei primi n numeri, dei primi
n pari e dei primi n dispari sono casi di somme di progressioni arit-
metiche, le più semplici, di ragione 1 e 2 a partire da a = 0 o a = 1.

205
Qn
12. Definire ricorsivamente il prodotto generalizzato
Qn i=1 ai e dimostrare
che se gli ai sono numeri interi allora i=1 ai = 1 se e solo se ai = 1
per ogni i = 1, . . . , n.

Dimostrare per induzione che se ai ≥ 0 per ogni i = 1, . . . , n, allora


13. P
n
i=1 ai ≥ 0.

14. Dimostrare per induzione che ni=1 a2i = 0 se e solo se ai = 0 per ogni
P
i = 1, . . . , n.

15. Dimostrare che ni=1 ai = ki=1 ai + ni=k+1 ai per ogni 1 ≤ k < n.


P P P

16. Data la definizione ricorsiva di < del testo, dimostrare che x < y è
equivalente a ∃z 6= 0(x + z = y).

17. Definire ricorsivamente ≤ e dimostrare che x ≤ y ↔ ∃z(x + z = y).

18. Dimostrare che per la successione di Fibonacci, per ogni n > 0


Pn
i=0 ai = an+2 − 1.

12.7 Il principio del minimo


Abbiamo detto che un insieme X è infinito se esiste una iniezione di X su
un sottinsieme proprio di se stesso. Il motivo per cui questa proprietà, che si
chiama anche riflessività di X, è stata assunta come definizione di “infinito”
è che essa è intuitivamente falsa per gli insiemi finiti.
La sua negazione è una caratteristica positiva degli insiemi finiti, che è
utile nelle dimostrazioni che li riguardano, e in combinatoria24 è nota come
il principio dei cassetti (in inglese Pigeonhole Principle):
se si distribuiscono m oggetti in n cassetti, con m > n, in almeno un
cassetto c’è più di un oggetto.
In altre parole, non esiste una iniezione di un insieme con m elementi in
un insieme con n < m elementi, o ancora: ogni funzione da un insieme con
m elementi in un insieme con n < m elementi non è iniettiva.
24
La combinatoria è proprio lo studio degli insiemi finiti.

206
In una sistemazione rigorosa dei concetti di finito ed infinito, una volta
scelta la riflessività come definizione fondamentale di “infinito”, ed aver for-
mulato gli assiomi per N, il principio dei cassetti diventa dimostrabile.
Consideriamo come tipici insiemi finiti gli insiemi Nn = {0, 1, . . . , n − 1},
con N0 = ∅. Un insieme si dice finito se esiste una biiezione tra di esso e un
Nn .
Abbiamo allora

Teorema 12.7.1 Se m > n, non esiste una iniezione di Nm in Nn .

Dimostrazione La dimostrazione è per induzione su n. Si noti che la formula


di induzione questa volta non è atomica, ma inizia a sua volta con un ∀.

Base: N0 è ∅ e non esiste nessuna funzione da un insieme non vuoto


nell’insieme vuoto25 .

Passo induttivo: Supponiamo vero per n che per ogni m > n non esista
un’iniezione di Nm in Nn ; supponiamo per assurdo che esista invece un
m > n + 1 con un’iniezione di Nm in Nn+1 , chiamiamola g.
Siccome Nn+1 = Nn ∪ {n}, deve essere n = g(i) per qualche i < m,
altrimenti g sarebbe una iniezione di Nm in Nn .
Se i = m − 1 eliminiamo la coppia hm − 1, ni; altrimenti prima scam-
biamo tra di loro i valori attribuiti da g a i e a m − 1, ed elimini-
amo m − 1 col suo nuovo valore n; consideriamo cioè g1 cosı̀ definita:
g1 (i) = g(m − 1), e g1 (j) = g(j) per ogni altro j < m − 1, j 6= i.
g1 risulta un’iniezione di Nm−1 in Nn , con m − 1 > n, contro l’ipotesi
induttiva. 2

La caratteristica del “finito” di non essere iniettabile propriamente in se


stesso è collegata a proprietà intuitive, come il fatto che in qualunque modo
si conti un insieme finito si arriva sempre allo stesso numero. Se esistesse una
iniezione g di Nm in Nn , con m > n, e se contando gli elementi di un insieme
si fosse arrivati a m − 1, usando tutto Nm , si potrebbe contarli assegnando a
ogni oggetto il numero i < n tale che g(j) = i dove j è il numero attribuito
25
Poiché X ×∅ = ∅ esiste solo una relazione tra X e ∅, la relazione vuota - ∅ è un insieme
di coppie ordinate (e di ogni altra cosa) perché è vero che per ogni x, se x ∈ ∅ x è una
coppia - ma il dominio di ∅ è ∅, non X.

207
all’oggetto nel precedente conteggio, e si arriverebbe a contare al massimo
solo fino a n − 1.

Nonostante “finito” e “infinito” siano l’uno la negazione dell’altro, ci sono


molte analogie strutturali tra N e gli insiemi Nn . Sono insiemi totalmente
ordinati e per di più bene ordinati.
La proprietà di buon ordine per N si esprime con il principio del minimo:

∅=
6 X ⊆ N → ∃x(x ∈ X ∧ ∀y ∈ X(x ≤ y))

o equivalentemente:

∅=
6 X ⊆ N → ∃x(x ∈ X ∧ ∀y < x(y 6∈ X)).

Il principio del minimo giustifica l’induzione: se l’induzione fallisse per qualche


proprietà A(x), allora si avrebbe A(0) e ∀x(A(x) → A(x0 )) ma ∃x¬A(x) e
quindi ¬A(c) per qualche c. Ora c 6= 0 e quindi ha un predecessore c1 tale
che c01 = c. Deve essere ¬A(c1 ) perché A(c1 ) → A(c). A sua volta c1 6= 0
deve avere un predecessore c2 tale che c02 = c1 e per cui ¬A(c2 ), perché
A(c2 ) → A(c1 ), e cosı̀ via. Allora l’insieme {. . . , c2 , c1 , c}

t0 t t t t t t s s s s r qq q q q r r sc

non avrebbe un minimo. 2


Dal principio del minimo si ricava anche un’altro principio di induzione.
Se A(x) è una qualunque formula aritmetica, considerando come X il suo
insieme di verità {x ∈ N | A(x)} se ne deduce un analogo principio del
minimo per formule, vale a dire che

∃xA(x) → ∃x(A(x) ∧ ∀y < x¬A(y)).

Poiché questo vale per ogni formula, possiamo considerare una formula che
inizi con una negazione, che scriveremo ¬A, e abbiamo

∃x¬A(x) → ∃x(¬A(x) ∧ ∀y < xA(y)).

Di qui, contrapponendo

¬∃x(¬A(x) ∧ ∀y < xA(y)) → ¬∃x¬A(x),

ovvero

208
∀x¬(¬A(x) ∧ ∀y < xA(y)) → ∀xA(x),

e infine

∀x(∀y < xA(y) → A(x)) → ∀xA(x)26 .

La validità di questo schema giustifica un’altra forma di dimostrazione per


induzione, che si chiama induzione forte, o induzione completa o più corret-
tamente induzione sul decorso dei valori .
Per dimostrare ∀xA(x) è sufficiente dimostrare che ∀x(∀y < xA(y) →
A(x)), ovvero, a parole, che per ogni x la validità di A(x) segue dal fatto che
A valga per tutti gli y < x:

∀x(∀y < xA(y) → A(x)) P asso induttivo


∀xA(x).
∀y < xA(y) si può considerare l’ipotesi induttiva, nel passo induttivo, e non
c’è più bisogno della base.
Questo non significa che lo 0 sia trascurato; il fatto è che se si dimostra
il passo induttivo nella sua generalità, cioè per ogni x, la dimostrazione vale
anche per 0, per particolarizzazione, e quindi ∀y < 0A(y) → A(0). Ora
tuttavia ∀y < 0A(y) è sempre vero, essendo ∀y(y < 0 → A(y)), ed essendo
l’implicazione soddisfatta da ogni y per l’antecedente falso y < 0. Quindi si
è dimostrato (qualcosa che implica) A(0).
Bisogna fare attenzione che la dimostrazione del passo induttivo non sta- !!!
bilisca la validità di ∀y < xA(y) → A(x) solo per x da un certo punto in
poi, ad esempio diverso da 0, eventualità che si può presentare, e allora i
primi casi restanti vanno trattati e dimostrati a parte. Ma non è la base
dell’induzione, è una distinzione di casi all’interno del passo induttivo (si
veda il terzo esempio sotto).
Se interessa dimostrare ∀x > kA(x) naturalmente è sufficiente dimostrare
come passo induttivo ∀x > k(∀y(k < y < x → A(y)) → A(x)). La giustifi-
cazione consiste nel fatto che N \ Nk+1 (la catena che si ottiene cominciando
da k + 1 invece che da 0) è anch’esso bene ordinato e anche per esso vale il
principio del minimo.
Oppure formalmente si consideri la formula B(x) ↔ (x > k → A(x)); si
mostri che dal passo induttivo per A
26
Si faccia attenzione che qui e nel seguito ∀y < xA(y) sta per (∀y < xA(y)).

209
∀x > k(∀y(k < y < x → A(y)) → A(x))

segue

∀x(∀y < xB(y) → B(x))

e quindi si applichi l’induzione forte a B per concludere da questo ∀xB(x),


vale a dire ∀x > kA(x).
Nei dettagli: da ∀x > k(∀y(k < y < x → A(y)) → A(x)), per impor-
tazione delle premesse, portando all’interno x > k,
∀x(∀y(k < y < x → A(y)) → (x > k → A(x))),
che si può riscrivere, utilizzando di nuovo l’importazione delle premesse,
∀x(∀y(y < x → (y > k → A(y))) → (x > k → A(x))),
cioè proprio

∀x(∀y < xB(y) → B(x)).2

Esempio Il teorema che ogni numero naturale > 1 ammette una scompo-
sizione in fattori primi27 si dimostra per induzione forte nel seguente modo:
dato un numero n, o n è primo, oppure è il prodotto di due numeri minori
di n e maggiori di 1. Se la proprietà vale per tutti i numeri minori di n e
maggiori di 1, per ipotesi induttiva, questi due o sono primi o ammettono
una scomposizione in fattori primi, e allora anche il loro prodotto n ammette
una scomposizione in fattori primi. 2
Esempio Nella dimostrazione del passo induttivo per
1 − 21 + 13 + . . . + (−1)n−1 n1 > 0
si erano distinti due casi, a seconda che n fosse pari o dispari. Con l’induzione
forte la distinzione rimane ma non porta a due dimostrazioni diverse. Si può
ragionare nel seguente modo: se la disuguaglianza vale per ogni m < n allora
se n è pari vale
1 − 12 + 31 + . . . − 1
n−2
>0
27
La formulazione concisa significa che ogni numero > 1 o è primo o è un prodotto di
numeri primi. Vale anche l’unicità della scomposizione, che non dimostriamo.

210
e quindi
1 − 12 + 13 + . . . − 1
n−2
1
+ ( n−1 − n1 ) > 0
1
perché ( n−1 − n1 ) > 0, mentre se n è dispari
1 − 12 + 31 + . . . − 1
n−1
>0
e quindi
1 − 12 + 13 + . . . − 1
n−1
+ 1
n
> 0. 2

Esempio Consideriamo di nuovo il problema di pagare qualsiasi tassa


postale maggiore di 7 con francobolli da 3 e da 5 centesimi. La dimostrazione
è già stata fatta per induzione, ma si può fare in modo più rapido con
l’induzione forte.
Dato un numero qualunque n > 7, ammesso che la possibilità di affrancare
con bolli da 3 e 5 valga per tutti i numeri minori di n e maggiori di 7, si
consideri n − 3. Questa cifra può essere realizzata con bolli da 3 e 5, per cui
basta aggiungere un bollo da 3.
Tuttavia il ragionamento funziona per gli n tali che n − 3 sia maggiore
di 7, quindi non per 8, 9, 10. Quindi il passo induttivo come svolto sopra
non copre tutti i numeri, e questi tre casi devono essere trattati a parte per
completare il passo induttivo. 2

Come si vede dal confronto, rispetto alle dimostrazioni per induzione


normale con l’induzione forte si riduce la parte prettamente aritmetica. Tale
possibilità è forse la ragione della attribuzione di “forte” a questo tipo di
induzione.
Da un punto di vista logico, la giustificazione dell’appellativo “forte” è
che la stessa conclusione ∀xA(x) si ottiene nell’induzione forte da un’ipotesi
∀x(∀y < xA(y) → A(x)) più debole di A(0)∧∀x(A(x) → A(x+1)). Questa ul-
tima affermazione sulla forza delle rispettive ipotesi a sua volta si giustifica col
fatto che una stessa conclusione A(x) si ottiene una volta con un’assunzione
forte come ∀y < xA(y) e una volta con l’assunzione più debole che A valga
solo per il predecessore.
Si tratta tuttavia di impressioni psicologiche. Il motivo per cui la dizione
“forte” non è del tutto appropriata è che l’induzione forte è equivalente a
quella normale.
La conclusione ∀xA(x) a partire da ∀x(∀y < xA(y) → A(x)) si può gius-
tificare infatti formalmente nel seguente modo. Si considera la formula

211
B(x) ↔ ∀y < xA(y)
e si dimostra ∀xB(x) (da cui segue ovviamente ∀xA(x)) per induzione su x,
utilizzando anche ∀x(∀y < xA(y) → A(x)) nel corso della dimostrazione:

Base: B(0) è immediato perché y < 0 è falso.

Passo induttivo: Ammesso B(x), cioè ∀y < xA(y), da questa segue A(x), e
quindi ∀y < x0 A(y) che è B(x0 ). 2

Viceversa l’induzione normale si giustifica in base a quella forte in questo


modo. Supponiamo A(0) ∧ ∀x(A(x) → A(x0 )); per ottenere ∀xA(x), in base
all’induzione forte è sufficiente dimostrare ∀x(∀y < xA(y) → A(x)).
Distinguiamo due casi; un numero o è 0, e allora abbiamo A(0) e quindi
∀y < 0A(y) → A(0), oppure se è diverso da 0 è un successore e possiamo
indicarlo x0 , e dobbiamo dimostrare ∀y < x0 A(y) → A(x0 ).
Ma ∀y < x0 A(y) implica A(x), e con ∀x(A(x) → A(x0 )) anche A(x0 ). 228

Il principio del minimo è anche equivalente all’affermazione che non es-


istono catene discendenti infinite; se una successione {an } fosse tale che
. . . < an+1 < an < . . . < a0 , l’insieme {an | n ∈ N } non avrebbe min-
imo. Viceversa, dato un insieme non vuoto X, preso un suo elemento a0 ,
se non è il minimo di X si può trovare un altro suo elemento a1 < a0 , e se
neanche a1 è il minimo si continua, ma siccome la successione cosı̀ generata
non può essere infinita, si trova un ak che è il minimo di X. 2

Al principio del minimo si dà ancora un’altra formulazione nota come


principio della discesa finita. Esso afferma che se una proprietà P vale per
un k > 0, e quando vale per un n > 0 qualunque allora vale anche per un
numero minore di n, allora P vale per 0.
Infatti in queste ipotesi, in cui l’insieme degli n che soddisfa P non è
vuoto, il minimo deve essere 0, perché un n > 0, non sarebbe il minimo, in
quanto anche qualche numero minore soddisferebbe P .
Viceversa, ammesso il principio della discesa finita, e dato un insieme X
non vuoto, consideriamo la proprietà P di appartenere a X. O la proprietà
P vale per 0, e 0 è allora ovviamente il minimo di X, oppure 0 non ha la
28
La dimostrazione formale dell’equivalenza tra induzione e induzione forte si trasporta
alla dimostrazione dell’equivalenza tra il fatto che N sia bene ordinato e il fatto che N sia
il più piccolo insieme che contiene 0 ed è chiuso rispetto al successore.

212
proprietà P . In questo caso, non è vero per P che per ogni n che ha la
proprietà P anche uno minore ha la proprietà P . Quindi esiste un n che
soddisfa P ma tale che nessun suo predecessore soddisfa P , ed n è il minimo
di X. 2
Un’ovvia variante è che se una proprietà P vale per un h > k e quando
vale per un n qualunque > k allora vale anche per un numero < n e ≥ k,
allora P vale per k.
Il principio della discesa finita è alla base delle dimostrazioni di termi-
nazione degli algoritmi, quando ad un algoritmo si associa una proprietà P !!!
che decresce ad ogni esecuzione di un passo dell’algoritmo. Un esempio è la
dimostrazione di terminazione per l’algoritmo di costruzione degli alberi di
refutazione proposizionali, nel Lemma 7.2.1.
Il principio del minimo fornisce un comodo e utile metodo di definizione
di funzioni: a ogni x (o a più elementi se si tratta di funzione a più argomenti)
si associa il minimo y tale che A(x, y), ammesso di sapere che esistono degli
y tali che A(x, y), dove A(x, y) è una formula.
La definizione di minimo comune multiplo di due numeri è un esempio
ovvio del ricorso a tale possibilità, che è molto frequente in aritmetica, e si può
combinare con la ricorsione per definire funzioni effettivamente calcolabili.
Ad esempio si definisce per ricorsione la successione dei numeri primi
{pn | n ∈ N } ponendo innanzi tutto p0 = 2, quindi osservando che se è noto
pn allora esiste (teorema di Euclide) un numero primo maggiore di pn , e uno
che dalla dimostrazione dell’infinità dei primi si sa che è minore o uguale a
2 · 3 · 4 · . . . · pn + 1.
Si definisce allora pn+1 come il minimo numero primo maggiore di pn .
La definizione è corretta in base solo al principio del minimo, ma l’esistenza
di un confine superiore la rende anche effettivamente calcolabile in modo
elementare (eseguendo una ricerca limitata a priori).
A ricorsione primitiva e operatore di minimo corrispondono nei linguaggi
di programmazione strutturata i costrutti repeat (for i = 0 to n) e while
. . . do.

12.8 Varianti dell’induzione


Tra l’induzione normale e quella forte esistono varianti intermedie, in cui per
ogni x la validità di A(x) è dimostrata a partire da quella di A per alcuni

213
specificati predecessori. Ad esempio

A(0) Base
A(1) Base
∀x(A(x) ∧ A(x0 ) → A(x00 )) P asso induttivo
∀xA(x).
Questa forma di induzione si giustifica, come quella forte, con l’induzione
normale, considerando la formula

B(x) ↔ A(x) ∧ A(x0 )

e dimostrando ∀xB(x) (da cui ovviamente ∀xA(x)) per induzione, utilizzando


le assunzioni relative ad A:

Base: B(0) segue da A(0) e A(1).

Passo induttivo: Ammesso B(x), quindi A(x) ∧ A(x0 ), dal passo induttivo
per A si deduce A(x00 ), quindi A(x0 ) ∧ A(x00 ), cioè B(x0 ). 2

Varianti di questo genere corrispondono ad analoghe varianti della ricor-


sione primitiva, e permettono di dimostrare le proprietà della funzioni cosı̀
definite. Ad esempio la forma di induzione di sopra è quella adatta a di-
mostrare proprietà della successione di Fibonacci29

0, 1, 1, 2, 3, 5, 8, 13, . . .

Esempio Mostriamo un legame inaspettato dei numeri di Fibonacci con


numeri irrazionali, in particolare con la sezione aurea.
Indicate con
√ √
α = 12 (1 + 5) e β = 12 (1 − 5)

le radici dell’equazione x2 − x − 1 = 0, o

x2 = x + 1,

dove α è la cosiddetta sezione aurea, si ha


29
Nella precedente definizione si era posto a0 = a1 = 1; con questa, altrettanto usata,
si premette uno 0 e gli altri valori sono solo slittati di un posto.

214
an = √1 (αn − β n ).
5

Dimostrazione

Base: Per n = 0 la formula si riduce a a0 = 0 e per n = 1 a a1 = 1.

Passo induttivo: Poiché

an = an−1 + an−2

per ipotesi induttiva si ha

an = √1 (αn−1 − β n−1 + αn−2 − β n−2 )


5

quindi

an = √1 (αn−2 (α + 1) − β n−2 (β + 1)).


5

Ma α + 1 = α2 e β + 1 = β 2 , per cui

an = √1 (αn
5
− β n ). 2

L’induzione doppia è un’altra variante dell’induzione.


Quando la formula da dimostrare è del tipo ∀x∀yB(x, y), se si esegue
un’induzione su x la formula di induzione è ∀yB(x, y) e nel passo induttivo,
quando si deve derivare

∀yB(x, y) Ipotesi induttiva


..
.
∀yB(x0 , y)
può darsi che ∀yB(x0 , y) richieda di essere derivata a sua volta per induzione
(anche con l’utilizzo di ∀yB(x, y) che è l’ipotesi induttiva dell’induzione su
x).
Si parla allora di induzione doppia, anche se si tratta di due appli-
cazioni di un’induzione normale, solo che una è all’interno del passo induttivo
dell’altra; bisogna fare attenzione a indicare con pulizia le varie tappe della

215
dimostrazione, perché nel passo induttivo dell’induzione su y si avrà a dis-
posizione l’ipotesi induttiva relativa all’induzione su y e l’ipotesi induttiva
relativa all’induzione più esterna su x.
Non è facile trovare esempi elementari in cui il ricorso all’induzione doppia
è proprio necessario30 . Diamo un esempio per mostrare come si organizzano
i passi della dimostrazione, scegliendo la commutatività dell’addizione, an-
che se per questa proprietà l’induzione doppia si potrebbe evitare (e dopo
mostreremo come).
Dimostriamo quindi
∀x∀y(x + y = y + x),
e iniziamo con un’induzione su x.
Basex : Dobbiamo dimostrare

∀y(0 + y = y + 0).

ovvero

∀y(0 + y = y).

e lo dimostriamo per induzione su y:

Basey : 0 + 0 = 0.
Passo induttivoy : Ammesso 0 + y = y, si ha

0 + y 0 = (0 + y)0
= y0.

Passo induttivox : Assumiamo, come ipotesi induttivax , che ∀y(x+y = y+x)


e dimostriamo

∀y(x0 + y = y + x0 )

per induzione su y.
30
Nel primo teorema del paragrafo 14.7 abbiamo visto un esempio in cui la formula
d’induzione era universale ma non ha richiesto l’induzione doppia.

216
Basey : Da dimostrare è

x0 + 0 = 0 + x0 .

Ma
0 + x0 = (0 + x)0
= (x + 0)0
(il precedente passaggio per l’ipotesi induttivax particolarizzando
∀y a 0)
= x0
= x0 + 0 .
Passo induttivoy : Assumiamo l’ipotesi induttivay che x0 + y = y + x0
e dimostriamo x0 + y 0 = y 0 + x0 .

x0 + y 0 = (x0 + y)0
= (y + x0 )0
= (y + x)00
dove si è usata l’ipotesi induttivay .
D’altra parte

y 0 + x0 = (y 0 + x)0
= (x + y 0 )0
= (x + y)00
= (y + x)00
dove si è usata prima l’ipotesi induttivax particolarizzando ∀y a
y 0 , e infine di nuovo l’ipotesi induttivax particolarizzando ∀y a y.
Naturalmente si sono anche usate le equazioni della definizione
ricorsiva dell’addizione, in particolare la seconda.
Quindi il passo induttivoy è dimostrato 2

e con la sua conclusione ∀y(x0 + y = y + x0 ) anche il passo induttivox .


2

Vediamo ora come si dimostra più facilmente ∀x∀y(x + y = y + x). Oc-


corrono più applicazioni dell’induzione, ma nessuna induzione doppia.

217
Abbiamo già dimostrato per induzione la proprietà associativa della somma,
e che ∀x(x + 0 = 0 + x), nel corso della precedente dimostrazione.
Dimostriamo ora per induzione su x che ∀x(x + 1 = 1 + x). Si ricordi che
in base alla definizione di addizione x0 = x + 1.

Base: 0 + 1 = (0 + 00 ) = (0 + 0)0 = 00 = 1 = 1 + 0.

Passo induttivo: Ammesso x + 1 = 1 + x,

1 + x0 = (1 + x)0
= (x + 1)0
= (x + 1) + 1
= x0 + 1.2

Ora infine, usando questi risultati, dimostriamo per un x generico che

∀y(x + y = y + x)

per induzione su y:

Base: x + 0 = 0 + x.

Passo induttivo: Ammesso x + y = y + x, abbiamo

x + y 0 = (x + y)0 = (y + x)0
= (y + x) + 1
= y + (x + 1)
= y + (1 + x)
= (y + 1) + x
= y 0 + x.2

12.9 Errori e paradossi


Alcuni errori delle dimostrazioni, come il dimenticare la base, sono stati già
segnalati. Altri possono essere più difficili da scoprire, e alcuni portano a
divertenti paradossi.
Si consideri il seguente

Teorema 12.9.1 Tutte le mele hanno lo stesso colore.

218
Dimostrazione Basta dimostrare che, comunque si prendano n mele, queste
hanno tutte lo stesso colore. Se prendiamo una mela, tutte le mele nell’insieme
hanno lo stesso colore. Sia dato un insieme di n + 1 mele. Se togliamo una
mela a, otteniamo un insieme di n mele che per ipotesi induttiva hanno lo
stesso colore. Ma se rimettiamo a nel mucchio e ne togliamo un’altra b, ab-
biamo un altro insieme di n mele che devono avere tutte lo stesso colore;
quindi b ha il colore di mele che hanno lo stesso colore di a, quindi a ha lo
stesso colore delle altre. 2
Mentre nella precedente dimostrazione è presente un vero errore, diverso è
il caso di ragionamenti come i seguenti, che lo studente è invitato a discutere.
Sul primo non sarebbero d’accordo i sollevatori di pesi.
Teorema 12.9.2 Chiunque è in grado di sollevare un mucchio di sabbia pe-
sante quanto si vuole.
Dimostrazione Dato un granello di sabbia, chiunque è in grado di soll-
evarlo. Se una persona è in grado si sollevare un mucchio di sabbia, e al
mucchio si aggiunge un granello, la stessa persona è in grado di sollevare il
nuovo mucchio. Qualunque mucchio di sabbia, di qualsiasi peso, si ottiene
accumulando un numero sufficiente di granelli di sabbia. 2
Sul prossimo sarebbero d’accordo i matematici, e non si può dire che sia
un errore, né un paradosso, sembra solo paradossale.
Teorema 12.9.3 Ogni numero è interessante.
Dimostrazione Iniziamo con un’induzione empirica. 0 è interessante, al punto
che si continuano a scrivere libri su di esso, rappresenta il vuoto, il nulla
. . . 1 è molto interessante, genera tutti gli altri. 2 è il primo numero pari, e
rappresenta tutte le dicotomie che danno origine alla vita, la divisione nella
coppia, maschio e femmina, il bene e il male . . . , 3 è la trinità, il primo
numero primo dispari, somma dei suoi predecessori . . . , 4 è il primo numero
composto, ci sono i quattro cavalieri dell’Apocalisse . . . , 5 in effetti non
sembra avere nessuna caratteristica unica; beh, questo è interessante di 5,
che è il primo numero non interessante . . .
Si vede ora come svolgere la dimostrazione, nella forma del principio del
minimo: l’insieme dei numeri non interessanti è vuoto, perché se no avrebbe
un primo elemento, e questo sarebbe interessante, come primo numero non
interessante. 2
Non sembra invece accettabile

219
Teorema 12.9.4 Ogni numero è piccolo.

Dimostrazione 0 è piccolo, e se n è piccolo anche n + 1 è piccolo. 2

Una dimostrazione per induzione forte che contiene evidentemente un


errore è la seguente, secondo cui le derivate di una qualunque potenza xn
sarebbero tutte nulle, cosı̀ come Dx0 = 0, la derivata di una costante:
Per la regola del prodotto, e usando l’ipotesi induttiva che la derivata di
i
x sia identicamente 0 per ogni i < n + 1,

Dxn+1 = (Dx1 ) · xn + x · (Dxn ) = 0 · xn + x · 0 = 0.

12.10 Definizioni induttive


Le definizioni induttive sono quelle che si appoggiano ai numeri naturali,
ma si riferiscono ad altri enti; definiscono funzioni con dominio N ma valori
diversi dai numeri, in generale insiemi, relazioni. La formulazione più gen-
erale quindi si dà in termini insiemistici; una tipica definizione induttiva si
presenta nella forma seguente.
Dato un insieme B e una funzione F che manda insiemi in insiemi, si
pone 
I0 = B
In+1 = F (In ),
oppure, nella forma cumulativa, che garantisce che In ⊆ In+1 per ogni n,

I0 = B
In+1 = In ∪ F (In ).
Quindi si pone
S
I= {In | n ∈ N}

o
S∞
I= i=0 {In }

e si dice che I è definito induttivamente, o per induzione, mediante F , con


base B.
I può risultare un insieme qualunque, dipende da B e F , può anche essere
un insieme di coppie, o un insieme di altre strutture.

220
F anche è una funzione qualunque, ma in generale si prende crescente,
rispetto all’inclusione, nel senso che se X ⊆ Y allora F (X) ⊆ F (Y ), e
continua, rispetto all’unione, nel senso che “F della unione uguale unione
degli F ”:
S S
F ( {Xj | j ∈ J }) = {F (Xj ) | j ∈ J }.
Si può sempre fare in modo che la funzione sia crescente utilizzando F 0 (X) =
X ∪ F (X) invece della data F .
Se F è continua, e F (∅) = B, la definizione cumulativa si può anche
esprimere con la sola
S
In = F ( i<n Ii )
avendo posto
 Sn−1
S  i=0 Xi se n>0
i<n Xi =
∅ se n = 0.

Esempi
L’insieme dei polinomi in x a coefficienti reali si può definire con

P0 =R
Pn+1 = {x · p + c | p ∈ Pn , c ∈ R}
e
S
P = {Pn | n ∈ N }.
(Esercizio: Esaminare quali siano gli elementi di P1 e P2 .)
Come si vede dall’esempio, la base B non è necessariamente un insieme
finito. La funzione F in questo caso è
F (X) = {x · p + c | p ∈ X, c ∈ R},
che si vede facilmente essere crescente e continua, come sarà anche negli
esempi successivi.
L’insieme dei termini T costruiti con 0, 1, x, + e · si può definire con

T0 = {0, 1, x}
Tn+1 = Tn ∪ {t1 + t2 | t1 , t2 ∈ Tn } ∪ {t1 · t2 | t1 , t2 ∈ Tn }
e

221
S
T = {Tn | n ∈ N }.

L’insieme I definito induttivamente mediante F , con base B, è caratter-


izzato dalla seguente proprietà:

I è il più piccolo insieme che contiene B ed è chiuso rispetto a F , !!!

dove si dice che un insieme X è chiuso rispetto a F se per ogni Y se Y ⊆ X


allora F (Y ) ⊆ X; con “più piccolo” s’intende che se J è un insieme che
contiene B ed è chiuso rispetto a F allora I ⊆ J.

I due tipi di definizione si dicono anche definizione dal basso (quella in-
duttiva con l’unione) e dall’alto, per intersezione.
Un modo di esprimere in simboli il fatto che un insieme X è il più pic-
colo insieme che ha una certa proprietà P è infatti quello di dire che X è
l’intersezione (generalizzata) di tutti gli Y tali che P (Y ), quando l’intersezione
ha ancora la proprietà P . !!!
Questo succede ad esempio se la proprietà P consiste, come nel caso
attuale, nel contenere un dato insieme o nell’essere chiusi rispetto a una
funzione. Non è sempre cosı̀, ad esempio nel campo reale l’intersezione di tutti
gli intervalli che contengono propriamente l’intervallo (−1, 1) è l’intervallo
chiuso [−1, 1] (estremi inclusi), che ha ancora la stessa proprietà; invece
l’intersezione di tutti gli intervalli aperti (−x, x) è l’insieme {0}, che non è
un intervallo aperto31 .
Facciamo vedere che le due definizioni di I sono equivalenti, se si usa
l’induzione cumulativa ed F è crescente e continua, e a questo scopo chiami-
amo J l’insieme definito dall’alto:
T
J = {X | B ⊆ X ∧ ∀Y (Y ⊆ X → F (Y ) ⊆ X)}.

Dobbiamo dimostrare che I = J.


Per I ⊆ J basta far vedere che per ogni n In ⊆ J, cioè che se X è tale che
B ⊆ X ∧ ∀Y (Y ⊆ X → F (Y ) ⊆ X) allora In ⊆ X. Lo si verifica facilmente
per induzione (esercizio). Ne segue che I ⊆ J per la proprietà di minimalità
dell’unione.
31
Con intervallo aperto (−x, x) intendiamo {y | −x < y < x}.

222
Per J ⊆ I basta far vedere che I è uno degli insiemi di cui J è l’intersezione,
quindi che B ⊆ I e I è chiuso rispetto a F . B ⊆ I è ovvio.
È sufficiente controllare la proprietà di chiusura per sottoinsiemi finiti
di I. InfattiSogni Y ⊆ I, ogni Y in verità, è l’unione dei suoi S sottoinsiemi
finiti, Y = {Z ⊆ Y | Z finito}, e se F è continua F (Y ) = {F (Z) | Z ⊆
Y e Z finito}.
Ora se Z ⊆ I e Z è finito, allora Z ⊆ In per qualche n32 , e F (Z) ⊆
F (In ) ⊆ In+1 , quindi F (Z) ⊆ I. 2

Questo è il motivo per cui si sceglie la forma cumulativa dell’induzione


anche quando non sarebbe necessario; in tal modo si garantiscono le proprietà
richieste dalla dimostrazione, e le supporremo sempre verificate anche se la
presentazione della definizione induttiva non lo mostra esplicitamente.
Di solito infatti la funzione F è precisata da una serie di operazioni da
compiere sugli elementi dell’insieme In per ottenere In+1 e allora per ogni
operazione si ha una clausola induttiva separata.
La definizione del precedente insieme di termini T si presenta nel seguente
modo:

 Base: 0, 1, x sono termini
Clausola induttiva 1: Se t1 e t2 sono termini, anche t1 + t2 è un termine.
Clausola induttiva 2: Se t1 e t2 sono termini, anche t1 · t2 è un termine.

Qualche volta si aggiunge, ma più spesso si trascura, una


Clausola di chiusura: Null’altro è un termine.
Per dare una definizione induttiva di un insieme I in sostanza, prima si
dice esplicitamente che certi elementi appartengono a I; quindi si afferma che
se certi elementi, di una determinata forma, appartengono a I, anche altri,
di altra forma collegata, appartengono a I.
La clausola di chiusura è da intendersi nel senso che non solo I contiene gli
elementi della base ed è chiuso rispetto alle operazioni indicate dalle clausole
induttive,
S ma è il più piccolo insieme del genere. Quindi è uguale all’insieme
{In | n ∈ N } e qualcosa è in I se e soltanto se è in un In , cioè lo è in
base all’applicazione iterata un numero finito di volte delle clausole di base
e induttive.
32
Perchè Ir ⊆ Ir+1 : allora ogni elemento di Z è in qualche Ir , e tutti sono quindi nel
massimo di questi.

223
Esempi
La definizione delle proposizioni P aveva la forma induttiva

Base: Una proposizione atomica è una proposizione.

Clausola induttiva 1: Se A è una proposizione, anche (¬A) lo è.

Clausola induttiva 2: Se • è un connettivo binario, e se A e B sono propo-


sizioni, anche (A • B) lo è.

Si tratta di una definizione per induzione cumulativa: quando (A • B) è


inserito in In+1 , A e B non sono necessariamente entrambe in In , ma in uno
qualsiasi dei livelli precedenti.
Definiamo l’insieme A degli alberi binari finiti (qui brevemente “alberi”),
intesi come insiemi finiti con un ordine parziale:

Base: Un singoletto {•} è un albero, che è radice, in quanto non ha prede-


cessori immediati, ed è foglia in quanto non ha successori immediati (o
figli).

Clausola induttiva: Dato un albero, se ad alcune sue foglie si aggiungono


uno o due successori immediati si ha un albero.

Vediamo come sono formati alcuni primi livelli di A.


La base A0 contiene solo l’albero

mentre A1 contiene

• • •
↓ .&
• • •

e A2 oltre a quelli di A1

224
• • •
↓ ↓ .&
• • • •
↓ .& ↓
• • • •

• • •
.& .& .&
• • • • • •
↓ .& ↓ .&
• • • • • •

• • •
.& .& .&
• • • • • •
.& .& ↓ .& .&
• • • • • • •• •

Infine mostriamo come si definisce una relazione, come insieme di coppie,


anche se spesso per le relazioni si adottano equivalenze di tipo ricorsivo, come
abbiamo visto per <. Proprio la relazione < si può definire con

= {hx, x0 i | x ∈ N }

I0
In+1 = In ∪ {hx, y 0 i | hx, yi ∈ In },

e I = <, che mostra come < sia l’iterazione della relazione “successore” (che
è la base I0 ).
La definizione ricorsiva che abbiamo visto in precedenza, da cui segue

x < y ↔ ∃z 6= 0(x + z = y),

mostra anch’essa come < sia l’iterazione del successore, dal momento che
l’addizione è l’iterazione del successore; quest’ultima equivalenza peraltro è
piuttosto la definizione di una formula, che a sua volta definisce la relazione,
che non la definizione della relazione come insieme.

225
Un altro modo di presentare la relazione < è quello di definirla come la
chiusura transitiva della relazione successore S = {hx, x0 i | x ∈ N }.
La chiusura transitiva di una relazione S è la più piccola relazione che
estende S ed è transitiva; se scriviamo
T rans(R) per ∀x, y, z(hx, yi ∈ R ∧ hy, zi ∈ R → hx, zi ∈ R),
e T C(S) per “chiusura transitiva di S” allora
T
T C(S) = {R | S ⊆ R e T rans(R) }.
L’intersezione non è fatta sull’insieme vuoto, perché esiste sempre almeno
una R soddisfacente le condizioni richieste, ad esempio la relazione totale.
Anche la chiusura transitiva di S ammette in generale una definizione
induttiva dal basso (come quella vista sopra per <), data da

I0 = S
In+1 = In ∪ {hx, yi | ∃z(hx, zi ∈ In ∧ hz, yi ∈ S)},

e T C(S) = ∞
S
i=0 {In }.

Esempi
La relazione d’ordine parziale negli alberi è la chiusura transitiva della
relazione di successore immediato che è inclusa nella definizione ricorsiva
degli alberi.
La relazione “B è una sottoproposizione di A” è la chiusura transitiva
della relazione “B è una sottoproposizione immediata di A” della definizione
del paragrafo 3.2.1.

Quando un insieme I è definito induttivamente, per dimostrare che ogni


elemento di I ha una proprietà P si può usare l’induzione.
Ad ogni elemento x ∈ I è associato un numero, il più piccolo n tale che
x ∈ In . Chiamiamo altezza di x questo numero33 .
33
Nella definizione delle proposizioni del paragrafo 3.2.1 le proposizioni atomiche avevano
altezza 1, mentre nella terminologia attuale hanno altezza 0; lo stesso per gli alberi, secondo
la definizione del paragrafo 3.2.2 l’albero • aveva altezza 1, mentre ora ha altezza 0; non
ci sarebbe alcuna difficoltà ad adattare la notazione delle definizioni induttive in modo
da ristabilire l’accordo, usando N \ {0} o N \ Nk invece di N.Tuttavia nella trattazione
generale delle definizioni induttive, non c’è motivo per non usare tutti i numeri, incluso 0.
La precedente definizione di altezza di un albero si giustificava intuitivamente in base alla
nozione di lunghezza dei rami.

226
Esempio L’altezza di un polinomio rispetto alla definizione induttiva di
P è il grado del polinomio.
Un’induzione sull’altezza di x è un’induzione su n, che tuttavia prende in !!!
esame non solo tutti i numeri naturali, ma tutti gli elementi di tutti i livelli In
della gerarchia in cui è strutturato I. Essa si presenta nella seguente forma:
Base: Ogni elemento di altezza 0, cioè ogni elemento di I0 , ha la proprietà
P.
Passo induttivo: Ammesso che ogni elemento di altezza n abbia la proprietà
P , si dimostra che ogni elemento di altezza n + 1 ha la proprietà P .
Sn−1
Gli elementi di altezza n sono gli elementi di In \ i=0 Ii . Se si vuole che
l’ipotesi induttiva riguardi tutto In occorre utilizzare l’induzione forte:
Passo induttivo: Ammesso che ogni elemento di altezza minore di n abbia la
proprietà P , si dimostra che ogni elemento di altezza n ha la proprietà
P.
Esempio Dimostriamo che :
Ogni proposizione ha un numero pari di parentesi.
Dimostrazione Per induzione forte. Supponiamo che tutte le proposizioni di
altezza minore di n abbiano un numero pari di parentesi. Indichiamo con ]A
il numero di parentesi di A.
Sia A una proposizione di altezza n. Se n = 0, la proposizione è atomica,
della forma (p), e ha due parentesi.
Se n > 0, A è una proposizione composta, e il fatto cruciale è che le sue
componenti hanno altezza minore di quella di A. Si danno due casi.
Se A è (¬B), per ipotesi induttiva ]B è un numero pari e ]A = ]B + 2 è
anch’esso pari.
Se A è (B • C) composta con un connettivo binario, per ipotesi induttiva
]B e ]C sono pari e ]A = ]B + ]C + 2 è anch’esso pari. 2

Insieme alle dimostrazioni induttive, anche le definizioni ricorsive si esten-


dono agli insiemi definiti induttivamente. L’estensione di un’interpretazione
i a una valutazione i∗ del linguaggio proposizionale (paragrafo 3.3) è una !!!
definizione ricorsiva sull’altezza delle proposizioni.
Altre volte si usano misure di complessità diverse dall’altezza. Per poter
fare dimostrazioni induttive per tutti gli elementi di un insieme X, quello che

227
S∞
importa è che X si possa rappresentare come i=k Xi , indipendentemente da
come è stato originariamente definito.
Esempio L’algoritmo di trasformazione di una proposizione in forma nor-
male congiuntiva (o disgiuntiva) del paragrafo 6.3 presentava una ricorsione
sulla lunghezza delle proposizioni. L’esecuzione delle operazioni sintattiche
da compiere su una proposizione era riportata, attraverso l’applicazione delle
leggi distributive, a proposizioni di lunghezza minore: da A∨B ≡ (C ∧D)∨B
via (C ∨ B) ∧ (D ∨ B) a C ∨ B e D ∨ B. Data una forma normale congiuntiva
per queste ultime, si ha una forma normale congiuntiva anche per A ∨ B.
Si noti che C ∨ B e D ∨ B potrebbero avere invece la stessa altezza di
A ∨ B, se prevale l’altezza di B.
La misura di complessità associata in modo naturale alla definizione delle
proposizioni è l’altezza dell’albero di parsing, ma vale anche
P= ∞
S
i=3 Li

dove Li è l’insieme delle proposizioni che hanno (come liste) lunghezza i


(alcuni Li sono vuoti, vedi esercizi), o la gerarchia cumulativa
P= ∞ ≤
S
i=3 Li

dove L≤
i è l’insieme delle proposizioni che hanno lunghezza ≤ i.

12.10.1 Esercizi
1. Dimostrare per induzione doppia che per ogni m esiste un punto f (m)
tale che ∀n(n > f (m) → nm < n!).
2. Dimostrare per induzione:

(a) Ogni proposizione contiene almeno una parentesi.


(b) Ogni proposizione inizia con una parentesi sinistra e termina con
una parentesi destra.
(c) In ogni proposizione il numero di parentesi sinistre è uguale al
numero di parentesi destre.
(d) Se si considera una sottosequenza iniziale propria di una propo-
sizione, in essa il numero di parentesi sinistre è maggiore di quello
delle parentesi destre.
Questo risultato è quello che giustifica il fatto che il contatore di !!!
parentesi torna a zero solo alla fine di una formula.

228
(e) Ogni proposizione ha lunghezza (come lista) maggiore o uguale a
3.
(f) In nessuna proposizione occorrono due connettivi consecutivi.
(g) In ogni proposizione non atomica occorre almeno un connettivo.
(h) In nessuna proposizione occorre la sottosequenza “()”, né “)p”.
(i) In ogni proposizione la sua lunghezza è maggiore della sua altezza.

3. Se Li è l’insieme delle proposizioni di lunghezza i, trovare quali sono


gli i che sono lunghezze di proposizioni (per cui cioè Li 6= ∅).

4. Dimostrare per induzione sul numero di lettere che il numero delle


interpretazioni delle proposizioni A[p1 , . . . , pn ] è 2n .

5. Determinare e dimostrare quanti sono gli alberi di altezza n.

6. Determinare e dimostrare quante sono, al massimo, le foglie e i rami di


un albero di altezza n.

229

You might also like