You are on page 1of 79

Corso di laurea in Organizzazione e

Risorse Umane, L-16

Data Science e Big Data: nuove opportunità


per lo sviluppo di Marketing e Human
Resource Management

Relatore:
Chiar.mo Prof. Giancarlo Manzi

Tesi di Laurea di:


Stefano Marchese
Ai legami visibili
e invisibili …

2
Indice

Introduzione pag. 4

1. Big Data: il motore dell’innovazione aziendale


1.1 Le origini della Data Science e i suoi sviluppi pag. 7
1.2 Le fonti, le analisi e le tecniche dei Big Data pag. 14
1.3 L’approccio data-driven per la creazione di valore pag. 21

2. Gli sviluppi nel Marketing


2.1 Applicazione e sfide nel Marketing pag. 28
2.2 La Sentiment Analysis pag. 34
2.3 Il caso Twitter/R pag. 39

3. Gli sviluppi nello Human Resource Management


3.1 Applicazioni e sfide nell’HRM pag. 47
3.2 HR Analytics pag. 55
3.3 Il caso Zucchetti – Fininvest pag. 60

Conclusioni pag. 66

Bibliografia pag. 68

Sitografia pag. 73

3
Introduzione

Questa trattazione si propone di analizzare i concetti di Data Science e Big


Data da un punto di vista economico-statistico, al fine di suggestionare una
lettura che mira ad una visione strategica, legata ad obiettivi di business ed
alla ricerca delle opportunità presenti che si celano dietro l’infinita mole di
dati che vediamo al giorno d’oggi. Gli eventi degli ultimi vent’anni, fra cui la
nascita del World Wide Web (www), la diffusione di motori di ricerca come
Google, dei dispositivi mobile, dei social network, e la progressiva
digitalizzazione delle differenti funzioni aziendali hanno cambiato per sempre
il nostro modo di trattare i dati e, conseguentemente, anche la vita quotidiana.
Disporre di molti dati, è sempre stata una prerogativa basilare per effettuare
un’analisi efficace, ma ciò che si vede oggi, con la diffusione della tecnologia
e del web, è una crescente creazione di contenuti che induce
all’implementazione di un modello che non si basa su un campione di dati,
bensì sull’intero dataset. In questo senso, l’approccio con cui viene affrontata
la trattazione si lega solo trasversalmente all’informatica, infatti, si vuole far
notare come le tecniche statistiche e gli strumenti offerti dall’Information and
Communication Technology – basati anch’essi sulla statistica – possano
generare valore per l’impresa e per ogni tipo di organizzazione. Il costante
divenire nella produzione dei dati da parte degli utenti, è una condizione che
non si era mai verificata in passato, e rappresenta un “tesoro” per le
organizzazioni che hanno un management team motivato e curioso, che
sappia trarre informazioni e deduzioni, prendere decisioni e vincere le sfide
aziendali che si presentano, attraverso un approccio data-driven.
Questa tesi si articola in tre capitoli: il primo mira a definire il contesto
generale della data science, mentre il secondo e il terzo si focalizzano su due
diverse aree aziendali, che sono rispettivamente il Marketing e lo Human
Resource Management, al fine di mostrare alcune opportunità legate
all’implementazione dei Big Data. Il “filo conduttore” di questa trilogia, è
data dalla strutturazione dei paragrafi che si compongono di una prima parte
generica, una seconda legata alla descrizione di tecniche statistiche o

4
analytics ed una terza che si concentra sugli approcci per la creazione di
valore nell’impresa. In tal senso, per il secondo capitolo è stata realizzata
un’applicazione dimostrativa di data/text mining, mentre per il terzo capitolo
si è analizzato una best practice tecnologica di successo.

5
1. Big Data: il motore dell’innovazione aziendale

In questo capitolo si vuole prendere in considerazione tutto ciò che riguarda –


per quanto possibile in questo spazio – la Data Science e i Big Data:
definizioni, caratteristiche, tecniche statistiche ed opportunità inerenti alla
creazione di valore nelle imprese.
Il primo paragrafo si propone di fornire un quadro generale riguardante le
definizioni, che spesso vengono sovrapposte l’una all’altra; la portata del
fenomeno; le caratteristiche dei Big Data, ovvero le 5 V: Volume, Velocita,
Varietà, Veridicità e Valore.
Il secondo paragrafo definisce le cinque fonti di dati principali e descrive la
moltitudine di analisi e tecniche statistiche che sono in grado di prestarsi ad
un utilizzo dei Big Data. Fra queste, viene dato maggiore rilievo a:
Regression Tree, Regressione, Regressione logistica, Neural Networks,
Hierarchial Cluster Analysis. L’ultima parte di questo secondo paragrafo,
introduce il terzo che si focalizza sull’approccio data-driven decision making
per la creazione di valore, il cambiamento della Hippo e le cinque vie di
sviluppo in cui i Big Data sono applicabili in tal senso.

6
1.1 Le origini della Data Science e i suoi sviluppi

L’inizio del nuovo millennio ha visto un aumento della notorietà della data
science ed un conseguente incremento degli investimenti nelle infrastrutture
di business, che hanno migliorato le capacità di raggruppare i dati attraverso
le imprese. (Provost e Fawcett, 2013)
Tra gli statistici, il dibattito sull’utilità e sulle possibilità che la data science
può dare è molto acceso. Per alcuni la data science si configura come una
minaccia, ma per altri come un’opportunità unica per la statistica, in quanto è
in grado di enfatizzare la rilevanza universale dei metodi statistici per
interpretare i dati, nei termini di un importante legame tra l’information
technology e la statistica stessa. Quest’ultima è essenziale per la
comprensione e ricezione delle informazioni provenienti dai dati, ma forse
ancora non completamente adatta a contribuire da sola alle ricerche emergenti
nell’ambito della “data revolution”, per via del fatto che alcuni campi di
realizzazione sono di competenza informatica.
In virtù di tale considerazione, possiamo prendere in esame le definizioni di
Wikipedia, che pur non essendo un’autorità accademica, a volte può dare
illuminanti spiegazioni:

‘Data science is ... the extraction of knowledge from data.... It


employs techniques and theories drawn from many fields within the
broad areas of mathematics, statistics, and information technology ....’

‘Information science is an interdisciplinary field primarily concerned


with the analysis, collection, classification, manipulation, storage,
retrieval, movement, dissemination, and protection of information.’

‘Statistics is the study of the collection, analysis, interpretation,


presentation, and organization of data.’

Tali campi presentano una considerevole sovrapposizione di competenze ed è


perciò possibile dire, in accordo con Peter J.Diggle (Diggle, 2015), presidente
della Royal Statistical Society, che la data science è una parente stretta
dell’informatica e soprattutto della statistica. In particolare, egli sostiene che

7
la definizione di data science sopracitata sia molto vicina a quella che si
utilizza per definire la statistica, mentre quella attinente all’information
science sembra appartenere più alla tecnologia che alla statistica stessa. In
accordo con un altro importante ricercatore, Iain Buchan (University of
Manchester), Diggle definisce la data science come la statistica del XXI
secolo, mettendo in evidenza una sua nuova interpretazione: “l’informatica
cerca di massimizzare l’utilità dei dati, mentre la statistica ha l’obiettivo di
minimizzare l’incertezza che è associata alla loro interpretazione” (Diggle,
2015).

Virtualmente, ogni aspetto di business è attualmente aperto alla data


collection ed a volte utilizzato anche come strumento per quest’ultima:
operations, manufacturing, supply-chain management, customer behavior,
marketing campaign performance sono solo alcuni dei molteplici aspetti in
cui la raccolta e l’elaborazione dei dati è ormai diventata essenziale e
imprescindibile. Allo stesso modo, le informazioni disponibili esternamente
sono praticamente infinite, a partire dai trend di mercato fino ad arrivare alle
notizie sui competitors. Questa grande accessibilità ai dati ha portato ad un
crescente interesse verso i metodi per estrarre informazioni utili e conoscenza
– il regno della data science (Provost e Fawcett, 2013).
Quando si accosta la scienza dei dati alle tecniche di data mining e big data
che consentono di estrarre informazione dai dati il rischio è spesso quello di
creare confusione, perché molte definizioni si sovrappongono e si
intersecano.
I termini data science e data mining a volte vengono scambiati, dimenticando
che la data science ha dato vita al pensiero analitico che vuole cercare di
capitalizzare la presenza di un’immensa quantità di informazioni dai dati,
mentre il data mining rappresenta le tecniche per estrarre la conoscenza e
permettere la rappresentazione di tali principi (Provost e Fawcett, 2013).
Uno sviluppo importante per aumentare la conoscenza informativa dei dati, è
rappresentato dall’utilizzo dei Big Data che, sostanzialmente, si presentano
come dei datasets troppo grandi per poter essere raggruppati ed analizzati con
i tradizionali processi, ma, proprio per tali dimensioni, hanno un potenziale

8
talmente rilevante da mobilitare la volontà delle organizzazioni di voler
creare e catturare valore per gli individui, il business, la comunità e i governi.
(McKinsey Global Institute, 2011).
Un’altra distinzione, che a volte genera disaccordi, è quella che vede i big
data annoverabili tra gli argomenti che attingono alla data science e sono
processati dalle diverse tecniche di data mining. Proprio come per la maggior
parte dei concetti emergenti, infatti, i ricercatori non hanno ancora
un’opinione condivisa riguardante la definizione dei Big Data. Tuttavia
quella maggiormente utilizzata deriva da cinque complementi:
“I Big Data sono enormi, diversificati e caratterizzati da una crescita
esponenziale. Essi danno vita ad un nuovo approccio volto a determinare un
risultato più convincente” (LaValle et al, 2011; Ma, Jiang, 2013)
In questo senso, va detto che, in base al rapporto di IBM, vengono creati 2,5
quintilioni (1018) di bytes di dati al giorno e più del 90% dei dati mondiali
sono stati generati negli ultimi due anni (IBM, 2013). Questa esplosione
globale è guidata principalmente dalla tecnologia inclusi gli smartphones, i
video, la musica e Internet (Oracle,2012), ciò determina una crescità della
pluralità delle fonti: motori di ricerca, transazioni commerciali tramite
dispositivi mobili, interazioni dei social media, upload di audio e video,
sistemi GPS… (IBM,2013)
In un mondo così tecnologicamente avanzato, le nostre operazioni di
interazione con la rete sono registrate ed elaborate, perciò è facile capire
come ogni giorno vengano create applicazioni che generano valore ed
arricchiscono la vita degli utenti.
I Big Data si configurano, dunque, come un utile strumento per rendere
“misurabile” la società, attraverso cui le organizzazioni possono relazionarsi
con l’utente, traendo analisi e predizioni sull’andamento del mercato e sugli
interessi aziendali.
Storicamente, il Data Management si è evoluto principalmente intorno a due
problemi fondamentali: il volume e la capacità di trasformazione. Tuttavia, le
sfide si sono ampliate, modificando la cosiddetta capacità di trasformazione
in velocità e generando una terza dimensione: la varietà dei dati.

9
L’esponenziale e costante incremento di queste tre caratteristiche era stato
anticipato dall’analista Douglas Laney, che già nel 2001, ha identificato il
modello di crescita dei Big Data come un modello di crescita tridimensionale.
(Laney, 2001) In questo senso, troviamo le ricerche di Gartner (Gartner
Research, 2012), secondo cui l’unità costituita dalle tre variabili può essere
descritta attraverso il seguente enunciato:
"Big data is high volume, velocity and variety information assets that
demands cost-effective, innovative forms of information processing for
enhanced insight and decision making."

 Volume - From Terabytes to Zettabytes


Secondo un report del 2014 di IDC1, è verosimile stimare che entro il 2020, il
numero dei dati digitali prodotti in un solo anno sarà pari a 44 zettabyte (IDC,
2014), notevolmente superiore quindi al volume di dati in terabyte che si
poteva osservare fino ad un decennio fa. Come si evince dall’aggettivo “big”,
se si parla di Big Data non si può non prendere in considerazione questa
variabile. Le ragioni principali di tale ondata di produzione dei dati sono due:
la prima è data dalla popolarità di Internet, che rende l'acquisizione e la
condivisione di informazioni molto più semplice; la seconda è data dal

1
IDC è un azienda di ricerche di mercato, specializzata in particolar modo nell’Information
Tecnology. Notizia tratta da http://www.emc.com/leadership/digital-universe/2014iview/executive-
summary.htm

10
sostanziale aumento della capacità di immagazzinare notizie, sviluppata da
ogni tipo di sensore o dispositivo, la quale rende le persone capaci di
collezionare dati più reali e completi. Si è passati dal fare affidamento su dati
campione per analizzare la totalità, al prendere in esame i dati globali ed
analizzarli direttamente. Tuttora, esistono più dati di quanto sia possibile
processarne: il loro volume cresce del 50% ogni anno e di più del doppio ogni
biennio. (Gartner Research, 2012)
 Velocità - From Batch to Streaming Data

Se è vero che il volume dei dati cresce rapidamente, è altrettanto vero che è
molto più semplice acquisire informazioni, condividere un proprio pensiero
con tutto il mondo e far emergere nuovi contenuti in ogni istante.
Questa crescita esponenziale, richiede una maggiore velocità di elaborazione
e il che implica l’utilizzo di particolari sistemi definiti Streaming Data che
mirano a gestire i dati con prontezza e rapidità. In caso contrario, la
proliferazione di questi ultimi potrebbe diventare un peso durante la fase di
risoluzione dei problemi. Il valore intrinseco dei dati diminuisce rapidamente
col passare del tempo, perciò senza un’adeguata elaborazione risultano
inefficaci e senza senso. (Gartner Research, 2012)

 Varietà - From Structured to Unstructured

La più grande sfida non è imputabile alla grandezza dei dati o alla velocità
con cui questi vengono immagazzinati, ma a come le informazioni possono
essere usate per indirizzare gli specifici obiettivi di business e come le
organizzazioni sfrutteranno tale opportunità, adattando i processi per
migliorare i profitti (Gartner Research, 2012). Fino a qualche decennio fa,
infatti, la maggior parte della seppur grande quantità di dati era strutturata e,
di conseguenza, le modalità di trattamento erano fisse. Oggi, con il rapido
sviluppo di Internet e dei dispositivi che permettono la navigazione, si
acquisiscono, oltre ad una mole superiore di informazioni, sempre più dati
non strutturati.
Quando si parla di varietà, si definiscono proprio tali dati che risiedono nei
vari database in tre differenti forme: unstructured data, semi-structured data,

11
structured data. (McKinsey Global Institute, 2011) Inoltre, analizzare questa
classificazione dei dati significa avere la chiave per capire le differenti
tipologie di database generalmente utilizzate dalle imprese: Nonrelational
databases (dati non strutturati) and Relational databases (dati strutturati, es.
RDBMS).

Unstructured data

Tutti i dati che non derivano dallo stesso settore o organizzazione e dunque,
non hanno una conformazione uniforme e necessitano di essere ordinati e
combinati con gli altri. Gli esempi classici includono dati di: testo (libri,
articoli, messaggi e-mail), untagged audio, immagini e video.

Semi-structured data

Quei dati che non sono conformi ad un particolare settore ma contengono dei
tags o altri indizi per poter separare gli elementi, vengono riconosciuti come
dati semistrutturati. Esempi di tali indizi sono rappresentati da quei dati di
testo in XML o HTML che permettono al computer di raggrupparli più
facilmente rispetto ai primi che abbiamo preso in analisi.

Structured data

I dati inclusi nei relational databases sono quelli che vengono utilizzati nella
ormai consolidata Business Intelligence delle aziende, cioè quelli che
risiedono nello stesso settore e sono impostati con identiche conformità.

Uno dei più grandi benefici che i Big Data possono dare alle imprese, si
riferisce soprattutto ai dati non strutturati, laddove devono essere in grado di
chiedere ma anche di rispondere a domande complesse, raggruppando dati
rilevanti e utilizzando le giuste tecnologie per tradurre e processare le
informazioni attraverso la Big Data Analytics che guida le deduzioni ed
abilita le prese di decisione in tempo reale.
Recentemente, sono state introdotte due altre V: Veridicità e Valore (Ebner et
al, 2014; Lycett, 2013).
L'introduzione di una vasta scala di dati non strutturati, ci aiuta a conservare
tutti i loro dettagli, ma allo stesso tempo introduce informazioni inutili, e a

12
volte errate. (Ma J.G., Jiang, W., 2013) In virtù di ciò, comparando questi
ultimi e i dati strutturati, si può dire che i primi hanno una più bassa densità di
valore. Queste due nuove V si vanno ad aggiungere proprio in questi termini,
dove la prima sottintende la necessità di essere consapevoli della qualità dei
dati che si va ad analizzare (IBM, 2012) e la seconda definisce il valore
effettivamente traibile per ricavare insights. Tuttavia, il valore dei dati è
relativo, perché dipende dall’interpretazione che ne si dà, così come la
discrezione del valore di densità. A volte, un insignificante dettaglio può
causare un impatto enorme.
La sfida è quella di identificare quali dati sono rilevanti ed estrarli,
raggrupparli ed analizzarli il più rapidamente possibile (Oracle, 2012).

13
1.2 Le fonti, le analisi e le tecniche dei Big Data

Le tecniche statistiche e di data mining hanno maggiormente contribuito,


insieme alle tecniche dell’Information Technology allo sviluppo della data
science.
Tali metodologie vengono utilizzate per analizzare le differenti fonti dei dati -
data sources -. Ci sono cinque fonti principali: 1) i dati pubblici, 2) i dati
privati, 3) i data exhaust, 4) i dati di community, 5) i selfquantification data.
(Kennedy, 2008)

1) I dati pubblici sono detenuti dal governo, dalle amministrazioni


pubbliche e dalle comunità locali, potenzialmente adatti ad ampliare le
applicazioni di business e di gestione.

Esempi riguardano l’ambito dei trasporti, del consumo di energia e


dell’assistenza sanitaria (alla quale si accede sotto determinate restrizioni al
fine di salvaguardare la privacy individuale).

2) I dati privati sono detenuti dalle imprese, dalle organizzazioni no-profit e


dagli individui privati; forniscono informazioni private (non imputabili a
fonti pubbliche).

Ne sono esempi le transazioni dei consumatori, il movimento dei beni e delle


risorse delle imprese, la navigazione sui siti web, l’utilizzo del cellulare.

3) I data exhaust si riferiscono ai dati ambientali, raccolti passivamente,


dati non-core con valore limitato o nullo. Questi dati sono immagazzinati
per differenti scopi e possono essere ricombinati con altre fonti per creare
nuovo valore di informazione.

Ad esempio, quando gli individui adottano e usano le nuove tecnologie,


generano dei dati ambientali come sottoprodotti della loro quotidiana attività.
Gli individui possono anche emettere informazioni in modo passivo sulle
modalità di acquisto, sulle fruizioni di servizi sanitari e socio-assistenziali,
sulle loro interazioni.

4) I community data sono un distillato di dati non strutturati; sono


soprattutto dati testuali che catturano tendenze sociali.

14
I tipici community data comprendono le opinioni dei consumatori riguardanti
prodotti, voting buttons ( come “trovo utile questo giudizio”) e i Twitter feed.
Queste community data possono essere sezionate in modo tale da poterne
trarre significato ed elaborare modelli a struttura sociale.

5) I dati di auto-quantificazione sono tipi di dati che vengono rivelati dal


singolo attraverso la quantificazione di azioni e comportamenti personali.

Un esempio molto conosciuto di auto quantificazione è rappresentato dai


braccialetti utilizzati durante l’attività fisica, i quali monitorano gli esercizi e i
movimenti, e caricano poi i dati rilevati su un’applicazione dello smartphone
attraverso cui può essere registrato ed unito ai rilevamenti di allenamenti
precedenti.
In psicologia, gli individui hanno delle “preferenze dichiarate” di quello che
vorrebbero fare, mentre altre si deducono da un comportamento tenuto e
vengono dette “preferenze rivelate”: un individuo può acquistare lampadine a
basso consumo energetico con l’obiettivo di risparmiare l’elettricità, ma, allo
stesso tempo, tenere le luci accese per lungo tempo perché è consapevole di
consumare meno energia. Studiosi provenienti da diverse aree come la
psicologia, il marketing, la politica potrebbero beneficiare di dati auto-
quantificanti, determinati ed impliciti per l’utilizzo nella ricerca.

Tra i contributi teorici, empirici e il rigore con cui vengono analizzati i dati,
esiste un punto d’incontro, un trade-off. Il tipico approccio statistico ci porta
a confidare nel p-value, ovvero nella decisione di scartare gli outliers per
avere un’interpretazione che equivale a un “vince la maggioranza”. Con i Big
Data, invece, l’immenso volume dei dati determina che quasi tutto è
significativo e quindi anche un solo parere discordante va considerato.
La sfida è “slittare” da un focus sui p-values in favore di un focus sulle
effettive dimensioni, sulla varietà dei dati e sui casi che si discostano dal
“corpo principale” dei dati.
In diverse situazioni, la media è molto importante e spesso rivela come le
persone tendano a comportarsi sotto determinate condizioni, ma nella vastità
dei big data gli outliers possono essere ben più interessanti: innovazioni

15
rilevanti, tendenze, deviazioni o rivoluzioni potrebbero verificarsi al di fuori
delle medie e coinvolgere un cospicuo numero di persone, così da
determinare anche modificazioni negative.
L’alto grado di dettaglio dei Big Data, dunque, offre l’opportunità di
identificare le fonti del cambiamento in termini di innovazione di business,
tendenze social, crisi economiche o sconvolgimenti politici radicali.
I metodi della statistica Bayesiana e della regressione stepwise si sono rivelati
spesso approcci adeguati ma, oltre a questi, esistono anche molte altre
tecniche specifiche dell’analisi dei Big Data. Queste tecniche sono altrettanto
importanti per la comprensione di tale ambito e si configurano come un mix
di diverse discipline, quali la statistica, l’informatica, la matematica applicata
e l’economia. Esse includono (ma non si limitano solamente a ciò): A/B
testing, cluster analysis, data fusion and integration, data mining, genetic
alghorithms, machine learning, natural language processing, neural networks,
network analysis, signal processing, spatial analysis, simulation, time series
analysis e visualization (McKinsey Global Institute, 2011).
Di seguito, sono presentate le più comuni tecniche di analisi con l’obiettivo di
permettere una visione panoramica delle modalità attualmente utilizzate. E’
importante menzionare che la maggior parte delle tecniche sopracitate non
necessita di big dataset (es. regressione), ma ciascuna può essere applicata a
questi ultimi. Ampi e più diversi datasets possono essere usati per generare
risultati più variegati che rivelano associazioni e strutture più in profondità.

Classificazione ed albero di regressione

La metodologia dell’albero - anche detto regression tree - può essere usata


tramite due differenti approcci: la classificazione e la predizione.
Questo modello (Welsch, 2012; Shmueli et al, 2011) è basato sulla
separazione dei record e delle osservazioni in sottogruppi, per creare delle
deviazioni delle predizioni - recursive partitioning - ed è in grado di lavorare
all’interno di un’ampia gamma di applicazioni richiedendo considerevoli
sforzi computazionali. Il risultato è quello di fornire delle regole di

16
classificazione abbastanza semplici da comprendere per poter effettuare
analisi sul consumatore e, in alcuni casi, gestire predizioni categoriali.

Regressione

Il modello di regressione lineare multipla (McKinsey Global Institute, 2011;


Shmueli, 2011) è probabilmente la tecnica più conosciuta per analizzare i
dati. Essa permette di determinare il valore della variabile dipendente quando
una o più variabili indipendenti vengono modificate. Tale modello è usato per
creare relazioni lineari tra le variabili quantitative dipendenti Y (risultato o
risposta variabile) e una serie di predittori (X1, X2,…,Xp) conosciute come
variabili indipendenti.
Si assume che la popolazione contenga la seguente relazione:
Y= β0 + βx1 + β2x2 + … + βpxp + ε
Dove β0 … βp sono i coefficenti e la ε è la parte non spiegata.
Le ragioni più comuni per dare il via ad un’analisi di un dataset attraverso un
modello lineare è da ricercarsi in primo luogo, nella possibilità di
comprendere le relazioni all’interno dei dataset ed in secondo luogo, nel
riuscire a prevedere l’esito di nuovi casi. Questo metodo è usato ampiamente
nella previsioni di: vendite, produzione, marketing e soddisfazione del
cliente.

Regressione logistica

La regressione logistica (Welsch, 2012; Shmueli, 2011) è una tecnica di


classificazione che estende le idee di regressione lineare nella situazione in
cui la variabile dipendente (Y) è categorica. L’obiettivo è quello di
classificare le osservazioni in una delle classi che costituiscono la variabile
dipendente. Tale tecnica può essere utilizzata per classificare
categoricalmente in base al valore della variabile predittoria, un nuovo record
la cui classe è sconosciuta. Inoltre, può essere usata per effettuare dei
profiling (per esempio di consumatori o di utenti di servizi pubblici).
La regressione logistica, più comunemente, va ad affrontare variabili
dipendenti binarie con due classi (0 e 1), ottenendo la probabilità di

17
appartenere alla classe 1, dopo aver utilizzato un valore di cut-off su
quest’ultima per classificare il record in una delle classi. Quando il valore del
record che si sta esaminando scende al di sotto del valore di cut-off esso
apparterrà alla classe 0; altrimenti apparterrà alla classe 1.

Neural Networks

Le Neural networks - chiamate “reti neurali artificiali” - possono essere


utilizzate per problemi di classificazione e di previsione. Tali tecniche
(Welsch, 2012; Shmueli, 2011) si basano sullo stesso procedimento con cui i
neuroni si mettono in connessione con il cervello ovvero, vengono
configurate per “imparare dall’esperienza” e per provare a mimare le
tipologie di apprendimento del corpo umano. In una parola, si parla di
machine learning. L’idea è quella di combinare le informazioni in un modo
molto flessibile che cattura le complicate relazioni tra queste variabili e tra
queste e la variabile di risposta, per consentire una buona prestazione
predittiva, laddove altri metodi falliscono.
Le multilayer feed-forward networks sono le reti neurali maggiormente
utilizzate ed includono i tree layers che sono sono composti da tre livelli -
input, output ed uno nascosto -. Il flusso di informazioni è unidirezionale e
l’elaborazione viene eseguita un’osservazione alla volta.
Nonostante siano considerate come una tecnica capace di dare buone
prestazioni predittive e di modellizzare relazioni complesse fra variabili, va
detto che le reti neurali prevedono una notevole intensità computazionale, la
disponibilità di molti dati e la reale possibilità che possano rimanere
“bloccate” in una situazione che viene considerata ottimale dal sistema.
Le applicazioni di neural network si vedono maggiormente nel settore
finanziario, per esempio nelle previsioni di fallimento, nei mercativalutari e
nel commercio di materie prime.

Hierarchical Cluster Analysis

Questo modello (Shmueli, 2011) apprende automaticamente i dati da


raggruppare in base alle variabili scelte per l’analisi ed ha dunque l’obiettivo

18
di segmentare i dati in un insieme di gruppi omogenei (clusters), sulla base di
una misura di similarità tra di essi. Generalmente si andrà a discriminare tra
punti di dati cercando clusters aventi unità molto simili al loro interno e molto
diverse da quelle degli altri cluster.
Nel clustering, le osservazioni vengono raggruppate in cluster in base alle
distanze tra le osservazioni e le distanze tra i clusters. Esistono differenti
misurazioni che forniscono risultati. Nel primo caso, ovvero la distanza dei
record, le tecniche di misurazioni più comuni sono la distanza euclidea, la
correlazione basata sulle similarità e la distanza statistica (anche definita
Mahalanobis distance). Nel secondo caso, cioè nel caso della distanza fra i
cluster, esistono diverse opzioni, fra cui: Single Linkage, Complete Linkage,
Average Linkage e Centroid Distance.
Le applicazioni di questa tecnica si ritrovano nelle segmentazioni di mercato,
nella market structure analysis e nelle valutazioni che si fanno per creare un
portafoglio clienti bilanciato.

La prossima sfida nell’analisi dei Big Data è quella di muoversi identificando


i modelli di correlazione per esplorare la causalità. Senza dubbio gli
esperimenti di laboratorio offrono i vantaggi di un maggior controllo, ma
solitamente si focalizzano su un numero limitato di variabili, mentre la natura
della ricerca sui Big Data richiede un’elevato numero di fattori che guidino i
modelli di correlazione osservati.
Mentre alcuni dataset sono unidimensionali, concentrati per esempio su una
particolare transazione o sul comportamento comunicativo e confidano
sull’interazione del canale unico (telefono o email), ci sono opportunità
crescenti di raggruppare e analizzare i dataset multidimensionali, i quali
offrono insights sugli innumerevoli comportamenti, spesso attraverso
un’ampia varietà di canali diversi (call center, web, chat, mobile, video).
Per i ricercatori di management, il risultato di tale ricchezza è dato dalle
opportunità senza precedenti di individuare importanti variabili potenziali che
gli studi precedenti non avevano considerato a causa della loro natura. Il
costante cambiamento ambientale dell’economia digitale, mette alla prova i
tradizionali concetti economici e di business. Il grande volume di dati

19
generato dagli utilizzatori trasferisce e analizza tra i differenti settori il
graduale aumento della dipendenza del mercato da precisi servizi e
informazioni puntuali.
Le nuove opportunità di reperimento dei dati portano a ottenere facilmente
beni informativi che però risultano difficili da valutare in relazione al loro
impatto sulle decisioni prese in tempo reale. Imprenditori e innovatori hanno
usufruito di innumerevoli open e public data, così come le communities self-
quantification ed exhaust data hanno creato nuovi prodotti e servizi che
hanno il potere di trasformare le imprese.
In questo senso, la data science si inserisce non soltanto in un contesto di
ricerca e accademico, ma soprattutto imprenditoriale, mettendo a disposizione
le analisi e le tecniche che si sono prese
in considerazione in questo paragrafo,
per generare valore in due modi: avere
un ruolo da protagonista in ogni
funzione aziendale e definire un nuovo
processo decisionale basato sui dati: il
Data-Driven Decision Making.

Fonte: “Data Science for Business, Provost e Fawcett, 2013”

20
1.3 L’approccio data-driven per la creazione di valore

“I dati sono diventati un torrente che scorre in tutti i settori dell’economia


globale. Le aziende producono un volume enorme di dati transazionali e
acquisiscono trilioni di byte di informazioni su clienti, fornitori e operazioni.
Milioni di sensori in rete vengono integrati in dispositivi fisici come i
cellulari, i contatori intelligenti, le autovetture e i macchinari industriali, al
fine di rilevare, creare e comunicare i dati nell’era di Internet”.
(McKinsey Global Institute, 2011)

Questa citazione è solamente una delle tante che è stata formulata in merito ai
Big Data che non sono più una semplice “moda”, ma si presentano come una
reale opportunità per migliorare situazioni lavorative, creare nuove figure
professionali ed avere un supporto alle decisioni molto più preciso e
completo. In poco tempo, le aziende sono passate da una situazione in cui non
disponevano di dati sufficienti per effettuare analisi dettagliate, ad uno
scenario in cui, paradossalmente, non dispongono di competenze e strumenti
adeguati per trarre valore dall’immensità dei dati disponibili.
Il McKinsey Global Institute ha rilevato che più della metà degli oltre 1400
top manager intervistati ha dichiarato che i Big Data e l’analitica rientrano tra
le 10 priorità a livello aziendale. Sebbene un quinto abbia segnalato di avere
implementato strategie complete basate sulla Big Data Analytics per generare
dati significativi su attività di business o funzioni, solo il 13% sostiene di
utilizzare i dati per generare informazioni importanti sull’azienda. (McKinsey
Global Institute, 2011)
Il fenomeno, come già detto, è in fase di maturazione, e proprio per questo
motivo vi è la sicurezza che sarà capace di sconvolgere il panorama
aziendale, ancor più di quanto non ha fatto fino ad oggi. L’unica cosa certa è
che i Big Data trasformeranno molte imprese che si evolveranno in futuro e la
loro estensione sarà spropositata, andando ad incidere considerevolmente
sulle decisioni aziendali. In riferimento a ciò, gli studi di McAfee e
Brynjolfsson hanno constatato come molte organizzazioni, per quanto
riguarda l’ambito decisionale, hanno da sempre riposto la loro fiducia in

21
dirigenti esperti che si affidavano alla loro esperienza e, ove disponibile, ad
una quantità di dati limitata (McAfee e Brynjolfsson, 2012) .

'When data are scarce, expensive to obtain,or not available in digital form, it
makes sense to let well-placed people make decisions."

L’opinione di questi manager è stata definita Hippo, che in italiano è


l’acronimo di “l’opinione della persona più pagata” , ovvero il parere della
persona più autorevole e sulla quale ricadono le responsabilità di una presa di
decisione. Per anni, questa gerarchia è stata l’essenza del processo
decisionale esecutivo, tuttavia con l’evoluzione di una cultura Big Data ed un
nuovo approccio data-driven, tale scenario è destinato a modificarsi in modo
significativo. L’esperienza, come affermano McAfee e Brynjolfsson, resta un
fattore chiave al fine di formulare le domande corrette da porre per
individuare le giuste fonti di informazione, ma non sarà la sola a determinare
le scelte del management aziendale. In questo senso, sono state definite
alcune tecniche da applicare per quei dirigenti che sono intenti ad
implementare il passaggio ad un data-driven decision making:

 “ First - get in the habit of asking, "What the data say?" when faced
with an important decision and following up with more-specific
questions such as "where did the data come from?" "What kind of
analyses were conducted?" and "how confident are the results?"28

 " Second - allow themselves to be overruled by the data; few things


are more powerful for changing a decision-making culture than
seeing a senior executive concede to data driven decision-making.28

La data-driven decision making (DDD) dunque, è il processo che ha


l’obiettivo di creare valore per le imprese, basando le decisioni sull’analisi e
sull’interpretazione dei dati, piuttosto che sulle intuizioni. I vantaggi di un
approccio di questo tipo, sono stati dimostrati dal già citato economista Erik
Brynjolfsson e dai sui colleghi del MIT e della Penn’s Wharton School che
hanno condotto uno studio su come la DDD influisca sulle performance,
dimostrando statisticamente che le aziende capaci di implementare una

22
struttura decisionale basata sull’analisi dei Big Data, sono nettamente più
produttive rispetto alle altre. Infatti, una delle deviazioni standard più elevate,
è proprio quella che associa la DDD ad un aumento della produttività di un
valore che si attesta fra il 4 e il 6%. Tale processo data-driven è correlato
anche al Return On Assets, al Return On Equity e alla Market Value.
(Brynjolfsson, Hitt e Kim, 2011).

La tabella seguente presenta alcune delle implicazioni di questa “rivoluzione”


nella Business Intelligence, spostandosi da ambienti di tradizionali decision-
making a quelli data-driven decision making:

Traditional Decision-Making Big Data Extension (data-driven)


Environment

Determinare ed analizzare la situazione Fornire risposte complete, predirre le


dell’attuale business future situazioni del business, esaminare
nuove opportunità

Data sources integrati Data sources virtuali e combinati

Dati strutturati Dati multi-strutturati

Aggregazione di dati dettagliati Notevole aggregazione di dati dettagliati


(con dei limiti) (nessun limite)

Una sola misura per la gestione dei dati Data management flessibile ed
ottimizzato

Reporting basati sui dati prodotti e Funzioni analitiche avanzate e modelli


OLAP2 predittivi

Dashboard e scorecards Visualizzazioni sofisticate su grandi set


di risultati

Interpretazioni dei risultati, dei pattern e Trend sofisticati e pattern analysis


dei trends

Decisioni e azioni dedotte dai dati Decisioni e azioni basate su modelli


data-driven
Fonte: Vertica Systems3

2
OLAP è l’acronimo di ‘Online Analytical Processing’ ed è un conveniente e veloce modo per vedere
i risultati di business o per monitorare i KPI (Key Performance Indicator). Sinonimi di tale parola
sono: Management Information Systems (MIS) e Decision Support Systems (DSS).

23
L’approccio data-driven decision making è stato inserito nel quarto punto del
rapporto di McKinsey Global Institute (MGI, 2011), in riferimento alle
cinque vie applicabili ai Big Data per influenzare ed offrire delle potenziali
trasformazioni, creare valore per l’azienda e dare implicazioni su come le
organizzazioni debbano essere strutturate, organizzate e gestite.
Tali applicazioni sono:

Dare un senso di trasparenza


E’ possibile fare in modo che i Big Data prodotti da un’impresa siano
più facilmente accessibili agli stakeholders.

Abilitare sperimentazioni, svelare variabilità e migliorare le


performance
Le organizzazioni raccolgono più dati dettagliati e in tutte le
dimensioni (es. inventari di prodotto, giorni di malattia del
personale); la divisione IT organizzerà l’instrumenting processes e
darà il via ad esperimenti controllati.
Utilizzando i dati è anche possibile analizzare la variabilità delle
performance attraverso esperimenti naturali o controllati, andando a
ricercare le cause di eventuali problemi e permettendo di gestire la
questione delle performance da un livello più alto e con una
conoscenza più specifica e mirata.

Segmentare la popolazione aziendale per “customizzare” le azioni


I Big Data permettono a molte organizzazioni di creare rilevanti
segmentazioni ed adattare i prodotti e i servizi in modo che vadano a
soddisfare le specifiche necessità del cliente. In particolar modo, le
aziende che producono beni di consumo e le società di servizi che
utilizzano già da molti anni le tecniche di segmentazione del mercato
e targetizzazione del cliente, hanno cominciato ad implementare le

3
Vertica Systems è un’azienda americana fondata nel 2005 che produce software per l’analisi di
database. E’attiva in differenti diramazioni dell’IT: Enterprise software, Database Management e Data
Warehousing. Nel 2011, l’azienda è stata acquisita da HP che ha di conseguenza ampliato la sua di
sua divisione HP Software.

24
più sofisticate tecniche di Big Data convinte dell’opportunità di
risparmiare tempo nelle pratiche di promozione e advertising.
Questo approccio è conosciuto molto bene dal marketing e dal risk
management.

Supportare le decisioni dei manager utilizzando algoritmi


automatizzati
I processi decisionali, in tutte le organizzazioni, possono diventare
sempre più data-driven e fact-based. Le decisioni prese con il
supporto di strumenti analitici possono migliorare i processi di
decision making, minimizzare i rischi, e svelare rilevanti deduzioni
che non sarebbero possibili senza l’utilizzo dell’analytics.
Fino ad oggi, queste tecniche si sono diffuse principalmente nelle
grandi imprese, in primis per una maggiore necessità di analizzare
una considerevole mole di dati, ed in seconda battuta per il costo
elevato dei sistemi e degli strumenti informatici che permettono
l’elaborazione e l’analisi dei dati. In merito a ciò, vanno fatte due
considerazioni:
 in alcuni casi non è necessario automatizzare le decisioni, ma
visto l’aumento di produzione dei dati, è indubbio che il
decision-making non sarà più lo stesso e dovrà per forza essere
legato alle analisi e non solamente alle esperienze
dell’imprenditore;
 le attuali evoluzioni tecnologiche, come il diffondersi del
“cloud-computing” e degli strumenti di analisi “open-source”,
rendono molto meno costoso e più flessibile l’adozione di
queste tecniche da parte anche delle organizzazioni medio-
piccole.

Implementare e innovare nuovi modelli di business, prodotti e servizi


La possibilità, tramite l’analisi dei dati, di rispondere in tempo reale
alle domande, consente alle organizzazioni di innovare i prodotti, i
processi e i modelli di business per cogliere le sfide di un ambiente in

25
continuo cambiamento. I Big Data sono in grado di rispondere in
tempo reale alle domande: “Cosa è successo?”, “Perché è successo?”,
“Che cosa sta succedendo?” e “Che cosa succederà?” e, in questo
modo, permettono alle aziende di creare nuovi prodotti, più vicini alle
esigenze dei clienti, servizi che vadano ad enfatizzare la loro
esistenza o addirittura, determinare un nuovo modello di business.

“Data is the foundation of new waves of productivity growth, innovation, and


richer customer insight. Only recently viewed broadly as a sorce of
competitive advantage, dealing well with data is rapidly becoming table
stakes to stay in the game.”
- A. Murray, imprenditore e partner di Coriolis Ventures (2013)

Concludiamo questo capitolo, inserendo la citazione di cui sopra, che


riassume ciò che può rappresentare prendere decisioni con l’ausilio di una
grande quantità di informazioni, di implementare i Big Data nei processi
aziendali ed in tutte le funzioni presenti nell’organigramma delle imprese per
poterne trarre un vantaggio competitivo e sviluppare nuove opportunità.

26
2. Gli sviluppi nel Marketing

In questo capitolo, l’attenzione verte sulle opportunità offerte dai Big Data
per lo sviluppo e l’innovazione della funzione del Marketing.
Nel primo paragrafo, si analizzano in prospettiva comparata i documenti
accademici pubblicati in tale contesto, che mostrano un notevole interesse nel
voler applicare queste tecniche per ottenere degli insight; si illustrano le
possibili implementazioni nelle imprese e le sfide che si devono affrontare.
Nel secondo paragrafo, in linea con la strutturazione delineata, si fa
riferimento alle strategie di Customer Engagement, si definiscono termini,
quali Market Analytics e Consumer Analytics, per scendere poi nello
specifico della sentiment analysis, una tecnica statistica in grado di rilevare le
opinioni delle persone dai social network e trarne delle tendenze. In questo
senso, il terzo paragrafo mostra un’applicazione dimostrativa di data/text
mining utilizzando Twitter come social network da cui trarre le informazioni
e R come linguaggio in cui sviluppare le tecniche statistiche all’interno del
codice di programmazione. Tale paragrafo definisce una delle opportunità per
il Marketing generate da strumenti che solo una decina di anni fa non
esistevano e mostra molto chiaramente quanto sia trasversale l’ambito in cui
si può sviluppare la data science: dalla statistica all’informatica, dalla
comunicazione alle vendite.

27
2.1 Applicazioni e sfide nel Marketing

Il grafico sottostante, si riferisce al numero dei documenti accademici


condivisi in rete dall’inizio del nuovo millennio riguardanti l’ambito dei Big
Data nel marketing.

16384
8192
4096
2048
N° documenti prodotti

1024
512
256
128
64
32
16
8
4
2
1

Anni

Il numero di documenti per anno è stato ottenuto utilizzando il sito Google


Scholar, inserendo la seguente combinazione di parole: “Big Data” +
“Marketing”. A partire dal 2011, l’anno in cui si è registrato il primo “boom”
nella produzione di documenti accademici riguardanti le opportunità offerte
dai Big Data – probabilmente a causa della pubblicazione di diversi report da
parte di aziende autorevoli, prima fra tutte il McKinsey Global Institute – i
documenti prodotti sono più che raddoppiati ogni anno. Facendo un confronto
fra il 2014 (8250) e l’anno corrente (7970), si registra una parziale
stabilizzazione, ma tendente alla crescita visto che – il 2015 non è ancora
terminato. La funzione del marketing è stata una delle prime in cui si è voluto
implementare l’utilizzo di tecniche di data science al fine di studiare il
consumatore in maniera più specifica ed utilizzando per l’analisi anche fonti
non considerate fino a qualche tempo prima come i social network.

28
Le origini di una prima implementazione dei Big Data nel marketing sono da
ricercarsi in due motivi principali: lo studio dei consumatori è sempre stata
una sfida per i marketers, che dunque possiedono già una buona propensione
all’analisi dei dati; i clienti hanno cambiato il loro modo di vedere le cose e di
percepire i vari prodotti attraverso nuove strategie basate su impressioni e
sentimenti individuali.
La crisi economica e le dinamiche del web hanno stravolto i valori della
società e, di conseguenza, anche questa funzione deve trovare la forza per
innovarsi, ridefinire i propri confini ed avviare il cosiddetto processo di fine
tuning con il mercato. Tale processo, si definisce come l’abilità di
raggiungere una maggiore sintonia con il cliente utilizzando le varie tecniche
di advertising: campagne pubblicitarie, sponsor e così via.
La classificazione dei consumatori è sempre più complicata. Infatti non è
quasi più possibile raggruppare per categorie e stili di vita, in quanto il
comportamento degli individui può variare radicalmente, a volte anche in
modo contrastante, a seconda del momento specifico in cui si trovano e degli
stati d'animo provati in quel momento, a seconda delle variabili presenti
nell'ambiente esterno e alle dinamiche sociologiche che appartengono a
determinati contesti. Oggi, i consumatori cercano nei prodotti l'affermazione
della propria identità e contemporaneamente, i brand, tramite il loro
posizionamento sul mercato, cercano di definire la propria identità.
Hal Varian, chief economist di Google, definisce come “le aziende ‘data rate’
non solo devono avere la capacità di raccogliere informazioni, ma ben più
importante è saperle utilizzare per conoscere più a fondo la clientela. Le
capacità di analisi fanno la differenza, e sono quelle che formano il gap (tra
aziende di successo e non). Probabilmente il lavoro più richiesto e appagante
nei prossimi dieci anni sarà quello dello statistico”. (Varian, 2015)
La funzione del marketing, in particolar modo, recepisce informazioni di ogni
tipo, non solamente dai sistemi tradizionali di customer service, ma sempre
più dai siti web, social media ed e-mail. Inoltre, le dinamiche di acquisto
provenienti da più canali danno modo di conoscere meglio i potenziali
acquirenti e di coinvolgerli in campagne pubblicitarie dedicate, con

29
l’obiettivo di incrementare i ricavi lungo tutte le fasi del rapporto
commerciale. (http://www.experian.it/ufficio-stampa/2012-no08-la-sfida-dei-
big-data-il-marketing-come-organizzazione-data-driven.html)
I Big Data consentono alle organizzazioni di creare segmentazioni altamente
specifiche e di adattare i prodotti e i servizi alle esigenze dei consumatori.
La condivisione di contenuti sul web è diventata di uso comune e sempre più
ricorrente: si instaurano relazioni fra utenti da ogni parte del mondo, si
trasmettono immagini o video che in breve tempo possono diventare virali e
scaturiscono pareri ed opinioni sui vari blog e social.
Tali azioni rappresentano un’opportunità per le aziende, in quanto
involontariamente ogni individuo può produrre contenuti utili alle analisi di
marketing. Grazie allo sviluppo tecnologico e alle modifiche dei
comportamenti dei consumatori, prima attori statici ed ora prosumer,
attraverso l’analisi dei Big Data, i marketer dovranno considerare i dati che
rispecchiano la pluralità delle opinioni, ma anche i cosiddetti outliers, che in
materia vengono rappresentati soprattutto dalle osservazioni proposte dagli
influencer negativi.
La Market analytics (Desai, Steier e Verma, 2012) permette la comprensione
degli specifici trend e dei comportamenti aggregati come le previsioni,
l’elasticità al prezzo e le market basket analysis. Le analisi di mercato
consentono al retailer di analizzare una grande quantità di dati per far
emergere i modelli di comportamento degli utenti, monitorando la brand
awareness con i dati dei social network.
In base al report di Euromonitor (Euromonitor International, 2012), l’analisi
dei consumatori fornisce una base quantitativa per le decisioni e aiuta i
manager di marketing a sviluppare strategie innovative e vincenti, grazie ai
seguenti vantaggi:

 Approfondita ed accurata comprensione del cliente;


 Sviluppo di un targeting creativo e strategie di cross-selling;
 Determinazione di gruppi di consumatori “a rischio”;
 Miglioramento della fidelizzazione;

30
 Monitoraggio delle prestazioni;
 Identificazione delle tendenze emergenti di soddisfazione del cliente.

L’emblema dell’applicazione dei Big Data è Marketshare.com, una società


che utilizza l’econometria avanzata per collegare gli investimenti di
marketing con i ricavi e i profitti.
Utilizzando i dati storici relativi alle vendite, alle spese pubblicitarie, e alle
informazioni sul marchio e dei suoi consumatori, Marketshare
(Marketshare.com, 2010) sviluppa valutazioni quantitative al fine di delineare
il marketing budget ottimale, combinare ed utilizzare i media per
massimizzare le entrate e i profitti.
La figura seguente esemplifica una visione generica di come questo può
essere realizzato con strumenti di Big Data Analytics.

E’ possibile individuare una relazione step-by-step che inizialmente articola le


fonti dei dati derivanti da tutti gli aspetti di vendita, promozione e pubblicità;
seguiti dalla standardizzazione, ovvero operazioni e raccolta riguardanti i
dati; per terminare con la parte di analytics dove si utilizzano le varie
tecniche della data science, quali regressione, serie storiche, analisi predittive
ecc.; e quella di dashboard, ovvero di visualizzazione dei risultati prodotti in

31
analisi che possono essere di differenti categorie: budgeting, marketing mix,
scenario planning, report.

In seguito alla rivoluzione digitale degli ultimi trent’anni, gli strumenti


multimediali online utilizzati dai consumatori ci portano ad assumere
un’intelligenza collettiva in costante evoluzione e perciò impossibile da
acquisire, se non attraverso l’utilizzo dei Big Data, strumenti capaci di
collezionare enormi quantità di dati in tempo reale.
La Resource-Based Theory (RBT) ha offerto una valida spiegazione
riguardante l’utilizzo dei Big Data nel marketing. RBT suggerisce che le
risorse di un’impresa, siano esse tangibili o intangibili, facilitano la sua
performance e il suo vantaggio competitivo, a patto che esse siano preziose,
rare, inimitabili e sfruttabili dall’organizzazione (Barney 1991; Lee e Grewal
2004). Una risorsa è preziosa quando genera qualcosa con un valore
riconoscibile per il consumatore, che non sia fruibile dai competitors. I Big
Data e il loro implemento costituiscono per le aziende un punto di forza non
indifferente, in quanto utili per la creazione di risorse ad hoc e di una vasta
gamma di analisi.
Nella realtà ipercompetitiva in cui ci troviamo, un’azienda deve
costantemente riconfigurare le conoscenze per rispondere ai cambiamenti
dell’ambiente esterno e per sviluppare un vantaggio competitivo sostenibile
(Day, 2011; Kozlenkova, 2014; Lin e Wu, 2014; Wu, 2010). I Big Data sono
l’unico mezzo attraverso cui la raccolta di dati è implementata secondo dopo
secondo e quindi capace di raggiungere informazioni sempre dettagliate e in
continuo movimento.

I Big Data hanno ancora molta strada da percorrere nel marketing, ciò è stato
dimostrato da un recente studio condotto dalla Columbia Business School
(Rogers e Sexton, 2012) in cui sono stati intervistati 253 corporate marketing
decision makers, che ha evidenziato come non sia ancora stato raggiunto
l’apice dello sviluppo:

32
 il 91% dei senior corporate marketing ritiene che le imprese per avere
successo debbano utilizzare e custodire i dati, al fine di guidare le
proprie decisioni di marketing;
 il 39% afferma che i dati della propria azienda non vengano raccolti
abbastanza frequentemente;
 il 29% degli intervistati nel report afferma che l’ufficio marketing
della loro realtà non abbia abbastanza dati per prendere decisioni in
tempo reale.

Le start-up e le aziende tecnologiche più affermate svolgeranno un ruolo di


consulenza a rivenditori, produttori e fornitori di servizi volto a diffondere e
sfruttare tali sfide per dare vita a soluzioni che consentano: il data collection,
il data mining e la data analysis.

33
2.2 La Sentiment Analysis

La conoscenza delle opinioni dei consumatori non è l’unico elemento


importante per il marketing; rilevanti sono anche le strategie di Customer
Engagement. L’evoluzione delle stesse, vede gli approcci tradizionali basati
su soluzioni CRM (Customer Relationship Management), svilupparsi in
nuove modalità di conversazione con il cliente attraverso una molteplicità di
canali, soprattutto digitali. In virtù di tale considerazione, non è più
sufficiente far riferimento a relazioni basate su datawarehouse e ambienti
CRM, bensì vanno predisposte infrastrutture in grado di analizzare
comportamenti molto più personali come le attività svolte dal singolo cliente
- nella navigazione sul sito web dell’azienda (Web Analytics), conversazioni
dei clienti sui siti social (Sentiment Analysis) - tenendo così traccia di tutti gli
aspetti per analizzarli in modo aggregato. (The innovation group, 2013)
Osservando la figura sottostante (White, 2012), possiamo percepire come
giocare un ruolo importante nell’infrastruttura dei Big Data, permette a questi
ultimi di migliorare il processo decisionale dando vita ad uno sviluppo del
prodotto basato su due driver principali : Market Analytics e Customer
Analytics.

34
Per blend data intendiamo tutti i dati combinati riguardanti i clienti, che
vengono analizzati tramite i vari modelli statistici – sotto la seconda freccia
(build model) della tabella – fra cui: regressioni logistiche e lineari, neural
networks, blog mining (o text mining) ed il modello più caratteristico del
marketing, cioè la Market Basket Analytics. Nell’ultima freccia vediamo
l’analisi vera e propria basata sui due driver sopracitati.
L’ascesa dei social media e dei contenuti generati dagli utenti (recensioni,
valutazioni, suggerimenti, opinioni on-line) hanno alimentato l’interesse
verso la sentiment analysis, creando nuove opportunità per le aziende che
gestiscono attivamente la loro reputazione online.
La sentiment analysis è un’applicazione di data/text mining ai social network,
capace di raccogliere in tempo reale, le reazioni degli utenti o trend in
relazione a un qualsiasi evento, locale o globale che sia. L’analisi si configura
come un’attività di identificazione, estrazione, etichettatura e rielaborazione
di informazioni legate ad uno o più brand attraverso software di elaborazione
del linguaggio e linguistica computazionale. Tali software raccolgono
costantemente dati da diverse piattaforme (blog & forum, social network
classici – Facebook, Linkedin,..-, siti di annunci, recensioni, piattaforme di
condivisione foto e video – Instagram, You Tube,..-) e, prendendo in
considerazione una o più porzioni di testo (ad es. il nome di un brand, di una
persona, o un argomento), ne determinano: il tono, ovvero l’opinione positiva
o negativa, l’intensità e l’emotività con cui questa viene espressa (attraverso
l’uso di aggettivi, punteggiatura, emoticons, ecc) e la rilevanza dell’oggetto
d’analisi rispetto al contesto.
L’obiettivo, dunque, è determinare l’attitudine di chi ha pubblicato un
contenuto legato al brand e la polarità contestuale (positiva, neutra, negativa).
Oltre alla Web Reputation, la cui definizione prevede il monitoraggio in
tempo reale delle opinioni espresse su Internet, in merito ad un’azienda, un
marchio, un prodotto o un servizio, si stanno sviluppando ulteriori
metodologie di ricerca e analisi:

 Competitive Intelligence: ricerca di clienti e marketing insight,


individuazione di trend di mercato;

35
 Social Network Analysis: individuazione dei flussi e degli snodi di
comunicazione;
 Viral Tracker: tracking delle campagne di buzz marketing e
monitoraggio delle conversazioni on line sul brand.

(Tag: big data (http://www.beantech.it/tag/big-data/), social network


(http://www.beantech.it/tag/social-network/) | Categoria: Articoli
(http://www.beantech.it/category/blog/articoli/)

Una strategia efficace per la sentiment analysis prevede una fase iniziale in
cui s’individuano e si catturano tutte le conversazioni online che trattano di
un determinato brand, prodotto o settore di business, disponibili sui social
network, sui forum, blog, magazine online, etc. In questa fase, è necessario
esaminare con attenzione le fonti e filtrarle.
La seconda fase prevede che i dati ottenuti siano rielaborati da esperti nella
sentiment analysis e nel campo dell’audit online, in modo da avere
un’interpretazione corretta dei giudizi degli utenti e sviluppare una
pianificazione d’interventi adeguata all’obiettivo.
( http://mate.it/index.php/it/bigdata/sentiment-analysis)
Dopo la fase di impostazione in cui vengono definiti l’oggetto della
rilevazione, la profondità ed il dettaglio dell’output, lo strumento di sentiment
analysis permette la definizione dei seguenti indicatori:

 Brand Reference: analisi delle parole positive o negative, che fanno


riferimento ai termini di ricerca. Il numero di parole impatta sul
budget della rilevazione;
 Tono del contenuto: questa misurazione è volta a rilevare il grado di
opinione;
 Emotività: analisi delle parole utilizzate e confronto con i termini
tipici legati alle sensazioni ed emozioni degli individui;
 Rilevanza: vengono utilizzati filtri avanzati per concentrare le fonti di
informazione relative al marchio. Questo permette di raccoglierle
senza considerare le problematiche dovute alla dispersione causata dal
focus su fonti non rilevanti.

36
I diversi indicatori Social riguardano i volumi giornalieri, gli Share of Voice, i
dati demografici, i Tag Author e una probabile mappa geografica della
distribuzione dei dati.
Al fine di favorire un monitoraggio corretto del sentiment è essenziale
eseguire dei fine tuning settimanali, delle ricerche correlate al brand,
attraverso l’utilizzo di parole chiave negative.

In contrapposizione ai problemi di data mining classici, nella sentiment


analysis è possibile trovare difficoltà molteplici in termini di efficacia, ciò è
dovuto soprattutto alla sottile distinzione che esiste tra sentimento positivo e
negativo. Non sempre le opinioni sono espresse tramite l’uso di opinion
words, in molti casi entrano in gioco altri artefici linguistici come le figure
retoriche. Un valido esempio di queste complicazioni è dimostrato dai vari
contenuti che racchiudono frasi ironiche o sarcastiche, dove l’interpretazione
del significato è strettamente soggettiva.
Ulteriori difficoltà sono legate all’utilizzo di espressioni non formali, spam:
non potremo mai sapere se il “sentimento” rilevato è reale e sincero.
I due approcci più conosciuti per la rilevazione delle opinioni, e quindi
l’utilizzo dei dati rilevati internamente all’azienda, sono: il rule based e il
machine learning. Il primo consiste nella formazione di un gruppo di regole
per la creazione di un sistema adatto alla risoluzione di un determinato
problema. Nell’ambito della classificazione testuale le rules, che sono parole
chiave ed espressioni regolari, combinate tramite opportuni operatori logici,
vengono utilizzate nel processo di inferenza per l’etichettatura dei testi.
Con lo sviluppo delle tecniche statistiche applicate all’intelligenza artificiale
(inizio anni 90), il secondo approccio ha riscosso molto successo,
sostituendosi nella maggioranza delle applicazioni al paradigma rule based.
Tali sistemi sono in grado di acquisire e migliorare le proprie competenze
valutando l’esperienza passata. In pratica, gli algoritmi di apprendimento
automatico ricevono come input un set di testi e restituiscono in output un
modello generale per la loro classificazione. Parlando di machine learning,
possiamo distinguere fra due categorie:

37
 supervised learning, dove il sistema riceve, nella fase iniziale di
training, un insieme di dati già classificati ed etichettati ed in seguito,
acquisisce conoscenza ed esperienza per classificare i successivi;
 unsupervised learning dove il sistema riceve, nella fase di training,
una serie di dati non etichettati che verranno classificati sulla base di
caratteristiche comuni. Al contrario dell’apprendimento super-
visionato, le classi non sono note a priori ma devono essere apprese
automaticamente.

Continuando l’analisi dei due approcci, possiamo dire che: la machine


learning fa uso di algoritmi di apprendimento in grado di estrarre
informazioni utili da dati di dominio, mentre la rule based si basa sull’utilizzo
di regole. Entrambe le metodologie si articolano in tre fasi:

 l’analisi di porzioni di testo come sintagmi (“con cura”,”mancanza di


rispetto”), espressioni multiparola (“fare acqua”, ”dalla padella alla
brace”, ”parlare alle spalle”), parole singole (“gioire”), modi di dire
(“toccare il cielo con un dito”) e indicatori testuali come la
punteggiatura e l’ortografia;
 l’estrazione del mood positivo e negativo dai messaggi analizzati;
 la classificazione dei documenti secondo una polarità positiva,
negativa o mixed.

(http://www.intervistato.com/)

38
2.3 Il Caso Twitter/R

“Fare sentiment analysis significa ascoltare quello che gli utenti pensano ed
analizzare le loro opinioni, senza sollecitarle. In questo modo, è possibile
elaborare ed analizzare informazioni pure, avendo a disposizione campioni
molto vasti. La differenza è notevole, se si pensa ai sondaggi telefonici o alle
analisi di mercato classiche basate sui focus group, dove le persone non
rispondono quasi mai sinceramente.” (S.M. Iacus, 2014)

Un’opportunità molto interessante per fare sentiment analysis è offerta da


Twitter: tramite la creazione di un’app sul social e l’utilizzo del linguaggio di
programmazione R, è possibile costruire un sistema per rilevare e valutare le
opinioni espresse tramite i tweet.
Twitter è una delle più popolari piattaforme di social network e
microblogging, in cui milioni di utenti, ogni giorno, pubblicano dei tweet -
messaggi contenenti un massimo di 140 parole - per esprimere e condividere
opinioni, commenti e news di vario genere.
Se si considera che gli utenti web sono due miliardi e mezzo, gli iscritti a
Facebook oltre un miliardo e 550 milioni quelli di Twitter, si può dire che il
potenziale informativo è enorme. Tutti i social sono un ottimo ambiente per
condurre analisi e indagini, grazie alla semplicità di utilizzo dello strumento e
ai moderni metodi di data collection.
La nostra analisi si configura come un’applicazione illustrativa di Brand
Reference, ovvero l’identificazione, su un campione di 10.000 tweet, delle
parole positive o negative che fanno riferimento all’evento di cui si è
maggiormente discusso nell’anno corrente: Expo 2015.
Al fine di rilevare i “sentimenti” definitivi, si è deciso di analizzare i tweet a
partire dal 31 ottobre, giorno di chiusura di tale esposizione universale
tenutasi a Milano.
Volendo recuperare le opinioni espresse dalle persone, sono stati disposti due
dizionari contenenti keywords positive e negative. Le stesse, vengono rilevate
all’interno di ciascun tweet tramite la disposizione di alcuni filtri e parametri,
ad esempio una o più box geografiche per recuperare i messaggi relativi ad

39
una certa zona (ricerca geolocalizzata). In questo senso, sono stati selezionati
i tweet provenienti da utenti italiani.
Un esempio di modello statistico utilizzato, consegue alla creazione di un
modello di stima binaria, attraverso l’impiego della classificazione logistica
multi classe – LC -. Se identifichiamo due parametri X e Y, dove Y assume
valori compresi tra 0 e 1 (nel caso binario), LC tende a identificare la
probabilità che Y appartenga a una particolare keywords – negativa (0) o
positiva (+1).
Analiticamente, per identificare una funzione logistica binaria di risposta, si
deduce la seguente formula:

dove β0 e β1 sono parametri sconosciuti.


Questa funzione permette di ricavare la probabilità che Y sia compreso in un
intervallo [0;1], evitando così di rilevare parametri inutili per l’analisi. Per
quest’ultima infatti, è sufficiente una sola keyword positiva o negativa per
identificare il “sentimento” del tweet. Nel modello si applica la regressione
logistica, in quanto, a differenza del modello di regressione lineare,
categorizza il parametro Y. Nel grafico sottostante, si nota come questi due
modelli siano differenti.

Nella figura soprastante, il grafico sul lato destro mostra la classificazione


binaria con il problema di non essere sensibile alle predizioni (valori
negativi), mentre nel grafico di sinistra si può notare la funzione logistica che
giace sull’intervallo [0,1].

40
β0 e β1 sono i parametri sconosciuti da stimare; per questo si utilizza in genere
la Maximum Likelihood Estimation, che permette la stima della probabilità
p*(y) che corrisponde ad uno stimatore che si avvicina il più possibile al
valore osservato. Perciò, si ricercano β0 e β1 (stimatori), al fine di inserirli nel
modello p(y) e fornire una risposta che sia vicina a: 0 per i sentimenti
negativi e 1 per i sentimenti positivi. Di seguito, si inserisce la funzione
Maximum Likelihood, dove gli stimatori sono scelti per massimizzare tale
funzione:

Al fine di semplificare la nostra analisi, per trovare il punto di massimo della


funzione, si preferisce utilizzare i logaritmi e quindi, ci serviamo della log-
likelihood piuttosto che della funzione maximum likelihood. Alla fine si
utilizza la seguente formula:

dove Xi ϵ R(p+1) è un vettore di colonna, come anche G (β|Y, X) ϵ R(p+1).


Tale formula, mira a trovare il valore che si avvicina maggiormente allo
stimatore per il valore osservato e definisce il gradiente della funzione log-
likelyhood (nel linguaggio R, viene denominata score function). Il sistema
non ha soluzioni determinabili numericamente; nello specifico, un algoritmo
euristico è utilizzato per stimare la soluzione attraverso degli step iterativi.

Una semplice sentiment analysis dei messaggi twitter in R può essere


effettuata su base frequentistica, definendo cioè due “dizionari”di parole
negative e di parole positive su un dato argomento. Per fare questo è
necessario usare principalmente un pacchetto e due funzioni: il pacchetto
TwitteR e le funzioni findScore e calcStat. In realtà, si utilizzano anche altri
package, ma si è scelto di prendere in esame solo il più importante, ovvero
quello di Twitter, che ci permette di raccogliere dati specifici in tempo reale.
Per ottenere l’accesso e ricercare i dati di questo social network, è necessario
rispettivamente utilizzare la funzione di autorizzazione - oauth function - e la

41
funzione “searchTwitter”. La prima va composta con una serie di token messi
a disposizione da Twitter quando si crea l’applicazione:

setup_twitter_oauth(api_key,api_secret,access_token,access_tok
en_secret).

La seconda, in pratica, definisce l’argomento e l’estensione della ricerca,


includendo le stringhe, il numero dei tweet e la lingua.

SearchTwitter(“Expo2015”,since=“2015-10-31”,n=10000,lang=“it”)

In seguito vanno poi analizzate le due funzioni che permettono la generazione


dei risultati per l’esempio sotto riportato che riguarda una sentiment analysis
su Expo2015.
La funzione findScore consta di tre parti:

 rimpiazzare la punteggiatura del tweet con uno spazio;


 scrivere in minuscolo le keywords del dizionario in modo da evitare
errori di mancata scansione;
 l’algoritmo rintraccia i tweet con i termini positivi o negativi che
abbiamo inserito nei nostri dizionari, dandone un’interpretazione
binaria.

La funzione calcStat riassume i risultati della funzione precedente,


considerando in un primo momento la totalità dei tweet analizzati
suddividendoli in positivi, neutri e negativi. Al termine, applica i calcoli
statistici che definiscono la media dei tweet positivi e negativi.

 Script – findScore & calcStat


findScore <- function(sentence, pos.words, neg.words) {
# Find Score of a Sentence Using Positive/Negative
require(stringr)
sentence <- gsub("[[:punct:]]", "", sentence) # Remove
Punctuation
sentence <- gsub("[[:cntrl:]]", "", sentence) # Remove
Control Char.
sentence <-gsub('\\d+', ' ', sentence) # Remove
Digits
# Define Error Handling Function When Trying to Lower

42
tryTolower=function(x) {
y <- NA # Create
Missing Value
# TryCatch Error
try_error=tryCatch(tolower(x), error=function(e)
e)
if (!inherits(try_error, "error")) #if not an
error
y <- tolower(x)
return(y) # Result
}
# Use trylower with sapply
sentence <- sapply(sentence, tryTolower)
word.list <- str_split(sentence, "\\s+") # Split
Sentence
words <- unlist(word.list)
# Compare Words to the Dictionary of Positive or
Negative
pos.matches <- match(words, pos.words)
neg.matches <- match(words, neg.words)
# To Get the Position of the Match Term or NA # Being
TRUE or FALSE
pos.indx <- pos.matches[!is.na(pos.matches)]
neg.indx <- neg.matches[!is.na(neg.matches)]
pos.matches <- length(pos.indx)
neg.matches <- length(neg.indx)
score <- sum(pos.matches) - sum(neg.matches) # Final
Score
return(list(score, pos.indx, neg.indx))
}
calcStats <- function(scores) {
# Calculate Stats of Total,Positive and Negative Tweets
# Average Positive Score, of Neutral Tweets, # Negative Tweets
# Find Totals
ntot <- length(scores)
npos <- sum(scores>0)
nzero <- sum(scores==0)
nneg <- sum(scores<0)

43
if (npos !=0) # Find
Averages
avpos <- sum(scores[scores>0])/npos
else
avpos <- 0
if (nneg !=0)
avneg <- sum(scores[scores<0])/npos
else
avneg <- 0
return(c(ntot, npos, nzero, nneg))
}
A seguito dell’inserimento di tale codice dunque, la funzione findScore ha
scansionato ciascun vocabolo presente in ogni tweet, ricercando una delle 64
keywords (32 positive e 32 negative) inserite nei due dizionari ed ha restituito
un valore numerico positivo o negativo.
Se troviamo ad esempio un valore uguale a 2, sapremo che uno dei 10.000
tweet analizzati presenta due delle keywords positive presenti nel nostro
dizionario. Inoltre, se quelle due parole esprimevano un “sentimento”
negativo, la funzione restituirà un valore pari a -2.
L’immagine seguente, definisce la generazione dei calcoli statistici per mezzo
della funzione CalcStat e la data mining su R, al fine di trarre le conclusioni
della nostra ricerca.

Per facilitare la visualizzazione dei dati, infatti, è preferibile inserire la


funzione DataFrame capace di trasferire i risultati su Excel, avendo così la
possibilità di mostrare graficamente gli insight ricevuti dalla sentiment
analysis.

44
#SentimentExpo2015

Tweet positivi
42%
Tweet negativi
58%

Tralasciando i dati neutri, si è scelto di restringere il campo dei risultati alle


opinioni positive e negative trovate, ovvero 307. A questo punto, è possibile
notare che i “sentimenti” positivi superano quelli negativi: 178 contro 129.
Traducendo tale esito in percentuale è possibile concludere che il 58% delle
persone è stata contenta di aver preso parte all’evento, mentre il restante 42%
ha espresso pareri inversi.
La nostra analisi non vuole essere un report sul gradimento di Expo da parte
del pubblico, ma solamente un’applicazione dimostrativa dell’opportunità
offerta dai social network, per creare valore in ogni campo in cui siano
presenti dei dati da analizzare.

45
3. Gli sviluppi nello Human Resource Management

In questo capitolo, l’attenzione verte sulle opportunità offerte dai Big Data
per lo sviluppo e l’innovazione dello Human Resource Management.
L’interesse di tale funzione per questo ambito, come si evince dal grafico
presente nel primo paragrafo, è più recente rispetto ad altri.
Molte aziende si stanno muovendo per innovarsi, consapevoli dell’immenso
potenziale presente nei dati dell’HR. In questo senso, si definiscono cinque
vie di applicazione dei Big Data: Talent Recruitment, Talent Training, Talent
Assessment, Pay-Performance e Employee Career Management. Nella
convinzione che anche la funzione HRM debba fornirsi delle analisi
statistiche per aumentare l’efficienza e la conoscenza del suo “cliente” più
prossimo, ovvero il lavoratore, il secondo paragrafo definisce il percorso che
ha portato alla nascita delle HR Analytics, ne contestualizza l’ambiente di
sviluppo e le opportunità che da queste derivano. Per concludere la
trattazione di questa area aziendale, si vuole mostrare un’applicazione che sia
in grado di creare valore e possa servire come fonte d’ispirazione per le
aziende che hanno ancora colto il vantaggio competitivo di un’ottimizzazione
dei flussi di dati HR. In questo senso, si analizzano alcuni dei servizi offerti
dalla piattaforma HR Global Solution e si inserisce una best practice
tecnologica di successo, il caso Zucchetti – Fininvest.

46
3.1 Applicazioni e sfide nell’HRM

4096
2048
1024
512
N° documenti prodotti

256
128
64
32
16
8
4
2
1

Anni

La nostra analisi nell’ambito Human Resource Management inizia, come nel


capitolo 2, con un grafico inerente l’impatto del connubio “Big Data” + “HR”
inserito sul sito Google Scholar. Si noti che il trend dei documenti accademici
condivisi in rete è in crescita e negli ultimi tre anni è aumentato
esponenzialmente. Se contestualizziamo il grafico alla situazione attuale, è
facile scorgere una correlazione fra le ricerche scientifiche svolte dagli
studiosi e la direzione presa dalle aziende in termini di investimenti. Non è un
caso che i documenti inerenti all’HRM siano, ad oggi, un quarto di quelli
presenti per il marketing. Infatti, la via d’applicazione più semplice è proprio
quella delle vendite, attraverso cui è possibile testare l’impatto della Big Data
Analytics, implementandola in contesti dove sono già presenti competenze di
un certo tipo e dove è possibile riscontrare i risultati con una certa
immediatezza. Inizia così una nuova era che porterà grandi cambiamenti in
ogni operazione di management aziendale e permetterà alle organizzazioni di
implementare l’innovazione, dimostrare la conoscenza del cliente, eseguire
analisi sociali e sviluppare modelli predittivi. In questo senso, la Big Data
Analytics si è diffusa negli ambiti di CRM (presente nel 64% delle aziende),
Finance & Accounting (56%), IT Operations (36%) e Production Planning &

47
Sales (35%). Questi processi di business, però, non saranno gli unici ad
evolversi grazie all’IT, anche il concetto di capitale umano e di change
management è cruciale per il successo nelle nuove realtà di mercato,
configurandosi come un ampliamento del campo di azione dei Big Data, un
ambito emergente con un alto potenziale che inizia ad essere presente nei
documenti accademici e, di conseguenza, nelle iniziative delle imprese.
(http://www.programmatic-italia.com/big-data-analytics/politecnico/)
Le prime ricerche di management codificavano diari e tecniche di time
management dei CEO; oggi, grazie all’utilizzo dell’analytics, è possibile
studiare intere organizzazioni e gruppi lavorativi, pressoché in tempo reale.
Essi possono essere un potente mezzo per l’analisi dei caratteri individuali e
dei team, utilizzando dei sensori indicativi per (i) “tracciare” gli individui, (ii)
capire il loro grado di coesione nel lavorare insieme, (iii) capire come si
muovono all’interno degli spazi aziendali, o spendono il loro tempo
interagendo con gli altri membri del team.
I Big Data cambieranno lo scenario di policy e ricerca socio-economica e la
loro natura poliedrica e continua si riflette in un vantaggio per gli studiosi, in
termini di occasioni per focalizzarsi sulle microfoundation delle strategie e
dei comportamenti organizzativi. Un così immenso volume di dati può
suggerire ulteriori conoscenze riguardo i posti di lavoro e le pratiche di HR
adottate più di quanto possano fare i metodi convenzionali, avendo la
capacità di trasformare le teorie e le pratiche di management (George, Haas e
Pentland, 2014).
La sostituzione e l’aggiornamento delle piattaforme di gestione HR, ha
l’obiettivo di rispondere alla necessità di interfacciarsi con un gran numero di
curriculum, statistiche e report, applicando strumenti di misurazione e
reporting analitici.
Gestire questa funzione attraverso i dati, rappresenta una sfida importante per
i Big Data. Se per quanto riguarda la gestione delle vendite ci si basa sui
risultati economici, nell’HRM la situazione è molto più complessa. La prima
caratteristica facilmente riconoscibile infatti, è l’innumerevole natura e
tipologia di dati generati dal dipartimento HR:

48
 dati relativi al percorso professionale: seniority, impieghi
precedenti, promozioni, esperienza pratica, datori di lavoro
precedenti;
 dati sulle prestazioni: valutazione delle prestazioni in relazione al
raggiungimento degli obiettivi, progetti realizzati, riconoscimenti
ottenuti, prestazioni personali;
 skill e capacità: titoli di studio, corsi di formazione interni ed esterni,
autovalutazioni, partecipazione a programmi executive;
 dati sulla retribuzione: bonus, riconoscimenti, premi di produzione;
 dati sul coinvolgimento dei dipendenti (attività social): post sul
blog aziendale, documenti su intranet, suggerimenti e commenti
forniti dai dipendenti;
 dati sulla persona: dati sul reclutamento non inclusi nel database del
sistema ERP/HR.

Estrapolare valore dall’immenso potenziale di questo settore, significa


mettere in conto uno sforzo enorme per provvedere alla pulizia dei dati e alla
costruzione di un vocabolario comune. Creare una tale omogeneità
rappresenta l’80% del progetto di implementazione dei Big Data nell’HRM.
(citazione dell’ex data scientist di Google, D.J. Patil). In questo senso, l’HR
Analytics richiederà alle aziende di ricercare competenze molto diverse ed
aprirà un segmento molto interessante per le società di consulenza HR e per i
professionisti capaci di analizzare i dati e trovare al loro interno delle
soluzioni. (cartesiani.it)
Trattando questa funzione aziendale ci si accorge che esistono ben cinque
punti dove l’applicazione dei Big Data può permettere un miglioramento
dell’HRM in termini di correttezza, efficienza ed obiettività:

HRM + Big Data

Talent Talent Employee


Talent Pay-
Recruitment Training Career
Assessment Performance
Management

49
 Talent Recruitment

Il reclutamento tradizionale prevede la pubblicazione dell’annuncio, la


selezione dei curriculum delle persone interessate ed il colloquio per coloro i
quali appaiono più consoni alle richieste dell’impresa. Durante il processo di
selezione, oltre a richiedere informazioni sulla formazione ricevuta, sulla
professione svolta fino a quel giorno e agli obbiettivi che il candidato ritiene
importanti, l’esperienza dell’intervistatore gioca un ruolo molto importante.
La realtà dimostra come i risultati siano spesso distorti, poiché i recruiter
ottengono una descrizione unilaterale del candidato e, per questo motivo,
spesso non possono acquisire abbastanza informazioni.
Con l’utilizzo dei Big Data, tale processo può essere ben compensato.
Secondo le statistiche, più di due terzi delle aziende utilizzano il recruiting
online (Huang e Xiang, 2013), implementando le operazioni di reclutamento
anche nei social network. La combinazione tra i social network e il recruiting
dà vita a svariate possibilità: employer branding, talent engagement, heading
hunter. Questi tre termini rappresentano un circolo vizioso che definisce qual
è la vera concorrenza tra le imprese al giorno d’oggi: la competizione per i
talenti.
L’employer branding è una strategia che accomuna l’HRM al Marketing,
ovvero la capacità di rendere importante e riconoscibile il brand della propria
azienda in modo da “attirare” i talenti migliori. Utilizzando una citazione più
autorevole, menzioniamo una definizione di Louisa Wilson, Global
Marketing Director di Randstad: “Winning the right talent today requires
much the same effort that marketers use to acquire, engage and nurture
customers. You must attract, engage, and demonstrate value to prospective
employees – and take a segment approach. Different people have different
needs and preferences, meaning you need to adapt your communication and
channel strategy to seek out the right people and engage and retain them in
your organization.”
Per quanto riguarda il talent engagement, ovvero il coinvolgimento dei
talenti, si distingue tra il coinvolgimento interno dato dal clima aziendale per
chi è assunto in azienda e il coinvolgimento esterno che si collega

50
all’employer branding e si definisce come l’ambizione di quel candidato a
lavorare in quell’azienda, perché ne riconosce il prestigio.
Gli head hunter o più semplicemente recruiter, grazie ai social network,
possono trovare diverse informazioni sui candidati attraverso foto e video
personali, lo stile di vita, le relazioni sociali, le abilità, ecc., in modo da
delineare con maggior precisione l’immagine del candidato, raggiungendo un
accurato "person-post matching" (Dong et al, 2014). Il processo in cui si
raggiunge il perfetto matching tra il candidato, il recruiter e,
conseguentemente, l’alta probabilità di essere assunti in azienda viene
descritto come una win-win.

 Talent Training

La formazione del personale è una parte importante per garantire lo sviluppo


sostenibile delle imprese. Una formazione ben riuscita aumenta il livello di
conoscenze e competenze dei dipendenti e migliora le loro prestazioni
lavorative (Tian, 2014). Il processo di formazione tradizionale è solitamente
organizzato dalla società che, a seconda del contenuto del modulo formativo,
decide se assumere dei professionisti o se affidarsi a formatori interni. Questo
tipo di impostazione non sfrutta appieno le possibilità di cui si dispone oggi,
dando importanza esclusivamente all’organizzazione di un corso che
usufruisca di risorse umane, materiali e finanziarie. Le lezioni sono rivolte a
più persone e generalmente frontali, dunque, non vanno a soddisfare le
esigenze individuali. Grazie allo sviluppo della tecnologia e all’ avvento dei
Big Data, l'accesso alle informazioni e la loro condivisione sono molto
convenienti; ogni individuo può, attraverso la rete, cercare le nozioni di cui
ha bisogno, in qualsiasi momento ed ovunque si trovi. Le organizzazioni
hanno cominciato a sviluppare un network di corsi di formazione
professionale. Tali software registrano i dati dei comportamenti di tutti i
lavoratori, permettendo loro di utilizzare dei sistemi online che in base alle
risposte date, analizzano le esigenze di formazione e suggeriscono la forma di
insegnamento preferibile. In questo modo, il dipendente può servirsi della
formazione più mirata per le sue necessità e migliorare così l'efficienza del
training. Inoltre, per migliorare il percorso e renderlo effettivamente

51
interessante, assicurandosi quindi l'effetto di apprendimento, viene richiesto
ad ogni dipendente di dare un feedback in qualsiasi momento.
Grazie all’apprendimento dei dati, dopo un certo periodo di tempo, il
software sarà in grado di prevedere i possibili punti di miglioramento della
persona (He Y., 2013) ed i manager potranno monitorare in background lo
stato di apprendimento dei dipendenti e valutare l’effettiva acquisizione e
padronanza di nuove competenze.

 Talent Assessment

Il “talent assessment”, ovvero la valutazione dei talenti, è la pratica di HRM


che ultimamente è stata maggiormente valorizzata. Attualmente, la maggior
parte delle valutazioni del personale prendono forma da considerazioni
complessive, globali, pur sapendo che questi metodi presentano una netta
componente soggettiva. A tal fine, per rendere più oggettiva possibile la
valutazione, i ricercatori hanno studiato una serie di questioni cercando di
risolverle con la tecnologia dei Big Data: la valutazione delle prestazioni del
personale, la selezione e la ricerca di classificazione (Zhou G. H., 2013).
Basandosi sulla constatazione di questi studi, l’approccio ai Big Data ha
migliorato i metodi di valutazione, fornendo nuovi strumenti e metodi per il
lavoro in azienda.
Per costruire il modello tradizionale di sviluppo delle competenze, ad
esempio, sono necessari una serie di processi, tra cui interviste, codifiche,
questionari, analisi statistiche, e così via. Ora, attraverso questo nuovo
approccio, le aziende sono in grado di costruire enormi database riguardanti i
dipendenti e, utilizzando l’Information and Communication Technology,
calcolare il livello delle performance di ciascuno (Wang D. H., 2013) Queste
distinzioni possono essere causa di competenze tecniche, personalità, o anche
di indici fisiologici. Tutto ciò, probabilmente rivoluzionerà la modalità di
costruzione del modello di competenze. Su questa base, su cui si fondano i
Big Data, il sistema di HRM può continuare ad arricchire la valutazione dei
talenti e le analisi delle competenze, strumenti per esternalizzare la sapienza
dei dipendenti e del management HR.

52
 Pay-Performance

Il livello di retribuzione di un’azienda è senz’altro uno dei più importanti


indicatori che attraggono i dipendenti a partecipare al lavoro, in quanto
percepire un buon stipendio è assolutamente uno degli obiettivi finali di
ciascun lavoratore. Per i manager delle aziende, la retribuzione e le
prestazioni sono mezzi efficaci con i quali motivare i dipendenti a lavorare.
Le prestazioni del sistema tradizionale spesso vanno a concentrarsi su termini
più qualitativi e meno quantitativi e pagare in base ai risultati raggiunti. Lo
stipendio non può riflettere le differenze tra i dipendenti ad alte prestazioni ed
i lavoratori a basso rendimento per poter imprimere una diffusione delle
responsabilità. Anche se le imprese hanno applicato un modello di calcolo
delle prestazioni chiamato KPI (Key Performance Indicator), è complicato
per l’HRM sia fare delle valutazioni sulle performance giornaliere, sia
selezionare un indice completo e corretto come KPI.
Attraverso l’utilizzo dei Big Data, le aziende sono in grado di registrare il
carico di lavoro quotidiano, il contenuto specifico del lavoro e l’esecuzione
dei compiti di ogni dipendente, ed in seguito utilizzare le elaborazioni del
cloud computing per l'analisi di questi dati (Wei B., 2012). In ultimo,
possiamo dire che con questo sistema è possibile anche calcolare
automaticamente la retribuzione in base agli standard di performance
prestabiliti. Tali operazioni non solo possono migliorare l’efficienza sul
lavoro, ma sono anche in grado di ridurre il livello di turnover dei lavoratori e
di perseguire situazioni positive fra l’azienda e il lavoratore.

 Employee Career Management

Sullo sfondo di questa nuova era digitale, le scelte e le pianificazioni di


carriera individuali sono anch’esse strettamente legate ai dati, ed in
particolare alle analisi quantitative di tutte le informazioni che è possibile
ottenere sui dipendenti (interesse per il loro lavoro, volontà di essere
promossi, esperienza professionale, performance…).
Il management HR, nel redigere i career planning books, deve capire gli
interessi di carriera e fornire una migliore assistenza ad ogni singolo

53
lavoratore o manager. Combinando la gestione di carriera tradizionale e i Big
Data, le imprese hanno l’opportunità di sfruttare appieno questi due modi di
esplorare il percorso di carriera del dipendente, di fornire un orientamento
personalizzato, ed infine ridurre il turnover del personale, raggiungendo una
situazione win-win tra imprese e dipendenti.

In conclusione, trattare i Big Data nell’ambito HRM rende necessaria la


disposizione di un team interdisciplinare in cui lavoreranno a stretto contatto i
responsabili HR, gli esperti nella gestione dei dati del dipartimento IT ed il
management aziendale. La creazione delle competenze è un processo lungo,
che si evolve attraverso differenti livelli di maturità; pertanto, le aziende
lungimiranti saranno avvantaggiate. Secondo Bersin by Deloitte – istituto di
ricerca specializzato in temi legati alle Risorse Umane – occorrono dai tre ai
cinque anni per trasformare l’attuale concezione del ruolo del Human
Resource Management in una funzione strategica e a valore aggiunto
supportata dalle HR Analytics. (01net.it)

54
3.2 HR Analytics

I sistemi informativi che permettono di raccogliere, elaborare e fornire


informazioni riguardanti ogni aspetto dell’azienda, di norma sono
annoverabili nei sistemi ERP (Enterprise Resource Planning). Tali sistemi
comprendono tradizionalmente anche i dati delle Risorse Umane, nonché i
dati che derivano da attività sui social network, e-mail e dispositivi mobili
utilizzati dai dipendenti. Questi ultimi comprendono immagini, foto, video e
podcast, dunque sono a tutti gli effetti delle componenti dei Big Data e non
possono più essere trattati con i metodi tradizionali. Negli ultimi due decenni,
si è visto un cambiamento nelle strategie di business, sempre più orientate ad
una prospettiva globale. La globalizzazione unita all’estrema competitività
del mercato e ai rapidi cambiamenti sociali e tecnologici ha cambiato il modo
di analizzare le performance di business, i brand di mercato, la
comunicazione con il consumatore ed ha reso necessaria l’estensione al
campo dello Human Resource Management. Ogni organizzazione sta
riponendo sempre più attenzione nell’allineare le strategie HR con gli
obiettivi di business, riconoscendo a tale funzione una valenza strategica
capace di fornire un contributo di elevato valore e molto importante
all’interno dell’impresa.
Come si evince dalla figura seguente, tutti i dati dell’impresa e dell’ambiente
esterno concorrono all’implementazione dell’HR Analytics, che presuppone

55
l’applicazione di sofisticati processi di data mining e business analytics, al
fine di consentire agli HR manager di definire un piano strategico conforme
agli obiettivi d’impresa, comprendendo elementi utili ad analizzare le diverse
funzioni in maniera accurata. In questo senso, dalla collection di dati le
aziende monitorano l’efficienza dei progetti, l’assenteismo e le performance
di ogni dipendente ( Bartels S., Richey J., 2008), effettuando previsioni sul
turnover aziendale e sui futuri movimenti delle unità di risorse umane,
valutazioni sul risk management, analisi sui livelli di retribuzione dei
dipendenti e quant’altro.
L’HR Analytics si configura dunque, come una soluzione atta a estrarre
insights, ovvero informazioni utili per relazionare le strategie ai risultati di
business e permettere all’HRM di identificare opportunità di cost savings,
migliorare l’engagement dei dipendenti ed incrementare la forza produttiva e
l’efficienza aziendale (Higgins J. , Cooperstein G. e Peterson M., 2011 [3]).
Come già visto nel primo paragrafo, gli ambiti di implementazione dei Big
Data nella funzione HR non hanno confini e comprendono tutti i core
aziendali, dai più conosciuti a quelli più specifici, quali: Talent Analytics,
Workforce Management e Workforce Planning Process.

La figura soprastante mostra le diverse sfaccettature del Human Resource


Management, laddove l’implementazione dell’HR Analytics si pone
l’obiettivo di rendere questa funzione aziendale più data-driven e, di
conseguenza, più produttiva.
Si stima che nei prossimi due anni, il 25% delle organizzazioni investirà sulla
“rivoluzionaria” HR Analytics, nel tentativo di raggiungere le aziende che
hanno iniziato e sono già molto avanti in questo processo. In riferimento a
ciò, un esempio importante è quello di Google che ha mostrato come lo

56
Human Resource Management possa essere trattato interamente con modelli
di analisi quantitative ed ha raggiunto uno straordinario successo nel mercato,
concentrandosi sul cosiddetto people management (Sullivan J., 2013).
L’articolo “How Google is using people analytics to completly reinvent HR”
spiega due punti fondamentali della loro vision :

 la funzione HR dev’essere strategica ed allineata perfettamente con


gli obiettivi di business, in modo da consentire un buon clima
aziendale, una migliore gestione dei flussi ed un aumento della
produttività;
 la strategia di reclutamento dei talenti deve differenziarci rispetto alla
gran parte delle imprese, per questo non si assumono dipendenti
provenienti dalle migliori accademie e università, ma bensì tramite un
nostro algoritmo, che va a privilegiare lo spirito di iniziativa e
l’intraprendenza, che secondo tali analisi quantitative porta –
percentualmente – migliori risultati rispetto ai titoli di studio.

Un’altra chiave importante per il successo della pianificazione nell’HRM, è


costituita dal succession planning, il quale consiste nella capacità
dell’organizzazione di colmare posizioni vacanti attraverso l’impiego di
nuovi talenti, in modo da continuare un avanzamento produttivo nel più breve
tempo possibile. Predire la capacità di un individuo nel succedere in azienda
ad un buon addetto, è molto complicato. In questo senso, l’HR Analytics
assiste i Senior HR Manager nell’individuazione delle figure che potrebbero
riscontrare il più alto livello di performance. Ciò avviene attraverso l’utilizzo
di analisi predittive, modelli quantitativi e la revisione delle performance
degli addetti che abbandonano la posizione lavorativa.
Dopo aver esaminato le performance degli impiegati, la formazione degli
stessi ricopre un ruolo essenziale. Le aziende che riconoscono nei propri
dipendenti un investimento da cui voler e poter trarre il massimo dei benefici,
infatti, non solo puntano alla selezione di alti profili, ma introducono anche
processi di formazione continua sulla base dei dati rilevati.
Lo sviluppo della formazione e dei piani di carriera, sono utili
all’organizzazione per mantenere un livello alto di motivazione dei

57
dipendenti e per commisurare la loro produttività. L’obiettivo è quello di
permettere ad ogni membro di crescere professionalmente, avendo la
possibilità di ampliare le competenze e migliorare le performance future che,
inevitabilmente, consentiranno un aumento della produttività e la generazione
di maggiori profitti per l’impresa.
Lo studio pubblicato da KPMG (2014), ha indicato che la maggior parte dei
team HR riconosce il potenziale della Business Intelligence, ma continua a
compiere misurazioni e operazioni generiche e basilari e per questo, solo il
31% delle imprese pianifica di investire nella Data Analytics nell’arco dei
prossimi tre anni. In contrapposizione a ciò, è possibile constatare che nel
2015, il 56% dei leader HR ha utilizzato la Talent Analytics e gli insights
all’interno dei processi di pianificazione delle workforce, tra questi il 73%
pensa di aumentare l’efficienza del Workforce Planning Process.
Quest’ultimo è definibile come Workforce Analitics, ovvero un approccio
che contiene elementi di BI e consente il passaggio dai consueti sistemi di
reporting delle Risorse Umane ai modelli predittivi. Un esempio rilevante
sull’impatto di tale passaggio è stato dato da Oracle che, in tre settimane, è
riuscita a prevedere i top performers che avrebbero abbandonato
l’organizzazione e la motivazione per cui l’avrebbero fatto.
La dimostrazione del “potere dei dati”, ha portato cambiamenti nelle policy
internazionali facendo ricredere le aziende più scettiche e determinando la
volontà di quelle più lungimiranti, di passare da attività di reporting –
strumenti per valutazioni a posteriori di dati aziendali - ad attività di
predictive. Tale transizione equivale alla ridefinizione di un tradizionale
orientamento al passato (“guardarsi indietro”) in un orientamento al futuro
che punta sulle interpretazioni di data mining.
L’HR Analytics, nuovo baluardo professionale nell’HRM, attraverso
approfondite analisi su Big Data relativi alle persone, permette di rispondere
alla richiesta di una maggiore praticità di tale settore dando la possibilità di
effettuare una valutazione scientifica sui talenti, mappare competenze ed
abbinarle ai profili richiesti, dare valore al capitale umano, coinvolgere e
motivare i dipendenti nella modalità più ottimale, individuare gruppi simili di

58
individui che possano essere coinvolti in modo analogo, studiare i team e i
tipi umani maggiormente propensi al lavoro di gruppo, effettuare test sui
candidati, ecc...
Ad ogni modo, i dati quantitativi da soli non bastano, la dimensione umana
non può che restare un dato fondamentale nell’interazione tra persone. I data
scientist dunque, non potranno fare a meno di valutare trend socio-culturali e
caratteristiche psicologiche e personali dei dipendenti, in un processo
virtuoso che unirà analisi numeriche e valutazioni qualitative del dato umano.
Nessuna bussola statistica potrà – da sola – determinare le scelte strategiche
nel “fluido” mondo delle interazioni sociali e degli individui, ma senza
dubbio aiuterà a definire in un modo più chiaro e profittevole tale funzione
aziendale.

59
3.3 Il Caso Zucchetti - Fininvest

L’implementazione dei Big Data nello Human Resource Management, come


abbiamo analizzato in precedenza, ha visto una quantità di investimenti
minore rispetto ad altri settori di mercato, pur riconoscendo il valore e
l’opportunità di innovazione digitale in tale funzione aziendale. Il futuro delle
organizzazioni, infatti, si basa sulla valorizzazione delle proprie risorse
umane ed in questo senso, l’interesse dei responsabili dei dipartimenti HR per
gli analytics è notevole, tanto che il mercato in Europa cresce dell’8%
all’anno. (http://www.datamanager.it/2014/09/analytics-per-valorizzare-i-
talenti/)
In base al report di International Data Corporation (IDC, 2013) che ha
analizzato le tendenze di investimento delle aziende, le ragioni principali di
questa crescita sono: le applicazioni di cloud computing basate su Software
As A Services (SaaS), al fine di permettere una maggiore condivisione delle
risorse; l’adozione di applicazioni pacchettizzate per la gestione dei talenti e –
non ultime – le HRM social-enabled, ovvero quelle legate ai social network.
L’innovazione totale ed estremamente proficua per l’HRM si realizzerà
quando i processi legati al personale e la collaboration saranno interamente
digitalizzati, così che l’HR Analytics diventerà una funzionalità fondamentale
per le imprese. In tal senso, il caso di successo che vogliamo analizzare è
focalizzato in primis, su un’eccellenza italiana: Zucchetti s.p.a. e, più nello
specifico, su un caso di Business Process Re-engineering di Fininvest, la
holding di uno dei maggiori gruppi di comunicazione a livello internazionale,
che ha scelto la piattaforma HR Zucchetti per il monitoraggio e il controllo
dei processi amministrativi secondo determinati KPI, supportando il
miglioramento continuo dei servizi offerti e garantendo la tempestività e la
qualità dei dati raccolti.

Zucchetti è una società per azioni con oltre 2800 dipendenti, leader a livello
nazionale ed internazionale nel settore dell’Information and Communication
Technology (ICT). L’azienda nasce nel 1978, da un avviato studio di
commercialisti, con l’intento di creare un elaboratore automatico delle

60
dichiarazioni dei redditi. Nei trent’anni successivi alla fondazione, Zucchetti
ha scelto di diversificare i suoi servizi, sviluppando una serie di software e
hardware capace di soddisfare i bisogni di aziende di settori diversi e della
moltitudine di dipartimenti aziendali. Tra le soluzioni offerte dall’azienda
troviamo la gestione contabile e fiscale, i gestionali ERP e CRM ed
ovviamente la gestione delle risorse umane, per il quale si è mossa
recentemente con la nuova suite HR Global Solution.

HR Global Solution è un sistema di Human Capital Management (HCM) che


offre una innovativa esperienza in ambito HR, ovvero la possibilità di avere
una gestione completa di tutti gli aspetti di amministrazione, gestione e
organizzazione del personale in una piattaforma unica capace di servirsi delle
tecnologie web, del cloud, delle applicazioni mobile e di un database unico.
Come si nota dalla figura soprastante, è stato realizzato un portale – HR
Portal - sempre consultabile anche con apparecchi mobile e che ha i seguenti
obiettivi: ottimizzare la gestione dei processi di gestione e comunicazione,
ridurre i tempi di accesso alle informazioni, facilitare la consultazione dei
documenti da parte dei dipendenti e migliorare l'immagine aziendale. In
questo senso, troviamo le varie suddivisioni in: Collaboration, Document
Management, HR Analytics, Utilities, Process Management.
Nell’ultimo strato della piramide in figura, è possibile vedere alcune delle
applicazioni offerte alle aziende che implementano gli strumenti sopracitati e
permettono dunque un servizio ad hoc.

61
L’HR Analytics Zucchetti si configura come uno strumento capace di
permettere una visualizzazione rapida e semplice delle informazioni presenti
sui principali fenomeni del personale per poter valutare l’andamento rispetto
ai KPI aziendali. In tal senso, l’HR Analytics va ad integrarsi nelle varie
soluzioni di efficienza: dal Workforce Management dove si fornisce un
software per l’analisi della produttività di ciascun dipendente, al Talent
Management, in cui si implementano tali strumenti: pianificazione e
monitoraggio dei costi del personale, identificazione delle aree critiche in
termini di skill e conoscenze, selezione delle risorse ad alto potenziale e di
quelle che invece necessitano di percorsi formativi specifici. L’innovazione
che si propone di portare l’azienda, oltre ad un aumento della produttività, è
la visione empatica che si ricerca nella visualizzazione e analisi dei dati
aziendali e del personale. L’HR Analytics Zucchetti si fonda sulla creazione
di cruscotti – o dashboard - già predisposti che ricevono automaticamente i
dati presenti dal portale HR e restituiscono immediatamente dei semplici
indicatori grafici che fanno capire la situazione interna dell’azienda.
A testimonianza di ciò, fra i vantaggi dichiarati dall’azienda stessa sull’HR
Analytics Zucchetti, troviamo in primis la visualizzazione delle
informazioni, ovvero la possibilità di poter visionare i dati senza fogli di
Excel, ma con degli indicatori definiti – quali ad esempio “smile” o i segnali
verde/giallo/rosso, ecc. - che permettono di: valutare se la gestione è in linea
con gli obiettivi prefissati; far risparmiare tempo di comprensione ed
elaborazione, specialmente quando la mole di dati è notevole. Fra gli altri,
vanno sottolineati: il supporto decisionale dato dalla disponibilità delle
informazioni sul personale in modo chiaro; e la perfetta conoscenza di tutti i
processi d’interesse, quali: l’andamento delle assunzioni, delle retribuzioni,
delle promozioni, dell’assenteismo, del turnover, ecc.
Le soluzioni Global HR Solutions di Zucchetti, sono state insignite per tre
anni di fila del MIP Innovation Award, una di queste per via del caso
Fininvest (2012), dunque non si può certo dire che non si possano
raggiungere dei risultati, implementando l’innovazione e l’IT nello Human
Resource Management.

62
La holding del gruppo Fininvest vede la presenza di circa 20.000 addetti ed
una realtà aziendale molto complessa caratterizzata dalla presenza di 8 diversi
contratti collettivi di lavoro che coinvolgono categorie di impiegati con
esigenze molto differenziate tra loro, una forte presenza di personale
viaggiante e forti esigenze di correttezza e tracciabilità dei dati
amministrativi. In questo senso, Zucchetti ha introdotto una piattaforma di
servizi web-based totalmente integrata che poggia su un unico database dove
sono presenti tutte le informazioni profilate per ogni dipendente – HR Portal
– e che viene gestito attraverso un data center virtualizzato capace di
garantire alti livelli di performance e affidabilità. Inoltre, si sono sviluppati
specifici servizi e informazioni personalizzate, al fine di rispondere alle
esigenze delle differenti categorie di dipendenti, disponendo per ciascuno di
essi, un accesso profilato che consente all'azienda di segmentare le
comunicazioni e offrire servizi dedicati in base alle caratteristiche della
mansione. Sono stati poi introdotti anche sistemi di BI e Big Data Analytics,
che consentono il monitoraggio e il controllo dei processi amministrativi
secondo determinati KPI supportando il miglioramento continuo dei servizi
offerti e garantendo la tempestività e la qualità dei dati raccolti. L'interfaccia
del sistema assolve, inoltre, una funzione informativa a supporto dei manager,
i quali possono trovare sul portale, informazioni puntuali sulle proprie risorse.
Grazie alla soluzione HR Zucchetti, Fininvest è riuscita ad ottenere un
miglioramento nella gestione dei processi amministrativi, riducendo del 30%
il tempo dedicato ad attività a basso valore aggiunto. Inoltre, per quanto
riguarda i sistemi di BI e BDA, i requisiti di qualità e sicurezza interni ed
esterni sono stati soddisfatti grazie a un più efficace monitoraggio degli
indicatori di performance di processo; l’ottimizzazione delle attività di
interscambio informativo ha consentito la riduzione del 70% delle attività di
front-end verso i dipendenti e del 50% di quelle di reporting.

Concludendo questo paragrafo, si vuole inserire un estratto di Barry Devlin,


fondatore di 9sight Consulting, che racchiude egregiamente il contesto di
applicazione dei Big Data e dell’Analytics, volendo ricordare il fatto che: in

63
tutte le imprese, grandi o piccole che siano, per fare in modo di creare valore
e attuare delle strategie, è necessario misurare tutto ciò che è misurabile.
“I datori di lavoro hanno a lungo mantenuto e analizzato quantità significative
di dati sui loro dipendenti, senza saperne fare buon uso: date di nascita,
stipendi, valutazioni delle prestazioni, progressione di carriera, e così via.
Questi dati, invece, sono ideali per l’utilizzo di tradizionali strumenti di BI.
Per molte piccole e medie imprese, anche Excel può fare questo lavoro
perfettamente. Naturalmente, oltre a questi ultimi, si ha la necessità di gestire
un insieme di informazioni scritte, – domande di lavoro, pratiche interne
all’azienda e con enti esterni, ecc. – che sono meno utilizzabili con la classica
BI. L’ascesa dei social media ha portato a un’ ulteriore esplosione di
informazioni testuali e perfino a informazioni video su dipendenti e candidati.
Queste nuove informazioni offrono evidenti opportunità per i responsabili HR
e per i dipartimenti stessi, al fine di monitorare più da vicino i dipendenti.
Il text mining sulle informazioni online, unito alle informazioni trovate sui
social media, consente – per esempio – l’eliminazione efficiente dei candidati
meno qualificati, o comunque dei meno desiderabili. Mentre la BI
tradizionale opera a livello aggregato, tecniche come il text mining,
l’apprendimento automatico e l’analisi predittiva su informazioni personali
hanno algoritmi di “scoring” e risultati la cui logica di fondo è tutt’altro che
trasparente. Queste informazioni sono solo la punta di un iceberg di dati
personali che stanno cominciando a essere raccolti grazie all’Internet of
Things (IoT). Alcune aziende operanti nel settore logistico, ad esempio, si
sono già adoperate per raccogliere dati provenienti da sistemi di monitoraggio
dei motori dei camion, deducendone in questo modo, gli stati personali e i
comportamenti degli autisti. Grazie agli smartphone, i movimenti dei
dipendenti vengono monitorati in qualsiasi momento, consentendo inferenze
su performance e attività. Le riunioni e le conference call, attraverso i
registratori, possono servire per monitorare i livelli di partecipazione e i
contributi personali forniti. Anche le tecniche di riconoscimento facciale e di
analisi vocale possono essere utilizzate per registrare gli stati emotivi dei
dipendenti. Mentre alcune di queste tecnologie possono sembrare estreme,

64
appena la tecnologia scenderà di prezzo, e l’archiviazione dei dati diventerà
sempre più conveniente, crescerà la tentazione di massimizzare il valore dei
dipendenti a fronte della concorrenza sempre crescente. I tempi in cui i
dipartimenti HR utilizzavano semplici strumenti di BI per classificare i
dipendenti sulla base di salari e valutazione delle performance stanno
passando rapidamente. Le possibilità che emergono dall’analisi dei Big Data
e dall’Internet of Things sfidano l’HR a fare un passo indietro e rivedere con
urgenza considerazioni etiche e di riservatezza nell’utilizzare questi dati per
valutare i candidati, le prestazioni dei dipendenti o dei potenziali candidati. I
confini tra misure reali e accettabili dovranno essere costantemente definiti e
mantenuti.”

65
Conclusioni

If you can look into the seeds of time, And say which grain will grow and
which will not, Speak then to me, who neither beg nor fear Your favours nor
your hate.
— Macbeth, Act 1, Scene 3

Questi versi di William Shakespeare mostrano una chiara visione di come, sin
dalla notte dei tempi, le persone in grado di prevedere i comportamenti futuri,
hanno un vantaggio distintivo indipendentemente dalla loro posizione. Nello
sport, tale predisposizione viene chiamata talento, cioè la capacità di giocare
d’anticipo sull’avversario e capire dove finirà il pallone. A Wall Street, è
necessario comprendere i movimenti del mercato, valutarli, e muoversi prima
degli altri “lupi”, investendo su quell’azione che sarà capace di farci fare
fortuna. Nelle aziende, più di ogni altro ambito, la capacità di fare previsioni
di cui si è fermamente convinti è riferibile ad una infinità di sfaccettature.
Già all’inizio del 2010, l’Economist prevedeva il “boom” dell’utilizzo dei Big
Data, individuandone vantaggi e svantaggi. Tra questi ultimi, individuava
soprattutto nella sicurezza informativa e di protezione dei dati il punto debole
del sistema, tanto da farne il problema
più grande da risolvere negli anni
seguenti. Tuttavia, persino
l’autorevolezza del prestigioso
settimanale economico britannico, non
è arrivata a captare fino in fondo la
portata “rivoluzionaria” che l’avvento
dei Big Data ha suscitato nella realtà
economica e che, in particolare, il
problema da risolvere sarebbe stato
l’implementazione delle tecniche
informatiche adeguate per permettere
di “far comunicare tra loro” le

66
innumerevoli fonti di informazione basate sui big data. A soli cinque anni di
distanza, lo scenario può dirsi considerevolmente cambiato: le applicazioni e
gli strumenti informatici ora esistono, possono essere utilizzati per rispondere
a pressoché tutte le esigenze personali ed aziendali, e hanno creato un loro
spazio parallelo che si interfaccia con tutto il mondo.
Il punto cruciale sui Big Data dunque, focalizza l’attenzione sulle persone che
si occupano di fare business, che dovranno essere in grado di guidare
l’innovazione di ogni funzione aziendale, selezionare e trattenere i profili con
le competenze “giuste” ed implementare le migliori strategie al fine di
sfruttare appieno le opportunità offerte dalle nuove tecnologie e di creare
valore per l’impresa.
In futuro, il trend non potrà che aumentare e, sotto le spinte del progresso
informatico, solamente le aziende che avranno un approccio creativo,
strategico e ben definito, potranno costituire un vantaggio competitivo
sostenibile nel tempo all’interno dei nuovi mercati globali e fortemente
digitalizzati.

“Uno dei motivi per cui ho scelto questo argomento di tesi, è stato l’ambito
trasversale che caratterizza i big data. Usando questi ultimi come strumento,
infatti, ho avuto la possibilità di addentrarmi in due aree aziendali che mi
interessano, il marketing e lo human resource management, da una
prospettiva differente ed innovativa. Inoltre, ho scoperto un “mondo” che è in
continuo divenire, ma spesso non ce ne si accorge. La big data analytics o più
in generale la data science, può sembrare un ambito che prediliga soltanto
delle menti pragmatiche, in realtà, specialmente affrontandola dal punto di
vista della mia tesi, mostra come siano necessarie svariate skill : sia
analitiche, sia creative. Ciò che ho imparato è che alla base della creatività,
per poterla sfruttare al meglio, c’è sempre una strategia comprovata dai dati,
proprio come alla base dei sogni, ci sono sempre due caratteristiche che
determinano la loro realizzazione: la volontà della persona nel volerli
realizzare e le condizioni in cui questa si trova. Esiste un solo modo per
modificare la seconda variabile, ed è l’approccio che si antepone al successo”

67
Bibliografia

• Ambrosini, V., & Bowman, C. (2009). What are dynamic capabilities and
are they a useful construct in strategic management? International Journal
of Management Reviews, 11(1), 29–49.

• Barney, J. B. (1991). Firm resources and sustained competitive advantage.


Journal of Management, 17(1), 99–120.

• Barney, J. B. (2014). How marketing scholars might help address issues in


resource-based theory. Journal of the Academy of Marketing Science,
42(1), 24–26.

• Barney, J., & Hesterly, W. (2012). Strategic management and competitive


advantage: Concepts and cases (4th ed.). New Jersey: Pearson.

• Bartels S, Richey J., 2008, Workforce Management– Impacting the


Bottom-line 2008.

• Bharadwaj, A., El Sawy, O. A., Pavlou, P. A., & Venkatraman, N. (2013).


Digital business strategy: Toward a next generation of insights.
Management Information Systems, 37(2), 471–482.

• D'Aveni, R. A., Dagnino, G. B., & Smith, K. G. (2010). The age of


temporary advantage. Strategic Management Journal, 31(13), 1371–1385.

• Davenport, T. H., Barth, P., & Bean, R. (2012). How big data is different.
MIT SloanManagement Review, 54(1), 43–46.

• Th. Davenport, D.J. Patil Data Scientist: The sexiest job of the 21st century.
Harvard BusinessReview, October 2012, pp 70-76

• Day, G. S. (2011). Closing the marketing capabilities gap. The Journal of


Marketing, 75(4),183–195.

• Day, G. S. (2014). An outside-in approach to resource-based theories.


Journal of the Academy of Marketing Science, 42(1), 27–28.

• N. Desai, D. Steier, A. Verma, 2012, Data: A growing problem, Deloitte


Development LLC

68
• Diggle J., 2015, Journal of the Royal Statistical Society Series A (Statistics
in Society)

• Dong, X.H., Ying, A. and Guo, J.G. (2014) Research on the Application of
the Big Data Technology in the Network Recruitment. Human Resource
Development of China, 18, 37-41.

• Douglas Laney, 3D Data Management (2001): Controlling Data Volume,


Velocity and Variety, Gartner.

• C. Eaton, D. Deroos, T. Deusch, G. Lapiz, P. Zikopoulos, 2012,


Understanding Big Data: Analytics for Enterprise Class Hadoop and
Streaming Data, The McGraw-Hill Companies <
http://public.dhe.ibm.com/common/ssi/ecm/en/imll4296usen/IML14296US
EN.PDF >

• Ebner, K., Bühnen, T., & Urbach, N. (2014). Think big with Big Data:
Identifying suitable Big Data strategies in corporate environments.
Proceedings of the 47th International Conference on System Science (pp.
3748–3757). Washington: DC: IEEE Computing Society.

• Elcoro, M. (2008). Including physiological data in a science of behavior: A


critical analysis. Brazilian Journal of Behavioral and Cognitive Therapy,
10, 253–261.

• Erevelles, S., et al., 2015, Big Data consumer analytics and the
transformation of marketing, Journal of Business Research.

• Erevelles, S., Horton, V., & Fukawa, N. (2007). Imagination in marketing.


Marketing Management Journal, 17(2), 109–119.

• Gartner Research, 2012, The importance of "Big Data": A definition

• G. George, M. R. Haas, A. Pentland (2014) Big Data and Management,


Academy of Management Journal, Vol. 57, No. 2, 321–326.

• He, Y. (2013) Management Innovation in “the Era of Big Data”. Human


Resources, 10, 62-63.

69
• Huang, S.L. and Xiang, J. (2013) “Big Data” Light up “Wisdom” of Human
Resources Management System. Science & Technology for Chinese Mass
Media, 12, 76-78.

• Kennedy, M. T. 2008. Getting counted: Markets, media, and reality.


American Sociological Review, 73: 270–295.

• Kennedy, D., & Norman, C. (2005). What don't we know? Science,


309(5731), 75.

• Kozlenkova, I. V., Samaha, S. A., & Palmatier, R. W. (2014). Resource-


based theory in marketing. Journal of the Academy of Marketing Science,
42(1), 1–21.

• Kunc, M. H., & Morecroft, J. D. W. (2010). Managerial decision making


and firm performance under a resource-based paradigm. Strategic
Management Journal, 31(11), 1164–1182.

• LaValle, S., Lesser, E., Shockley, R., Hopkins, M.S. and Kruschwitz, N.
(2011) Big Data, Analytics and the Path from Insights to Value. MIT Sloan
Management Review, 52, 2.

• Lawson, A. E. (2005). What is the role of induction and deduction in


reasoning and scientific inquiry? Journal of Research in Science Teaching,
42(6), 716–740.

• Lee, R. P., & Grewal, R. (2004). Strategic responses to new technologies


and their impacton firm performance. The Journal of Marketing, 68(4),
157–171.

• Liao, J. J., Kickul, J. R., & Ma, H. (2009). Organizational dynamic


capability and innovation: An empirical examination of internet firms.
Journal of Small Business Management, 47(3), 263–286.

• Lin, Y., & Wu, L. Y. (2014). Exploring the role of dynamic capabilities in
firm performance under the resource-based view framework. Journal of
Business Research, 67(3), 407–413.

• Lycett, M. (2013). 'Datafication': Making sense of (big) data in a complex


world. European Journal of Information Systems, 22(4), 381–386.

70
• Ma, X., Yao, X., & Xi, Y. (2009). How do interorganizational and
interpersonal networks affect a firm's strategic adaptive capability in a
transition economy? Journal of Business Research, 62(11), 1087–1095.

• Ma J.G. and Jiang, W. (2013) The Concept, Characteristics and Application


of Big Data. National Defense Science & Technology, 34, 10-16.

• MacInnis, D. J. (2011). A framework for conceptual contributions in


marketing. The Journal of Marketing, 75(4), 136–154.

• Mayer-Schönberger, V., & Cukier, K. (2013). Big data: A revolution that


will transform how we live, work, and think. New York: Houghton Mifflin
Harcourt.

• A. McAfee, E. Brynjolfsson Big Data: The management revolution,


Harvard Business Review, October 2012, pp 61-68

• McKinsey Global Institute. 2011. Big data: The next frontier for
innovation, competition, and productivity.

• Miller, D., & Shamsie, J. (1996). The resource-based view of the firm in
two environments: The Hollywood film studios from 1936 to 1965. The
Academy of Management Journal, 39(3), 519–543.

• Mithas, S., Lee, M. R., Earley, S., & Murugesan, S. (2013). Leveraging big
data and business analytics. IT Professional, 15(6), 18–20.

• Peter, C., Ebert, E., & Beikirch, H. (2005). A wearable multi-sensor system
for mobile acquisition of emotion-related physiological data. In J. Tao, T.
Tan, & R. Picard (Eds.), Affective Computing and Intelligent Interaction.
Vol. 3784. (pp. 691–698). Berlin: Springer Berlin Heidelberg.

• Porter, M. (2008). On competition. Boston: Harvard Business Press.

• Provost F., Fawcett T., July 2013, Data Science for Business, 1, 25-26.

• Randstad S.p.a., 2015, The Randstad Sourceright 2015 Talent Trends


Report

• Rogers D., Sexton D., 2012, Marketing ROI in the Era of Big Data,
Columbia Business School

71
• <http://www.iab.net/media/file/2012-BRITE-NYAMA-Marketing-ROI-
Study.pdf>

• G. Shmueli, N. Patel, P. Bruce, 2011, Data Mining for Business


Intelligence, Wiley

• Sullivan J., 2013, How Google is using People Analytics to Completely


Reinvent HR Article in HR Management, HR News & Trends,
<http://www.tlnt.com/2013/02/26/how-google-is- using-people-analytics-
to-completely-reinvent-hr/>

• Teece, D. J. (2007). Explicating dynamic capabilities: The nature and


microfoundations of (sustainable) enterprise performance. Strategic
Management Journal, 28(13), 1319–1350.

• Tellis, G. J., Prabhu, J. C., & Chandy, R. K. (2009). Radical innovation


across nations: The preeminence of corporate culture. The Journal of
Marketing, 73(1), 3–23.

• Tian, H. (2014) The Concept, Thinking of Human Resources Management


Based on the Era of Big Data. Human Resources, 20, 162-163.

• E. Vaciago, C.Bellini, M. Ghisetti, The Innovation Group 2013

• Viaene, S. (2013). Data scientists aren't domain experts. IT Professional,


15(6), 12–17.

• Wang, D.H. (2013) Evidence-Based Human Resource Management in the


Era of Big Data. Chinese and Foreign Entrepreneurs, 8, 159

• Weber, L., & Henderson, L. L. (2014). The digital marketer: Ten new skills
you must learn to stay relevant and customer-centric. Hoboken, NJ: John
Wiley & Sons.

• Wei, L. Q., & Lau, C. M. (2010). High performance work systems and
performance: The role of adaptive capability. Human Relations, 63(10),
1487–1511.

• Wei, B. (2012) The Recruitment Management System Based on Cloud


Computing Model. Science & Technology Information, 19, 108-109.

72
• Welsch R., (2012) Data Mining: Finding the Data and Models that Create
Value, R. Welsch MIT Fall 2012

• Wernerfelt, B. (2014). On the role of the RBV in marketing. Journal of the


Academy of Marketing Science, 42(1), 22–23.

• C. White, October 24, 2012, Completing the Big Data Picture:


Understanding Why and Not Just What, TDWI Research

• Wu, L. Y. (2010). Applicability of the resource-based and dynamic-


capability views under environmental volatility. Journal of Business
Research, 63(1), 27–31.

• Zhou, K. Z., & Li, C. B. (2010). How strategic orientations influence the
building of dynamic capability in emerging economies. Journal of Business
Research, 63(3), 224–231.

• Zhou, G.H. (2013) Thinking on Human Resources Management Based on


the Value of Big Data. Science Mosaic, 12, 104-107.

73
Sitografia

• http://www-01.ibm.com/software/data/bigdata/

• http://www.01net.it/big-data-e-risorse-umane-da-3-a-5-anni-per-
trasformare-i-dati-in-motore-strategico/

• http://www.aleagostini.com/analisi-del-sentiment-27082013.h

• http://archive.wired.com/science/ discoveries/magazine/16-07/pb_theory

• www.athleticbusiness.com/articles/article.aspx?articleid= 3909&zoneid=34

• http://www.beantech.it/author/francesca-magnani/

• http://www.bigdata-startups.com/BigData-startup/southwest-airlines-uses-
big-data-deliver-excellent- customer-service/

• http://www.bigdata-startups.com/geospatial-data-enrich-customer-
experience-drive-revenue/

• http://bits.blogs.nytimes.com/2012/09/07/big-data-in-your-blood

• https://blogs.oracle.com/datawarehousing/entry/stubhub_s_data_scientists_
reap

• http://blogs.wsj.com/cio/2012/06/20/ford-gets-smarter-about-marketing-
and-design/

• http://www.cartesiani.it/il-futuro-delle-hr-passera-dai-big-data/

• http://www.cisco.com/cdc_content_elements/networking_solutions/service
_provider/visual_networking_ip_traffic_chart.html

• http://www.corriere.it/tecnologia/social/14_gennaio_28/social-network-big-
data-sentiment-analysis-spiegata-profani-cce184b0-88a-11e3-bbc9

• http://www.datamanager.it/2014/09/analytics-per-valorizzare-i-talenti/

• http://www.emc.com/collateral/analyst-reports/idc-digital-universe-
2014.pdf

• http://www.euromonitor.com/consumer-analytics/consulting

74
• http://www.experian.it/ufficio-stampa/2012-no08-la-sfida-dei-big-data-il-
marketing-come-organizzazione-data-driven.html

• http://www.fiercebigdata.com/story/google-beta-testing-tracking-mobile-
users-everywhere-they-go-even-when-not/2013-11-13

• http://www.forbes.com/sites/gregsatell/2014/01/ 26/5-things-managers-
should-know-about-the-big-data-economy/

• http://www.forbes.com/sites/kashmirhill/ 2012/02/16/how-target-figured-
out-a-teen-girl-was-pregnant-before-her-father-did/

• http://www.forbes.com/sites/stevebanker/2014/01/24/amazon-and-
anticipatory-shipping-a-dubious-patent/

• http://infotechlead.com/2013/08/27/southwest-airlines-deploys-aspect-
software-customer-contact-solutions-14656

• http://www.integreon.com/pdf/Blog/Grail-Research-Big-Data-Just-Got-
Bigger_232.pdf

• http://www.intervistato.com/

• http://marketshare.com/dev/images/documents/whitepapers/ms_fox_broadc
asting_whitepaper.pdf

• http://www.marketingweek.co.uk/opinion/ritson/amazon-has-seen-the-
future-of-predictability/4009154.article

• http://www.marketplace.org/topics/business/ whats-behind-future-hit-
movies-algorithm

• http://mate.it/index.php./it/bigdata/sentiment-analysis

• http://m.mlb.com/news/2014/02/25/68295956/ mlbcom-at-bat-ready-to-
launch-into-spring

• http://www.mongodb.com/learn/big-data

• http://www.nytimes.com/2012/02/19/magazine/shopping-habits.html

• http://www.oracle.com/us/technologies/big-data/big-data-ebook-
1866291.pdf

75
• http://www.oracle.com/us/products/database/big-data-for- enterprise-
519135.pdf

• http://www.programmatic-italia.com/big-data-analytics/politecnico/

• http://www.togetherhr.com/blog/hr-analytics/

• http://vincos.it/2012/08/30/cose-la-sentiment-analysis/

• http://www.zucchetti.it

• http://www.zucchetti.it/website/cms/case-history-dettaglio/2899-
fininvest.html

76
Dediche e Ringraziamenti

Dedico la mia tesi al mio relatore Giancarlo Manzi, ringraziandolo per la


disponibilità e gli spunti, non solo accademici, che mi hanno permesso di
appassionarmi ulteriormente all’argomento, ma anche di vita; a tutti i
Professori con cui ho interagito e che mi hanno visto crescere sia sotto
l’aspetto personale, sia accademico/professionale; ed infine, all’Università
degli Studi di Milano che mi ha dato l’opportunità di “rialzarmi” in
quell’inverno del 2014, al fine di perseguire gli obiettivi con tenacia e
determinazione, raggiungendo un risultato che non mi sarei mai aspettato.
Dedico la mia tesi alla mia famiglia: ringrazio mio padre per i suoi consigli
pacati e preziosi, ringrazio mia madre perché nonostante le discussioni è
sempre la prima a confrontarsi con me e a sostenermi, ringrazio mia sorella
per avermi ascoltato innumerevoli volte e per essere quel legame che dovrò
proteggere ad ogni costo; ringrazio mia zia Jolanda per essere sempre
presente, ricordandomi ogni giorno, che è necessario impegnarsi
costantemente per fare qualcosa di grande; ringrazio mia nonna Tea perché
vuole il meglio per me e sono troppo felice per essere riuscito a rispettare la
promessa che le avevo fatto: laurearmi; ringrazio mia zia Carla e mio zio
Armando per avermi visto maturare in questi anni; ringrazio mia zia Patrizia,
che sa cosa significa essere nati il 5 ottobre, e mio zio Giancarlo, per esserci
stato in un momento difficile e avermi ricordato che le persone con un
carattere come il nostro, vivono di emozioni forti e devono imparare a
“surfare” sulle onde, sia benevole sia maligne.
Dedico la mia tesi a Cecilia, la persona che più di ogni altra mi è stata accanto
nel mio percorso universitario: colei che comprendendomi e supportandomi è
stata capace di farmi passare le paranoie, facendomi tornare ad avere quella
forza che ha solo chi non si arrende mai; a Mariangela, per i suoi “in bocca al
lupo” e “in culo alla balena” che hanno contraddistinto ogni mio esame; alla
famiglia Volpi, per avermi infuso la consapevolezza che per essere
imprenditori, bisogna essere impavidi, costanti e lungimiranti.

77
Dedico la mia tesi anche a quelle persone che nella vita ci saranno sempre.
Dicono sia meglio avere “pochi amici, ma buoni”, eppure io ho la fortuna, il
piacere e l’onore di poter contare sempre sull’aiuto di “tanti amici e buoni”:
gli amici di vecchia data con cui ho ricordi di ogni genere e gli amici di
Maturità, coloro che, dai tempi del Liceo, mi fanno dire ogni giorno che non
ho perso un anno, bensì l’ho guadagnato. Un ringraziamento speciale va
quindi ai miei “Amici Storici”, con cui sono cresciuto fin da quando avevo 14
anni e con cui spero di continuare a condividere serate da raccontare, viaggi,
avventure e sogni; e agli amici de “La Family”, una compagnia “vecchio
stile” in cui, nonostante le dimensioni, ho un legame splendido con tutti, si
parla di ogni cosa, ci si sostiene a vicenda e si vivono momenti
indimenticabili che mi fanno credere e sperare che saremo sempre così: uniti
e mai domi.
Questa tesi voglio dedicarla anche ai miei colleghi universitari, affinché non
perdano mai la determinazione per conseguire i risultati e la voglia di
festeggiarli; ad Alessandro, l’amico che mi ha reso sicuro nell’affrontare il
mio percorso, e con cui ho condiviso, fianco a fianco, come due cavalli
Mustang, la corsa verso un obiettivo ambizioso: la “laurea lampo”; a Matteo,
nome d’arte “Arte”, uno degli amici storici, che seguendo il mio consiglio di
iscriversi a questo corso, ha condiviso con me quest’ultimo anno universitario
fra battibecchi, risate e festeggiamenti; ai miei colleghi del secondo anno con
il quale ho condiviso soprattutto il primo anno ed alcuni degli ultimi esami; e
ai miei colleghi del terzo, in particolare ad Arianna, Giulia, Paola, Sonia,
Jonathan e Matteo, con i quali ho condiviso i momenti della stesura della tesi
e tutti gli imprevisti universitari che accadono sempre, al fine di rendere il
tutto più rischioso, adrenalinico e, forse, per certi versi, stimolante.
Se “i legami visibili” sono quelli di cui ho scritto sopra, voglio dedicare la
mia tesi anche “ai legami invisibili”, ovvero alle persone che mi sono state
care ed ora vivono lassù, coloro che porto nel cuore, che se alzo gli occhi al
cielo so che stanno badando a me, e grazie ai quali mi ricordo sempre che per
vivere la vita al meglio, bisogna essere “Duri, Aggressivi e Determinati”.

78
79

You might also like