Professional Documents
Culture Documents
Relatore:
Chiar.mo Prof. Giancarlo Manzi
2
Indice
Introduzione pag. 4
Conclusioni pag. 66
Bibliografia pag. 68
Sitografia pag. 73
3
Introduzione
4
analytics ed una terza che si concentra sugli approcci per la creazione di
valore nell’impresa. In tal senso, per il secondo capitolo è stata realizzata
un’applicazione dimostrativa di data/text mining, mentre per il terzo capitolo
si è analizzato una best practice tecnologica di successo.
5
1. Big Data: il motore dell’innovazione aziendale
6
1.1 Le origini della Data Science e i suoi sviluppi
L’inizio del nuovo millennio ha visto un aumento della notorietà della data
science ed un conseguente incremento degli investimenti nelle infrastrutture
di business, che hanno migliorato le capacità di raggruppare i dati attraverso
le imprese. (Provost e Fawcett, 2013)
Tra gli statistici, il dibattito sull’utilità e sulle possibilità che la data science
può dare è molto acceso. Per alcuni la data science si configura come una
minaccia, ma per altri come un’opportunità unica per la statistica, in quanto è
in grado di enfatizzare la rilevanza universale dei metodi statistici per
interpretare i dati, nei termini di un importante legame tra l’information
technology e la statistica stessa. Quest’ultima è essenziale per la
comprensione e ricezione delle informazioni provenienti dai dati, ma forse
ancora non completamente adatta a contribuire da sola alle ricerche emergenti
nell’ambito della “data revolution”, per via del fatto che alcuni campi di
realizzazione sono di competenza informatica.
In virtù di tale considerazione, possiamo prendere in esame le definizioni di
Wikipedia, che pur non essendo un’autorità accademica, a volte può dare
illuminanti spiegazioni:
7
la definizione di data science sopracitata sia molto vicina a quella che si
utilizza per definire la statistica, mentre quella attinente all’information
science sembra appartenere più alla tecnologia che alla statistica stessa. In
accordo con un altro importante ricercatore, Iain Buchan (University of
Manchester), Diggle definisce la data science come la statistica del XXI
secolo, mettendo in evidenza una sua nuova interpretazione: “l’informatica
cerca di massimizzare l’utilità dei dati, mentre la statistica ha l’obiettivo di
minimizzare l’incertezza che è associata alla loro interpretazione” (Diggle,
2015).
8
talmente rilevante da mobilitare la volontà delle organizzazioni di voler
creare e catturare valore per gli individui, il business, la comunità e i governi.
(McKinsey Global Institute, 2011).
Un’altra distinzione, che a volte genera disaccordi, è quella che vede i big
data annoverabili tra gli argomenti che attingono alla data science e sono
processati dalle diverse tecniche di data mining. Proprio come per la maggior
parte dei concetti emergenti, infatti, i ricercatori non hanno ancora
un’opinione condivisa riguardante la definizione dei Big Data. Tuttavia
quella maggiormente utilizzata deriva da cinque complementi:
“I Big Data sono enormi, diversificati e caratterizzati da una crescita
esponenziale. Essi danno vita ad un nuovo approccio volto a determinare un
risultato più convincente” (LaValle et al, 2011; Ma, Jiang, 2013)
In questo senso, va detto che, in base al rapporto di IBM, vengono creati 2,5
quintilioni (1018) di bytes di dati al giorno e più del 90% dei dati mondiali
sono stati generati negli ultimi due anni (IBM, 2013). Questa esplosione
globale è guidata principalmente dalla tecnologia inclusi gli smartphones, i
video, la musica e Internet (Oracle,2012), ciò determina una crescità della
pluralità delle fonti: motori di ricerca, transazioni commerciali tramite
dispositivi mobili, interazioni dei social media, upload di audio e video,
sistemi GPS… (IBM,2013)
In un mondo così tecnologicamente avanzato, le nostre operazioni di
interazione con la rete sono registrate ed elaborate, perciò è facile capire
come ogni giorno vengano create applicazioni che generano valore ed
arricchiscono la vita degli utenti.
I Big Data si configurano, dunque, come un utile strumento per rendere
“misurabile” la società, attraverso cui le organizzazioni possono relazionarsi
con l’utente, traendo analisi e predizioni sull’andamento del mercato e sugli
interessi aziendali.
Storicamente, il Data Management si è evoluto principalmente intorno a due
problemi fondamentali: il volume e la capacità di trasformazione. Tuttavia, le
sfide si sono ampliate, modificando la cosiddetta capacità di trasformazione
in velocità e generando una terza dimensione: la varietà dei dati.
9
L’esponenziale e costante incremento di queste tre caratteristiche era stato
anticipato dall’analista Douglas Laney, che già nel 2001, ha identificato il
modello di crescita dei Big Data come un modello di crescita tridimensionale.
(Laney, 2001) In questo senso, troviamo le ricerche di Gartner (Gartner
Research, 2012), secondo cui l’unità costituita dalle tre variabili può essere
descritta attraverso il seguente enunciato:
"Big data is high volume, velocity and variety information assets that
demands cost-effective, innovative forms of information processing for
enhanced insight and decision making."
1
IDC è un azienda di ricerche di mercato, specializzata in particolar modo nell’Information
Tecnology. Notizia tratta da http://www.emc.com/leadership/digital-universe/2014iview/executive-
summary.htm
10
sostanziale aumento della capacità di immagazzinare notizie, sviluppata da
ogni tipo di sensore o dispositivo, la quale rende le persone capaci di
collezionare dati più reali e completi. Si è passati dal fare affidamento su dati
campione per analizzare la totalità, al prendere in esame i dati globali ed
analizzarli direttamente. Tuttora, esistono più dati di quanto sia possibile
processarne: il loro volume cresce del 50% ogni anno e di più del doppio ogni
biennio. (Gartner Research, 2012)
Velocità - From Batch to Streaming Data
Se è vero che il volume dei dati cresce rapidamente, è altrettanto vero che è
molto più semplice acquisire informazioni, condividere un proprio pensiero
con tutto il mondo e far emergere nuovi contenuti in ogni istante.
Questa crescita esponenziale, richiede una maggiore velocità di elaborazione
e il che implica l’utilizzo di particolari sistemi definiti Streaming Data che
mirano a gestire i dati con prontezza e rapidità. In caso contrario, la
proliferazione di questi ultimi potrebbe diventare un peso durante la fase di
risoluzione dei problemi. Il valore intrinseco dei dati diminuisce rapidamente
col passare del tempo, perciò senza un’adeguata elaborazione risultano
inefficaci e senza senso. (Gartner Research, 2012)
La più grande sfida non è imputabile alla grandezza dei dati o alla velocità
con cui questi vengono immagazzinati, ma a come le informazioni possono
essere usate per indirizzare gli specifici obiettivi di business e come le
organizzazioni sfrutteranno tale opportunità, adattando i processi per
migliorare i profitti (Gartner Research, 2012). Fino a qualche decennio fa,
infatti, la maggior parte della seppur grande quantità di dati era strutturata e,
di conseguenza, le modalità di trattamento erano fisse. Oggi, con il rapido
sviluppo di Internet e dei dispositivi che permettono la navigazione, si
acquisiscono, oltre ad una mole superiore di informazioni, sempre più dati
non strutturati.
Quando si parla di varietà, si definiscono proprio tali dati che risiedono nei
vari database in tre differenti forme: unstructured data, semi-structured data,
11
structured data. (McKinsey Global Institute, 2011) Inoltre, analizzare questa
classificazione dei dati significa avere la chiave per capire le differenti
tipologie di database generalmente utilizzate dalle imprese: Nonrelational
databases (dati non strutturati) and Relational databases (dati strutturati, es.
RDBMS).
Unstructured data
Tutti i dati che non derivano dallo stesso settore o organizzazione e dunque,
non hanno una conformazione uniforme e necessitano di essere ordinati e
combinati con gli altri. Gli esempi classici includono dati di: testo (libri,
articoli, messaggi e-mail), untagged audio, immagini e video.
Semi-structured data
Quei dati che non sono conformi ad un particolare settore ma contengono dei
tags o altri indizi per poter separare gli elementi, vengono riconosciuti come
dati semistrutturati. Esempi di tali indizi sono rappresentati da quei dati di
testo in XML o HTML che permettono al computer di raggrupparli più
facilmente rispetto ai primi che abbiamo preso in analisi.
Structured data
I dati inclusi nei relational databases sono quelli che vengono utilizzati nella
ormai consolidata Business Intelligence delle aziende, cioè quelli che
risiedono nello stesso settore e sono impostati con identiche conformità.
Uno dei più grandi benefici che i Big Data possono dare alle imprese, si
riferisce soprattutto ai dati non strutturati, laddove devono essere in grado di
chiedere ma anche di rispondere a domande complesse, raggruppando dati
rilevanti e utilizzando le giuste tecnologie per tradurre e processare le
informazioni attraverso la Big Data Analytics che guida le deduzioni ed
abilita le prese di decisione in tempo reale.
Recentemente, sono state introdotte due altre V: Veridicità e Valore (Ebner et
al, 2014; Lycett, 2013).
L'introduzione di una vasta scala di dati non strutturati, ci aiuta a conservare
tutti i loro dettagli, ma allo stesso tempo introduce informazioni inutili, e a
12
volte errate. (Ma J.G., Jiang, W., 2013) In virtù di ciò, comparando questi
ultimi e i dati strutturati, si può dire che i primi hanno una più bassa densità di
valore. Queste due nuove V si vanno ad aggiungere proprio in questi termini,
dove la prima sottintende la necessità di essere consapevoli della qualità dei
dati che si va ad analizzare (IBM, 2012) e la seconda definisce il valore
effettivamente traibile per ricavare insights. Tuttavia, il valore dei dati è
relativo, perché dipende dall’interpretazione che ne si dà, così come la
discrezione del valore di densità. A volte, un insignificante dettaglio può
causare un impatto enorme.
La sfida è quella di identificare quali dati sono rilevanti ed estrarli,
raggrupparli ed analizzarli il più rapidamente possibile (Oracle, 2012).
13
1.2 Le fonti, le analisi e le tecniche dei Big Data
14
I tipici community data comprendono le opinioni dei consumatori riguardanti
prodotti, voting buttons ( come “trovo utile questo giudizio”) e i Twitter feed.
Queste community data possono essere sezionate in modo tale da poterne
trarre significato ed elaborare modelli a struttura sociale.
Tra i contributi teorici, empirici e il rigore con cui vengono analizzati i dati,
esiste un punto d’incontro, un trade-off. Il tipico approccio statistico ci porta
a confidare nel p-value, ovvero nella decisione di scartare gli outliers per
avere un’interpretazione che equivale a un “vince la maggioranza”. Con i Big
Data, invece, l’immenso volume dei dati determina che quasi tutto è
significativo e quindi anche un solo parere discordante va considerato.
La sfida è “slittare” da un focus sui p-values in favore di un focus sulle
effettive dimensioni, sulla varietà dei dati e sui casi che si discostano dal
“corpo principale” dei dati.
In diverse situazioni, la media è molto importante e spesso rivela come le
persone tendano a comportarsi sotto determinate condizioni, ma nella vastità
dei big data gli outliers possono essere ben più interessanti: innovazioni
15
rilevanti, tendenze, deviazioni o rivoluzioni potrebbero verificarsi al di fuori
delle medie e coinvolgere un cospicuo numero di persone, così da
determinare anche modificazioni negative.
L’alto grado di dettaglio dei Big Data, dunque, offre l’opportunità di
identificare le fonti del cambiamento in termini di innovazione di business,
tendenze social, crisi economiche o sconvolgimenti politici radicali.
I metodi della statistica Bayesiana e della regressione stepwise si sono rivelati
spesso approcci adeguati ma, oltre a questi, esistono anche molte altre
tecniche specifiche dell’analisi dei Big Data. Queste tecniche sono altrettanto
importanti per la comprensione di tale ambito e si configurano come un mix
di diverse discipline, quali la statistica, l’informatica, la matematica applicata
e l’economia. Esse includono (ma non si limitano solamente a ciò): A/B
testing, cluster analysis, data fusion and integration, data mining, genetic
alghorithms, machine learning, natural language processing, neural networks,
network analysis, signal processing, spatial analysis, simulation, time series
analysis e visualization (McKinsey Global Institute, 2011).
Di seguito, sono presentate le più comuni tecniche di analisi con l’obiettivo di
permettere una visione panoramica delle modalità attualmente utilizzate. E’
importante menzionare che la maggior parte delle tecniche sopracitate non
necessita di big dataset (es. regressione), ma ciascuna può essere applicata a
questi ultimi. Ampi e più diversi datasets possono essere usati per generare
risultati più variegati che rivelano associazioni e strutture più in profondità.
16
classificazione abbastanza semplici da comprendere per poter effettuare
analisi sul consumatore e, in alcuni casi, gestire predizioni categoriali.
Regressione
Regressione logistica
17
appartenere alla classe 1, dopo aver utilizzato un valore di cut-off su
quest’ultima per classificare il record in una delle classi. Quando il valore del
record che si sta esaminando scende al di sotto del valore di cut-off esso
apparterrà alla classe 0; altrimenti apparterrà alla classe 1.
Neural Networks
18
di segmentare i dati in un insieme di gruppi omogenei (clusters), sulla base di
una misura di similarità tra di essi. Generalmente si andrà a discriminare tra
punti di dati cercando clusters aventi unità molto simili al loro interno e molto
diverse da quelle degli altri cluster.
Nel clustering, le osservazioni vengono raggruppate in cluster in base alle
distanze tra le osservazioni e le distanze tra i clusters. Esistono differenti
misurazioni che forniscono risultati. Nel primo caso, ovvero la distanza dei
record, le tecniche di misurazioni più comuni sono la distanza euclidea, la
correlazione basata sulle similarità e la distanza statistica (anche definita
Mahalanobis distance). Nel secondo caso, cioè nel caso della distanza fra i
cluster, esistono diverse opzioni, fra cui: Single Linkage, Complete Linkage,
Average Linkage e Centroid Distance.
Le applicazioni di questa tecnica si ritrovano nelle segmentazioni di mercato,
nella market structure analysis e nelle valutazioni che si fanno per creare un
portafoglio clienti bilanciato.
19
generato dagli utilizzatori trasferisce e analizza tra i differenti settori il
graduale aumento della dipendenza del mercato da precisi servizi e
informazioni puntuali.
Le nuove opportunità di reperimento dei dati portano a ottenere facilmente
beni informativi che però risultano difficili da valutare in relazione al loro
impatto sulle decisioni prese in tempo reale. Imprenditori e innovatori hanno
usufruito di innumerevoli open e public data, così come le communities self-
quantification ed exhaust data hanno creato nuovi prodotti e servizi che
hanno il potere di trasformare le imprese.
In questo senso, la data science si inserisce non soltanto in un contesto di
ricerca e accademico, ma soprattutto imprenditoriale, mettendo a disposizione
le analisi e le tecniche che si sono prese
in considerazione in questo paragrafo,
per generare valore in due modi: avere
un ruolo da protagonista in ogni
funzione aziendale e definire un nuovo
processo decisionale basato sui dati: il
Data-Driven Decision Making.
20
1.3 L’approccio data-driven per la creazione di valore
Questa citazione è solamente una delle tante che è stata formulata in merito ai
Big Data che non sono più una semplice “moda”, ma si presentano come una
reale opportunità per migliorare situazioni lavorative, creare nuove figure
professionali ed avere un supporto alle decisioni molto più preciso e
completo. In poco tempo, le aziende sono passate da una situazione in cui non
disponevano di dati sufficienti per effettuare analisi dettagliate, ad uno
scenario in cui, paradossalmente, non dispongono di competenze e strumenti
adeguati per trarre valore dall’immensità dei dati disponibili.
Il McKinsey Global Institute ha rilevato che più della metà degli oltre 1400
top manager intervistati ha dichiarato che i Big Data e l’analitica rientrano tra
le 10 priorità a livello aziendale. Sebbene un quinto abbia segnalato di avere
implementato strategie complete basate sulla Big Data Analytics per generare
dati significativi su attività di business o funzioni, solo il 13% sostiene di
utilizzare i dati per generare informazioni importanti sull’azienda. (McKinsey
Global Institute, 2011)
Il fenomeno, come già detto, è in fase di maturazione, e proprio per questo
motivo vi è la sicurezza che sarà capace di sconvolgere il panorama
aziendale, ancor più di quanto non ha fatto fino ad oggi. L’unica cosa certa è
che i Big Data trasformeranno molte imprese che si evolveranno in futuro e la
loro estensione sarà spropositata, andando ad incidere considerevolmente
sulle decisioni aziendali. In riferimento a ciò, gli studi di McAfee e
Brynjolfsson hanno constatato come molte organizzazioni, per quanto
riguarda l’ambito decisionale, hanno da sempre riposto la loro fiducia in
21
dirigenti esperti che si affidavano alla loro esperienza e, ove disponibile, ad
una quantità di dati limitata (McAfee e Brynjolfsson, 2012) .
'When data are scarce, expensive to obtain,or not available in digital form, it
makes sense to let well-placed people make decisions."
“ First - get in the habit of asking, "What the data say?" when faced
with an important decision and following up with more-specific
questions such as "where did the data come from?" "What kind of
analyses were conducted?" and "how confident are the results?"28
22
struttura decisionale basata sull’analisi dei Big Data, sono nettamente più
produttive rispetto alle altre. Infatti, una delle deviazioni standard più elevate,
è proprio quella che associa la DDD ad un aumento della produttività di un
valore che si attesta fra il 4 e il 6%. Tale processo data-driven è correlato
anche al Return On Assets, al Return On Equity e alla Market Value.
(Brynjolfsson, Hitt e Kim, 2011).
Una sola misura per la gestione dei dati Data management flessibile ed
ottimizzato
2
OLAP è l’acronimo di ‘Online Analytical Processing’ ed è un conveniente e veloce modo per vedere
i risultati di business o per monitorare i KPI (Key Performance Indicator). Sinonimi di tale parola
sono: Management Information Systems (MIS) e Decision Support Systems (DSS).
23
L’approccio data-driven decision making è stato inserito nel quarto punto del
rapporto di McKinsey Global Institute (MGI, 2011), in riferimento alle
cinque vie applicabili ai Big Data per influenzare ed offrire delle potenziali
trasformazioni, creare valore per l’azienda e dare implicazioni su come le
organizzazioni debbano essere strutturate, organizzate e gestite.
Tali applicazioni sono:
3
Vertica Systems è un’azienda americana fondata nel 2005 che produce software per l’analisi di
database. E’attiva in differenti diramazioni dell’IT: Enterprise software, Database Management e Data
Warehousing. Nel 2011, l’azienda è stata acquisita da HP che ha di conseguenza ampliato la sua di
sua divisione HP Software.
24
più sofisticate tecniche di Big Data convinte dell’opportunità di
risparmiare tempo nelle pratiche di promozione e advertising.
Questo approccio è conosciuto molto bene dal marketing e dal risk
management.
25
continuo cambiamento. I Big Data sono in grado di rispondere in
tempo reale alle domande: “Cosa è successo?”, “Perché è successo?”,
“Che cosa sta succedendo?” e “Che cosa succederà?” e, in questo
modo, permettono alle aziende di creare nuovi prodotti, più vicini alle
esigenze dei clienti, servizi che vadano ad enfatizzare la loro
esistenza o addirittura, determinare un nuovo modello di business.
26
2. Gli sviluppi nel Marketing
In questo capitolo, l’attenzione verte sulle opportunità offerte dai Big Data
per lo sviluppo e l’innovazione della funzione del Marketing.
Nel primo paragrafo, si analizzano in prospettiva comparata i documenti
accademici pubblicati in tale contesto, che mostrano un notevole interesse nel
voler applicare queste tecniche per ottenere degli insight; si illustrano le
possibili implementazioni nelle imprese e le sfide che si devono affrontare.
Nel secondo paragrafo, in linea con la strutturazione delineata, si fa
riferimento alle strategie di Customer Engagement, si definiscono termini,
quali Market Analytics e Consumer Analytics, per scendere poi nello
specifico della sentiment analysis, una tecnica statistica in grado di rilevare le
opinioni delle persone dai social network e trarne delle tendenze. In questo
senso, il terzo paragrafo mostra un’applicazione dimostrativa di data/text
mining utilizzando Twitter come social network da cui trarre le informazioni
e R come linguaggio in cui sviluppare le tecniche statistiche all’interno del
codice di programmazione. Tale paragrafo definisce una delle opportunità per
il Marketing generate da strumenti che solo una decina di anni fa non
esistevano e mostra molto chiaramente quanto sia trasversale l’ambito in cui
si può sviluppare la data science: dalla statistica all’informatica, dalla
comunicazione alle vendite.
27
2.1 Applicazioni e sfide nel Marketing
16384
8192
4096
2048
N° documenti prodotti
1024
512
256
128
64
32
16
8
4
2
1
Anni
28
Le origini di una prima implementazione dei Big Data nel marketing sono da
ricercarsi in due motivi principali: lo studio dei consumatori è sempre stata
una sfida per i marketers, che dunque possiedono già una buona propensione
all’analisi dei dati; i clienti hanno cambiato il loro modo di vedere le cose e di
percepire i vari prodotti attraverso nuove strategie basate su impressioni e
sentimenti individuali.
La crisi economica e le dinamiche del web hanno stravolto i valori della
società e, di conseguenza, anche questa funzione deve trovare la forza per
innovarsi, ridefinire i propri confini ed avviare il cosiddetto processo di fine
tuning con il mercato. Tale processo, si definisce come l’abilità di
raggiungere una maggiore sintonia con il cliente utilizzando le varie tecniche
di advertising: campagne pubblicitarie, sponsor e così via.
La classificazione dei consumatori è sempre più complicata. Infatti non è
quasi più possibile raggruppare per categorie e stili di vita, in quanto il
comportamento degli individui può variare radicalmente, a volte anche in
modo contrastante, a seconda del momento specifico in cui si trovano e degli
stati d'animo provati in quel momento, a seconda delle variabili presenti
nell'ambiente esterno e alle dinamiche sociologiche che appartengono a
determinati contesti. Oggi, i consumatori cercano nei prodotti l'affermazione
della propria identità e contemporaneamente, i brand, tramite il loro
posizionamento sul mercato, cercano di definire la propria identità.
Hal Varian, chief economist di Google, definisce come “le aziende ‘data rate’
non solo devono avere la capacità di raccogliere informazioni, ma ben più
importante è saperle utilizzare per conoscere più a fondo la clientela. Le
capacità di analisi fanno la differenza, e sono quelle che formano il gap (tra
aziende di successo e non). Probabilmente il lavoro più richiesto e appagante
nei prossimi dieci anni sarà quello dello statistico”. (Varian, 2015)
La funzione del marketing, in particolar modo, recepisce informazioni di ogni
tipo, non solamente dai sistemi tradizionali di customer service, ma sempre
più dai siti web, social media ed e-mail. Inoltre, le dinamiche di acquisto
provenienti da più canali danno modo di conoscere meglio i potenziali
acquirenti e di coinvolgerli in campagne pubblicitarie dedicate, con
29
l’obiettivo di incrementare i ricavi lungo tutte le fasi del rapporto
commerciale. (http://www.experian.it/ufficio-stampa/2012-no08-la-sfida-dei-
big-data-il-marketing-come-organizzazione-data-driven.html)
I Big Data consentono alle organizzazioni di creare segmentazioni altamente
specifiche e di adattare i prodotti e i servizi alle esigenze dei consumatori.
La condivisione di contenuti sul web è diventata di uso comune e sempre più
ricorrente: si instaurano relazioni fra utenti da ogni parte del mondo, si
trasmettono immagini o video che in breve tempo possono diventare virali e
scaturiscono pareri ed opinioni sui vari blog e social.
Tali azioni rappresentano un’opportunità per le aziende, in quanto
involontariamente ogni individuo può produrre contenuti utili alle analisi di
marketing. Grazie allo sviluppo tecnologico e alle modifiche dei
comportamenti dei consumatori, prima attori statici ed ora prosumer,
attraverso l’analisi dei Big Data, i marketer dovranno considerare i dati che
rispecchiano la pluralità delle opinioni, ma anche i cosiddetti outliers, che in
materia vengono rappresentati soprattutto dalle osservazioni proposte dagli
influencer negativi.
La Market analytics (Desai, Steier e Verma, 2012) permette la comprensione
degli specifici trend e dei comportamenti aggregati come le previsioni,
l’elasticità al prezzo e le market basket analysis. Le analisi di mercato
consentono al retailer di analizzare una grande quantità di dati per far
emergere i modelli di comportamento degli utenti, monitorando la brand
awareness con i dati dei social network.
In base al report di Euromonitor (Euromonitor International, 2012), l’analisi
dei consumatori fornisce una base quantitativa per le decisioni e aiuta i
manager di marketing a sviluppare strategie innovative e vincenti, grazie ai
seguenti vantaggi:
30
Monitoraggio delle prestazioni;
Identificazione delle tendenze emergenti di soddisfazione del cliente.
31
analisi che possono essere di differenti categorie: budgeting, marketing mix,
scenario planning, report.
I Big Data hanno ancora molta strada da percorrere nel marketing, ciò è stato
dimostrato da un recente studio condotto dalla Columbia Business School
(Rogers e Sexton, 2012) in cui sono stati intervistati 253 corporate marketing
decision makers, che ha evidenziato come non sia ancora stato raggiunto
l’apice dello sviluppo:
32
il 91% dei senior corporate marketing ritiene che le imprese per avere
successo debbano utilizzare e custodire i dati, al fine di guidare le
proprie decisioni di marketing;
il 39% afferma che i dati della propria azienda non vengano raccolti
abbastanza frequentemente;
il 29% degli intervistati nel report afferma che l’ufficio marketing
della loro realtà non abbia abbastanza dati per prendere decisioni in
tempo reale.
33
2.2 La Sentiment Analysis
34
Per blend data intendiamo tutti i dati combinati riguardanti i clienti, che
vengono analizzati tramite i vari modelli statistici – sotto la seconda freccia
(build model) della tabella – fra cui: regressioni logistiche e lineari, neural
networks, blog mining (o text mining) ed il modello più caratteristico del
marketing, cioè la Market Basket Analytics. Nell’ultima freccia vediamo
l’analisi vera e propria basata sui due driver sopracitati.
L’ascesa dei social media e dei contenuti generati dagli utenti (recensioni,
valutazioni, suggerimenti, opinioni on-line) hanno alimentato l’interesse
verso la sentiment analysis, creando nuove opportunità per le aziende che
gestiscono attivamente la loro reputazione online.
La sentiment analysis è un’applicazione di data/text mining ai social network,
capace di raccogliere in tempo reale, le reazioni degli utenti o trend in
relazione a un qualsiasi evento, locale o globale che sia. L’analisi si configura
come un’attività di identificazione, estrazione, etichettatura e rielaborazione
di informazioni legate ad uno o più brand attraverso software di elaborazione
del linguaggio e linguistica computazionale. Tali software raccolgono
costantemente dati da diverse piattaforme (blog & forum, social network
classici – Facebook, Linkedin,..-, siti di annunci, recensioni, piattaforme di
condivisione foto e video – Instagram, You Tube,..-) e, prendendo in
considerazione una o più porzioni di testo (ad es. il nome di un brand, di una
persona, o un argomento), ne determinano: il tono, ovvero l’opinione positiva
o negativa, l’intensità e l’emotività con cui questa viene espressa (attraverso
l’uso di aggettivi, punteggiatura, emoticons, ecc) e la rilevanza dell’oggetto
d’analisi rispetto al contesto.
L’obiettivo, dunque, è determinare l’attitudine di chi ha pubblicato un
contenuto legato al brand e la polarità contestuale (positiva, neutra, negativa).
Oltre alla Web Reputation, la cui definizione prevede il monitoraggio in
tempo reale delle opinioni espresse su Internet, in merito ad un’azienda, un
marchio, un prodotto o un servizio, si stanno sviluppando ulteriori
metodologie di ricerca e analisi:
35
Social Network Analysis: individuazione dei flussi e degli snodi di
comunicazione;
Viral Tracker: tracking delle campagne di buzz marketing e
monitoraggio delle conversazioni on line sul brand.
Una strategia efficace per la sentiment analysis prevede una fase iniziale in
cui s’individuano e si catturano tutte le conversazioni online che trattano di
un determinato brand, prodotto o settore di business, disponibili sui social
network, sui forum, blog, magazine online, etc. In questa fase, è necessario
esaminare con attenzione le fonti e filtrarle.
La seconda fase prevede che i dati ottenuti siano rielaborati da esperti nella
sentiment analysis e nel campo dell’audit online, in modo da avere
un’interpretazione corretta dei giudizi degli utenti e sviluppare una
pianificazione d’interventi adeguata all’obiettivo.
( http://mate.it/index.php/it/bigdata/sentiment-analysis)
Dopo la fase di impostazione in cui vengono definiti l’oggetto della
rilevazione, la profondità ed il dettaglio dell’output, lo strumento di sentiment
analysis permette la definizione dei seguenti indicatori:
36
I diversi indicatori Social riguardano i volumi giornalieri, gli Share of Voice, i
dati demografici, i Tag Author e una probabile mappa geografica della
distribuzione dei dati.
Al fine di favorire un monitoraggio corretto del sentiment è essenziale
eseguire dei fine tuning settimanali, delle ricerche correlate al brand,
attraverso l’utilizzo di parole chiave negative.
37
supervised learning, dove il sistema riceve, nella fase iniziale di
training, un insieme di dati già classificati ed etichettati ed in seguito,
acquisisce conoscenza ed esperienza per classificare i successivi;
unsupervised learning dove il sistema riceve, nella fase di training,
una serie di dati non etichettati che verranno classificati sulla base di
caratteristiche comuni. Al contrario dell’apprendimento super-
visionato, le classi non sono note a priori ma devono essere apprese
automaticamente.
(http://www.intervistato.com/)
38
2.3 Il Caso Twitter/R
“Fare sentiment analysis significa ascoltare quello che gli utenti pensano ed
analizzare le loro opinioni, senza sollecitarle. In questo modo, è possibile
elaborare ed analizzare informazioni pure, avendo a disposizione campioni
molto vasti. La differenza è notevole, se si pensa ai sondaggi telefonici o alle
analisi di mercato classiche basate sui focus group, dove le persone non
rispondono quasi mai sinceramente.” (S.M. Iacus, 2014)
39
una certa zona (ricerca geolocalizzata). In questo senso, sono stati selezionati
i tweet provenienti da utenti italiani.
Un esempio di modello statistico utilizzato, consegue alla creazione di un
modello di stima binaria, attraverso l’impiego della classificazione logistica
multi classe – LC -. Se identifichiamo due parametri X e Y, dove Y assume
valori compresi tra 0 e 1 (nel caso binario), LC tende a identificare la
probabilità che Y appartenga a una particolare keywords – negativa (0) o
positiva (+1).
Analiticamente, per identificare una funzione logistica binaria di risposta, si
deduce la seguente formula:
40
β0 e β1 sono i parametri sconosciuti da stimare; per questo si utilizza in genere
la Maximum Likelihood Estimation, che permette la stima della probabilità
p*(y) che corrisponde ad uno stimatore che si avvicina il più possibile al
valore osservato. Perciò, si ricercano β0 e β1 (stimatori), al fine di inserirli nel
modello p(y) e fornire una risposta che sia vicina a: 0 per i sentimenti
negativi e 1 per i sentimenti positivi. Di seguito, si inserisce la funzione
Maximum Likelihood, dove gli stimatori sono scelti per massimizzare tale
funzione:
41
funzione “searchTwitter”. La prima va composta con una serie di token messi
a disposizione da Twitter quando si crea l’applicazione:
setup_twitter_oauth(api_key,api_secret,access_token,access_tok
en_secret).
SearchTwitter(“Expo2015”,since=“2015-10-31”,n=10000,lang=“it”)
42
tryTolower=function(x) {
y <- NA # Create
Missing Value
# TryCatch Error
try_error=tryCatch(tolower(x), error=function(e)
e)
if (!inherits(try_error, "error")) #if not an
error
y <- tolower(x)
return(y) # Result
}
# Use trylower with sapply
sentence <- sapply(sentence, tryTolower)
word.list <- str_split(sentence, "\\s+") # Split
Sentence
words <- unlist(word.list)
# Compare Words to the Dictionary of Positive or
Negative
pos.matches <- match(words, pos.words)
neg.matches <- match(words, neg.words)
# To Get the Position of the Match Term or NA # Being
TRUE or FALSE
pos.indx <- pos.matches[!is.na(pos.matches)]
neg.indx <- neg.matches[!is.na(neg.matches)]
pos.matches <- length(pos.indx)
neg.matches <- length(neg.indx)
score <- sum(pos.matches) - sum(neg.matches) # Final
Score
return(list(score, pos.indx, neg.indx))
}
calcStats <- function(scores) {
# Calculate Stats of Total,Positive and Negative Tweets
# Average Positive Score, of Neutral Tweets, # Negative Tweets
# Find Totals
ntot <- length(scores)
npos <- sum(scores>0)
nzero <- sum(scores==0)
nneg <- sum(scores<0)
43
if (npos !=0) # Find
Averages
avpos <- sum(scores[scores>0])/npos
else
avpos <- 0
if (nneg !=0)
avneg <- sum(scores[scores<0])/npos
else
avneg <- 0
return(c(ntot, npos, nzero, nneg))
}
A seguito dell’inserimento di tale codice dunque, la funzione findScore ha
scansionato ciascun vocabolo presente in ogni tweet, ricercando una delle 64
keywords (32 positive e 32 negative) inserite nei due dizionari ed ha restituito
un valore numerico positivo o negativo.
Se troviamo ad esempio un valore uguale a 2, sapremo che uno dei 10.000
tweet analizzati presenta due delle keywords positive presenti nel nostro
dizionario. Inoltre, se quelle due parole esprimevano un “sentimento”
negativo, la funzione restituirà un valore pari a -2.
L’immagine seguente, definisce la generazione dei calcoli statistici per mezzo
della funzione CalcStat e la data mining su R, al fine di trarre le conclusioni
della nostra ricerca.
44
#SentimentExpo2015
Tweet positivi
42%
Tweet negativi
58%
45
3. Gli sviluppi nello Human Resource Management
In questo capitolo, l’attenzione verte sulle opportunità offerte dai Big Data
per lo sviluppo e l’innovazione dello Human Resource Management.
L’interesse di tale funzione per questo ambito, come si evince dal grafico
presente nel primo paragrafo, è più recente rispetto ad altri.
Molte aziende si stanno muovendo per innovarsi, consapevoli dell’immenso
potenziale presente nei dati dell’HR. In questo senso, si definiscono cinque
vie di applicazione dei Big Data: Talent Recruitment, Talent Training, Talent
Assessment, Pay-Performance e Employee Career Management. Nella
convinzione che anche la funzione HRM debba fornirsi delle analisi
statistiche per aumentare l’efficienza e la conoscenza del suo “cliente” più
prossimo, ovvero il lavoratore, il secondo paragrafo definisce il percorso che
ha portato alla nascita delle HR Analytics, ne contestualizza l’ambiente di
sviluppo e le opportunità che da queste derivano. Per concludere la
trattazione di questa area aziendale, si vuole mostrare un’applicazione che sia
in grado di creare valore e possa servire come fonte d’ispirazione per le
aziende che hanno ancora colto il vantaggio competitivo di un’ottimizzazione
dei flussi di dati HR. In questo senso, si analizzano alcuni dei servizi offerti
dalla piattaforma HR Global Solution e si inserisce una best practice
tecnologica di successo, il caso Zucchetti – Fininvest.
46
3.1 Applicazioni e sfide nell’HRM
4096
2048
1024
512
N° documenti prodotti
256
128
64
32
16
8
4
2
1
Anni
47
Sales (35%). Questi processi di business, però, non saranno gli unici ad
evolversi grazie all’IT, anche il concetto di capitale umano e di change
management è cruciale per il successo nelle nuove realtà di mercato,
configurandosi come un ampliamento del campo di azione dei Big Data, un
ambito emergente con un alto potenziale che inizia ad essere presente nei
documenti accademici e, di conseguenza, nelle iniziative delle imprese.
(http://www.programmatic-italia.com/big-data-analytics/politecnico/)
Le prime ricerche di management codificavano diari e tecniche di time
management dei CEO; oggi, grazie all’utilizzo dell’analytics, è possibile
studiare intere organizzazioni e gruppi lavorativi, pressoché in tempo reale.
Essi possono essere un potente mezzo per l’analisi dei caratteri individuali e
dei team, utilizzando dei sensori indicativi per (i) “tracciare” gli individui, (ii)
capire il loro grado di coesione nel lavorare insieme, (iii) capire come si
muovono all’interno degli spazi aziendali, o spendono il loro tempo
interagendo con gli altri membri del team.
I Big Data cambieranno lo scenario di policy e ricerca socio-economica e la
loro natura poliedrica e continua si riflette in un vantaggio per gli studiosi, in
termini di occasioni per focalizzarsi sulle microfoundation delle strategie e
dei comportamenti organizzativi. Un così immenso volume di dati può
suggerire ulteriori conoscenze riguardo i posti di lavoro e le pratiche di HR
adottate più di quanto possano fare i metodi convenzionali, avendo la
capacità di trasformare le teorie e le pratiche di management (George, Haas e
Pentland, 2014).
La sostituzione e l’aggiornamento delle piattaforme di gestione HR, ha
l’obiettivo di rispondere alla necessità di interfacciarsi con un gran numero di
curriculum, statistiche e report, applicando strumenti di misurazione e
reporting analitici.
Gestire questa funzione attraverso i dati, rappresenta una sfida importante per
i Big Data. Se per quanto riguarda la gestione delle vendite ci si basa sui
risultati economici, nell’HRM la situazione è molto più complessa. La prima
caratteristica facilmente riconoscibile infatti, è l’innumerevole natura e
tipologia di dati generati dal dipartimento HR:
48
dati relativi al percorso professionale: seniority, impieghi
precedenti, promozioni, esperienza pratica, datori di lavoro
precedenti;
dati sulle prestazioni: valutazione delle prestazioni in relazione al
raggiungimento degli obiettivi, progetti realizzati, riconoscimenti
ottenuti, prestazioni personali;
skill e capacità: titoli di studio, corsi di formazione interni ed esterni,
autovalutazioni, partecipazione a programmi executive;
dati sulla retribuzione: bonus, riconoscimenti, premi di produzione;
dati sul coinvolgimento dei dipendenti (attività social): post sul
blog aziendale, documenti su intranet, suggerimenti e commenti
forniti dai dipendenti;
dati sulla persona: dati sul reclutamento non inclusi nel database del
sistema ERP/HR.
49
Talent Recruitment
50
all’employer branding e si definisce come l’ambizione di quel candidato a
lavorare in quell’azienda, perché ne riconosce il prestigio.
Gli head hunter o più semplicemente recruiter, grazie ai social network,
possono trovare diverse informazioni sui candidati attraverso foto e video
personali, lo stile di vita, le relazioni sociali, le abilità, ecc., in modo da
delineare con maggior precisione l’immagine del candidato, raggiungendo un
accurato "person-post matching" (Dong et al, 2014). Il processo in cui si
raggiunge il perfetto matching tra il candidato, il recruiter e,
conseguentemente, l’alta probabilità di essere assunti in azienda viene
descritto come una win-win.
Talent Training
51
interessante, assicurandosi quindi l'effetto di apprendimento, viene richiesto
ad ogni dipendente di dare un feedback in qualsiasi momento.
Grazie all’apprendimento dei dati, dopo un certo periodo di tempo, il
software sarà in grado di prevedere i possibili punti di miglioramento della
persona (He Y., 2013) ed i manager potranno monitorare in background lo
stato di apprendimento dei dipendenti e valutare l’effettiva acquisizione e
padronanza di nuove competenze.
Talent Assessment
52
Pay-Performance
53
lavoratore o manager. Combinando la gestione di carriera tradizionale e i Big
Data, le imprese hanno l’opportunità di sfruttare appieno questi due modi di
esplorare il percorso di carriera del dipendente, di fornire un orientamento
personalizzato, ed infine ridurre il turnover del personale, raggiungendo una
situazione win-win tra imprese e dipendenti.
54
3.2 HR Analytics
55
l’applicazione di sofisticati processi di data mining e business analytics, al
fine di consentire agli HR manager di definire un piano strategico conforme
agli obiettivi d’impresa, comprendendo elementi utili ad analizzare le diverse
funzioni in maniera accurata. In questo senso, dalla collection di dati le
aziende monitorano l’efficienza dei progetti, l’assenteismo e le performance
di ogni dipendente ( Bartels S., Richey J., 2008), effettuando previsioni sul
turnover aziendale e sui futuri movimenti delle unità di risorse umane,
valutazioni sul risk management, analisi sui livelli di retribuzione dei
dipendenti e quant’altro.
L’HR Analytics si configura dunque, come una soluzione atta a estrarre
insights, ovvero informazioni utili per relazionare le strategie ai risultati di
business e permettere all’HRM di identificare opportunità di cost savings,
migliorare l’engagement dei dipendenti ed incrementare la forza produttiva e
l’efficienza aziendale (Higgins J. , Cooperstein G. e Peterson M., 2011 [3]).
Come già visto nel primo paragrafo, gli ambiti di implementazione dei Big
Data nella funzione HR non hanno confini e comprendono tutti i core
aziendali, dai più conosciuti a quelli più specifici, quali: Talent Analytics,
Workforce Management e Workforce Planning Process.
56
Human Resource Management possa essere trattato interamente con modelli
di analisi quantitative ed ha raggiunto uno straordinario successo nel mercato,
concentrandosi sul cosiddetto people management (Sullivan J., 2013).
L’articolo “How Google is using people analytics to completly reinvent HR”
spiega due punti fondamentali della loro vision :
57
dipendenti e per commisurare la loro produttività. L’obiettivo è quello di
permettere ad ogni membro di crescere professionalmente, avendo la
possibilità di ampliare le competenze e migliorare le performance future che,
inevitabilmente, consentiranno un aumento della produttività e la generazione
di maggiori profitti per l’impresa.
Lo studio pubblicato da KPMG (2014), ha indicato che la maggior parte dei
team HR riconosce il potenziale della Business Intelligence, ma continua a
compiere misurazioni e operazioni generiche e basilari e per questo, solo il
31% delle imprese pianifica di investire nella Data Analytics nell’arco dei
prossimi tre anni. In contrapposizione a ciò, è possibile constatare che nel
2015, il 56% dei leader HR ha utilizzato la Talent Analytics e gli insights
all’interno dei processi di pianificazione delle workforce, tra questi il 73%
pensa di aumentare l’efficienza del Workforce Planning Process.
Quest’ultimo è definibile come Workforce Analitics, ovvero un approccio
che contiene elementi di BI e consente il passaggio dai consueti sistemi di
reporting delle Risorse Umane ai modelli predittivi. Un esempio rilevante
sull’impatto di tale passaggio è stato dato da Oracle che, in tre settimane, è
riuscita a prevedere i top performers che avrebbero abbandonato
l’organizzazione e la motivazione per cui l’avrebbero fatto.
La dimostrazione del “potere dei dati”, ha portato cambiamenti nelle policy
internazionali facendo ricredere le aziende più scettiche e determinando la
volontà di quelle più lungimiranti, di passare da attività di reporting –
strumenti per valutazioni a posteriori di dati aziendali - ad attività di
predictive. Tale transizione equivale alla ridefinizione di un tradizionale
orientamento al passato (“guardarsi indietro”) in un orientamento al futuro
che punta sulle interpretazioni di data mining.
L’HR Analytics, nuovo baluardo professionale nell’HRM, attraverso
approfondite analisi su Big Data relativi alle persone, permette di rispondere
alla richiesta di una maggiore praticità di tale settore dando la possibilità di
effettuare una valutazione scientifica sui talenti, mappare competenze ed
abbinarle ai profili richiesti, dare valore al capitale umano, coinvolgere e
motivare i dipendenti nella modalità più ottimale, individuare gruppi simili di
58
individui che possano essere coinvolti in modo analogo, studiare i team e i
tipi umani maggiormente propensi al lavoro di gruppo, effettuare test sui
candidati, ecc...
Ad ogni modo, i dati quantitativi da soli non bastano, la dimensione umana
non può che restare un dato fondamentale nell’interazione tra persone. I data
scientist dunque, non potranno fare a meno di valutare trend socio-culturali e
caratteristiche psicologiche e personali dei dipendenti, in un processo
virtuoso che unirà analisi numeriche e valutazioni qualitative del dato umano.
Nessuna bussola statistica potrà – da sola – determinare le scelte strategiche
nel “fluido” mondo delle interazioni sociali e degli individui, ma senza
dubbio aiuterà a definire in un modo più chiaro e profittevole tale funzione
aziendale.
59
3.3 Il Caso Zucchetti - Fininvest
Zucchetti è una società per azioni con oltre 2800 dipendenti, leader a livello
nazionale ed internazionale nel settore dell’Information and Communication
Technology (ICT). L’azienda nasce nel 1978, da un avviato studio di
commercialisti, con l’intento di creare un elaboratore automatico delle
60
dichiarazioni dei redditi. Nei trent’anni successivi alla fondazione, Zucchetti
ha scelto di diversificare i suoi servizi, sviluppando una serie di software e
hardware capace di soddisfare i bisogni di aziende di settori diversi e della
moltitudine di dipartimenti aziendali. Tra le soluzioni offerte dall’azienda
troviamo la gestione contabile e fiscale, i gestionali ERP e CRM ed
ovviamente la gestione delle risorse umane, per il quale si è mossa
recentemente con la nuova suite HR Global Solution.
61
L’HR Analytics Zucchetti si configura come uno strumento capace di
permettere una visualizzazione rapida e semplice delle informazioni presenti
sui principali fenomeni del personale per poter valutare l’andamento rispetto
ai KPI aziendali. In tal senso, l’HR Analytics va ad integrarsi nelle varie
soluzioni di efficienza: dal Workforce Management dove si fornisce un
software per l’analisi della produttività di ciascun dipendente, al Talent
Management, in cui si implementano tali strumenti: pianificazione e
monitoraggio dei costi del personale, identificazione delle aree critiche in
termini di skill e conoscenze, selezione delle risorse ad alto potenziale e di
quelle che invece necessitano di percorsi formativi specifici. L’innovazione
che si propone di portare l’azienda, oltre ad un aumento della produttività, è
la visione empatica che si ricerca nella visualizzazione e analisi dei dati
aziendali e del personale. L’HR Analytics Zucchetti si fonda sulla creazione
di cruscotti – o dashboard - già predisposti che ricevono automaticamente i
dati presenti dal portale HR e restituiscono immediatamente dei semplici
indicatori grafici che fanno capire la situazione interna dell’azienda.
A testimonianza di ciò, fra i vantaggi dichiarati dall’azienda stessa sull’HR
Analytics Zucchetti, troviamo in primis la visualizzazione delle
informazioni, ovvero la possibilità di poter visionare i dati senza fogli di
Excel, ma con degli indicatori definiti – quali ad esempio “smile” o i segnali
verde/giallo/rosso, ecc. - che permettono di: valutare se la gestione è in linea
con gli obiettivi prefissati; far risparmiare tempo di comprensione ed
elaborazione, specialmente quando la mole di dati è notevole. Fra gli altri,
vanno sottolineati: il supporto decisionale dato dalla disponibilità delle
informazioni sul personale in modo chiaro; e la perfetta conoscenza di tutti i
processi d’interesse, quali: l’andamento delle assunzioni, delle retribuzioni,
delle promozioni, dell’assenteismo, del turnover, ecc.
Le soluzioni Global HR Solutions di Zucchetti, sono state insignite per tre
anni di fila del MIP Innovation Award, una di queste per via del caso
Fininvest (2012), dunque non si può certo dire che non si possano
raggiungere dei risultati, implementando l’innovazione e l’IT nello Human
Resource Management.
62
La holding del gruppo Fininvest vede la presenza di circa 20.000 addetti ed
una realtà aziendale molto complessa caratterizzata dalla presenza di 8 diversi
contratti collettivi di lavoro che coinvolgono categorie di impiegati con
esigenze molto differenziate tra loro, una forte presenza di personale
viaggiante e forti esigenze di correttezza e tracciabilità dei dati
amministrativi. In questo senso, Zucchetti ha introdotto una piattaforma di
servizi web-based totalmente integrata che poggia su un unico database dove
sono presenti tutte le informazioni profilate per ogni dipendente – HR Portal
– e che viene gestito attraverso un data center virtualizzato capace di
garantire alti livelli di performance e affidabilità. Inoltre, si sono sviluppati
specifici servizi e informazioni personalizzate, al fine di rispondere alle
esigenze delle differenti categorie di dipendenti, disponendo per ciascuno di
essi, un accesso profilato che consente all'azienda di segmentare le
comunicazioni e offrire servizi dedicati in base alle caratteristiche della
mansione. Sono stati poi introdotti anche sistemi di BI e Big Data Analytics,
che consentono il monitoraggio e il controllo dei processi amministrativi
secondo determinati KPI supportando il miglioramento continuo dei servizi
offerti e garantendo la tempestività e la qualità dei dati raccolti. L'interfaccia
del sistema assolve, inoltre, una funzione informativa a supporto dei manager,
i quali possono trovare sul portale, informazioni puntuali sulle proprie risorse.
Grazie alla soluzione HR Zucchetti, Fininvest è riuscita ad ottenere un
miglioramento nella gestione dei processi amministrativi, riducendo del 30%
il tempo dedicato ad attività a basso valore aggiunto. Inoltre, per quanto
riguarda i sistemi di BI e BDA, i requisiti di qualità e sicurezza interni ed
esterni sono stati soddisfatti grazie a un più efficace monitoraggio degli
indicatori di performance di processo; l’ottimizzazione delle attività di
interscambio informativo ha consentito la riduzione del 70% delle attività di
front-end verso i dipendenti e del 50% di quelle di reporting.
63
tutte le imprese, grandi o piccole che siano, per fare in modo di creare valore
e attuare delle strategie, è necessario misurare tutto ciò che è misurabile.
“I datori di lavoro hanno a lungo mantenuto e analizzato quantità significative
di dati sui loro dipendenti, senza saperne fare buon uso: date di nascita,
stipendi, valutazioni delle prestazioni, progressione di carriera, e così via.
Questi dati, invece, sono ideali per l’utilizzo di tradizionali strumenti di BI.
Per molte piccole e medie imprese, anche Excel può fare questo lavoro
perfettamente. Naturalmente, oltre a questi ultimi, si ha la necessità di gestire
un insieme di informazioni scritte, – domande di lavoro, pratiche interne
all’azienda e con enti esterni, ecc. – che sono meno utilizzabili con la classica
BI. L’ascesa dei social media ha portato a un’ ulteriore esplosione di
informazioni testuali e perfino a informazioni video su dipendenti e candidati.
Queste nuove informazioni offrono evidenti opportunità per i responsabili HR
e per i dipartimenti stessi, al fine di monitorare più da vicino i dipendenti.
Il text mining sulle informazioni online, unito alle informazioni trovate sui
social media, consente – per esempio – l’eliminazione efficiente dei candidati
meno qualificati, o comunque dei meno desiderabili. Mentre la BI
tradizionale opera a livello aggregato, tecniche come il text mining,
l’apprendimento automatico e l’analisi predittiva su informazioni personali
hanno algoritmi di “scoring” e risultati la cui logica di fondo è tutt’altro che
trasparente. Queste informazioni sono solo la punta di un iceberg di dati
personali che stanno cominciando a essere raccolti grazie all’Internet of
Things (IoT). Alcune aziende operanti nel settore logistico, ad esempio, si
sono già adoperate per raccogliere dati provenienti da sistemi di monitoraggio
dei motori dei camion, deducendone in questo modo, gli stati personali e i
comportamenti degli autisti. Grazie agli smartphone, i movimenti dei
dipendenti vengono monitorati in qualsiasi momento, consentendo inferenze
su performance e attività. Le riunioni e le conference call, attraverso i
registratori, possono servire per monitorare i livelli di partecipazione e i
contributi personali forniti. Anche le tecniche di riconoscimento facciale e di
analisi vocale possono essere utilizzate per registrare gli stati emotivi dei
dipendenti. Mentre alcune di queste tecnologie possono sembrare estreme,
64
appena la tecnologia scenderà di prezzo, e l’archiviazione dei dati diventerà
sempre più conveniente, crescerà la tentazione di massimizzare il valore dei
dipendenti a fronte della concorrenza sempre crescente. I tempi in cui i
dipartimenti HR utilizzavano semplici strumenti di BI per classificare i
dipendenti sulla base di salari e valutazione delle performance stanno
passando rapidamente. Le possibilità che emergono dall’analisi dei Big Data
e dall’Internet of Things sfidano l’HR a fare un passo indietro e rivedere con
urgenza considerazioni etiche e di riservatezza nell’utilizzare questi dati per
valutare i candidati, le prestazioni dei dipendenti o dei potenziali candidati. I
confini tra misure reali e accettabili dovranno essere costantemente definiti e
mantenuti.”
65
Conclusioni
If you can look into the seeds of time, And say which grain will grow and
which will not, Speak then to me, who neither beg nor fear Your favours nor
your hate.
— Macbeth, Act 1, Scene 3
Questi versi di William Shakespeare mostrano una chiara visione di come, sin
dalla notte dei tempi, le persone in grado di prevedere i comportamenti futuri,
hanno un vantaggio distintivo indipendentemente dalla loro posizione. Nello
sport, tale predisposizione viene chiamata talento, cioè la capacità di giocare
d’anticipo sull’avversario e capire dove finirà il pallone. A Wall Street, è
necessario comprendere i movimenti del mercato, valutarli, e muoversi prima
degli altri “lupi”, investendo su quell’azione che sarà capace di farci fare
fortuna. Nelle aziende, più di ogni altro ambito, la capacità di fare previsioni
di cui si è fermamente convinti è riferibile ad una infinità di sfaccettature.
Già all’inizio del 2010, l’Economist prevedeva il “boom” dell’utilizzo dei Big
Data, individuandone vantaggi e svantaggi. Tra questi ultimi, individuava
soprattutto nella sicurezza informativa e di protezione dei dati il punto debole
del sistema, tanto da farne il problema
più grande da risolvere negli anni
seguenti. Tuttavia, persino
l’autorevolezza del prestigioso
settimanale economico britannico, non
è arrivata a captare fino in fondo la
portata “rivoluzionaria” che l’avvento
dei Big Data ha suscitato nella realtà
economica e che, in particolare, il
problema da risolvere sarebbe stato
l’implementazione delle tecniche
informatiche adeguate per permettere
di “far comunicare tra loro” le
66
innumerevoli fonti di informazione basate sui big data. A soli cinque anni di
distanza, lo scenario può dirsi considerevolmente cambiato: le applicazioni e
gli strumenti informatici ora esistono, possono essere utilizzati per rispondere
a pressoché tutte le esigenze personali ed aziendali, e hanno creato un loro
spazio parallelo che si interfaccia con tutto il mondo.
Il punto cruciale sui Big Data dunque, focalizza l’attenzione sulle persone che
si occupano di fare business, che dovranno essere in grado di guidare
l’innovazione di ogni funzione aziendale, selezionare e trattenere i profili con
le competenze “giuste” ed implementare le migliori strategie al fine di
sfruttare appieno le opportunità offerte dalle nuove tecnologie e di creare
valore per l’impresa.
In futuro, il trend non potrà che aumentare e, sotto le spinte del progresso
informatico, solamente le aziende che avranno un approccio creativo,
strategico e ben definito, potranno costituire un vantaggio competitivo
sostenibile nel tempo all’interno dei nuovi mercati globali e fortemente
digitalizzati.
“Uno dei motivi per cui ho scelto questo argomento di tesi, è stato l’ambito
trasversale che caratterizza i big data. Usando questi ultimi come strumento,
infatti, ho avuto la possibilità di addentrarmi in due aree aziendali che mi
interessano, il marketing e lo human resource management, da una
prospettiva differente ed innovativa. Inoltre, ho scoperto un “mondo” che è in
continuo divenire, ma spesso non ce ne si accorge. La big data analytics o più
in generale la data science, può sembrare un ambito che prediliga soltanto
delle menti pragmatiche, in realtà, specialmente affrontandola dal punto di
vista della mia tesi, mostra come siano necessarie svariate skill : sia
analitiche, sia creative. Ciò che ho imparato è che alla base della creatività,
per poterla sfruttare al meglio, c’è sempre una strategia comprovata dai dati,
proprio come alla base dei sogni, ci sono sempre due caratteristiche che
determinano la loro realizzazione: la volontà della persona nel volerli
realizzare e le condizioni in cui questa si trova. Esiste un solo modo per
modificare la seconda variabile, ed è l’approccio che si antepone al successo”
67
Bibliografia
• Ambrosini, V., & Bowman, C. (2009). What are dynamic capabilities and
are they a useful construct in strategic management? International Journal
of Management Reviews, 11(1), 29–49.
• Davenport, T. H., Barth, P., & Bean, R. (2012). How big data is different.
MIT SloanManagement Review, 54(1), 43–46.
• Th. Davenport, D.J. Patil Data Scientist: The sexiest job of the 21st century.
Harvard BusinessReview, October 2012, pp 70-76
68
• Diggle J., 2015, Journal of the Royal Statistical Society Series A (Statistics
in Society)
• Dong, X.H., Ying, A. and Guo, J.G. (2014) Research on the Application of
the Big Data Technology in the Network Recruitment. Human Resource
Development of China, 18, 37-41.
• Ebner, K., Bühnen, T., & Urbach, N. (2014). Think big with Big Data:
Identifying suitable Big Data strategies in corporate environments.
Proceedings of the 47th International Conference on System Science (pp.
3748–3757). Washington: DC: IEEE Computing Society.
• Erevelles, S., et al., 2015, Big Data consumer analytics and the
transformation of marketing, Journal of Business Research.
69
• Huang, S.L. and Xiang, J. (2013) “Big Data” Light up “Wisdom” of Human
Resources Management System. Science & Technology for Chinese Mass
Media, 12, 76-78.
• LaValle, S., Lesser, E., Shockley, R., Hopkins, M.S. and Kruschwitz, N.
(2011) Big Data, Analytics and the Path from Insights to Value. MIT Sloan
Management Review, 52, 2.
• Lin, Y., & Wu, L. Y. (2014). Exploring the role of dynamic capabilities in
firm performance under the resource-based view framework. Journal of
Business Research, 67(3), 407–413.
70
• Ma, X., Yao, X., & Xi, Y. (2009). How do interorganizational and
interpersonal networks affect a firm's strategic adaptive capability in a
transition economy? Journal of Business Research, 62(11), 1087–1095.
• McKinsey Global Institute. 2011. Big data: The next frontier for
innovation, competition, and productivity.
• Miller, D., & Shamsie, J. (1996). The resource-based view of the firm in
two environments: The Hollywood film studios from 1936 to 1965. The
Academy of Management Journal, 39(3), 519–543.
• Mithas, S., Lee, M. R., Earley, S., & Murugesan, S. (2013). Leveraging big
data and business analytics. IT Professional, 15(6), 18–20.
• Peter, C., Ebert, E., & Beikirch, H. (2005). A wearable multi-sensor system
for mobile acquisition of emotion-related physiological data. In J. Tao, T.
Tan, & R. Picard (Eds.), Affective Computing and Intelligent Interaction.
Vol. 3784. (pp. 691–698). Berlin: Springer Berlin Heidelberg.
• Provost F., Fawcett T., July 2013, Data Science for Business, 1, 25-26.
• Rogers D., Sexton D., 2012, Marketing ROI in the Era of Big Data,
Columbia Business School
71
• <http://www.iab.net/media/file/2012-BRITE-NYAMA-Marketing-ROI-
Study.pdf>
• Weber, L., & Henderson, L. L. (2014). The digital marketer: Ten new skills
you must learn to stay relevant and customer-centric. Hoboken, NJ: John
Wiley & Sons.
• Wei, L. Q., & Lau, C. M. (2010). High performance work systems and
performance: The role of adaptive capability. Human Relations, 63(10),
1487–1511.
72
• Welsch R., (2012) Data Mining: Finding the Data and Models that Create
Value, R. Welsch MIT Fall 2012
• Zhou, K. Z., & Li, C. B. (2010). How strategic orientations influence the
building of dynamic capability in emerging economies. Journal of Business
Research, 63(3), 224–231.
73
Sitografia
• http://www-01.ibm.com/software/data/bigdata/
• http://www.01net.it/big-data-e-risorse-umane-da-3-a-5-anni-per-
trasformare-i-dati-in-motore-strategico/
• http://www.aleagostini.com/analisi-del-sentiment-27082013.h
• http://archive.wired.com/science/ discoveries/magazine/16-07/pb_theory
• www.athleticbusiness.com/articles/article.aspx?articleid= 3909&zoneid=34
• http://www.beantech.it/author/francesca-magnani/
• http://www.bigdata-startups.com/BigData-startup/southwest-airlines-uses-
big-data-deliver-excellent- customer-service/
• http://www.bigdata-startups.com/geospatial-data-enrich-customer-
experience-drive-revenue/
• http://bits.blogs.nytimes.com/2012/09/07/big-data-in-your-blood
• https://blogs.oracle.com/datawarehousing/entry/stubhub_s_data_scientists_
reap
• http://blogs.wsj.com/cio/2012/06/20/ford-gets-smarter-about-marketing-
and-design/
• http://www.cartesiani.it/il-futuro-delle-hr-passera-dai-big-data/
• http://www.cisco.com/cdc_content_elements/networking_solutions/service
_provider/visual_networking_ip_traffic_chart.html
• http://www.corriere.it/tecnologia/social/14_gennaio_28/social-network-big-
data-sentiment-analysis-spiegata-profani-cce184b0-88a-11e3-bbc9
• http://www.datamanager.it/2014/09/analytics-per-valorizzare-i-talenti/
• http://www.emc.com/collateral/analyst-reports/idc-digital-universe-
2014.pdf
• http://www.euromonitor.com/consumer-analytics/consulting
74
• http://www.experian.it/ufficio-stampa/2012-no08-la-sfida-dei-big-data-il-
marketing-come-organizzazione-data-driven.html
• http://www.fiercebigdata.com/story/google-beta-testing-tracking-mobile-
users-everywhere-they-go-even-when-not/2013-11-13
• http://www.forbes.com/sites/gregsatell/2014/01/ 26/5-things-managers-
should-know-about-the-big-data-economy/
• http://www.forbes.com/sites/kashmirhill/ 2012/02/16/how-target-figured-
out-a-teen-girl-was-pregnant-before-her-father-did/
• http://www.forbes.com/sites/stevebanker/2014/01/24/amazon-and-
anticipatory-shipping-a-dubious-patent/
• http://infotechlead.com/2013/08/27/southwest-airlines-deploys-aspect-
software-customer-contact-solutions-14656
• http://www.integreon.com/pdf/Blog/Grail-Research-Big-Data-Just-Got-
Bigger_232.pdf
• http://www.intervistato.com/
• http://marketshare.com/dev/images/documents/whitepapers/ms_fox_broadc
asting_whitepaper.pdf
• http://www.marketingweek.co.uk/opinion/ritson/amazon-has-seen-the-
future-of-predictability/4009154.article
• http://www.marketplace.org/topics/business/ whats-behind-future-hit-
movies-algorithm
• http://mate.it/index.php./it/bigdata/sentiment-analysis
• http://m.mlb.com/news/2014/02/25/68295956/ mlbcom-at-bat-ready-to-
launch-into-spring
• http://www.mongodb.com/learn/big-data
• http://www.nytimes.com/2012/02/19/magazine/shopping-habits.html
• http://www.oracle.com/us/technologies/big-data/big-data-ebook-
1866291.pdf
75
• http://www.oracle.com/us/products/database/big-data-for- enterprise-
519135.pdf
• http://www.programmatic-italia.com/big-data-analytics/politecnico/
• http://www.togetherhr.com/blog/hr-analytics/
• http://vincos.it/2012/08/30/cose-la-sentiment-analysis/
• http://www.zucchetti.it
• http://www.zucchetti.it/website/cms/case-history-dettaglio/2899-
fininvest.html
76
Dediche e Ringraziamenti
77
Dedico la mia tesi anche a quelle persone che nella vita ci saranno sempre.
Dicono sia meglio avere “pochi amici, ma buoni”, eppure io ho la fortuna, il
piacere e l’onore di poter contare sempre sull’aiuto di “tanti amici e buoni”:
gli amici di vecchia data con cui ho ricordi di ogni genere e gli amici di
Maturità, coloro che, dai tempi del Liceo, mi fanno dire ogni giorno che non
ho perso un anno, bensì l’ho guadagnato. Un ringraziamento speciale va
quindi ai miei “Amici Storici”, con cui sono cresciuto fin da quando avevo 14
anni e con cui spero di continuare a condividere serate da raccontare, viaggi,
avventure e sogni; e agli amici de “La Family”, una compagnia “vecchio
stile” in cui, nonostante le dimensioni, ho un legame splendido con tutti, si
parla di ogni cosa, ci si sostiene a vicenda e si vivono momenti
indimenticabili che mi fanno credere e sperare che saremo sempre così: uniti
e mai domi.
Questa tesi voglio dedicarla anche ai miei colleghi universitari, affinché non
perdano mai la determinazione per conseguire i risultati e la voglia di
festeggiarli; ad Alessandro, l’amico che mi ha reso sicuro nell’affrontare il
mio percorso, e con cui ho condiviso, fianco a fianco, come due cavalli
Mustang, la corsa verso un obiettivo ambizioso: la “laurea lampo”; a Matteo,
nome d’arte “Arte”, uno degli amici storici, che seguendo il mio consiglio di
iscriversi a questo corso, ha condiviso con me quest’ultimo anno universitario
fra battibecchi, risate e festeggiamenti; ai miei colleghi del secondo anno con
il quale ho condiviso soprattutto il primo anno ed alcuni degli ultimi esami; e
ai miei colleghi del terzo, in particolare ad Arianna, Giulia, Paola, Sonia,
Jonathan e Matteo, con i quali ho condiviso i momenti della stesura della tesi
e tutti gli imprevisti universitari che accadono sempre, al fine di rendere il
tutto più rischioso, adrenalinico e, forse, per certi versi, stimolante.
Se “i legami visibili” sono quelli di cui ho scritto sopra, voglio dedicare la
mia tesi anche “ai legami invisibili”, ovvero alle persone che mi sono state
care ed ora vivono lassù, coloro che porto nel cuore, che se alzo gli occhi al
cielo so che stanno badando a me, e grazie ai quali mi ricordo sempre che per
vivere la vita al meglio, bisogna essere “Duri, Aggressivi e Determinati”.
78
79