–Di Giuseppe Virgallita
Nel linguaggio comune si sente spesso parlare di “Big Data”, ma ancora più spesso non si riesce a darne una definizione precisa ed univoca.
Preliminarmente, occorre precisare che la stessa espressione Big Data è alquanto fuorviante. Nella sua più stretta accezione letterale, l’espressione “grandi dati” richiama alla mente l’enorme quantità di dati disponibili che produciamo durante quasi tutte le attività quotidiane. Tuttavia, le ingenti quantità di dati prodotte non sempre vengono condivise e rese disponibili a tutti.
Ad ogni modo, con Big Data intendiamo un insieme di dati di volume talmente elevato, parliamo di zettabyte, tale da non poter essere gestito da strumenti convenzionali, bensì da tecnologie innovative idonee a raccoglierli e ad analizzarli. L’analisi dei Big Data è poi utile per fare previsioni su modalità di comportamento, indagini di mercato e consumi, così da prendere decisioni più efficienti.
Oltre a ciò, secondo una definizione coniata da IBM, l’espressione big data può essere impiegata sia in riferimento alla grande velocità con cui i dati vengono generati, sia in riferimento alla capacità, peraltro sempre più crescente, di immagazzinarli, elaborarli ed analizzarli.
I big data inoltre sono stati definiti da Gideon Gartner, nel 2001, come “dei mega dati dotati di risorse informative ad elevato volume, velocità e varietà che richiedono forme di elaborazione delle informazioni economiche ed innovative per potenziare la comprensione, la presa di decisioni e l’automazione dei processi”.
E quindi cosa sono i Big Data?
A partire dalla definizione appena citata, si evince che i big data siano dotati di caratteristiche peculiari (le famose 5V). Vediamole insieme:
- Un elevato volume: il riferimento è all’enorme mole di dati generati ogni secondo. Questa mole di dati non può essere immagazzinata o elaborata dai sistemi convenzionali di gestione dati e richiede, dunque, delle tecnologie speciali e specifiche;
- Un’elevata velocità: parliamo non solo della velocità con cui i dati vengono generati, ma anche della velocità di “spostamento” degli stessi. Contenuti virali e la loro rapidità di condivisione, oppure le procedure che richiedono spostamenti di dati in millesimi di secondo, come i controlli di sicurezza sui sistemi di credito durante le transazioni;
- Grande varietà: si tratta delle varie tipologie di dati che vengono generati, raccolti ed analizzati. Questi possono essere strutturati, ossia organizzati secondo schemi predefiniti e dati non strutturati.
- Veracità: secondo Gartner, i big data possono rivelarsi assai utili per prendere decisioni di ogni specie. Compresa la crucialità dei dati analizzati e processati, si intuisce la fondamentale importanza di effettuare un controllo rigoroso sulla loro qualità.
- Valore: consiste nella capacità di trasformare i dati in valore. Sempre secondo Gartner, una veloce analisi di grandi volumi di dati consente di prevedere, in un’ottica squisitamente aziendale, il comportamento acquisito dei propri clienti/utenti consumatori e proporre idee, beni e servizi il più vicino possibile alle loro reali esigenze di vita.
Ancora, insistiamo sul voler costruire una definizione di Big Data, vediamone una elaborata da McKinsey nel 2011, e ripresa da molti autori contemporanei. Questa descrive i c.d. “mega dati” come dati “il cui volume è talmente grande, da superare la capacità dei convenzionali strumenti di gestione dati, i quali risultano incapaci di raccoglierli, immagazzinarli, processarli”.
Una definizione simile viene fornita anche dalla casa editrice O’Reilly Media che aggiunge, altresì, che “si tratta di un flusso di dati troppo vasto e che si sposta talmente velocemente da non adeguarsi all’architettura concepita per gli odierni database”. Viene specificato, inoltre, che “per riuscire ad estrarre valore da questi dati, occorre avvalersi di un metodo alternativo di elaborazione”.
Un tuffo nel passato!
Per molti decenni, la raccolta con l’annesso immagazzinamento di grandi volumi di dati è stato appannaggio dei Governi. Il primo dispositivo di elaborazione dati è stato concepito nel lontano 1943, nel pieno del secondo conflitto bellico mondiale, ad adopera del governo britannico per decifrare e decriptare le comunicazioni provenienti dal regime nazista. Colossus, questo il suo nome originario, era capace di identificare dei modelli all’interno di messaggi ad una velocità pari a 5 mila caratteri al secondo. Un’enorme innovazione per quel periodo storico.
Successivamente, nel 1965, il governo statunitense ha creato un data center capace di immagazzinare i dati dei cittadini. Con la creazione e lo sviluppo del Web per la raccolta e scambio dati, però, servivano strumenti tecnologicamente più sofisticati. Ecco apparire, nel 1992, il Teradata DBC 1012, ossia il primo sistema capace di memorizzare, processare ed analizzare grandi volumi di dati, pari ad 1 terabyte.
Nel 2005, poi, Roger Magoulas di O’Really Media viene citato come uno fra i primi ad aver utilizzato il termine “big data”, fino ad arrivare ai nostri giorni dove social come Facebook e YouTube hanno contribuito alla crescita esponenziale dei dati on line generati dagli utenti. Infine, con il crescente sviluppo dell’internet of things sono state raccolte grandi quantità di dati provenienti da ogni tipo di dispositivo, facilitando, in questo modo, l’accesso delle aziende a nuove tipologie di dati che, conoscendo le abitudini ed i gusti dei consumatori, consentono alle stesse aziende di “cucire su misura” ed ottimizzare le soluzioni offerte. Così operando, non aumenta solo il volume dei dati raccolti, ma anche la loro varietà.
Definite le coordinate principali sui big data e fatta la loro genesi storica, occorre ora capire come questi mega dati vengano analizzati. L’analisi dei big data, meglio nota come “big data analytics”, che consiste nell’uso di tecniche di analisi altamente qualificate e settoriali su grandi flussi di dati (strutturati, semi-strutturati, non strutturati), allo scopo di descrivere degli eventi e delle situazioni, identificare dei pattern, delle correlazioni e delle tendenze, così da trasformare i dati in utili informazioni per ottimizzare la presa delle decisioni. Infatti, l’analisi dei big data consente a diverse tipologie di attori (analisti, business e ricercatori) di prendere delle decisioni in maniera celere e basate su dati concreti.
L’esempio di azienda leader che mette a disposizione strumenti di intelligenza analitica capaci di gestire questi dati è Microsoft.
I Big Data sono parte della nostra vita quotidiana…più di quanto immaginiamo!
Nella vita di tutti i giorni, l’analisi dei flussi dei big data può essere sfruttata per i più svariati motivi, come, per esempio, per cause inerenti all’interesse pubblico. Pensiamo alle applicazioni da parte di un organismo governativo sulla sicurezza stradale che, sfruttando le grandi potenzialità dei big data, ottiene dati relativi agli incidenti stradali, utili per guidare la pianificazione urbana e rendere più sicure ed efficienti le strade urbane ed extraurbane. Notevoli volumi di dati vengono usati, altresì, in periodo di elezioni sia per conoscere gli orientamenti, i convincimenti e le abitudini dei cittadini, sia per fare previsioni e stime sull’affluenza elettorale.
Altri esempi di applicazione dei big data li troviamo in agricoltura, nell’istruzione ed in ambito sanitario.
Nel campo agricolo, in particolare, le grandi aziende di biotecnologia riescono oggi, grazie all’analisi del flusso dei big data, ad ottimizzare l’efficienza e la produttività delle coltivazioni. Proprio attraverso simulazioni specifiche di coltivazioni, infatti, vengono monitorate le risposte delle piante alle diverse situazioni climatiche o a delle variazioni dell’ambiente. Sulla scorta dei dati raccolti è possibile adeguare, ad esempio, la temperatura, l’acqua e la composizione della terra, al fine di riuscire ad identificare il microclima ottimale per lo sviluppo delle diverse tipologie di piante.
Nel campo dell’educazione sono stati sviluppati, poi, diversi software in grado di sfruttare dati sull’apprendimento degli studenti per proporre piani didattici “su misura” che si adattino alle loro esigenze. Ad esempio, l’applicazione Knewton fornisce al professore le previsioni sui contenuti appresi da uno studente individuando, sulla base di queste, i moduli più adatti al caso specifico.
In ambito medico-sanitario, infine, le potenzialità dei big data sono grandissime: si pensi a dei sensori particolarmente precisi e sofisticati che vengono inseriti nel corpo dei pazienti in cura, ma anche nei vari dispositivi indossabili come orologi o occhiali. In particolare, orologi altamente sofisticati permettono al medico di monitorare lo stato di salute del paziente, ottenendo informazioni sempre più dettagliate e precise, in modo da poter intervenire se necessario in maniera tempestiva. Infine, una grande raccolta di dati permette, in ambito di ricerca farmaceutica, di produrre nuove tipologie di farmaci e terapie più efficaci.
Big Data e Social Media: quale rapporto?
Una menzione particolare va poi rivolta al fenomeno dei social media che, da diversi anni, occupano la vita di milioni di persone. In particolare, nella vita di tutti i giorni, le persone comunicano e raccontano le proprie esperienze di vita personali, le loro preferenze, i loro gusti ed i loro dubbi sui social network, in vari modi (sotto forma di un testo, commento di una foto, video, messaggio privato o utilizzando gli hashtag).
In una recente intervista, Mauro Vecchio, CMO di Datalytics, ha descritto l’importanza dei big data sottolineando:
“che arrivino in veste di consumatori, spettatori, opinionisti o tifosi, i cittadini digitali scelgono i social per la loro immediatezza e universalità”.
Sotto questo punto di vista, i social media sono diventati fonti preziose di dati, che aziende in diversi settori sfruttano ogni giorno, per ottimizzare i loro prodotti ed i loro servizi e per rispondere in maniera rapida alle esigenze dei consumatori in questi canali.
Lo stesso esperto menziona, a tal proposito, l’esempio delle social tv e di come gli spettatori siano assai propensi a guardare programmi televisivi ed a commentarli su canali social. Questo assunto non è valido solo nel mondo dello spettacolo e dell’intrattenimento, ma in qualsiasi altro settore dove la c.d. “brand reputation” può essere valutata e monitorata per l’appunto attraverso tutti i flussi di dati degli utenti stessi. Il monitoraggio continuo delle analisi dei commenti e delle conversazioni attorno ad un brand specifico ed ai relativi prodotti, offre all’azienda una vastissima mole di dati da cui trarre spunto sul come migliorare la propria offerta. Infine, conclude l’esperto, sono nate, nell’ultimo decennio, piattaforme apposite che consentono il continuo monitoraggio dei big data derivanti dai social media che, analizzando il pensiero degli utenti/consumatori finali, forniscono informazioni utili al fine di evitare eventuali crisi social che coinvolgano il marchio, i suoi prodotti e la relativa area merceologica.
Privacy e Big Data
Tutto questo proliferare di dati e di nuove opportunità per il mondo del business, delle competenze multimediali e delle nuove tecnologie, ci pone dinanzi al problema della privacy. Affrontare dal punto visto giuridico il fenomeno dei Big Data, ci impone sin da subito di approfondire le numerose problematiche inerenti al trattamento dati personali, sempre più preziosi, parafrasando un antico detto, forse anche più dell’oro e sempre più fonte di rischio. Il rapporto fra riservatezza/privacy e Big Data è sempre più complesso ed il Regolamento Ue 679/2016, il “famoso GDPR” entrato in vigore dal 25 maggio 2018, lo ha reso ancor più complicato a livello europeo.
Beh, abbiamo già dato tante informazioni, che ne dite se ne discutiamo al prossimo appuntamento?
Leggi il nostro articolo focus su Big Data Analytics
Se vuoi un punto di vista dedicato ai decision maker, leggi questo articolo:
https://iwsconsulting.it/articoli/big-data-analytics-per-lintelligence-aziendale-come-trarre-il-massimo-beneficio/