Read Aloud the Text Content
This audio was created by Woord's Text to Speech service by content creators from all around the world.
Text Content or SSML code:
Lezione 1 – le quattro “V”- Definizione di big data - le quattro “V", - Filiera, raccolta, acquisizione, memorizzazione Con l’avvento di Internet, il numero di utenti con un effettivo accesso alla rete e la possibilità di condividere informazioni con tutto il mondo è, negli anni, in continua crescita. Con l’introduzione dei social media, in aggiunta, gli utenti sono portati a trasferire sul web una grande quantità di informazioni personali mettendoli a disposizione delle varie aziende. Inoltre, il mondo dell’Internet Of Things, grazie al quale i sensori e le macchine risultano essere agenti sulla rete, permette di avere, per ogni utente, un numero maggiore di dispositivi, direttamente collegati tra loro e alla rete globale. Proporzionalmente a questi fattori anche la mole di dati che vengono generati e immagazzinati sta aumentando in maniera vertiginosa dando luogo alla nascita di un nuovo concetto: i Big Data. La natura massiva delle operazioni di trattamento reca con sé la necessità che tali insiemi di informazioni (sia memorizzate, sia in streaming) siano oggetto trattamento automatizzato, mediante algoritmi e altre tecniche avanzate, al fine di individuare correlazioni di natura (per lo più) probabilistica, tendenze e/o modelli. Operativamente, nel settore dell’ICT, per Big Data si intende una collezione di dati che non può essere acquisita, gestita ed elaborata da strumenti informatici, da software e da hardware “tradizionali” in un tempo tollerabile, benché non esista una soglia dimensionale predefinita affinché un insieme di dati possa essere ricondotto alla categoria dei Big Data (per esempio anche un insieme di dati di qualche GB, in cui ogni record è composto da più di 500 mila variabili, può essere definito Big Data, se algoritmi tradizionali di analisi non riescono a computare un risultato in tempi ragionevoli su un computer di fascia alta).In chiave descrittiva è frequente rinvenire nella letteratura in materia, fortemente influenzata dall’esperienza nord-americana, il richiamo ad alcune caratteristiche ricorrenti rispetto al fenomeno in esame. Il termine Big Data è ormai da anni una parola di tendenza sia nel mondo accademico che in quello industriale, tanto è vero che, se si considera la frequenza delle query di ricerca sul Web (Figura. 1.1) come un’approssimazione dell’attenzione intorno a questo fenomeno, si può osservare come la sua popolarità sia cresciuta enormemente a partire dal 2011.Tuttavia, il grado di popolarità di questo fenomeno non è stato accompagnato da uno sviluppo razionale di un vocabolario accettato. Infatti, lo stesso termine "Big Data" è stato usato con diverse e incoerenti accezioni e manca di una definizione formale e di omogeneità. Le definizioni esistenti forniscono prospettive molto diverse: Big Data è considerato, di volta in volta, un termine che descrive un fenomeno sociale, il patrimonio informativo, i set di dati, le tecnologie di archiviazione, le tecniche di analisi, i processi e le infrastrutture. Nonostante però l’uso del termine “Big Data” sia spesso vago e manchi di precisione, le definizioni più frequentemente utilizzate si riferiscono di solito alla grande dimensione del set di dati e alla necessità di utilizzare potenza di calcolo su larga scala e software e metodi non standard per estrarre valore dai dati in un ragionevole lasso di tempo. Una semplice definizione può ricondursi a Manyika James et nel (2011) secondo cui “Con ‘Big Data’ ci si riferisce a set di dati la cui dimensione va oltre la capacità dei tipici strumenti software di database di catturare, archiviare, gestire e analizzare” . Si tratta volutamente di una definizione in cui il concetto stesso di Big Data è considerato come un obiettivo in movimento e non da vincolare a delle soglie convenzionali che un dataset deve rispettare per essere considerato ‘Big’. Questo perché il volume dei dati catturato secondo la definizione odierna può cambiare nel tempo con l’aumentare delle capacità di archiviazione e di analisi; ciò che oggi, infatti, è possibile con i petabyte, solo pochi anni fa non lo era con i terabyte.