La consapevolezza che i dati sono un patrimonio aziendale da gestire e su cui far leva per generare valore, è confermata dall’andamento del mercato Big Data, che cresce nel 2017 più del 20% e che si prevede mantenga buoni andamenti anche nei prossimi anni.
Diversificato appare invece il livello di maturità delle aziende nell’implementare strategie e soluzioni di Big Data. Nella maggior parte dei casi la priorità è ancora legata alla determinazione di un’architettura capace di raccogliere i dati dai vari canali e alla costruzione di un data lake. Il data lake, è alla base dell’architettura Big Data, consentendo di superare la rigidità tipica dei data silos e dei data warehouse e la proliferazione delle banche dati strutturate.
Figura 21: Il mercato italiano dei Big Data

Valori in milioni di euro e variazioni % - Fonte: NetConsulting cube, 2018
Le aziende che sono in una fase più matura, e che hanno già realizzato il data lake, stanno incominciando a strutturare e definire le strategie di Big Data Analytics, cercando di individuare la strategia migliore per ottenere valore dal volume di dati.
Dal punto di vista progettuale le attività si stanno concentrando su due fronti: la costruzione di soluzioni e algoritmi capaci di insistere sui dati e generare informazioni su vari fenomeni di business, e la comprensione degli ambiti di applicabilità prioritari. Per gli algoritmi, l’interesse si sta spostando verso analisi di tipo predittivo, che consentono di simulare, sulla base di taluni comportamenti, cosa potrebbe accadere in futuro. Sono analisi che si basano essenzialmente su tecniche matematiche di regressione. Gli ambiti prioritari di applicazione riguardano l’analisi dei dati dei clienti (anche comportamentali) per aumentare l’efficacia di strategie marketing e commerciali, ma anche di quelli riguardanti le minacce alla sicurezza aziendale, per costruire algoritmi in grado di effettuare previsioni più accurate riguardo a eventuali attacchi.
Al fine di rendere le analisi il più possibile funzionali all’ottimizzazione dei processi e alla loro innovazione, diverse aziende hanno contestualmente iniziato a investire sul Machine Learning che, come già evidenziato, ha nei Big Data la sua principale fonte di alimentazione. Attraverso il Machine Learning applicato ai Big Data è possibile verificare meglio le correlazioni tra i dati (spesso di natura interfunzionale) e generare informazioni difficilmente codificabili ex-ante da un’analista di business.
Nel prossimo futuro, le soluzioni analitiche che andranno a insistere sulle grandi moli di dati, interni ed esterni alle aziende, dovrebbero essere in grado, anche sulla base di ciò che hanno imparato nel corso del tempo, non solo di prevenire i fenomeni ma anche di suggerire il modo migliore per affrontarli.
In un futuro più remoto, dal punto di vista prettamente architetturale e tecnologico, sarà importante capire se le logiche di analisi basate su microcircuiti saranno in grado di garantire la sufficiente rapidità di calcolo. Da questo punto di vista, per affrontare i Big Data del futuro, sarà necessario basare maggiormente il calcolo sulla memoria, su collegamenti fotonici e sul computing quantistico.