<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=270060846955571&amp;ev=PageView&amp;noscript=1">

Come ridurre il time-to-market dei progetti di gestione dei Big Data

Ottobre 2018

L'espressione Big Data è stata una buzzword per molto tempo: di gestione, elaborazione e valorizzazione di grandi volumi di dati se ne è ipotizzato, se ne è parlato, sono state presentate piattaforme e soluzioni che ne hanno dimostrato le enormi potenzialità. Sono quindi state adottate dalle frange più innovative del mondo enterprise a livello internazionale. Adesso che il time-to-market per la loro implementazione si è notevolmente ridotto, è arrivato per molte altre imprese, incluse le PMI, il momento di passare dalla teoria alla pratica. Lo chiede il mercato, sempre più frammentato tra i vari canali, tra i quali per orientarsi è indispensabile un approccio data-driven. Lo chiedono i consumatori, che vogliono esperienze d'acquisto intuitive e personalizzate. Lo chiede – anche se a volte inconsapevolmente – l'organizzazione stessa, alla ricerca di modelli collaborativi, processi produttivi e strumenti più efficienti.

I fattori che fino a poco tempo fa rappresentavano una serie di ostacoli oggettivi all'adozione e all'utilizzo di soluzioni di Big data Analytics non ci sono più. O almeno hanno nuove fisionomie. Parliamo delle risorse da investire in software, hardware e competenze per avviare e gestire gli applicativi, ma anche delle risorse necessarie a tenere il passo del rapido incremento sia delle quantità di dati sia della capacità computazionale che occorre a trattarli. Senza contare il tempo per scegliere, installare e far partire i nuovi server. Oggi ridurre sensibilmente il time-to-market di ciascun progetto è possibile. E significa in primo luogo ricorrere a soluzioni “as a Service”, on demand, agili, sfruttando da una parte il Cloud computing e dall'altra architetture e logiche innovative per lo storage e il Data management, anche quando i dati vengono conservati on premise.

 


 

Tutte le risorse a disposizione quando servono, grazie al Cloud

 

Cominciamo dal Cloud che, appianando un contrasto apparentemente insolubile – quello tra standardizzazione e personalizzazione delle soluzioni – ha rivoluzionato tutto: è grazie all'accesso ai marketplace on line che l’azienda può disporre della capacità computazionale di cui ha bisogno in tempi brevissimi, spesso con un solo click. Un database in Cloud, per esempio, consente di attivare con la massima elasticità il numero di server virtuali necessari a garantire la gestione ottimale dei Big Data, in funzione delle reali esigenze aziendali e senza sprechi.

Allo stesso modo, le piattaforme analitiche sono disponibili on line, senza dunque l'obbligo di installazione sull'hardware proprietario, e offrono strumenti e casi d'uso preconfigurati per industry e verticali specifici. Questo vuol dire che, per partire, i sistemi non devono per forza essere rodati attraverso l'ingestione di dati aziendali, ma possono fare leva sulle informazioni di scenario con cui i vendor li hanno istruiti, entrando in produzione da subito e affinando le proprie abilità man mano che vengono utilizzati e alimentati con input contingenti. Non è un caso che il mercato globale stia premiando questo approccio: secondo le previsioni di MarketsandMarkets i Big Data as a Service, e quindi in Cloud, cresceranno del 32% anno su anno fino al 2020, quando il giro d'affari varrà circa sette miliardi di dollari.

 


 

Il Data Lake e l'approccio flessibile allo storage

 

L'altro aspetto fondamentale da tenere in considerazione se si vuole ridurre al minimo il time-to-market delle soluzioni di Big Data Analytics è, come anticipato, quello dell'efficienza dello storage. Più rapido e semplice è l'accesso ai dati, anche non strutturati, più facilmente si potranno avviare i progetti ed espandere, all'occorrenza, il bacino di informazioni da cui attinge il sistema. Rispetto alla logica tradizionale del Data Warehouse, il Data Lake si contraddistingue in questo senso per una serie di caratteristiche che lo rendono ideale nella gestione di grossi flussi informativi. I dati vengono infatti conservati senza rigide tassonomie o strutture gerarchiche: ogni elemento, acquisito con la sua estensione, nel formato nativo, è corredato da tag e metadati che ne permettono l'identificazione e l'estrazione a prescindere dal tipo e dal numero di applicazioni che lo richiedono. Non serve dunque creare dataset ad hoc, e questo riduce sensibilmente volume e ridondanza dei dati immagazzinati. Altro indiscutibile vantaggio del Data Lake è la sua flessibilità rispetto all'aggiunta di nuovi blocchi di memoria. Essendo un'architettura fluida, non necessita infatti dello stesso approccio progettuale indispensabile invece per lo sviluppo di data center classici. Questo si traduce in un notevole risparmio di tempo anche quando si tratta di implementare un Data Lake dovendo partire da zero.