Big Data e performance management: l'importanza di separare dati utili e "bad data"

bad dataStreamSets ha diffuso i risultati di un sondaggio di Dimensional Research sull’influenza dei “bad data” nell’ambito del performance management. Il sondaggio include le risposte di 314 professionisti del data management di tutto il mondo e ha l’obiettivo di comprendere come le aziende gestiscano i flussi di dati, indagando in particolare le funzionalità degli strumenti, la qualità dei dati e gli sforzi di mantenimento delle infrastrutture per i big data. L’indagine ha rivelato un diffuso inquinamento dei dati in quanto le aziende si trovano ad affrontare criticità che riguardano la mole di dati a disposizione e la conseguente incapacità di fermare i “bad data” pur mantenendo la piena operatività del flusso di dati.

Buon primo compleanno Power BI!

La settimana scorsa si è festeggiato il primo compleanno di Power BI service, Power BI Desktop e Power BI Mobile, l’innovativa soluzione cloud-based di Microsoft per la business intelligence. Al momento del lancio, il 24 Luglio 2015, James Phillips, il Vice Presidente di Microsoft Corporation, scrisse che “Power BI dettava lo standard per la moderna Business Intelligence” e da allora Microsoft ha mantenuto lo stesso grande impegno verso la qualità sviluppando e aggiornando l’intera famiglia di Power BI. Anche la risposta del mercato a Power BI è stata davvero eccezionale.

A Febbraio 2016 Gartner ha posizionato Microsoft come Leader per il nono anno consecutivo nel Magico Quadrante “Business Intelligence and Analytics Platforms”.

Big Data: può Spark sostituire Hadoop?

Il termine “Big Data” identifica i dati ottenuti in volumi sempre più cospicui, a velocità crescenti e per una gamma in aumento di formati non strutturati e contesti semantici variabili.

Per ottenere informazioni che portino a prendere le giuste decisioni a partire dai Big Data è necessario però che questi siano analizzabili e accessibili, in modo da avere base adeguata per porre le corrette interrogazioni. Uno strumento che permette di fare tutto questo è Apache Hadoop. Hadoop è un software open source per l’analisi e l’archiviazione di un numero elevato di dati strutturati e non. È stato progettato per garantire la scalabilità da un singolo server a migliaia di macchine, e per rilevare e gestire errori al livello dell'applicazione per una maggiore affidabilità.

Il sito utilizza cookie tecnici e di analisi per il corretto funzionamento e cookie di terze parti (solamente cookie di social media sharing: cookie di terza parte che vengono utilizzati per integrare alcune diffuse funzionalità dei principali social media e fornirle all'interno del sito).
Utilizzando questo sito web si accetta il nostro utilizzo dei cookie come descritto nella Privacy Policy.
Per saperne di più, vedere la pagina Privacy Policy.