Intervista a Giorgio Alleva
Quali sono le nuove sfide per gli istituti di statistica nel terzo millennio?
Cogliere le trasformazioni in atto e quindi “Misurare” la società e l’economia è diventato un compito sempre più complesso, reso ancora più impegnativo da una domanda crescente di informazioni sempre più dettagliate e tempestive. Rispondiamo a queste nuove richieste lasciando inalterata la consapevolezza di essere produttori, ricercatori e garanti della qualità della statistica ufficiale.
Qual è l’approccio della statistica ufficiale rispetto alle nuove complessità, sia dei fenomeni che dei dati?
Considerate le sfide che l’Istat deve affrontare sono state adottate – così come avviene già in molti istituti di statistica dei paesi avanzati – nuove strategie che prevedono la capacità di integrare dati provenienti da fonti differenti: rilevazioni tradizionali, dati già in possesso della pubblica amministrazione e fonti innovative come i Big Data. Lo scopo è quello di ridurre il fastidio statistico sui rispondenti arricchendo, al tempo stesso, l’offerta, la qualità e la tempestività delle informazioni prodotte.
I quality framework tradizionali sono sufficienti ad affrontare la complessità dei big data?
I Big data, per la loro natura, hanno caratteristiche – ambiente in cui sono prodotti, utilizzabilità, validità, necessità di armonizzazione rispetto alle definizioni e classificazioni della statistica ufficiale – differenti rispetto alle fonti canoniche che rendono, così, i sistemi tradizionali di raccolta e trattamento dei dati non più adeguati. Per queste ragioni l’Istat ha iniziato ad implementare infrastrutture e software per il trattamento dei Big Data (Sandbox e Cloudera) con progetti che coinvolgono imprese, università e centri di ricerca.
L’Istat alla prova dei big data: quali esperienze e sperimentazioni in corso?
A partire dal 2013 l’Istat ha avviato diversi progetti sull’uso dei Big data: Persons and Places (Mobile Phone Data), ad esempio, ha lo scopo di integrare l’uso di dati della telefonia mobile nel processo statistico di stima di flussi di popolazione intercomunale; Labour Market Estimation (Google Trends) potrà essere utilizzato per migliorare le stime prodotte sul mercato del lavoro in termini di previsioni e nowcasting. Altri progetti avviati riguardano l’uso degli “Scanner data” per la stima dei prezzi al consumo; di tecniche di web-scraping per la stima dell’utilizzo di Ict da parte delle imprese e dei “Social media” (Twitter, Facebook) per la stima di indicatori di fiducia.
Quali sono le sfide più importanti ancora da affrontare rispetto all’uso dei Big Data e in generale per gli Istituti di Statistica ?
La sfida principale per l’uso dei Big Data è quella di passare dalla sperimentazione alla produzione. Questo passaggio coinvolge diversi aspetti che vanno dal rispetto della Privacy alla necessità di dotarsi di nuove infrastrutture (metodologiche, tecnologiche, organizzative) nonché di nuove competenze. Stiamo lavorando un questa direzione e lo scambio di esperienze a livello internazionale è fondamentale.