Traggo da The Walking Debt questo bell’articolo sulla funzione ideologica della statistica e sull’uso politico dei dati economici.
Dubitare delle statistiche è atto profondamente eversivo, ed è facile capire perché. I grandi numeri sono la base del ragionare economico contemporaneo, e osservare, pure timidamente, che non c’è alcuna certezza che non sia ipotetica nelle astrussime rilevazione dei istituti che se ne occupano, è capace di far franare la costituente stessa delle nostre economie, basate sul calcolo e la congettura, visto che per calcolare e congetturare servono dati certi.
Ora parrà a molti che questo argomentare appartenga alla percezione dilettantesca di chi, come me, sfogli a volo d’uccello questioni così complesse. Eppure, vedete: non è così. Ci sono fior di studiosi che si occupano di questa roba e fra i tanti ne ho scovato uno, Charles F. Manski, che ha pubblicato un Paper per il NBER eloquente già dal titolo: “Communicating Uncertainty in Official Economic Statistics”.
Capirete la mia sorpresa quando ho scoperto che le mie intuizioni malfondate sono meritevoli di disamina “scientifica”, e addirittura di conclusioni così disarmanti:
“Non sappiamo essenzialmente nulla su come il processo decisionale (quindi della politica, ndr) potrebbe cambiare se le agenzie di statistica comunicassero con trasparenza e con regolarità l’incertezza statistica”.
Già, l’incertezza.
Perché, vedete, il problema è che tutta la statistica, e la comunicazione che se ne fa, si basa su una sistematica rimozione proprio dell’incertezza di tali rilevazioni, che, al contrario, vengono vissute come stime puntuali sulle quali basare le proprie decisioni. Ciò spiega perché il nostro autore proponga alcuni metodi per rilevare tale incertezza e imparare a comunicarla, al fine di evitare errori. Ma non è questo il punto focale. Ciò che conta rilevare è che
“le agenzie governative di statistica riportano i dati come stime puntuali senza accompagnarle con misurazioni degli errori che possono contenere”.
Ne consegue che
“le notizie pubblicate che comunicano le statistiche ufficiali al pubblico presentano le stime con poche o addirittura nessuna menzione sulle possibilità di errori”.
Il dibattito, perciò, spesso si costruisce su dati lanciati in pasto all’opinione pubblica senza un minimo di caveat che potrebbero ridurli a ciò che sono, ossia congetture, e quindi cambiare la natura stessa del dibattito. Faccio un esempio. Di recente l’Istat ha rilasciato il dato sul Pil del primo trimestre 2014, registrando un calo dello 0,1%, che misurato in valore pesa circa 1,5 miliardi di euro di prodotto in meno. Per giorni non si è parlato di altro, in maniera alquanto demenziale, con le borse terremotate insieme alla salute del governo. Lo stesso copione al contrario l’abbiamo visto quando l’Istat ha rilasciato il dato del Pil del quarto trimestre 2013, quando invece l’indice segnava un aumento dello 0,1%. In quel caso furono applausi e sospiri di sollievo.
Ma cosa sarebbe successo se l’istituto avesse messo come caveat che il valore di uno 0,1% di un Pil, distribuito sull’insieme delle voci del prodotto, può facilmente equivalere proprio al margine standard dell’errore statistico di misurazione?
Come vedete, la rimozione dell’incertezza è funzionale al governo delle nostre società. Perché se dubitassimo dei numeri, non potremmo articolare alcun discorso politico sui numeri, dimostrandosi con ciò che l’economia, che si costruisce sulla statistica, è di per sé un atto politico, in barba ai tanto decantati principi di neutralità e scientificità.
Vale la pena, perciò, continuare a leggere il paper di Manski, se non altro per sentirsi meno soli, quando si pensano certe cose. Tipo quando scrive che
“riportare i dati statistici come stime puntuali è una tendenza comune a molti analisti che tendono a proiettare incredibile certezza (il corsivo NON è mio, ndr), incoraggiando i policy makers e il pubblico a credere che gli errori sono piccoli e senza conseguenza”.
Notate il verbo credere.
“In assenza di un’agency guidance – continua – le persone che capiscono che le statistiche ufficiali sono soggette ad errori devono autonomamente congetturare la magnitudine di questi errori. Così chi utilizza le statistiche ufficiali può mal interpretare le informazioni che le statistiche forniscono”.
E questo, aggiungo io, nel migliore dei mondi possibili. Quello, vale a dire, dove uno che legga i dati non si accontenti del numeretto, ma si vada a leggere le definizioni che sostanziano i dati e che spesso dicono cose molto diverse da quello che uno pensa. La conseguenza di questa situazione è che si parla con la massima certezza di questioni che sono profondamente incerte. E questo lascia ampia margini alla conduzione retorica del ragionare economico, che in tal modo diventa strumentale a quello politico.
“Le agenzie statistiche potrebbero mitigare le interpretazioni sbagliate delle statistiche ufficiali se misurassero l’incertezza e la riportassero nelle loro news release e pubblicazioni tecniche”, visto che “la qualità delle decisioni può risentirne”.
Il problema è che misurare gli errori, campionari o no, (sampling error, o non sampling error)
“è molto sfidante per le agenzie”. “Questi errori possono essere originati da molte fonti e non c’è consenso su come misurarli”. E tuttavia, “avere uno staff nelle agenzie che analizza gli errori avrebbe certo maggiore capacità informative che avere rapporti statistici che vengono considerati come verità”.
Ciò spiega perché il nostro studioso arrivi a ipotizzare addirittura tre tipi di incertezza statistica: transitoria, permanente e concettuale. Ecco vedete: una volta rimossa la rimozione, l’incertezza mostra il suo volto di hydra dalle mille teste. Può dubitarsi di ogni cosa, pure di consuetudini mentali come il concetto di dato aggiustato per la stagione (seasonal adjustement)
“che porta con sé un tipo di incertezza concettuale alquanto fastidiosa”, visto che “lo scopo della destagionalizzazione è facile da spiegare, ma assai meno da facile da realizzare”.
Nel dettaglio, nota Manski, la destagionalizzazione, nella sua definizione, si propone di rimuovere le influenze dei eventi prevedibili sugli andamenti stagionali, “ma non si specifica come”. Sicché tocca agli econometristi trovare il modo, elaborando supercazzole (il testo cita il metodo X-12- ARIMA method) che nessuno ormai sa più spiegare. E anche qui incontriamo un grande vulnus della statistica: le definizioni. Sappiamo già che sono le definizioni a delimitare l’ambito della rilevazione. Ma come si fa capire il senso di tali definizioni se queste ultime sono di per sé interpretabili? Ciò spiega perché i tecnici tengano ben chiuso questo vaso di pandora: nessuno ha voglia di parlare di questioni statistiche, materia assai difficile, quando tutti possono parlare di economia, che non è meno difficile ma assai più popolare (e soprattuto remunerativa). In tal modo tutti insieme, appassionatamente, possono parlare di politica.
La lettura del paper di Manski, da questo punto di vista, è assai utile. In sostanza, ad ogni forma di incertezza analizzata può corrispondere una diversa revisione del valor statistico, che l’autore sperimenta analizzando, fra gli altri, i dati (e i metodi) del Bureau of economic analysis americano che riporta i dati trimestrali del Pil. Argomento attualissimo, visto che di recente il Bureau ha riportato la stima del Pil Usa nel primo trimestre 2014 americano registrando un inquietante -1%. Leggendo Manski scopriamo però che nella stima iniziale del pil trimestrale, circa il 25% dei dati necessari al calcolo, specie quelli realtivi al settore dei servizi, non sono disponibili. Le revisioni successive possono essere significative, ma il punto è che
“il dato della stima iniziale fornisce una fotografia dell’attività economica che somiglia ai primi secondi di un’immagine Polaroid nella quale l’immagine sia confusa”.
Chiaro no?
Col risultato, nel caso preso in esame dal paper, che una stima del Pil del +2,7, diventa, una volta rivista, del 2%. Il che significa un errore statistico dello 0,7%. Altro che il nostro misero 0,1%. Solo che mentre si spendono fiumi di parole e di inchiostro sui dati statistici, solo pochi addetti lavori sprecano tempo a parlare di della loro incertezza. E a questo punto dovrebbe essere chiaro perché. Ciò, malgrado tali errori abbiano conseguenze importanti sull’economia. E anche questo dovrebbe esser chiaro.
“Fino ad ora – nota l’autore citando Croushore – gli studiosi di macroeconomia hanno ipotizzato che le revisioni dei dati statistici fossero di piccole entità ed episodiche, e che comunque non avessero effetti sui modelli economici, le analisi e le previsioni. Ma i ricercatori hanno mostrato quanto questa assunzione sia falsa e che le revisioni dei dati possono avere influenza per diverse ragioni”.
Bello anche l’esempio: nel gennaio 2009, nel mezzo della crisi iniziata a settembre 2008, la stima iniziale sul Pil evidenziò un declino del 3,8% (a tasso annuale) nel quarto trimestre, ma un mese dopo il dato fu rivisto al ribasso del 2,4%, mostrando un declino del Pil reale del 6,2%.
“La revisione di 2,4 punti fu la più ampia mai registrata sul dato trimestrale – nota – è questa larga revisione è arrivata proprio in un momento inopportuno”.
O forse no. Vi ricordo solo che due mesi dopo la Fed, già partita da fine novembre 2008 con il suo QE, aveva raggiunto quota 1,7 trilioni di acquisti di MBS, spinta certo dalle pressanti necessità di rivitalizzare l’economia. Lungi da me voler fomentare la dietrologia. Ma – vedete – i grandi numeri offrono grandi opportunità. Basta saperle cogliere.
Commenti recenti