©G.Fritz/GettyImages

Si dice che Benjamin Disraeli, primo ministro britannico nella seconda metà dell’800, una volta pronunciò questa frase: «Al mondo esistono 3 diverse categorie di bugie: le semplici bugie, le bugie spudorate e le statistiche». Da allora sono passati quasi 150 anni, ma queste parole sono quanto mai attuali. Già, perché nell’era digitale c’è un fenomeno che sembra diffondersi come un virus. È il fenomeno dei numeri truccati, delle statistiche gonfiate o dei conti palesemente falsi, che rimangono scolpiti nella pietra, come verità incontrovertibili, capaci persino di cambiare il corso della storia.

Un caso palese riguarda il tema dei cambiamenti climatici, il cosiddetto climate change. Tutti, o quasi tutti, sembrano sostenere che la Terra si sta riscaldando e che l’ecosistema è in pericolo, complici le eccessive emissioni di anidride carbonica nell’atmosfera. A ben guardare, però, alcuni scienziati contestano, del tutto o in parte, la validità di queste affermazioni. E qualche mese fa i negazionisti (così vengono chiamati gli avversari della teoria ufficiale ambientalista) hanno segnato un punto importante a proprio favore. Merito di un hacker che a novembre si è intrufolato nei computer della Climate Research Unit (Cru), il centro di ricerca sui cambiamenti climatici nato presso la britannica University of East Anglia. Ne sono venute fuori e-mail e documenti riservati, resi subito di dominio pubblico, da cui emerge che lo scienziato Phil Jones, direttore del Cru e considerato ormai un guru della climatologia, si sarebbe prodigato per “taroccare” i dati sull’andamento delle temperature e per nascondere alcune rilevazioni che potrebbero far vacillare la granitica teoria del riscaldamento della Terra. Ne è venuto fuori uno scandalo, accompagnato da molte polemiche, su cui una commissione d’inchiesta adesso ha il compito di fare chiarezza.

A dire il vero, però, le vicende che hanno coinvolto Jones non sono l’unica diatriba sorta negli ultimi anni sul tema dei cambiamenti climatici. Già nel 2006, sul banco degli imputati era salito Nicholas Stern, economista, già vicepresidente della Banca Mondiale e autore di un rapporto sugli effetti del riscaldamento della Terra. Il costo del global warming, secondo il Rapporto Stern, può arrivare in futuro sino al 20% del Pil mondiale. Apriti cielo. Subito alcuni osservatori critici riversarono sull’economista una valanga di accuse, a cominciare da quella di essere un vero e proprio analfabeta in tema di climatologia. Secondo i negazionisti, infatti, per calcolare il costo dei cambiamenti climatici futuri e rapportarlo ai valori di oggi, Stern ha fatto uso di un parametro sbagliato, cioè un tasso di sconto vicino allo 0 (per la precisione pari allo 0,1%). Vale a dire: una spesa che si verificherà tra 10 o 20 anni è stata calcolata più o meno ai valori di oggi, senza tener conto dell’aumento del carovita e della svalutazione della moneta. Il che, a detta di molti osservatori critici, ha portato a sovrastimare i costi pubblici del global warming. Tra chi ha messo in dubbio la validità del Rapporto Stern, c’è anche l’Istituto Bruno Leoni, che da anni si batte per una discussione meno dogmatica sul tema dei cambiamenti climatici. «Nella società contemporanea», dice Carlo Stagnaro, direttore ricerche e studi dell’istituto, «l’opinione pubblica riceve una gran mole di informazioni, dati numerici, indicatori statistici e previsioni sul futuro, in particolare in materia economica». Ciò, secondo Stagnaro, rappresenta un’arma a doppio taglio: da un lato, su uno stesso tema esiste un ventaglio di voci diverse che può aiutare a scovare le statistiche false e truccate; dall’altro, c’è però il rischio che alcuni numeri, amplificati dai mezzi di comunicazione, non vengano adeguatamente verificati. Il che, secondo Stagnaro, vale soprattutto nel caso dei dati previsionali, come quelli del Rapporto Stern.

Quando si fanno stime sul futuro, infatti, l’autore deve sempre specificare chiaramente come ha ricavato i dati, quale metodologia ha utilizzato e perché, sottoponendola poi al vaglio di una valutazione critica. Dello stesso parere è anche Riccardo Puglisi, ricercatore del Dipartimento di economia pubblica e territoriale dell’Università di Pavia e già docente di metodi statistici presso il Mit di Boston, che aggiunge: «Bisogna tener presente che i dati previsionali sono sempre condizionati da una variabile indipendente: il comportamento umano, che è mutevole nel tempo e può portare a dei cambiamenti significativi nello scenario di fondo su cui si basa una ricerca». Il tema dei dati ingannevoli, del resto, Puglisi lo conosce bene: tre anni fa ha infatti curato, assieme a Giancarlo Livraghi, la prima edizione italiana di un libro di grande successo negli Stati Uniti, che risale al 1957: Mentire con le statistiche di Darrell Huff (Monti&Ambrosini Editori). In quest’opera, viene messa in evidenza l’importanza di verificare sempre la metodologia utilizzata in una ricerca e, soprattutto, la necessità di vagliare l’attendibilità delle fonti. «Di fronte alla pubblicazione di dati e cifre, bisogna sempre chiedersi da chi provengono e a quale scopo sono comunicati al pubblico, anche quando a divulgarli sono fonti apparentemente super partes come le autorità statali». Non a caso, anche alcuni enti governativi sono stati più volte accusati, a torto o a ragione, di truccare le carte.

È capitato, per esempio, alla polizia di New York. Secondo una ricerca della New York University, condotta attraverso una serie di questionari sottoposti agli agenti di pubblica sicurezza in pensione, nei decenni scorsi le autorità della Grande Mela avrebbero infatti manipolato i dati sulla criminalità, facendoli apparire meno gravi di quanto non fossero. In che modo? Semplice: i poliziotti subivano delle continue pressioni per classificare come “azioni meno gravi” le proprie attività quotidiane contro la malavita, riportate nei registri pubblici. E pare che persino i testimoni coinvolti nelle operazioni di pubblica sicurezza subissero lo stesso tipo di condizionamenti. E così, l’immagine della New York ripulita dalle gang, grazie soprattutto all’ex sindaco-sceriffo Rudy Giuliani, ora vacilla.

Anche in Italia non mancano i casi di statistiche contestate. A Milano, per esempio, la Giunta comunale sostiene da tempo che la qualità dell’aria non è peggiore di quella di molte città della Penisola e di altre metropoli europee. E, per avvalorare la propria tesi, l’amministrazione meneghina cita i dati dell’Arpa (l’Agenzia regionale per la protezione dell’ambiente). Non la pensa però alla stessa maniera l’associazione dei consumatori Codacons che, in base alle cifre contenute in una ricerca universitaria, sostiene che lo smog è responsabile a Milano di 73 ricoveri in ospedale al giorno. Per questo, l’organizzazione guidata da Carlo Rienzi sta preparando una class action contro il sindaco Letizia Moratti, oltre che contro la Provincia e la Regione Lombardia, colpevoli di non aver fatto abbastanza per tutelare la salute pubblica. Sullo smog di Milano, dunque, si profila all’orizzonte una guerra di cifre, in cui non sarà facile stabilire dove sta la verità.

I casi di numeri truccati, o presunti tali, non mancano neppure sul fronte macroeconomico. Il primo episodio clamoroso fu quello accaduto nel ‘98 in Russia, quando il direttore del Comitato centrale di statistica, Yurij Yurkov, fu arrestato con l’imputazione di truffa ai danni dello stato: aveva truccato, secondo gli inquirenti, i dati della contabilità nazionale, sottostimando la produzione di alcune aziende, per avvantaggiarle dal punto di vista fiscale. Venendo ai giorni nostri, nei mesi scorsi sul banco degli imputati è finita la Repubblica greca, accusata di aver mascherato il proprio disavanzo pubblico (in modo da rispettare i parametri d’ingresso nell’eurozona) attraverso la stipula di un contratto derivato con la banca Goldman Sachs: uno swap da un miliardo di dollari che ha permesso al governo ellenico di rinviare il pagamento degli interessi passivi sul debito statale. Per le autorità di Atene era un’operazione assolutamente regolare, sulla cui legittimità nessuno può dire una parola. Tanto meno possono farlo alcuni paesi come l’Italia che, ha sottolineato il governo greco, negli ultimi 15 anni ha fatto più o meno la stessa cosa, sempre allo scopo di entrare in Eurolandia.

Spesso, però, alcuni dati macro risultano ingannevoli non per la presunta malafede delle fonti che li comunicano. A volte sono anche gli operatori dell’informazione a riportarli male, facendo dei confronti errati. Capita sovente, per esempio, di vedere delle comparazioni sbagliate tra l’andamento del Pil trimestrale statunitense con quello dei principali paesi europei. «Bisogna infatti ricordare», dice Anna Grimaldi, economista di Intesa Sanpaolo, «che i dati trimestrali americani, a differenza di quelli del Vecchio Continente, sono sempre annualizzati». Detto in soldoni: per fare una comparazione ragionevole, bisognerebbe sostanzialmente moltiplicare per quattro le cifre europee, per renderle omogenee a quello d’Oltre-oceano. Tra i vari stati, dunque, c’è una differenza nel metodo di realizzazione delle statistiche. «Il che non significa», dice però Grimaldi, «che la maggior parte degli indicatori macroeconomici non siano comparabili tra loro». A fornire una bussola è infatti il Fondo monetario internazionale (Fmi) che ha definito degli standard comuni per la trattazione dei dati. Gli esperti hanno dunque a disposizione tutti gli strumenti utili per compiere delle valutazioni corrette. Sono invece gli operatori dell’informazione a dover essere più precisi.

Nell’era digitale, si è diffuso anche un altro fenomeno preoccupante con cui le statistiche hanno ben poco a che fare. È il fenomeno dei dati di bilancio truccati, che ha riguardato molte importanti società quotatea. Erano truccati, per esempio, i conti di Enron e Worldcomm, due aziende di Wall Street, finite clamorosamente in bancarotta nel 2002. Stesso discorso, in Italia, per la Parmalat di Calisto Tanzi mentre poche settimane fa la magistratura statunitense ha acceso i riflettori sui bilanci di Lehman Brothers, la casa d’affari fallita nel 2008, che ha provocato il crollo dei mercati finanziari mondiali. Secondo le autorità giudiziarie, i vertici di Lehman Brothers avrebbero compiuto acrobazie contabili attraverso dei repurchase agreement, dei contratti che consentono di vendere attività in sofferenza, con l’impegno di ricomprarle il giorno dopo. Lo scopo era quello di soddisfare dei fabbisogni temporanei di liquidità e scongiurare un improvviso crack societario.

Quello che è certo, invece, è che di fronte ai conti truccati i fruitori delle informazioni hanno ben poche armi per difendersi. Il compito di smascherare gli inganni spetta infatti alle autorità di vigilanza. Non a caso, a marzo, la Consob, la Banca d’Italia e l’Isvap si sono attivate per portare una ventata di trasparenza nei documenti contabili delle aziende quotate a Piazza Affari. Si spera che il messaggio sia giunto a destinazione.

New York

  • 1994: Rudy Giuliani è eletto sindaco di New York con programmi di lotta al crimine
  • 2001: A fine mandato può vantare una riduzione delle denunce
  • 2009: Emergono pressioni sulla polizia per falsare le denunce

Milano

  • 2006: Milano risulta tra le città più inquinate d’Europa
  • 2010: Il comune contesta i dati UE e sostiene che la situazione è più grave in altre città
  • 73: Ricoveri in ospedale al giorno per lo smog (codacons)

Grecia

  • 2001: Per entrare nell’Unione Economica e Monetaria la Grecia sembra aver camuffato il proprio decifit

Parmalat

  • 2003: Il cda si dimette a fronte dell’impossibilità di onorare debiti
  • 3,95 mld: Gli euro iscritti tra le attività sono inesistenti secondo Bank Of America
  • 2008: Calisto Tanzi condannato in primo grado a 10 anni di reclusione