Alcuni autorevoli commentatori presentarono, all’epoca, l’incidente di Fukushima come figlio dell’azione devastante del terremoto e dello tsunami, e poiché neanche una società tecnologicamente molto avanzata come quella giapponese è in grado di fronteggiare gli eventi estremi della natura ne concludevano che si deve rinunciare al nucleare. Certo, sembra una pazzia realizzare centrali nucleari in un’area come quella giapponese, dove si scontrano quattro placche tettoniche, sicura garanzia di terremoti devastanti. Ma un’analisi più attenta di quel che è successo mette in discussione le premesse di quella conclusione. Infatti, gli edifici della centrale atomica hanno retto al terremoto (i tetti sono saltati per l’esplosione delle bolle di idrogeno formatesi con l’inarrestato progredire del surriscaldamento dei noccioli dei reattori) e le tremende accelerazioni subite dalle strutture dei reattori, causa sicura di gravi lesioni future soprattutto a causa dei fenomeni di risonanza, avrebbero però dispiegato nel tempo gli effetti di rischio.
Che cosa andò storto allora, che cosa portò alla fusione dei noccioli? Si deve risalire al lay out dell’impianto, in particolare alla cattiva disposizione dei servizi ausiliari d’emergenza, che, non adeguatamente protetti e investiti dall’onda dello tsunami (come documentato da vari video che riprendevano l’evolversi dell’incidente) non poterono entrare in funzione quando avrebbero dovuto; quando cioè il black out elettrico della rete di trasmissione elettrica, causato questo sì dal terremoto, mise fuori uso gli ordinari sistemi di raffreddamento del nocciolo del reattore. E fa riflettere anche il fatto che il molo di protezione nel porto a servizio della centrale fosse alto solo sei metri, quando proprio la Tepco aveva documentato un terremoto della stessa magnitudo di quello dell’11 marzo 2011, avvenuto nella stessa area 115 anni prima con un’onda di tsunami alta più di 10 metri.
Insomma, il riferimento allo scatenarsi delle forze incontrollabili della natura rischia di essere un esercizio retorico se non si tiene conto della sciatteria progettuale (lay out) e della vocazione a tirare giù i costi (l’altezza del molo) che travalicano, non davvero solo in Giappone, ogni aprioristica esaltazione dell’eccellenza tecnologica raggiunta da una società.
Quanto agli effetti sanitari, aspetto di gran lunga più rilevante, la tragedia di Fukushima, con i livelli di radioattività registrati al suolo e nel mare, con i duecentomila cittadini evacuati nel raggio dei venti km, verdure e ortaggi contaminati nel Giappone del Sud a centinaia di km dalla centrale, con lo Iodio nell’acqua potabile di Tokyo, consente purtroppo di affermare che le vittime delle radiazioni saranno nel corso degli anni molte di più di quelle del terremoto e dello tsunami. Gli effetti somatici della radioattività (cancri e leucemie) hanno un carattere statistico, sono tanto più estesi quanto maggiore è il numero delle persone esposte.
È come un’arma che ruota sparando in mezzo alla folla, non si sa chi verrà colpito, ma le vittime ci saranno e saranno tante più quanto più numerosi sono i presenti. E quelle migliaia di vittime che farà la radioattività, ancora ogni anno sull’arco di almeno trent’anni, non le vedrà nessuno, né ci potranno mai emozionare come le immagini che ci riportavano i corpi senza vita travolti dalle onde dello tsunami.
Ma, al di là di Fukushima, quali sono i livelli di sicurezza raggiunti dalla tecnologia nucleare?
All’alba dell’era del predominio del petrolio, 1960, le agenzie internazionali dell’energia riportavano il dato della produzione nucleare: 1 Megatep (= 1 milione di tonnellate di petrolio equivalente). Nel giro di poco più di un decennio una tumultuosa crescita degli ordinativi portò quel dato a ben 146 Megatep. Già, ma che cosa aveva consentito quella formidabile espansione?
Certo, Atoms for peace, la campagna lanciata nel 1953 da Eisenhower, un altro storico esempio di serendipity: nata con l’intento di arrestare l’escalation atomica che era iniziata con l’Urss divenne la bandiera della nascente industria nucleare, un ottimo slogan per rimuovere all’insegna del progresso la terrifica immagine del fungo di Hiroshima. Certo, l’esigenza di ripianare in parte con la vendita del kWh gli enormi costi pubblici affrontati, negli Usa, ma anche in Canada e nel Regno Unito, per l’esperienza militare.
Il solo progetto Manhattan, che era arrivato a impiegare la bellezza di 130mila persone, era costato due miliardi di dollari di allora, pari a 26 miliardi di oggi. O anche la «grandeur» (è il caso della Francia) di avere tutto atomico, l’elettricità e la propria bomba, senza dover dipendere dagli altri. Ma è indubbio che il passaggio dal nucleare militare a quello civile (peraltro tecnologicamente troppo «frettoloso») avvenne sull’onda del dogma della sicurezza nucleare: comunque grave sia l’incidente alla macchina, neanche una particella radioattiva deve uscire dallo schermo più esterno di contenimento della radioattività. Poi, l’incidente di Three Mile Island (TMI) ad Harrisburg, 28 marzo 1979, con oltre venti tonnellate di uranio fuoruscite dal reattore, rilasci radioattivi incontrollati al di fuori della centrale e 140mila cittadini evacuati, volontariamente, dall’area delle 5 miglia.
Il 26 aprile 1986 si aggiunge il dramma di Chernobyl, il dogma si spezza, e la stessa Iaea (International Atomic Energy Agency), l’Agenzia delle Nazioni Unite per il nucleare, inventa la scala Ines per la classificazione della gravità degli incidenti nucleari, introducendo per la prima volta la distinzione tra catastrofe «locale» e catastrofe «globale». Sorge immediata la domanda: ma il nucleare si sarebbe mai affermato, con quell’impressionante trend di crescita tra gli anni 60 e i primi anni 70, se riguardo alla sicurezza fosse stata proposta quella distinzione?
Per segnalare inoltre che alla scala Ines non rinunciano davvero i reattori cosiddetti di terza generazione «avanzata» o «III+». Gli innegabili miglioramenti ingegneristici che si sono avuti con la «III+» non sono infatti in grado di rispondere agli irrisolti problemi del nucleare, in quanto sono stati apportati a quella tecnologia di fissione dell’Uranio, che, trasposta di peso alla produzione elettro-nucleare dai laboratori e dalle esperienze per le armi (con la già menzionata «frettolosità» spinta dall’esigenza di ripianare parte delle colossali spese per gli arsenali atomici) non poteva certo avere tra le sue priorità sicurezza, protezione dalla contaminazione radioattiva e adeguata gestione delle scorie. Per questo il Nobel della Fisica, Carlo Rubbia, ha liquidato la terza generazione «avanzata» come una «operazione di cosmesi»; e il proliferare di termini che vorrebbero accreditare una sicurezza che non c’è fa venire in mente la massima di Goethe: «quando mancano i concetti nascono le parole».
In ogni caso, di reattori Epr come quelli che l’industria di stato francese, Areva, voleva rifilare all’Italia e che a tutt’oggi definisce nella sua home page come «il primo della generazione “III+”», ce ne sono solo tre in costruzione in tutto il mondo: per il primo, «Olkiluoto-3» in Finlandia, era prevista l’entrata in esercizio entro il 2010 e un costo di 3,2 miliardi di euro; l’ultimo rinvio annunciato prevede la sua messa in parallelo per il 2018, e, nel dicembre 2012, il «Wall Street Journal» riportava che Areva prevedeva un aumento del costo a 8,5 miliardi di euro. Per un’analisi tecnica delle caratteristiche dei vari tipi di reattori «III+» e, in particolare, dei gravi ritardi e del rilevante aumento dei costi in corso d’opera degli Epr, ci permettiamo di rimandare a un nostro testo (1).
Vale la pena rilevare che le fusioni avvenute nei reattori di Fukushima, che sommate a quella di TMI e senza neanche metterci Chernobyl a causa della sua diversa tecnologia fanno almeno quattro, ridicolizzano le stime che l’Iaea avanzava ancora nelle conferenze di Columbus (Ohio) e di Roma del 1985, cioè dopo TMI: la probabilità di un danneggiamento grave con inizio di fusione, quello che in Italia all’epoca veniva pudicamente chiamato «rischio residuo», veniva confermato in 10-5 – 10-6 reattori per anno (un incidente all’anno per ogni centomila/un milione di reattori funzionanti). Il dato di fatto (il numero di reattori in esercizio è cresciuto fino a un massimo intorno a quota 440) è invece un incidente di quel tipo ogni cinquemila reattori per anno, cioè venti volte più frequente rispetto alle stime Iaea del 1985! Questi numeri sono lo scheletro impietoso nell’armadio dei rapporti tra scienza, tecnologia, aspettative dell’uomo della strada, pressioni delle lobby e delle cricche, manipolazione della comunicazione, democrazia delle decisioni nella società tecnologica.
Massimo Scalia, professore di Fisica Matematica al Dipartimento di Matematica dell’Università La Sapienza di Roma