Il Sistema dell’Educazione Ambientale in Emilia Romagna

Tempo di lettura: < 1 minuto

Nei dieci anni, tra il 1996 e il 2006, sono stati spesi, con il contributo della Regione, dello Stato, degli Enti locali e dei singoli Cea, per progetti e azioni di sistema, circa 10.000.000 Euro. I 199 progetti realizzati dai Cea presenti sul territorio regionale (69 suddivisi all’interno delle 9 Province) si sono caratterizzati in particolare come attività con la scuola dell’autonomia, come percorsi didattici nelle aree protette e come supporto nei progetti di sviluppo sostenibile locale. Ai 226 progetti realizzati dalle Scuole Laboratorio hanno partecipato più Istituti Scolastici organizzati in Reti. In generale i principali destinatari dei progetti di Cea e Scuole Laboratorio sono stati gli insegnanti e gli studenti delle scuole dell’infanzia, dell’obbligo e delle superiori della regione; gli educatori ambientali operanti nei Cea della rete Infea e i cittadini. Le tematiche affrontate da questi progetti hanno riguardato la sostenibilità (rifiuti, consumi sostenibili, qualità ambientale urbana, mobilità sostenibile, inquinamento, impronta ecologica e indicatori ambientali); l’innovazione metodologica e la gestione di Agende 21 a scuola e di Agende 21 locali; il territorio inteso come natura e cultura; e altre tematiche quali l’agricoltura, l’alimentazione, la salute, le arti, ecc. e il loro rapporto con la sostenibilità.
Le azioni di sistema realizzate nei dieci anni, oltre 120, hanno riguardato sia l’organizzazione e il consolidamento del Sistema Regionale Infea, sia la ricerca, la valutazione e il monitoraggio; e anche la formazione e l’aggiornamento, la documentazione e la produzione di materiali didattici, la comunicazione e la realizzazione di sistemi informativi.

(Fonte Regione Emilia Romagna)

Informazione e disinformazione

Tempo di lettura: 4 minuti

Sulla questione nucleare sarebbe sicuramente interessante un’indagine su com’è cambiato il «sentiment», verso il nucleare espresso dai quotidiani dal 2000 ad oggi. Sono stati molti gli scienziati e gli economisti che, fino al 2006, si esprimevano in modo chiaro e coerente sugli «svantaggi» del nucleare:
– «Ma il nucleare non è la soluzione giusta» titolava un articolo di Geminello Alvi (economista certamente non in quota al movimento antinuclearista) sul «Corriere della Sera» in Corriere Economia del 14 luglio 2004;
– «Il carbone pulito è la nuova frontiera per i ?maestri? del nucleare di GE» (nientemeno che della «General Elettric» detentrice di importanti brevetti del nucleare civile!) titolava, «la Repubblica» in Affari&finanza del 16 ottobre 2006;
– «Nostalgia del nucleare, ma costa troppo» titolava invece un articolo di J. Giliberto su «Il Sole-24 Ore» dell’11 giugno 2005 che riportava una ricerca economica, condotta per conto del ministero dell’Energia Usa, sul vero costo del nucleare «senza sovvenzioni statali»: 47-71 $ del MWh nucleare contro i 35-45 $ del MWh del turbo gas a ciclo combinato. Un confronto, sui costi, che per la fase transitoria, a cui sono destinate le attuali tecnologie, metterebbe fuori mercato il nucleare al di là di ogni altra valutazione sulla sicurezza degli impianti, sulle scorie non confinabili…
[Ricordiamo, qui (dovendo rilevare una certa latitanza in materia e quindi anche volendo evidenziare le mistificazioni di quella perfida pratica di dimenticare ciò che «non conviene», per sostenere, invece, altre «convenienze» assolute, preordinate e poco trasparenti) che il turbo gas a ciclo combinato è stata una scelta molto importante e vantaggiosa, fatta in Italia alcuni anni fa. Questa tecnologia, infatti, ha un limitato inquinamento e un elevato rendimento (55% rispetto al 40% degli altri impianti) (fonte Cnr)].
Ma, poi, in nome della «mobilità del pensiero» e delle convenienze del momento, nel biennio 2007-08 gli argomenti della questione nucleare diventano di ben altro tenore:
– «L’energia [nucleare] negata» titolava, con toni quasi strazianti, il «Corriere della Sera» in «Corriere del Mezzogiorno» del 5 giugno 2007;
– «Veronesi: solo il nucleare ci salverà» titolava «la Repubblica» del 30 maggio 2007, riportando la voce profetica di un oncologo;
– «Nucleare, tra dieci anni pronta la prima centrale …», anche se «restano le questioni irrisolte della sicurezza e dei costi economici» e anche se si prevede un «costo almeno di 40 miliardi [di euro]», il «nucleare», cioè, secondo «la Repubblica» del 17 marzo 2008, è ormai un «dato di fatto», anche se … vi sono notevoli e gravi questioni «irrisolte»! Tutte cose che sembrerebbero, però, non impensierire i «disinvolti» sostenitori del «fare le cose» e quelle nucleari in particolare;
– il 3 novembre 2007 il «Sole-24 Ore» esce con un allegato di 4 pagine «Nucleare a 20 anni dal referendum». Dispersi in più articoli, anticipati dal titolo «Si incrina il fronte del ?No?», in realtà vi sono interessanti notizie, «forse» in contrapposizione con lo «spirito» del dossier. Da un collage di argomenti ne viene fuori un quadro emblematico


delle incertezze esistenti sul nucleare:
I costi dell’atomo … sono decisamente competitivi … quando fanno parte di un programma statale … o monopolistico, … se la gestione delle scorie è a carico della collettività [prelievo in bolletta per lo smaltimento], … se vi sono sovvenzioni e garanzie finanziarie pubbliche, … se le assicurazioni possono godere di limiti nei risarcimenti, … se gli impianti sono molti e tutti uguali, … se tutto procede più o meno per il verso giusto, … se la progettazione si rivela davvero priva di errori, … se gli impianti sono pronti entro cinque anni, … [se] il modello è consortile, … se si gestiscono impianti già esistenti [senza costi di costruzione], … se ben confezionate nella tecnologia e nella finanza, … se si ottiene un prestito dalle banche inferiore al 5%.
Se si adottano i suddetti accorgimenti, «niente affatto scontati», … solo così è un vero affare!

Intanto, mentre le cose cambiavano (nel mondo dell’informazione, ma non per la tecnologia nucleare scelta, rimasta la stessa dagli anni 60 del secolo scorso), noi avremmo voluto capire chi stava «guidando» l’informazione e «gestendo» anche il cambiamento della visione della realtà. Non avremmo, certamente, voluto fare, come invece abbiamo dovuto fare, gli spettatori di una fiction già definita nella trama e nell’epilogo. Così, alla fine, ci siamo trovati tutti a fare la parte del «popolo bue» e (per chi avesse voluto indagare su alternative e opinioni diverse) a fare anche la parte del vaso di coccio fra i vasi di ferro.
È, quindi, certamente opportuno ed urgente fare una riflessione sui meccanismi che alterano le nostre visioni della realtà e sul loro uso che azzera la pratica, informata e consapevole, della partecipazione dei cittadini alle scelte democratiche.

La produzione di energia elettrica in Italia rappresenta, oggi, meno del 30% (fonte: Unione Petrolifera su dati 2003 ministero delle Attività Produttive) del totale dell’energia necessaria al nostro paese, misurata come petrolio equivalente consumato per produrla. La quota ben maggiore di energia, consumata nel nostro paese, è invece quel 70% di energia per usi non elettrici, costituito, soprattutto, dal consumo di oli combustibili (per usi termici diretti) e di carburanti (per il sistema dei trasporti).
Ma, fino a qualche decina di anni fa (anni 70), i consumi di energia elettrica (calcolati sulla media di due anni disponibili forniti da elaborazioni Enea su dati ministero dell’Industria) erano notevolmente più bassi (molto meno del 15% circa), cioè molto meno della metà dei consumi percentuali più recenti. Un divario percentuale a cui, oggi, non fa riscontro un parallelo aumento percentuale di consumi elettrici per la produzione industriale, la cui percentuale sui consumi elettrici è, anzi, diminuita (le serie di dati disponibili mostrano un passaggio, dagli anni 70 al 2000, dal 60% circa al 50% circa.
Valori calcolati dai dati disponibili forniti da elaborazioni Enea su dati ministero dell’Industria). È evidente, dunque, che il maggior consumo, rilevato oggi, deve essere attribuito ai maggiori assorbimenti di energia elettrica per usi civili e commerciali.


Ffra questi, quelli per il condizionamento climatico degli ambienti chiusi (come chiaramente indicato dai picchi dei consumi estivi e dai relativi rischi di black-out elettrici, quando invece si registrano i minimi della produzione industriale) e per una sempre più diffusa illuminazione notturna delle vie di comunicazione urbane ed extra urbane.
Detto in altri termini, fino a qualche decina di anni fa vivevamo così come, in buona sostanza, viviamo oggi, ma con consumi elettrici molto inferiori e, sicuramente, con meno urgenze e angosce del «fare» e del «consumare», più tempo per «osservare» e più serenità per «pensare».

Dall’entusiasmo alla mistica del nucleare

Tempo di lettura: 3 minuti

In merito al consumo di elettricità, non si possono, dunque, avere dubbi sul fatto che un aumento della produzione di energia elettrica non può essere presentato come una «preoccupazione urgente».
Il 30% di petrolio trasformato annualmente in energia elettrica (44,4 x 106 TEP; fonte: Unione Petrolifera su dati 2003 ministero delle Attività Produttive) corrisponde a una potenza erogata (assumendo come fattore di conversione: 1 TEP = 4,5 MWh effettivi di produzione elettrica erogata) di 44,4 x 106 x 4,5 MWh = 199,8 x 106 MWh, cioè, mettendola in una forma approssimata e di più immediata lettura, si tratta di circa 200.000.000 MWh elettrici erogati nell’anno 2003.
Per la produzione elettrica dal nucleare possiamo assumere il dato realistico di 5 MWh annui, prodotti a regime, per ogni KW nucleare installato. Avremo, così, per i 20.000 MW totali (cioè 20.000.000 KW) di nucleare, che pare si intendano installare, una corrispondente produzione di 20.000.000 x 5 MWh = 100.000.000 MWh. Dunque una quantità di energia elettrica di origine nucleare che, in riferimento al totale di energia elettrica erogata nel 2003 (200.000.000 MWh), potrebbe arrivare a sostituirla fino al 50%, o ad incrementarla di un terzo. Certamente si tratta però di un rischioso (per la popolazione), pesantissimo (per il territorio) e costosissimo piano (40 miliardi di euro) di almeno 10 grandi reattori di terza generazione, che alla fine inciderebbero solo per un 15% circa sul totale dell’energia consumata nel nostro paese. Un «sollievo» per il consumo di petrolio, ma, certamente, non una soluzione per il problema energetico. Si tratta di un 15% che, per altro, si può anche colmare con una politica di risparmio energetico (privo di costi di gestione), se la si volesse veramente attuare: ma, oggi purtroppo, le «convenienze» e la ricerca dei vantaggi del «successo», nel saper «fare» le cose, soffiano in senso contrario.

Ma che cosa è il nucleare? È una nuova fonte di energia elettrica? No! E solo una fonte di calore, molto complicata da gestire, che può essere sfruttata per produrre vapore e far girare le turbine dei generatori di energia elettrica.
La storia della scoperta dell’energia nucleare è affascinante! A partire dagli inizi della prima metà del 900 scorso si cominciarono a formulare ipotesi plausibili sull’energia nucleare che gli atomi potevano liberare nei processi di trasmutazione (processo fisico di ricombinazione della struttura nucleare di atomi che possono trasformarsi in altri atomi diversi e più stabili, andando così a posizionarsi su livelli di energia più bassi e di conseguenza liberando l’energia persa nella trasformazione). Negli anni 40 l’energia nucleare era già una realtà e purtroppo, con la sua applicazione militare, i primi segnali non furono positivi per la storia dell’umanità.
Il cambiamento, nella visione delle cose della fisica della materia, per la velocità con cui è avvenuto in quel periodo, era inaspettato, ma veramente sorprendente è stato poi il cambiamento indotto, dalla scoperta dell’energia nucleare, anche nell’immaginario collettivo di quei tempi. Negli anni 50 del XX secolo si raccontava come le prospettive dello


sviluppo mondiale e del progresso umano fossero ormai senza limiti: carbone e petrolio venivano cancellati dal nostro futuro. Si fecero le prime centrali, ma le società private ripensarono rapidamente alla reale convenienza di quel «business» e si resero disponibili solo a costruirle e/o a gestirle, con notevoli aiuti economici, per conto degli Stati.
Oggi quasi «tutti» si sono accorti che si era esagerato nel magnificare il nucleare come soluzione dei problemi umani. Di questi, molti, valutati i rischi e le convenienze economiche, hanno poi preferito astenersi dal continuare a credere nel nucleare. Vi sono, però, altri che gli sono rimasti «affezionati», un po’ per entusiasmo incontrollato, verso quello che è stato per lungo tempo un simbolo delle nuove frontiere della scienza moderna, e un po’ per i buoni risultati che continuano a sperare di poter vedere, nonostante il notevole ridimensionamento dello sviluppo dell’industria nucleare tradizionale, conclusosi poi a fine anni 80.
Ma vi sono anche quelli che sono rimasti tenaci sostenitori della tecnologia nucleare tradizionale ad uranio arricchito (quella che caratterizza ancora oggi il nucleare di terza generazione o poco più) perché, questa, con la sua complicata gestione della produzione elettrica, porta ad un’istintiva e coinvolgente sfida che vede impegnate le capacità umane a vincere mitiche ed epocali difficoltà, peraltro funzionali a produrre non «trascurabili» e «vantaggiosi» profitti.
Vi sono, infine, altri che, dopo aver assunto significative responsabilità pubbliche (forse temendo di non esserne all’altezza) vedono nel nucleare un piano che permette di realizzare «vistose opere», segni di una remunerante immagine del «fare» e dell’«aver fatto» le cose con «successo». Non possiamo parlare, per questi ultimi due gruppi, sostenitori «interessati al nucleare», dell’esistenza di una vera e propria «mistica del nucleare», ma tolto tutto ciò che di «sacro» e di «nobile» può caratterizzare un fenomeno «mistico», il concetto che rimane (quello di una dedizione anima e corpo, fino all’«annullamento» di se stessi, per qualcosa a cui si attribuiscono qualità superiori) è sostanzialmente proprio quello giusto per indicare quel misto di convinzioni e di interessi che oggi soffiano, senza remissioni, sul fuoco dell’«entusiasmo nucleare».

Il «senso delle cose» e il «senso comune»

Tempo di lettura: 2 minuti

Potremmo dire, ma senza arrivare a condannare niente e nessuno, che già nell’immediato sarebbero, dunque, possibili notevolissime quote di risparmio elettrico. Possiamo frenare i consumi elettrici, senza mettere a rischio il nostro benessere, solo proponendoci l’obiettivo di incidere (oltreché sulle endemiche e significative perdite per inefficienze varie, di produzione e distribuzione, già note e documentate) soprattutto sull’attuale «spreco» di risorse.
Sono veramente troppe le risorse naturali non rinnovabili «sperperate» dalle non governate «esigenze» energivore delle «esasperanti e paludose» competizioni sui mercati globali dei consumi (dagli eccessi del «condizionamento climatico» e dell’estremo uso della «illuminazione artificiale» degli esercizi commerciali, fino a quelli, troppo spesso ingiustificati, delle catene del freddo per la conservazione di prodotti alimentari), mentre potremmo, invece, liberare le «virtuose sinergie» delle «risorse» umane per dare risposte a «bisogni» veri, alla «positività sociale» delle «buone relazioni» interpersonali e collettive e alla «positività operosa» delle «collaborazioni trasparenti».
«Va bene», potrebbe dire qualcuno, con cinica e illuminata intuizione, «ma sarebbe necessario tutto un ?altro mondo? che non c’è!». Una intuizione, questa, che in realtà, è solo tutto ciò che è capace di suggerire l’attuale, imperante, paralizzante e disastroso «senso comune»!
Non è il caso, qui, di fermarci a discutere sul «pensiero unico» della improponibile «crescita infinita» dei consumi, sulle filosofie avvilenti e distruttive del «nulla che si può fare» per il progresso umano o sui «curati insabbiamenti delle nostre libertà» sentenziati e praticati, con mistificanti argomentazioni, da interessati profeti e abili costruttori di effimeri consumi.
Non possiamo, però, non evidenziare che proprio nelle argomentazioni del «senso comune» si annida il problema di fondo della nostra «civiltà moderna». Infatti, quando si fa intendere di voler perseguire il «progresso umano» non possiamo, poi, accettare che, nel concreto delle decisioni, tutto si riduca a progettare solo lo «sviluppo» delle attività economiche, energia compresa. Non si può ricondurre ogni discussione ai temi della tecnologia e dei mercati finanziari e ogni intervento, su servizi e consumi, al sovradimensionamento dell’esistente solo perché questo sarebbe il «comune sentire». Così le nostre società non avanzano, ma tendono, solo, alla conservazione museale dell’esistente.
Si prospettano imminenti limiti nella tenuta dell’equilibrio fra domanda e offerta di risorse naturali, ma nessuno sembra preoccuparsi di cercare e valutare possibili alternative all’attuale sistema economico. Sembra che alla nostra società «moderna» (sottratta ad ogni confronto costruttivo con i naturali cambiamenti della realtà che non rientrino in una convenienza di mercato) non sia rimasto altro che il «destino» di coltivare gli infertili contesti del progressismo tecnologico fine a se stesso, degli scontri di civiltà, delle presunte superiorità sociali e culturali, del vantato ampio possesso di «verità» materializzate e assolute, delle assunzioni unilaterali di responsabilità globali, delle visioni «autoreferenziali» contrabbandate come principi «naturali» del «bene» e del «male»… Tutto un contesto, costruito sul «senso comune» e sulla sua retorica, che (se non collasserà prima, nel nulla di un mondo disumanizzato) potrà solo offrire, un ammaliante tramonto alla dignità umana e il perfido «vantaggio» di non angosciarci con i dubbi e il peso delle mancate


scelte e di confortarci con quelle «chiare e poche cose» che rimuovono i problemi e ci sollevano dalle responsabilità delle nostre inettitudini.

Qualità della vita, non solo energia elettrica

Tempo di lettura: 3 minuti

Oggi la «mancanza di energia» che viene minacciata, i «rifiuti che produciamo» e che si lasciano accumulare fin sotto casa, nella realtà costruita dalle immagini del «fare le cose», non sono «problemi», ma solo situazioni, imposte, previste e prevedibili, che sarebbero ingiustificabili ai nostri occhi, se, poi, non fossero anche interpretabili come occasioni, ricercate e strutturate per alimentare il mito del successo.
Rischiose centrali nucleari, offerte come strumenti prodigiosi di tecnologie avanzate, inceneritori, non ben identificati, prodigiosamente trasformati in improbabili termovalorizzatori, non sono, dunque, soluzioni di problemi, ma opportunità (capitate o fatte capitare, per costruire il successo del fare, per dare risalto alla bontà dei suoi meccanismi di intervento). Sono opportunità messe in atto e vincenti solo perché simmetricamente interfacciabili con tecnologie già esistenti. Se rileggiamo molte «cose fatte» nella storia dell’uomo potremmo meravigliarci quanto questo meccanismo nel tempo sia stato già sperimentato e quanto fino ad oggi questo stesso meccanismo si sia diffuso fino a condizionare pesantemente le nostre visoni del mondo, i nostri comportamenti e i nostri consensi.
In favore di uno «sviluppo elettrico» dei consumi del nostro paese si vorrebbero invocare, dunque, «scelte tecnologiche avanzate» contrabbandate come successi in favore di «scelte per il progresso umano».
Si parla di nucleare di terza generazione: molto suggestivo! ma i problemi, quelli sostanziali, connessi alla gestione dei processi, al tipo di combustibile e alle scorie sono praticamente immutati dagli anni 60 del secolo scorso. Si parla di un miglioramento della «qualità della vita umana» connessa alla scelta nucleare, ma la qualità del vivere umano non è una lampadina o un elettrodomestico e non può certamente dipendere dal modo scelto per produrre energia elettrica.
Se ci proiettiamo oltre le devastanti finzioni della realtà che incombono sulle nostre libere interpretazioni, valutazioni e decisioni, possiamo renderci conto che questo tipo di argomenti, tecnologici ed economici (utili per «misurare» l’esistente e «far di conto» per il futuro), pur se rilevanti e da tenere in debita considerazione, non sono gli unici e neanche i più importanti da prendere in esame nel momento delle scelte per lo sviluppo del benessere condiviso di una comunità umana. L’uomo, infatti, è chiamato a riflettere, sulle cose di questo mondo, per andare oltre ciò che sanno già fare le macchine o che sanno proporre gli incerti numeri delle previsioni o le convenienze quantitative, approssimate e sempre curvabili ad interessi preordinati, calcolate dai modelli economici. L’uomo, quando è impegnato a fare scelte e prendere decisioni, non può limitarsi a prendere meccanicamente atto dell’affidabilità, della precisione o di altre qualità fornite ai risultati dagli strumenti di calcolo, per poi agire in stretta conseguenza.
C’è, infatti, da considerare tutta quella dimensione complessa del vivere e del vissuto umano che non può rimanere estranea e sottomessa alle esigenze di un’insensata e temeraria crescita infinita dei consumi e dei conseguenti aumenti sommativi della produzione di ogni sorta di rifiuti.
Non possiamo, cioè, sottovalutare la portata di quelle consapevolezze e responsabilità personali e collettive (frutto di libere esperienze e di


creative relazioni) che sono la sostanza umana e inalienabile nei momenti delle valutazioni e delle scelte.
Non si possono sottovalutare le diversità essenziali delle nostre legittime visioni del mondo, i bisogni di condivisione delle conoscenze ed esperienze umane e la portata dei significati degli impatti sociali, culturali e politici delle applicazioni tecnologiche. Non si possono trascurare tutte quelle relazioni che rappresentano nel loro insieme gli elementi indispensabili per valutare la necessità e la sostenibilità dei cambiamenti. Non possiamo, in altri termini, metterci nella condizione di accettare che il nostro vivere, il nostro futuro di uomini, sia consegnato, una volta per tutte, alle leggi teoriche del mercato, alle sue arbitrarie e multiple infrazioni e deroghe e, tanto meno, alle fuorvianti competizioni puntate al successo del mercato dei consumi e al ribasso dei valori umani.
Se, oggi, dobbiamo preoccuparci, non sarà, dunque, per una mancata produzione di energia elettrica, quanto invece per l’«assenza» e la «sottrazione» di partecipazione, informata e decisionale, del cittadino e delle sue comunità, nei momenti delle scelte. Dovremo cioè preoccuparci proprio di ciò che sta avvenendo oggi con le scelte verticistiche sul nucleare.

Quando si perde il senso del vivere

Tempo di lettura: 2 minuti

È, dunque, in questo scenario predeterminato da un consenso generico e disinformato, che, oggi, si prendono decisioni sulle scelte di sviluppo del nostro paese, e su quelle energetiche in particolare, andando ad incidere minacciosamente su quel «senso del vivere» che l’uomo ricerca per dare risposte alle proprie aspirazioni più profonde.
Oggi si tenta di posizionare, al centro della questione energetica, la necessità di un «fare le cose» che vorrebbe alimentare, con l’abbrivio dei «successi» raggiunti, anche il poterle continuare a fare prima che qualcun altro proponga legittime domande (se non proprio legittimi dubbi) sulla «razionalità» e soprattutto sulla «intelligenza», delle scelte. Sulla «bontà», sui «vantaggi» economici delle «cose da fare» e dei risultati, vi sono spesso incertezze, normalmente sottaciute.
Nel campo delle scelte energetiche le incertezze sono, però, troppo profonde per farle passare sotto silenzio. Negli scenari alternativi, da sottoporre a confronto nelle scelte dei sistemi di produzione di energia elettrica, per esempio, i costi di produzione dipendono troppo dalla volatilità dei prezzi dei combustibili (compresi quelli nucleari) e degli impianti (soprattutto per quelli più a rischio come quelli nucleari) per poter fare comparazioni significative. E soprattutto le comparazioni, fra le convenienze, diventano poi scandalosamente impresentabili se, come avviene per gli impianti nucleari, i costi più rilevanti e i loro onerosi aggiornamenti vengono imputati alle risorse finanziarie derivanti dalla fiscalità generale (a spese dello Stato, cioè di noi contribuenti).
In questa inaccettabile prospettiva di «suddivisione» dei costi del nucleare, si vengono a precostituire le condizioni per una vera e propria «truffa» a danno dei cittadini e dei consumatori indotti a immaginare una falsa convenienza della produzione di elettricità dal nucleare, misurata dal prezzo pagato in bolletta e non anche dalle corpose integrazioni che tutti, attraverso il pagamento di tasse, verseremo forzosamente per il funzionamento degli impianti nucleari.
Ma i rischi, oggi, non sono solo tecnici: è significativo il fatto che nelle zone più turbolente del nostro mondo le azioni di guerra si progettano (e sono state anche già compiute) prevedendo l’attacco alle centrali nucleari per ottenere l’«ottimizzazione» dei danni possibili! Per non parlare di tutto il materiale fissile, plutonio innanzitutto, che può essere oggetto di furti e contrabbando anche per la costruzione delle cosiddette «bombe sporche» che al danno meccanico, dell’esplosione delle bombe tradizionali, aggiungono quelli della diffusione di polvere radioattiva e tossica che rimarrà tale, nell’ambiente, per lunghissimi tempi!

Il nucleare: soluzione o problema?

Tempo di lettura: 2 minuti

Oggi la produzione di nuova energia e la scelta nucleare si propongono, in realtà, non come soluzioni, ma come il vero problema da affrontare! Abbiamo veramente bisogno di energia elettrica? L’energia elettrica da impianti nucleari è una vera alternativa? Queste sono domande legittime e fondamentali perché la scelta nucleare (oltre ai problemi di sicurezza) comporta, di fatto, per la sua dimensione finanziaria, il blocco totale di altre scelte comprese quelle, più assennate ed essenziali, sulla ricerca di fonti di energia più avanzate. C’è da chiedersi quale prospettiva può offrire oggi l’ancorarsi alla costruzione di impianti nucleari di terza generazione, quando già in via di sperimentazione ve ne sono altri con ben altre performance. Gli impianti di quarta generazione (che hanno una produzione di energia molto efficiente e una quantità di scorie inferiori e comunque non contenenti plutonio), pur se non ancora ingegnerizzati su larga scala, sono operativi come prototipi.
Invece con la costruzione e gestione di impianti di produzione elettrica, con le vecchie tecnologie (quelle di tipo Pwr, nelle versioni «aggiornate» Epr o AP1000, sono le più probabili), non solo non si dà una prospettiva futura a nuove tecnologie e a nuove opportunità per le migliori «fortune» del nostro Paese, ma, soprattutto, si sottraggono risorse ad una prospettiva di ricerca e sviluppo anche in altri settori e si finirà, così, col mettere fuori gioco definitivamente l’Italia dal gruppo di paesi tecnologicamente avanzati.
L’uomo sa fare molto e bene in linea con le sue naturali tendenze sociali: valutare criticamente la convenienza di un bene comune, valorizzare le sinergie della condivisione, scegliere le opportunità che consentono di investire le risorse naturali per migliorare la qualità della vita, costruire ponti che permettano di unire le risorse irripetibili delle nostre personali vocazioni ed esperienze. Ma la scelta di produrre sempre più energia, dal nucleare in particolare, in quanto opzione finalizzata alla crescita dei consumi e in quanto sottrazione di ingenti risorse ad altri e virtuosi progetti, non può che essere interpretato come «soluzione» di un problema, ma come «problema» che nasce dalla scelta di voler disporre di una potenza operativa solo per vincere e mettere al tappeto i competitori, per agire da «predatori» (come è diventato necessario esserlo oggi) nel contesto globale degli scontri e delle prepotenze commerciali.
Non c’è qui nessuna intenzione di sostenere la bontà di società che si reggono su ormai improbabili equilibri stazionari, ma si vuole solo invitare a riflettere sull’attuale economia di mercato per valutare l’urgenza di un modello di sviluppo socialmente più qualificato e più temperato nell’esercizio di un potere centrale: attualmente non abbiamo nessuna alternativa alla «società dei consumi» e una sua eventuale crisi ci troverebbe del tutto impreparati ai necessari cambiamenti. C’è forse da ripensare ad un mercato dove possa agire lo scambio di risorse (e non solo il potere finanziario) fra paesi interessati a sviluppare buone relazioni e qualità umane di vita. È necessario uscire da quel quadro miserevole e avvilente di vita a cui sono condannati troppi nostri simili solo per i nostri egoismi, le nostre insipienze e le nostre paure armate.

Le ragioni del «no» a questo nucleare

Tempo di lettura: 8 minuti


Il prezzo del combustibile

Le analisi comparative puntano tutte sul basso prezzo dell’uranio rispetto al petrolio a parità di energia elettrica prodotta. Ma questa è una situazione che solo qualche sciocco potrebbe ritenere immutabile anche solo di qui a qualche anno. Il problema è che il costo dei combustibili (escluso quello reso disponibile da dismissioni militari e gestito da accordi di politica internazionale) è determinato concretamente, al di là di ogni impresentabile ipocrisia, da un cartello di produttori che tende, e riesce bene in questa direzione, a diventare gestore universale di tutti i tipi di combustibili, nucleare compreso.
Il costo dei combustibili è, dunque, sostanzialmente definito più che da un fittizio mercato «libero», da complesse relazioni militari, economico-finanziarie e di politica internazionale: diventa, così, un fattore poco flessibile sul mercato delle materie prime e viene, così, sottratto alle libere negoziazioni delle convenienze da parte dei paesi che, come l’Italia, sono solo consumatori.
Tutti sanno quanto le materie prime (petrolio compreso), oggi in particolare, siano sottoposte alle leggi speculative del mercato e come la differenza dei prezzi (e non il prezzo) fra i diversi tipi di combustibili dipenda dal peso delle diverse richieste (ricordiamo, qui, solo l’emblematico andamento del prezzo del gasolio che, in questi ultimi giorni, ha raggiunto il prezzo della benzina e che in pochi anni si è quasi raddoppiato solo perché è aumentata la domanda).
Così sarà anche per il combustibile nucleare (segnali forti in tal senso sono, oggi, già evidenti), che è destinato ad essere venduto allo stesso identico prezzo, di un qualsiasi altro combustibile, a parità di energia elettrica prodotta, pur se con rischi che, per il nucleare, sono imparagonabili con quelli di tutti gli altri impianti tradizionali di produzione elettrica. Ma forse c’è, ancora di peggio, da raccontare perché vi sono anche insopportabili «costi occulti» da pagare, come quelli legati alle strategie geopolitiche dei paesi produttori o distributori e ai ricatti imprevedibili delle impennate della speculazione.
Tutti costi, questi, che finiscono col pesare, con i loro spesso insopportabili condizionamenti e sottomissioni, sul «senso del vivere» umano delle popolazioni coinvolte nelle avventure del nucleare. In conclusione dobbiamo prendere atto che il costo dell’energia, elettrica in particolare, non lo fa la tecnologia scelta, ma chi vende risorse! Il monopolio dei produttori delle materie prime dell’energia porta fatalmente ad equiparare i prezzi di tutti i combustibili in funzione dell’energia che sono capaci di sviluppare: il minor costo dell’uranio e la diversificazione dei fornitori di combustibili sono fattori di nessun peso nelle relazioni commerciali fra produttori e consumatori non produttori. Una situazione, questa, specifica del nostro paese, che dovrebbe solo evitare inutili e pericolose avventure nucleari e che dovrebbe, invece, impegnarsi nella ottimizzazione delle tecnologie che sfruttano le risorse rinnovabili disponibili, in particolare: sole, vento e forse le correnti marine. Sarà poco, ma è ciò di cui disponiamo gratuitamente, insieme con la grande risorsa del risparmio energetico.

L’autonomia energetica della scelta nucleare

Su questa linea di problemi, per il nucleare, anche da parte dei responsabili politici delle scelte, si arriva a parlare, falsamente, di una nostra autonomia dalle importazioni che se è vera per alcuni paesi europei, non lo è per l’Italia. Noi, infatti, siamo importatori anche dei combustibili nucleari come della gran parte di tutti gli altri combustibili. Ma questa constatazione sembra non essere percepita. Sembra che i responsabili delle scelte non sappiano, o si rifiutino di sapere, che il minerale uranifero non è estraibile a prezzi convenienti sul nostro territorio nazionale e che, soprattutto, non disponiamo della complessa e insostituibile filiera per la produzione dell’uranio arricchito che è l?unico combustibile per i reattori nucleari di terza generazione.

Le conseguenze perverse di una scelta priva di flessibilità produttiva

Nelle analisi ambientali (studio degli impatti) si devono regolarmente prendere in esame quei «meccanismi anomali» che le diverse proposte alternative, di modifica di un territorio, possono eventualmente attivare andando al di là, se non proprio contro, le intenzioni dei progettisti e creando, così, altri e nuovi problemi. Per la scelta nucleare, l’incidenza di questo «meccanismo anomalo» ha una notevole rilevanza.
La rigidità della produzione elettrica da impianto nucleare, infatti, comporta una produzione continua di energia che non può essere modulata secondo le richieste. Dunque con la scelta nucleare sarà, anche, necessario assicurare tassativamente il consumo di energia elettrica che nominalmente viene prodotta dalla rete del nucleare elettrico. Un problema che si risolve (per non correre il rischio di dover fermare una o più centrali, con tutto il relativo complesso e dispendioso problema di doverle, poi, riportare a regime) con l’incentivazione dei consumi elettrici nei momenti di bassa richiesta: ore serali e notturne. Detto in altri termini il risparmio «presunto» del nucleare, anche se fosse reale, rischierebbe così di essere vanificato.
La conclusione è uno spreco incombente di energia elettrica nelle ore serali e notturne (per illuminazione urbana ed extra urbana e per il condizionamento estate-inverno degli ambienti) ed un conseguente inquinamento termico ambientale ingiustificato (dovuto a quel 60% di energia termica che accompagna sempre il rendimento del 40% di tutte le centrali termoelettriche a vapore, quelle nucleari comprese). Questo è ciò che avviene in tutti i paesi che hanno centrali nucleari fino alla terza generazione. Possiamo dunque dire, con motivati argomenti, che tutto questo è almeno una dispendiosa «ginnastica» senza senso che sconfessa, quel quadro, già molto opaco, dei presunti vantaggi del nucleare.

La sostenibilità del contributo, quantitativamente significativo, del nucleare ai consumi energetici nazionali

Il conflitto, fra l’industria energetica (che trova la sua missione e il suo interesse nella produzione e nei profitti derivanti dalla vendita di energia) e una politica di razionalizzazione dei consumi e di risparmio energetico, presenta il suo punto nodale più critico proprio nella definizione dei programmi di sviluppo dell’offerta di energia elettrica. Chi produce non può coltivare il «perverso proposito» di frenare la produzione, mentre chi consuma non ha interesse a utilizzare e pagare il servizio in quantità superiore alle sue necessità o a rinunciare alle opportunità di risparmio.

Il ruolo della politica è dunque essenziale e non può limitarsi a soddisfare interessi lobbistici contro gli interessi generali. Ma la scelta nucleare costringendo ad una produzione non flessibile di energia elettrica impone un’alterazione dell’equilibrio domanda/offerta. Una situazione che finisce col favorire un uso irrazionale e insostenibile delle risorse.
Non è un caso che il problema della sostenibilità sia tenuto in sordina, quasi come se si volesse rimuoverlo. La sostenibilità è, invece, un problema su cui non solo è necessario riflettere (e, invece, non capita di vederlo neanche richiamato, da quotidiani e riviste, nelle pur ampie paginate sul nucleare, oggi in gran parte ideologicamente schierate per il nucleare o ambiguamente neutrali) ma è anche un problema urgente a cui dare risposte per evitare i danni irreparabili di un intervento arrivato troppo in ritardo.
In un sistema democratico non si possono imporre scelte preordinate, ma ancor più non si può pensare di gestire settorialmente i problemi di tutti, mettendo così in pericoloso isolamento coatto quote significative di intere comunità locali e nazionali private del diritto di partecipare attivamente alle scelte. Una situazione molto critica, questa, se si tiene presente che la scelta nucleare non è una gara olimpica, nella quale «l’importante è partecipare» e che, quindi, un contributo significativo del nucleare al fabbisogno energetico italiano può essere dato solo con l’installazione di alcune decine di centrali.
Una scelta dalla quale, ammesso che sia sostenibile, non è neanche pensabile di poter tenere fuori le consapevolezze e le responsabilità di scelta e controllo dei cittadini. Ma il progetto (anche nella sua irrealizzabilità per le caratteristiche dei nostri territori e per limiti imposti dalle ricadute sociali e ambientali) rischia di rimanere sul «tavolo di comando» pronto solo a diventare esecutivo senza confronto decisionale democratico.
Un tale numero di centrali nucleari, peraltro, è anche economicamente insostenibile se non presenta una precisa destinazione e valorizzazione produttiva di nuove fonti di energia. Non sembra, infatti, che siano previste specifiche condizioni, di utilizzazione dell’energia prodotta capaci di generare quei maggiori profitti, e quindi quelle risorse finanziarie, necessarie per ripagare gli enormi costi diretti ed indiretti di una scelta nucleare. La nuova centrale in costruzione in Svezia, per esempio, ha un suo preciso gruppo di industrie di riferimento che, con la sua totale partecipazione finanziaria alla costruzione e alla gestione dell’impianto, si è assunto l’impegno di impiegare tutta l’energia prodotta, per lo sviluppo di attività produttive.

Problema scorie

Il problema scorie non cambia molto nel mondo. Anche in Usa, con tutti gli ampi spazi di cui dispone questo paese, il problema si presenta ugualmente irrisolto e vi sono, anzi, preoccupanti propositi coercitivi certamente non graditi dalla popolazione, per mettere a tacere la questione scorie, di fatto lasciando, così, il problema, definitivamente insoluto. Il problema delle scorie nucleari è un ben noto problema che non potendo essere confinato nelle aree off-limits delle centrali nucleari, emerge nel pieno delle sue irrealizzabili pretese di soluzione.
Ricordiamo qui che (escludendo il rilascio occasionale di materiale radioattivo per eventuali piccoli o grandi incidenti) per i rilasci di routine (scorie solide e liquide, gas e aerosol) gli impatti riguardano:

– l’irrisolvibile inertizzazione delle scorie solide e liquide e il loro sconfinamento sempre a rischio;
– per i gas e gli aerosol radioattivi (xeno, cripton, iodio…) gli effetti della loro immissione in aria ambiente (dalle ciminiere, dopo i trattamenti) sulla salute della popolazione, sono affidati a quelle valutazioni epidemiologiche che richiamano alla mente i 50 anni di inquinamento da amianto mortalmente passati nel limbo delle malattie professionali non riconosciute;
– gli effetti determinati dallo stressante e continuo malessere per un pericolo sempre incombente;
– il degrado per lunghi tempi del territorio, agricolo o abitato, e delle falde acquifere in caso di incidente, di atto di guerra o terroristico.

A fronte di questi ineludibili problemi la comunità tecnologica e parte di quella scientifica non trova di meglio che sorvolare sul problema proponendo inverosimili e non databili promesse di soluzione. In realtà non sappiamo proprio nulla su come il problema delle scorie dei reattori di terza generazione potrà essere risolto, di una cosa, però, possiamo essere sicuri: il conto delle spese da pagare sarà salatissimo, e si farà finta che il problema sia stato risolto.

La convenienza del nucleare

Sulla convenienza del nucleare hanno parlato in molti: ma i «se», peraltro detti sommessamente, si sprecano e di alcuni ne abbiamo riferito nella parte iniziale di questo articolo. Negli Usa molto concretamente, per assicurare profitti, lo Stato ha dato elevati incentivi e soprattutto ha posto un limite, per legge, ai risarcimenti, permettendo così un rischio di impresa sopportabile, ma a danno dei cittadini.
In Usa il ciclo dell’uranio è completo. La disponibilità in questo Paese di combustibile, autonomamente prodotto, offre qualche vantaggio in più, ma non si può, nonostante tutto, parlare di efficienza economica della relativa produzione elettrica.
In India, invece, c’è grande disponibilità di torio (combustibile del nucleare di quarta generazione) e la ricerca sta portando ad un sistema (per ora ancora sperimentale) con una maggiore efficienza (60 volte superiore) e con scorie in bassa quantità e minore impatto per la sicurezza.

In Italia niente di tutto questo e quindi allo stato attuale, se il governo decidesse di voler lasciare la sua «impronta nucleare» con «cose fatte», certamente non punterà sulla ricerca, ma sull’acquisto di brevetti e apparecchiature da società estere (che saranno solo montate da società italiane), acquisterà combustibile a prezzi decisi totalmente dal venditore, tratterà con compiacenti altri paesi per il deposito temporaneo delle sue scorie, almeno per ritardare il problema, rimandando ad altri, le responsabilità inalienabili di averle prodotte. Alla fine i costi risulteranno notevoli e quindi lo Stato assumerà in proprio la costruzione delle centrali (fingendo un project financing, a carico dei «privati»… ma sostanzialmente a carico delle «imprese di Stato», «privatizzate», ancora con disponibilità di finanziamenti statali.
Così anche la gestione degli impianti sarà probabilmente affidata a terzi, ma, per problemi di sicurezza e di relazioni internazionali, l’approvvigionamento del combustibile sarà esternalizzato e sarà a carico dello Stato, cioè non graverà sulle spese di gestione dell’impianto, falsandone i costi. Ancora, si deciderà una nuova autorità, per attribuire ad un ente esterno il controllo, tirando fuori, così, lo Stato, come «decisore», dalle responsabilità dirette delle scelte effettuate, da eventuali contenziosi e da non convenienti perdite di immagine. Alla fine la nostra comunità pagherà tutti i costi, mentre il gestore degli impianti potrà spudoratamente rendicontare il basso costo dell’energia nucleare e fare anche profitti.
Il fatto è che il nucleare, di per sé solo una complicata fonte di energia termica, richiede non solo fondate teorie scientifiche, studi di fattibilità, adeguate tecnologie (tutte cose di supporto alle scelte umane e invece spesso trasformate in «dimostrazioni incontestabili» delle «meraviglie del nucleare», da invocare per l’«imbonimento» degli sprovveduti), ma richiede anche discernimento, intelligenza e assennatezza nelle valutazioni e decisioni che rispondano a obiettivi e finalità di «progresso» umano e non solo di «sviluppo» deciso dall’economia. C’è il rischio, altrimenti di attivare consensi (quanto meno ingenui e carpiti con l?inganno di un’informazione incompleta) verso scelte poco o niente argomentate nel merito delle visioni più profonde del vivere umano. C’è il rischio di far assumere indirettamente, ad intere comunità, le responsabilità di quelle ben note e rovinose conseguenze che, come la storia insegna, non potranno mai trovare giustificazioni e assoluzioni in sentite passioni e in entusiasmi ideologici, qualunque siano le nobili origini e le buone ragioni che possano vantare.

Il modello della sostituzione efficiente

Tempo di lettura: < 1 minuto

Finora i consumi di energia primaria da fonti fossili sono stati via via abbattuti con la sostituzione di componenti tecnologiche a consumo più basso e con l’introduzione di sistemi di generazione basati su fonti rinnovabili. La «sostituzione efficiente» ha permesso una rapida penetrazione di queste tecnologie sul mercato attraverso un’azione combinata tra gli incentivi, che riguardano il conto energia, i certificati bianchi, il recupero fiscale del 55%, e i requisiti minimi relativi ai sistemi energetici, ai motori, agli edifici e agli elettrodomestici.
Si tratta di una strategia che dovrebbe consentire di conseguire l’obiettivo del recupero del 9,6% entro il 2016, come previsto dal Piano d’azione italiano per l’Efficienza energetica.

Il modello dello sviluppo integrato dell’efficienza

Tempo di lettura: < 1 minuto

Il limite dell’approccio appena citato si potrebbe esprimere con una metafora: «tanti strumenti musicali perfetti non fanno un concerto». Ciò che manca alla metodologia della «sostituzione efficiente» è una visione più sistemica, che permetta di valutare un insieme coordinato di nuove tecnologie di consumo e generazione locale di energia, armonizzato con le opportunità territoriali e le esigenze locali. Un esempio concreto è rappresentato dalla valutazione energetica degli edifici, dove l’applicazione asettica delle singole tecnologie «top class» (classe A su involucri ed impianti), progettate sul principio della soddisfazione delle richieste nel periodo di maggiore sollecitazione, può portare alla vanificazione dell’intervento stesso. In questo caso, la soluzione ottimale va individuata a livello complessivo, valutando per l’intero edificio gli indici relativi a prestazioni, efficienza, costo, CO2 dell’intero sistema edificio-impianto, sulla base di un modello di calcolo dinamico che includa le caratteristiche climatiche locali ed i comportamenti estate-inverno. Si può scoprire così che alcune tecnologie sono tra loro contrastanti, che le caratteristiche climatiche locali generano soluzioni differenti e che soltanto una progettazione ottimizzata può abbattere i costi e i tempi di ritorno dell’investimento.

Il distretto energetico ad alta efficienza

Tempo di lettura: 3 minuti

Lo stesso principio valido per il sistema edificio-impianto di produzione, può essere applicato sia a piccoli insediamenti omogenei di varia natura (residenziale e non residenziale, aziende) sia ad agglomerati territoriali più ampi (paesi, quartieri, distretti industriali). È questo il modello del distretto energetico ad alta efficienza, ovvero di insediamenti in cui, attraverso un mix di soluzioni tecnologiche, è possibile ottimizzare l’interazione tra consumo e generazione locale dell’energia, riducendo i consumi e ricorrendo quanto più possibile alle fonti rinnovabili. La visione integrata del distretto energetico permette di agire sulla minimizzazione dei consumi delle singole utenze, sulla produzione locale ed economica dell’energia e sulla razionalizzazione del sistema dei trasporti. La scelta dei prodotti va operata in base a tecnologie di sistema che consentano la progettazione e la gestione ottimale del sistema stesso (in Figura lo schema di un distretto energetico integrato in cui un ampio insieme di tecnologie sono integrate tra loro sia nella fase di progettazione sia nella fase di gestione).

La minimizzazione dei consumi delle utenze coinvolge tecnologie legate agli edifici residenziali o non residenziali o industriali: materiali per l’involucro, vetri a bassa emissività, serramenti, coperture, riscaldamento e raffrescamento, illuminazione, elettrodomestici, utenze termiche ed elettriche, ciclo dell’acqua e dei rifiuti.

La produzione locale dell’energia presuppone tecnologie di generazione distribuita (cogeneratori, microcogeneratori, sistemi di accumulo, pompe di calore, rete di distribuzione termica ed elettrica, sistemi di dispacciamento e connessione alla rete elettrica nazionale), sistemi basati su fonti rinnovabili (collettori solari, pannelli fotovoltaici, cogeneratori a biomassa, minieolico, solare ad alta temperatura, raffrescamento solare) e sistemi basati sui nuovi vettori (celle a combustibile, combustori per miscele ad alto contenuto di idrogeno).

La razionalizzazione energetica consiste nell’utilizzo di mezzi a basso consumo e basso impatto ambientale (veicoli ibridi o elettrici, alimentati a biocombustibile o a idrogeno) e nell’impiego di tecniche informatiche.

La progettazione ottimale del sistema è uno degli aspetti da cui dipende il successo dell’intervento. Si tratta essenzialmente di tecnologie software (Smart Energy Design) che hanno la capacità di modellare in modo dinamico le utenze, le reti energetiche ed i sistemi di controllo nelle loro interazioni.

La gestione ottimale si fonda su sistemi intelligenti (Ict) che includono gli impianti di controllo delle singole utenze e delle singole sorgenti, i sistemi di diagnostica della rete energetica, i sistemi per la gestione delle emergenze (in particolare black out e capacità di lavorare in isola con possibilità di mitigare le richieste delle utenze) e i sistemi di trasmissione a centrali di controllo remoto (molto importante quando questo servizio è offerto da aziende Esco). Oltre alle tecnologie menzionate, in buona parte già disponibili, ne esistono altre che potrebbero rivelarsi molto utili nella fase della gestione. Si tratta di una serie di funzioni che permettono di far evolvere nel tempo la stessa modalità di gestione del sistema in relazione a variazioni di condizioni esterne come i costi del combustibile o delle tariffe orarie dell’energia elettrica, l’invecchiamento dell’impianto, i nuovi vincoli normativi o le variazioni nel sistema degli incentivi, i cambiamenti


climatici stagionali o annuali. Le tecniche di ottimizzazione evolutiva consentono di calcolare in linea gli indicatori citati in precedenza e di perfezionarli al fine di massimizzare i margini di rendimento e i parametri economici.

Naturalmente esistono diverse tipologie di distretti energetici ed ognuna di esse richiede una specifica architettura energetica che dipende anche da aspetti legati al territorio. In particolare l’approccio del distretto energetico integrato può essere suddiviso essenzialmente su tre livelli: scala unitaria di un grande edificio o una singola utenza importante; scala locale di una area con diverse utenze; scala territoriale con utenze e sorgenti energetiche diffuse su una porzione di territorio.

Nel caso di una grande utenza solitamente si tratta di un grande edificio che ha consumi rilevanti. In questa circostanza l’intervento deve essere concentrato per lo più sulla riduzione dei consumi energetici dell’edificio stesso e sulla perfetta integrazione con fonti rinnovabili (fotovoltaico o collettori solari) e con la rete dei servizi energetici (riscaldamento, raffreddamento, acqua sanitaria, illuminazione), dando luogo ad un progetto di Ecobuilding.

Nel secondo caso, quello di un insediamento locale ed omogeneo, si parla di power park. Gli esempi più interessanti sono quelli legati al terziario, tra cui figurano uffici, centri commerciali, impianti sportivi e termali, grandi alberghi e centri turistici, snodi di trasporto (stazioni, metro, aeroporti, porti), parchi a tema, scuole, ospedali, caserme, uffici postali e catene di ristoro. Altrettanto importanti sono gli insediamenti residenziali come condomini, villaggi turistici, centri abitativi di nuova costruzione e complessi di edilizia popolare.

Altro ambito particolarmente significativo è quello delle aziende (energy farm) la cui razionalizzazione energetica può essere condotta, non soltanto all’interno dello specifico ciclo produttivo sostituendo i macchinari, ma anche al livello di rete energetica attiva con autoproduzione locale. Questo è possibile attraverso l’eventuale sfruttamento delle specificità dell’azienda, come gli scarti di lavorazione, delle aziende vicine e delle caratteristiche del territorio.

La trasformazione del sistema energetico e le «Smart Grids»

Tempo di lettura: 2 minuti

Su scala territoriale lo stesso approccio può essere applicato ad interi quartieri di un centro urbano, a paesi e villaggi e a distretti industriali. Queste applicazioni conducono generalmente a mini-reti energetiche locali che spesso includono la poligenerazione ed il teleriscaldamento e sono connesse alla rete elettrica nazionale. Per questo si parla di «smart grids», ovvero reti attive locali intelligenti. Nella foto la visione europea per la trasformazione del sistema energetico: la smart grids è la rete connessa di una serie di distretti energetici integrati (power parks) autosufficienti dal punto di vista della generazione di energia localmente consumata.

Quello delle Smart Grids è un argomento molto sentito, in particolare in Europa e negli Stati Uniti dove sono stati lanciati progetti di ricerca e piattaforme tecnologiche. L’idea di base è che si stia verificando una transizione fondamentale del sistema di generazione e distribuzione dell’energia, basata in modo consistente sul ricorso alla generazione distribuita evocando una struttura molto simile alla cosiddetta «internet dell’energia». Questa trasformazione è la risposta naturale del sistema alla liberalizzazione del mercato dell’energia, all’introduzione delle fonti rinnovabili (decisamente più competitive se integrate nel sistema locale), all’introduzione delle tecnologie dell’informatica e delle telecomunicazioni e alla richiesta sociale di autoproduzione di energia.

Si tratta di un cambiamento epocale che tende a spostare sempre più il peso dall’energia prodotta a livello centralizzato verso una dimensione più distribuita. La struttura decentrata è composta da sistemi locali di autoproduzione e consumo connessi tra loro e con il sistema centralizzato. Attualmente per quanto riguarda le problematiche delle reti attive e della stabilità dell’intero sistema elettrico, le smart grids si trovano in fase di ricerca: per creare un sistema stabile la strada da percorrere resta ancora in salita. Occorre attendere almeno dieci anni per lo sviluppo effettivo delle connessioni, anche se oggi è già possibile realizzare i nodi della rete.

La roadmap dello sviluppo integrato dell’efficienza

Tempo di lettura: 2 minuti

Bisogna muoversi in una logica di sviluppo integrato con un vero e proprio modello di intervento applicabile progressivamente sia nelle nuove costruzioni, sia negli interventi di riqualificazione di insediamenti esistenti. Favorendo un processo di aggregazione a livello locale, sarà possibile conseguire un forte risparmio energetico ed economico e benefici ambientali. Questo modello offre la possibilità di stabilire nuove sinergie in tutta la filiera degli attori coinvolti, dall’utente al produttore, dal gestore al finanziatore, dalla Pubblica Amministrazione al mondo della ricerca. È innegabile che un modello di sviluppo integrato avrà come ricadute l’abbattimento dei consumi, ma permetterà di utilizzare diversamente il risparmio ottenuto con una riduzione della dipendenza energetica dall’estero, riorientandolo verso l’indotto creato nel territorio, con conseguenze benefiche sull’occupazione, sulla partecipazione dei cittadini e sulla sensibilità ambientale.

Lo sviluppo integrato dell’efficienza e la sostituzione efficiente sono due modalità applicabili in tempi diversi. Nel caso della sostituzione efficiente l’effetto atteso risulta rapido e capillare, con tempi di ritorno dell’investimento compresi tra i 2 e i 5 anni, mentre nel caso dello sviluppo integrato i tempi sono compresi tra i 5 e i 20 anni.

La diffusione di un modello capace di cambiare radicalmente lo scenario energetico esistente richiede una roadmap (vedi foto) con le seguenti tappe: sviluppo di tecnologie di sistema; diffusione di dimostratori pilota entro i prossimi 5-8 anni; diffusione ampia dei power parks come modello di riqualificazione energetica del territorio; graduale connessione dei power parks e formazione delle Smart Grids a partire dal 2020 (in parziale sostituzione dell’attuale sistema elettrico).

Seguendo questa strategia, Enea si è impegnato a proporre le prime due direttrici, quella dello sviluppo delle tecnologie di sistema e quella della realizzazione dei dimostratori pilota.

Gli strumenti per avviare la prima fase della roadmap sono essenzialmente due: 1) lo sviluppo, il trasferimento e la diffusione delle tecnologie di sistema; 2) lo sviluppo di progetti di dimostrazione e mobilizzazione.

Sviluppo, trasferimento e diffusione delle tecnologie di sistema: la piattaforma Odesse

Tempo di lettura: 3 minuti

È necessario intervenire sulle tecnologie di sistema, non ancora in grado di fornire soluzioni globali e integrate per edifici-impianti e distretti energetici.

Si tratta di carenze dovute alla difficoltà di costruire sistemi di modellazione e simulazione a carattere multidisciplinare che permettano di integrare conoscenze e linguaggi attualmente separati. I modelli necessari spaziano dall’architettura bioclimatica ai nuovi materiali per l’edilizia, dalle normative sull’impatto ambientale alla certificazione energetica, dalla generazione distribuita alle reti termiche ed elettriche, dalle fonti rinnovabili alla modellistica climatica, dall’illuminazione efficiente ai sistemi di controllo intelligenti, dalle tecniche di ottimizzazione alla telegestione. Il collante è costituito dalla tecnologia Ict, il cui uso massiccio risulta fondamentale per un’integrazione complessiva.

Questo sforzo risulta ancora in divenire e non esistono strumenti in grado di favorire l’integrazione. Uno dei progetti su cui Enea sta puntando è lo sviluppo della piattaforma Odesse (Optimal DESign for Smart Energy). (vedi foto) L’obiettivo è la diffusione di una serie di programmi di calcolo integrati in una piattaforma software in grado di simulare dinamicamente edifici complessi e sistemi di edifici, connessi ad impianti di generazione distribuita e fonti rinnovabili con condizioni tariffarie, fiscali e normative reali. Un modello dinamico del sistema offre la possibilità di valutare il comportamento dell’intero sistema sull’anno di riferimento, in funzione delle caratteristiche meteo e delle richieste provenienti dal contesto territoriale. L’abbinamento del simulatore dinamico e dei sistemi di ottimizzazione permette di individuare la soluzione progettuale migliore rispetto ad una ampia varietà di parametri (costo, risparmio energetico, comfort, gestione, normativa) senza dover ricostruire tutte le configurazioni dell’impianto.

L’ambizione del progetto è quella di costituire un sistema di calcolo che sia oggettivo, accurato e condiviso almeno nel contesto italiano.
Per oggettivo si intende che possa essere considerato super partes senza essere chiuso su particolari architetture energetiche ma possa essere aperto ed offrire la possibilità di confronto, attraverso molteplici indicatori, di diverse soluzioni identificate dall’utente o proposte da un sistema di ottimizzazione.
Per accurato si intende basato sulla modellazione dinamica e sulla migliore modellistica fornita dallo stato dell’arte del momento in modo da poter essere considerato effettivamente riferimento tecnico-scietifico.
Per condiviso si intende che possa essere il risultato congiunto di una comunita tecnico-economica-amministrativa che vi riconosce, lo diffonde capillarmente, lo assume come riferimento.

Per sua definizione, la realizzazione, la qualificazione e la diffusione di Odesse è molto impegnativa e non può essere affrontata singolarmente da Enea. Per questo Enea sta costituendo e coordinando un ampio network che si fonda su quattro reti interconnesse. La prima rete è composta da università ed enti di ricerca e mira allo sviluppo modellistico e la qualificazione sperimentale in modo da ottenere l’accuratezza necessaria in ogni settore di conoscenza. La seconda rete fa riferimento ad un ampio sistema industriale di produttori di componenti di molteplice natura (componenti di edificio quali materiali, infissi, isolanti termici; macchine per la climatizzazione estate-inverno e la generazione distribuita; sistemi basati su fonti rinnovabili integrabili o meno nell’edificio; sistemi di illuminazione interno-esterno; sistemi di controllo;).


La terza rete è quella più ampia ed include tutti gli utenti (progettisti, integratori, gestori, impiantisti, professionisti, costruttori, associazioni imprenditoriali), alcuni dei quali fanno parte di un gruppo selezionato che attraverso l’uso ed i feedback aiuta gli sviluppatori nel miglioramento ed estensione del sistema (beta tester). Infine la quarta rete è quella della pubblica amministrazione che a vari livelli, centrale, locale, Eu è coinvolta nell’utilizzo della piattaforma sia per lo sviluppo e simulazione di nuove normative (incentivi, requisiti minimi), sia per lo sviluppo di piani regionali e sia per utilizzare tale risorsa di calcolo come riferimento all’interno dei programmi attuativi delle normative.

Lo sviluppo di Odesse è attualmente finanziata sul Programma per la Ricerca di Sistema del Mse e molte Università stanno lavorando in questa direzione. La distribuzione dei risultati del programma sarà di libero utilizzo per avere la massima diffusione della piattaforma. In futuro è previsto un programma di partecipazione al finanziamento dello sviluppo ed estensione della piattaforma da parte delle aziende produttori che inseriscono i loro prodotti nel sistema secondo i requisiti di scientificità concordati con Enea. Per la diffusione giocheranno un ruolo di primo piano le associazioni imprenditoriali, le associazioni di consumo, la Pubblica amministrazione centrale e locale.

Sviluppo di progetti dimostrativi

Tempo di lettura: 2 minuti

Con alcuni progetti dimostrativi si intende sviluppare soluzioni ottimali per specifiche tipologie di distretto energetico (Power Parks)

Il dimostratore permette di fruire riscontri sull’efficacia tecnico-economica dell’innovazione in termini di prestazioni, costi, efficienza, competitività e certezza sui tempi di ritorno degli investimenti. Parallelamente, si dovrà prevedere un’attività di «Technology Push» per favorire il trasferimento tecnologico attraverso iniziative di partnership e spin-off, la creazione e diffusione di una vera e propria filiera e il sostegno verso l’accettabilità sociale dell’insediamento. La seconda fase punta a creare un volano per replicare l’esperienza in varie direzioni: diffusione presso i tavoli italiani ed europei per azioni mirate di governance; diffusione verso i decision makers della Pubblica amministrazione e degli enti locali; azioni di trasferimento ed industrializzazione delle tecnologie sviluppate; diffusione delle informazioni tecniche; azioni di sostegno verso le aziende; attività di formazione per la produzione di specifiche figure professionali.

In questa prospettiva Enea sta promuovendo ItalyParks, ampio programma per la realizzazione di progetti integrati basati su dimostratori territoriali. La selezione dei distretti energetici pilota, basata sulla capacità di favorire il risparmio energetico e la creazione di un indotto industriale rappresenta uno dei punti di forza del programma. I progetti integrati sono organizzati per segmenti di utenza tra cui figurano distretti ospedalieri, complessi di edilizia sociale, plessi scolastici, centri uffici, centri di ricerca ed università, paesi di media dimensione, quartieri urbani, centri storici e complessi monumentali, villaggi turistici, grandi alberghi, aeroporti, stazioni ferroviarie, centri sportivi, centri commerciali, condomini, distretti ed aree industriali.

Per ognuna di queste grandi utenze è previsto lo sviluppo di soluzioni e tecnologie ad hoc, sia dal punto di vista della progettazione che da quello del controllo, fino a costruire dei «pacchetti integrati» che identifichino non soltanto le soluzioni tecnologiche ma anche quelle finanziarie e gli standard per la replicazione. In questo modo sarà possibile, facilitare l’azione delle aziende nell’offerta competitiva dell’intero «pacchetto integrato» anche a livello internazionale.

Nella foto lo schema di un progetto mobilizzatore di dimostrazione di un distretto energetico ad alta efficienza.

La situazione nel Mediterraneo

Tempo di lettura: 2 minuti

Nel confronto tra i dati degli anni 90 ed il 2007 nel tratto Civitavecchia-Golfo Aranci è risultata aumentata la frequenza di avvistamento (animali avvistati per ore di osservazione) di circa il 75% per la balenottera e del 30% per la stenella.
Per i risultati finali del 2008 bisognerà aspettare l’autunno, ma i primi dati evidenziano una forte presenza di balenottere nel Tirreno, molte delle quali con il piccolo. Numerosi i branchi di stenella (un piccolo delfino di un paio di metri) soprattutto nella metà sarda della tratta Olbia-Civitavecchia. Uno dei primi risultati del 2008 è la conferma della presenza nel Tirreno centro-settentrionale di un corridoio marino, già rilevato negli studi degli anni precedenti. Gruppi di balenottere, molte delle quali con i loro piccoli, sono stati avvistati, infatti, tra le Isole di Capraia e Gorgonia ed in un tratto di 20 miglia ad est delle coste della Sardegna nel periodo maggio-giugno 2008, confermando il trend di migrazione delle balenottere tra il Santuario dei cetacei e il Canale di Sicilia. Benché sia ormai stabilito che la balenottera è una specie presente nel Mediterraneo, le informazioni sul numero di animali presenti, sulle rotte e le migrazioni sono ancora troppo scarse e frammentate.

Tra le specie più numerose nella zona di Golfo Aranci è stato osservato il delfino costiero o tursiope, l’animale che per la sua resistenza e robustezza più di altri viene ospitato nei delfinari. Attirati probabilmente dall’itticoltura e dai pescherecci, i tursiopi si aggirano numerosi lungo le coste sarde in cerca di cibo e, mossi dalla necessità di procacciarselo, con grande facilità si adattano a nuovi habitat. Anche nelle acque vicino a Civitavecchia sono numerose le presenze di delfini costieri.

Il monitoraggio sistematico del Tirreno e la raccolta di dati sulle specie presenti consentirà finalmente di rispondere a domande ancora aperte: quanti e quali sono i cetacei più presenti nei nostri mari? E in quali periodi dell’anno si muovono da una zona all’altra? Che sia necessario disporre di un archivio organico di dati storici sui cetacei riferito all’Italia lo dimostrano le ricerche degli ultimi venti anni. Altrettanto fondamentale è definire un metodo unico e univoco di raccolta delle informazione così da rendere i dati confrontabili fra loro.
In Italia esiste un puzzle di informazioni su questi animali, ma appare prioritario definire linee guida per la raccolta e il monitoraggio delle specie, così da comprenderne lo stato di salute, i rischi ai quali sono sottoposti e individuare le azioni più idonee alla loro conservazione. Per questo motivo l’Irpa (già Apat e già Icram), in collaborazione con il Conisma e con il patrocinio del ministero dell’Ambiente e del Mare hanno organizzato un workshop Nazionale per la predisposizione di linee guida alla cui stesura partecipano gran parte dei ricercatori e delle organizzazione che in Italia studiano i cetacei.

La ricerca del materiale adatto e l’ingresso delle nanostrutture

Tempo di lettura: 2 minuti

Allo stato attuale delle ricerche, la comunità scientifica che si interessa dell’Effetto Fleishmann & Pons (generalizzato a fusione nucleare fredda) ha riconosciuto il ruolo cruciale della scienza dei materiali per migliorare il controllo del sistema Pd-D (palladio deuterio) al fine di potere studiare la produzione di eccesso di calore (anche detta eccesso di entalpia) durante il processo elettrochimico di caricamento di fogli sottili di palladio con deuterio. Si ottengono così livelli di riproducibilità molto elevati (quasi del 100%) nel caricamento del Pd sino ad un rapporto D/Pd ≈ 1 (atom.fract) che viene normalmente considerato la soglia per la verifica dell’osservazione di eccesso di potenza.
Tuttavia questa condizione D/Pd ≈ 1 però è solo una condizione necessaria ma non sufficiente per la osservazione (e quindi ripetibilità) dell’effetto di eccesso di potenza. Questi aspetti hanno spostato recentemente gli studi verso l’analisi delle proprietà superficiali e di volume del foglio di palladio al fine di correlare l’eccesso di entalpia con le proprietà di struttura della materia.
In altre parole, i fenomeni di fusione nucleare fredda in materia condensata o stato solido avvengono in sistemi compositi con arrangiamento regolare di nuclei ospitanti (C, Ti, Ni, Pd, ecc.) degli isotopi di idrogeno (H, D).

Uno dei filoni più interessanti di nanostrutture è quello concepito dal dott. Akito Takahashi come base seme per la fusione di un «cluster» di deutoni in modo da produrre calore con polvere di elio-4. Le strutture impiegate da Takahashi provengono dalla formazione di Ad/Tsc (tetrahedral symmetric condensate) attorno al sito-T di un reticolo regolare di PdD (palladio deuterato) sottoposto ad eccitazione fotonica oppure su superfici topologicamente frattali di nano strutture di PdDx e/o lungo le interfacce di un composto nanometrico di metallo-ossido-metallo. Il modo dinamico del condensato Tsc è stato studiato quantitativamente applicando la equazione differenziale stocastica quanto-meccanica di Langevin ad un sistema costituito da un «cluster» a molti corpi di deutoni e elettroni con simmetria platonica. Proprio questa ultima proprietà è contestata dai seguaci (tra i quali il sottoscritto) della Meccanica Adornica (di Ruggero Santilli) che considerano impossibile impiegare in reazioni di fusione nucleare il modello a simmetria platonica e planetaria.
Tuttavia, il gruppo di Takahashi ha sviluppato una successiva variante interessante basata sulla teoria dell’espansione dell’elettrone pesante e massivo, inteso come quasi particella in modo da potere trattare gli aspetti temporali del processo di fusione, stimando tra l’altro le probabilità di penetrazione della barriera di Coulomb del «cluster» (grappolo) di 4d (quattro deutoni).
Questo filone basato sull’impiego di nanotecnologie (nanoparticelle di palladio in atmosfera di deuterio) è diventato, senz’altro, la via principale di ricerca in campo di Fnf in materia condensata o stato solido.
Nell’ambito di questa panoramica iniziale, molti gruppi di ricercatori hanno preferito dirigere le loro ricerche in questa nuova direzione ottenendo risultati molto promettenti, con produzione di eccesso di calore, elio e trasmutazioni.

Le novità del 14mo Convegno internazionale Iccf

Tempo di lettura: 3 minuti

Lungo queste direttive si è svolto il 14mo Convegno internazionale Iccf, «Exciting New Science Potential Clean Energy», allo «Hyatt Regency on Capitol Hill di Washington DC» dal 10 al 14 agosto 2008. Sostanzialmente si è fatto il punto sullo stato dell’arte della Fusione Nucleare Fredda della materia condensata originata dal cosiddetto Effetto Fleishmann & Pons (Efp).
Dopo le relazioni di apertura, gli argomenti trattati vanno dai risultati delle misure calorimetriche negli esperimenti di Fusione Nucleare Fredda nella materia condensata, allo studio dei materiali impiegati; quindi dal caricamento veloce di tipo di gas impiegati alle onoranze a grandi ricercatori come Yoshiaki Arata e Stanislaus Szpak; dalle misure di particelle alle opportunità e possibilità di replicazione e controlalbilità dell’Efp; dalla trasmutazioni e reazioni nucleari a bassa energia alle teorie avanzate sulla Fnf; dagli esperimenti con acceleratori che sfruttano l’effetto di schermaggio aumentato degli elettroni nelle reazioni d-d sottoposte a ultravioletto sino alle misure ottiche e di materiali. Molto interessante è stata la sessione dedicata alla storia dell’Effetto Fleishmann and Pons nei vari Paesi del Mondo (Giappone, Inghilterra, Francia, Germania, Italia, India, Russia, Stati Uniti ecc.).

Di fatto, tutta la storia dell’Effetto Fleishmann & Pons è costellata di problemi di natura scientifica, tecnica, procedurale e quant’altro. Allo stato attuale, si osserva una serie abbastanza consistente di fenomeni e problemi che rendono del tutto aperti gli studi sull’Efp. Tra questi problemi bisogna annoverare la imperfetta ripetibilità degli esperimenti Efp, la mancanza di una teoria esaustiva e perfetta (rispetto al gran numero di molte decine di teorie proposte), i risultati sperimentali alcune volte inadeguati, la limitazione delle comunicazioni scientifiche solo entro un ambito ristretto dell’editoria scientifica a causa della inibizione di canali scientifici preferenziali e consolidati, le difficoltà di ottenere il rilascio e riconoscimento di brevetti ed altro. Bisogna rendersi conto che queste difficoltà nascono dalla natura intrinseca dei fenomeni di Fnf in materia condensata che sono di natura prettamente interdisciplinare e intrinsecamente complessi. La cultura scientifica necessaria a comprendere, controllare e gestire i fenomeni di Fnf che originano dall’Efp deve essere molto varia poiché copre aspetti elettrochimici ed aspetti di fisica nucleare nella materia condensata. Questi ultimi appaiono ormai completamente diversi dai fenomeni analoghi che avvengono nel vuoto.
Tuttavia, contro tutte queste difficoltà le comunità scientifiche dei suddetti Paesi hanno dedicato molti studi alla Fusione Nucleare Fredda raggiungendo mete e notevoli progressi, negli ultimi venti anni. Così, la grande messe di esprimenti eseguiti in Russia, in Giappone, in Italia, in Francia, in India, in Cina ed in altri Paesi piccoli si è dimostrata molto produttiva e illuminante dei fenomeni che, galileianamente, avvengono nel mondo della materia condensata del tipo matrici di palladio caricata con deutoni. In altre parole, i risultati sperimentali raccolti in tutto il mondo consentono di comprendere molte caratteristiche dell’Effetto Fleishmann & Pons (Efp).
Come è costume in scienza questa conoscenza empirica è la base della conoscenza tuttavia senza una teoria che spieghi e predica il fenomeno la conoscenza è e rimane monca. Storicamente la teoria indirizza la sperimentazione


forzandola a verificare le leggi previste. In mancanza di una teoria capace di predire il funzionamento, la sperimentazione consente di acquisire solo conoscenza empirica, con tutta la sua galileiana verità.
Nell’ambito dell’ultima conferenza Iccf, sono stati presentati molti lavori i cui risultati sono stati convalidati con dati di alta qualità ossia con dati il cui rapporto segnale-rumore è molto buono e tali da dimostrare, con alto livello di confidenza, che è possibile indurre reazioni nucleari a temperatura ed energia ordinaria. La panoramica di reazioni nucleari indotte nella materia condensata copre sia le reazioni nucleari e/o trasmutazioni di elementi pesanti sia reazioni di fusione di elementi leggeri del tipo deutoni ecc.
Sussistono forti evidenze [Iwamura (MHI) et alter] che le reazioni nucleari avvengono sulla superficie dei materiali solidi. Nell’ultimo decennio la scuola giapponese facente capo al prof. Arata ha messo a punto matrici di dimensioni nanometriche introducendo così nel campo della Fusione Nucleare Fredda la nanotecnologia da cui si spera di ottenere sconvolgenti risultati. Purtroppo, gli strumenti di nanotecnologia sono abbastanza costosi e quindi non è stato facile introdurli nella ricerca sull’Effetto Fleishmann & Pons (Fnf) a causa dei finanziamenti moto bassi erogati fin’ora.
I risultati e i dati dei vari esperimenti eseguiti sono ormai disponibili in varie forme che vanno dai vari «proceedings» specifici, alle relazioni nella rete internet a diversi giornali scientifici. Questa enorme disponibilità di dati ha convito e sta convincendo molti dubbiosi della validità della ricerca nel campo della Fnf.

Un campo legittimo di ricerca

Tempo di lettura: 3 minuti

In particolare, appare dall’analisi delle relazioni della suddetta quattordicesima conferenza Iccf, dalle note, dalle presentazioni iniziali e dalla relazioni intermedie che è ormai chiaro ed inequivocabile che il DoE, forse assieme con MoD, comunica al mondo che crede nell’Effetto Fleishmann & Pons e quindi rilancia la ricerca applicata nel campo della Fusione nucleare fredda.
Nessuno si perita di sconfessare e/o scomunicare il verdetto negativo emesso, nel 1990, dalla commissione instaurata dal DoE guidata dal noto fisico nucleare classico Huigenza. Questa commissione decretò che i fenomeni comunicati pubblicamente da Fleishmann & Pons non avrebbero potuto accadere poiché erano contro la fisica nucleare allora conosciuta. In sintesi rivolgendosi alla Commissione di Huigenza i nostri avi avrebbero solo detto «…non ti curar di lor ma guarda e passa».
In poche parole, la ricerca sulla Fusione nucleare fredda (Fnf) o l’Effetto Fleishmann & Pons è diventata un campo legittimo della scienza (Scienza Nucleare nella Materia Condensata) e non solo una collezione di errori, come alcuni denigratori sono andati dicendo per quasi due decenni.
Molti suggerimenti sono stati e continuano ad essere erogati da vari gruppi di ricercatori, che, tra l’altro, hanno studiato a fondo tutte le critiche ed i risultati negativi pubblicati al punto da sostenere che le analisi statistiche e Bayesiane mostrano che le osservazioni dell’Effetto Fleishmann & Pons presentano criteri e dati di produzione di eccesso di calore che devono essere considerati un effetto fisico reale «al di là di ogni dubbio razionale». I quattro criteri caldamente suggeriti per la esecuzione di esperimenti alla F & P che risultino «ripetibili» sono della seguente specie:

1 ? Eseguire gli esprimenti con molta attenzione e cura nel caricare il Palladio molto lentamente in modo da garantire condizioni tali da fornire rapporto di caricamento D/Pd superiore a 0,85.
2 ? Porre molta attenzione e cura nel rispettare la chimica del sistema in modo da creare condizioni superficiali favorevoli dei materiali impiegati.
3 ? Fare attenzione a caricare con densità di corrente al di sotto di 25 mA/cm2 quindi continuare l’esperimento con densità di corrente al di sopra di 250 mA/cm2 per aumentare il flusso di D (deutoni) al catodo.
4 ? Porre attenzione a stabilire condizioni di non equilibrio per innescare l’inserimento di deutoni D in posizioni non statiche all’interno del catodo.

In molte esperienze recenti di Efp sono state impiegate tutte le tecniche ben note di sviluppo di sistemi elettronici quali il campionamento alla Nyquist, l’integrazione nel tempo, il controllo ohmico termico, la ricostruzione delle onde termiche, e altre tecniche moderne ed avanzate per ottenere lo spettro di potenza termica. Inoltre, vengono ormai impiegate tecniche più precise di misurazione e controllo, di riconoscimento dei guasti e dei modi di funzionamento, di misure calorimetriche veloci oltre che ridondate, e di misure di flusso di calore tracciabili ed altro. In particolare, attualmente vengono normalmente eseguite misure migliorate con cinque o più metodi calorimetrici indipendenti, ed altre tecniche di misura e di rilevazione in modo che ciascuna potenza di ingresso viene normalizzata per valutare


e controllare l’eccesso di calore e la potenza termica erogata successivamente.
Per altri versi, i processi di miglioramento delle misure di eccesso di calore vengono attualmente eseguiti con calorimetri moderni molto elaborati rispetto al primo calorimetro di Antoine Lavoisier (1783); dal calorimetro a ghiaccio, al calorimetro a flusso di calore costate, al calorimetro a flusso di massa, al calorimetro a misure iperboliche, dalla calorimetria che impiega l’effetto Seebeck (per la misura di eccessi di entalpia anche per ampi campi di temperatura).
Conviene e si ritiene giusto ricordare che il compito primario della ricerca nel campo dell’Efp e quindi nella Fnf in materia condensata è quello di migliorare la riproducibilità della generazione di eccesso di calore e quindi di amplificare la potenza ottenibile ed il guadagno di energia. Le tante convalide di importanza del rapporto di caricamento per il controllo del sistema Pd-D al fine della riproducibilità conducono a ritenere estremamente importante il ruolo cruciale delle scienze dei materiali da focalizzarsi sullo studio delle proprietà superficiali e volumetriche di fogli di palladio.
Un esempio interessante è quello di impiego dei metodi di eccitazione dell’elettrolisi con ultrasuoni ossia con brevi cicli di cavitazione indotti da ultrasuoni con bassa densità di corrente di caricamento del Palladio si sono osservati i seguenti fenomeni interessanti dal punto di vista della teoria dei guasti superficiali:

1 ? La pulizia chimico-meccanica della superficie produce il risultato di un miglioramento della attivazione superficiale.
2 ? Le deformazioni meccaniche dello strato più superficiale del catodo di Palladio Pd dovute all’impulso d’onda prodotto dal fascio di deutoni accelerati. Si ottiene come risultato la distorsione dello stato superiore superficiale del reticolo cristallino di Pd.
3 ? La generazione di dislocazioni massive e di lacune volumetriche. Questi difetti prodotti rappresentano vere e proprie trappole per i deutoni immersi nelle zone profonde della matrice del catodo di Pd. Questo processo di intrappolamento favorisce la capacità di carico del deuterio nel palladio.

Come risultato globale di questo metodo con ultrasuoni si ottiene un rapporto di caricamento molto elevato che ha di conseguenza il miglioramento della riproducibilità della generazione di eccesso di calore.

I nuovi processi proposti

Tempo di lettura: 3 minuti

Continuando ad esaminare i nuovi processi proposti durante la suddetta conferenza, diviene essenziale osservare l’importanza delle investigazioni di sistemi Pd-D costruiti a nanoparticelle in zeoliti [Zeolita-Y (Na)] o altre strutture (idradi, polveri ecc.) in atmosfera di deuterio.
In effetti, gli studi sperimentali e teorici hanno indicato che le nanoparticelle di palladio possono rendere più facile l’evento dell’Effetto Fleishmann & Pons. Il metodo consiste normalmente nel caricare un substrato complesso di palladio organico e quindi bruciare i costituenti organici del composto in modo da lasciare solo palladio empiricamente puro all’interno delle cavità del zeolita.
La presenza di palladio nel zeolita viene confermata usualmente con analisi che impiegano il microscopio elettronico e la spettroscopia a raggi X della dispersione dell’energia. I risultati sperimentali preliminari mostrano che dopo avere interrotto il flusso di gas di deuterio, la temperature della matrice di nanoparticelle di palladio aumenta di parecchi gradi al di sopra della temperatura ambiente. L’effetto è stato osservato due volte con gas di deuterio, mentre impiegando, come terzo caso sperimentale un flusso di gas d’idrogeno al posto del deuterio non si ottiene alcun aumento di temperatura. Questo tipo di zeolita presenta piccoli fori e pori con carica elettrostatica abbastanza forte (0,3 V/A) che gli consente di operare come un reattore quasi-nano.

Sono state sviluppate varianti anche consistenti del complesso matrice a nanoparticelle. Uno dei processi più interessanti è quello della deposizione elettrochimica di metalli da fase cristallina liquida liotropica esagonale. Molti altri progetti di verifica dell’Efp sono in fase di conduzione in tutto il mondo, ma la loro trattazione è molto lunga e non può essere affrontata in questa sede. Tuttavia, prima di passare alle conseguenze in campo italiano è il caso di accennare al problema della possibilità che la fisica nucleare classica, ossia le leggi fisiche fondamentali possano spiegare l’Effetto Fleishmann e Pons e più in generale la fusione nucleare fredda (Fnf) e la Lenr (Low Energy nucleare Reactions) le Reazioni Nucleare a Bassa Energia nella materia condensata. Dopo lunga ed attenta analisi rimangono ancora evidenze della impossibilità delle leggi classiche di spiegare l’accoppiamento fra deutoni e la mancanza di alcuni prodotti nucleari che dovrebbero, secondo le leggi classiche, svilupparsi dalla reazione stessa.
Il concetto che elettroni (fermioni e pseudo particelle) sono capaci di schermare i deutoni (Barriera di Coulomb) viene studiato in molte maniere poiché è il primo dei fenomeni che secondo la fisica nucleare classica pone il veto al verificarsi della fusione nucleare a temperatura ambiente. Esistono molte teorie che spiegano la possibilità di superamento della barriera di Coulomb da parte di deutoni, ma la maggior parte richiedono ed impongono alcune variazioni o generalizzazione di alcune leggi fondamentali (ad es. per la seconda la spiegazione della Meccanica Adronica bisogna aggiornare l’equazione di Fermi per la creazione del decadimento del neutrone e produzione del neutrino) per potere spiegare il fenomeno.
Senza spingere l’analisi fino a fondo ed in maniera più dettagliata dai risultati della 14ma Conferenza Iccf gestita dagli americani si evince un forte messaggio di alto livello


scientifico e strategico: la Fnf va considerata una branca della scienza con tutti i sacri crismi. Negli ultimi 20 anni, in Europa sono stati negati finanziamenti alla ricerca sulla Fusione nucleare fredda, preferendo a questa la classica e mai riuscita Fusione nucleare calda che viene eseguita da quasi cinquant’anni con enormi sforzi economici senza condurre ad alcun dato positivo.
Peraltro, è stato finanziato da un congruo numero di Paesi europei oltre a stati Uniti e Giappone il grande progetto Iter di fusione nucleare calda che deve essere realizzato nella Francia meridionale a Caradache entro i prossimi 50 anni. Il sogno di imbrigliare la energia termonucleare da fusione calda nasce con la invenzione da parte del grande fisico magiaro-americano Teller agli inizi degli anni 50 del secolo scorso. Nell’ambito del mondo scientifico filo fusione nucleare calda, il progetto della Fnf viene definito la «pulce».
In Italia, così, la visione corta e poco aperta degli addetti alla valutazione dei progetti scientifici ed energetici hanno da decenni bocciato la «pulce» solo e soltanto a favore del grande progetto Iter che, ad onor del vero, dovrebbe portare lavoro a oltre 10 persone.