La «strada» del prof. Arata

Tempo di lettura: 3 minuti

In questa panoramica di grandi sforzi e sacrifici nati solo dal grande amore per la scienza e la conoscenza gli sparuti gruppi di ricercatori (sperimentali come Scaramuzzi, Violante, Celani, Mastromatteo e teorici come Preparata, Larsen, Widom, Santilli e il sottoscritto e tanti altri) dedicati alla Fnf hanno proceduto con coraggio ed abnegazione.
In particolare, nel laboratorio N. 25 dei Laboratori Nazionali di Frascati (Infn) vengono eseguiti dal nostro gruppo esperimenti di Fnf per dimostrare la ripetibilità e controllabilità dei fenomeni di Fnf. Così, dopo il primo grande impulso mondiale alla ripetizione dell’esperimento di Fleischmann & Pons, vari gruppi di ricerca hanno concepito nuovi esperimenti e varianti interessanti dell’Effetto Fleischmann & Pons. Tra i vari filoni seguiti dai vari gruppi di ricerca distribuiti al mondo, è stato reputato interessante il filone determinato dal prof. Arata giapponese che iniziò alcuni esperimenti di elettrochimica del palladio già nel 1955. Nell’ambito di questo flusso di ricerca giapponese si collocano i vari tentativi di Iwamura (Mhi) di superare l’approccio elettrochimico alla Fnf ricorrendo a tecnologie di «sputtering» della microelettronica impiegate per generare diodi semiconduttori e in generale transistori e circuiti integrati (microprocessori ecc.). Inoltre, il gruppo suddetto ha tentato una collaborazione con la scuola di Arata, per la realizzazione di un progetto JI in comune italo-giapponese sulla Fnf che non è andato in porto e non è stato finanziato.

Per concludere questa semplice sintesi di stato dell’arte della Fnf in materia condensata centrata sulla ripetibilità e controllabilità dei fenomeno si notano i seguenti fatti:
1 ? La ricerca sulla Fnf in materia condensata ha diritto, con tutti i sacri crismi scientifici, di fare parte del flusso della scienza moderna convenzionale e classica.
2 ? I metodi di prova impiegati per convalidare la ripetibilità dell’Effetto Fleishmann & Pons sono molteplici spaziando dalla applicazione della classica metodologia elettrolitica alla nuove tecniche (Tsc) a nanoparticelle, alla fusione a bolle, così dallo sviluppo di nuovi sistemi di rivelazione e detenzione della emissione di particelle cariche a considerazioni di analisi di ultra tracce di metalli in matrice di palladio.
3 ? Il problema teorico fondatale è di stabilire sei principi e le leggi fisiche note e consolidate possono spiegare la fusione nucleare nello stato solido. Nell’ambito della messe di teorie si possono individuare alcuni filoni di ricerca basilari: le teorie basate sulla Elettrodinamica Quantistica Coerente di cui è capostipite Giuliano Preparata, le teorie basate sulla Meccanica Quantistica (applicazione del principio di Heisemberg con il confinamento dell’energia, ipotesi di fusione quantistica ecc.), secondo il Modello Standard (Larsen, Widom et alter) e teoria dei campi, le teorie basate sulla Meccanica Adronica di cui è originatore primario Ruggero Santilli (e seguite dal sottoscritto) e tanti altri filoni minori quali la teoria dei Meccanismi Dinamici del moto all’interno dello stato di condensazione Tsc (Tetrahedral Symmetric Condensate) con l’equazione differenziale stocastica di meccanica quantistica di Langevin per sistemi a molti corpi di grappoli di deutoni e ed elettroni a simmetria platonica, le teorie di Identificazione empirica dei sistemi e controllo ottimale delle reazioni nucleari


assistite dal reticolo cristallino, l’analisi dei meccanismi teorici nelle teorie della scienza nucleare in materia condensata, il modello teorico della dinamica dell’idrogeno in esperimenti di scienza nucleare in materia condensata (Cmns), teoria delle interazioni fra nuclei positivi inclusi in strutture solide, la teoria della fusione dei detoni a bassa energia nella fisica della nano particelle, la teoria delle dinamiche di risonanza elettromagnetica per spiegare l’Effetto Fleishamnn & Pons, la teoria dei punti operativi ottimali in palladio attivo e caricato collegati a tre distinti regioni fisiche ecc. ecc.
4 ? Molti lavori consentono di elaborare una sintesi degli elementi chiave per la sperimentazione e la teoria della Fnf e le relative direzioni future, oltre all’analisi delle implicazioni scientifiche e potenziali per le applicazioni commerciali future.
5 ? Le proiezioni temporali di realizzazione di campioni di celle elettrolitiche per la fusione nucleare fredda che possa avere un senso industriale concreto, non hanno coefficienti di confidenza elevati e non si può prevedere alcun tempo di possibile realizzazione pratica. Riferendosi alla fusione Nucleare Calda, che ottimisticamente prevede realizzazioni nel giro di 50 anni, si potrebbe solo dedurre di potere realizzare dispositivi a fusione nucleare fredda operativi a livello industriale solo in periodi paragonabili a quelli della fusione calda.
6 ? Le prospettive concrete di potere risolvere il problema delle scorie radioattive con trasmutazioni nucleari a bassa energia (Lenr, Lent ecc.).
7 ? Una quantità enorme di esperimenti e misure per convalidare la Fnf (misure a raggi X dello spettro di energia, fenomeni di fononi ottici in palladio deuterato, misure calorimetriche ad alta precisione, impiego di catodi di palladio-boro, effetti di sonoluminescenza in fusione nucleare durante cavitazione, scariche elettriche da sistemi di dispositivi fusori a Lanr, impiego di spettrometria di massa e Auger per le misure di concentrazione di Ag sul palladio elettrolizzato, impiego dell’effetto Seebeck per le misure di inviluppo calorimetrico e riproducibilità dell’eccesso di calore, transizioni nucleari indotte on Laser molecolare-nucleare, autopolarizzazione dei diodi fusori da eccesso di calore ed energia, generazione di gas in esperimenti di scarica a gas, evidenze di microscopia a bolle negli esperimenti di trasmutazione, sostanze combustibili che mostrano proprietà organiche dall’acqua, meccanismo di creazione dei monopoli magnetici con campi magnetici forti in laboratorio, ruolo delle interfacce di grandezza finita in scala nanometrica del PdD e dei composti contenenti Pd, D e ZrO2 nell’Effetto Fleishmann & Pons, trasmutazioni nucleari in film di polietilene (Xlpe) e generazione d’acqua all’interno ecc. ecc.

Più fiducia per la Fusione nucleare fredda

Tempo di lettura: 2 minuti

Da queste considerazioni si deduce che bisogna avere grande fiducia nella Fusione nucleare fredda in materia condensata, ormai parte integrante della scienza, ma a causa della forte indeterminazione temporale, non si può pensare di ottenere da questa fonte pulita e a basso costo una soluzione o un apporto energetico immediato. A ciò si aggiunga il fatto incontestabile e incontrovertibile che la Meccanica Quantistica, anche nelle sue forme più avanzate di Elettrodinamica Quantistica e Teoria dei Campi, e nonostante tutti gli sforzi di Preparata ed altri fisici teorici, non ancora riesce a spiegare bene i fenomeni di fusione nucleare fredda in materia condensata mentre, ad onore del vero, tali fenomeni sono invece galileianamente del tutto appurati e dimostrati. Dimostrato quindi che l’Effetto Fleishmann e Pons, che ha originato la Fnf in Materia Condensata è parte integrante della scienza comune, nell’osservare le limitazioni temporali per la realizzazione industriale, diviene spontaneo porsi la domanda di quando, come ed in quale proporzioni la Fnf in MC potrà dare un contributo concreto alla risoluzione dei problemi energetici che attanagliano l’Italia ed il mondo intero.
La risposta rimane estremamente dubitativa senza potere fare previsioni temporali di qualsiasi genere se non azzardare a pensare in termini di molti decenni a venire.
Di conseguenza, la unica soluzione concreta che rimane agli enormi e seri problemi di energia che l’Italia e gli altri Paesi europei hanno è quella di perseguire la via della generazione di energia elettrica da centrali nucleari a fissione della terza generazione. Solo in questa maniera, pur preferendo la Fnf, il suo basso costo e propugnando la necessità di forti finanziamenti, si può ritenere di giungere ad una suddivisione di approvvigionamenti di energia dalle diverse fonti (petrolio, gas, carbone, nucleare, solare, vento e geotermia) che sia razionale, armonizzata e ben bilanciata per il bene di tutto il popolo.

I consumi energetici sono destinati a crescere sempre?

Tempo di lettura: < 1 minuto

Negli scenari che vengono elaborati si ipotizza generalmente un aumento del fabbisogno energetico nel tempo, con tassi di crescita differenziati in relazione alle assunzioni sull’andamento del Pil e sull’adozione di politiche di efficienza. In realtà questa impostazione rischia di essere dogmatica. Ci sono Paesi in cui i consumi sono ormai praticamente stazionari da anni, come la Danimarca, senza che la qualità della vita venga minimamente intaccata (fig. 1).

Certo per ottenere questi risultati occorre una politica attiva. Gli effetti di un’azione costantemente volta a promuovere il miglioramento dell’efficienza energetica possono essere molto incisivi. Nella fig. 2, ad esempio, è riportato l’andamento del consumo elettrico pro capite della California, pressoché costante nel tempo, e quello degli Usa, aumentato del 50% negli ultimi 30 anni.

L’efficienza energetica in Italia: passi indietro e grandi prospettive

Tempo di lettura: < 1 minuto

Analizzando l’andamento dell’intensità energetica del nostro Paese dal 1974 al 2004, dopo una prima fase in cui il valore è diminuito in presenza degli alti prezzi dell’energia (reazione alla prima crisi petrolifera) è seguito un periodo con valori stazionari fino al 2002, dopodiché l’intensità è risalita, cioè l’uso dell’energia è peggiorato (Fig. 3). Negli ultimi due anni però si è registrata anche nel nostro Paese una seppure lieve inversione di tendenza. Nel 2007 i consumi sono infatti diminuiti dell’1% (195,4 Mtep), dopo una riduzione dello 0,8% registratasi l’anno precedente.

Considerando l’andamento positivo dell’intensità media europea, che si è ridotta nell’ultimo decennio, possiamo dire che, da un lato, l’Italia sta perdendo il primato che aveva in termini di efficienza e, dall’altro, che i margini di intervento per il nostro Paese sono elevati.

Il potenziale di risparmio

Tempo di lettura: < 1 minuto

Una valutazione del potenziale di risparmio negli usi finali elettrici italiani è stata effettuata nel 1999 per conto dell’Anpa (ora Ispra) dall’Istituto californiano Ipsep. L’analisi dettagliata bottom-up delle varie tecnologie ha portato a un calcolo del potenziale economicamente sfruttabile entro il 2010 pari al 14%. Una rivisitazione dello studio è stata effettuata dal gruppo eERG del Politecnico di Milano per conto di Greenpeace, estendendo il calcolo al 2020 e valutando un potenziale economicamente conveniente dell’ordine dei 100 TWh/a.

Queste analisi sono riferite solo ai consumi elettrici. Se si considerano i margini di risparmio relativi alla climatizzazione estiva e invernale degli edifici, si evidenza un analogo elevato potenziale d’intervento. Ciò è particolarmente vero per l’Italia il cui parco edilizio è caratterizzato da prestazioni termiche piuttosto scadenti.
Lo stesso discorso si può fare per il comparto dei trasporti che presentano ampi margini di intervento sia per il passaggio a mezzi di trasporto più efficienti sia ricorrendo a un più razionale governo della mobilità.

Verso tecnologie sempre più efficienti

Tempo di lettura: < 1 minuto

Le tecnologie disponibili sul mercato presentano consumi specifici molto differenziati a parità di uso finale. Non è raro il caso in cui i migliori modelli presentano consumi dimezzati e per alcune tecnologie si arriva anche a valori pari a un quinto rispetto alla media.
Le possibilità di orientare il mercato verso soluzioni più efficienti sono quindi ampie e consentono di garantire un vantaggio economico netto per gli utenti e per la collettività.
Nel settore degli elettrodomestici esistono prodotti che consumano 4-5 volte meno rispetto a quelli attualmente utilizzati. Nella figura 4 sono riportati i dati sui frigoriferi venduti negli Usa da cui si deduce che, grazie all’introduzione di limiti sempre più stringenti, i modelli attuali consumano poco più di un quarto e costano la metà rispetto a quelli del 1975.

Un’analoga evoluzione dei consumi riguarda il mondo dell’illuminazione. In questo caso non si sta assistendo a un graduale miglioramento della tecnologia, ma a progressivi salti tecnologici, prima con le lampade fluorescenti compatte, poi con i Led (Fig. 5).

Le politiche di promozione dell’efficienza energetica

Tempo di lettura: 2 minuti

Attualmente sono in vigore in Italia incentivazioni molto interessanti per quanto riguarda la riqualificazione energetica dell’edilizia. Le detrazioni fiscali del 55% consentono risparmi energetici e monetari significativi.
Considerando un appartamento medio, i risparmi ottenibili con un mix di interventi sono dell’ordine di 500-1.000 ?/anno con tempi di ritorno degli investimenti di 4-6 anni. Nel primo anno di applicazione sono stati effettuati 106.000 interventi con una riduzione delle emissioni stimata in 0,2 Mt CO2/a.
Anche l’incentivo di 200 ? per l’acquisto di frigoriferi ad alto rendimento ha avuto successo, tanto che nel 2007 il 23% delle vendite ha riguardato proprio frigoriferi di classe A+ o A++ che garantiscono un risparmio medio di 60 ?/anno. Peraltro, la modifica del mercato determinata dall’etichettatura energetica è stata formidabile portando i frigoriferi più efficienti dal 5% delle vendite nel 2000 al 78% nel 2007, con risparmi equivalenti alla produzione di una media centrale elettrica (Fig. 6).

Ma oltre che agli incentivi è importante ricorrere anche a obblighi e divieti. Così per i nuovi edifici devono essere installati impianti solari termici e fotovoltaici e non si può superare un valore massimo di fabbisogno termico. Occorre ridurre questo limite massimo nei prossimi anni fino ad arrivare a edifici «carbon neutral», cioè il cui contributo alle emissioni di CO2, inclusa illuminazione ed elettrodomestici, sia nullo. Questa è la strada seguita dalla Gran Bretagna (che peraltro vuole realizzare 5 «ecotowns» in cui tutti gli edifici devono essere a zero emissioni entro il 2016) e non si capisce perché non possa essere adottata anche dall’Italia.
Uno strumento che nei prossimi anni apporterà significativi risultati riguarda l’obbligo di risparmio per i distributori di elettricità e gas, recentemente innalzato a 6 Mtep al 2012. Gli interventi che verranno realizzati, direttamente o attraverso le Esco, consentiranno di ridurre di 12 Mt/a le emissioni di CO2 nel quinquennio di Kyoto, una quantità importante, in grado di limitare il gap di 100 Mt/a che ci separa dall’obbiettivo assunto a Kyoto.

Fig. 7 Incremento degli obbiettivi di riduzione per i distributori di elettricità e gas

Passando a prodotti di mercato, va proibita la vendita di motori elettrici ed elettrodomestici ad alto consumo specifico e va programmato l’abbandono delle vendite delle lampade a incandescenza.
Per quanto riguarda gli autoveicoli la Commissione europea, vista l’inefficacia degli accordi volontari con le case automobilistiche, ha deciso di imporre limiti vincolanti ai consumi massimi. Nella tabella 2 sono riportati i valori delle emissioni specifiche di carbonio (gCO2/km) relative alle vendite di auto del 2006 e 2007 in Europa e la distanza rispetto all’obbiettivo proposto per il 2012 (130 gCO2/km).

Gli obbiettivi sono differenziati per le diverse Case in base al peso medio dei veicoli venduti, scelta questa criticabile e che penalizza Fiat. La casa italiana dovrà ridurre del 14% le emissioni specifiche per centrare l’obbiettivo, uno sforzo comunque minore rispetto alla riduzione media richiesta del 17%.
Oltre ai miglioramenti tecnologici bisognerà introdurre iniziative coraggiose di governo del


traffico. Sono ormai sei le città europee (Manchester, Bergen, Oslo, Londra, Stoccolma e Milano) che hanno introdotto il «road pricing», il pagamento dell’accesso al centro urbano. Analizzando i risultati dell’esperienza più nota, quella di Londra, si sono evidenziati molteplici effetti positivi: Il traffico in entrata si è ridotto del 14%, e con esso inquinamento e incidenti, l’uso della bicicletta è aumentato del 43% e i 195 milioni ? entrati nelle casse del Comune nell’anno finanziario 2007/8 sono stati reinvestiti per migliorare il trasporto pubblico. La «congestion charge», introdotta nella capitale inglese nel febbraio 2003, ha visto un’estensione dell’area protetta nel 2007, anno in cui i 150.000 automobilisti in ingresso hanno pagato mediamente 11,4 ?/giorno.

Le prospettive future

Tempo di lettura: 2 minuti

Il ruolo dell’aumento dell’efficienza energetico sarà decisivo nei prossimi decenni. L’ultimo rapporto dell’Agenzia internazionale dell’energia ha esplorato le possibilità di dimezzare le emissioni climalteranti al 2050 (scenario Blue). Una percentuale molto elevata delle riduzioni, il 36%, sarebbe ottenibile secondo questo studio grazie a un aumento dell’efficienza energetica negli usi finali.

Ma come operare per avviare un percorso di così radicali cambiamenti? Le azioni che un Governo motivato e dotato di «visione» potrebbe avviare sono sostanzialmente di tre tipi.
Innanzitutto far crescere la consapevolezza della gravità della situazione, motivare le persone, coinvolgere profondamente operatori privati e istituzioni locali. Senza questa partecipazione corale ogni tentativo di modificare l’attuale modello risulterà perdente. Serviranno campagne di informazione, un’azione forte nelle scuole, strumenti di indirizzo dei comportamenti.
In secondo luogo occorrerebbe una diversa distribuzione delle risorse pubbliche e private. Quindi investimenti mirati a potenziare il trasporto pubblico, la rete ferroviaria e il cabotaggio, a creare una rete ciclabile nazionale, a ripensare il trasporto merci nelle città. Questi esempi riguardano non a caso il settore più critico, quello dei trasporti, ma potrebbero essere estesi ad altri comparti. Un’azione di governo illuminata può inoltre favorire gli investimenti privati in aree considerate strategiche per la gestione del cambiamento. Per esempio stimolando la creazione di un’industria delle fonti rinnovabili, dell’efficienza energetica, della mobilità sostenibile…
In terzo luogo, un Governo motivato e autorevole dovrebbe anche usare in maniera intelligente la leva degli obblighi e dei divieti. Impedire la vendita di elettrodomestici ad alto consumo, chiudere il centro delle città, garantire livelli certi di raccolta differenziata, definire limiti rigorosi nella costruzione degli edifici…
È chiaro che un impegno di tale portata si riscontra solo in presenza di un grave pericolo per la collettività, come una guerra, o a fronte di una forte motivazione ideologica. La prospettiva dell’umanità nei prossimi decenni richiede «l’equivalente morale dell’impegno nei confronti di una guerra» come disse nel 1977 in piena crisi petrolifera il presidente Usa Jimmy Carter. Bisogna sperare che ci si riesca non per un’accelerazione della crisi climatica o di limiti di accesso alle risorse, ma grazie a una maturazione collettiva della consapevolezza sui futuri possibili e della convinzione di riuscire a incidere sugli esiti finali.

La Fusione

Tempo di lettura: 3 minuti

La fusione è una reazione tra due nuclei leggeri che unendosi (reazione di fusione) producono una grande quantità di energia. Tra le numerose reazioni di fusione possibili (è il caso di ricordare che sono le reazioni di fusione a tenere accese le stelle), quella che oggi è più alla portata è quella tra il deuterio e il trizio.

D + T → 4He + n (Q=17.6 MeV)

Il deuterio è presente in natura nella misura di 0.0115 nuclei di deuterio su 100 di idrogeno, corrispondenti a 255 mg di deuterio per litro d’acqua. La disponibilità di deuterio sulla terra è quindi praticamente illimitata.
Il trizio, invece, non si trova in natura poiché è un isotopo radioattivo dell’idrogeno che decade con decadimento β- in 3He con un tempo di dimezzamento di circa 12 anni. Occorre, quindi, produrlo all’interno dello stesso reattore a fusione. A tal fine si sfruttano le reazioni triziogene, a partire dai neutroni prodotti nella stessa reazione D+T, e dal litio (presente in natura con due isotopi stabili, 6Li per il 7.59 % e 7Li per il 92.41 %):

n + 6Li → T + 4He (Q=4.8 MeV)

n +7Li → T + 4He + n (Q=-2.47 MeV))

In questo modo, per ogni nucleo di trizio consumato, viene generato un neutrone e da questo, tramite una reazione con il litio, un nucleo di trizio il quale viene recuperato e inviato nella camera di reazione insieme al deuterio. Ciò avviene in uno speciale componente, il mantello triziogeno, posto a circondare la camera di reazione. Il Breeding ratio T/n, definito come il rapporto tra nuclei di trizio prodotti nel mantelllo e neutroni emessi dal plasma (pari ai nuclei di trizio consumati), deve essere superiore all’unità per assicurare l’autosufficienza del reattore (il valore generalmente richiesto è T/n ~ 1.15).
I combustibili sono dunque il deuterio e il litio, il prodotto finale è elio senza produzione di gas serra. Con il deuterio contenuto in 1 litro di acqua (255 mg) e 765 mg di 6Li (10 g di litio naturale) si ottengono 5970?η kWh tramite la D+T, dove η è l’efficienza complessiva del reattore. Una centrale da 1000 MWth basata sul ciclo DT consuma 37 kg di deuterio e 55.6 kg di trizio (125 kg di litio) all’anno per produrre circa 3×108 kWh supponendo un’efficienza complessiva del 35%. L’energia sviluppata per ogni grammo di materia reagente è equivalente a circa 8 tonnellate di petrolio.
Si noti che le riserve stimate di deuterio ammontano a 4.6 x 1016 kg nell’acqua di mare, e quelle di litio a circa 1010 kg nelle rocce e circa 1014 kg nell’acqua di mare. Tali riserve sono, come già detto, geograficamente distribuite in modo uniforme sulla Terra. Le riserve di deuterio e litio, dal quale si produce il trizio che non si trova in natura, sono sufficienti per parecchie migliaia di anni con l’enorme vantaggio della sicurezza degli approvvigionamenti.

Come si può notare da quanto sopra la


resa energetica della reazione di fusione D-T è, quindi, molto elevata. Per paragone, l’energia liberata per ogni nucleone in una reazione di fusione è pari a circa 3.5 MeV da confrontare con circa 1 MeV nel caso della fissione e di circa 1 eV nel caso del carbone. Un grammo di miscela D-T equivale a circa 8 tonnellate di petrolio.
La reazione di fusione richiede il raggiungimento di altissime temperature, dell’ordine di 150 milioni di gradi per vincere le forze di repulsione.
Le vie per poter realizzare le condizioni di fusione sono essenzialmente due: il confinamento magnetico e quello inerziale.

Il confinamento magnetico consiste nel contenere un gas (D-T) ionizzato (plasma) in un contenitore realizzato da campi magnetici opportunamente configurati e quindi riscaldarlo alle temperature richieste. La configurazione del contenitore magnetico più efficiente è quella a ciambella, denominata tokamak. Per minimizzare le perdite la configurazione magnetica è a forma di ciambella (toro) e le linee di campo magnetico risultanti sono elicoidali, essendo la somma di una componente circonferenziale, detta toroidale, e di una che avvolge il toro, detta poloidale.

Il confinamento inerziale consiste nel colpire con fasci laser di notevole potenza dei piccoli bersagli contenenti una miscela D-T. L’ablazione dello strato esterno origina una fortissima compressione, dell’ordine di centinaia di miliardi di atmosfere, e il riscaldamento fino ai valori necessari della zona interna.
In fig. 2 è riportato lo schema diel reattore a fusione.

Lo stato attuale e le strategie verso la meta

Tempo di lettura: < 1 minuto

Grazie al successo degli esperimenti fatti nel decennio passato, la meta è oramai alla portata. Si è, infatti, riusciti a far «bruciare» la miscela deuterio-trizio. In questo campo il Jet, il più grande esperimento tokamak attualmente in operazione situato a Culham in Gran Bretagna, ha fornito un contributo fondamentale anche grazie all’attività di ricercatori italiani.
In figura 3 si può apprezzare il progresso ottenuto negli anni e come la distanza dalla meta è oramai molto piccola. Il grafico riporta i valori del triplo prodotto della densità del plasma, del tempo di confinamento dell’energia (tempo che impiega l’energia termica del plasma a fuoruscire verso l’esterno) e della temperatura in funzione della temperatura stessa. Sono questi infatti i parametri che definiscono la qualità di un esperimento di fusione termonucleare.

Il raggiungimento della meta è anche legato allo sviluppo di tecnologie e nuovi materiali destinato a rendere il più economica possibile questa forma di energia.
La strada da percorrere per arrivare al reattore a fusione, prevede la realizzazione di una macchina tokamak denominata Iter e una serie di attività di sviluppo tecnologico, da svolgere sempre in un contesto internazionale, che condurranno alla realizzazione del primo reattore dimostrativo: Demo. Di questo sviluppo fa parte il programma sui materiali e la sorgente di neutroni denominata Ifmif (International Fusion Material Irradiation Facility) necessaria per la qualifica dei materiali.

Iter

Tempo di lettura: 7 minuti

Iter (fig. 4), dal latino «la via», è una macchina di tipo tokamak che costituisce, nell’ambito della strategia perseguita dalla comunità internazionale sull’energia da fusione, l’unico esperimento intermedio prima della costruzione del reattore dimostrativo Demo.
Il progetto di Iter, a cui l’Italia ha dato un contributo fondamentale, è stato sviluppato sulla base di un’intensa attività di Ricerca e Sviluppo che ha permesso di riempire in dieci anni il grande gap tecnologico esistente all’inizio della progettazione. Questa attività è stata condotta in stretto coordinamento da numerosi centri di ricerca, università e industrie di tutto il mondo con il coinvolgimento di migliaia tra ricercatori e tecnici.
Unione europea, Giappone, Federazione Russa, Stati uniti d’America, Cina e Corea del Sud e India hanno raggiunto l’accordo per l’attuazione del progetto. Il 24 Maggio 2006 è stato siglato ufficialmente. L’accordo tecnico tra i sei partner è stato ratificato a livello governativo nel 2007. Un grande successo per l’Europa nei negoziati è la scelta del sito: Iter verrà installato a Cadarache nel sud della Francia.
Iter è un programma trentennale che richiede 5 miliardi di investimenti in 10 anni per la costruzione, seguiti da 20 di sperimentazione.

Iter è la prima macchina avente per obiettivo la produzione di energia da fusione, in condizioni in cui predominerà il riscaldamento del plasma da parte dei nuclei di elio prodotti dalle reazioni di fusione rispetto a quello generato dai circuiti esterni. Iter è progettato per operare in regime di corrente indotta (corrente generata e mantenuta dal trasformatore) (400 secondi) ad alta potenza di fusione (500 MW). Con performance ridotte (Q ~ 5) (funzionamento non induttivo nella fase di mantenimento della corrente che viene sostenta mediante campi elettrici generati da radiofrequenza), Iter esplorerà anche cicli operativi lunghi fino, se possibile, all’operazione stazionaria, utilizzando i sistemi esterni di riscaldamento e di generazione della corrente per il riscaldamento del plasma e il suo controllo.
Iter è una macchina di dimensioni senza precedenti come si può apprezzare dalla dimensione della persona alla base della macchina nella figura: 24.000 tonnellate di alta tecnologia. La sua costruzione ha richiesto dieci anni di attività di R&S per sviluppare le tecnologie e l’ingegneria necessarie.
Iter, oltre a dimostrare la possibilità di portare e mantenere il plasma nelle condizioni fisiche necessarie per l’ottenimento dei guadagni su citati, dovrà:

? esplorare le condizioni di ignizione controllata;
? controllare le instabilità del plasma;
? dimostrare la possibilità di costruire e operare magneti superconduttori di dimensioni e prestazioni senza precedenti, per poter sostenere la reazione del plasma per tempi molto lunghi;
? smaltire gli elevati flussi termici che il plasma rilascia alle pareti (15-20 MW/m2);
? dimostrare la possibilità di effettuare le operazioni di manutenzione e di ispezione di un tokamak per mezzo di sistemi remotizzati.
? Testare i moduli di mantello fertile (triziogeno) di Demo

I componenti principali di Iter sono: la camera del plasma, nella quale prima di iniettare i gas reagenti viene fatto un vuoto


ultra spinto; il magnete «toroidale» costituito da bobine che circondano la camera del plasma; il sistema magnetico poloidale costituito da bobine ad anello disposte tutto intorno al toro.
All’interno della camera del plasma vi sono i componenti che sono destinati allo smaltimento dei carichi termici che il plasma scarica verso le pareti. Quello destinato a ricevere i carichi massimi è il cosiddetto Divertore che in Iter si trova nella parte inferiore della camera del plasma, mentre la parete principale della camera viene chiamata Prima Parete.
Accanto ai componenti principali vi sono una serie di componenti ausiliari che hanno varie funzioni: apportare al plasma la potenza necessaria al raggiungimento delle temperature necessarie; raffreddare la camera del plasma ed i componenti ad essa interni che operano a circa 140 °C; raffreddare i magneti che operano a circa -269 °C (quattro gradi sopra lo zero assoluto).
Iter dovrà anche provare varie configurazioni del componente fondamentale dei futuri reattori, il mantello fertile, destinato a produrre sia l’energia termica da trasformare in energia elettrica sia il Trizio che è un gas non presente in natura a causa del suo breve tempo di decadimento.

L’impianto è dimensionato per generare alcune migliaia di impulsi all’anno e verificare le soluzioni oggi ritenute idonee a sperimentare le tecnologie essenziali per una centrale a fusione, in particolare:
Dal punto di vista nucleare, la fluenza neutronica totale sarà di circa 0.1 MW a /m2 sulla prima parete dopo i primi 10 anni, corrispondenti a cica 1 dpa, displacement per atom, e circa 3 dpa dopo 20 anni.
Il flusso di neutroni da 14 MeV sulla prima parete, corrispondente a 0.2 ? 0.8 MW/m2, avrà valori significativi per la conduzione di prove su mantelli triziogeni: Iter servirà infatti come banco di prova per diversi concetti di mantelli triziogeni attualmente in via di sviluppo. Sulla base dei test condotti in Iter sarà possibile selezionare la soluzione (o le soluzioni) più efficace per produrre il trizio, necessario per compensare quello utilizzato dalle reazioni di fusione, e per dimostrare la possibilità di funzionamento stazionario.
Il progetto di Iter si è basato sull’impiego di tecnologie provate o di prototipi, in molti casi in scala reale, per i componenti con maggiore contenuto innovativo e/o critici. A questo riguardo, le sfide più importanti sono state:

? La realizzazione dei superconduttori in Ni3Sn per il magnete del campo toroidale e in NiTi per il solenoide centrale, di dimensioni e prestazioni senza precedenti. Durante la fase di R&D e proge ttazione di Iter, è stata sviluppata la tecnologia necessaria per la produzione dei filamenti, del cavo, del condotto, delle giunzioni, per gli avvolgimenti e per la realizzazione delle bobine. Sono stati realizzati prototipi in scala 1:3 del solenoide centrale e 1:5 della bobina del magnete del campo toroidale, e ne sono state provate le prestazioni nei regimi richiesti per Iter (40 kA a 13 T e 80 kA a 6 T, rispettivamente). La produzione di 29 tonnellate di Ni3Sn «Iter grade» in questa


fase, ha permesso di dimostrare e qualificare la capacità produttiva dell’industria in vista della costruzione della macchina.
? La messa a punto della tecnologia di fabbricazione della camera da vuoto (composta da 9 settori alti 15 m e larghi 9 m) con particolare riguardo alla precisione, alle saldature e alle fattibilità delle tolleranze richieste. Sono stati toroidale di Iter (scala 1:5) realizzati prototipi in scala reale che hanno permesso di dimostrare la precisione richiesta, la tenuta di vuoto e di pressione, la fattibilità delle tecniche di saldatura adottate e delle relative tecniche di controllo non distruttive.
? Lo smaltimento di un elevato flusso di calore sulle piastre del divertore, il componente in cui viene convogliato e smaltito il calore emesso dal plasma sotto forma di particelle. Tale smaltimento deve essere condotto senza inquinare o perturbare il plasma, e il calore depositato, dell’ordine di 10 MW/m2 in regime stazionario e fino a 20 MW/m2 in fasi transienti, deve essere efficientemente rimosso. Sono state sviluppate tecnologie ad hoc e sono stati realizzati prototipi in scala reale per le soluzioni adottate, basate sull’impiego di tubi in lega di rame (scambiatori di calore) protetti da piastre di tungsteno e Carbon Fiber Composites (materiali sacrificali resistente alle alte temperature) con un buon contatto termico con il tubo stesso. Parti delle piastre sono state provate per migliaia di cicli ai valori di carico termico massimo che si verificano in Iter.
? La dimostrazione della manipolazione remota dei componenti interni alla camera da vuoto, cioè i moduli di mantello e le cassette del divertore. Tali componenti devono essere rimpiazzati per usura. È, quindi, necessario intervenire rapidamente ed efficacemente con manipolazione a distanza, per via dell’attivazione della macchina. Per dimostrare la fattibilità di tali operazioni (tagli, rimozione, sostituzioni, saldature) in Iter, sono state realizzate facilities per la telemanipolazione sia del divertore sia dei moduli di mantello con l’utilizzo di prototipi.
? Lo sviluppo di sistemi di riscaldamento e di generazione di potenza con caratteristiche, imposte dai parametri di plasma di Iter, significativamente più avanzati rispetto a quelli già in uso nelle macchine esistenti. Su Iter, infatti, saranno installati due (forse tre) iniettori di fasci di atomi neutri, ciascuno con potenza pari a 16.5MW per 3600 s, con 40 A di corrente, ed energia del fascio pari a 1 MeV, per poter depositare energia fino al centro del plasma. Ciò ha richiesto una intensa attività di sviluppo per la sorgente di ioni negativi, per l’accelerazione e l’ottica del fascio, per il sistema di deflessione degli ioni residui e per l’isolamento elettrostatico a 1MV. Il sistema di riscaldamento e generazione di corrente basato su onde elettromagnetiche a radiofrequenza ha richiesto lo sviluppo di sorgenti ad alta potenza (2 MW ? cw) ed alta frequenza (170 GHz).
? Altri sistemi hanno richiesto un particolare sviluppo e/o la costruzione di prototipi, ad esempio l’iniettore di pellet per l’alimentazione del combustibile, le pompe criogeniche, il sistema per il ciclo del combustibile.

La definizione del progetto Iter ha


catalizzato negli ultimi 15 anni l’impegno di tutti i laboratori e gruppi di ricerca sulla fusione dei Paesi partner. La costruzione di Iter è iniziata a Cadarache (Francia) all’inizio del 2007. Il programma prevede la sua costruzione in 10 anni e lo sviluppo delle attività sperimentali in più fasi, in un arco di tempo di 20 anni. Al termine si provvederà alla messa in sicurezza e successivamente, in 6 anni, allo smantellamento e al trasporto delle scorie in un sito idoneo.
I costi di costruzione, come detto, sono stimati in 5 miliardi ? a valuta 2002. I partner contribuiranno in kind (forniranno cioè direttamente i vari componenti) per il 90% del costo totale, cioè con la fornitura di componenti realizzati direttamente dai partner stessi attraverso le rispettive Agenzie domestiche. Un ulteriore 10% sarà fornito in cash e sarà gestito direttamente da Iter.
L’Europa, che contribuirà per circa il 50% del costo totale di costruzione, ha stabilito a Barcellona (Spagna) la propria Agenzia domestica per Iter, «Fusion for Energy», che sarà responsabile delle forniture europee in-kind, promuoverà e metterà in atto un programma di ricerca sulla fisica e l’ingegneria del plasma e di sviluppo tecnologico orientati al successo di Iter e ad accelerarne il risultato (programma di accompagnamento). L’attività sperimentale sulle macchine operanti nell’Unione Europea, ivi incluso Jet, e la programmazione di aggiornamenti o costruzione di nuovi esperimenti sarà rivista ed allineata a questo obiettivo. Tra queste da segnalare una nuova macchina proposta dall’Italia denominata Fast che dovrà fornire supporto e anticipare sviluppi di fisica e tecnologia sia per Iter sia per Demo.
L’avvio della costruzione di Iter costituisce un punto di svolta per il programma a livello mondiale, da un lato per l’avvio della fase di realizzazione, dall’altro per la definizione del nuovo Next Step, cioè Demo.
L’Italia ha contribuito in modo sostanziale allo sviluppo di queste tecnologie specie nel campo dei magneti superconduttori, i componenti ad alto flusso termico, i controlli, la manutenzione remota e l’ispezione visiva tramite radar ottico, le tecnologie per il ciclo del combustibile e i dati nucleari. Un contributo essenziale è stato fornito anche per gli aspetti si sicurezza ed impatto ambientale Iter sarà, inoltre un test bed per i moduli di breeder blanket di Demo (il componente dove viene assorbita l’energia dei neutroni e prodotto il trizio) progettati dai vari partner.

Sicurezza ed impatto ambientale

Tempo di lettura: 2 minuti

L’energia prodotta utilizzando la reazione di fusione ha degli indubbi vantaggi sotto l’aspetto della sicurezza e dell’impatto ambientale. Le emissioni di gas serra sono nulle, il prodotto della reazione è semplicemente gas elio e le conseguenze del peggiore incidente immaginabile (ed estremamente improbabile) sono limitate dal momento che la reazione si estingue automaticamente e il calore di decadimento è troppo basso per compromettere l’integrità delle strutture. Inoltre, anche nel caso peggiore, non è richiesta l’evacuazione della popolazione attorno al recinto della centrale. Per quanto riguarda i rifiuti a fine operazioni, la mancanza di scorie radioattive a lunghissima vita rende il trattamento dei materiali, che comunque si attivano, molto meno complesso e pericoloso: dopo solo 100 anni la radiotossicità è inferiore a quella delle ceneri del carbone.

In caso di incidente:

– non c’è possibilità di escursione incontrollata della potenza in quanto la reattività del plasma è limitata da processi intrinseci al sistema;
– le strutture interne della macchina non possono fondere anche in caso di incidente con perdita di ogni raffreddamento attivo conseguente a una perdita improvvisa di potenza (sicurezza passiva);
– il massimo incidente prevedibile di origine interna alla centrale condurrebbe a valori di esposizione del pubblico tali da non richiederne l’evacuazione.

Durante la fase di progettazione di Iter sono state dedicate molte risorse agli aspetti di sicurezza. Le analisi effettuate per ottenere il permesso all’esercizio di Iter rappresentano un valido banco di prova per la definizione degli standard di sicurezza dei futuri reattori e confermano l’attrattività della fusione come fonte di energia.
Nelle centrali a fusione non vi sono scorie radioattive vi è comunque l’attivazione dei materiali strutturali dovuta ai neutroni. La parte dominante della radioattività indotta dai neutroni è generata nei componenti che si affacciano al plasma e nel mantello fertilizzante. Questi componenti sono periodicamente sostituiti durante la vita della centrale mentre è previsto che altri componenti, quali il contenitore del vuoto, il sistema magnetico e il suo schermo, restino per l’intero periodo operativo della centrale.
La radiotossicità all’arresto della centrale a fusione (fig. 5) è più bassa rispetto a quella a fissione di circa un ordine di grandezza subito dopo lo spegnimento ma decade nel tempo molto più rapidamente. Entro circa 100 anni la radiotossicità scende a valori che sono da diecimila a centomila volte inferiori a quelli della fissione e paragonabili a quella delle ceneri di una centrale a carbone.

Lo sviluppo dei materiali

Tempo di lettura: 2 minuti

La fattibilità della fusione in termini economici e sociali dipende dalla disponibilità di materiali idonei con i quali realizzare i componenti chiave del reattore. Da un lato, i materiali utilizzati debbono presentare caratteristiche di bassa attivazione indotta da neutroni in modo da non richiedere la necessità di depositi geologici permanenti in sito profondo: a questo riguardo, il programma fusione si è dato l’obiettivo di realizzare e utilizzare materiali riciclabili nell’arco di circa un secolo. In termini economici, gli stessi materiali debbono presentare caratteristiche di resistenza per tempi sufficientemente lunghi (almeno circa 5 anni per i mantelli triziogeni) nei flussi neutronici tipici del reattore prima di essere sostituiti, in modo da non pesare negativamente né sui costi di investimento né sulla disponibilità del reattore. Oltre a indurre attivazione, interagendo con i materiali i neutroni prodotti nelle reazioni DT provocano dislocazioni dei nuclei dai siti reticolari e trasmutazioni che modificano la struttura microscopica dei materiali stessi. Tali modifiche si riflettono in una degradazione delle proprietà fisiche e meccaniche, quali la riduzione della conducibilità termica ed elettrica, indurimento, riduzione della duttilità, degradazione della resistenza alla frattura etc.. I livelli di flusso neutronico in Demo, e più a lunga scadenza nel reattore, richiedono che i materiali impiegati mantengano buone caratteristiche fino a 80 dpa (150 dpa nel reattore) (1 dpa displacement per atom, equivale a circa 1025 n (14 MeV)/m2 in ferro).
Inoltre, gli stessi materiali debbono poter essere impiegati ad alte temperature di lavoro in modo da permettere buoni valori dell’efficienza complessiva dell’impianto.
I materiali richiesti possono essere divisi, secondo il loro impiego o funzione, come segue:
? materiali strutturali
? materiali di protezione dei componenti affacciati al plasma (divertore e prima parete)
? materiali funzionali come:
o superconduttori a bassa ed alta temperatura critica per i magneti
o materiali fertili (ceramici e metalli liquidi).

Ifmif

Tempo di lettura: 2 minuti

Lo sviluppo di materiali idonei all’impiego in Demo e nei reattori commerciali richiederà la continuazione delle ricerche per l’ottimizzazione delle proprietà elettromeccaniche e per la loro fabbricazione industriale durante le varie fasi operative della centrale. Per queste indagini si utilizzeranno, nella misura del possibile, gli impianti a fissione per la prova dei materiali già esistenti. Tuttavia la presenza di una maggiore percentuale di neutroni veloci nello spettro della fusione rispetto a quello della fissione, determinerà nei materiali una modifica della tenuta sotto irraggiamento. Questo richiederà prove in un nuovo impianto dove si potrà simulare l’effettivo spettro di fusione. Come già accennato, il progetto preliminare di questo impianto schematizzato in figura 6, chiamato Ifmif (International Fusion Material Irradiation Facility), è già stato elaborato. Il concetto su cui si basa è quello di produrre lo spettro neutronico richiesto, confrontabile a quello di un reattore a fusione, in un volume sufficiente per simulare il danno sui materiali dei componenti più vicini al plasma attraverso il bombardamento di un bersaglio di litio metallico in movimento con deuteroni ad alta energia.
Ciò è ottenuto attraverso il bombardamento di un bersaglio di litio metallico in movimento con deuteroni ad alta energia (40 MeV) accelerati in due acceleratori lineari, con 125 mA di corrente ciascuno. Nel volume a più alto flusso di neutroni, davanti al bersaglio di litio, è possibile irraggiare materiali fino a 20 ? 50 dpa/anno, con la possibilità quindi di ottenere dati utili per l’impiego di tali materiali in un reattore di potenza (Demo) nell’arco di circa cinque anni. In Ifmif saranno provati sia i materiali per Demo (acciai ad attivazione ridotta, e.g. Eurofer, l’acciaio giapponese ad attivazione ridotta F82H) sia i materiali a più lungo termine come i ceramici compositi tipo il Carburo di Silicio (SiCf/SiC).
Il completamento del progetto dell’impianto e la realizzazione dei prototipi dei componenti principali sono previsti entro 6 anni, nel quadro dell’accordo «broader approach» fra Ue e Giappone fatto a margine dei negoziati per Iter con l’obiettivo di accelerare lo sviluppo dei reattori a fusione. Quindi l’impianto Ifmif potrebbe essere costruito entro i prossimi 10-12 anni, in parallelo con la realizzazione e l’attività di Iter.

Demo

Tempo di lettura: 3 minuti

I Paesi partner di Iter stanno sviluppando concetti di reattori dimostrativi (Demo), come ulteriore ed unico passo verso la produzione di energia da fusione dopo Iter. Demo dovrà essere in grado di produrre energia elettrica in modo stazionario, e di produrre in modo autosufficiente il trizio consumato con l’uso di un mantello triziogeno.
Poiché non tutti i neutroni prodotti nelle reazioni di fusione D+T sono disponibili per le reazioni triziogene con il litio (a causa di perdite dovute ad assorbimento da parte dei materiali strutturali etc.), per riprodurre completamente il trizio consumato (breeding ratio T/n>1), si utilizzano nel mantello stesso dei materiali, quali il berillio e il piombo, nei quali i neutroni incidenti vengono moltiplicati per effetto di particolari reazioni nucleari (reazioni (n,2n)).
I mantelli basati sull’uso di berillio (mantelli solidi), utilizzano composti ceramici solidi del litio, quali Li4SiO4, Li2TiO3 o Li2O. Nel caso del piombo, data la bassa temperatura di fusione di tale materiale (327°C), esso viene usato in fase liquida e in lega eutettica con il litio (mantelli liquidi), in modo tale che il materiale combina le due funzioni di moltiplicazione di neutroni e di produzione di trizio. In entrambi i casi, il materiale strutturale è generalmente un acciaio ferritico martensitico ad attivazione ridotta, e il fluido refrigerante è elio o acqua. Vi sono anche in fase di sviluppo mantelli liquidi che utilizzano sali fusi composti di litio (Li – Flibe (LiF)n (BeF2), Flinabe (LiF-BeF2-NaF), in USA), o Li liquido (questa soluzione, adottata dalla Russia, con vanadio come materiale strutturale, è particolarmente interessante perché non richiede l’uso di moltiplicatore di neutroni grazie al basso assorbimento neutronico da parte del vanadio ma, d’altra parte, pone seri problemi di sicurezza per la presenza di litio puro, altamente reattivo e corrosivo).
La selezione tra i vari concetti dovrà tenere conto, oltre al breeding ratio raggiungibile, della stabilità fisica e chimica dei materiali impiegati, della semplicità di estrazione del trizio, della conducibilità termica e della temperatura di lavoro permessa, della fattibilità tecnica, della robustezza dei componenti nelle condizioni di operazione, degli aspetti di sicurezza e manutenzione, della minimizzazione dei livelli di radioattività dei materiali di scarico a fine vita.
I mantelli solidi presentano buone caratteristiche di compatibilità chimica tra i materiali e di sicurezza, ma presentano limiti alla densità di potenza a causa della conducibiltà termica relativamente bassa dei materiali breeder, e alla durata di vita a causa del danneggiamento e delle trasmutazioni indotte dai neutroni sia nel berillio sia nel breeder stesso. D’altra parte, i mantelli liquidi presentano maggiori problemi di compatibilità tra materiali, ma anche la possibilità di purificazione e rinnovamento on line dei materiali stessi. Nei mantelli liquidi, inoltre, il materiale breeder-moltiplicatore di neutroni potrebbe funzionare anche come refrigerante (mantelli liquidi autorefrigerati).
L’Europa sta sviluppando due di diversi concetti di mantello per Demo da provare in Iter:
? Helium Cooled Pebble Bed (HCPB) ? mantello solido basato sull’uso di Li4SiO4 come materiale breeder, in forma di pebbles per l’estrazione del trizio tramite un flusso di He a bassa pressione,


e di berillio come moltiplicatore di neutroni, in forma di pebble bed per il controllo della temperatura con flusso di elio.

? Helium Cooled Lithium Lead (HCLL) ? mantello liquido basato sull’uso di LiPb.

Il modulo di mantello consiste per entrambi i concetti in una struttura di Eurofer che contiene le unità breeder, diverse nei due casi. Tutto il modulo è attivamente refrigerato ad elio (T in/out = 300/500 °C, P = 8 MPa).
In figura 7 è riportato lo schema concettuale dei moduli triziogeni sviluppati per essere testati in Iter.

Figura 7 ? Modulo di mantello triziogeno per Demo (progetti europei) ? A sinistra: struttura in Eurofer del modulo che include la prima parete e la griglia per l’alloggiamento delle unità breeder. A destra, in alto: unità breeder relativa al concetto HCPB, con i due letti di Li4SiO4, immersi in berillio; in basso: unità breeder relativa al concetto HCLL, con i pannelli in Eurofer attivamente raffreddati lungo i quali viene fatto circolare il LiPb.

Nel recente passato sono stati condotti anche diversi studi sui concetti di reattore commerciale (Power Plant Conceptual Studies). Alcuni che richiedono tecnologie più mature altri orientati verso soluzioni più avanzate che ancora richiedono sviluppi significativi. I concetti a più breve termine sono basati sull’utilizzo di materiali strutturali tipo acciai ferritici-martensitici e sono previsti lavorare a temperature attorno ai 450°C. I concetti più avanzati utlizzano acciai ODS (induriti per dispersione di ossidi) e anche di materiale ceramico composito (SiCf/SiC). Questi ultimi possono lavorare a temperature notevolmente più elevate ed essere perciò utilizzabili anche per altri scopi come la produzione di idrogeno.

Gli studi relative ai PPCS hanno dimostrato la potenziale economicità di questi impianti e soprattutto la loro sicurezza. Come si nota dai grafici, il costo del kWh da fusione può risultare competitivo anche paragonato ai costi delle fonti attualmente utilizzate e varia dai 3 ai 7 centesimi di euro. Per quanto riguarda gli aspetti di sicurezza, l’assenza totale di scorie a lunghissima vita e la possibilità di riutilizzare i materiali dopo circa 100 anni, grazie allo sviluppo di materiali a bassa attivazione, rendono la fusione molto attrattiva.

La roadmap finale

Tempo di lettura: 1 minuto

La fusione presenta un’enorme potenzialità come fonte di energia primaria di larga scala. Le sue caratteristiche ne determinano l’alto valore strategico dal punto di vista del rispetto dell’ambiente, della disponibilità del combustibile e della sicurezza dell’approvvigionamento. Tali caratteristiche sono:

? disponibilità praticamente illimitata del combustibile (deuterio e litio per il ciclo DT) e diffusione omogenea sulla Terra
? nessuna emissione di CO2 né di altri inquinanti atmosferici durante l’esercizio dell’impianto,
? sicurezza intrinseca in tutte le fasi operative e di arresto della centrale,
? gestione dei materiali attivati (che non contengono né prodotti di fissione né attinidi) entro un periodo di 100 anni.

Le attività sviluppate negli scorsi decenni hanno consentito di comprendere e risolvere gran parte dei problemi scientifici del confinamento magnetico e del riscaldamento del plasma, ed hanno determinato un significativo progresso nei risultati ottenuti con i plasmi sperimentali. Allo stato attuale la dimostrazione della fattibilità scientifica e tecnologica rappresenta una impegnativa sfida tecnologica che richiede ancora alcuni passi fondamentali. A tal fine, l’Europa ha elaborato una Roadmap con l’obiettivo di completare il percorso e realizzare il primo reattore commerciale entro la metà del secolo. Il progetto Iter permetterà di conseguire la verifica della fattibilità della fusione a livello scientifico e fornire elementi tecnologici e ingegneristici per sviluppare entro 30 anni un prototipo di impianto (Demo) capace di produrre energia elettrica. L’Italia ha contribuito in modo sostanziale a questo progresso sia sul piano scientifico che tecnologico, sviluppando competenze di primissimo livello grazie alle quali si è guadagnata in questo campo un posto di rilievo a livello mondiale. Le ricerche sono condotte da Enea, che coordina tutto il programma italiano, il Cnr di Milano, il Consorzio Rfx di Padova e numerose Università e Consorzi Universitari (Consorzio Create, Politecnico di Torino, Università di Roma II e III, Università di Catania).

Le previsioni

Tempo di lettura: < 1 minuto

In generale le previsioni per i prossimi anni non sembrano rosee. L’innalzamento della temperatura dei mari è, secondo gli scienziati, un processo irreversibile ed è causa principale dell’aumento di intensità dei fenomeni climatici estremi. La rivista «Nature» rincara la dose presentando uno studio di tre ricercatori americani nel quale si analizza l’andamento dei cicloni negli ultimi 25 anni. Tutti i bacini tropicali esaminati presentano un incremento della velocità massima dei venti e una crescita della frequenza dei cicloni soprattutto nelle fasce settentrionali dell’Oceano Indiano e dell’Atlantico con la sola eccezione dell’Oceano Pacifico. Per ogni grado di temperatura in più delle acque superficiali oceaniche, aumenta del 31 per cento la frequenza globale dei più intensi cicloni.

In Bihar, Assam, ad Haiti e a Cuba si muore per la pioggia e il vento, ma la notizia trova spazio ancora troppo limitato sui media internazionali. Viene da chiedersi: ma se qualcuno raccontasse meglio cosa sta accadendo nel sud del mondo e ne mostrasse quotidianamente le tragiche immagini, forse qualcuno firmerebbe i tanto attesi trattati anti-global warming?

La mail di invito

Tempo di lettura: < 1 minuto

Benveniste Research: Problems and Perspectives 20 Years Later

Dear collegues

It’s 20 years since publication of Jacques Benveniste paper in «Nature» (Davenas E., Beauvais F., Amara J., Oberbaum M., Robinson B., Madonna A., Tedeschi A., Pomeranz B., Fortner B., Belon P., Sainte-Laudy J., Poitevin B., Benveniste J.: Human basophile degranulation triggered by very dilute antiserum against IgE. NATURE , 1988, 333-816-818).

We suggest to organize the International Conference «Benveniste Research: Problems and Perspectives 20 Years Later».

We encourage sharing your opinion on this matter.

Prof. Vincenzo Valenzi
DigiBio
Scientific Director
34 avenue des Champs Elysees
75 008 Paris
Tel.: 01.34.74.06.44
e-mail: valenzivincenzo@yahoo.it
www.digibio.com

Prof. Viktor Antonchenko
Vice-Director of Bogolyubov Institute for Theoretical Physics
Metrolohichna Str., 14-b,
03680 Kyiv, Ukraine,
Tel.: +¬380 44 5213423
Fax: +380 44 5265998
e-mail: vantonchenko@bitp.kiev.ua

Nature, Vol. 333, No. 6176, pp. 816-818, 30th.

L’Enea diventa Enes – Gli articoli

Tempo di lettura: 2 minuti

Art. 16-bis.
(Istituzione dell’Agenzia nazionale per le nuove tecnologie, l’energia e lo sviluppo economico sostenibile – ENES).

1. È istituita, sotto la vigilanza del Ministro dello sviluppo economico, l’Agenzia nazionale per le nuove tecnologie, l’energia e lo sviluppo economico sostenibile (ENES).

2. L’ENES è un ente di diritto pubblico finalizzato alla ricerca ed alla innovazione tecnologica nonché alla prestazione di servizi avanzati nei settori dell’energia, con particolare riguardo al settore nucleare, e dello sviluppo economico sostenibile.

3. L’ENES opera in piena autonomia per lo svolgimento delle funzioni istituzionali ad essa assegnate, secondo le disposizioni previste dal presente e sulla base degli indirizzi definiti dal Ministro dello sviluppo economico. L’ENES svolge le rispettive funzioni con le risorse finanziarie strumentali e di personale dell’Ente per le nuove tecnologie, l’energia e l’ambiente (ENEA) di cui ai decreto legislativo 30 gennaio 1999, n.36, che, a decorrere dalla data di insediamento dei commissari di cui al comma 6 del presente articolo, è soppresso.

4. Con decreto del Ministro dello sviluppo economico, da adottare di concerto con il Ministro dell’economia e delle finanze, sentite le Commissioni parlamentari competenti, che si esprimono entro venti giorni dalla data di assegnazione, sono determinati, in coerenza con obiettivi di funzionalità, efficienza ed economicità, le specifiche funzioni, gli organi di amministrazione e controllo, la sede, le modalità di costituzione e di funzionamento, le procedure per la definizione e l’attuazione dei programmi per l’assunzione e l’utilizzo del personale, nel rispetto del contratto collettivo nazionale di lavoro del comparto degli enti di ricerca e della normativa vigente, nonché per l’erogazione delle risorse dell’ENES. In sede di definizione di tale decreto si tiene conto dei risparmi conseguenti alla razionalizzazione delle funzioni amministrative, anche attraverso l’eliminazione delle duplicazioni organizzative e funzionali, e al minor fabbisogno di risorse strumentali e logistiche.

5. La denominazione «Agenzia nazionale per le nuove tecnologie, l’energia e lo sviluppo economico sostenibile (ENES)» sostituisce, ad ogni effetto e ovunque presente, la denominazione di «Ente per le nuove tecnologie, l’energia e l’ambiente (ENEA)».

6. Per garantire l’ordinaria amministrazione e lo svolgimento delle attività istituzionali fino all’avvio dell’ENES, il Ministro dello sviluppo economico, con proprio decreto, da emanarsi entro trenta giorni dalla data di entrata in vigore del presente decreto, nomina un commissario e due subcommissari.

I danni del non intervento

Tempo di lettura: < 1 minuto

Nell’economia dell’ambiente anche i cambiamenti climatici hanno i loro numeri. Eccone alcuni emersi nella Giornata mondiale dell’alimentazione.

TEMPERATURA: si calcola che in Europa potrà aumentare fra 2,3 e 6 gradi per la fine del secolo.

POVERTÀ: gli oltre 60 milioni di persone che nell’Europa dell’Est vivono in assoluta povertà potranno diventare più numerosi per le trasformazioni dovute ai cambiamenti climatici. Secondo le stime, affrontare la nuova situazione potrà costare fino al 5% del Prodotto interno lordo (Pil).

MENO RACCOLTI: la produzione agricola potrà diminuire nei Paesi mediterranei, Europa Orientale e Asia centrale, dove la riduzione è valutata in circa il 30% per la metà del secolo.

NUOVE INFEZIONI: le temperature più alte potranno favorire la circolazione di virus di origine animale trasmissibili all’uomo, come quelli di epatite E e febbre della Rift Valley; oppure di batteri come salmonella, yersinia, listeria e leptospirosi.

CIBO A RISCHIO: le temperature più elevate possono favorire lo sviluppo di batteri negli alimenti, come la salmonella.

MENO ACQUA: le persone che vivono in zone povere di acqua potranno aumentare fra 16 e 44 milioni entro il 2080. In Italia sono a rischio Puglia, Basilicata, Sicilia e Sardegna.