Su materia condensata, FF e Lenr si stende poi inevitabilmente l’ombra di grandi società, di settori militari, dei cosiddetti «interessi forti»; è il loro mestiere esercitare lobbying, intrusioni e tentare di piegare a loro favore anche organismi tecnici e scientifici. Ma non siamo ingenui, e non vogliamo accontentarci delle abituali spiegazioni che per questi «nodi» rimandano in ultima analisi al «grande vecchio» (finanza, impresa capitalistica, multinazionali, servizi segreti ecc.) che tutto controlla e regge in concatenazioni causali che farebbero impallidire il grande Baruch Spinoza
Come, purtroppo, avviene in Italia, persone di valore rispettate all’estero ed ignorate se non combattute in Patria, vengono «scoperte» solo dopo la loro scomparsa. È il caso di Giuliano Preparata i cui lavori vengono pubblicati e commentati in operazioni editoriali sempre più frequenti. Piuttosto che pubblicare recensioni abbiamo preferito chiedere a Massimo Scalia di «parlarci» di Giuliano Preparata.
«Io, io», così avevamo soprannominato Giuliano. Era il corso di laurea in fisica dei primi anni 60 ed eravamo un po’ infastiditi dall’ingenuo entusiasmo e dalla volontà di protagonismo con i quali Giuliano Preparata si era presentato fin dal primo anno di corso. Solo il passare del tempo mi avrebbe fatto rinunciare, ci avrebbe fatto rinunciare, all’atteggiamento, un po’ snob, un po’ intellettualistico, che guarda con occhio critico all’entusiasmo e al protagonismo.
Senza una buona dose di questi due ingredienti è difficile affermarsi, combattere per qualche cosa in cui si crede. E Giuliano è stato sicuramente un combattente; e quell’ingenuità dei vent’anni si è sempre più rivelata come slancio, curiosità onnivora e vero e proprio amore di sapere.
Preparata ha percorso tutta la strada che porta alla notorietà internazionale. Dalla scuola di Fisica fiorentina (i «Gattini») alle esperienze fuori dal nostro Paese (Harvard, Cern e tante altre), il profilo scientifico di Giuliano si è solidamente costruito come quello di un brillante fisico teorico dotato però di grande sensibilità e attenzione alle problematiche dei metodi e delle misure sperimentali dei grandi laboratori della fisica delle alte energie.
Giuliano era stato liquidato dal ’68 come «forza sana»: con questa etichetta venivano bollati dal movement tutti coloro che invece di lavorare per l’«immaginazione al potere» e contro l’autoritarismo dell’Università e dello Stato pensavano a studiare o al più proponevano la strada del riformismo. Quando ci incontrammo, oltre vent’anni dopo, le analogie delle nostre vite ci fecero sentire più vicini. Inoltre Preparata si era inoltrato in quel percorso che, nell’arcigna corporazione dei fisici, ma non solo, suona peggio che un’eresia: essendosi per una vita occupato di fisica teorica delle alte energie, osava cambiare campo e voleva dir la sua sulla fisica della materia condensata. Per di più, brandendo argomenti [dalla termodinamica dell’acqua, con l’evidenza a favore dell’esistenza di domini di coerenza, alla «fusione fredda» (FF)] che venivano guardati a dire poco con sospetto.
È questo percorso che porta Giuliano a mettere per iscritto, è il 1994, la sua teoria sulla coerenza quanto elettrodinamica (QED) della materia e a dare nuovo impulso alle ricerche sulla fusione fredda; il libro esce l’anno dopo (1).
È forse bene rimarcare da subito che la teoria della coerenza QED della materia non è un fungo o solo una geniale trovata di Preparata. Già nei primi anni 50 Robert Dicke aveva proposto un modello di sistemi atomici accoppiati con la radiazione, più precisamente un sistema di N atomi indipendenti su due livelli energetici, per il quale, se investito da una radiazione di lunghezza d’onda molto superiore alla separazione tra i livelli, doveva essere possibile una transizione verso un maggiore ordine, la cosiddetta transizione di fase «superradiante»; e che non ci fosse l’atteso decadimento esponenziale del gruppo di N atomi così stimolati veniva spiegato col fatto che l’interazione atomi–radiazione avviene in modo coerente e collettivo.
Proprio poche settimane prima che Fleischmann e Pons (F & P) annunciassero l’esito dell’esperimento sulla «fusione fredda» (23 marzo 1989), Preparata aveva rispolverato alla Winter School di Folgaria la «superradianza»; e pochi anni dopo aveva mostrato come la critica mossa a quella teoria (il non soddisfare l’invarianza di gauge) fosse infondata, in un articolo scritto con Mele e Del Giudice (2). E la superradianza ha continuato il suo percorso nei pascoli della scienza trovando conferme sperimentali e impieghi teorici anche attuali, ad es. nei sistemi di quantum dot o nella Zel’dovich radiation in Astrofisica.
Già, Emilio Del Giudice. Anche lui, il collaboratore di Giuliano per eccellenza, ci ha lasciato; ed è senz’altro amicale il ricordo che lo accomuna a Giuliano, una bella amicizia. Emilio già a partire dai primi anni 80 si era interessato a comportamenti collettivi e coerenti nei sistemi biologici seguendo l’insegnamento di Herbert Frölich.
I sistemi biologici sono composti, in ultima analisi, da elementi animati da vibrazioni dovute all’agitazione termica della materia. Pur essendo ogni elemento elettricamente neutro, la sua distribuzione di carica varia nel tempo generando addensamenti di cariche negative in una sua regione e quindi positive nella regione da esse abbandonata. Esso si comporta, cioè, come un dipolo elettrico, cui sono associati un dato modo di vibrazione e la corrispondente frequenza di oscillazione elettromagnetica; e con la stessa frequenza irradia, come fosse una microscopica antenna, una potenza data dalla formula di Larmor per i moti accelerati di cariche. Si può quindi rappresentare un sistema biologico microscopico o un suo componente, ad esempio la membrana o un mitocondrio cellulare, come un sistema di dipoli in oscillazione che emettono onde elettromagnetiche. Sono però oscillazioni caotiche, apparentemente non in grado di poter esercitare una qualche azione distinguibile dal «rumore di fondo».
Frölich, uno dei pionieri della Fisica dello stato solido, fu tra i primi a ipotizzare che nei sistemi biologici potrebbe prodursi, sotto certe condizioni, una «condensazione» dei modi di vibrazione dei dipoli in un unico modo di vibrazione collettivo (un dipolo gigante) nello stato più basso d’energia. Nei sistemi biologici, afferma Frölich, ci si attende un gruppo di modi di vibrazioni longitudinali in una regione di frequenze tra 1011 e 1012 s-1. Se questo gruppo viene rifornito di energia a un tasso medio superiore a una certa soglia, allora l’energia fornita non si disperde del tutto come calore ma viene immagazzinata nella forma altamente ordinata di «eccitazioni coerenti». Queste eccitazioni sono stati stazionari (metastabili) dotati di un elevato momento di dipolo elettrico e di vibrazioni elettriche coerenti di alta frequenza. Il fenomeno, osserva Frölich, è considerevolmente simile alla «condensazione di Bose-Einstein» di un gas a bassissima temperatura (3). È interessante rilevare che l’ipotesi di Fröhlich ha avuto conferme sperimentali ed è stata riferimento di molte elaborazioni teoriche decisamente prima della conferma sperimentale della teoria della condensazione di Bose-Einstein (1925), che ha dovuto attendere 70 anni (e ha poi fruttato il Nobel, nel 2001, a Cornell, Ketterle e Wieman che l’avevano riprodotta).
Attribuire comportamenti coerenti ai sistemi biologici è un fatto decisamente nuovo, che li assimila, per questo aspetto, ai laser, ai superconduttori e ai superfluidi. La congettura e gli studi di Fröhlich hanno aperto la strada a miriadi di ricerche teoriche e sperimentali sul tema della coerenza nei sistemi biologici, nella materia.
La «fusione fredda»: interazioni collettive e coerenti
E rappresenta anche una nuova cultura scientifica, che trova uno dei banchi di prova nel dibattito sulla FF e successivamente sulle Lenr (Low Energy Nuclear Reactions). In questo contesto è «filologicamente» importante sottolineare un’affermazione di un articolo del ’94 che Giuliano scrive sul «Nuovo Cimento» insieme a Fleischmann e a Pons: «…Tutti i tentativi teorici che si concentrano soltanto su interazioni a pochi corpi, sia elettromagnetiche sia nucleari, sono probabilmente insufficienti a spiegare tali fenomeni. D’altro canto abbiamo buone indicazioni che le teorie che descrivono interazioni collettive e coerenti tra componenti elementari che portano a effetti macrosopici di natura quantistica appartengono alla classe delle teorie possibili per quei fenomeni» (4).
Infatti chi ha seguito la vicenda, dalla FF a quelle che ormai da tempo si chiamano Lenr, sa che questo è un vero punto di inciampo. Anche se l’attuale teoria WLS, di cui parleremo più avanti, incontra meno ostacoli e «riprovazione» da parte dei gruppi che dettano legge nel campo della Fisica, rimane una sorta di divario culturale tra chi è abituato a considerare, come nella Fisica delle alte energie, urti particella-particella (quel che avviene nel Large Hadron Collider del Cern) e chi ha fondati motivi teorici e sperimentali per ritenere che certi fenomeni macroscopici di natura quantistica possano essere interpretati solo in termini di «interazioni collettive e coerenti tra componenti elementari».
Resta fuor di dubbio che la coerenza QED della materia non nasce davvero come oggetto esoterico, ma si alimenta di teorie, sperimentazioni e idee a tutt’oggi diffuse e praticate in diversi settori scientifici.
Ed è la teoria che fornisce a Preparata il valore di «caricamento», cioè il rapporto tra atomi di Idrogeno e di Palladio, necessario perché nell’esperimento di F & P si inneschi l’eccesso di calore: 0,95. Già questo fa capire la principale difficoltà incontrata da tanti ricercatori nel tentativo di riprodurre quei risultati: realizzare le condizioni per ottenere, appunto, la soglia al di sotto della quale la FF, o quel che sia, diventa assai poco probabile.
Giuliano Preparata, che ha girato il mondo anche in vari laboratori sperimentali d’eccellenza e che, sebbene fisico teorico, ha sempre coltivato il gusto «galileiano» della sperimentazione, cerca le condizioni ottimali, anche dal punto di vista della calorimetria (5), per la replica dell’esperimento di F & P: la cella elettrolitica, col catodo di Palladio, sede della reazione Deuterio-Deuterio che ha prodotto l’eccesso di calore in quantità non compatibili con una reazione chimica, ma solo con una reazione nucleare. Il 1° marzo 1996 viene da lui annunciata la costituzione insieme a Emilio Del Giudice di Leda (Laboratorio di elettrodinamica avanzata), che al logo dell’acronimo unisce l’immagine della fanciulla cara a Giove; e pochi mesi dopo si vedono i primi risultati degli esperimenti che continueranno in Leda per tutto il 1997.
Mettere in piedi un laboratorio e fare degli esperimenti, che implicano il costo di molte centinaia di milioni di lire, è reso possibile da un gruppo di sponsor, tra i quali Tronchetti-Provera (allora AD di Pirelli) e Massimo Moratti, e dall’«azione parallela» di una Diotima, che è Milly Moratti, moglie di Massimo. È una fisica e una militante ambientalista, che si rivolge naturalmente a me, un fisico eletto alla Camera per i Verdi. Vado varie volte a Milano, e ho modo di rincontrare lì il mio vecchio collega Giuliano. Quam mutatus ab illo! Lo ritrovavo combattivo come sempre, ma messo in un angolo a causa delle sue ricerche e della sua teoria: il peccato mortale di percorrere linee di ricerca che l’establishment considera «esoteriche», se non «patologiche» come la FF.
L’esperimento però funziona, c’è una produzione di eccesso di calore con un guadagno del 100% e una riproducibilità e una continuità, il cui non conseguimento era stato il maggior ostacolo alla credibilità della fusione fredda. Niente flusso di neutroni però, una delle caratteristiche fondamentali di una reazione nucleare; e a me, un po’ preoccupato di questa assenza, Giuliano spiega con un mezzo sorriso che è uno dei «miracoli» della FF. Solo tre anni prima, infatti, John R. Huizenga, uno dei commissari che nel 1989 ne aveva respinto il finanziamento, aveva seppellita la FF come «The Scientific Fiasco of the Century», indicando ironicamente i tre «miracoli» della FF: la mancanza di forti emissioni di neutroni, la mancanza di significative emissioni di raggi γ o X e la penetrazione della barriera colombiana tra cariche positive.
L’imbarazzo per la mia gaffe, onestamente involontaria e non senza fondamento, è però immediatamente superato perché bisogna scendere giù, nell’aula grande del Dipartimento di Fisica dell’Università di Milano presso cui è insediato Leda.
L’aula, gremita, accoglie in silenzio ma con rispetto e interesse il seminario in cui Giuliano illustra metodi e risultati ottenuti; e l’esperimento verrà validato di lì a poco per la prima volta. Riceverà, la seconda volta, una bocciatura da un gruppo di tecnici che però odorano molto di concorrenza. Otterrà infine un’altra validazione da un team capitanato da Francesco Scaramuzzi, leader del gruppo di ricercatori dell’Enea di Frascati, che, pochi giorni dopo la pubblicazione dell’articolo di F & P, aveva rilevato un eccesso di calore anomalo generato dall’assorbimento da parte del Titanio di un gas di Deuterio.
E qui è opportuno rilevare che questo esperimento, presentato all’Accademia dei Lincei il 22 aprile 1989 da Emilio Colombo, presidente dell’Enea, rappresenta un’altra strada di sperimentazione per la FF, alternativa al metodo «elettrolitico». È la strada lungo la quale si sono mossi, a partire dal 1989, Piantelli e Focardi a Siena e a Bologna, e poi, in tutti questi anni Francesco Celani, costantemente oggetto di tentativi di chiusura del suo laboratorio e, invece, con molti maggiori riconoscimenti, Iwamura in Giappone.
Sulla base di un quarto di secolo e passa di esperimenti e di dibattito sono giunto alla conclusione che la reazione per contatto diretto, senza cioè la cella elettrolitica, di Deuterio con un materiale nano strutturato (Titanio, Nichel, Palladio, Costantana ecc.) sia la via più promettente, anche perché meno complessa, per ottenere una produzione di energia «pulita»; che era poi la grande promessa che, incautamente e prematuramente, F & P formularono in quell’ormai lontano 23 marzo del 1989.
Tornando a Milano e a Leda, gli sponsor si ritirarono nonostante i passi avanti fatti e si pose allora il problema di mantenere in vita la ricerca e il laboratorio della piccola società. È a partire dall’ottobre del ’96 che, nella mia veste di parlamentare, mi battei perché quell’esperienza così significativa non andasse perduta. L’Infn, che all’epoca aveva assicurato al Governo «la disponibilità a considerare e sostenere senza alcuna preclusione ricerche nel settore della cosiddetta fusione nucleare fredda», non si mosse. Diversa invece la sensibilità che mostrarono all’Enea il direttore generale, Renato Strada, e il presidente, Carlo Rubbia; alla fine riuscimmo con Giuliano a incardinare Leda e il suo know-how nel contesto delle ricerche sull’energia da idrogeno dell’Enea di Frascati.
Ed è sicuramente da apprezzare il rigore, e anche un saldo buon senso friulano, con cui Rubbia affrontò la vicenda, non facendosi condizionare dai ripetuti pronunciamenti sulla FF come «junk science», magari avanzati da parte di ricercatori sulla fusione «calda», assai determinati a non voler spartire il «loro» budget di ricerca. Rubbia pose la questione nei termini usuali della ricerca scientifica; del verificare, cioè, se quanto collaudato più volte da Preparata e Del Giudice con Leda fosse riproducibile nei laboratori di Frascati.
Il Rapporto Enea 41/2002 e la morte di Giuliano
E nel ’99 parte l’esperimento (6), che si giova oltre che dei due di Leda anche dei ricercatori del «gruppo Idrogeno» dell’Enea-Frascati; con tre anni di tempo a disposizione e un budget di 600.000 euro.
Il 24 aprile 2000 Giuliano muore per la malattia che, senza incrinare la sua determinazione, lo aveva però minato negli ultimi anni; e sei mesi dopo, in occasione di un seminario in suo ricordo, Rubbia si impegnerà a rilevare anche Leda, in modo da evitare il fallimento della piccola società (7); la ricerca verrà completata e i risultati riportati in un rapporto interno dell’Enea dell’aprile 2002, il «Rapporto 41» De Ninno et al.(8).
Che cosa aveva trovato il gruppo De Ninno nella serie di esperimenti condotti a Enea-Frascati? Innanzitutto che solo se il catodo di Palladio ha la forma di una striscia stretta e sottile (un film di spessore 1-2 micron), e non di una placca, il fattore di carico x = [D]/[Pd] si porta al valore 1 in pochi minuti. La fase «supercritica», sempre con x = 1, viene raggiunta in circa due ore e mezza dall’inizio dell’elettrolisi, dopo questa soglia appaiono le seguenti «anomalie»:
i. l’aumento del contenuto di 42He (Elio) continua per tutta la fase supercritica fino a un valore, più di sette volte quello iniziale, che si mantiene poi costante per tutta la fase di osservazione.
ii. Un incremento di temperatura al catodo che segnala l’atteso eccesso di calore.
Le due anomalie si presentano insieme, pur nei diversi tempi di risposta; l’azzeramento del potenziale del catodo (dopo dodici ore di funzionamento) determina la scomparsa di entrambe le anomalie. Dalla quantità di 42He prodotta nel corso dell’elettrolisi si può calcolare la potenza prodotta, in base alla conversione
iii) D + D → 42He + γ + 23,8 MeV,
dove il MeV è una misura d’energia usata nel mondo subatomico, pari a 106 eV (1eV = 1,60·10-19 J).
Gli strumenti utilizzati erano stati sottoposti ad accurati controlli (taratura, calibratura ecc.), e una particolare attenzione era stata dedicata alla rimozione totale dei gas non inerti dalla miscela gassosa prodotta nel corso dell’elettrolisi per garantire l’affidabilità delle misure delle piccole quantità di Elio prodotte nei vari esperimenti. Quindi la discrepanza, registrata nel corso dei vari esperimenti eseguiti e che aumentava con l’aumentare della potenza prodotta, tra la potenza calcolata in base alla iii) e quella valutata semplicemente in base all’aumento della temperatura al catodo, poteva essere ricondotta alle condizioni di non equilibrio termico in prossimità del catodo e alla conseguente perdita per irraggiamento dalla superficie del film di Pd.
Era stata addirittura raggiunta la fusione parziale del catodo (1828 K) senza un aumento apprezzabile della temperatura dell’elettrolita, cioè senza che quella fusione parziale fosse stata rilevata calorimetricamente.
Nel «Rapporto 41» i ricercatori potevano perciò affermare che la produzione di 42He – che ha luogo insieme a quella di eccesso di calore quando x = 1 – testimonia il carattere nucleare dei processi che hanno avuto luogo nella cella: una reazione nucleare, la iii), ottenuta invece con processi puramente elettro-chimici.
Nelle considerazioni conclusive il gruppo riaffermava, come possibile interpretazione teorica del fenomeno, la iii) come reazione di fusione, cioè quella, e non poteva non essere così, fornita da Giuliano Preparata. A cominciare dall’effetto Cöhn-Ahronov, come l’aveva battezzato Giuliano e che nel rapporto, in omaggio a lui che non c’è più, veniva ridefinito come «effetto Preparata»: vale a dire, in termini sperimentali, la depressione del potenziale chimico del Deuterio nel Palladio (per x > 0,7) e il corrispondente aumento del tasso di caricamento, quando viene applicato al catodo un potenziale elettrico.
Purtroppo gli stanziamenti al gruppo per procedere con altri esperimenti non vengono rinnovati, Rubbia non è più presidente dell’Enea, e viene finanziata un’impegnativa ricerca che, portata avanti da Vittorio Violante per l’Enea con Stanford Research Institute (Sri), Naval Research Laboratory Washington D.C., Energetics Technologies Inc., Energetics LLC e La Sapienza, consegue risultati importanti ma parziali, il 65% di riproducibilità all’Enea e il 75% allo Sri.
Il nome di Giuliano Preparata è indubbiamente legato alla FF, ma la sua produzione scientifica è stata ben più ampia e di grande rilievo in vari settori, come illustrò Rubbia nella commemorazione di Giuliano sei mesi dopo la sua morte (8). Ma a questo punto chi legge può essere interessato alla domanda: «Com’è finita la storia della FF?».
L’eccesso termico: reazione nucleare, ma non di fusione
Anni dopo, a 20 dall’esperimento di F & P, Peter Hagelstein eseguì delle stime per calcolare le emissioni di neutroni e raggi X nella reazione
iii) D + D → 42He + γ + 23,8 MeV,
in corrispondenza all’energia con cui «nasce» l’atomo di Elio e ai diversi processi che possono originare quelle emissioni. La conclusione cui pervenne appare una sostanziale, anche se cauta, conferma della linea di ricerca e dei risultati ottenuti sull’arco di quindici anni (9), fin dall’esperimento di McKubre, passato alla storia della FF come M4 ed eseguito nei laboratori dello Sri nel 1994 [(ma la prima pubblicazione dei risultati di M4 in sede scientifica è quella citata in nota (10)].
L’esperimento M4 ha continuato a esser considerato da molti addetti ai lavori come la più accurata evidenza sperimentale della reazione di fusione iii) (11), al punto da motivare un esperimento analogo («the case replication experiment») i cui risultati vennero riportati in un rapporto tecnico stampato nel 1998 dall’Epri (Electric Power Research Institute), l’Istituto che era stato lo sponsor della «replication» effettuata sempre presso lo Sri.
Hagelstein era stato ampiamente coinvolto nel tentativo di «reinterpretare» M4 e nel «replication experiment» come conferma della reazione iii); e questa reinterpretazione era stata alla base di una lettera e di un successivo rapporto presentato al DoE degli US nel luglio 2004 per sollecitare attenzione e finanziamenti. L’esito era stato uno «sdoganamento» della FF, ammessa come settore di ricerca scientifica, ma con nessun riconoscimento per uno stanziamento ad hoc nel budget federale della ricerca. Si era dipanata una vicenda complessa e non certo esente da critiche (11) e la riflessione di Hagelstein sui «constraints» (9) suona perciò anche come una sorta di bilancio e una difesa.
In definitiva, come consuntivo di due decenni di FF, mentre appare innegabile in molti esperimenti un’evidenza per la produzione di un eccesso di calore, assai più di quanto ne possa produrre una reazione elettrochimica, in concomitanza con la produzione 42He, non vengono rilevate quantità significative degli altri prodotti in uscita dalla reazione D – D secondo il canale iii), attesi se fosse una fusione nucleare: neutroni, raggi X o γ, Trizio, o trasmutazioni (12) di elementi.
Per giustificare queste assenze e la penetrazione della barriera coulombiana, i tre miracoli della FF su cui aveva ironizzato Huizenga nel suo «The Scientific Fiasco of the Century», molti ricercatori avevano fatto fede al «most surprising feature» della FF subito segnalato da F & P (13); e avevano continuato a interpretare i fenomeni della FF sulla base della reazione iii), quella però di gran lunga meno probabile rispetto ai canali i) e ii) (14). O si erano accontentati dei risultati senza impegnarsi in interpretazioni teoriche.
Nel «case replication experiment», mirato a verificare che la reazione che avviene sia proprio la iii), venivano misurati 32 MeV per atomo di Elio, cioè una deviazione troppo grande (circa il 40%) rispetto al valore atteso di 23,8 MeV della iii); quindi una smentita, proprio da quello che è stato ritenuto l’esperimento più significativo a favore della FF [e fu questa rilevante discrepanza all’origine del criticato tentativo di «reinterpretazione» (11)].
E del resto un interrogativo generale ha sempre pesato come una spada di Damocle sull’interpretazione che la FF sia una fusione nucleare che avvenga secondo il canale iii): «Poiché questo è il canale più altamente improbabile – 10-6 – rispetto agli altri due, equiprobabili (14), in cui può avvenire la reazione D – D, perché mai la natura dovrebbe scegliere proprio questa soluzione?».
Insomma, si è di fronte sicuramente a una reazione nucleare, per l’eccesso di calore misurato in moltissimi esperimenti in quantitativi superiori di alcuni ordini di grandezza a quello che può produrre una reazione elettrochimica, ma non c’è alcuna evidenza sperimentale che comprovi che la reazione nucleare sia una reazione di fusione, e che sia la iii). E sul piano dell’interpretazione teorica non emerge una teoria condivisa in grado di spiegare i processi nucleari che presiedono alla FF.
Una spy story. Parallela?
In ogni caso, questa difficoltà di sistemazione teorica della FF non ha mai scoraggiato le ricerche militari. I bene informati sostengono infatti che già alla fine del 1989 la Nasa aveva riprodotto la FF, i mezzi non le mancavano certo, e le Lenr rientrano, a tutt’oggi, tra le sue opzioni di ricerca. Così testimonia in termini decisamente positivi un suo chief scientist, Dennis Bushnell, nel sito Nasa Technology Gateway (il quale sito, oltre che per il trasferimento di tecnologie, si qualifica come A place to purchase Lenr technology). Del resto nel Technical Report rilasciato da un laboratorio della U.S. Navy nel 2002, oltre alla vasta rassegna delle ricerche compiute dalla Marina nel periodo 1989 – 2002, c’è la conferma di vari esperimenti nei quali oltre all’eccesso di calore viene rilevata la produzione di 42He, come presumibile effetto di reazioni nucleari all’interno della cella (15).
Questo interesse dei militari, forse in epoca anteriore alle stesse ricerche di F & P, e il loro ruolo nella vicenda mi divennero molto più chiari dopo una lunghissima chiacchierata con Martin Fleischmann a Venezia, ormai tanti anni fa (non c’era più Giuliano, ma c’era Emilio). Fleischmann era di passaggio per l’Italia e mi dette la sensazione di uno che volesse «alleggerirsi» un po’ di quella pratica cui, si dice, sono sottoposti gli scienziati, consenzienti, sudditi di Sua Maestà: la visita di due distinti gentiluomini, qualche tempo dopo una partecipazione a una conferenza all’estero o a qualche evento scientifico, che richiedono quali siano stati i temi affrontati e la loro importanza per la sicurezza nazionale. Fleischmann richiamò la nostra attenzione su un vecchio articolo di Bridgman degli anni 30 sugli effetti di una pressione «ultracritica» su un metallo (Percy W. Bridgman aveva preso il Nobel nel 1947 proprio per la Fisica delle alte pressioni) e ci pose con qualche giro di parole la questione di che cosa potrebbe succedere se il metallo fosse Uranio fissile «caricato» con Idrogeno e sottoposto a una forte pressione, come quella di una «percussione». Il seguito della storia è ben raccontato nell’avvincente libro di Mauro Torrealta e Emilio Del Giudice (16).
Ma lasciando da parte storie militari, come rispondere a quell’interrogativo di «Damocle»? Come spiegare, se non va bene la iii), la presenza di Elio registrata in tanti esperimenti? C’è bisogno di un nuovo punto di vista, una nuova teoria.
Non credo davvero che possa risuonare come una sorta di «offesa» proporre in un memorial di Giuliano una teoria che ha «superato» la sua. Non era davvero lo spirito dell’uomo, che avrebbe peraltro difeso a spada tratta la sua «creatura», pronto però a riconoscere gli argomenti dell’altro. Del resto questa è una mia affermazione, anche un po’ provocatoria nei confronti di tanti ricercatori che nonostante «gli scherni e gli oltraggi», e non fruendo di una loro spiegazione del fenomeno, continuano imperterriti a chiamare fusione fredda una reazione nucleare che sicuramente fusione non è, come mi pare sia stato mostrato al di là di ogni ragionevole dubbio.
E del resto anche Preparata e Fleischmann non si erano voluti impiccare all’esclusività della reazione iii) e avevano elencato a suo tempo gli ingredienti di una teoria possibile nel quadro di riferimento della QED, come abbiamo già sottolineato (4) e che è opportuno ripetere: interazioni, sia elettromagnetiche sia nucleari, collettive e coerenti e non a pochi corpi. Solo così le interazioni tra componenti elementari possono portare a effetti macroscopici di natura quantistica, del tutto imprevedibili sulla base delle conoscenze scientifiche acquisite e dei corrispondenti punti di vista dominanti.
La teoria Widom, Larsen e Srivastava (WLS)
Il nuovo orizzonte teorico delineato negli ultimi dieci anni sottrae il discorso delle reazioni nucleari a bassa energia a quel che è ormai diventato un ridotto, la FF. Se, come spero risulti chiaro, non è producente intestardirsi sull’interpretazione dell’esperimento di F & P come reazione di fusione, perché i dati sperimentali non lo consentono e le teorie proposte spiegano troppo o troppo poco, non è però certo da buttare quella messe di solidi dati sperimentali accumulati per vent’anni sulle Lenr, e che non possono essere scartati come affetti da errore.
D’altro canto, perché nel tentativo di spiegare i risultati non si è mai invocato il «modello standard», cioè la teoria delle interazioni elettrodeboli e forti tra tutte le particelle elementari, note o previste dalla teoria stessa, costruito a partire dagli anni 60 e universalmente accettato? Il nuovo punto di vista, la nuova teoria viene proposta a partire dal 2006 da Allan Widom, Lewis Larsen e Yogendra Srivastava; quest’ultimo poi è stato anche lui collega universitario e amico di Giuliano e ne ha seguito la sorte di diffidenza e, addirittura, di pesanti pubbliche «scomuniche, rientrate poi nel corso del 2013 e delle quali non vale più parlare adesso.
La teoria WLS (17), (18), (19), fornisce un’interpretazione delle Low Energy Nuclear Reactions intesa a spiegare non solo quella che abbiamo chiamato FF nei metalli carichi di protoni o deutoni (metallic hydride), sia in cella elettrolitica sia in contatto diretto senza soluzione, ma, più in generale, fenomeni macroscopici, alcuni presenti in processi del tutto naturali, che hanno origine proprio dalle Lenr.
È importante sottolineare subito che, nonostante certi elementi teorici risultino di difficile «digeribilità» per molti, come vedremo, WLS si sono proposti, fin dai primi passi, di spiegare i risultati sperimentali senza invocare una «nuova fisica» al di là del «modello standard» (17).
La teoria WLS, rifiutata l’ipotesi della reazione di fusione D-D, propone come «protagonista» delle Lenr l’inversione del decadimento β. Il decadimento β, il cui studio fruttò il Nobel a Fermi nel 1938, è la transizione da neutrone a protone con l’emissione di un elettrone e-, la particella β, e un antineutrino νe
iv) n → p + e– + νe.
L’esistenza di νe fu prevista teoricamente da Wolfgang Pauli subito dopo la dimostrazione sperimentale dell’esistenza del neutrone (1932): infatti, se il decadimento β avesse come esito un processo a due soli corpi (protone – elettrone), e non a tre come in iv), si violerebbe la conservazione della quantità di moto.
L’inversione di iv) è
v) ẽ– + p → n + νe,
dove νe è il neutrino associato al neutrone, sempre per la conservazione della quantità di moto; ẽ– è l’elettrone «vestito», reso cioè massivo da un campo di radiazioni elettromagnetiche di potenza W. Ciò vuol dire che, in virtù dell’equivalenza di Einstein E = m c2, l’elettrone ha acquistato energia sufficiente per interagire con il protone e produrre neutroni. Lo schema completo per la v) è quindi
v’) W + e– → ẽ–, ẽ– + p → n + νe,
e il «rivestimento» dell’elettrone da parte del campo elettromagnetico che lo rende più massivo è la «rinormalizzazione», secondo quanto prevede il modello standard.
Si può pensare al catodo di Palladio della cella elettrolitica di F & P o a un semplice filamento metallic hydride. I deutoni, o protoni, si dispongono sulle superficie del metallo in «patches» in grado di attrarre gli elettroni che fluiscono nel catodo, o nel filamento, come corrente generata da una differenza di potenziale. I «patches» oscillano collettivamente e le loro oscillazioni coerenti iniziano ad accoppiarsi sulla superficie del metallo con le oscillazioni collettive del plasma di elettroni.
All’aumentare dell’ampiezza delle oscillazioni dei protoni aumenta il campo elettrico medio della radiazione da loro emessa, la cui potenza W produce la «rinormalizzazione» della massa degli elettroni, m = β me (β ≥ 1) , maggiore di me, massa dell’elettrone «nudo» (cioè libero da interazioni). Al di sopra di una certa soglia β0 (β ≥ β0) (20) gli elettroni del plasma acquisiscono tanta energia da poter reagire con i protoni (o i deutoni) per creare neutroni attraverso la v).
I neutroni prodotti sono «ultra-cold», hanno cioè un impulso estremamente piccolo e quindi una bassissima probabilità di sfuggire dalle micro-regioni della superficie metallica dove sono stati originati. Hanno invece enormi sezioni d’urto d’assorbimento da parte del metallo, cioè un’elevatissima probabilità di produrre localmente delle reazioni nucleari; e si può mostrare che c’è anche un elevata soppressione di raggi γ, dovuta agli elettroni divenuti più pesanti (20), (21), (22).
I fenomeni che hanno cercato risposte per vent’anni cominciano a poter essere interpretati senza dover ricorrere a spiegazioni e teorie che vadano oltre quelle scientificamente condivise, ma possono essere inquadrati, secondo le iv), v) e v’), nell’ambito della teoria delle interazioni elettrodeboli del «modello standard».
Ai tre «miracoli» della fusione fredda il modello WLS risponde: i) non c’è flusso di neutroni «energetici» da attendersi in uscita perché i neutroni generati tramite la v) sono «ultra cold», non hanno cioè energia sufficiente per fuggire dalla superficie del catodo in cui «nascono» e vengono invece assorbiti nel metallo; ii) non ci sono significative emissioni esterne di raggi γ o X perché questi vengono catturati dagli elettroni massivi del plasma, che re-irraggiano nella forma di energia elettromagnetica molto più «leggera» (infrarosso); iii) non c’è infine il problema di superare la «barriera coulombiana» (che esisterebbe tra le cariche di ugual segno, i Deutoni, se la reazione fosse di fusione) perché nella v) ci sono neutroni (e neutrini), che non hanno carica, e protoni e elettroni, che si attraggono.
Tutto liscio, allora? Eh no, seppure a opera di elettroni molto energetici l’inversione della transizione β configurata in v), un protone che decade in neutrone, non è facile da accettare perché il protone in condizioni ordinarie è una delle cose più stabili dell’universo. E quello che è il punto centrale della teoria WLS viene infatti definito «intriguing possibility» e confutato (Ciuchi et al) (23), provocando però un’immediata risposta (24).
Le Lenr insomma non sono più «scienza patologica», sono qualcosa con cui ci si deve confrontare.
Last but not least, le Lenr possono essere sorgenti di energia «pulita», proprio perché non vengono emesse radiazioni di quella intensità che ci si attenderebbe se la FF fosse una reazione di fusione. E in effetti, non è morto per radiazioni nessuno dei molti ricercatori che pure nel corso degli anni si sono cimentati con gli esperimenti di FF. Invece l’eccesso di calore che aveva richiamato e richiama tante speranze viene spiegato, nell’ambito del modello WLS, in termini delle molteplici reazioni nucleari dei neutroni, prodotti secondo la v), con i materiali al catodo. Se il riferimento è a una cella elettrolitica, ad esempio, e se la superficie metallica è rivestita da Litio, l’assorbimento successivo di neutroni porta da 63Li a 42He, con una rilevante produzione d’energia. La reazione
63Li + 2n → 2 42He + e – + νe
genera infatti una rilevante quantità di calore: Q ≈ 26,9 MeV.
A sua volta, l’Elio può assorbire neutroni e riprodurre Litio, tramite la catena di reazioni che porta a
42He + 2n → 63Li + e– + νe
con Q ≈ 2,95 MeV.
Il ciclo completo delle reazioni sopra descritte rilascia una significativa quantità calore di alta temperatura attraverso reazioni nucleari che non sono reazioni di fusione.
Non c’è più la FF, ma resta un’indicazione di fondo di Giuliano Preparata, quella dell’interazione collettiva tra le oscillazioni coerenti del plasma di protoni e le oscillazioni del plasma di elettroni, che ha luogo sulla superficie metallica del catodo durante l’elettrolisi. La teoria WLS aggiunge che è l’energia elettromagnetica conferita agli elettroni dalle oscillazioni dei protoni a rendere possibile l’accoppiamento con i protoni per produrre neutroni, secondo lo schema v’). I neutroni così generati, di bassissima energia, non fuggono dal catodo ma interagiscono a più riprese con gli elementi leggeri in esso presenti: reazioni nucleari che producono significativi eccessi di calore, reazioni nucleari a bassa energia (Low Energy Nuclear Reactions).
Giuliano Preparata e qualche riflessione
La produzione scientifica di Giuliano è stata estremamente vasta, oltre 400 lavori, un numero impressionante, che spaziano dalla Fisica dei laser alla Superconduttività, Superfluidità, alla Fisica delle stelle e dei neutroni, all’Astrofisica dei GRB (Gamma Ray Bursts); ovviamente includendo la Materia condensata e la FF di cui abbiamo parlato. Partito dalla Fisica delle particelle elementari, la scuola fiorentina di Gatto degli anni 60, Giuliano è andato oltre trasferendone i concetti e le idee in altri campi con grande creatività e originalità di pensiero.
Negli anni 70 ha portato contributi teorici fondamentali per l’unificazione della forza elettromagnetica con la forza nucleare «debole» nella forza elettro-debole, uno dei pilastri del «modello standard». Negli anni 80 ha dimostrato il quark confinement, risolvendo così il problema del confinamento del «colore» nell’ambito della Cromo-Dinamica Quantistica (QCD).
A partire dal 1987 ha rivolto la sua attenzione alla materia condensata, affrontando problemi come la teoria dell’acqua liquida, ferro-magneti, elio 3 e 4 liquido e solido ecc. È proprio in questi studi che Giuliano, insieme a Emilio Del Giudice, «rivendica» la Teoria Quantistica dei Campi come teoria fondamentale nello studio della materia, che sostituisce al raggrupparsi via via di particelle per costituire, gerarchicamente, i diversi ordini di realtà materiale, i «campi», ovvero oggetti immateriali che si estendono nello spazio e nel tempo, e che nei processi di reciproca interazione, là dove il «fenomeno» si manifesta ai nostri sensi o alla rilevazione degli strumenti, solo là appaiono in forma corpuscolare (i «quanti» del campo), perché solo là dove avviene lo scambio di energia-impulso essi si mostrano come unità indivisibili.
È insomma una concezione opposta a quella della Scuola di Copenhagen, che è ancora sostanzialmente alla base della teoria della Fisica delle particelle elementari dalla quale Giuliano era partito. La teoria quantistica dei campi esige infatti un’interconnessione, in questo è il suo realismo, una sorta di «solidarietà» antitetica alla visione di particelle o atomi individuali in un perenne conflitto di urti «uno contro uno»; e diventa il terreno teorico per il superamento, come si è accennato, della barriera tra inorganico e vivente. I campi sono «onde» che si propagano nello spazio e nel tempo, responsabili di quell’entanglement quantistico che tanto fascino sembra esercitare sui neofiti; onde che viaggiano con una loro fase, e quindi gruppi d’onde coerenti, cioè tutte con ugual fase, sono capaci di amplificazioni analoghe a quelle registrabili coi laser.
Certo, non mi pare questo a tutt’oggi il mainstream del pensiero fisico, ma non sembrerebbe neanche tale da comportare quell’avversione che si è in realtà scatenata particolarmente contro la FF, al punto da creare sofferenza (e chi non ricorda qualche risposta stizzita o tranchante di Giuliano) nei suoi ricercatori, molto al di là di quanto un contrasto scientifico possa motivare. Il carattere «innovativo» che mi pare si possa predicare dell’avversione contro la FF come junk science è che mentre sono note forme «persecutorie» nei confronti di qualche scienziato, anche illustre, il caso della FF ha riguardato invece molte centinaia di ricercatori e migliaia di esperimenti, che pure erano riusciti a realizzare. E con un coinvolgimento significativo anche dei media e della carta stampata con i rispettivi consulenti scientifici.
Di fronte a tanto contrasto è stata certo l’amicizia e la solidarietà scientifica con Emilio a permettere a Giuliano di resistere; e l’amore profondo e attento di Emilia Campochiaro, la moglie, che perdura anche nella conservazione della memoria dell’attività scientifica di Giuliano. Sotto la pressione del «tallone di ferro» della scienza «ufficiale» la reazione di Giuliano fu quella di vagheggiare anche lui quella «Repubblica delle Lettere», partorita dall’Umanesimo italiano e sognata da Galilei, i cui «abitanti», spiriti liberi amanti della verità, si riconoscevano sulla base delle competenze senza alcuna barriera ideologica o di religione e nel reciproco rispetto e nella tolleranza. «Filosofi della natura», scienziati diremmo oggi; gente che «aveva il futuro nel sangue», dirà Snow oltre tre secoli dopo nel suo bel libro «Le due culture».
È vero però, si potrebbe osservare, che l’unità culturale della comunità scientifica si è frantumata e parcellizzata proprio a partire dalle rivoluzioni di sapere, arte e scienza, non solo della Fisica, che hanno caratterizzato le prime decadi del secolo XX, come Marcello Cini ha colto nelle sue opere con grande evidenza; e che si sono perciò prodotti tanti «specialismi ignoranti», sempre Snow, in contrasto con quell’ideale di società aperta che ricerca la verità e che, a partire proprio da Galileo, proprio la scienza aveva contribuito a proporre e creare.
Parcellizzazione del sapere e specialismi ignoranti hanno sempre più promosso un’attitudine a dare ascolto più alla Doxa scientifica che non alla bontà delle argomentazioni e dei risultati sperimentali non collimanti col punto di vista dominante. E su questo aspetto non sarebbe male che s’impegnasse di più qualche storico della scienza o qualche epistemologo. Attesa infatti la sostanziale multidisciplinarietà e interdisciplinarietà sempre più necessarie alla costruzione del sapere e alla sua lettura, e l’opera di Giuliano ne è un ottimo esempio, il ritorno all’«ispe dixit» ha percorsi meno lineari, più tortuosi di quelli che nel mondo accademico e della ricerca sono a tutt’oggi battuti, magari all’insegna della «titolarità della cattedra».
In alcune corporazioni scientifiche «forti», come ad esempio quella dei Fisici, la tendenza ugualmente forte a riservare alla corporazione il privilegio di definire che cosa sia scienza e che cosa non lo sia ammette un’interpretazione lineare, almeno in prima approssimazione, legata in modo abbastanza trasparente alla questione dei budget di ricerca.
Atteggiamento non molto galileiano, si dirà, ma di sicuro successo se si pensa alle enormi risorse richieste, e ottenute, e al carattere veramente globale che hanno assunto certe ricerche; per citare solo l’ultimo caso «gigantesco», i sette miliardi e mezzo di euro che è costato l’esperimento per la rivelazione del bosone di Higgs e le migliaia di ricercatori di tutte le nazionalità che vi hanno ruotato attorno per vari anni.
Una tale mobilitazione e impegno di risorse fece calare il sipario, a proposito di budget per la ricerca, sulle proposte di utilizzare la macchina del Cern come «Ads» (Accelerator Driven System) per innescare, tramite la «spallazione» di un target, un «bombardamento» di neutroni inteso a rompere, a ridurre alla ragione i radionuclidi a vita media lunghissima (decine di migliaia quando non milioni di anni) presenti nelle scorie radioattive. Un progetto, quest’ultimo, che all’inizio di questo secolo sembrava pronto al decollo in tutti i grandi laboratori del mondo, dal Giappone agli Stati Uniti, e che aveva fatto proclamare nella UE, al Commissario Peter Tindemans, la nascita della «megascience», altro che la «big science» delle particelle elementari! Che ancora una volta ha invece vinto, in nome non solo del suo indubbio fascino, ma perché ormai ben consolidata, rispetto a un progetto nuovo e quindi con più incognite, perché voluta e promossa compattamente dall’establishment della Fisica mondiale e non da singole voci sia pure illustri, perché occasione di sostentamento e ambizioni per migliaia di ricercatori e perché ben conosciuta da decenni anche dai decisori politici.
Già, a proposito del bosone di Higgs e di epistemologia, che ne è della riproducibilità dell’esperimento, possibilmente in altri laboratori e magari più di una volta, che resta uno dei cardini della scienza galileiana e di tutta la scienza moderna? L’interrogativo non riguarda solo quella che i media amano chiamare, all’ombra del sorriso compiaciuto di Fisici e Prelati, «particella di Dio»; quante volte, ad esempio, e dove e secondo quali modalità verificabili è stato riprodotto l’esperimento sui bosoni «elettrodeboli» che oltre trent’anni fa fruttò il Nobel a Rubbia?
L’ovvia difficoltà fattuale della riproducibilità di esperimenti così «pantagruelici» non sembra abbia innescato una riflessione adeguata su quali siano le conseguenze sulla prassi scientifica e il pensiero e il metodo che la ispirano. Si può già registrare, ad esempio, un estendersi e un intensificarsi dell’«ipse dixit»: io mi occupo d’altro, ma il mio amico X, che è uno dei massimi esperti del settore mi assicura che… Il cammino del gambero, insomma, e magari ci sarà pure qualcuno che dirà che in fin dei conti non c’è bisogno di una ripetizione degli esperimenti, in nome di quella logica operativa, proposta da Bridgman come garanzia contro le «pretese» teoriche che avevano portato alla crisi della Fisica classica e che viene negata però per avallare modelli e teorie non contemplati dalla Doxa. E della fatica di contrastare, almeno in parte, la Doxa tutta la vicenda degli studi e degli esperimenti di Giuliano sulla materia condensata e la FF è una testimonianza certa. Un «due pesi e due misure» che si attesta su tutti i territori presidiati da quelli che Emilio Del Giudice amava chiamare «i guardiani dell’ortodossia» (25).
Su materia condensata, FF e Lenr si stende poi inevitabilmente l’ombra di grandi società, di settori militari, dei cosiddetti «interessi forti»; è il loro mestiere esercitare lobbying, intrusioni e tentare di piegare a loro favore anche organismi tecnici e scientifici. Ma non siamo ingenui, e non vogliamo accontentarci delle abituali spiegazioni che per questi «nodi» rimandano in ultima analisi al «grande vecchio» (finanza, impresa capitalistica, multinazionali, servizi segreti ecc.) che tutto controlla e regge in concatenazioni causali che farebbero impallidire il grande Baruch Spinoza.
Da qui insomma l’appello a storici ed epistemologi perché forniscano elementi di comprensione e di valutazione sul complesso e l’intreccio dei fatti qui riportati, di «peso e momento» del tutto generali. E così rilevanti nella vicenda scientifica e umana di Giuliano Preparata.
Un’ultima parola sul «sogno» di un’energia «pulita» e disponibile in termini d’uso appropriato: le decine o al più centinaia di kW per riscaldamento o raffrescamento domestico degli edifici, per le esigenze di piccole industrie o stabilimenti artigiani, per motori. So bene che un nuovo interesse, soprattutto in Giappone, raccoglie intorno alla ricerca fondamentale e alle possibili applicazioni delle Lenr università e industrie, nella prospettiva di trasmutazioni che possono riguardare non solo la generazione di energia ma anche il problema sopra accennato del condizionamento delle scorie radioattive (26); continuo però a ritenere il futuro delle Lenr, neanche a troppo lunga scadenza, sta nell’energia. Più ottimista di me è sicuramente Lewis Larsen, che parla delle Lenr come della possibile maggior fonte d’energia, pulita e a basso costo, in uno scenario carbon-free; alla sua pagina online, uscita poche settimane fa, volentieri rimando (27).
Note
(1) Preparata G. (1995). «Quantum Electrodynamical Coherence in Matter». World Scientific Publishing Co. Singapore.
(2) Del Giudice E., Mele R. and Preparata G. (1993), Dicke Hamiltonian and Superradiant Phase Transitions, Mod. Phys. Lett. B 7; 1851.
(3) Fröhlich, H. (1968), «Long-range coherence and energy storage in biological systems», Int. J. Quantum chem. 2: 641- 49.
(4) Fleischmann M., Pons S. and Preparata G.(1994), «Possible Theory of Cold Fusion», Il Nuovo Cimento A. 107 A:143.
(5) Preparata G., Scorletti M., Verpelli M. (1996). «Isoperibolic Calorimetry on Modified Fleischmann Pons Cells». J. Electroanal. Chem. 411: 9.
(6) A questa soluzione positiva aveva indubbiamente concorso una certa simpatia di Rubbia per i Verdi, maturata già vari anni prima in quegli incontri nei quali Rubbia aveva illustrato, a Gianni Mattioli e a me, i primi passi del suo «energy amplifier», ancor oggi reperibile in internet come «Rubbiatrone».
(7) «L’energia “fredda” e le fonti rinnovabili», (2000). Seminario in memoria di Giuliano Preparata, 24 ottobre 2000, Roma, Sala della Sacrestia, Camera dei Deputati. A cura di Massimo Scalia. Maggioli Rimini.
(8) De Ninno A., Frattolillo A., Rizzo A., Del Giudice E. and Preparata G. (2002). «Experimental evidence of 4He production in a cold fusion experiment». RT/2002/41/FUS. Enea.
(9) Hagelstein P.L.(2010). «Constraints on energetic particles in the Fleischmann–Pons experiment». Naturwissenschaften, 97 (4):345.
(10) McKubre M., Tanzella F., Tripodi P. and Hagelstein P. (2000). «The Emergence of a Coherent Explanation for Anomalies Observed in D/Pd and H/Pd Systems; Evidence for 4He and 3He Production». 8th International Conference on Cold Fusion. 2000. Lerici (La Spezia), Italy: Italian Physical Society, Bologna, Italy.
(11) Krivit S.B. «2. The emergence of an incoherent explanation for D-D “cold fusion”». (2010). New Energy Times, 34.
(12) È l’altra denominazione che si dà tradizionalmente alle reazioni nucleari o al decadimento β, di sapore volutamente alchemico perché un atomo di un elemento viene cambiato nell’atomo di un altro elemento.
(13) Fleischmann M., Pons S. and Hawkins M. (1989). «Electrochemically induced nuclear fusion of deuterium». J. Electroanal. Chem. 261 (2A): 301–308 and errata in 263
(14) i) D + D → n + 32He + calore ~ 50%
ii) D + D → p + 31H + calore ~ 50%.
(15) U.S. Navy, Technical Report 1862. February 2002. «Thermal and Nuclear Aspects of the Pd-D2O». S. Szpak, P.A. Mosier-Boss Editors. Il rapporto risponde anche alle molte critiche sulla presenza di Elio come dovute alle infiltrazioni attraverso le pareti di vetro della cella: non è possibile perché l’esperimento è stato condotto in doppio cieco e nella cella di confronto non è mai stata rilevata presenza di Elio.
(16) Torrealta M., Del Giudice E. (2010). «Il segreto delle tre pallottole». Edizioni Ambiente, Milano.
(17) Larsen L., Widom A. (2006). «Commercializing Lenrs: A “Green” Next Generation Energy Source For Dense, Long Lived Portable Power», presented at Defense Threat Reduction Agency/ASCO High Energy S&T workshop, Lattice Energy Proprietary.
(18) Widom A., Srivastava Y.N. and Larsen L. (2007). «Energetic electrons and nuclear transmutations in exploding wires». arXiv: nucl-th/0709.1222v1.
(19) Widom A., Larsen L. (2007). «Theoretical standard model rates of proton to neutron conversions near metallic hydride surfaces». arXiv:nucl-th/0608059v2.
(20) Srivastava Y.N., Widom A. and Larsen L. (2008). «A primer for electro-weak induced low energy nuclear reactions». arXiv:nucl-th/0810.0159v1.
(21) Cirillo D., Germano R., Tontodonato V., Widom A., Srivastava Y.N., Del Giudice E. and Vitiello G.(2011). «Experimental Evidence of a Neutron Flux Generation in a Plasma Discharge Electrolytic Cell». Key Engineering Materials. 495:104.
(22) Widom A. and Larsen L.(2006). «Nuclear Abundances in Metallic Hydride Electrodes of Electrolytic Chemical Cells». arXiv:cond-mat/0602472.
(23) Ciuchi S., Maiani L., Polosa A.D., Riquer V., Ruocco G. and Vignati M. (2012). «Low energy neutron production by inverse β decay in metallic hydride surface». arXiv:nucl-th/1209.6501v1.
(24) Widom A., Srivastava Y.N. and Larsen L. (2012). «Erroneus wave functions of Ciuchi et al. for collective modes in neutron production on metallic hydride cathodes». arXiv:nucl-th/1210.5212v1.
(25) Sono almeno 40 anni che Fisici teorici e Matematici si stanno cimentando nel tentativo, secondo il desiderio-indicazione di Einstein, di unificare le forze fisiche presenti in natura: nucleare, elettro-debole (frutto della già ricordata unificazione tra forza nucleare «debole» e forza elettromagnetica) e gravitazionale. Quella che più recalcitra è la forza di gravità, la cui intensità è 1025 volte minore di quella più vicina, cioè la forza nucleare debole! La teoria più accreditata come «Teoria completa dell’Universo» (Stephen Hawking) è quella che si rifà alla «teoria delle stringhe». Le «dimensioni» di una stringa sono così microscopiche, ≈10-34 m, che un esperimento per rivelarla direttamente richiederebbe una macchina acceleratrice di potenza immensamente superiore alla massima oggi conseguibile (passare da circa 1 GeV a 1014 GeV); ma anche rivelazioni indirette richiederebbero «macchine» oggi ben lungi dall’essere disponibili. La cosa ha indotto, oltre che alla produzione di un film, a ironici sorrisi e ad aperte critiche (Richard Feynman). Eppure la «teoria del tutto» sembra soddisfare la richiesta della logica operativa. Anche in questo caso sembra essere scattata però la logica del «due pesi e due misure», forse perché a fronte di alcuni nomi di indubbio prestigio internazionale si schierava la legione dei «particellari» e delle loro «ragioni».
(26) Iwamura Y., Tsuruga S. and Itoh T. (2014). Yokohama R&D Center, Mitsubishi Heavy Industries Ltd., Japan. «Increase of transmutation products by electrochemical Deuterium permeation through nano-structured Pd multilayer thin film». JCF15(15th Japan-CFSociety Meeting. Dec.1-2, 2014, Hokkaido, Japan
Iwamura Y., Kasagi J., Kikunaga H. et al. (2015). Condensed Matter Nuclear Reaction Division, Tohoku University, Japan; Clean Planet Inc., Japan; Hydrogen Engineering Application & Development CO., Japan. «The launch of a new plan on condensed matter nuclear science at Tohoku University».
(27) «Could the W-L theory be the breakthrough needed to position Lenr as a major source of carbon-free, environmentally clean… low cost nuclear energy??», May 29, 2017. Documento declassificato dall’Amministrazione US e pubblicamente disponibile. Mettere su Google: Lewis Larsen.