Atlante ragionato delle fonti di energia Muzzio, Monte San Pietro (BO), 2010 Tratto da http://www.tecalibri.it/ |
Pagina 7 Introduzione In un episodio della sit-com "Seinfeld" poco vista in Italia, ma celeberrima negli Stati Uniti due personaggi sono in macchina in autostrada. La spia del carburante segna il rosso della riserva, ma i due, invece di fermarsi al primo distributore, decidono di combattere la loro battaglia. Non si fermano al primo distributore e neanche al secondo. "Avanti, avanti dicono non ci prenderete per la gola, maledetti". Ad ogni distributore che superano, sono sberleffi e gestacci: "Non faremo benzina, no. Avanti, avanti. Vai!" I due, inneggiando alla rivolta e alla resistenza, proseguono verso il nulla e l'inevitabile serbatoio vuoto. Noi possiamo ridere, ma la satira è trasparente: il mondo intero è a secco, ma continua a correre in avanti, come se il serbatoio, per magia, non si svuotasse mai. Fino a poco tempo fa negavamo anche che una crisi dell'energia ci potesse essere. Quando, nella primavera del 2005, si riunirono a Lisbona i membri dell'Aspo, l'associazione per lo studio del peak oil, convinti che la produzione di petrolio stia raggiungendo il picco, dopo il quale declinerà inesorabilmente e l'oro nero comincerà a scarseggiare, il loro allarme fu accolto con l'equivalente educato di sberleffi e gestacci. Claude Mandil, allora capo economista della Iea (International Energy Agency, il braccio per l'energia dell'Ocse, l'organizzazione dei paesi industrializzati, e importatori), li liquidò come "profeti di sventura". I dirigenti delle multinazionali del petrolio si affrettarono a smentire ogni allarmismo. Quattro anni dopo, l'atmosfera è radicalmente mutata. Il successore di Mandil alla Iea, Fatih Birol, moltiplica gli appelli al pessimismo e boss di Big Oil (cioè le maggiori compagnie petrolifere mondiali: Exxon, Chevron, Bp, Shell, Total), come Christophe de Margerie, capo di Total, avvertono che la produzione mondiale di petrolio sta per toccare il tetto, mentre la fame di energia continua a crescere nel mondo. In chiave diversa, ma con risultato analogo, lo scetticismo si sta rapidamente allargando agli altri grandi motori dello sviluppo economico degli ultimi due secoli, gli altri combustibili fossili: carbone e gas. La crisi dell'energia, così come l'abbiamo conosciuta, è entrata nella consapevolezza comune. L'improvviso cambiamento di vento, in tema di energia, ripete quello che è, contemporaneamente, avvenuto per l'altra grande crisi del XXI secolo: il mutamento di clima, il riscaldamento globale, le emissioni di anidride carbonica. Anche qui, dall'indifferenza e dal generale scetticismo iniziali, si è passati, nel volgere, si potrebbe dire, di pochi mesi, ad un allarme pressoché universale. Anche l'effetto serra è entrato nella consapevolezza comune. Questo libro non lo affronta mai direttamente, ma il tema delle emissioni è una sorta di continuo controcanto, sullo sfondo, in tutti i capitoli. Le due crisi, infatti, si assomigliano, si specchiano, si incrociano: una moltiplica l'altra. Risolvere una contenendo e sostituendo l'uso dei combustibili fossili significa, in larga misura, risolvere anche la seconda. In altre parole, si possono risolvere due crisi, al prezzo di una. Per gli ottimisti, è un motivo di conforto e di speranza, perché dovrebbe raddoppiare la spinta a trovare una soluzione. Ma i pessimisti ci vedono solo un raddoppio delle difficoltà, degli ostacoli, delle resistenze. Il passaggio, alla Casa Bianca, da un alfiere del "fronte del rifiuto" come George Bush, ad un presidente sensibile alle due crisi, dell'energia e del clima, come Barack Obama, sembra dar ragione agli ottimisti. Ma la recessione, esplosa nel 2008, complica ulteriormente il cammino delle buone intenzioni. Per un verso, infatti, la recessione, comprimendo la domanda e appannando la consapevolezza delle due crisi, ha allentato la pressione per iniziative decise e coraggiose. Per un altro verso, le difficoltà finanziarie in cui si trovano e si troveranno nei prossimi anni tutti i paesi, grandi e piccoli, hanno ridotto la capacità di programmare per il futuro. Dall'inizio della recessione, gli investimenti nelle fonti rinnovabili, che avevano conosciuto un autentico boom, sono in netto calo. Inevitabilmente, quando la recessione sarà finita, i problemi di ieri torneranno in forma ancora più acuta, a meno di non immaginare che grandi consumatori di energia, come Cina e India, congelino di colpo il loro sviluppo. Come uscirne? Questo libro non pretende di fornire ricette, ma si muove su due convinzioni. La prima è che un miracolo come quello del petrolio non sia ripetibile. Quando, all'alba del vecchio secolo, il 10 gennaio 1901, l'ex capitano della marina austriaca, Anthony Lucas, trova a Spindletop, in un remoto angolo del Texas orientale, il petrolio, cambia la storia del mondo. Mentre i pozzi precedenti fornivano 300-1000 barili al giorno, Spindletop ne erutta 110.000 al giorno. È il primo megagiacimento e la prova provata dell'esistenza di una risorsa che è, insieme, abbondante, economica e una vera "bomba" di energia: 9 chilowattora in un solo litro di benzina, facilmente usabile e trasportabile. È dura, quando uno ha trovato una bacchetta magica, riconoscere che la carica si è esaurita e bisogna farne a meno. Ma superare la sindrome psicologica della bacchetta magica è uno dei passaggi fondamentali per uscire dalla crisi dell'energia: un'altra non c'è e, per il momento, non è prevedibile. La seconda convinzione è che, paradossalmente, il problema sarà sempre meno il petrolio. Mentre sbiadiscono le promesse dell'idrogeno e dei biocombustibili, l'ascesa dell'auto elettrica sembra indicare che la crisi di energia si riassume in un solo problema: la produzione di elettricità. Ciò che rende le cose solo un poco più semplici. Anche se allarga il ventaglio delle alternative. Cattura e sequestro dell'anidride carbonica di gas e carbone, nucleare, geotermia e poi vento, sole, onde, maree, anche il sale del mare. Non sono le ipotesi e le promesse che mancano. La più gettonata, oggi, è il nucleare, anche se ci si avvia ad una rinascita delle centrali atomiche senza aver risolto i problemi di sicurezza (controlli indipendenti, gestione delle scorie radioattive) e trascinandosi il tallone d'Achille dell'economia nucleare: una fornitura d'energia rigida (nel prezzo e nelle quantità) che rischia di vincolare per decenni la politica energetica del paese. Ma anche le rinnovabili hanno i loro problemi. A sorpresa, proprio il loro sviluppo pone dilemmi ecologici: la diga sul Severn, in Inghilterra, può intercettare e sfruttare la marea dell'Atlantico, ma che succederà agli uccelli migratori? Soprattutto, anche rinnovabili come vento e sole hanno il loro tallone d'Achille nella logica economica. Sono due fonti erratiche, a cui bisogna far posto nella rete di distribuzione dell'elettricità, ma che potrebbero non esserci perché non c'è vento o non c'è sole proprio quando servirebbero. Da questo punto di vista, forse, il 13 luglio 2009 può rappresentare una data cruciale nella storia di questa crisi dell'energia. È il giorno in cui un consorzio di giganti dell'industria tedesca ha deciso di studiare e finanziare una "Superrete", che colleghi centrali solari del Sahara e turbine eoliche sull'Atlantico, convogliandone l'elettricità in Europa e ridistribuendola sul continente, con la ragionevole sicurezza di poter assicurare una fornitura costante: se il vento non c'è in un posto, ce n'è in un altro. In ogni caso, l'energia del futuro prossimo (diciamo i prossimi vent'anni) sarà un mix di diverse fonti. Realisticamente: ancora petrolio, gas e carbone, nucleare, vento, sole e, forse, new entries come la geotermia, le maree, le onde. Cosa deciderà, via via, la composizione di questo mix? Il libro insiste, con qualche pignoleria, sui costi delle diverse fonti, perché, anche se elusivi e mutevoli con il progredire della tecnologia, la loro fotografia fornisce, almeno, un parametro comune di riferimento. Alla fine, però, la discussione sui costi potrebbe rivelarsi un lusso, che non ci possiamo permettere. Non è detto che, domani, potremo scegliere la fonte meno costosa e non dovremo, invece, rassegnarci a prendere, semplicemente, quella che è disponibile, costi quel che costi. In piccolo, ci siamo, in fondo, già passati quando abbiamo visto il prezzo del petrolio schizzare a 147 dollari al barile. Questo è il libro di un giornalista. Più che un dibattito sui massimi sistemi, l'idea era quella di fornire un racconto di prima mano e, dove possibile, in diretta, di quello che avviene nelle trincee della vecchia energia e alle frontiere di quella nuova. Una mappa di dove siamo e delle piste che stiamo seguendo, con l'opportuno corredo (come insegna il mestiere) di istantanee di luoghi e persone. Ho quindi fatto largo ricorso ai servizi, le inchieste, i réportages che ho realizzato, in questi anni, per la Repubblica, sui temi dell'energia. Una bibliografia decente avrebbe occupato troppe pagine del testo. Ho riportato, in nota, i documenti e i riferimenti citati. Pagina 13 1. Petrolio I profeti di sventura l'avevano detto. La fine dell'era del petrolio sarà un ultimo, esagerato fiotto fuori misura, sostenuto per alcuni anni. E poi un prosciugarsi repentino, quasi strozzato. Questo sostiene l'ipotesi di Hubbert, questo dicono i discepoli suoi, i profeti del peak oil, lo zenit del petrolio: un massimo record di produzione, seguito da un rapido declino. Per vedere in anteprima e in diretta il tramonto dell'oro nero bisogna volgere lo sguardo verso occidente, verso il golfo del Messico. I pozzi si esauriscono sempre con una sorta di convulsione terminale. Avviene ogni giorno. Nel Mare del Nord è, ormai, la regola. Ma quello che sta morendo, al largo della penisola dello Yucatán, non è un pozzo qualsiasi. È uno dei grandi giacimenti del mondo, quei giganti che, negli anni '70, sembravano dappertutto ma che, da allora, non troviamo più, anche se ne avremmo un gran bisogno, visto che, tuttora, un quarto del greggio mondiale viene da solo 20 superpozzi. E, fra i grandi, il giacimento dello Yucatán era un grande, secondo solo all'enorme Ghawar, che fa la ricchezza dell'Arabia Saudita: un barile su 40, ogni giorno, sul mercato mondiale, viene dalle piattaforme nelle acque basse del golfo di Campeche. Ora, però, Cantarell muore e, ciò che più conta, muore senza eredi. La sua nascita è avvenuta con un cataclisma unico, che ha stravolto la storia del pianeta e aperto quella dell'uomo. La sua vita è un caso di scuola della traiettoria di un giacimento. La sua fine il primo grande vecchio a gettare la spugna negli anni del petrolio difficile può segnare un altro spartiacque, questa volta nella storia dell'energia e del suo utilizzo per mano dell'uomo. Anche se, si spera, con meno fracasso. Un gigantesco tsunami, pietre arroventate che ricadono dal cielo incendiando le foreste in giro per il mondo, dovunque terremoti ed eruzioni vulcaniche, una esplosione di anidride carbonica che imprigiona il pianeta in un effetto serra all'ennesima potenza, un cielo oscurato che, per anni, inibisce la fotosintesi delle piante. Così, 65 milioni di anni fa, il destino ha spazzato via dalla Terra i dinosauri, quando un meteorite del diametro di dieci chilometri ha colpito la penisola della Yucatán. L'epicentro dell'impatto è su quella che, oggi, è la costa dello Stato messicano di Campeche, a Chicxulub, che, in lingua maya, significa "la coda del diavolo". Il diametro del cratere è di 180 chilometri. È in questo catino epocale che si sviluppa Cantarell. Le caratteristiche uniche della sua nascita danno vita ad una serie di pozzi assolutamente atipici. Le foreste e il materiale organico imprigionati nelle macerie dei grandi sommovimenti post-impatto si trasformano lentamente in petrolio in un'area relativamente ristretta e inusualmente profonda. A scoprire, senza averne alcuna intenzione, che quel braccio di mare può dare petrolio è, nel 1971, un pescatore di gamberetti, Rudesindo Cantarell. In realtà, Rudesindo è soprattutto infuriato perché continua a trovare le sue reti intrise di petrolio ed è convinto che sia una perdita di qualche oleodotto della Pemex, la compagnia nazionale messicana. Così continua a viaggiare dal Campeche fino agli uffici Pemex di Veracruz, portandosi dietro le reti, per farsi rimborsare il lavoro perduto. Regolarmente viene messo alla porta, finché, esasperati, gli uomini della Pemex si decidono ad andare a vedere. La gloria del nome è tutto quello che la scoperta darà al testardo Rudesindo, visto che, in Messico, il petrolio è nazionalizzato. Ma i tecnici capiscono in fretta di aver trovato un tesoro. Non solo il giacimento è contenuto in confini ben definiti, ma è sormontato da una bolla di gas, che ne mantiene la pressione e favorisce la fuoriuscita del greggio. Nel 1979 è già in produzione e, rapidamente, arriva ad un milione di barili al giorno, quanti bastano per far diventare il Messico il quinto produttore mondiale. Pagina 19 Cosa significa che "il mondo non sarà mai in grado di produrre più di 89 milioni di barili al giorno"? È il punto chiave della teoria del peak oil. A formularla è stata, alla fine degli anni '60, M. King Hubbert, un geologo petrolifero che prevedeva, per l'inizio degli anni '70, che la produzione petrolifera americana arrivasse al suo massimo e poi cominciasse, inesorabilmente, a scendere. È quanto è puntualmente avvenuto, con un errore di un anno o due e, da allora, si discute se la teoria sia applicabile all'intero petrolio mondiale. La cosa fondamentale da comprendere è che peak oil non significa la fine del petrolio. Raggiunto il suo massimo, la produzione ristagna, più o meno a quel livello, per un periodo più o meno lungo (grazie ad iniezioni artificiali di acqua o gas, come a Cantarell) per poi crollare bruscamente alla fine. È la traiettoria normale di un giacimento come Cantarell e il peak oil può essere considerato una sorta di teoria unitaria del petrolio mondiale, come se fosse tutto contenuto in un unico pozzo. Una produzione che smette di crescere, mentre la domanda continua ad aumentare, non può che determinare violente tensioni sul prezzo, di cui, fino a che la crisi economico-finanziaria del 2008 non ha cominciato a mordere, abbiamo avuto, probabilmente, solo un assaggio. In realtà, la situazione è più intricata di così e il mercato del petrolio anche più vulnerabile. Decenni di relativa abbondanza di greggio hanno mascherato a lungo le rigidità e le strozzature dell'offerta di greggio, emerse con forza negli ultimi anni, anche prima che si ponesse il problema del peak oil. Il punto è che l'oro nero non è uno solo, ma molti. Anzi, non c'è un greggio uguale all'altro: praticamente ogni pozzo produce uno specifico tipo di greggio. Il petrolio può essere leggero (light) o pesante (heavy), a seconda della sua densità, dolce (sweet) o amaro (sour) a seconda del suo contenuto di zolfo. Un greggio light e sweet è più pregiato e costa di più di uno pesante e amaro. Il prezzo del barile di cui parliamo abitualmente è, in effetti, quello di due greggi leggeri e dolci (il Brent in Europa, il West Texas Intermediate negli Usa) che fanno da parametro per tutti gli altri, il cui prezzo è inferiore, secondo una griglia di rapporti rigida e prefissata, in base a specifica densità e contenuto di zolfo. Questo crea anche situazioni paradossali. Del Brent, oggi, si estraggono ormai solo poche centinaia di migliaia di barili al giorno. Basta una momentanea scarsità di questo greggio per fare impazzire, sia pure solo per poche ore, tutta la struttura dei prezzi del mercato e consentire qualche rapida speculazione. Ma perché, allora, continuare ad usare il Brent come benchmark di tutto il mercato? Perché scegliere un altro greggio di riferimento costringerebbe a ricalcolare da zero tutta quella complicata griglia di rapporti fra il valore dei diversi greggi. È il principale motivo tecnico (accanto a quelli politici) per cui i tentativi, in particolare di Russia e Iran, di quotare il greggio internazionalmente in euro, anziché in dollari, sono finora finiti nel vuoto. Questa rigidità nella struttura del mercato ha, tuttavia, effetti più vasti e importanti. "Il petrolio è come il maiale, non si butta niente" usava dire Angelo Rovelli, il padrone della Sir, uno dei grandi corsari dell'industria chimica italiana degli anni '70. Vero. A patto di aggiungere, però che, in questo caso, i maiali, come abbiamo visto, non sono tutti uguali e che la quantità di prosciutto piuttosto che di lardo che si può ottenere è fissata, in partenza, dal tipo di maiale. In base a densità e quantità di zolfo, ogni greggio produce quote fisse dei vari prodotti petroliferi. Da un greggio light e sweet si ottiene, proporzionalmente, più benzina di quanti si ricavi da un greggio heavy e sour, che, invece, fornisce più asfalto e bitume. Per questo, il primo è più pregiato ed è preferito dalle raffinerie. Pagina 22 Quanto è lontano, allora, il peak oil? Nulla: secondo gli ex "profeti di sventura" ci siamo già arrivati. Su Internet, The Oil Drum, che è il sito dove si svolge il dibattito fra questi esperti, riuniti nell'Aspo (l'Associazione per lo studio del peak oil), è giunto alla conclusione che il picco è stato raggiunto nel 2008, con una produzione di 81,73 milioni di barili al giorno. Tutto compreso: greggio, sabbie bituminose, e gas liquidi. Se si escludono questi ultimi, il picco è avvenuto ugualmente nel 2008, ma a 73,79 milioni di barili. Se si escludono le sabbie bituminose, la produzione di greggio vero e proprio (quello definito "convenzionale") ha raggiunto il massimo nel 2005, con 72,75 milioni di barili al giorno. Questa è la versione dei pessimisti, naturalmente. Ma quella degli ottimisti non è poi molto diversa. In un'intervista al Guardian, a fine 2008, il capo economista della Iea (l'organizzazione che, degli ottimisti, è sempre stata il portabandiera) sosteneva che, per quanto riguarda i paesi non Opec, cioè, principalmente, la Russia, "noi ci aspettiamo che, nell'arco di tre-quattro anni, la produzione di greggio convenzionale comincerà a ristagnare e poi inizierà a declinare". Per quanto riguarda l'Opec (Arabia Saudita, Iran, Golfo Persico, Venezuela) "se questi paesi faranno investimenti adeguati e tempestivi, la produzione di petrolio convenzionale può continuare ancora, ma ugualmente ci aspettiamo che arrivi, analogamente, ad un ristagno intorno al 2020". C'è futuro, nel petrolio, al di là del greggio convenzionale, quello che abbiamo usato finora? Le speranze riposte nel cosiddetto greggio non convenzionale, quello che si estrae dalle sabbie o dagli scisti bituminosi canadesi o africane sono, probabilmente, eccessive. Le riserve sono ingenti, ma il recupero, in termini di petrolio, oggi, non supera il 10 per cento. L'estrazione comporta un alto dispendio di energia e questo la rende estremamente costosa. L'impatto ecologico è pesante, sia in termini di consumo di acqua che di emissioni di anidride carbonica, probabilmente al di là dei limiti di sostenibilità. Se il petrolio, insomma, resta il greggio di una volta, il capolinea, anche nel caso migliore, è il 2020 di Birol. Una data dannatamente vicina. Sempre Hirsch, nel suo rapporto al governo Usa, riassumeva con questa specie di tabella le alternative che abbiamo di fronte. Se arriviamo al picco e al successivo declino della produzione di petrolio senza nessuna preparazione, sconteremo i successivi 20 anni per uscire dalla crisi. Se cominciamo a preparare le contromisure 10 anni prima, avremo problemi per i successivi 10 anni. Se cominciamo 20 anni prima, ne usciremo senza danni. Se ha ragione Birol, il tempo per l'ultima alternativa è già scaduto. Ci restano dieci anni. A patto di cominciare ora il faticoso e lungo processo di liberare la vita moderna dalla dipendenza dal petrolio. Pagina 71 7. Auto elettrica All'inizio, bisogna avere nervi saldi. Siete fermi in prima fila al semaforo. Dietro a voi, pronte a scattare al verde, rombano file e file di macchine. Ed è proprio questo il problema: la vostra macchina non romba affatto. Nessun rassicurante ron ron dal motore. Sul cruscotto, tutte le luci sono accese, ma non c'è uno straccio di chiavetta di accensione da girare per rimettere in moto, solo uno stupido bottone da pigiare, dopo di che non succede nulla. Nel silenzio dell'abitacolo, vi immaginate un'orda di automobilisti inferociti che, armati di crick, si avventano sulla vostra auto che sta bloccando il traffico. Ecco il verde: premete per disperazione il pedale dell'acceleratore. E, con un lieve fruscio, la vostra auto scatta in avanti, con un'accelerazione superiore alla media. Solo dopo qualche decina di metri, sentite il familiare rumore del motore a scoppio, che interviene a spingere le ruote: era effettivamente spento, per risparmiare benzina. È il motore elettrico silenzioso come quello di un tostapane che ha fatto ripartire la vostra Toyota Prius. La Prius, anche se la più nota e venduta, non è mai stata l'unica auto ibrida. Già nel 2005, fra Toyota, Honda e Ford, esistevano tre ibridi berlina, un coupé, cinque fuoristrada e due camioncini. Il boom del prezzo del petrolio ne aveva fatto un'auto del desiderio, anche se il suo prezzo (soprattutto negli Usa, dove le case hanno messo in piedi una vera operazione di mercato, e non solo di pubblicità) arriva facilmente a 3.000 dollari in più di una macchina equivalente a benzina. Il crollo del petrolio ha sgonfiato la moda: fra il 2008 e il 2009, le vendite di ibride Toyota sono crollate del 50 per cento. Tuttavia, al massimo entro un paio d'anni, il problema del costo del petrolio si riproporrà. E, viste le false partenze dei biocombustibili e dell'idrogeno, è difficile pensare che il futuro del trasporto su strada prescinda dall'auto elettrica, anche solo ibrida. Come opera di ingegneria, una macchina ibrida è un'operazione complessa, ma il concetto è semplice: utilizzare un motore a scoppio più piccolo, ricorrendo ad un motore elettrico, tutte le volte (partenza, accelerazione, salita) che occorre più potenza. Lo potete vedere con i vostri occhi: sul visore di bordo della Prius la schermata più affascinante è quella intitolata "Controllo energia" che illustra in tempo reale come stanno interagendo i due motori. Quando siete fermi, c'è solo il motore elettrico in stand by. Quando partite, se non sgasate subito, andate ad elettricità fino a 40-50 chilometri all'ora circa, quando interviene il motore a scoppio. A questo punto, il motore a benzina non solo vi trasporta, ma ricarica anche le batterie: non dovrete mai cercare una presa di corrente. Le batterie si ricaricano anche ogni volta che frenate o, semplicemente, sfruttando l'abbrivio delle ruote, tutte le volte che staccate il piede dall'acceleratore. Mai mettere in folle, quando state arrivando ad un semaforo: sprechereste energia gratis. A loro volta, le batterie reintervengono ogni volta che il motore tradizionale ha bisogno di energia extra. I tecnici dicono che il vero segreto della Prius è nel software che gestisce l'accoppiata dei due motori. Il risultato di questo lavoro in partnership è che un motore come quello della Prius può funzionare sempre a basso regime, perché lo sprint arriverà dalle batterie. A parità di prestazioni, scendono, dunque, i consumi rispetto ad una macchina tradizionale: un gippone a benzina consuma tre volte più di una Prius, una moderna auto diesel il 50% in più. Nel 2005, l'ibrido Toyota, una monovolume della categoria della Golf, consumava anche meno di un'utilitaria diesel come la Yaris: tenendo il piede leggero sull'acceleratore, io facevo 25 chilometri con un litro di benzina. In città, dentro il traffico di Roma. Paradossalmente è proprio nella guida frena-fermati-riparti, tradizionalmente più dispendiosa, che l'ibrido, grazie al motore elettrico, dà il meglio di sé. E inquina anche di meno: la Prius taglia del 90%, rispetto ad un diesel, gli scarichi da smog e del 50% le emissioni di anidride carbonica. In realtà, quella Prius del 2005 è già obsoleta. Non solo perché la Toyota stessa è già arrivata alla terza generazione di Prius. Ma perché sta cambiando sia la tecnica (le batterie) sia la filosofia stessa (sempre meno ibrido, sempre più elettrico) delle nuove auto. Le pile usate nella prima Prius, infatti, erano le Ni-Mh (nickel e metallo), che erano l'ultimo grido, in materia di batterie, negli anni '90, quando sostituirono le famigerate pile a nickel e cadmio, che non si riusciva mai a ricaricare completamente. Le nuove auto invece (Toyota e non) useranno le nuove pile al litio, che contengono tre volte l'energia delle Ni-Mh e producono il doppio della potenza. Si ricaricano anche più in fretta, non si scaricano quando sono spente. Due fattori cruciali: l'auto ibrida, infatti, diventa plug-in e lo scenario che si apre è radicalmente diverso. Plug-in vuol dire che le batterie, anziché ricaricarsi con l'altro motore, o sfruttando il movimento, vengono ricaricate a casa, infilando una spina nella presa del garage. Del resto, è quello che fate per ricaricare le pile del telefonino. Farlo per l'auto non è particolarmente complicato: molti lo avevano già fatto, artigianalmente, con le vecchie Prius o le vecchie Insight della Honda. Di fatto, però, la plug-in è una macchina, in prospettiva ravvicinata, del tutto elettrica: non è più il motore a benzina, ma la rete elettrica a ricaricare le batterie. Il secondo motore, anziché un partner, viene ridotto ad alimentatore d'emergenza. Ovvero, si può pensare che, quando le batterie si scaricano, durante il viaggio, intervenga un generatore a benzina che le ricarica, ma senza più agire direttamente come motore. Questo dovrebbe anche semplificare la costruzione dell'auto e abbassarne i costi: la tecnologia è a portata di mano. L'uso di questo generatore d'emergenza sarebbe, peraltro, limitato. Gli esperti calcolano che l'80 per cento degli spostamenti in auto copra distanze inferiori a 50 chilometri, già oggi ampiamente nel raggio delle batterie di un'auto elettrica. L'impatto sarebbe comunque enorme: secondo Gerbrand Ceder, un esperto di batterie del Massachusetts Institute of Technology, coprire fino ai primi 50 chilometri della percorrenza media quotidiana di un'auto solo con le batterie diminuirebbe, nel mondo, della metà la domanda annuale di benzina o gasolio. Ad un costo stracciato: l'equivalente, in elettricità, di un litro di combustibile si paga circa 25 centesimi di dollaro. Pagina 77 8. Nucleare Nel silenzio l'acqua è un vivido blu-cobalto, quell'azzurro sfumato sul grigio che, qui al Nord, si vede nel cielo d'inverno dopo il tramonto o subito prima dell'alba. Mi spiegano subito che non c'è niente di romantico, di pittoresco e neanche di naturale: è solo il riflesso, sulle pareti di acciaio inossidabile, delle luci che illuminano le vasche di lavoro. Una centrale atomica, infatti, vive sott'acqua. Il cuore di questo cubo color rosso pompeiano che si eleva per 60 metri sopra l'abetaia della costa finlandese sono le quattro piscine che ho davanti, piene d'acqua blu: l'acqua che si riscalda dentro il reattore per essere convogliata nella turbina che genererà elettricità, l'acqua che lo raffredda, l'acqua dove i bracci meccanici stivano i fasci quadrati di sottili tubicini che contengono il combustibile esaurito. è un'immagine diversa dal mondo dell'energia che conosciamo. Niente petrolio saudita o gas russo, qui ad Olkiluoto: al loro posto, uranio australiano, arricchito in Spagna. Niente fumi o polveri inquinanti: la ciminiera che si alza nel cielo, a poche centinaia di metri in linea d'aria dai campi dei contadini e dalle case al mare della borghesia di Helsinki, succhia aria, non sputa veleni. Niente anidride carbonica: in materia di effetto serra, un reattore funziona a tasso zero. I pericoli, qui, sono tutti dentro, sotto il pelo dell'acqua. Nel cilindro con la cupola affusolata si tiene sotto controllo una frantumazione degli atomi d'uranio, in linea di principio non diversa da quella della bomba atomica. Nelle vasche accanto, le barre di tubicini piene di neutroni sono state reinserite nei fasci di barre di uranio, interrompendo il processo di reazione. Ma adesso le barre spente sono radioattive. Quando esco dal grande cubo rosso il contatore Geiger che mi hanno attaccato addosso segna 0,0001, lo stesso valore che darebbe se lo portassi fra le mura di casa. La radioattività è rimasta sott'acqua. Il problema di una centrale atomica è tenercela. Olkiluoto 1 e la sua gemella contigua, Olkiluoto 2, sono in funzione ormai da un quarto di secolo. Come le altre 437 centrali nucleari in esercizio oggi nel mondo, convivono da sempre con questi dubbi e queste paure. Per vent'anni, dal giorno del 1986 in cui il nome di una di queste centrali Cernobyl è uscito dal mazzo indistinto per imprimersi indelebilmente nella nostra memoria, sono sembrati dei relitti del passato, da seppellire appena possibile, come un ramo cieco nell'evoluzione dell'homo sapiens. Non è più così. Cinque anni di corsa pazza del prezzo del petrolio, la scoperta, ogni Natale, che il gas russo può arrivare a singhiozzo hanno rimescolato le carte sul tavolo. La Francia ha iniziato a costruire un nuovo reattore, Gran Bretagna, Svezia, Germania stanno rivedendo i loro piani di smantellamento delle vecchie centrali. Il governo Berlusconi ha più volte ribadito la volontà di riaprire all'Italia la strada dell'energia atomica, chiusa dal referendum di vent'anni fa. Negli Stati Uniti c'è un gran fervore di nuovi progetti. Cina e India, assetate di energia, battono la stessa pista. La rinascita del nucleare è stata una delle parole d'ordine del 2008. In realtà, l'energia atomica è sempre stata con noi. Il 14,8 per cento dell'energia mondiale è, già oggi, generata da reattori nucleari, con impianti i cui costi sono stati da tempo ammortizzati, consentendo alle società produttrici, in molti casi, generosi profitti. Il blocco dei nuovi impianti, soprattutto in Occidente, dopo la tragedia di Cernobyl, ha però impedito il rinnovo delle vecchie centrali. Come risultato, man mano che le centrali esistenti concludono la loro vita utile, la quota del nucleare sul totale dell'energia mondiale è destinato, inevitabilmente, a ridursi. È questo panorama che è cambiato, quasi di colpo, fra il 2007 e il 2008. Il Dipartimento dell'Energia americano ora stima che, nel 2030, il mondo produrrà 498 GW (1 gigawatt, ovvero mille megawatt, è la potenza di una media centrale elettrica) di energia nucleare, contro i 374 del 2005. La previsione è del settembre 2008 ed è di 17 gigawatt più alta di quella compiuta un anno prima. Rispetto a quanto lo stesso Dipartimento prevedeva cinque anni fa, la stima è del 31 per cento più alta. Nei soli Stati Uniti, secondo la loro agenzia (Energy Information Administration, Eia), la produzione crescerà, nei prossimi 20 anni, da 100 a 115 GW, quasi tutti dovuti all'entrata in scena di nuovi reattori. Considerato che i tempi di realizzazione di una nuova centrale, dalla progettazione all'entrata in produzione, si aggirano intorno ai dieci anni, il 2030 è una data assai vicina e la previsione dell'Eia presuppone una crescita verticale, a tappe forzate, dell'energia atomica. Gli americani non sono gli unici a pensarla così. L'Iea, l'Agenzia internazionale per l'energia dell'Ocse, in un rapporto di metà 2008, davanti al problema di far fronte ad un raddoppio dei consumi di energia nel 2050, ipotizza la costruzione, nei prossimi quarant'anni, di 4.000 centrali nucleari, dieci volte quelle che esistono oggi. Di questo revival, Olkiluoto è la bandiera. La rinascita del nucleare, per ora, è tutta nelle carte, nelle parole, nei progetti. L'unico posto in cui sia già effettivamente diventata piloni di cemento e vasche d'acciaio è questo angolo di costa finlandese, dove, alle spalle delle due vecchie centrali già esistenti, sta nascendo Olkiluoto 3. È il primo reattore nucleare concretamente in via di realizzazione in Occidente, dopo il lungo sonno post-Cernobyl (un secondo è stato avviato, a Flamanville, in Francia, ma la costruzione è ancora nelle prime fasi). E riassume, da solo, il paradigma di quello che il nucleare può rappresentare oggi. Analizzare l'impresa di Olkiluoto 3 significa vedere, dal vivo, quali problemi il nucleare può risolvere e quali non può risolvere o, piuttosto, apre. Anzitutto, la promessa. Pagina 83 Allo stato dei fatti, insomma, sicurezza nucleare significa oggi fidarsi di chi ha costruito il reattore, di chi lo opera e delle autorità nazionali direttamente interessate. Niente di tutto questo avrebbe impedito Cernobyl. La questione è cruciale, perché nella sicurezza nucleare, il parametro che conta non è la frequenza degli incidenti, ma le loro conseguenze. In tre parole: ne basta uno. I reattori di oggi sono, di molti ordini di grandezza, più sicuri di quelli dell'era Cernobyl. Ma, ancora, una volta, non è questo il punto. Tragedie della chimica, come Bhopal, che ha incenerito una città, o come Seveso, che ha avvelenato un quartiere di Milano, sono assai meno improbabili di una nuova Cernobyl. Ma hanno colpito, rispettivamente, una città e un quartiere. Il nucleare è una scala completamente diversa. Un incidente può avvelenare l'atmosfera del pianeta e, contro la radioattività, non c'è difesa. Per quanti zeri possano esserci dietro lo zero virgola della probabilità percentuale di un incidente in una centrale atomica, quel numero piccolissimo va comunque moltiplicato per l'enormità delle conseguenze. Anche per questo, non c'è bisogno di superare la soglia della catastrofe, perché la sicurezza incida, anche economicamente, sul nucleare. Un esempio, che interessa anche l'Italia, penisola a perenne rischio sismico, sono i terremoti. Le centrali atomiche sono, naturalmente, costruite con il massimo delle preoccupazioni antisismiche. All'interno, però, di parametri e previsioni che possono essere sbagliati. Nel luglio del 2007, un terremoto ha colpito la più grande centrale atomica al mondo, Kashiwazi-Kariwa, in Giappone, poco lontano da Tokyo. I tecnici giapponesi avevano pensato al terremoto e avevano costruito un impianto in grado di reggere, senza scomporsi, un sisma di grado 6 della scala Richter (anche più forte dell'ultimo in Abruzzo). Non avevano previsto però che potesse andare peggio: il terremoto del luglio 2007 è stato di gradi 6,8 e, poiché sulla scala Richter un solo grado in più significa un sisma trenta volte più distruttivo, la centrale ha accusato il colpo di un sisma più forte di quello per il quale era stata progettata. Non tanto da creare disastri, ma abbastanza da imporre il fermo dei reattori: due anni dopo, ne è ripartito solo uno su otto. Il disastro è stato economico: con la centrale ferma, la Tepco, proprietaria dell'impianto, ha avuto perdite per 6 miliardi di dollari (in pratica, l'intero costo di una centrale da mille MW), solo nel primo anno. Poi, c'è il capitolo scorie. Quando, nelle viscere di Olkiluoto, cominceranno a scendere i primi sarcofaghi di piombo che contengono le scorie altamente radioattive, sarà la nascita del primo deposito permanente al mondo per i residui più pericolosi di una centrale. Attualmente, infatti, le oltre 400 centrali operative li accantonano in depositi nominalmente temporanei. Olkiluoto presenta, tuttavia, caratteristiche che non è facile trovare altrove. In particolare, la stabilità delle rocce, lontane da ogni area sismicamente sensibile. Il risultato è che, mentre si parla di rilancio generalizzato del nucleare, le scorie continuano ad essere un problema alla ricerca di una soluzione. Il governo americano aveva individuato nei deserti dell'Ovest, nella Yucca Mountain del Nevada, 100 miglia a nord ovest di Las Vegas, ai bordi di un'area a lungo usata per test nucleari, il luogo per la costruzione di un enorme deposito per le scorie. Ma il progetto è stato bloccato dalle resistenze locali e, anche se venisse, alla fine, varato, non diventerebbe operativo prima del 2020. Il problema è che, se anche venisse aperto, lo spazio per 135.000 tonnellate di residui verrebbe quasi subito colmato dalle scorie già in attesa di sistemazione. Un rilancio del nucleare richiederebbe, in realtà, decine di Yucca Mountain in giro per il mondo. Uno studio del Massachusetts Institute of Technology calcola che, se i progetti di nuove centrali prendessero corpo, ci vorrebbe un nuovo deposito dell'ampiezza di Yucca Mountain ogni tre-quattro anni. La risposta a questi problemi è, probabilmente, nella tecnologia. Il reattore di Olkiluoto, come quello gemello di Flamanville e come quelli previsti nei progetti americani di nuove centrali, sono reattori "avanzati di terza generazione" (le tecnologie sono quelle della francese Areva e delle americane General Electric e Westinghouse in alleanza, rispettivamente, con i giapponesi di Hitachi e Toshiba). Rispetto ai precedenti, usano meno combustibile e producono meno scorie. Inoltre, sono dotati di sistemi passivi di sicurezza: in pillole, in caso di emergenza si spengono da soli, senza bisogno di un intervento umano. Ma una quarta generazione è alle porte. Questi reattori di quarta generazione (sei diverse tecnologie sono allo studio da una decina d'anni) si avvicinano al concetto di ciclo chiuso: oltre a renderli più sicuri, questo dovrebbe ridurre drasticamente il problema delle scorie. Contemporaneamente, l'autosufficienza in materia di combustibile chiuderebbe un dibattito che già comincia a serpeggiare fra gli addetti ai lavori sulle riserve di uranio (in particolare della gradazione adatta per l'uso in un reattore) effettivamente disponibili, soprattutto in caso di moltiplicazione delle centrali nucleari nel mondo. Non tutti gli esperti sono, peraltro, convinti che la quarta generazione sia la risposta ai problemi della sicurezza e delle scorie. Ma questo è, probabilmente, un dibattito sul futuro. Ciò che conta ora è che il possibile arrivo di una nuova generazione di reattori è il primo di una serie di "quesiti impossibili" che un rilancio del nucleare pone fin da ora. Il quesito è: aspettare o no la quarta generazione? Secondo le previsioni, questi nuovi reattori non saranno disponibili, a livello commerciale, prima del 2030, nelle ipotesi più ottimistiche. Il risultato è una sorta di ingorgo. Chi punta sul nucleare, pensa che occorra muoversi subito. Realisticamente, tuttavia, avviare ora un piano nucleare significa non vedere in operazione una centrale prima del 2020-2025. Questa centrale (con un reattore di terza generazione, come quelli di oggi) avrà una vita utile di 40-60 anni, da percorrere tutta, per recuperare i soldi dell'investimento. Ma che rischia di risultare obsoleta dopo soli cinque anni. Pagina 90 Sul nucleare grava ancora un'altra ombra: il decommissioning, ovvero il costo futuro di smantellamento delle stesse centrali in costruzione. È una bolletta che dovrà essere pagata solo fra alcuni decenni, ma, proprio perché inevitabile, è buona regola metterla subito nei conti. Ancora una volta, vale l'esempio di Olkiluoto. In Finlandia, la legge prevede che inizino subito gli accantonamenti per il futuro decommissioning della nuova centrale di Olkiluoto, che è a carico degli attuali proprietari. In caso questi non siano in grado di farvi fronte, interverrà un apposito fondo alimentato, comunque, dai versamenti, ancora una volta, degli stessi titolari delle centrali. Il punto è che smantellare una centrale nucleare è una procedura costosa. La Sogin, la società pubblica incarica di smantellare i vecchi reattori italiani, fermati negli anni '80, prevede che il loro decommissioning, nonostante si tratti di reattori assai piccoli (1.200 MW di potenza in totale) costerà alla fine 4,3 miliardi di euro, che diventano 6 miliardi con la spesa necessaria per allestire se e quando sarà stato trovato un sito la discarica delle scorie nucleari. In Inghilterra il costo dello smantellamento di 19 vecchie centrali, ormai obsolete, è schizzato verso l'alto del 18 per cento nel giro di tre anni (soprattutto per l'adozione di misure di maggior sicurezza nel maneggio dei materiali) e la fattura si aggira sui 100 miliardi di euro, suscettibile di salire ancora. Il fatto che smantellare una vecchia centrale possa costare 5 miliardi di euro, quanto costruirne una nuova, appare eccezionale e, probabilmente, anomalo. Ma dà il quadro di un'operazione complessa e onerosa, che va valutata fin dall'inizio. Pagina 105 11. Solare fotovoltaico [...] I pannelli solari sono, infatti, una rivoluzione dell'energia. Sotto due aspetti. Il primo è la possibilità di produrre elettricità direttamente da una fonte abbondante, come la luce del sole, senza il tradizionale passaggio per una turbina a vapore, come avviene anche nell'altro solare, quello termodinamico. Il secondo, meno immediatamente evidente, ma altrettanto significativo, è il modello di produzione e distribuzione che comporta. Grandi centrali a pannelli fotovoltaici sono ipotizzabili e realizzabili. Ma non sembra questo il destino del fotovoltaico. Il suo ruolo è, piuttosto, produrre energia nel posto in cui viene consumata. Vicino alla vita quotidiana di ognuno di noi, sui tetti e le finestre delle nostre case e dei nostri uffici. Almeno nel futuro prevedibile, è più facile pensare, piuttosto che ad un uso industriale, ad un consumo residenziale, polverizzato nei singoli edifici. Il partner ideale dell'altro sogno: l'auto elettrica, da alimentare mettendo la spina nella presa del garage. Questa vocazione locale del fotovoltaico ha due importanti conseguenze. La prima è sgravare di una parte significativa di consumi le centrali e le reti di grande produzione e distribuzione. La seconda è di affiancarle, aumentando la disponibilità complessiva di energia che si ottiene, immettendo in rete l'eccesso di produzione dei pannelli, rispetto al fabbisogno locale. Niente sintetizza meglio questi due processi dei sussidi inventati per il solare e che si sono rivelati la formula più fortunata di incentivo alle rinnovabili: le tariffe feed in, che caricano di un sovrapprezzo, a favore del titolare della bolletta, i chilowatt che i suoi pannelli riversano sulla rete. La prospettiva immediata che si apre è quella di una convivenza fra i due sistemi, con il risultato di un complesso elettrico meno concentrato e mastodontico. Anche se è presto per disegnare i confini del fotovoltaico, ancora, probabilmente, all'alba del suo cammino. Ad esempio, una buona metà della capacità installata, oggi, è in Germania, nonostante le ore di insolazione, a Berlino, nel corso di un anno, siano 900, mentre a Los Angeles sono 1.800. La quantità e l'intensità del sole ricevuto è cruciale per l'ammontare di energia che un pannello può produrre. L'energia media ricevuta dal sole in Europa è circa 1.000 chilowattora l'anno per metro quadro, mentre nel Medio Oriente si sale a 1.800 chilowattora, quasi il doppio. Anche in Italia, ci sono differenze fra Milano e Caltanissetta. Maggiore l'intensità della luce, maggiore, insomma, il flusso di elettricità prodotta. Ma questo non significa che, per generare energia, un pannello fotovoltaico, al contrario degli specchi delle centrali termodinamiche, abbia bisogno di ricevere direttamente i raggi del sole. Il pannello funziona anche nei giorni nuvolosi. E, grazie alla riflessione della luce, un giorno lievemente nuvoloso può essere anche più produttivo di una giornata di cielo sgombro. In ogni caso, anche se più o meno efficiente, il pannello genera elettricità, anche a latitudini, apparentemente, svantaggiose. Perfino nel sud della Germania, un sistema fotovoltaico da 3 chilowatt di potenza, installato sul tetto, genera circa 3.000 chilowattora l'anno, quanto basta per i consumi di una famiglia normale. Per un chilowatt ci vogliono circa 7 metri quadrati di pannelli. Questo significa che un sistema con una potenza di 3 chilowatt richiede circa 23 metri quadri di superficie, rivolta, almeno nel nostro emisfero, a sud. Almeno, se si usa la tecnologia oggi più diffusa, quella dei pannelli a cristalli di silicio. Le tecnologie esistenti sono, infatti, due, anche se il principio su cui si basano è uno solo. Le celle fotovoltaiche sono costituite da due strati di semiconduttori, uno a carica positiva, l'altro negativa. Quando la luce colpisce i semiconduttori, il campo elettrico fra i due produce un flusso di elettricità. Nel 90 per cento dei pannelli attualmente in funzione, i due semiconduttori sono costituiti da due sottili strati di cristalli di silicio, lo stesso materiale che si usa per i chip dei computer. È una materiale relativamente costoso, per cui, più sottili gli strati (oggi si arriva a 17 decimi di millimetro), più economico il pannello. In laboratorio, questi pannelli hanno raggiunto una resa energetica superiore al 20 per cento (ovvero, il 20 per cento della luce ricevuta viene convertita in energia), ma, nei prodotti in commercio, si oscilla fra il 12 e il 19 per cento. Relativamente ingombranti, i pannelli a cristalli di silicio hanno un altro inconveniente. La loro massima efficienza teorica (31 per cento) è, ormai, relativamente vicina e, dunque, non sembrano suscettibili di grandi miglioramenti. È vero il contrario per l'altra tecnologia, quella dei moduli a pellicola. In questo caso, i semiconduttori sono sottilissimi strati, installati su supporti di vetro, d'acciaio o anche di plastica. Pagina 133 A frenare Big Oil ci sono, anzitutto, i costi economici delle energie alternative. Nonostante i drastici cali di costo già registrati dall'energia eolica, in genere le alternative hanno un costo per chilowattora superiore a gas, carbone e petrolio. La stessa Iea ritiene che un vero decollo possa avvenire solo con un prezzo dei diritti all'emissione di CO2 fino a 50 dollari a tonnellata, almeno il 50 per cento in più del prezzo corrente dei diritti sul mercato europeo delle emissioni. È un modo per dire che, senza sussidi, le alternative non hanno vita propria. Ma è un ragionamento sbagliato. Non solo perché, secondo l'Ipcc il comitato di scienziati che per conto dell'Onu studia l'effetto serra una tassa di 20-50 dollari a tonnellata è quanto i gruppi dell'energia tradizionale dovrebbero pagare per compensare gli effetti ambientali dell'anidride carbonica che generano. Ma perché, di sussidi, campa proprio l'energia tradizionale. James Woolsey, l'ex capo della Cia diventato un combattivo avvocato dell'indipendenza energetica, calcola che, in una forma o nell'altra, le compagnie petrolifere americane ricevano dal Congresso e dalla Casa Bianca aiuti o privilegi che valgono almeno 250 miliardi di dollari. I costi, tuttavia, sono solo una parte del problema. Il resto è nella natura delle energie rinnovabili, soprattutto per le due più diffuse: vento e sole. Sulla carta, la Terra offre, complessivamente, risorse di energia eolica e solare sufficienti a soddisfare parecchie volte il fabbisogno dell'umanità. Ma, in ogni singolo luogo, il vento genera energia quando soffia e il sole quando splende. Se il vento è troppo fiacco e il sole troppo debole, la produzione diventa antieconomica: turbine e pannelli diventano inutili. Questa erraticità dell'eolico e del solare, insuperabile anche quando sia prevedibile dai meteorologi, è il tallone d'Achille che impedisce, oggi, alle energie alternative di fare il salto di qualità e di affermarsi come le fonti principali di energia. Più ne arriva da queste fonti erratiche, più le reti elettriche diventano instabili e blackout probabili. Secondo gli esperti, fino ad un 20 per cento di rinnovabili il problema non esiste. Già oggi gli operatori elettrici tengono un cuscino di questa ampiezza disponibile, in modo da riempire, con la riserva di potenza pronta, eventuali picchi di domanda. Fra l'altro, fino a questi livelli i costi sono assai bassi. Un rapporto del Dipartimento dell'Energia americano del maggio 2008 (ancora in era Bush) stima che un 20 per cento di eolico, nel mix di energia nel paese, comporterebbe un costo aggiuntivo in bolletta di circa mezzo dollaro al mese. Ma già il 30 per cento di energia dalle rinnovabili crea problemi. Con un 100 per cento da rinnovabili non potremmo mai essere sicuri che, quando schiacciamo l'interruttore, la luce si accenda. In Europa, la frequenza della corrente alternata sulla rete è prevista in 50 hertz. Se, ad esempio perché una grossa centrale eolica si è fermata, la disponibilità di energia non è sufficiente a soddisfare la domanda, la frequenza scende e, se arriva sotto i 48,8 hertz, gli operatori devono eliminare il sovraccarico, disconnettendo e mettendo al buio determinate zone o regioni. In altre parole, esiste oggi una sorta di tetto al ricorso alle rinnovabili. Poiché sono intermittenti possono essere utilizzate per il peak load, cioè per far fronte ai picchi di domanda, anche se non è detto che, alla bisogna, siano effettivamente disponibili. In ogni caso, dunque, al loro fianco, devono esistere centrali in grado di fornire il base load, il carico di base: fonti di energia sicure, affidabili, in grado di funzionare e produrre in ogni momento, a semplice richiesta. Come gas e carbone, le cui centrali possono essere accese o spente a volontà, o anche, in prospettiva, maree e geotermia (il nucleare ha il problema opposto: non può essere mai spento). Per aggirare questo problema e rendere vento e sole affidabili quanto i combustibili tradizionali, occorre risolvere il problema di immagazzinare l'energia prodotta in eccesso da turbine e pannelli, nei momenti in cui la domanda è bassa, per utilizzarla nei momenti in cui è bassa la produzione. In termini semplici, a meno di non immaginare di mettere una centrale a gas vicino ad ogni centrale eolica, bisogna pensare ad una batteria: una enorme pila ricaricabile. Quelle a piombo e acido che, da un secolo e mezzo, usiamo sulle automobili non sono all'altezza. Un ottimo veicolo di immagazzinamento di energia è l'idrogeno, ma la tecnologia delle celle a combustibile non è ancora sufficientemente sviluppata. Esiste anche la possibilità di utilizzare la più antica delle rinnovabili: l'idroelettrico. L'energia in eccesso da vento e sole può ripompare verso l'alto l'acqua utilizzata in caduta nelle condutture delle centrali idroelettriche. È una prassi già adottata in Svizzera, ogni primavera, per "ricaricare" le centrali, in vista dei picchi di consumo estivi, ma che potrebbe essere estesa a tutto l'anno. Tuttavia, resta legata all'esistenza di una estesa rete idroelettrica locale. I risultati più interessanti, per ora, si hanno nel solare termico, dove il calore del sole, concentrato da una serie di specchi su un serbatoio scalda il liquido che vi è contenuto, fino a produrre vapore che muove una turbina. Se il calore prodotto durante il giorno può essere fissato in una soluzione salina semiliquida e recuperato durante la notte, la centrale sarebbe in grado di funzionare 24 ore su 24. Il sistema, tuttavia, non vale per il fotovoltaico e per l'eolico. Qui si stanno sperimentando le batterie a flusso di vanadio. Come nelle normali pile di un telefonino, il meccanismo in azione è chimico. |
top |