Il data center nella montagna in Val di Non
Val di Non: il caso del data center nella montagna, di cui non si sa quasi nulla
Nella valle delle mele, dove i filari ordinati disegnano il paesaggio, stanno sorgendo le fondamenta di un’infrastruttura simbolo della contemporaneità tecnologica: un enorme centro per l’archiviazione, l’elaborazione e la gestione dei dati digitali. Succede in Val di Non, nel cuore del Trentino, all’interno della miniera ancora attiva di San Romedio. Il progetto si chiama Intacture e viene presentato come un’infrastruttura all’avanguardia, capace di fondere natura e tecnologia in un equilibrio virtuoso. Un data center «green», così viene definito, proprio per la sua collocazione geologica e ambientale.
Non è un caso che nella comunicazione ufficiale il progetto venga descritto come «la casa naturale dei dati» (The Natural Home of Data). La narrazione punta a evocare un legame armonico con l’ambiente, quasi a voler ridurre la distanza tra l’astrazione del digitale e l’immaginario bucolico della valle. Ma il richiamo alla natura suona paradossale, in un territorio che da tempo ha perso il suo volto originario sotto l’impronta dell’agricoltura intensiva. La Val di Non, oggi, è l’emblema del paesaggio antropico, dove l’impronta delle attività industriali sostituisce la natura: una sequenza regolare di meleti industriali, pali di cemento e teli antigrandine. Un luogo che di naturale conserva più il nome che l’essenza.
Il progetto
L’ingresso della miniera di San Romedio, nel Comune di Predaia (Val di Non), dove sorgerà Intacture
Ma vediamo più nel dettaglio cosa prevede il progetto del data center. Innanzitutto, è utile spiegare cosa sia un centro di elaborazione dati: si tratta di spazi occupati da armadi – i cosiddetti rack – disposti in lunghe file, ciascuno contenente in media tra i 20 e i 40 computer. Nel caso della Val di Non, questi ambienti saranno ricavati nelle celle ipogee scavate nella dolomia, dove c’è una temperatura costante di circa 12°C. Una condizione che, secondo i sostenitori di Intacture, dovrebbe ridurre il carico di lavoro del sistema di raffreddamento.
Il solo vantaggio di una temperatura naturalmente favorevole non appare comunque una garanzia di successo, come dimostra il caso del data center sottomarino di Microsoft (Project Natick) nel Mare del Nord, anch’esso presentato come una soluzione innovativa per ridurre l’impatto energetico del raffreddamento. Sebbene l’iniziativa sia stata inizialmente valutata positivamente, Project Natick non è più operativo, e Microsoft ha dichiarato che non prevede la realizzazione di altri data center sottomarini.
Per la realizzazione di Intacture è stata costituita la società Trentino DataMine Srl, nata da un partenariato pubblico-privato. La compagine societaria prevede una partecipazione del 49% da parte dell’Università di Trento e del 51% da Covi Costruzioni, Dedagroup Spa, l’Istituto Atesino di Sviluppo e GPI.
Prima del progetto del data center, tra il 2012 e il 2013, nella miniera di San Romedio si era avviata la sperimentazione per la conservazione delle mele, portata avanti da Melinda e Tassullo Spa, allora proprietaria della miniera, fallita nel luglio 2016. Già allora era stata ipotizzata la possibilità di destinare parte dello spazio ipogeo a un data center, dopo un primo intervento che aveva reso l’area utilizzabile a livello industriale. Nel 2017 la concessione è passata alla Miniera San Romedio Srl, che ha successivamente avviato lo stoccaggio di formaggio grana e spumante, fino ad arrivare al progetto Intacture, inserito a fine 2021 tra le opere finanziate dal PNRR con 18,4 milioni di euro su un totale di 50,2 milioni.
Inizialmente, l’accordo prevedeva la vendita di terreni di uso civico nella frazione di Mollaro e Tuenetto da parte del Comune di Predaia alla Miniera San Romedio. Un passaggio che ha suscitato l’opposizione di alcuni cittadini, che nel 2023 hanno presentato un ricorso in tribunale. Nel documento firmato dai ricorrenti vengono elencate alcune criticità: la vicinanza alle abitazioni delle particelle coinvolte, la possibilità di un impianto fotovoltaico con impatto sul paesaggio, l’assenza di una progettualità chiara e l’ipotesi di utilizzare superfici già disponibili nella Miniera San Romedio. Quest’ultimo punto è stato infine accolto da Trentino DataMine per non compromettere i tempi di realizzazione del progetto.
Cittadinanza all’oscuro
Oggi, a preoccupare parte della cittadinanza è la mancanza di informazioni sugli impatti ambientali dell’infrastruttura. È noto che Intacture ospiterà 1200 rack e raggiungerà una potenza massima di 5 megawatt, che lo classifica come un data center di media potenza, ma non sono disponibili dati certi sui consumi. Interpellata sul punto, Intacture ha chiarito che nella prima fase del progetto – fino a 1,5 MW – non verrà utilizzata acqua di falda e il raffreddamento avverrà tramite aria esterna. Per le fasi successive, che porteranno la potenza a 5 MW, è stato dichiarato che le valutazioni avverranno in futuro e non è escluso l’impiego di acqua.
Un ulteriore nodo critico riguarda il coinvolgimento della popolazione. Un residente che segue da vicino la questione ha dichiarato a L’Indipendente che, sulla costruzione del data center circolavano voci già quattro anni fa, ma che la comunità è stata informata solo quando il progetto era ormai definito. Intacture, da parte sua, afferma di aver comunicato con la cittadinanza attraverso comunicati stampa e aggiornamenti sui media locali. Tuttavia, l’unico vero momento di confronto diretto con la popolazione – una serata informativa pubblica – risulta ancora in fase di programmazione, mentre i lavori sono già iniziati. Un tempismo che rende evidente come il coinvolgimento del territorio sia rimasto, nei fatti, più formale che sostanziale.
Lo scarso confronto con la popolazione, in particolare sulle risorse impiegate, è un aspetto ricorrente in progetti di questo tipo. Google, per esempio, che possiede una quindicina di data center sparsi per il mondo, si è spesso rivolto a società di comodo in modo tale che il proprio nome non venisse associato a certe opere fino a quando i progetti non fossero stati approvati. Inoltre, negli USA l’azienda informatica impone delle clausole di riservatezza molto rigide ai Comuni dove si stabilisce per sottrarsi a ogni confronto pubblico sul consumo di elettricità e di acqua. Qualcosa di analogo è accaduto anche in Val di Non quando un collettivo contrario all’opera si è visto negare dall’amministrazione di Predaia la sala comunale poiché «il contenuto dell’incontro sarebbe discostante dalla posizione [della Giunta Comunale] e dall’impegno amministrativo in merito all’argomento». Evidentemente, la convinzione, ostentata anche dalla stampa, che quello nella miniera di San Romedio sia un data center “green” non è sufficiente a reggere un confronto su temi che riguardano la digitalizzazione.
La sete dei data center
Filari di meli in Val di Non durante il periodo invernale
Per provare a farsi un’idea dell’impatto di queste infrastrutture in termini idrici, è utile conoscere i dati relativi ai data center delle grandi aziende. Per prima cosa, è bene ricordare che i centri di elaborazione dati impiegano acqua soprattutto in due modi: indirettamente attraverso la generazione di energia, direttamente attraverso il raffreddamento. I server possono essere considerati dei radiatori: la maggior parte dell’energia è convertita in calore che è contrastato dall’acqua generalmente nebulizzata. La temperatura di alcuni componenti può raggiungere i 60°C, ma nelle fabbriche di dati, per garantire un ambiente di lavoro ottimale, la temperatura dell’aria deve essere compresa tra i 20 e i 27 gradi.
L’esplosione dell’intelligenza artificiale sta determinando, oltre a una crescita dell’esigenza di energia, un aumento del consumo d’acqua per raffreddare i data center, tanto che si stima che la domanda di IA generativa potrebbe richiedere da sola entro il 2027 dai 4,2 miliardi ai 6,6 miliardi di metri cubi di acqua potabile, ovvero metà della quantità d’acqua consumata ogni anno da una nazione come il Regno Unito. Gli ultimi rapporti sulla sostenibilità delle Big Tech mostrano aumenti a due cifre dell’acqua impiegata da parte di Microsoft (+ 22,5%), Meta (+ 17%) e Google (+ 17%). Nel documento Environmental Report 2024 di Google, si legge che il consumo totale di acqua nei data center dell’azienda è stato di 6,1 miliardi di galloni (circa 23 milioni di metri cubi). È invece la Bank of America a dichiarare che negli USA i centri di elaborazione dati arrivano a utilizzare circa 660 miliardi di litri d’acqua ogni anno, rendendo questo settore uno dei maggiori consumatori d’acqua. Se la grandezza di queste cifre rende difficile capire la reale portata del consumo, è utile guardare a dei numeri più piccoli ma che restituiscono il quadro della situazione. Secondo uno studio dell’Università della California, per ottenere 10-50 risposte da ChatGPT modello GPT-3 è necessario mezzo litro d’acqua, stima che aumenta per ogni nuova evoluzione del programma.
Consumi elettrici fuori controllo
A livello globale, si stima che i data center consumino circa 200 terawattora (TWh) di energia all’anno e si prevede che il loro consumo di elettricità aumenterà di circa quindici volte entro il 2030, fino a raggiungere l’8% della domanda complessiva di elettricità. Per dare un significato a questi numeri, significa che già oggi, in una fase ancora embrionale dello sviluppo dell’intelligenza artificiale, l’un percento dei consumi globali di elettricità è generato dal settore. Il motivo per cui queste infrastrutture sono così energivore risiede nel fatto che devono funzionare sempre e per farlo hanno bisogno di sistemi di rete, di alimentazione, di raffreddamento e di sicurezza.
Secondo uno studio pubblicato su Nature, per il settore delle tecnologie dell’informazione e delle comunicazioni è prevista un’enorme crescita con 29,3 miliardi di dispositivi online stimati entro il 2030, rispetto ai 18,4 miliardi del 2018. Lo sviluppo esplosivo dell’IA ha dunque incrementato la richiesta di elettricità delle aziende tech che ora si stanno rivolgendo al settore nucleare. Google ha firmato un accordo con la startup californiana Kairos Power per acquistare energia nucleare prodotta da piccoli reattori di nuova generazione chiamati “small modular reactors” (SMR). Il contratto prevede l’attivazione del primo SMR entro il 2030, mentre gli altri saranno prodotti entro il 2035. A settembre 2024 è Microsoft a siglare un accordo con la società Constellation Energy, proprietaria della centrale nucleare di Three Mile Island (Pennsylvania), dove, nel 1979, si verificò il più grave incidente nella storia del nucleare civile negli Stati Uniti. Amazon ha invece acquistato per 650 milioni di dollari un data center direttamente alimentato dalla centrale nucleare di Susquehanna Steam Electric, in Pennsylvania. Anche Bill Gates si è interessato alla questione. La sua azienda di progettazione di reattori nucleari TerraPower e Sabey Data Centers – uno dei principali sviluppatori, proprietari e operatori di data center – hanno siglato un’intensa di collaborazione per utilizzare l’energia nucleare degli impianti di TerraPower. Infine, Meta ha annunciato l’obiettivo di aggiungere tra 1 e 4 GW di nuova capacità energetica da fonte nucleare a partire dal 2030.
Dati: l’oro del secolo
«Siccome i dati sono la nuova pietra filosofale che può trasformare un’impresa in perdita in una macchina da soldi, le aziende archiviano qualunque cosa. I dati che non sono utili nell’immediato potrebbero diventarlo un giorno, in futuro, per un obiettivo ancora non stabilito». Con queste poche frasi Guillaume Pitron in Inferno digitale spiega in modo efficace perché abbiamo sempre più bisogno di infrastrutture capaci di contenere i 5 exabyte di dati prodotti ogni giorno, quantità pari a quella generata dagli inizi dell’informatica fino al 2003. Nel nuovo mercato digitale, i dati sono diventati una materia prima pregiata ed estremamente richiesta. Era il 2016 quando il governo italiano e IBM stilarono un accordo che prevedeva la fornitura all’azienda tecnologica statunitense dei dati sanitari di tutti i cittadini a partire da quelli lombardi.
L’anno successivo – probabilmente per poter rendere effettivo il patto appena citato – il Codice Privacy Italiano venne integrato dall’articolo 110 bis che contempla la possibilità, per scopi statistici e di ricerca scientifica, al riutilizzo dei dati personali anche sensibili, legittimando, di fatto, la loro cessione ad aziende private. La finalità dichiarata della concessione delle informazioni a IBM era la promozione della ricerca scientifica per sviluppare una nuova generazione di applicazioni e soluzioni sanitarie. Anche nel caso di Intacture è presente un’azienda che si occupa di digitalizzazione del settore sanitario: GPI. Tra i suoi progetti è presente “Talking about”, un algoritmo per il riconoscimento delle emozioni nella voce umana. Applicato alla ricerca della depressione post partum, Talking about analizza i flussi vocali delle neo madri per capire se sono inclini allo sviluppo di questo stato umorale. IBM e GPI ci offrono l’esempio per capire come il fine ultimo delle aziende sia il guadagno e quello dei prodotti digitali l’annullamento della tangibilità delle cose. La storia ci racconta, ad esempio, che fu proprio IBM a consegnare a Hitler la tecnologia necessaria alla gestione del sistema concentrazionario, tra cui le schede perforate necessarie alla schedatura delle persone ritenute nemiche. Da parte sua, l’algoritmo di AI creato da GPI smaterializza l’esperienza della maternità anche nelle sue forme più complesse riducendo le emozioni al risultato di un tracciato vocale. Oltre alla questione dell’impatto ambientale, è dunque importante ricordarsi anche il motivo per cui vengono costruite queste opere: archiviare dati per poterli processare rendendo reale il binomio esperienza umana-merce.