Agevolazioni e Iniziative
Partnership
Stay Connected

Learn Anything Anywhere

Google punta allo spazio per risolvere l’equazione energetica dell’intelligenza artificiale
POST IDCERT Progetto Suncatcher (1920 x 1080 px) (1)

Google punta allo spazio per risolvere l’equazione energetica dell’intelligenza artificiale

Quando la domanda di potenza computazionale supera la capacità delle reti elettriche terrestri, l'unica soluzione possibile sembra guardare verso l'alto.
Google punta allo spazio per risolvere l’equazione energetica dell’intelligenza artificiale

 Google ha annunciato Project Suncatcher, un’iniziativa di ricerca che esplora la possibilità di trasferire i data center dedicati all’intelligenza artificiale in orbita terrestre, dove l’energia solare è disponibile quasi ininterrottamente.

L’orbita come soluzione al collo di bottiglia energetico

L’idea non è nuova nelle speculazioni tecnologiche, ma per la prima volta viene proposta da un’azienda con le risorse e le competenze per renderla credibile. Il progetto prevede costellazioni di satelliti compatti equipaggiati con TPU (Tensor Processing Unit) di Google, collegati tramite collegamenti ottici in spazio libero e alimentati da pannelli solari che, secondo l’analisi dell’azienda, potrebbero generare fino a otto volte l’energia di pannelli equivalenti sulla Terra.

“Il Sole è la fonte energetica definitiva del nostro sistema solare, emettendo più energia di 100 trilioni di volte la produzione elettrica totale dell’umanità”, ha scritto Travis Beals, Senior Director for Paradigms of Intelligence di Google, nel comunicare l’iniziativa. La chiave del progetto sta nell’orbita sincronizzata alba-tramonto, che mantiene i satelliti in esposizione solare pressoché continua, eliminando le inefficienze del ciclo giorno-notte e le variazioni stagionali che limitano i sistemi terrestri.

Architettura distribuita e formazioni compatte

Il documento di ricerca preliminare pubblicato da Google delinea una visione ambiziosa ma tecnicamente dettagliata. La proposta prevede una costellazione di 81 satelliti disposti in formazione compatta, con un raggio di cluster di un chilometro e distanze tra satelliti vicini di appena 100-200 metri. Questa prossimità estrema è necessaria per garantire collegamenti dati ad altissima larghezza di banda, nell’ordine delle decine di terabit al secondo, paragonabile alle prestazioni dei data center terrestri.

L’approccio modulare rappresenta una differenza sostanziale rispetto ad altre proposte di data center spaziali monolitici. Google punta su satelliti più piccoli e interconnessi, una scelta che offre maggiore scalabilità e riduce i rischi associati al lancio e alla manutenzione. I modelli di dinamica orbitale sviluppati dall’azienda, basati sulle equazioni di Hill-Clohessy-Wiltshire e raffinati attraverso simulazioni JAX, suggeriscono che manovre di stazionamento relativamente modeste sarebbero sufficienti per mantenere la formazione stabile nell’orbita eliosincrona prescelta.

Test di radiazione e resistenza hardware

Google ha già condotto test fondamentali per verificare la fattibilità del progetto. I chip Trillium, l’ultima generazione di TPU dell’azienda, sono stati sottoposti a test di radiazione in un acceleratore di particelle da 67 MeV presso l’Università della California, Davis, per simulare le condizioni dell’orbita terrestre bassa. I risultati sono stati incoraggianti: i componenti hanno resistito a dosi di radiazione fino a tre volte superiori a quelle previste per una missione quinquennale.

I sottosistemi di memoria ad alta larghezza di banda (HBM) si sono rivelati i componenti più sensibili, ma hanno iniziato a mostrare irregolarità solo dopo una dose cumulativa di 2 kilorad, ben oltre i 750 rad previsti per cinque anni con schermatura. Non si sono verificati guasti permanenti attribuibili alla dose ionizzante totale fino a 15 kilorad su un singolo chip, dimostrando una robustezza sorprendente per hardware non specificamente progettato per applicazioni spaziali. Restano tuttavia da approfondire gli effetti degli eventi singoli (SEE) sulle operazioni di training dei modelli.

Comunicazioni ottiche e banda ultra-larga

Una delle sfide tecniche più significative riguarda le comunicazioni inter-satellite. I carichi di lavoro di machine learning su larga scala richiedono la distribuzione di compiti attraverso numerosi acceleratori con connessioni ad alta larghezza di banda e bassa latenza. Per offrire prestazioni comparabili ai data center terrestri, i collegamenti tra satelliti devono supportare decine di terabit al secondo.

L’analisi di Google indica che questo obiettivo dovrebbe essere raggiungibile con transceiver multi-canale DWDM (Dense Wavelength Division Multiplexing) e multiplexing spaziale. Tuttavia, raggiungere questa larghezza di banda richiede livelli di potenza ricevuta migliaia di volte superiori rispetto alle implementazioni convenzionali a lungo raggio. Poiché la potenza ricevuta scala inversamente al quadrato della distanza, la soluzione passa attraverso formazioni di volo estremamente compatte. Il team ha già validato l’approccio con un dimostratore da banco che ha raggiunto con successo una trasmissione bidirezionale di 800 Gbps per direzione, per un totale di 1,6 Tbps con una singola coppia di transceiver.

L’equazione economica: quando lo spazio diventa conveniente

L’aspetto economico rappresenta naturalmente il banco di prova decisivo. Attualmente i costi di lancio oscillano tra 1.500 e 2.900 dollari per chilogrammo, cifre che renderebbero proibitiva qualsiasi implementazione su larga scala. Tuttavia, l’analisi di Google suggerisce uno scenario diverso per il prossimo decennio.

Se i prezzi continueranno a scendere seguendo le tendenze attuali, raggiungendo i 200 dollari per chilogrammo entro la metà degli anni 2030, il costo ammortizzato del lancio e della gestione di un data center spaziale potrebbe diventare comparabile ai soli costi energetici di un equivalente data center terrestre, calcolati su base per kilowatt/anno. Una proiezione che dipende fortemente dal successo di Starship di SpaceX e dalla capacità di raggiungere una cadenza di lancio di 180 missioni annuali, riducendo i costi fino a trenta volte rispetto ai sistemi attuali.

I primi test in orbita nel 2027

Il primo passo concreto è già programmato. Google ha annunciato una missione congiunta con Planet Labs per lanciare due satelliti prototipo entro l’inizio del 2027. Ogni satellite trasporterà quattro TPU e servirà a testare aspetti critici dell’architettura: il funzionamento dei modelli di machine learning e dell’hardware in condizioni reali di orbita, l’efficacia dei collegamenti ottici inter-satellite per compiti di apprendimento automatico distribuito, e la validazione delle prestazioni energetiche e termiche del sistema.

L’obiettivo non è dimostrare la fattibilità commerciale immediata, ma verificare che i concetti fondamentali reggano al confronto con la realtà operativa. La missione rappresenta il primo tassello di un percorso di validazione che potrebbe estendersi per oltre un decennio prima di raggiungere una scala commercialmente rilevante.

Oltre Google: un’industria in fermento

L’iniziativa di Google non è isolata. La startup Starcloud ha annunciato il lancio del satellite Starcloud-1, equipaggiato con un chip Nvidia H100, e propone di costruire un data center da 5 gigawatt distribuito su un array solare di 4 chilometri. Il co-fondatore Philip Johnston inquadra l’iniziativa principalmente come questione ambientale: “Dopo il lancio, si risparmieranno dieci volte le emissioni di anidride carbonica durante la vita utile del data center rispetto all’alimentazione terrestre”.

Anche SpaceX starebbe valutando l’evoluzione della costellazione Starlink in direzione di capacità di elaborazione orbitale, sfruttando l’infrastruttura già esistente per creare una rete cloud a bassa latenza. L’approccio di SpaceX punterebbe più sulla connettività che sul calcolo AI puro, ma il risultato sarebbe comunque una distribuzione del carico computazionale oltre l’atmosfera terrestre.

Le ombre del progetto: detriti e questioni aperte

Restano naturalmente questioni aperte di non poco conto. Il problema dei detriti spaziali diventa ancora più critico quando si ipotizza di moltiplicare il numero di satelliti in orbita e di farli volare in formazioni estremamente compatte. Le sfide tecniche legate alla gestione termica in assenza di atmosfera, alle comunicazioni ad alta larghezza di banda verso terra e all’affidabilità dei sistemi in orbita richiedono ancora soluzioni definitive.

Non da ultimo, esistono interrogativi normativi sulla gestione di dati sensibili elaborati al di fuori del territorio terrestre, questione che potrebbe complicare l’adozione del sistema per molte applicazioni soggette a regolamentazione. La manutenzione e l’aggiornamento dell’hardware spaziale rappresentano sfide logistiche completamente diverse rispetto ai data center terrestri, dove l’accesso fisico alle componenti è dato per scontato.

Il contesto: una crisi energetica annunciata

Il momento dell’annuncio non è casuale. Le principali aziende tecnologiche stanno investendo circa 3.000 miliardi di dollari per espandere i propri data center nei prossimi anni, con conseguenze significative sulle reti elettriche e crescenti preoccupazioni ambientali. In alcune aree degli Stati Uniti, la domanda energetica dei data center ha causato aumenti dei prezzi dell’elettricità fino al 267% in cinque anni.

Microsoft ha ammesso pubblicamente di non avere abbastanza elettricità per installare tutte le GPU di cui dispone, mentre diverse aziende stanno valutando soluzioni alternative come piccoli reattori modulari e turbine a gas. In questo contesto, l’idea di trasferire parte del carico computazionale nello spazio appare meno folle di quanto potrebbe sembrare a prima vista.

Nella tradizione dei moonshot di Google

Google inquadra Project Suncatcher nella sua tradizione di progetti visionari che affrontano problemi scientifici e ingegneristici complessi. L’azienda ricorda che un decennio fa l’obiettivo di costruire un computer quantistico su larga scala sembrava irrealistico, così come quindici anni fa lo era l’idea di veicoli autonomi, poi diventata Waymo con milioni di viaggi effettuati. Il messaggio implicito è chiaro: ciò che oggi appare fantascienza potrebbe essere l’infrastruttura standard del futuro.

La questione non è se Google realizzerà effettivamente costellazioni di data center orbitali entro il 2035, ma se i vincoli energetici terrestri diventeranno così stringenti da rendere economicamente sensata un’opzione che fino a ieri sembrava pura fantasia ingegneristica. Per ora, Project Suncatcher rimane un’iniziativa di ricerca con orizzonti temporali lunghi e molte incognite da risolvere.

Ma la storia della tecnologia insegna che molte rivoluzioni iniziano proprio così: con progetti apparentemente visionari che esplorano soluzioni radicali a problemi concreti. E in questo caso, il problema è molto concreto: come alimentare l’appetito crescente dell’intelligenza artificiale senza collassare le reti elettriche o compromettere ulteriormente l’equilibrio climatico del pianeta. La risposta, forse, è letteralmente sopra le nostre teste.

Loading