Quasi 200 zettabytes – ossia 200 trilioni di gigabytes – saranno presenti nei data center di tutto il mondo entro il 2025.
Quale sarà l’impatto di questo aumento per tutti noi e per il futuro dei data center?
L’umanità produce all’incirca 16 zettabytes all’anno di nuovi dati.
Tutte queste informazioni sono salvate nei centinaia di data center sparsi in tutto il mondo.
Ma non basta: l’incremento anno su anno dei dati prodotti è di oltre il 7%.
Ma per avere la misura di quanti dati dovranno essere gestiti usiamo un’infografica che ci può aiutare:

A questo punto è sufficiente prendere questi valori e moltiplicarli per UN MILIONE !
Esatto: 1 zettabyte corrisponde ad 1 milione di petabyte.
Le informazioni che sono ospitate nei data center di tutto il mondo sono sempre più vitali. Se oggi spegnessimo tutti questi impianti, molto probabilmente, i maggiori servizi primari dei paesi più evoluti si fermerebbero.
Ogni giorno affidiamo centinaia di miliardi di informazioni vitali ai sistemi ospitati nei data center, ma non immaginiamo che molti di questi sono vetusti e rischiano di spegnersi quotidianamente.
Presente e futuro
Per meglio capire la situazione attuale e il futuro dei data center dobbiamo analizzare 5 parametri:
- localizzazione
- struttura
- efficienza energetica
- fonti rinnovabili
- memorizzazione
Localizzazione
In questo momento la costruzione di un data center è legata alla disponibilità di energia elettrica a basso costo, presenza di connettività in fibra ottica e un territorio adatto ad ospitare un impianto di questo tipo (condizioni climatiche miti, bassa sismicità, ecc.).
Apple ha costruito un data center in corrispondenza di un impianto idroelettrico, perché una diga e il relativo impianto di sfruttamento sono costruiti in un territorio che è compatibile con i requisiti di un data center. Chiaramente Apple l’impianto idroelettrico se lo è comprato e rivende l’energia inutilizzata alla popolazione locale.
In Svezia, Facebook sfrutta le condizioni climatiche particolarmente favorevoli al raffreddamento per costruire un impianto molto avanzato.

Nel 2018 Amazon e Microsoft hanno acquistato complessivamente oltre 300 ettari di terreno in Svezia per costruire propri impianti.
Chiaramente la costruzione di grandi impianti in paesi emergenti è facilitata dalla disponibilità da parte dei governi di concedere spazi ed energia a basso costo. Fortnite e WeChat, appartenenti alla stessa azienda, hanno aperto strutture a Mumbai in India.
Anche i paesi evoluti del vecchio mondo cercano di attrarre i grandi big per favorire la costruzione di nuovi impianti: la Francia ha emanato una legge per il taglio delle tasse a fronte della costruzione di data center sul proprio territorio.
Chiaramente la collocazione di data center in zone difficilmente raggiungibili dalla fibra non può favorire lo sfruttamento della capacità elaborativa:

La collocazione dei data center in prossimità dei punti di arrivo dei cavi sottomarini, nonché in aree a bassa pericolosità politica e sociale è fondamentale per garantire gli enormi investimenti.
Il futuro della localizzazione è legato ai fattori climatici e di accesso a fonti energetiche verdi a basso costo. Il problema della fibra sarà risolto da nuovi sistemi di connettività, vedasi il Progetto Kuiper di Amazon per il lancio di migliaia di satelliti per creare una nuova rete mondiale.
Struttura
La struttura attuale dei data center è in gran parte basata sulla vecchia modalità di progettazione che imponeva la costruzione dei cosiddetti Mega Data Center.
I “mega data center” erano visti come un modello di progettazione ottimale, perché consentivano di ridurre i costi complessivi aumentando la densità dei sistemi ospitati in un sito.
Per capire il presente e il futuro possiamo raffrontare il nuovo data center di Aruba edificato a Bergamo:

con le nuove idee alla base dell’innovazione futura dei data center:

Vapor IO progetta data center in co-location, ossia nel medesimo sito usando un piccolo spazio fisico, con gli impianti energetici e con le antenne di connettività wireless esistenti sul territorio.
Un singolo box può contenere centinaia di server ospitati in sistemi rack non presidiati.
Netflix e Amazon stanno lavorando in direzione di distribuire sul territorio datacenter in co-location per diminuire le latenze e offrire migliori servizi audio/video on demand ai clienti finali.
Tuttavia il mercato è vario e si evolve rapidamente: Apple ha scelto di rimanere sui mega data center:

così come Microsoft, dopo la prima era dei container data center ha deciso di adottare un approccio misto che garantisce maggiore flessibilità.
A Dublino ha raddoppiato nel giro di pochi anni la superficie utile del proprio data center “tradizionale” arrivando alla dimensione di una piccola città.
Efficienza energetica
Come visto in precedenza, l’efficienza energetica è un tema consolidato in ogni nuovo progetto, diventando parte integrante delle specifiche vincolanti di un data center moderno.
Attualmente l’efficienza energetica è ricercata attraverso il corretto raffreddamento attraverso sistemi di condizionamento ad aria aiutati dalla localizzazione geografica.
Nel futuro, ormai prossimo, l’efficienza energetica sarà ottenuta principalmente attraverso raffreddamento a liquido e sistemi di intelligenza artificiale per l’analisi in tempo reale dei dati di efficienza.
Il futuro porterà alla creazione dei cosiddetti submerged data center, ovvero data center costruiti sott’acqua, vedasi il Progetto Natick di Microsoft:

Fonti rinnovabili
I data center e le fabbriche delle FAMGA utilizzano il 3% dell’energia elettrica prodotta sul pianeta:

Chiaramente gli Stati Uniti, patria di tutte queste aziende, si sono mossi diversi anni addietro per imporre l’utilizzo di energie rinnovabili.
I risultati si sono visti nel giro di pochi anni, soprattutto grazie agli enormi sgravi fiscali di cui hanno goduto queste aziende.
Tuttavia la ricaduta a livello globale è stata enorme:

Google ha dimostrato che nel futuro dei data center è possibile arrivare al traguardo del 100% di fonti rinnovabili, anche se alcuni dati sono di difficile interpretazione, quindi in effettivo si attesta leggermente più in basso.
Memorizzazione
Il passaggio dai sistemi di storage tradizionali a quelli basati su dischi a stato solido (SSD) ha portato innegabili vantaggi.
Per prima cosa i nuovi dischi consumano molto meno e generano molto meno calore dei loro predecessori.
In secondo luogo l’aumento delle prestazioni ha avuto un effetto anche sulla necessità di utilizzare meno memoria RAM.
In genere, la percezione per l’utilizzatore comune di un sistema basato su SSD a fronte di memoria RAM inferiore è ancora di maggiore velocità, rispetto ad un sistema dotato di dischi tradizionali e maggiore memoria.
Questo ha comportato una diminuzione dei consumi e della dispersione termica legata alle meccaniche dei dischi e delle memorie RAM.
L’aumento esponenziale dei dati prodotti richiederà sempre maggiori spazi nei data center, infatti la volontà specifica dei cloud provider è di utilizzare sistemi di memorizzazione a basso costo ed alte prestazioni, accettando una maggiore difettosità (Google docet).

Conclusioni
In definitiva possiamo dire che il futuro dei data center sarà all’insegna della ricerca di sempre maggiore efficienza energetica.
Lo sfruttamento dei mari per affondare i data center e sfruttare il raffreddamento a liquido apre scenari molto preoccupanti.
Se i paesi ospitanti dovessero avviare una deregulation in tal senso, magari unendola ad incentivi economici, ci sarebbe un immediato afflusso di capitali di investimento.
La certezza, ormai consolidata, è che solamente la centralizzazione in mega data center, che abbattono i costi e aumentano le garanzie complessive, è l’unica la strada perseguibile per qualsiasi offerta di cloud computing.
Le co-location saranno un’arma molto utile per l’offerta di servizi a basso costo e bassa latenza (come i flussi video on-demand) che favoriranno lo sviluppo del mercato.
Adesso si apre il capitolo della seconda era dei data center, che coinvolgerà tutte le amministrazioni pubbliche, soprattutto in relazione allo smaltimento degli edifici e degli enormi quantitativi di batterie e altri materiali dannosi presenti all’interno dei siti attuali.
I data center di prima generazione sono tutti all’interno di aree densamente popolate, questo a causa della connettività di cui si disponeva all’epoca, ragion per cui è necessario pensare ad una ricollocazione in tempi rapidi. Anche consentendo alle aziende di accedere ad importanti sgravi fiscali, proprio come avviene all’estero, per favorire questo passaggio.
La domanda irrisolta (almeno per me):
ma se ogni generazione di cellulari aumenta esponenzialmente la quantità di dati che dobbiamo memorizzare (ad esempio a causa dei megapixel in costante aumento delle fotocamere), saremo in grado di continuare in questa rincorsa perenne all’allargamento della capacità dei data center?