Intelligence artificielle : sous les mers, les datacenters de demain

Dans le cadre du FPCI Cassidy, notre fonds de fonds thématique qui finance l’ensemble de la chaîne de valeur de l’Intelligence Artificielle, nous nous intéressons cette semaine à un sujet aussi fascinant que stratégique : les datacenters sous-marins. Véritable prouesse technologique, aujourd’hui en phase de tests grandeur nature, cette innovation pourrait transformer durablement l’univers des infrastructures digitales. Mais où en est-on réellement ?

Plonger le cloud : où en est l’infra bleue ?

L’IA met le secteur électrique sous pression : selon l’Agence internationale de l’énergie, la consommation des datacenters pourrait plus que doubler d’ici 2030 pour atteindre environ 945 TWh, soit un volume comparable à la consommation électrique annuelle du Japon. L’IA « optimisée » quadruplerait à elle seule sa demande d’ici la fin de la décennie. Plusieurs maisons d’analyse, dont Goldman Sachs, convergent : la puissance appelée par les datacenters pourrait grimper jusqu’à +165 % vs 2023 à l’horizon 2030.

À cette contrainte électrique s’ajoute l’enjeu hydrique. Un datacenter hyperscale peut « boire » jusqu’à 3–5 millions de gallons d’eau par jour pour le refroidissement, ce qui équivaut à la consommation d’une ville de 30 000 à 50 000 habitants. Dans un contexte de stress hydrique (US, UK, certaines régions d’Europe), chaque kilowatt thermiquement dissipé sans eau douce vaut désormais une prime. C’est précisément le « cas d’usage » avancé par les architectures maritimes (immergées ou flottantes) et par l’immersion liquide à terre.

Preuves et limites actuelles : l’exemple Microsoft Project Natick

Le Project Natick de Microsoft a donné la preuve de concept la plus robuste : un module scellé, 864 serveurs au large des Orcades, resté deux ans sous l’eau, a affiché une fiabilité huit fois supérieure à un site terrestre « jumeau ». Fin 2024, Microsoft a officiellement clos le programme, tout en réinjectant les enseignements (vibrations, corrosion, opérations en atmosphère inerte, rapidité de déploiement) dans ses sites à terre. La performance technique est donc avérée ; l’industrialisation, elle, n’a pas été poursuivie par l’éditeur.

En Chine, la dynamique est plus offensive. L’opérateur HiCloud/Highlander a étendu en 2025 son site sous-marin au large de Hainan avec un module d’environ 400 serveurs, et communique sur une capacité d’environ 7 000 requêtes DeepSeek par seconde. Sur le plan commercial, le site revendique des clients dans l’IA, la simulation industrielle, le jeu et la recherche marine.

Les points essentiels de ces développements sont les suivants :

  • Les architectures sous-marines affichent une fiabilité supérieure aux sites terrestres, avec des PUE proches de 1,10–1,15 en flottant/mer, et 1,05 voire ~1,02 en immersion liquide à terre.
  • Le marché bénéficie de la proximité des hubs littoraux où vit plus de la moitié de la population mondiale, réduisant les délais de propagation tout en libérant du foncier à terre.
  • Les solutions d’immersion réduisent les émissions de GES de 15–21 %, l’énergie de 15–20 % et l’eau de 31–52 % vs. l’air, sur l’ensemble du cycle de vie selon les analyses de Microsoft.

Pourquoi ces architectures séduisent-elles l’IA ?

D’abord pour réduire l’overhead énergétique. L’indicateur clé, le PUE, se rapproche de 1,10–1,15 en flottant/mer, et 1,05 voire ~1,02 en immersion liquide à terre. Des études convergent : l’immersion, correctement conçue, baisse durablement l’énergie non-IT et déverrouille des densités compatibles avec les GPU actuels.

Ensuite pour la latence et le foncier. Positionner des modules au plus près des hubs littoraux ou des câbles sous-marins réduit les délais de propagation tout en libérant du foncier à terre. Plusieurs acteurs « subsea » revendiquent des déploiements en douze semaines et des essais 30–90 jours.

Le cas Google Hamina (Finlande) illustre l’approche à terre utilisant l’eau de mer comme source froide : le site opère à 97–98% d’énergie décarbonée et 80% des besoins annuels du réseau de chaleur local seraient couverts par la chaleur fatale du datacenter.

Les avantages clés de cette approche sont :

  • Réduction significative de l’overhead énergétique avec des PUE optimisés entre 1,05 et 1,15 selon les configurations.
  • Amélioration de la latence grâce à la proximité des câbles sous-marins et des populations littorales.
  • Libération de foncier terrestre précieux avec des déploiements rapides (12 semaines) et une empreinte environnementale réduite.
  • Intégration possible avec les réseaux de chaleur urbains pour une acceptabilité locale renforcée.

Comment raisonner « investisseur » sur ce thème et la stratégie Cassidy ?

Pour un fonds de fonds IA Cassidy, l’intérêt est double. Sur le plan macro, l’IA impose une montée de puissance électrique et hydrique que seule une poignée de solutions sait absorber efficacement aujourd’hui. L’approche de nos gérants experts sélectionnés privilégie : (i) des participations infra-adjacentes avec preuves d’impact (PUE, WUE, ACV), (ii) des opérateurs flottants/immergés présentant contrats signés et bilans d’exploitation audités, (iii) des plateformes à terre « seawater + chaleur fatale » dans des juridictions où l’acceptabilité et les permis sont bien balisés. Le « bleu » est un complément intelligent au brownfield/greenfield terrestre — particulièrement pour les charges IA en bord de mer.

Pour toute information complémentaire sur le FPCI Cassidy, nous vous invitons à nous contacter directement.

💡 Cet article vous a intéressé ?

Pour plus d'informations, parcourez nos fonds disponibles chez Clint Capital et découvrez nos opportunités d'investissement.