.jpg)

Notre équipe chez 5C a passé la semaine au stand, à mener des discussions approfondies tout en prenant du recul pour observer l’ensemble de l’oeuvre. C’était aussi notre toute première présence en tant qu’exposant, une étape importante pour une entreprise qui n’a même pas encore un an.
Avant d’entrer dans les grandes évolutions du secteur, voici un aperçu de ce que nous avons fait sur le terrain.

Connexions de lancement
Nous avons coorganisé une soirée de bienvenue AI Builders avec Together AI, soutenue par le Groupe Hypertec et Pegatron. C’était une excellente façon de lancer la semaine, entourés d’acteurs de l’industrie, dans une belle énergie, avec des conversations qui se sont prolongées tard en soirée.

Conversations stratégiques
Alors que la semaine s’accélérait, nous avons organisé un déjeuner exécutif avec Together AI, soutenu par NVIDIA.
Nous avons réuni des décideurs stratégiques pour une discussion ciblée et concrète sur ce qu’il faut réellement pour construire et alimenter des campus IA à l’échelle du gigawatt, à un niveau véritablement commercial.



Définir le modèle 2GW
À la suite de ces discussions stratégiques approfondies, notre propre David Bitton, notre VP AI Product and Strategy, est monté sur scène au kiosque de Together AI pour aborder la réalité technique de cette transformation à grande échelle.
Lors de sa lightning talkprésentation, « Planning for a 2GW AI Factory: Scaling Performance from Silicon to Campus », il a expliqué pourquoi le modèle traditionnel du centre de données, tel que nous le connaissons, n’est plus suffisant à l’échelle des usines d’IA.

À mesure que les charges de travail se développent sur des architectures comme Blackwell et évoluent vers des plateformes de nouvelle génération telles que Rubin, David a détaillé le modèle complexe nécessaire pour faire évoluer les infrastructures d’IA de 10 000 à plus de 100 000 GPU.
Son message clé était clair. Chaque décision liée à la densité de puissance, au refroidissement et à la conception électrique a un impact direct sur le débit d’entraînement et le nombre de tokens par seconde. Aujourd’hui, l’infrastructure physique est une véritable couche de performance, et ce modèle est la manière dont nous accompagnons nos partenaires dans le déploiement de ces installations à grande échelle.
En coulisses : tournage de « Home of AI »
Alors que le salon vibrait au rythme des annonces, notre équipe créative était installée dans un studio hors site pour produire quelque chose de spécial.
Nous avons passé deux jours à filmer les bases de notre nouvelle série vidéo au format documentaire, « Home of AI ».

La série est entièrement éditoriale et guidée par des analyses approfondies. Nous dépassons les discours promotionnels pour explorer concrètement comment les infrastructures de nouvelle génération sont conçues, construites et exploitées.
Sur deux jours, nous avons mené des entretiens avec douze experts de notre écosystème, notamment Schneider, Together AI, NVIDIA, Pegatron, Groupe Hypertec, VAST Data et 5C.
Nous avons abordé des systèmes réels, des décisions concrètes et des retours d’expérience terrain. Les échanges ont été particulièrement riches, et le projet est désormais officiellement entré dans sa prochaine phase de production.

Points clés et tendances
Plusieurs évolutions majeures se sont dégagées des annonces de la conférence d’ouverture et des conversations plus larges autour du centre de congrès.
L’inférence devient centrale
L’industrie était centrée sur l’entraînement des modèles. Mais la conférence d’ouverture de Jensen Huang, PDG de NVIDIA, a clairement montré que les dynamiques économiques et les priorités évoluent vers l’inférence. Elle est continue, orientée sur l’utilisateur, et se développe de manière exponentielle avec l’adoption. Nous passons rapidement d’une IA qui réfléchit à une IA qui agit réellement.
Cela nous amène à la prochaine génération de plateformes informatiques. Nous faisons évoluer le SaaS vers un modèle fondé sur des agents offerts en tant que service, en introduisant des agents d’IA capables de raisonner, d’agir et d’exécuter des tâches au sein de différents flux de travail. Dans ce contexte, la confiance devient un facteur déterminant, puisque ces agents sont appelés à agir au nom des utilisateurs.
Avec l’accent marqué cette année sur les cadres sécurisés, il est clair que les agents doivent disposer de leur propre identité, d’une mémoire, et de mécanismes de confidentialité robustes pour être déployés de manière sûre à l’échelle de l’entreprise.

Un monde hybride entre systèmes ouverts et fermés
À l’avenir, les systèmes d’IA s’appuieront sur un équilibre fin entre plateformes ouvertes et fermées.
Nous observons un engouement croissant pour les modèles ouverts, puisqu’ils permettent de réduire le coût par jeton, d’améliorer le contrôle du déploiement et d’optimiser l’efficacité énergétique. Les entreprises peuvent s’appuyer sur ces modèles pour gagner en flexibilité et maîtriser leurs coûts, tout en réservant leurs modèles fermés de grande envergure aux tâches de raisonnement avancé et aux capacités de pointe.
Le réseau peut devenir le nouveau goulot d’étranglement
Comme l’a souligné Jensen Huang avec le déploiement des technologies Spectrum-X et NVLink, la topologie du réseau est devenue un élément critique.
Une topologie optimisée et des réseaux multi-plans capables de répartir de manière fluide le trafic de calcul et de stockage sont désormais essentiels pour atteindre l’efficacité et la scalabilité exigées par ces clusters de grande envergure.

L’évolution de l’échelle
Cela nous ramène à la réalité physique de la densité de puissance. Nous assistons à un passage majeur d’échelles en mégawatts à des clusters à l’échelle du gigawatt.
La terminologie évolue rapidement, car l’empreinte physique elle-même évolue. Nous ne construisons plus simplement des centres de données. Nous construisons des usines d’IA.
Ces usines s’étendent désormais en campus d’IA à l’échelle du gigawatt. À terme, nous nous dirigeons vers des réseaux électriques entiers dédiés exclusivement à l’IA.
La suite
Ceux qui prennent la tête de cette nouvelle ère sont ceux qui ont rapidement compris que l’énergie, le refroidissement, le réseau et la conception physique sont des couches de performance, et non de simples considérations secondaires.
La complexité technique liée au passage à des campus à l’échelle du gigawatt est bien réelle. Elle est multidimensionnelle et favorise ceux qui ont anticipé ces enjeux.
C’est précisément là que se positionne 5C. Les conversations amorcées lors du GTC se prolongeront dans les mois à venir, transformant des plans en infrastructures concrètes.
Si vous développez de l’IA à grande échelle et souhaitez échanger sur les prochaines étapes, contactez-nous ici.