Pour façonner l’avenir de l’IA d’entreprise, Google Cloud investit 75 milliards de dollars

Simferopol, Russia - July 9, 2014: Google biggest Internet search engine. Google.com domain was registered September 15, 1997.
Table des matières

Pour devenir un leader de l’IA d’entreprise, Google Cloud annonce un investissement massif de 75 milliards de dollars dans ses datacenters. Cette stratégie inclut le déploiement d’Ironwood, la nouvelle génération de puces TPU, et le lancement de Cloud WAN, un réseau mondial à haute performance. Ces initiatives renforcent la position de Google Cloud face à ses concurrents majeurs comme AWS et Microsoft.

 

L’agitation autour de l’intelligence artificielle propulse une course à l’innovation technologique inouïe. Ne comptant pas rester en marge, Google Cloud a déjà dévoilée diverses avancées innovantes. Celles-ci sont d’ailleurs conçues pour satisfaire les besoins les plus intensifs du marché de l’IA d’entreprise. Pour l’événement Next 2025, Google Cloud a encore affirmé son but de devenir un acteur important de l’IA. Elle a annoncé 75 milliards de dollars de financement dans ses datacenters. Sundai Pichai a expliqué le besoin d’une infrastructure performante (à faible latence) afin d’assister les avancées en IA. Cela inclut un socle existant de 200 centres de données et plus de 2 millions de kilomètres en fibre optique.

Ironwood propulse l’inférence IA à un nouveau sommet

La plus grande nouveauté dans ce contexte est le déploiement d’Ironwood, la septième génération de Tensor Processing Unit (TPU). Celle-ci est optimisée pour l’inférence, soit l’exécution des modèles d’IA.

Ces puces sont proposées en clusters, pouvant atteindre jusqu’à 9 126 unités, dépassant une puissance de calcul de 45,2 exaflops. D’autres éléments sont également intégrés :

  • SparseCore : un accélérateur pour les embeddings ;
  • Pathway : un runtime développé par DeepMind pour le calcul distribué.

Ironwood affiche des caractéristiques techniques intéressantes pour les besoins intensifs de l’IA :

  • 4,16 Tflops par puce ;
  • Jusqu’à 192 Go de mémoire HBM ;
  • Une bande passante interne de 7,2 To/s ;
  • Des transferts interpuces via la technologie ICI (1,2 To/s).

Dans un cadre comparatif, même sans confrontation directe avec les anciennes générations, Google Cloud annonce des gains nets au regard des TPU 5vp.

Cloud WAN comme réponse stratégique de Google Cloud

Concernant la connectivité, Google Cloud enrichit son offre avec Cloud WAN. Il s’agit d’un backbone international utilisé surtout pour ses services internes comme Youtube ou même Gmail. Les entreprises ayant des besoins critiques de connectivité inter-filiales ou inter-régionale peuvent l’utiliser.

S’appuyant sur une infrastructure robuste (33 câbles sous-marins, 202 points de présence), Cloud WAN présente des services. Cela inclut même Cross-Site Interconnect avec des connexions privées jusqu’à 100 Gbps.

Grâce à ces annonces, Google Cloud répond ainsi à la pression rivale des projets comme :

  • Stargate (OpenAI/Oracle/SoftBank) ;
  • Les avancées d’AWS (Trainium) ;
  • Microsoft (Maia 100).

Dans un contexte comparatif, cette stratégie permet de contrôler la chaîne pour s’imposer dans la concurrence à l’IA d’entreprise : du calcul à la connectivité.

Par ailleurs, malgré la mise en avant des puces maison, Google Cloud renforce ses collaborations :

  • Les instances A4 basées sur les accélérateurs Nvidia B200 (Blackwell) ;
  • Les A4X, encore plus puissantes.

Google Cloud annonce également qu’il sera le premier fournisseur à offrir les futurs GPU Rubin de Nvidia.

Cet article vous a-t-il été utile ?

Note moyenne 0 / 5. Votants: 0

Plus d'actualités

L’intelligence artificielle modernise la relation citoyenne

L’intelligence artificielle générative offre une opportunité de transformer les services publics français, souvent jugés lents et complexes. Elle promet une interaction plus fluide et personnalisée avec les usagers. Cependant, son déploiement efficace exige une réorganisation interne significative et une attention

Lire la suite »