Amazon et OpenAI révolutionnent l’IA avec 38 milliards de dollars de puces Nvidia
Amazon Web Services (AWS) a annoncé dans un communiqué la signature d’un accord de 38 milliards de dollars avec OpenAI centré sur l’infrastructure électronique propulsée par des semi-conducteurs de pointe, principalement les puces Nvidia. Ce partenariat permettra à OpenAI d’accéder immédiatement à une puissance de calcul optimisée pour les tâches les plus complexes de l’intelligence artificielle, et d’envisager une montée en puissance jusqu’à des dizaines de millions de processeurs en quelques années.
Pour OpenAI, AWS déploiera ses EC2 UltraServers, regroupant des centaines de milliers de puces Nvidia GB200 et GB300 sur un seul réseau, offrant une faible latence et une connectivité directe entre les systèmes électroniques. Cette organisation technologique permet de traiter des volumes de données massifs tout en garantissant une efficacité maximale, essentielle pour les tâches d’inférence ou l’entraînement de nouveaux modèles IA.
Puces Nvidia : le levier incontournable des futurs modèles IA
La base technique de l’accord réside dans la fourniture de clusters composés de puces Nvidia évoluées, conçues spécifiquement pour supporter la montée en puissance de l’IA générative.
Le choix des GPU Nvidia, mondialement reconnus pour leurs performances et leur adaptabilité, répond à la demande croissante de calcul nécessaire aux modèles de pointe. Cette décision assure à OpenAI une flexibilité et une rapidité inédites dans le développement de ses agents intelligents.
Un déploiement massif et sécurisé pour franchir le cap du milliard de processeurs
L’accord prévoit que l’ensemble de la capacité sera opérationnelle d’ici fin 2026, avec des perspectives d’expansion en 2027 et au-delà. AWS, en tant que leader du cloud, mettra à disposition son expérience dans le déploiement sécurisé et fiable de clusters de semi-conducteurs, certains dépassant les 500 000 puces, pour garantir l’intégrité des données et la continuité de service.
Ce niveau d’expertise rassure quant à la capacité d’héberger les futurs modèles de ChatGPT et autres applications avancées.
Amazon Bedrock et l’avenir des modèles ouverts sur AWS
Ce partenariat s’inscrit dans une collaboration plus vaste, visant à rendre les fondations de modèles ouverts d’OpenAI accessibles sur Amazon Bedrock, et à proposer ces solutions de pointe à des milliers d’entreprises à travers le monde.
Parmi les clients majeurs, on compte des sociétés innovantes utilisant ces technologies pour le codage, la recherche scientifique, ou l’analyse de données complexes. AWS et OpenAI ambitionnent ainsi de démocratiser l’accès à des architectures informatiques sophistiquées, catalysées par les semi-conducteurs Nvidia.


