Annonce
Annonce
Annonce
Annonce
HQ
© Qualcomm
Entreprises |

Qualcomm : Les AI200 et AI250 changent la donne de l’électronique de l'inférence IA des data centers

Qualcomm Technologies pousse les limites du calcul dans les centres de données en dévoilant dans un communiqué ses nouvelles solutions d’accélérateurs d’inférence IA : les AI200 et AI250. Alimentées par une technologie de puce avancée, ces cartes et racks offrent une performance rack-scale et une capacité mémoire hors normes, taillées pour l’inférence IA générative à grande échelle.

Cette optimisation électronique garantit un rapport performance/coût/consommation inédit pour l’industrie, ciblant tout particulièrement les workloads massifs liés aux modèles de langage et multimodaux (LLM/LMM).

Avancées technologiques : mémoire et architecture

Le modèle AI200 embarque une solution d’inférence IA dédiée au rack, intégrant jusqu'à 768 Go de mémoire LPDDR par carte, permettant une densité et une flexibilité mémoire impressionnantes. Ce choix technologique abaisse les coûts et augmente l’évolutivité pour des tâches IA de plus en plus gourmandes en données.

L’AI250 franchit un cap grâce à une architecture de mémoire innovante basée sur le near-memory computing : l’efficacité et la bande passante sont décuplées (plus de 10x l’existant), générant à la fois des accélérations de traitement et une baisse substantielle de la consommation énergétique. Ce design semi-conducteur autorise une exploitation décentralisée (disaggregated inference), favorisant la modularité matérielle et la réduction du gaspillage de ressources.

Performances rack-scale et refroidissement direct

Au-delà du cœur des puces, Qualcomm dote ses racks de fonctionnalités de haut vol : PCIe pour l’extension verticale, Ethernet pour le scale-out horizontal, et un refroidissement liquide direct pour gérer une puissance de 160 kW par rack. Cette approche garantit à la fois la stabilité thermique et la performance, même sous contraintes extrêmes, tout en maintenant la sécurité grâce au confidential computing pour protéger les workloads IA sensibles.

Logiciels et intégration : un écosystème IA ouvert

Les AI200 et AI250 s’appuient sur une stack logicielle hyperscaler, optimisée end-to-end pour l’inférence IA. La compatibilité complète avec les frameworks ML et IA majeurs, l’intégration native d’outils comme Hugging Face via la Qualcomm Efficient Transformers Library, et le Qualcomm AI Inference Suite facilitent l’adoption et le déploiement frictionless de modèles entraînés. 

Les développeurs bénéficient d’applications, d’agents IA, d’APIs et de services prêts à l’emploi, accélérant le time-to-market des solutions IA sur ces racks.

Une feuille de route annuelle pour l’innovation des semi-conducteurs

Qualcomm confirme sa stratégie de cadence annuelle pour l’innovation en data center IA : l’AI200 est prévu pour 2026, l’AI250 pour 2027. Cette roadmap ambitionne d’élever sans cesse la barre en performance d’inférence, efficacité énergétique et TCO, pour les architectures électroniques du futur. 

Selon Durga Malladi, SVP et GM de Qualcomm Technologies, « avec AI200 et AI250, nous redéfinissons les standards rack-scale et donnons aux entreprises le pouvoir de déployer l’IA générative de façon flexible et sécurisée ».


Annonce
Annonce
Plus d’actualités
© 2025 Evertiq AB November 06 2025 6:43 pm V25.4.5-2