Les puces Azure Maia 100 et Cobalt 100 sont les deux premières puces maison de Microsoft et elles sont conçues pour son infrastructure Cloud.
Cette fois, la guerre des puces d’IA a vraiment commencé ! Lors de sa conférence Microsoft Ignite 2023 le 16 novembre dernier, le géant de Redmond a officiellement dévoilé qu’il allait désormais produire ses propres puces pour alimenter sa plateforme Azure, son assistant IA Copilot et le chatbot ChatGPT d’OpenAI. La puce Azure Maia 100 sera principalement utilisée pour entraîner des modèles IA et commencera à être déployée dans les centres de données Azure début 2024, réduisant ainsi la dépendance de l’entreprise aux GPU H100 de Nvidia.
Microsoft souhaite réduire sa dépendance envers ses concurrents pour ses centres de données…
We are announcing new innovations across our datacenter fleet, including the latest AI optimized silicon from our industry partners and two new Microsoft-designed chips. #MSIgnite https://t.co/5488N3pkKG pic.twitter.com/XeO0PDHAiR
— Microsoft (@Microsoft) November 15, 2023
Ces nouvelles puces spécialisées dans l’IA arrivent alors que l’approvisionnement en GPU Nvidia H100, les puces avancées utilisées notamment pour entraîner ChatGPT, devient un véritable challenge à cause du succès de celles-ci. Le PDG d’OpenAI, Sam Altman, a déclaré : « L’architecture IA de bout en bout de Microsoft Azure, désormais optimisée jusqu’aux puces avec la Maia 100, ouvre la voie à la formation de modèles IA plus performants et à la réduction du coût de ces modèles pour nos clients ».
Le géant de Redmond va également produire la puce Azure Cobalt 100, qui sera le processeur Arm le plus avancé du marché. Les processeurs Cobalt 100 alimenteront les plus grands superordinateurs d’intelligence artificielle au monde, ce qui nécessite un matériel assez avancé. Microsoft a jusqu’à présent dépensé une fortune en GPU Nvidia et souhaite désormais mieux maîtriser les coûts en utilisant son propre hardware. La plateforme Azure de Microsoft a besoin d’environ 30 000 GPU pour alimenter ChatGPT et une puce Nvidia H100 coûte aux alentours de 25 000 $. Pour info, l’entreprise a déboursé près de 10 milliards de dollars l’été dernier pour répondre à la demande de calcul lié à l’IA.
Mais la grande question que tout le monde se pose désormais est : est-ce que ces nouvelles puces de Microsoft peuvent rivaliser avec les GPU de Nvidia ? Ces dernières sont très convoitées parce qu’elles sont incroyablement difficiles à développer et produire. Nvidia bénéficie de décennies d’expérience et d’une avance conséquente sur ses concurrents. Il faudra donc attendre encore un peu pour voir si les puces Azure Maia 100 et Cobalt 100 offrent des rapports coûts/performances plus intéressants…
D’un autre côté, le géant de Redmond a également annoncé qu’il renforçait son partenariat avec son concurrent. En effet, Microsoft va héberger sur sa plateforme Azure le nouveau constructeur de modèles d’IA générative de Nvidia pour les entreprises. Les deux entreprises ne veulent donc pas enterrer complètement leur relation.