
Nvidia avait finalement besoin de Groq
Nvidia vient d'annoncer lors de sa conférence annuelle GTC, au San Jose Convention Center, l'intégration de la technologie du fabricant de puces IA Groq dans ses systèmes de GPU. Cette collaboration vise spécifiquement à gérer des tâches d'inférence IA spécialisées, comme la génération de code — des tâches pour lesquelles les GPU de Nvidia ne s'avèrent pas suffisamment performants seuls.
C'est une admission tacite mais significative de la part du leader incontesté du marché des puces IA : ses GPU, malgré leur domination écrasante du secteur, présentent des limites sur certaines des charges de travail les plus critiques de l'IA moderne. L'inférence spécialisée est précisément le domaine où des architectures alternatives — comme celle de Groq avec ses LPU (Language Processing Units) — démontrent des avantages concurrentiels réels en termes de latence et de débit.
Ce qui rend l'annonce particulièrement frappante, c'est le contraste avec les déclarations passées du PDG Jensen Huang, qui avait tenu des propos ouvertement condescendants à l'égard de Groq en janvier dernier. Quelques semaines plus tard, Nvidia intègre officiellement sa technologie dans ses propres systèmes. La conférence elle-même illustre l'atmosphère de ferveur autour de l'entreprise : des robots humanoïdes accueillent les visiteurs, des sweaters à l'effigie de Jensen Huang s'arrachent, et le fournisseur cloud Nebius — spécialisé dans la location de GPU Nvidia — animait un bar avec des cocktails aux noms évocateurs comme le GPU Spritz ou le Ryes of the Machines.
Ce partenariat signal potentiellement un tournant dans la stratégie de Nvidia : plutôt que de prétendre à l'omnipotence de ses GPU, l'entreprise semble désormais prête à construire des systèmes hybrides pour répondre aux exigences croissantes et diversifiées des applications IA.


