close
ActualitésInternetTéchnologies

La start-up de puces IA Groq décroche 640 millions de dollars pour défier Nvidia

Groq, une startup développant des puces pour exécuter des modèles d’IA génératifs plus rapidement que les processeurs conventionnels, a annoncé lundi avoir levé 640 millions de dollars lors d’un nouveau cycle de financement mené par Blackrock. Neuberger Berman, Type One Ventures, Cisco, KDDI et Samsung Catalyst Fund ont également participé.

La tranche, qui porte le total levé par Groq à plus d’un milliard de dollars et valorise l’entreprise à 2,8 milliards de dollars, constitue une victoire majeure pour Groq, qui cherchait à l’origine à lever 300 millions de dollars à une valorisation légèrement inférieure (2,5 milliards de dollars). Cela fait plus que doubler la valorisation précédente de Groq (~ 1 milliard de dollars) en avril 2021, lorsque la société a levé 300 millions de dollars lors d’un cycle dirigé par Tiger Global Management et D1 Capital Partners.

Yann LeCun, scientifique en chef de l’IA chez Meta, servira de conseiller technique à Groq et Stuart Pann, ancien responsable de l’activité de fonderie d’Intel et ancien CIO chez HP, rejoindra la startup en tant que directeur de l’exploitation, a également annoncé Groq aujourd’hui. La nomination de LeCun est un peu inattendue, compte tenu des investissements de Meta dans ses propres puces d’IA – mais elle donne sans aucun doute à Groq un allié puissant dans un espace acharné.

Groq, qui est sorti furtif en 2016, crée ce qu’il appelle un moteur d’inférence LPU (unité de traitement du langage). La société affirme que ses LPU peuvent exécuter des modèles d’IA génératifs existants dont l’architecture est similaire à celle de ChatGPT et GPT-4o d’OpenAI à une vitesse 10 fois supérieure et à un dixième de l’énergie.

La renommée du PDG de Groq, Jonathan Ross, contribue à inventer l’unité de traitement tensoriel (TPU), la puce accélératrice d’IA personnalisée de Google utilisée pour former et exécuter des modèles. Ross s’est associé à Douglas Wightman, entrepreneur et ancien ingénieur du laboratoire X Moonshot de la société mère de Google, Alphabet, pour cofonder Groq il y a près de dix ans.

Groq fournit une plate-forme de développement basée sur LPU appelée GroqCloud qui propose des modèles « ouverts » comme la famille Llama 3.1 de Meta, Gemma de Google, Whisper d’OpenAI et Mixtral de Mistral, ainsi qu’une API qui permet aux clients d’utiliser ses puces dans des instances cloud. (Groq héberge également un terrain de jeu pour les chatbots basés sur l’IA, GroqChat, qu’il a lancé à la fin de l’année dernière.) En juillet, GroqCloud comptait plus de 356 000 développeurs ; Groq indique qu’une partie des recettes du cycle sera utilisée pour augmenter la capacité et ajouter de nouveaux modèles et fonctionnalités.

Alors que le boom de l’IA générative se poursuit, Groq fait face à une concurrence croissante de la part des nouveaux concurrents en matière de puces d’IA et de Nvidia, le formidable opérateur historique du secteur du matériel d’IA.

Nvidia contrôle environ 70 à 95 % du marché des puces d’IA utilisées pour former et déployer des modèles d’IA génératifs, et l’entreprise prend des mesures agressives pour maintenir sa domination.

Nvidia s’est engagé à publier une nouvelle architecture de puce IA chaque année, plutôt que tous les deux ans comme c’était le cas historiquement. Et il serait en train de créer une nouvelle unité commerciale axée sur la conception de puces sur mesure pour les entreprises de cloud computing et autres, y compris le matériel d’IA.

Au-delà de Nvidia, Groq est en concurrence avec Amazon, Google et Microsoft, qui proposent tous – ou proposeront bientôt – des puces personnalisées pour les charges de travail d’IA dans le cloud. Amazon propose ses processeurs Trainium, Inferentia et Graviton, disponibles via AWS ; Les clients de Google Cloud peuvent utiliser les TPU susmentionnés et, à terme, la puce Axion de Google ; et Microsoft a récemment lancé des instances Azure en avant-première pour son processeur Cobalt 100, avec des instances Maia 100 AI Accelerator à venir dans les prochains mois.

Groq pourrait également considérer Arm, Intel, AMD et un nombre croissant de startups rivales, sur un marché des puces d’IA qui pourrait atteindre 400 milliards de dollars de ventes annuelles au cours des cinq prochaines années, selon certains analystes. Arm et AMD en particulier ont des activités de puces d’IA florissantes, grâce à la montée en flèche des dépenses en capital des fournisseurs de cloud pour répondre à la demande de capacité pour l’IA générative.

À la fin de l’année dernière, D-Matrix a levé 110 millions de dollars pour commercialiser ce qu’elle qualifie de première plate-forme de calcul d’inférence en son genre. En juin, Etched est sorti furtif avec 120 millions de dollars pour un processeur conçu sur mesure pour accélérer l’architecture de modèle d’IA générative dominante aujourd’hui, le transformateur. Masayoshi Son de SoftBank chercherait à lever 100 milliards de dollars pour une entreprise de puces afin de concurrencer Nvidia. Et OpenAI serait en pourparlers avec des sociétés d’investissement pour lancer une initiative de fabrication de puces IA.

Pour se tailler une niche, Groq investit massivement dans la sensibilisation des entreprises et du gouvernement.

En mars, Groq a acquis Definitive Intelligence, une société basée à Palo Alto proposant une gamme de solutions d’IA orientées entreprise, pour former une nouvelle unité commerciale appelée Groq Systems. Groq Systems est au service des organisations, notamment des agences gouvernementales américaines et des pays souverains, qui souhaitent ajouter les puces Groq aux centres de données existants ou construire de nouveaux centres de données utilisant les processeurs Groq.

Plus récemment, Groq s’est associé à Carahsoft, un entrepreneur informatique gouvernemental, pour vendre ses solutions à des clients du secteur public via les partenaires revendeurs de Carahsoft, et la startup a une lettre d’intention pour installer des dizaines de milliers de ses LPU chez la société européenne Earth Wind & Power en Norvège. centre de données.

Groq collabore également avec la société de conseil saoudienne Aramco Digital pour installer des LPU dans les futurs centres de données au Moyen-Orient.

En même temps qu’elle établit des relations avec ses clients, Groq, basée à Mountain View, en Californie, se dirige vers la prochaine génération de sa puce. En août dernier, la société a annoncé qu’elle passerait un contrat avec l’activité de fonderie de Samsung pour fabriquer des LPU 4 nm, qui devraient offrir des gains de performances et d’efficacité par rapport aux puces 13 nm de première génération de Groq.

Groq indique qu’il prévoit de déployer plus de 108 000 LPU d’ici la fin du premier trimestre 2025.

Tags : applicationseditor takefeaturedtechnologietechnologytrending
Sciences et Technologies