Qualcomm annonce des puces d’intelligence artificielle pour concurrencer AMD et Nvidia

Qualcomm annonce des puces d’intelligence artificielle pour concurrencer AMD et Nvidia

Qualcomm annonce des puces d’intelligence artificielle pour concurrencer AMD et Nvidia

Qualcomm Elle a annoncé lundi qu’elle lancerait de nouvelles puces pour accélérer l’intelligence artificielle, marquant ainsi une nouvelle concurrence pour… Nvidiaqui a jusqu’à présent dominé le marché des semi-conducteurs d’intelligence artificielle.

Le titre a augmenté de 11% après cette nouvelle.

Les puces IA représentent un changement par rapport à Qualcomm, qui s’est jusqu’à présent concentré sur les semi-conducteurs pour la connectivité sans fil et les appareils mobiles, et non sur les centres de données massifs.

Qualcomm a déclaré que l’AI200, qui sera mis en vente en 2026, et l’AI250, prévu pour 2027, pourraient être intégrés dans un système remplissant un rack de serveur complet refroidi par liquide.

Qualcomm correspond à celui de Nvidia DMLAqui propose ses unités de traitement graphique, ou GPU, dans des systèmes full rack permettant à jusqu’à 72 puces de fonctionner comme un seul ordinateur. Les laboratoires d’IA ont besoin de cette puissance de calcul pour exécuter les modèles les plus avancés.

Les puces des centres de données de Qualcomm sont basées sur les composants d’IA trouvés dans les puces des smartphones de Qualcomm, appelés Hexagon Neural Processing Units, ou NPU.

“Nous voulions d’abord faire nos preuves dans d’autres domaines, et une fois que nous avons développé notre force là-bas, il nous a été très facile de passer au niveau des centres de données”, a déclaré Durga Maladi, directeur général des centres de données et de la périphérie chez Qualcomm, lors d’un appel avec des journalistes la semaine dernière.

L’entrée de Qualcomm dans le monde des centres de données représente une nouvelle concurrence sur le marché à la croissance la plus rapide de la technologie : l’équipement pour de nouvelles fermes de serveurs axées sur l’intelligence artificielle.

Près de 6 700 milliards de dollars de dépenses en capital seront consacrés aux centres de données d’ici 2030, dont la plupart seront consacrés à des systèmes basés sur des puces d’IA, selon les estimations de McKinsey.

Nvidia a dominé le secteur, avec ses GPU détenant jusqu’à présent plus de 90 % du marché et ses ventes ayant propulsé l’entreprise à une valeur marchande de plus de 4 500 milliards de dollars. Les puces de Nvidia ont été utilisées pour entraîner les GPT d’OpenAI, qui sont les grands modèles de langage utilisés dans ChatGPT.

Mais des entreprises comme OpenAI recherchent des alternatives et, plus tôt ce mois-ci, la startup a annoncé son intention d’acheter des puces au deuxième fabricant de GPU AMD, et éventuellement de prendre une participation dans l’entreprise. D’autres sociétés comme Google, Amazone et Microsoftdéveloppe également ses propres accélérateurs d’IA pour ses services cloud.

Qualcomm a déclaré que ses puces se concentrent sur l’inférence, ou sur l’exécution de modèles d’IA, plutôt que sur la formation, et c’est ainsi que des laboratoires comme OpenAI créent de nouvelles capacités d’IA en traitant des téraoctets de données.

Le fabricant de puces a déclaré que ses systèmes à l’échelle du rack coûteraient finalement moins cher à des clients tels que les fournisseurs de cloud, et que le rack utilisait 160 kilowatts, ce qui est similaire à la consommation d’énergie plus élevée de certains racks GPU Nvidia.

Qualcomm vendra également ses puces IA et d’autres pièces séparément, en particulier aux clients comme les scale-up qui préfèrent concevoir leurs propres racks, a déclaré Mladi. D’autres sociétés de puces IA, telles que Nvidia ou AMD, pourraient devenir clients pour certaines parties du centre de données de Qualcomm, telles que l’unité centrale de traitement ou l’unité centrale de traitement (CPU), a-t-il déclaré.

“Ce que nous avons essayé de faire, c’est de nous assurer que nos clients sont en mesure de tout prendre ou de dire : ‘Je vais mélanger et assortir'”, a déclaré Malladi.

La société a refusé de commenter le prix des puces, des cartes ou du rack, ainsi que le nombre de NPU pouvant être installées dans un rack. En mai, Qualcomm a annoncé un partenariat avec Humain en Arabie Saoudite pour fournir des puces d’inférence d’IA aux centres de données de la région. L’entreprise sera client de Qualcomm et s’engagera à déployer le plus grand nombre possible de systèmes pouvant utiliser 200 mégawatts d’énergie.

Qualcomm a déclaré que ses puces IA présentent des avantages par rapport aux autres accélérateurs en termes de consommation d’énergie, de coût de possession et d’une nouvelle approche de la gestion de la mémoire. Il a déclaré que ses cartes AI prennent en charge 768 Go de mémoire, ce qui est supérieur aux offres de Nvidia et AMD.

La conception par Qualcomm du serveur AI appelé AI200.

Qualcomm

Icône du graphique boursierIcône du graphique boursier

Masquer le contenu

Graphique boursier Qualcomm pour une journée.

Source link