Petit monstre de technologie, la puce Nvidia A100 est aujourd’hui un élément de hardware indispensable aux développeurs d’intelligences artificielles. Elle est toutefois très onéreuse et les responsables de projets doivent généralement en acquérir un certain nombre.
Un marché contrôlé par Nvidia
Ces derniers temps, de petites sociétés se sont illustrées comme OpenAI avec DALL-E et ChatGPT ou encore Midjourney avec l’IA du même nom. Cependant, les GAFAM tentent de les concurrencer, notamment Google qui a récemment mis au point l’IA MusicLM, capable de générer des mélodies à l’aide de descriptions sous forme de texte. Citons également Facebook avec BlenderBot 3 et Microsoft avec CaptionBot.
Dans un article du 23 février 2023, la CNBC explique qu’un élément de hardware très onéreux est aujourd’hui incontournable dans le développement des intelligences artificielles. Il s’agit de la Nvidia A100, dont la valeur unitaire est de 10 000 dollars. Or, le géant de la tech Nvidia contrôle aujourd’hui pas moins de 95 % du marché des processeurs graphiques permettant de mener des projets en lien avec l’apprentissage automatique.
La puce Nvidia A100 a la capacité d’effectuer simultanément un grand nombre de calculs simples, ce qui intéresse les développeurs. Par ailleurs, il n’est pas forcément nécessaire de l’acheter, car il est possible de louer de la puissance de calcul grâce au cloud. Nvidia propose également le DGX A100, une sorte de tour de PC intégrant huit puces A100 (voir ci-après), un système dont les performances sont aussi disponibles sur le cloud.
D’énormes quantités de données à traiter
À l’origine, la Nvidia A100 a été développée comme une carte graphique pour une utilisation simple. En effet, l’objectif initial était d’en équiper les PC afin d’assurer l’affichage de graphismes exigeants en matière de jeux vidéo. Toutefois, la puce travaille aujourd’hui en équipe, au sein de centres de données rassemblant des centaines, voire des milliers de puces similaires. Il faut dire que l’énorme puissance de calcul dont il est ici question sert à passer en revue une quantité astronomique de données, qu’il s’agisse de détection de patterns (ou motifs récurrents) ou encore de la génération d’image ou de texte en elle-même.
Ainsi, il ne fait aucun doute que la société Nvidia est assise sur une mine d’or, puisque les firmes développant des IA peuvent dépenser des milliards. C’est surtout vrai pour les firmes désirant développer des IA à l’échelle d’un moteur de recherche comme Google ou Microsoft (Bing). Toutefois, Nvidia commence à regarder dans le rétroviseur, car ses concurrents se réveillent. C’est notamment le cas des habituels AMD et Intel, mais aussi de géants tels que Google et Amazon qui développent désormais leurs propres puces.