Les puces d'IA de Nvidia dépassent la loi de Moore

Paul Grieselhuber

Paul Grieselhuber

Jan 12, 2025

Jensen Huang, PDG de Nvidia, a fait une déclaration audacieuse : les performances des puces d'IA de Nvidia progressent à un rythme qui dépasse la référence historique établie par la loi de Moore. Cette déclaration, faite lors d'une interview avec TechCrunch au CES 2025, place Nvidia au centre de ce que Huang appelle une nouvelle ère "hyper loi de Moore", où les progrès du matériel d'IA dépassent de loin le rythme traditionnel de l'innovation informatique.

La loi de Moore, inventée par Gordon Moore, cofondateur d'Intel, en 1965, prévoyait que le nombre de transistors sur une puce doublerait environ tous les deux ans, doublant ainsi les performances. Cela s'est vérifié pendant des décennies, entraînant des gains exponentiels de puissance de calcul à des coûts décroissants. Mais ces dernières années, la loi de Moore s'est ralentie, ce qui a amené de nombreuses personnes à se demander si le rythme de l'innovation n'était pas en train de s'essouffler. Selon M. Huang, les progrès de Nvidia dans le domaine des puces d'intelligence artificielle s'accélèrent sur une trajectoire tout à fait différente.

M. Huang affirme que la capacité unique de l'entreprise à innover sur l'ensemble de la pile technologique - de l'architecture de la puce aux algorithmes - permet à Nvidia de dépasser les limites traditionnelles de mise à l'échelle du matériel. Lors de son discours au CES, il a présenté la dernière super puce de centre de données de Nvidia, la GB200 NVL72, affirmant qu'elle est 30 à 40 fois plus rapide que son prédécesseur, la H100, pour exécuter des charges de travail d'inférence d'IA.

L'accent mis sur l'inférence est essentiel. L'industrie de l'IA passe de la formation de modèles de langage massifs à l'optimisation de leurs performances dans le cadre d'une utilisation réelle, ce que l'on appelle l'inférence. L'exploitation efficace des modèles d'IA à grande échelle est coûteuse, et nombreux sont ceux qui se demandent si le coût de l'inférence ne risque pas d'en freiner l'adoption. Le modèle o3 de l'OpenAI, qui utilise un processus de calcul lourd (test-time compute) pendant l'inférence, a suscité des inquiétudes quant à son accessibilité en raison de ses coûts opérationnels élevés.

M. Huang pense toutefois que les puces de Nvidia résoudront ce problème. "Nos systèmes progressent bien plus vite que la loi de Moore", a-t-il déclaré. "La solution directe et immédiate pour le calcul en temps réel, à la fois en termes de performance et de coût abordable, est d'augmenter notre capacité de calcul. Selon lui, des puces plus rapides réduiront le coût de l'inférence au fil du temps, ce qui rendra les modèles d'IA avancés plus accessibles et plus évolutifs.

Ce discours s'aligne sur la stratégie commerciale plus large de Nvidia. Des entreprises comme OpenAI, Google et Anthropic s'appuient fortement sur les puces Nvidia pour alimenter leurs modèles, et la domination de Nvidia dans le domaine du matériel d'IA en a fait l'une des entreprises les plus précieuses au monde. Le message de M. Huang est clair : Nvidia n'est pas seulement en mesure de suivre les progrès de l'IA, mais aussi d'en être le chef de file.

Malgré cet optimisme, un certain scepticisme persiste. Les modèles d'IA qui s'appuient fortement sur le calcul en temps réel sont actuellement coûteux à exploiter. Par exemple, OpenAI aurait dépensé près de 20 dollars par tâche en utilisant o3 pour obtenir des résultats de niveau humain à un test d'intelligence générale - un contraste frappant avec l'abonnement mensuel de 20 dollars à ChatGPT Plus. Toutefois, M. Huang insiste sur le fait que les percées en matière de performances, telles que celles observées dans les dernières puces de Nvidia, rendront ces modèles plus abordables au fil du temps.

Ce n'est pas la première fois que Huang suggère que Nvidia dépasse la loi de Moore. En novembre dernier, dans un podcast, il a décrit les progrès rapides du matériel d'IA comme une forme d'"hyper loi de Moore". Au CES, il a réitéré ce message en soulignant les trois lois d'échelle de l'IA qui, selon lui, façonneront l'avenir du développement de l'IA : le pré-entraînement (où les modèles apprennent à partir de vastes ensembles de données), le post-entraînement (réglage fin des modèles pour des tâches spécifiques) et le calcul en temps réel (où les modèles de l'IA traitent les tâches en temps réel).

Pour Nvidia, l'accent mis sur le calcul en temps réel ne vise pas seulement à rendre l'IA plus efficace, mais aussi à remodeler fondamentalement l'économie de l'IA. "La même chose que la loi de Moore pour les coûts de calcul se produira pour l'inférence", a déclaré M. Huang. Le message sous-jacent est qu'avec l'amélioration des puces d'IA, l'exécution de modèles complexes comme o3 deviendra de plus en plus abordable, ce qui ouvrira de nouvelles possibilités pour l'adoption de l'IA dans les applications grand public et d'entreprise.

Rétrospectivement, M. Huang a indiqué que les puces d'IA de Nvidia sont aujourd'hui 1 000 fois plus puissantes qu'elles ne l'étaient il y a dix ans. C'est une affirmation stupéfiante qui témoigne du rythme de l'évolution du matériel d'IA. Le défi de Nvidia est maintenant de s'assurer que ses innovations ne restent pas seulement dans le domaine des entreprises technologiques haut de gamme, mais qu'elles deviennent accessibles aux entreprises et aux particuliers.

Chez Rendr, cette évolution du matériel d'IA touche une corde sensible. Au cours de l'année écoulée, nous avons vu de nos propres yeux comment les progrès des outils et de l'infrastructure de l'IA ont transformé la façon dont nous concevons les logiciels. Ce qui était au départ un scepticisme à l'égard du potentiel de l'IA dans le développement a rapidement évolué au fur et à mesure que nous intégrions l'IA dans notre flux de travail. Les résultats parlent d'eux-mêmes : des MVP plus rapides, des solutions plus complètes et, surtout, de meilleurs résultats pour nos clients.

Ce que Huang décrit comme "l'hyper loi de Moore" est quelque chose que nous avons expérimenté directement. Les outils disponibles aujourd'hui, alimentés par des puces comme celles de Nvidia, permettent aux membres de l'équipe qui ne sont pas ingénieurs de construire des solutions complexes avec l'IA, les développeurs jouant davantage le rôle de coachs que de codeurs traditionnels. Cette évolution vers un développement optimisé par l'IA ne fait que s'accélérer.

La promesse des dernières avancées de Nvidia - réduction du coût de l'inférence et augmentation des performances - suggère que les barrières à l'adoption de l'IA vont continuer à tomber. Si la vision de Huang se confirme, nous nous dirigeons vers un avenir où les solutions basées sur l'IA deviendront plus omniprésentes et plus accessibles que jamais. C'est un avenir auquel nous nous préparons activement chez Rendr, où l'IA n'est plus seulement un outil, mais une partie essentielle de la façon dont nous construisons, créons et innovons.

Références

  • Maxwell Zeff (2025). *Le PDG de Nvidia affirme que ses puces d'IA s'améliorent plus rapidement que la loi de Moore. Available online. Consulté le 12 janvier 2025.
  • Isaak Kamau (2024). Test-Time Compute Scaling : Comment faire en sorte qu'un LLM "réfléchisse plus longtemps" sur des problèmes plus difficiles comme le modèle o1 d'OpenAI. Moyen. Available online. Consulté le 12 janvier 2025.
  • Kif Leswing (2024). Nvidia double presque son chiffre d'affaires grâce à une forte demande en matière d'IA. CNBC. Available online. Consulté le 12 janvier 2025.
Paul Grieselhuber

Paul Grieselhuber

Founder, President

Paul has extensive background in software development and product design. Currently he runs rendr.

Réservez un appel de découverte avec nos experts produits.

Notre équipe d'experts en applications web et mobiles est impatiente de discuter avec vous de votre prochain projet.

Réservez un appel 👋