Le GTC d’automne montre à qui Nvidia se soucie vraiment • Le registre

UN V Lors de la conférence sur la technologie GPU de cette semaine, Nvidia a fait quelque chose que nous n’avons pas beaucoup vu de la part du concepteur de puces ces derniers temps : innover un produit de consommation.

Pour le géant de la technologie de plus en plus obsédé par les entreprises, GTC concerne de moins en moins les GPU pour les joueurs et tout ce qui a à voir avec la capitalisation sur les marchés nouveaux et émergents, tels que l’IA, la robotique, les véhicules autonomes et le métaverse toujours en vogue. Par métaverse, nous entendons dans ce contexte des mondes de réalité virtuelle 3D dans lesquels vous pouvez communiquer et collaborer avec des simulations, des applications et les uns avec les autres.

Le PDG de Nvidia, Jensen Huang, vêtu de sa veste en cuir signature, est monté sur scène – ou est holodeck? nous ne sommes pas sûrs – d’en révéler un trio des cartes graphiques de la série RTX 40 alimentées par l’architecture Ada Lovelace de ses ingénieurs.

Pour beaucoup de ceux qui ont écouté le discours d’ouverture de près d’une heure et 45 minutes de Huang, cette révélation a peut-être été la seule annonce solide et pertinente lors de l’événement de cet automne.

À l’aide d’une série de repères sélectionnés, Huang s’est vanté des améliorations de performances du RTX 4090 et 4080 cartes graphiques par rapport à leurs prédécesseurs. Le concepteur de puces a déclaré que le RTX 4090 offrira des performances 2 à 4 fois supérieures à celles du précédent produit phare de la société, le 3090 TI, lancé ce printemps.

Ensuite, il y a le prix de ces nouvelles unités RTX. Les cartes sont parmi les plus chères de Nvidia à ce jour. À 899 $ pour le 12 Go 4080 et 1 199 $ pour la version 16 Go, les cartes coûtent entre 200 $ et 500 $ de plus que le 3080 lors de son lancement deux ans plus tôt. Le fluage des prix sur le 4090 n’est pas si grave. À 1 599 $, c’est environ 100 $ de plus que lorsque le 3090 a fait ses débuts en 2020.

S’exprimant lors d’une conférence de presse mercredi, Huang a défendu l’augmentation, arguant que les améliorations de performances et les fonctionnalités ont plus que compensé le prix plus élevé. Il a affirmé que l’augmentation des prix était en outre justifiée par des coûts de production et de matériaux plus élevés.

“Une plaquette de 12 pouces est beaucoup plus chère aujourd’hui qu’hier, et ce n’est pas un peu plus cher, c’est une tonne plus cher”, a-t-il déclaré, ajoutant que “notre performance avec Ada Lovelace est monumentalement meilleure”.

Mais à part les nouvelles cartes, que Huang a passées en moins de deux minutes à détailler, c’était le retour aux affaires comme d’habitude. Voici un récapitulatif des plus grandes annonces de Nvidia sur GTC.

Retour à un modèle à double architecture

Les 15 minutes environ précédant l’annonce de RTX ont été consacrées à la nouvelle architecture Ada Lovelace de Nvidia, le concepteur de puces revenant une fois de plus à un modèle à double architecture.

Avant Nvidia annoncé L’architecture Hopper alimentera les processeurs HPC et AI de l’entreprise, tels que : le H100tandis que l’architecture Ada Lovelace alimentera les puces graphiques de Nvidia.

Du nom du mathématicien du XIXe siècle, Ada Lovelace Architecture est construit sur des TSMC Processus 4N et comprend les cœurs de traçage de rayons en temps réel de troisième génération de NV et les cœurs Tensor de quatrième génération.

Il y a donc la séparation : Hooper s’est concentré principalement sur le calcul haute performance et les grandes charges de travail d’IA, et Lovelace s’est concentré principalement sur tout le reste, des GPU de serveur cloud aux cartes de jeu.

Ce n’est pas la première fois que Nvidia utilise un modèle à double architecture. Il y a deux générations, les puces de centre de données de Nvidia, telles que la V100, utilisaient l’architecture Volta. Pendant ce temps, les puces grand public et graphiques, la série RTX 2000 et la famille Quadro RTX, par exemple, utilisaient la microarchitecture Turing.

En plus des pièces de la série RTX 40 de Nvidia, Ada Lovelace alimentera également les cartes de station de travail de la série RTX 6000 de Nvidia et les GPU du centre de données L40. Contrairement à Hopper, cependant, Huang affirme que la nouvelle architecture est conçue pour relever une nouvelle génération de défis graphiques, notamment l’essor du cloud gaming et du métaverse. D’une manière ou d’une autre, ils ont besoin de puces graphiques pour représenter ces environnements en temps réel – le cloud gaming est l’endroit où le jeu est principalement rendu dans un backend et diffusé en direct sur Internet vers un écran devant l’utilisateur, comme un ordinateur portable ou un téléphone. Cela évite aux joueurs d’acheter et de mettre à niveau des plates-formes de jeu et/ou de les emmener partout.

“En Chine, le cloud gaming va être très important et la raison en est qu’il y a un milliard de téléphones que les développeurs de jeux ne savent plus faire fonctionner”, a-t-il déclaré. “La meilleure façon de résoudre ce problème est le jeu en nuage. Vous pouvez obtenir des graphiques intégrés et vous pouvez atteindre les appareils mobiles. “

Le métaverse mais en tant que service

Cependant, Ada Lovelace ne se limite pas aux applications de cloud gaming. Nvidia positionne l’architecture comme le cheval de bataille de sa première offre de logiciel en tant que service, qui, selon elle, donne aux clients un accès à la pile matérielle et logicielle Omniverse à partir du cloud.

Nuage omnivers fournit les ressources informatiques et logicielles à distance nécessaires pour exécuter des applications métavers à la demande, à partir du cloud. L’idée est que toutes les entreprises ne voudront pas ou n’auront même pas le budget pour dépenser des millions de dollars sur l’un des SuperPods OVX de Nvidia pour fournir ce niveau de simulation et de rendu si le métaverse va réellement quelque part. Au lieu de cela, ils peuvent créer leurs métaverses dans Omniverse Cloud.

Pour l’instant, Nvidia semble courtiser les principaux partenaires logistiques, manufacturiers et industriels, promettant de les aider à construire et à visualiser des jumeaux numériques. Ces jumeaux sont des simulations à grande échelle – chaque simulation est liée au monde réel, utilisant des données et une modélisation réelles – et présentées comme un moyen de tester et de valider des conceptions, des processus et des systèmes dans un monde virtuel avant d’être déployés dans le monde réel.

Oui, c’est de la modélisation et de la simulation plus luxueuses, mais avec du nouveau silicium, de l’interactivité, de la réalité virtuelle et des factures.

Bien qu’Omniverse Cloud soit la première incursion de Nvidia dans les services cloud gérés, ce ne sera pas la dernière, a déclaré Huang, qui a déclaré que sa société évaluait un modèle similaire pour ses autres plates-formes logicielles.

Voitures plus intelligentes, robots

Nvidia ne veut pas seulement alimenter les jumeaux numériques des entrepôts et des usines des clients. Lors du discours d’ouverture, Huang a également détaillé une multitude de matériels conçus pour tout alimenter, des robots autonomes aux voitures.

Huang a parlé Conduire ThorLa plate-forme informatique tout-en-un de Nvidia conçue pour remplacer la multitude de systèmes informatiques utilisés dans les véhicules aujourd’hui.

La technologie fera ses débuts en Chine, où Nvidia affirme qu’elle alimentera les véhicules Zeekr et Xpeng 2025 et le service de taxi autonome de QCraft. C’est, bien sûr, si les restrictions américaines à l’exportation ne sont pas resserrées au point où Nvidia ne peut plus être à la hauteur – une perspective que Huang a minimisée lors de la conférence de presse de mercredi.

Pendant ce temps, pour alimenter les sbires robotiques se précipitant aux côtés des travailleurs humains, Nvidia a montré son IGX et Orin Nano plates-formes.

IGX est basé sur les modules système sur système industriel Orin AGX annoncés précédemment par Nvidia, mais ajoute une mise en réseau à haut débit. Selon Nvidia, l’une des premières applications de la carte concernera les robots chirurgicaux. Pendant ce temps, les modules Jetson Orin Nano de Nvidia sont conçus pour s’attaquer aux applications moins exigeantes.

Modèles dans les principales langues pour les masses

Comme pour les GTC précédents, les logiciels ont dominé une partie importante du discours d’ouverture. Deux des plus grandes versions de l’événement de cet automne étaient les services de modèle de langage large (LLM) de Nvidia appelés NeMo et BioNeMo.

Les services visent à faciliter l’utilisation des LLM pour les chercheurs en IA et les biologistes qui souhaitent extraire des informations à partir d’ensembles de données complexes. Les services permettent aux clients de connecter leurs données existantes à des modèles de base personnalisables avec un minimum d’effort. Par exemple, BioNeMo pourrait être utilisé pour accélérer la recherche sur le repliement des protéines, a-t-il été suggéré.

Chaque entreprise, dans chaque pays, parlant toutes les langues, possède probablement des dizaines de compétences différentes que leur entreprise pourrait adapter à notre modèle de grande langue pour effectuer

Cependant, si nous regardons au-delà du domaine médical, Huang s’attend à ce que les LLM soient largement applicables à la grande majorité des entreprises. “Mon sentiment est que toute entreprise, dans n’importe quel pays, qui parle n’importe quelle langue, possède probablement des dizaines de compétences différentes que son entreprise pourrait adapter à notre modèle linguistique principal pour commencer à performer”, a-t-il déclaré.

“Je ne sais pas exactement quelle est l’ampleur de cette opportunité, mais c’est potentiellement l’une des plus grandes opportunités logicielles de tous les temps.”

Trémie en production

Enfin, Nvidia a fourni une mise à jour sur le disponibilité de ses GPU Hopper H100 très attendus, qui, selon elle, sont entrés en production en volume et seront expédiés aux constructeurs de systèmes OEM le mois prochain.

Annoncés lors de l’événement Spring GTC de Nvidia, les GPU 700W promettaient des performances d’IA 6 fois supérieures à celles de l’A100 sortant grâce à la prise en charge du calcul en virgule flottante 8 bits. Pendant ce temps, Nvidia affirme que la puce offrira des performances 3 fois supérieures dans les calculs à double précision FP64 pour les applications HPC.

Cependant, ceux qui espèrent mettre la main sur les serveurs internes DGX H100 de Nvidia, avec leur technologie d’interconnexion personnalisée, devront attendre jusqu’au premier trimestre 2023, un trimestre complet plus tard que prévu.

Alors que Nvidia a blâmé la plus grande complexité du système DGX, un coupable probable est les processeurs Sapphire Rapids d’Intel utilisés dans les systèmes, qui seraient différé jusqu’à la fin du premier trimestre. ®

Leave a Reply

Your email address will not be published.