Nvidiaa abandonné quelques nouvelles avancées technologiques pour l'informatique aujourd'hui, alors que la société a annoncé l'arrivée de l'architecture GPU Nvidia Hopper, une nouvelle plate-forme que la société appelle la « nouvelle génération de calcul accéléré ». Le Hopper est le successeur officiel de la série Ampere, cette nouvelle plate-forme devant offrir des performances phénoménales par rapport à son prédécesseur.
Le H100, le premier GPU construit sur l'architecture Hopper, s'appuie sur cette nouvelle plate-forme. Voici quelques-unes des fonctionnalités de cette nouvelle carte :
- La puce la plus avancée au monde — Construite avec 80 milliards de transistors à l'aide d'un processus TSMC 4N de pointe conçu pour les besoins de calcul accélérés de NVIDIA, la H100 présente des avancées majeures pour accélérer l'IA, le HPC, la bande passante mémoire, l'interconnexion et la communication, y compris près de 5 téraoctets par seconde de puce externe. connectivité. Le H100 est le premier GPU à prendre en charge PCIe Gen5 et le premier à utiliser HBM3, permettant une bande passante mémoire de 3 To/s. Vingt GPU H100 peuvent supporter l'équivalent du trafic Internet mondial, permettant ainsi aux clients de fournir des systèmes de recommandation avancés et de grands modèles de langage exécutant des inférences sur les données en temps réel.
- Nouveau moteur de transformateur— Désormais le modèle standard de choix pour le traitement du langage naturel, le Transformer est l'un des modèles d'apprentissage en profondeur les plus importants jamais inventés. Le Transformer Engine de l'accélérateur H100 est conçu pour accélérer ces réseaux jusqu'à 6 fois par rapport à la génération précédente sans perte de précision.
- GPU multi-instance sécurisé de 2e génération — La technologie MIG permet de partitionner un seul GPU en sept instances plus petites et entièrement isolées pour gérer différents types de tâches. L'architecture Hopper étend les capacités MIG jusqu'à 7 fois par rapport à la génération précédente en offrant des configurations mutualisées sécurisées dans des environnements cloud sur chaque instance GPU.
- Informatique confidentielle — H100 est le premier accélérateur au monde doté de capacités informatiques confidentielles pour protéger les modèles d'IA et les données des clients pendant leur traitement. Les clients peuvent également appliquer l'informatique confidentielle àapprentissage fédérépour les secteurs sensibles à la confidentialité comme les soins de santé et les services financiers, ainsi que sur les infrastructures cloud partagées.
- NVIDIA NVLink de 4e génération — Pour accélérer les plus grands modèles d'IA, NVLink s'associe à un nouveau commutateur NVLink externe pour étendre NVLink en tant que réseau évolutif au-delà du serveur, connectant jusqu'à 256 GPU H100 avec une bande passante 9 fois plus élevée que la génération précédente utilisant NVIDIA. HDR Quantique InfiniBand.
- Instructions DPX— Les nouvelles instructions DPX accélèrent la programmation dynamique — utilisée dans un large éventail d'algorithmes, notamment l'optimisation des itinéraires et la génomique — jusqu'à 40 fois par rapport aux processeurs et jusqu'à 7 fois par rapport aux GPU de la génération précédente. Cela inclut l'algorithme Floyd-Warshall pour trouver des itinéraires optimaux pour les flottes de robots autonomes dans des environnements d'entrepôt dynamiques, et l'algorithme Smith-Waterman utilisé dans l'alignement des séquences pour la classification et le repliement de l'ADN et des protéines.
Le H100 a déjà bénéficié d'un large soutien dans l'ensemble du secteur grâce à la technologie cloud, notamment Alibaba Cloud, Amazon Web Services, Baidu AI Cloud, Google Cloud, Microsoft Azure,Oracle-Cloudet Tencent Cloud, qui prévoit de proposer des instances basées sur H100. Nous avons hâte de voir également les applications de l'architecture GPU Nvidia Hopper pour les jeux, car cela devrait propulser le développement vers de nouveaux sommets.
Source:Nvidia