Nvidia double en bas sur l’IA

0
612

Zero

AI observateurs de l’industrie et de ZDNet lecteurs savent Nvidia est devenu un mastodonte dans le monde du GPU basé sur l’apprentissage en profondeur et l’intelligence artificielle (IA). Et aujourd’hui, NVIDIA chef de la direction Jensen Huang est à l’aide de son discours à la société de la GPU Technology Conference (GTC) de l’événement pour annoncer des améliorations significatives de NVIDIA GPU matériel et les performances de la plateforme.

Lire aussi: NVIDIA se transforme à partir des graphiques et des jeux de l’AI et de l’apprentissage en profondeur
Lire aussi: NVIDIA balançoires pour l’IA des clôtures

NVIDIA a également des actualités dans le domaine des véhicules autonomes et professionnels de visualisation (lire: les graphiques) et mon ZDNet collègue Asha McLean a tous les détails sur ces deux fronts:

Lire aussi: Nvidia redéfinit véhicule autonome des tests avec VR système de simulation
Lire aussi: Nvidia étend ‘cinématographique de qualité de rendu de l’image de la capacité au-delà du jeu

Ce poste, le temps que mettra l’accent sur la NVIDIA AI/apprentissage en profondeur annonces liées, qui se répartissent en trois domaines:

Les mises à niveau de la Tesla V100 centre de données GPU de la plateforme (et de produits de matériel basé sur des améliorations Logicielles qui améliorent les performances de l’accélération GPU de la profonde basée sur l’apprentissage inferenceA nouveau partenariat avec le BRAS qui permettra d’intégrer Nvidia Apprentissage en Profondeur la technologie de l’Accélérateur dans les BRAS en fonction de Tes puces

Doublez votre plaisir
La très grande nouvelle est dans le noyau de la technologie elle-même: Tesla V100 Gpu seront équipés avec 32 go de mémoire, ce qui double la précédente capacité maximale de 16 go. Plus de mémoire signifie plus de plus grand, de plus profond, l’apprentissage en profondeur les modèles peuvent être pris en compte, ce qui signifie une plus grande précision dans les modèles prédictifs de la puissance.

La nouvelle technologie GPU est disponible immédiatement sur la Nvidia propre DGX systèmes. En outre, les fabricants de Cray, HP Enterprise, IBM, Lenovo, Supermicro et de Tyane sera de rouler dans leurs propres produits au cours du deuxième trimestre de 2018 année civile.

Nouveau GPU de commutation et 2 PF serveur
Un deuxième élément majeur dans l’amélioration de la plate-forme est l’introduction de NVSwitch, une mise à l’échelle de Nvidia NVLink technologie d’interconnexion, Nvidia affirme offre 5x la bande passante de même le meilleur PCIe commutateurs, permettant à plus de Gpu d’être interconnectés. En conséquence, de plus grands ensembles de données peuvent être logés et des réseaux de neurones peuvent être formés dans un parallélisée de la mode.

Le 32 GO GPU et NVSwitch annonces sont impressionnants sur le plan individuel. Mais les technologies sont combinées dans une mise à jour de Nvidia DGX-1 serveur. Le nouveau serveur, surnommé (assez raisonnablement) DGX-2, de sports 16 de la nouvelle V100 Gpu pour un total de 512 go de mémoire, 16 Gpu part comme un seul espace mémoire, grâce à NVSwitch. Nvidia affirme que le DGX-2 est le premier au monde à 2 PetaFLOP (2 x 10^15 opérations en virgule flottante par seconde) et “est spécialement conçu pour les données scientifiques repousser les limites extérieures de l’apprentissage en profondeur de la recherche et de l’informatique.”

Au-delà de profondeur les applications d’apprentissage, le nouveau 32 GO Gpu fonctionnent bien dans une variété de de de calcul haute performance (HPC) de scénarios. À cette fin, Nvidia met à jour ses CUDA, TensorRT, NCCL et cuDNN logiciel ainsi que ses Isaac robotique SDK.

L’inférence de l’amélioration de la
Ladite TensorRT software, est un apprentissage en profondeur de l’inférence de l’optimiseur et de l’exécution. TensorRT 4, la version mise à jour, fournit jusqu’à 190x performance plus rapide que le PROCESSEUR basé sur l’inférence, selon Nvidia.

La société a également travaillé pour intégrer TensorRT avec les principaux profonde des cadres d’apprentissage, y compris Google TensorFlow, Microsoft CNTK, Facebook est Caffe 2 et d’autres ONNX cadres comme des programmes de chaînage, Apache MXNet et PyTorch. Nvidia et Google ont annoncé qu’ils ont intégré le Tenseur de RT dans TensorFlow 1.7, la prestation de 8x supérieur de l’inférence de débit par rapport à la régulière GPU d’exécution.

D’autres TensorRT intégrations inclure Microsoft WinML, Kubernetes et MathWorks’ vaillants logiciel MATLAB.

Une jambe, le BRAS
Le dernier morceau de NVIDIA IA liés à de nouvelles préoccupations de la société nouveau partenariat avec une autre puce de l’industrie des poids lourds: le BRAS. Nvidia Apprentissage en Profondeur de l’Accélérateur (NVDLA), que la société open source en octobre de l’année dernière, est en cours d’intégration dans le BRAS Projet Trillium machine de plate-forme d’apprentissage, et sur sa conception de puces pour les périphériques d’extrémité.

Le BRAS ne fait pas de jetons; au contraire, il les licences de la conception de puces pour les fabricants de puces. L’intégration de NVDLA dans Trillium signifie qu’un vaste tableau de l’Internet des objets (IoT) appareils bénéficient de la NVDLA de l’optimisation des performances, ce qui facilitera la haute performance de l’IA dans l’Ido et d’autres périphériques d’extrémité. L’IA au bord réduit considérablement les données de mouvement et rend l’Ido appareils de plus en plus intelligents.

Le projet de loi de Matériaux
Ce post, comme avec les précédents, j’ai écrit sur Nvidia, est tout à fait la liste de blanchisserie de nouvelles fonctionnalités et technologies. Je préfère m’imprégner des nouvelles-piloté postes avec un peu plus de fond et d’analyse que j’ai eu le temps et l’espace pour fournir ici. C’est un peu un reflet de ce qui se passe dans le GPU terre: amélioration rapide de matériel, pionnier de l’écosystème de partenariats, nécessitant un tas d’effort pour comprendre ce que tous ces nouveaux développements, sans parler de ce qu’ils signifient.

Nvidia est sagement en prenant tout le territoire et la part de marché comme il peut. Finalement, sa primauté sera institutionnalisé et nous allons être en mesure de ralentir et regarder tout ce trucs cool appliquée dans des scénarios d’Entreprise. Jusqu’alors, il nous suffit de suivre l’actualité.

Rubriques Connexes:

Transformation Numérique

CXO

L’Internet des objets

L’Innovation

Des Logiciels D’Entreprise

Les Smart Cities

0