Rechnen auf der Grafikkarte
19.03.2019, 15:41 Uhr

NVIDIA bringt CUDA-X AI SDK

Grafikkarten sind optimiert für massive parallele Berechnungen. NVIDIA bringt mit dem CUDA-X AI SDK einen neuen Entwicklerkit für die GPU-beschleunigte Datenverarbeitung von KI-Anwendungen.
(Quelle: NVIDIA.com )
NVIDIA hat auf der GPU Technology Conferenz einen Entwicklerkit für die GPU-beschleunigte Datenverarbeitung sowie neue Bibliotheken für die beschleunigte Datenverarbeitung auf Grafik-Prozessoren (GPUs) angekündigt. Datenwissenschaftlern, die in den Bereichen Datenanalyse, maschinelles Lernen und Deep Learning arbeiten, verspricht NVIDIA mit dem neuen CUDA-X KI-Bibliotheken einen massiven Geschwindigkeitsschub. Als Hardware-Basis für die CUDA-X-Bibliotheken taugen die NVIDIA T4-Grafikprozessoren sowie das neue KI-Computer Jetson Nano von NVIDIA.
CUDA-X nutzt die Flexibilität von Tensor-Core-GPUs und beschleunigt:
  • Data Science-Anwendungen von der Datenaufnahme über die ETL bis hin zum Modelltraining und der Bereitstellung von Daten Machine Learning-Algorithmen für Regression, Klassifizierung und Clustering.
  • Deep-Learning-Training-Frameworks und optimiert diese automatisch für NVIDIA Tensor Core GPUs.
  • Inferenz und den großflächigen Einsatz von Kubernetes in der Cloud.
  • Data Science-Anwendungen im PC, der Workstation, der Supercomputer-Cloud und in Rechenzentren.
  • Data Science-Anwendungen in Amazon Web Services, der Google Cloud und über Microsoft Azure AI Services. Die speziellen CUDA-X AI Acceleration Libraries beschleunigen laut Hersteller das Machine Learning in der Cloud um das zwanzigfache.
  • Data Science im Allgemeinen.
Weitere Informationen zum neuen SDK lesen im vollständigen englischen Blog-Beitrag von NVIDIA-Mitarbeiterin Kari Briski unter blogs.nvidia.com/blog/2019/03/18/cuda-x-ai-data-science. Zusätzliche Infos zu NVIDAS CUDA-X AI Acceleration Libraries lesen Sie im englischen Blog-Beitrag unter blogs.nvidia.com/blog/2019/03/18/cuda-x-ai-microsoft-azure


Das könnte Sie auch interessieren