加速運算數量級躍進
利用NVIDIA H100 Tensor 核心GPU,提供所有工作負載前所未有的效能、可擴充性和安全性。使用NVIDIA ? NVLink ? Switch 系統,最高可連接256 個H100 來加速百萬兆級工作負載,此外還有專用的Transformer Engine,可解決一兆參數語言模型。 H100 所結合的技術創新,可加速大型語言模型速度,比前一代快上30 倍,提供領先業界的對話式人工智慧。
強化大型語言模型的推理
對于高達1750 億參數的LLM,基于PCIe 的H100 NVL 與NVLink 橋接器利用Transformer Engine、NVLink 和188GB 的HBM3 內存,提供最佳效能和易于在任何數據中心進行擴展,使LLM 成為主流。配備H100 NVL GPU 的伺服器,在功耗受限的資料中心環境中,將GPT-175B 模型效能提高多達NVIDIA DGX? A100 系統的12 倍,同時保持低延遲。
|
| 顛覆性人工智慧訓練 H100 配備第四代Tensor 核心和具有FP8 精確度的Transformer Engine,與前一代混合專家演算法(MoE) 模型相比,訓練速度高達9 倍。結合第四代NVlink (每秒提供900 GB GPU 對GPU 互連)、NVLINK Switch 系統(加速所有GPU 跨節點集體通訊能力)、第五代PCIe 和NVIDIA Magnum IO? 軟體,提供小型企業到大規模統一GPU 叢集高效率可擴充性。 部署資料中心規模H100 GPU,可提供優異效能,并且讓所有研究人員均能使用新一代百萬兆級高效能運算(HPC) 和一兆參數人工智慧。 |
即時深度學習推論 人工智慧使用各種不同的神經網路,解決各式各樣的商業挑戰。強大的人工智慧推論加速器,不只能提供最高效能,還能提供加速這些網路的各種功能。 H100 解決方案進一步擴展NVIDIA 在推論領域的市場領先地位,并創造多項進展,包含加速推理速度達高達30 倍,并實現最低延遲時間。第四代Tensor 核心加速所有精確度,包括FP64、TF32、FP32、FP16、INT8,以及目前的FP8,能夠減少記憶體使用量并提升效能,且仍然能夠維持大型語言模型的正確度。 |
| |
|
| 百萬兆級高效能運算 NVIDIA 資料中心平臺持續提供超越摩爾定律的效能提升。 H100 全新突破性人工智慧功能,進一步放大高效能運算搭配人工智慧強大功能,加速科學家和研究人員探索時間,解決全球最重要的挑戰。 H100 將雙精確度Tensor 核心的每秒浮點運算次數(FLOPS) 提高為3 倍,提供高效能運算每秒60 兆次浮點運算的FP64 運算。融合人工智慧的高效能運算應用程式,能利用H100 的TF32 精確度,達到單精確度矩陣,乘法運算每秒1 petaFLOP 浮點運算輸送量,而且無須變更程式碼。 HH100 也配備全新DPX 指令,提供比NVIDIA A100 Tensor 核心高出7 倍的效能,而且與應用于DNA 序列校準的Smith-Waterman 等適用動態程式設計演算法的傳統雙插槽CPU 伺服器相比,速度快40 倍。 |
持續創新讓效能持續提升 人工智慧應用程式開發時,資料分析通常耗費了大部分的時間。由于大型資料集分散在多個伺服器,僅使用CPU 設備伺服器的橫向擴充解決方案,將因為缺乏可擴充運算效能而陷入困境。 使用H100 的加速伺服器,除了提供運算強大功能外,每個GPU 提供每秒3 TB 記憶體頻寬,并且可擴充使用NVLink 和NVSwitch,能夠支援大型資料集,高效能且大規模處理資料分析。將NVIDIA 資料中心平臺與NVIDIA Quantum-2 Infiniband、Magnum IO 軟體、GPU 加速的Spark 3.0 和NVIDIA RAPIDS ?搭配使用,能以無與倫比的效能和效率水準加速這些巨大的工作負載。 |
| |
|
| 支持企業采用 IT 經理希望能將資料中心運算資源使用率提到最高(包含峰值和平均值)。他們通常會針對使用的工作負載中適當大小的資源,采用運算動態重新設定。 H100 中的第二代多執行個體GPU (MIG),能夠安全分割每個GPU 為多達七個獨立執行個體,最大化各個GPU 的使用率。 H100 提供機密運算支援,能夠安全進行端對端、多租用戶使用,是云端服務供應商(CSP) 環境的理想選擇。 使用多執行個體GPU 的H100 能夠讓基礎架構管理員標準化GPU 加速基礎架構,同時具備更大彈性布建更細致的GPU 資源,安全地提供開發人員合適的加速運算功能,并最佳化所有GPU 資源使用。 |
內建機密運算 現今的機密運算解決方案以CPU 為基礎,對人工智慧和高效能運算等運算密集的工作負載來說限制過大。 NVIDIA 機密運算是NVIDIA Hopper? 架構的內建安全功能,讓H100 成為全球第一個具有機密運算功能的加速器。使用者能夠利用無可匹敵的H100 GPU 加速能力,同時保護使用者資料和應用程式的機密與完整性。 NVIDIA H100 GPU 建立了以硬碟為基礎的可信任執行環境(TEE),保護并隔離在單一H100 GPU、節點中多個H100 GPU 或個別多執行個體GPU 的執行個體上,執行的所有工作負載。 GPU 加速的應用程式無須修改就能在可信任執行環境中執行,且不必分割。使用者可以結合使用在人工智慧與高效能運算的NVIDIA 軟體強大功能,以及NVIDIA 機密運算提供的硬體信任根安全性。 |
| |
強川科技 — 專業IT綜合服務提供商 【業務領域:計算機硬件、系統軟件、系統集成、IT運維外包】
成都強川公司英偉達/NVIDIA產品銷售團隊經過多年深耕與發展,至今已成功助力超過數千家中小企業的成長。一直以來, 我們的幾十位銷售顧問和技術專家,堅持以傾聽您的需求和愿望為工作核心,以豐富的方案經驗、敏銳的行業洞察和過硬的IT技術,為您提供高匹配度的解決方案,幫您做出更明智的決定。