同城58网 软件 行业点评:人工智能发展持续加速,从2023GTC看电子发展新机遇

行业点评:人工智能发展持续加速,从2023GTC看电子发展新机遇

金选·核心观点

2023年GTC大会上,英伟达CEO发布了四个全新推理平台,每个平台都包含针对特定的AIGC推理工作负载优化的NVIDIA GPU以及专用软件:

1)用于图像渲染和AI视频的L4。L4提供增强的视频解码/转码、视频流、增强现实以及生成AI视频等功能,可提供比CPU高120倍的AI视频性能,一台8卡L4服务器能够替代100多台用于处理AI视频的双插槽CPU服务器。

2)用于Omniverse、图像生成、文本转图像等各类生成式AI的L40。L40针对图形和支持AI的2D、视频和3D图像生成进行了优化。L40平台作为Omniverse的引擎,用于在数据中心构建和运行元宇宙应用程序,推理性能是云推理GPU T4的10倍。

3)用于大语言模型(LLM)推理的H100 NVL。H100 NVL GPU适用于大规模部署ChatGPT等大型 LLM。H100 NVL通过NVLINK将两张H100 PCIE桥接在一起,其中的每张卡拥有94GB HBM3内存,同时内置Transformer引擎。与目前唯一可以在云上处理GPT模型的HXG A100相比,一台搭载四对H100 NVL和双GPU NVLINK的服务器可以将推理速度提高10倍。4)Grace Hopper Superchip适用于推荐模型、向量数据库和大型语言模型的AI数据库,并通过NVLink-C2C技术为Grace CPU和Hopper GPU之间提供高达900GB/s的高速连接,CPU查询和存储巨型嵌入表,GPU负责将收到的结果进行推理,整体是PCIE速度的7倍。

此外,英伟达推出了全新的DGX H100计算平台、NVIDIA OVX服务器以及BlueField-3数据处理单元:1)NVIDIA DGX H100具有8个H100 GPU,这些GPU通过NVLINK实现高速互连,并通过集成的Quantum InfiniBand和Spectrum实现以太网网络相连。DGX H100以FP8精度提供 32 petaflops的计算性能,速度比上一代快2倍,有助于在处理大型AI工作负载时最大限度地提高效率。

2)OVX服务器双CPU平台、BlueField-3 DPU、四颗L40 GPU、两个ConnectX-7 SmartNIC和NVIDIA Spectrum以太网平台。

3)NVIDIA BlueField-3 数据处理器(DPU)是第三代片上数据中心基础设施,拥有上一代2倍的内核数量,支持从云到核心数据中心再到边缘计算,构建软件定义硬件加速的IT基础设施。BlueField-3卸载、加速和隔离软件定义的网络、存储、安全和管理功能,从而显著提高数据中心的性能、效率和安全性。行业观点我们看好AI应是未来15年最大的科技变革,AI的发展将重塑电子半导体基础设施,海量数据收集、清洗、计算、训练以及传输需求,将带来算力和网络的迭代升级,利好AI数据中心及边缘高速运算大量使用的CPU/GPU/FPGA/ASIC,HBM存储器,3D NAND,DDR5,以太网PHY芯片,电源管理芯片,PCB/CCL以及光芯片。根据PrecedenceResearch的数据,2022年全球人工智能芯片市场规模为168.6亿美元,22-32年CAGR有望达29.7%。我们看好人工智能加速发展对电子行业带来的发展新机遇,细分板块有望持续受益。投资建议我们看好英伟达、AMD、澜起科技、寒武纪、裕太微有望持续受益于AI人工智能的快速发展。

风险提示

人工智能技术迭代不如预期;2023年海外主要经济体陷入衰退预期;美国对华制裁加剧;AI终端市场持续萎靡。

本文来自网络,不代表本站立场,转载请注明出处:https://www.tcw58.com/n/a53467.html

推理,电子,平台,模型,人工智能,服务器,性能,视频,数据库,发展,观点评论,Grace,英伟达,人工智能,Hopper,服务器

同城58网后续将为您提供丰富、全面的关于推理,电子,平台,模型,人工智能,服务器,性能,视频,数据库,发展,观点评论,Grace,英伟达,人工智能,Hopper,服务器内容,让您第一时间了解到关于推理,电子,平台,模型,人工智能,服务器,性能,视频,数据库,发展,观点评论,Grace,英伟达,人工智能,Hopper,服务器的热门信息。小编将持续从百度新闻、搜狗百科、微博热搜、知乎热门问答以及部分合作站点渠道收集和补充完善信息。