代码 | 名称 | 当前价 | 涨跌幅 | 最高价 | 最低价 | 成交量(万) |
---|
全球人工智能算力芯片龙头英伟达周二宣布 ,推出专为长上下文工作负载设计的专用GPU Rubin CPX,用于翻倍提升当前AI推理运算的工作效率,特别是编程、视频生成等需要超长上下文窗口的应用。
英伟达CEO黄仁勋表示 ,CPX是首款专为需要一次性处理大量知识(数百万级别tokens),并进行人工智能推理的模型而构建的芯片 。
需要说明的是,Rubin就是英伟达将在明年发售的下一代顶级算力芯片 ,所以基于Rubin的CPX预计也要到2026年底出货。下一代英伟达旗舰AI服务器的全称叫做NVIDIA Vera Rubin NVL144 CPX——集成36个Vera CPU 、144块Rubin GPU和144块Rubin CPX GPU。
(NVIDIA Vera Rubin NVL144 CPX机架与托盘,来源:公司博客)
英伟达透露,搭载Rubin CPX的Rubin机架在处理大上下文窗口时的性能 ,能比当前旗舰机架GB300 NVL72高出最多6.5倍 。
据悉,下一代旗舰机架将提供8exaFLOPs的NVFP4算力,比GB300 NVL72高出7.5倍。同时单个机架就能提供100TB的高速内存和1.7PB/s的内存带宽。
言归正传,英伟达之所以要在Rubin GPU边上再配一块Rubin CPX GPU ,自然是为了显著提升数据中心的算力效率——用户购买英伟达的芯片将能赚到更多的钱 。英伟达表示,部署价值1亿美元的新芯片,将能为客户带来50亿美元的收入。
为何需要不同的GPU?
作为行业首创之举 ,英伟达的新品在硬件层面上分拆了人工智能推理的计算负载。
英伟达介绍称,推理过程包括两个截然不同的阶段:上下文阶段与生成阶段,两者对基础设施的要求本质上完全不同 。
上下文阶段属于计算受限(compute-bound) ,需要高吞吐量的处理能力来摄取并分析大量输入数据,从而生成首个输出token。相反,生成阶段则属于内存带宽受限(memory bandwidth-bound) ,依赖高速的内存传输和高带宽互联(如 NVLink),以维持逐个token的输出性能。
当前顶级的GPU都是为了内存和网络限制的生成阶段设计,配备昂贵的HBM内存 ,然而在解码阶段并不需要这些内存。因此,通过分离式处理这两个阶段,并针对性地优化计算与内存资源,将显著提升算力的利用率 。
据悉 ,Rubin CPX专门针对“数百万tokens”级别的长上下文性能进行优化,具备30petaFLOPs的NVFP4算力、128GB GDDR7内存。
英伟达估计,大约有20%的AI应用会“坐等 ”首个token出现。例如解码10万行代码可能需要5-10分钟 。而多帧、多秒的视频 ,预处理和逐帧嵌入会迅速增加延迟,这也是为什么当前的视频大模型通常仅用于制作短片。
英伟达计划以两种形式提供Rubin CPX,一种是与Vera Rubin装在同一个托盘上。对于已经下单NVL144的用户 ,英伟达也会单独出售一整个机架的CPX芯片,数量正好匹配Rubin机架 。
(文章来源:财联社)
正规的杠杆炒股平台:股票配资的正规平台-应用端推理需求大爆发 全球ASIC芯片迎来黄金发展期
正规股票配资官网平台:如何做股票杠杆-云天励飞冲刺港股 国内推理芯片市占率首次曝光
炒股杠杆怎么开户:正规网上股票配资平台-国家药监局发布十大举措支持高端医疗器械创新发展
2024年正规长沙配资平台:高杠杆股票配资平台-以军向伊朗核反应堆和武器工厂周围人员发布撤离警告
10倍杠杆配资平台:正规配资炒股网站-小米“剧透”:采用自研芯片产品不只有手机!Civi 5 Pro由雷军发布
正规合法的股票配资平台:普通人怎么才能炒股加杠杆-芯片重大资产重组突然终止 此前8个“20cm”涨停!
股票杠杆正规平台排名:我要配资-AI唱主角!特斯拉发布“宏图4.0” 马斯克:未来80%价值来自机器人
股票交易配资:十大炒股杠杆平台哪个好-AI周报:OpenAI发布新模型o3-pro AMD推出AI芯片MI350“硬刚”英伟达
还没有评论,快来说点什么吧~