英伟达被曝推迟面向中国的新款芯片,3 款「改良」芯片中功能最强大的一款,哪些信息值得关注?

(观察者网讯)11月24日,路透社援引消息人士独家报道称,英伟达的“中国特供版”人工智能(AI)芯片将延迟推出。
芯片行业咨询公司SemiAnalysis本月报道称,这家总部位于加州的AI芯片巨头预计最早于11月16日推出新产品。然而两名知情人士称,英伟达已经告知中国客户,将推迟一款符合美国出口规定的新款AI芯片发布时间,直至明年第一季度。
被延迟推出的芯片是H20,在英伟达为遵守美国新出口限制而面向中国市场开发的三款芯片中,H20是功能最强大的一款。消息人士称,由于服务器制造商在集成芯片方面遇到了问题,H20现在被推迟到明年第一季度上市,并且可能会是2月或3月。这可能会使英伟达与华为等本土企业的中国市场份额争夺战变得更加复杂。
对此,英伟达拒绝置评。
除了H20,英伟达还计划推出另外两款符合美国新出口规定的芯片——L20和L2。消息人士称,L20不会推迟,将按照原定计划推出,L2的情况则无可奉告。
路透社指出,美国的出口限制将为华为等竞争对手创造机会。英伟达正押注于这些芯片,希望借此保住在中国的市场份额。
很长一段时间以来,美国不断在芯片半导体领域对中国进行打压,实际上全球产业链都受到了巨大伤害,令行业人士叫苦不迭。从去年10月到今年10月,美方这一打压仍在“加码”。在中国价值70亿美元的人工智能芯片市场上,英伟达占据了90%以上的份额,以英伟达为代表的许多美国企业,都对美国政府的这一做法持不同看法。
去年,英伟达由于无法向中国市场提供A100和H100人工智能处理器,专门为中国市场特供符合美方规定的A800和H800芯片,以绕开美国政府的管制。一年后,美国政府再次收紧出口规定,新的限制措施定于11月16日生效,届时A800和H800将被禁售。
路透社11月10日援引行业人士报道称,作为A800和H800的替代品,英伟达已针对中国客户开发出符合美国最新出口规则的“改良版”芯片,HGX H20、L20 PCle和L2 PCle。英伟达最早或将于本月16日之后公布。

英伟达被曝推迟面向中国的新款芯片,3 款「改良」芯片中功能最强大的一款,哪些信息值得关注?-1.jpg


图自IC Photo
报道称,这三款新产品都是从H100的基础版修改而来,包含了英伟达用于人工智能工作的大部分最新功能,但一些计算能力被削减以符合美国新规。美国富国银行分析师亚伦-瑞克斯(Aaron Rakers)在给客户的一份报告中写道,英伟达准备发布的这三款芯片的计算能力似乎都低于美国新规中设定的绝对上限,不过其中一款可能需要取得许可证才能获准出售给中国。
《南华早报》分析称,若英伟达确认此事,这将表明中国市场对美国芯片公司有多重要,以及其中一些公司准备在多大程度上遵守华盛顿不断变化的限制。
当地时间11月22日,英伟达在披露财报时透露,美国政府上个月公布的管制新规对其上个季度业绩没有造成“有意义的影响”,中国市场和一些受限地区占其数据中心业务收入的四分之一。但这家美国芯片巨头同时表示,当前季度,该公司对这些地区的销售额将大幅下降。
在业绩会上,英伟达首席财务官科莱特·克雷斯(Colette Kress)证实了正在为中国市场开发“合规芯片”的消息。克雷斯表示,这些芯片将在未来几个月内露面,但不太可能对英伟达当前业绩产生帮助,现在预测此类产品将如何影响未来收入还为时过早,因为涉及因素太多。英伟达被曝推迟面向中国的新款芯片:3款“改良”芯片中功能最强大的一款
收藏者
0
被浏览
95

5 个回答

inamoto4869 LV

发表于 4 天前

我发现雷蒙多已经不光是菊花代言人了,简直是堪比川宝的曲忠赞233333
2016年的AlphaGo,2018年的BERT,全都是在Google当时的TPU上训练出来的,而今年Google新发布的Gemini也是基于TPU-V4训练出来的,类似的还有特斯拉和微软,也都在推自研芯片和/或A卡方案。所谓“生态优势”并不是什么不可突破的刚性屏障,它甚至对抗不了领导/董事会的意志
目前AI领域的负载,实际上也可以分为两类:CTR类和大模型类。其中CTR类直接跟互联网公司的业务相关联,是公司的命脉,需要使用用户相关的数据,而大模型类代表未来,但它本身的训练不会使用(也必然不允许使用)用户相关的数据,使用公开或准公开数据即可。
去年我们海外站还在的时候,当时我做的就是海外站的搜索,泰国站使用的数据中心就在新加坡。业务上两类数据都会接触到:搜索query和商品SKU标题等信息属于准公开数据(在站点上可以公开看到),而精排模型依赖的用户行为序列之类的数据属于用户相关的数据。前者基本上可以随意跨境传输,在国内只要不出公司内网都可以随意访问,而后者就麻烦多了,每一次数据回流都必须脱敏之后通过法务审批才能进行。当时我们这边QP和相关性模型(纯query+doc,基于BERT预训练+Fine-tune)是直接把数据拉回国内用A100集群训练的,然后精排模型(CTR任务,也就是纳米酱天天挂在嘴边的黄赌毒)是在海外集群用CPU硬跑的……后来迭代下一版模型的时候,因为模型规模变大,最后的做法是每周走审批流程回流一次数据,在国内用GPU训练。
任务算力需求数据类型跨境传输限制
NLP/大模型类巨大公开或者准公开的语料等宽松
CTR类相对较低用户相关数据严格限制

综上所述,如果真站在美国的角度,正确的策略有两种:一种是温水煮青蛙,继续维持之前的限制,用少量高价的A800/H800吊着中国企业的胃口,这样的好处是NV可以长期地赚钱甚至赚更多的钱,生态优势继续维持,同时美国企业在算力总量上始终领先一步;另一种是直接一步到位彻底禁售,切断对中国企业的任何直接+间接算力供应(包括新加坡)——这样做的逻辑是牺牲NV长期的收入和生态优势,让美国企业在短期内算力优势最大化。
结果现在雷蒙多整了个什么抽象活呢?一边把禁售线压到了4090这种游戏卡级别,还直接放话说刑不可知威不可测,你老黄今天敢出特供芯片明天我就直接封,基本等同于在国内彻底摧毁了老黄的商业信誉和整个Tesla系列的市场,另一边对于在海外给中国企业提供算力又仍然不管。结合上面的介绍不难得出结论:这一刀精准地避开了大模型,砍到了黄赌毒头上
黄赌毒的特点是啥呢:第一,它需要的算力总量远少于大模型,就算真的被彻底断供了也能支撑很久,风险实际很低;第二,它是国内大厂的核心命脉,虽然风险确实很低,但大厂对风险的态度是零容忍;第三,它极度依赖用户数据,国内业务依赖境外集群训练模型在迭代效率上是完全不可接受的;第四,它的算子高度碎片化,而且各大厂普遍都有自己开发的CUDA算子,迁移到昇腾或者其它芯片的代价甚至远高于大模型,它原本应该是老黄护城河中的护城河。
所以说,雷蒙多选择了弹幕最多的打法——她整的这个抽象活,结果就是什么呢?中国企业一边布局新加坡,在新加坡建数据中心买H100训大模型,一边在国内all in 昇腾,排着队给华为送钱的同时还用自己的程序员给华为搭生态,下一步就是生态差不多了,逐步清退国内的存量N卡,放出来挂在公有云上卖给买不起华为全套方案的中小企业。换句话说,雷蒙多这么一搞,老黄在中国的市场和生态全都被扬了,美国企业也没有实现算力优势最大化,站在美国的角度,里外不是人……

54sh54sh LV

发表于 4 天前

是时候了 该联想出手了
中国科学院计算技术研究所所长柳传志曾经说过
贸工技
这是至理名言啊
如今贸了几十年了 技总该拿出来了吧

sjorz LV

发表于 4 天前

大厂基本早就转华为方案了,美国这是在帮华为完善生态,真是迷之操作,中国又不是没有可行的替代方案,这™的是白白送市场的行为。
现阶段AI还处于一个高级搜索引擎(搜索引擎+数据挖掘)的状态,短时间根本带不来大的生产力变革,把封锁用在这里是典型的吃力不讨好,雷声大雨点小。
尤其消费级市场的4090也禁,是逼着英伟达跳反,肉不让吃了,汤™都不给喝一口,属实是反华反魔怔了。
当特供中国的芯片公开化,英特尔也完全没有收手的意思的时候,基本就是企业和政府的矛盾公开化了,民主党和科技公司打架,这是要刨自己的根啊。

内蒙电都主机 LV

发表于 4 天前

先总结一下,HGX H20、L20 PCIeL2 PCIe。今天(也就是11月24日),路透社称英伟达已经告知中国客户,上述定制芯片的推出时间将推迟到明年第一季度。
虽然知道现在AI最大的限制就是算力的限制,特别是目前大模型不断更新的时候,谁拥有了足够的算力,再加上天才的一般的模型设计,必然会取得成功。
就像目前OpenAI一样,少量的人却拥有足够的计算资源,坚持自己的路一直走下去最终取得成功。
看来美国是准备好卡其他所有国家的脖子了,又准备借助AI在此让自己腾飞。

英伟达被曝推迟面向中国的新款芯片,3 款「改良」芯片中功能最强大的一款,哪些信息值得关注?-1.jpg

人工智能半导体控制

先来看看去年和今年美国的半导体显示更新哪些,今年的限制政策堵住大部分漏洞。当前人工智能芯片的聚合双向传输速率可以达到600GB/s,聚合运算吞吐量超过4800TOPs。这意味着芯片公司可以通过稍微降低芯片的双向带宽来规避管制,而实际应用于人工智能任务时,性能下降几乎可以忽略。例如英伟达在其H100和A100芯片基础上进行改进后的H800和A800系列芯片
为了填补之前的政策漏洞,就意味着需要取消对芯片双向带宽的限制,直接影响像A800、H800这样的芯片发挥最大效能,也意味着英特尔的Gaudi 2、Gaudi 3、以及AMD的MI250X、MI300等芯片都会被管制禁止出口。在运算吞吐量达到4800TOPs时,人工智能计算需求大致保持不变,这被称为“总处理性能”(TPP)。
尽管对芯片总体性能的限制非常重要,但政府意识到这仍然存在多个漏洞。例如,可以很容易设计出单个芯片性能低于阈值,但当大量芯片在高带宽互联时,整体系统轻松超过性能阈值。
因此,新增一个性能密度(TPP除以芯片面积)阈值的限制,防止芯片面积较小、绝对计算能力较低但计算密度、效率仍高的芯片出口。绝对限制性能密度为5.92,允许的密度为3.2。并设置多级的性能密度控制级别。
想要了解具体的内容的小伙伴可以看看这篇详细分析
晶圆战争:解读人工智能和半导体制造的最新限制


英伟达被曝推迟面向中国的新款芯片,3 款「改良」芯片中功能最强大的一款,哪些信息值得关注?-2.jpg


美国半导体限制政策

这里是@TopGeeky,持续输出计算机、科技、人工智能相关优质回答,如果觉得文章对你有用的话,不如点赞、收藏、关注三连;关注不迷路~
性能参数

其实最重要的还是想要知道这几款被阉割后的产品的性能到底如何。
HGX H20 拥有 96GB HBM3 记忆体以及 4.0 TB/s 的记忆体频宽,但有趣的部分在于这要比 H100 的 3.6 TB/s 高;HGX H20 使用的是 Hopper 架构。
另外,Hopper 架构的HGX H20 其NVLink 频宽可以达到900GB/s,这也比A800 的400GB/s 高许多,毕竟当初是因为A100 的频宽太高,所以才会出现A800 这东西。
搭配48GB GDDR6 with ECC 记忆体的L20 PCIe 采用AD102 晶片,但为了避开4800 TPP(Total Performance Processing)的限制。
NVIDIA 似乎将其阉割许多,毕竟它的TGP 只剩下275W,远低于GeForce RTX 4090的450W。至于 L2 PCIe 则是与 L20 PCIe 同属于 Ada Lovelace 架构,从规格来看,采用 AD104 晶片的可能性较高。

英伟达被曝推迟面向中国的新款芯片,3 款「改良」芯片中功能最强大的一款,哪些信息值得关注?-3.jpg


H20 L20 L2 性能参数

<hr/>从今年Nvidia推出的GPU来看,其实不难发现Nvidia已经悄悄针对大型语言模型(Large Language Model, LLM)进行优化,尤其是在AGI生成模型方面,特别关注的是这几款GPU的优化点就是未来的发展趋势。
都知道英伟达和AI迅猛发展相辅相成,所以未来的风口已经展现出来,按照这个趋势,大模型必定会改变我们每个人的生活,不论是入行的炼丹师还是其他行业的门外汉,都需要了解这个大模型,才不会错过时代的机遇
正好,「知乎知学堂」联合「AGI课堂」推出的「AI大模型公开课」这一免费公开课,一共两天的课程,圈内技术大佬授课,内容深入浅出,同时提供免费的大模型学习资料包。
你一定不要错过!
这门课最重要的一点是:不管是不是相关从业者都学到大模型对自身行业的影响,提前了解大模型,未来比其他人更进一步。
在悄悄说一句,添加讲师微信,可以领取更多隐藏学习资料哦~
<hr/>同样还知道需要与H100进行性能对比:
详情可以看: <a href="http://link.zhihu.com/?target=https%3A//www.semianalysis.com/p/nvidias-new-china-ai-chips-circumvent" class=" wrap external" target="_blank" rel="nofollow noreferrer">DYLAN PATEL做的性能分析
理论上,H100比H20快6.68倍。根据分析师Dylan Petal最近发表的博客文章,即使H20的实际利用率可以达到90%,但其在实际多卡互连环境中的性能仍然只接近H100的50%。
但是H20的优势也很明显,在大语言模型(LLM)推理方面比H100快20%以上。原因是H20在某些方面与明年发布的下一代超级AI芯片H200相似。
从传统计算的角度来看,H20相比H100有所降级,但从LLM推理来看,H20实际上会比H100快20%以上。
另外值得关注的是L20基于L40,L2基于L4,但这两种芯片在LLM推理和训练中并不常用。
L20 和 L2 均采用 PCIe 外形规格,并使用适合工作站和服务器的 PCIe 规范。与Hopper H800、A800等更高规格的机型相比,配置也更加精简

英伟达被曝推迟面向中国的新款芯片,3 款「改良」芯片中功能最强大的一款,哪些信息值得关注?-4.jpg


H100参数对比

谈谈看法

怎么说呢,去年美国指定的限制标准的漏洞已经被堵住,老黄也不可能违背美国的出口限制给偷偷私运高性能的GPU。芯片制裁肯定会一直持续下去,肯定不可能让我们这么容易就突破的,以往的任何一项技术美国都是搞过技术封锁的,只是在信息时代与我们最相关的就是电脑芯片,所以才会有这么大的关注度。
不会去谈全球化时代,什么技术封锁、产品出口等等这些手段和双标行为是否卑鄙。简单来说,国家与国家之间的关系则是有利合作,没有利益就会分道扬镳。这种封锁行为只能指望自己打破封锁,突破僵局而不是寄希望于他人的仁慈与否。
看回答有人说英伟达会走下坡路了,就我来看英伟达依旧占比最大的份额,占据近九成。英伟达、AMD、英特尔三家GPU占据全部,国内的寒武纪、景嘉微、海光信息等等都处启动阶段,相差过大。
还是指望国产自强吧。
<hr/>又到了自我吹捧阶段!Hi,这里是@TopGeeky,持续输出计算机、编程、科技、人工智能领域的优质回答(自封的)。
如果觉得我的回答和文章对你有帮助的话,不如点赞、收藏、关注三连;
关注不迷路~
<hr/>Hi,这里是 @TopGeeky专注于输出优质回答的“热爱流程序员”,可以看看我更多的回答,希望对您有所帮助:
我是如何面对迷茫 —— 学计算机的各位能告诉我你们的经历吗?
C++必不可少原因 —— 为什么AI算法工程师要求C++?
算法入行学习路线 —— 机器学习、数据科学 如何进阶成为大神?
通俗理解线性代数 —— 如何理解线性代数?
一份AI入行心得 —— 什么是人工智能?如何入行人工智能?
浅显易懂的科普文 —— 如何最简单、通俗地理解什么是机器学习?
机器学习资源路线 —— 如何自学机器学习Machine Learning?
对未来AI应用探索 —— 2023年后,AI 还有什么研究方向有前景?

喂喂 LV

发表于 4 天前

这说明有钱也不是万能的,比如这芯片,大漂亮说禁就禁,你能咋滴,你还能咋滴。
这三款「改良」芯片分别是:

  • H20——功能相对强大,推迟到2024年1季度上市;
  • L20——功能进行了阉割,按计划推出;
  • L2——暂时无可奉告。
傻呵呵的英伟达为了迎合大漂亮的「芯片法案」,竟然要让出兔子的国内市场,这不是让华为们欢呼雀跃嘛。

英伟达被曝推迟面向中国的新款芯片,3 款「改良」芯片中功能最强大的一款,哪些信息值得关注?-1.jpg

作为大漂亮的喉舌,路透社对此进行了高调报道,意图褒奖英伟达的所作所为。
可笑的大漂亮,以为延迟供货,就可以阻碍兔子的芯片发展和AI技术突破,使用行政命令促使英伟达放弃兔子市场,这不是自掘英伟达的坟墓么。
大漂亮窃以为只要对兔子进行芯片封锁,就可以保持对兔子的科技优势。
过去不卖技术,不卖设备,当然了,也不让欧盟和日韩卖,现在居然连芯片都不让卖了。
这不是很搞笑嘛,留着大把芯片,在大漂亮屁股底下孵蛋,靠这个能赚钱,不是把市场都让给华为吧!

英伟达被曝推迟面向中国的新款芯片,3 款「改良」芯片中功能最强大的一款,哪些信息值得关注?-2.jpg

大漂亮为了一己之私,让全球产业链叫苦不迭,折腾了一年多,不仅不思收敛,反而继续加码。
兔子每年芯片市场需求2000亿美元,其中人工智能芯片市场保守在70亿美元以上,英伟达独占90%,大漂亮一封锁,英伟达营业额大幅度尾随,股票也要蹭蹭地大跌了。
英伟达的业绩和股票会跌多少?至少跌1/4,因为兔子是英伟达最大的客户,营业额至少站到1/4。
当然了,英伟达也还算努力过,去年大漂亮封锁A100和H100芯片,就特供符合美规的A800和H800芯片。
可是,不到一年,大漂亮再次涂鸦新规,从今年11月16日起,A800和H800芯片也要被禁了。

英伟达被曝推迟面向中国的新款芯片,3 款「改良」芯片中功能最强大的一款,哪些信息值得关注?-3.jpg

这次3款「改良」芯片,也都是从H100的基础上阉割的,包含英伟达用于AI的大部分最新功能的计算能力都被削减。
美国富国银行分析师亚伦-瑞克斯(Aaron Rakers)在给客户的一份报告中透露,英伟达给兔子的3款芯片,计算能力都低于大漂亮新规的上限,还要取得出口许可证。
接下来,英伟达就要走下坡路了,至少要到明年恢复对兔子供货,这波股票和市场营业额下跌才能企稳。
反正大漂亮那边就是有钱任性,可以印美元,发国债,兔子有多少钱,好像人家不稀罕似的,结果就是坑了英伟达等一众企业。

您需要登录后才可以回帖 登录 | 立即注册