英伟达的股价会涨回来吗?

英伟达的股价会涨回来吗?
收藏者
0
被浏览
65

暂无回答

暂无回答

0 个回答

cq987 LV

发表于 5 天前

在任何群体智力博弈活动中牢记两个铁则:
1.永远不要假设你的对手很蠢
2.永远要记得全部的玩家中总有几个蠢人
英伟达大跌这件事情,很多人觉得是机构投资者的overreact,实际上是不对的。因为你不能总是假设机构投资者会按照正常的逻辑去操作。
你看看那些大HF,大资本招的员工各个都是藤校数学/统计/计算机/AI的博士硕士。你觉得人家真的判断不了Deepseek 的出现不会导致芯片需求下降吗?
他们心里门清,那为什么股票下跌了呢?因为他们不想玩逻辑,他们想玩的是人心。炒作一下Deepseek 只花了多少张中低端显卡就训练出了超越OpenAI的大模型。就能让一百万个没上过大学的散户Panic Selling,然后资本再出手收割。
哦,你会想英伟达这么大的Market Cap怎么操作啊,有什么资本可以操作?人家不可以联合吗?那些大资本公司的头头都是老熟人了。
我愿称这次事件为资本利用技术知识壁垒对散户进行的围剿,华尔街无非是看到了炒作的机会,一个中短期套利的机会罢了。
技术方面大家可以看这个答主的回答 他解释了为什么英伟达能涨回来:
https://www.zhihu.com/question/10806398090/answer/91330781652?utm_psn=1869870215527022593

暂无回答

彭小鲜 LV

发表于 5 天前

专业投资机构和散户的操作在技术面前都是一样的草台班子。
第一大谬误:混淆V3与R1

大家都在盯着那个500多万美元的数字不放,这个数字仅是基础模型V3的预训练运行成本,而非引发轰动的升级版模型R1的总投入。它忽略了将DeepSeek V3转化为R1所需的整个强化学习阶段。我相信很多人都不清楚这点,然而这里的成本包括

  • 基于80万个可验证样本(数据集中的所有任务均可通过代码或符号推导自动验证)。即便在国内,这里的成本也会很高。
  • 这次技术突破的核心在于摒弃了奖励模型和测试时搜索等传统方法,意味着未对模型施加任何inductive bias。换言之,模型必须自主完成全部推理能力的构建,这使整个训练过程升级为一种"超级加强版"的猜测-验证循环——凸显了算力的核心地位。
  • 模型训练仍依赖英伟达技术,仅其使用的2048块H800集群的启动成本就轻松突破十亿美元量级。
  • 其他成本还包括:大量探索性试验的消耗,训练过程中的阶段性存档,不可避免的试错。
核心结论:R1项目的真实预算远超500多万美元(需说明DeepSeek从未混淆表述,该数字仅指V3训练成本,是市场自身有意无意的误读)。市场对AI真实成本认知存在严重偏差,这种偏差已超出合理误差范围。因此,市场判断不能反映客观现实。
第二大谬误:完全忽视计算资源的动态平衡

市场至今仍未理解计算资源 ≠ 训练资源,完全忽略了推理阶段的算力消耗。
对于大语言模型(LLMs),算力主要集中于模型训练阶段,其标准流程包含预训练,监督微调(SFT),人类反馈强化学习(RLHF)。在推理阶段,LLMs的表现系统1思考——直接输出"直觉层面"的回复。技术层面而言,它仅完成用户提供的句子补全,过程高度线性化。因此,LLMs的计算资源分配呈现极度倾斜的9:1格局(训练占绝对主导),导致模型部署后的运行成本相对可忽略。


但当讨论DeepSeek R1这类逻辑推理模型(LRMs)时,格局发生根本性逆转:LRMs本质上是延长思考链条的LLMs,通过生成"思维链"(即推理token)实现:多步骤问题拆解;自我思维反省;必要时回溯修正。正如人类认知的进阶过程,LRMs通过引入上述三种自主归纳偏置(inductive bias),显著提升复杂任务(如数学证明、代码生成)的推理能力。然而这种突破的代价是单次推理的计算消耗呈指数级增长,彻底打破传统LLMs的资源分配比例。


核心结论:当行业仍用LLMs时代的"训练成本即全部"思维评估LRMs时,本质上就像用马车时代的成本公式测算太空火箭——两者已处于完全不同的技术范式。阅读 R1 论文给我的启示是"计算就是一切"。西方实验室确实存在浪费,但不是在计算资源方面,而是在训练算法和方法方面。他们应该减少寻找新架构突破的时间,转而寻找向模型投入更多计算资源的方法。DeepSeek 在强化学习方面的突破反而对 NVIDIA 是利好消息。
第三大谬误:效率提升降低了GPU的需求

DeepSeek 确实找到了一些降低训练成本的方法,但这绝对不足以让训练成本降20倍。深入细节,这些优化点多数围绕内存展开的。这些包括:
1. 混合专家模型,每次预测激活 370 亿个参数,基于共享和细粒度的专家分布。简单来说,在推理过程中有 95% 的网络不会被激活,这大大节省了成本和延迟开销。这是一种计算效率高的方法,但很难说是 NVIDIA 的利空信号,因为 MoE 技术已经存在多年。GPT-4 也是一个 MoE 模型,当时没人因为这个消息而恐慌。
2. 他们使用hidden多头注意力机制,通过利用 Transformer 潜在特征的低秩性质来压缩键和值的技术。这显著减少了 KV 缓存(估计减少了 7.5 到 20 倍),据称对性能几乎没有影响。唯一的变化是键和值索引在内存中不是以展开形式存储,而是以压缩形式存储,只在前向传播过程中的 softmax 和后归一化阶段才展开。
3. 多 token 预测。每个 R1 预测会通过添加两个额外的module headers来预测三个 token,而不是仅预测一个。理论上这确实减少了总计算量,但同样这是已知方法。
当然,你可以说内存需求往往导致推理工作负载在计算饱和之前就耗尽内存,从而需要庞大的 GPU 集群,那么显然需要更少的 GPU。但关键在于,这些模型每单位"部署智能"所需的计算量将呈指数级下降。然而,更高效的 GPU 并不会导致 GPU 支出减少,这是假设了需求会停滞不前。DeepSeek 实际上在说,通过提高 GPU 效率,并假设计算确实是解锁智能的关键,我们实际上是在刺激了更大的需求,因此整体计算预算会增加。
核心结论:市场不理解"提高训练效率并不会降低 GPU 的需求。相反,这反而为购买更多 GPU 提供了商业理由。
他们正在对抗开源

这事情到现在这个热度似乎并没有那么简单,我们其实是将开源生态系统作为武器,来对抗美国对最先进 GPU 的出口限制。很简单,通过让最先进的前沿模型大众化,匹配美国前沿模型的性能并免费提供。这样做可以防止像 OpenAI 或 Anthropic 这样的闭源公司建立长期的技术护城河,相反,这些公司被迫不断降低其模型价格以保持竞争力。难怪DeepSeek 的应用目前在 App Store 的下载量超过了 ChatGPT,许多开发者正在放弃每月 200 美元的 ChatGPT Pro 订阅,转而使用 DeepSeek 的 API,因为相比之下后者基本上是免费的。
继续朝着模型闭源的方向发展,除非在少数几家公司工作,否则这将导致创新减少,开发未来模型迭代成本增加,结果只会看到中国或 Meta 几个月后发布同等水平的模型。开源对抗,这是一场他们无法赢得的战斗。
老牛还是老牛,一语点醒梦中人
Meta's chief AI scientist says DeepSeek's success shows that 'open source models are surpassing proprietary ones'

您需要登录后才可以回帖 登录 | 立即注册