GPT-3.5 横空出世的时候,把全世界所有人都惊呆了。确切地说,是把核心技术圈之外的人惊呆了。但是 AI 圈,特别是核心圈的人,并没有觉得有什么了不起。等到 GPT-4 多模态出世的时候,那更是显得了不得,不得了!好家伙,文本、图片、视频、音频,各种数据都往丹炉里扔,OpenAI 炼丹都炼出花了。
但是到了 2024 年,情况变得格外复杂起来。首先是谷歌 Gemini 出世了。谷歌表示,不管你 OpenAI 出什么牌,我都接!从去年的时候我就说,这第一场玩下去,赢的最终必然是谷歌。本质的问题不是 DeepMind 比 OpenAI 强了多少,本质的差别就一个:谷歌 TPU 都更新到第六代了。第五代性能大概对标 H100,第六代不清楚,估计就算和 GB200 有差别,能有多大差别?用同样差不多的芯片制程,用同一代的 HBM 高速存储,凭着谷歌已经设计了六代迭代?
为什么断言谷歌是这第一场竞争的胜利者?因为相对于竞争对手顶着英伟达90%毛利买H100,谷歌的TPU,那还真是拉一车沙子去台积电,背一麻袋TPU 出来。
问题不是出在单个芯片性能上,而是出在英伟达的计算卡上!英伟达的芯片毛利 90%?3500 的成本价,卖你 3 万 5?甚至卖你4万5?GPT-4 这一代大模型,大家都忙着建数据中心,奥特曼吹牛不上税,还搞7万亿的芯片投资计划?还要拉着微软建立 1000 亿美元一个的数据中心?
在 AI 没有非常明确的下游产出的情况下?投资成千上万亿美元?这是有啥大病啊??
结果仅仅一年时间,这两天 OpenAI 还整 12 天的烂活,Gemini 2.0 现在免费版性能就和 GPT-4o 差不多?图片生成,视频生成,OpenAI 全家桶几乎让谷歌拉爆了。哦,还有个 O1,呵呵,呵呵呵,国内一大堆人都能复现 O1 的架构性能,何况谷歌 Gemini 2.0?
其实第一代 LLM,一开始就是没目的的瞎炼丹,是资本和工程师的狂欢,模型越做越大,各种数据一个劲地堆。为啥要这么堆?因为堆的数据越多,模型泛化能力越强?为啥啊,我也不知道啊。涌现啊,堆多了就涌现了呀。
Anthropic 最先发现了这个问题的不对劲。
Claude 3.0 家族表现出了和 GPT 家族完全不同的思路,以及带来完全不同的体验。Claude 3.5 更是划时代的作品。为什么?因为大模型真正有用,或者产生生产力应用的,首先就是写代码,Claude 3.5 用优秀的代码能力和强大的语义理解能力,首先落地代码助手和代码代写。那边,OpenAI 还忙着弄语音聊天呢,你可真闲。
各种自媒体都出来买课了。都成了AI专家?OpenAI 要建1000亿数据中心,GPT5练好了?GPT6 已经看完了YouTube 的所有视频?
聊天,能有人付费吗?是生产力吗?豆包里都有一大堆聊天机器人。成千上万的GPTs看着眼花缭乱,顶得住Claude一次版本更新吗?这里并不是要针对openAI,相对硅谷的上几段故事,比如拉里·佩奇领导的谷歌,击败了杨致远的雅虎,乔布斯领导的苹果,有独特的产品洞见?比尔盖茨领导的微软?一个视窗横扫操作系统市场。
sam 与OpenAI现在的故事,更像是是曾经让让微软用IE浏览器收拾了马克·安德森的网景。
近一年来,OpenAI 创始人,核心圈几乎跑光了。Ilya Sutskever出走,更是让圈子大为哗然!你能想象谢尔盖布林在谷歌开始的几年里,弄走了拉里佩奇吗?提出PageRank算法的核心思想,的拉里佩奇?
大家越来越发现:Sam 除了作为一个PR,除了拉投资,吹牛以外,唯一剩下的能力,就是装神弄鬼。
把OpenAI 变成 CloseAI, 一个O1 从草莓到O1 前前后后吹一年,然后呢?国内一大堆小公司都能实现一个类似的r1,QwQ, 对于谷歌来说,还从来没有这样一种怪相,就是gemini 2版本的O1还没出现,就让大部分人确信,性能会打平或者打爆OpenAI O1?
Sam 神秘感破产了,哪个千亿,万亿,计算中心的大梦破产了。技术路线图也破产了。还记得GPT6 看完了全网视频的神棍话题吗?
今天的总技术路线图不变的情况下,AI 预训练看完全网视频,百分百不会诞生意识,只会成为一个鉴黄师。
直到年末,小模型风潮带来了 3B 模型都能对齐 70B 模型的性能。各种 RL(强化学习)搅乱风云,Gemini 1206, 几乎拉出 GPT-4o 整整一代的体验感。
真正改变的不是数据用尽了,而是原来那种没头没脑的堆数据,预训练的时代结束了。
思路早都该换了,还建千亿数据中心呢?时代变了,大人。 |
|