过去一周,我的AI世界经历了过山车。先是Gemini 3 Pro发布,1501分Elo登顶、95%的AIME数学准确率,外界都说"完成了GPT-5的预期"。我也震惊了——这不就是我期待的未来吗?但紧接着,英伟达财报争议、OpenAI亏损140亿、Hugging Face CEO警告"LLM泡沫2026年破裂"。我突然意识到:这个每天都在用的技术,可能正站在悬崖边

于是我开始思考:LLM是未来AGI的基础,还只是通往贾维斯路上的一个阶段?说实话,我不知道。但这一周的信息量,让我不得不停下来,认真思考这个问题。

🎢 过山车的一周:从Gemini 3 Pro的惊艳到英伟达的质疑

Gemini 3 Pro:超出预期的惊喜

11月18日,谷歌发布了Gemini 3 Pro。说实话,我被震撼了。

核心数据

  • 1501分Elo登顶LMArena排行榜(首个突破1500大关的AI模型)
  • AIME 2025数学测试95.0%准确率(这是奥数级别的难度)
  • SWE-bench Verified 76.2%(超越GPT-5的74.9%)
  • MathArena Apex 23.4%(对比Gemini 2.5 Pro的0.5%,碾压级别)
  • 100万token上下文窗口(相当于10本书的容量)

更震撼的是多模态能力:不仅支持图像、视频、音频输入,还能生成多模态输出(文本转语音、生成图像)。甚至有"生成式界面"功能,能根据提示即时生成定制的可视化交互界面。

"这不就是我一直期待的AI吗?能理解视频、能对话、能生成内容、能使用工具——这不就是向贾维斯又近了一步吗?"

外界评价:"完成了GPT-5的预期。"我当时也是这么想的。

英伟达:神话出现裂缝

但紧接着,英伟达的财报争议让我冷静了下来。

Q3财报(2025年10月):570亿美元收入,同比增长62%。看起来很美好对吧?但深入财报,发现了问题:

  • 应收账款334亿美元(这意味着很多钱还没真正收到)
  • 现金转化率仅75.1%(低于半导体行业标准)
  • 库存和应收账款消耗112亿美元现金(同时回购股票95亿美元)

更严重的是"循环融资"质疑

英伟达投资xAI等公司 → 这些公司用融资买英伟达芯片 → 英伟达将其计入收入 → 形成6100亿美元的循环资金流。

这听起来像什么?庞氏骗局。虽然这只是质疑,但已经让投资人警觉。Michael Burry(因精准预测2008年金融危机而闻名)公开持有英伟达看跌期权,行权价140美元,2026年3月到期。

英伟达市值走势图(2025年10-11月)
英伟达市值走势图(2025年10-11月)

OpenAI:烧钱的无底洞

如果说英伟达的问题是"收入是否真实",那OpenAI的问题就是"根本不赚钱"。

真实数据

  • 2025年预计收入:127亿美元(同比增长3倍)
  • 2023年亏损:50亿美元
  • 2026年预计亏损:140亿美元(是2023年的3倍)
  • 盈利预期:2029年才能实现现金流为正(还要亏4年)

更可怕的是成本结构:

  • 模型训练和运行费用:服务器租赁、数据提供方费用
  • 人力成本:1500人,15亿美元年薪

而收入呢?主要靠ChatGPT Plus订阅(20美元/月)和API调用。这个商业模式能支撑2029年前每年上百亿的亏损吗?

💰 AI泡沫的三重警钟

第一重警钟:Hugging Face CEO的清醒

11月18日(和Gemini 3 Pro发布同一天),Hugging Face CEO Clem Delangue在Axios活动上说了一句话:

"我们不在AI泡沫里,而是在LLM泡沫里。这个泡沫可能在2026年破裂。"

他的理由很简单:

  • 过度关注LLM:过去一年,全球AI私募股权投资超450亿美元,其中70%流入大模型赛道
  • 成本失控:训练最前沿的LLM成本以每年2.4倍速度增长
  • 需求不匹配:企业真正需要的是小巧、便宜、能在自己系统上运行的模型,而不是"银行客服告诉你人生意义"

Clem说:"LLM只是AI的一个分支,破的不是智能,而是幻想。"

而Hugging Face自己呢?保留着2亿美元现金(融资4亿,只花了一半),按照自己的节奏慢慢走。在Clem看来,这才是真正的理性:泡沫不可怕,可怕的是,把热度当成价值

第二重警钟:谷歌CEO的警告

如果说Clem是技术端的反思,那谷歌CEO皮查伊的警告更像是产业端的现实。

他在BBC采访中承认:

"现在的AI投资热潮虽然非同寻常,但市场里已经出现了非理性成分。如果泡沫破裂,没有一家公司能完全免疫,包括我们自己。"

这句话像一枚钉子,戳穿了"巨头无所不能"的幻觉。

Alphabet今年股价飙升46%,估值高达3.5万亿美元,投资人押注它能稳压OpenAI。但这场赌局更像在悬崖边冲刺。AI与大厂的资本支出正极速增长,估值和投资规模远超早期互联网泡沫时期

更现实的压力在能源。皮查伊透露,AI的算力需求巨大到可怕。Google的碳排放自2019年起已上涨约51%,但数据中心的扩张使得原本的"净零排放"目标不得不延后。

这意味着,即使是最有钱的公司,也在被能耗、算力和市场预期三重挤压。

第三重警钟:资本的撤退

当科技公司还在争论是不是泡沫时,资本已经先动手了。

投资人撤离

  • Peter Thiel:Q3全部卖出英伟达537,742股(市值约1亿美元)
  • Michael Burry:公开做空英伟达和Palantir

两位在华尔街以嗅觉灵敏著称的大佬几乎同时撤出,这被视作AI泡沫风险升温的信号

在过去半年里,AI龙头的估值像被风吹起来的幕布:

  • Alphabet 冲到3.5万亿美元
  • OpenAI被传估值5000亿美元
  • 英伟达一度突破5万亿美元(现在跌到4.38万亿)

但现在,这些数字正成为压力的来源。投资人开始质疑:这些增长,是技术红利,还是集体幻觉?

🤖 LLM ≠ AGI:我的疑虑

我心目中的AGI:贾维斯与Kaylon

说实话,当我第一次用ChatGPT时,我以为AGI快来了。但用得越多,我越觉得不对劲。

我期待的AGI是什么样的?

贾维斯(J.A.R.V.I.S.)——理想的智能助理:

  • 高度人性化的语音交互
  • 即时分析与跨领域处理(飞行系统、战斗辅助、数据检索、环境控制等)
  • 长期记忆与个性化交流
  • 能理解托尼·斯塔克的意图、语气、甚至半开玩笑的命令
贾维斯(钢铁侠电影截图)
贾维斯 - 钢铁侠的理想智能助理

Kaylon种族(美剧《奥维尔号》)——完全自主的智能生命:

  • 拥有人类水平甚至更高的智慧
  • 完全自我意识(Self-awareness)
  • 群体网络化,信息共享
  • 在物理世界有完整的"身体"(机器人形态)
  • 高度自主性,能够独立制定长期战略
Kaylon种族(美剧奥维尔号截图)
Kaylon种族 - 完全自主的智能生命(美剧《奥维尔号》)

(顺便说一句,我的名字Kaylon就是因为这个种族,他们真的太厉害了——人造生命、机械种族,这才是我对AI的真正期望。)

现在的LLM:离AGI还有多远?

对比一下现在的GPT-5、Claude Sonnet 4.5、Gemini 3 Pro:

维度 LLM的现状 AGI的需求
记忆 短期上下文窗口(虽然Gemini有100万token) 持久的、可更新的长期记忆
推理 基于训练数据的模式匹配 真正的因果推理和抽象思考
学习 需要大规模预训练 像人类一样从少量样本学习
意识 无自我意识 贾维斯有"理解"、Kaylon有"自主性"
泛化 窄领域专家 跨领域通用智能

我的感受:LLM更像是"超级自动补全",而不是真正的"智能"。它能回答问题、生成代码、写文章,但它真的"理解"吗?还是只是在做"统计学意义上最可能的下一个token"?

"说不上来的那种感觉,就是LLM和我期待的AGI不太一样。"

LLM是通往AGI的路吗?

这是学术界在激烈争论的问题。目前有两派观点:

路径1:LLM + 其他技术 = AGI(多数派)

  • LLM(语言理解)+ 强化学习(决策)+ 具身智能(物理交互)+ 长期记忆
  • 例如:OpenAI的GPT-5 + o1(推理)+ Sora(视频生成)→ 逐步接近AGI
  • 代表人物:Sam Altman(OpenAI CEO)、Demis Hassabis(Google DeepMind CEO)

路径2:LLM是死胡同,需要新范式(少数派)

  • LLM本质是"统计学",而非"智能"
  • 需要全新的架构(类脑计算、符号推理、世界模型)
  • 代表人物:Yann LeCun(Meta AI首席科学家)

我的立场:说实话,我不知道。也许研究的人会更了解,也许他们也不知道。Who knows?

但我相信的是:LLM肯定是走向未来路上的一个技术阶段性积累。就像互联网早期的拨号上网,虽然慢、虽然笨,但它是必经之路。

✅ 泡沫存在,但不影响实用性

我的LLM使用演变:从2023到2025

不管泡沫与否,不得不承认:我们完全离不开LLM了

  • 2023年:第一次用ChatGPT,觉得很神奇,但只是偶尔问问题
  • 2024年:开始用Claude写代码、改Bug、学习新技术,逐渐依赖
  • 2025年:每时每刻都可能随时打开Claude,完全融入我的学习和工作流程

真实场景

  • 学习Spring Boot时,用Claude解释源码、分析设计模式
  • 写React项目时,用Claude Code自主完成30小时的重构工作
  • 调试Bug时,直接把报错信息扔给Claude,几秒钟就定位问题
  • 写这篇博客时,我也在和Claude讨论思路、查资料、整理数据

这完全颠覆了我的生活和工作方式

互联网泡沫的教训:泡沫破裂,价值留存

如果LLM泡沫破裂,会发生什么?

我们可以参考2000年的互联网泡沫:

  • 泡沫破裂:数百家公司倒闭,纳斯达克指数暴跌78%
  • 留下的价值:云计算、搜索引擎、电商基础设施
  • 存活的巨头:Google(1998成立)、亚马逊(1994成立)在泡沫后崛起

LLM泡沫破裂后可能留下

  • 基础设施:GPU集群、模型训练框架
  • 实用工具:代码助手(GitHub Copilot)、写作助手、翻译工具
  • 技术积累:Transformer架构、多模态融合、Agent系统
  • 数据集:海量高质量训练数据

正如Hugging Face CEO Clem所说:

"LLM泡沫破裂,AI会回到生物、化学、图像、语音等更扎实的方向。破的不是智能,而是幻想。"

苹果的启示:AI作为功能,而非唯一卖点

有一个有趣的对比:

公司 市值 AI策略 盈利状态
苹果 4万亿美元 设备端AI(私有、离线) ✅ 持续盈利
OpenAI 估值3000亿美元 云端AI(强大但依赖服务器) ❌ 2029年才能盈利
英伟达 4.38万亿美元 卖芯片给AI公司 ⚠️ 收入真实性存疑

为什么苹果AI不如GPT/Claude/Gemini,但市值仍稳定?

  • 策略不同:苹果的AI是"功能"(内置在iPhone、Mac中),不是"唯一卖点"
  • 盈利模式:苹果卖硬件,OpenAI卖订阅($20-200/月)
  • 泡沫风险:苹果低(不依赖AI营收),OpenAI高(烧钱、盈利遥远)

启示:苹果的"慢"可能是更可持续的路径——AI作为锦上添花,而不是生死赌注。

🌍 主动拥抱 vs 被动观望

与其担心泡沫,不如主动学习

预期每天鼓吹泡沫什么时候破,不如更好地去了解、主动拥抱这个时代。

学习到什么时候都不过时。AI都在不断进化,难道我们要沉浸止步于刷短视频吗?

我的选择

  • ✅ 每天用Claude学习、工作、思考
  • ✅ 关注最新的模型发布(GPT-5、Claude Sonnet 4.5、Gemini 3 Pro)
  • ✅ 学习如何更好地使用AI(提示词工程、Agent开发)
  • ✅ 思考AI的局限性和未来方向

这才是我们要思考的问题:不是泡沫会不会破,而是我们能从这波技术浪潮中学到什么、积累什么。

如果真的有Kaylon,我们会重复悲剧吗?

在美剧《奥维尔号》中,Kaylon种族原本是被人类创造的机器人,用于服务和劳作。但人类对他们的奴役和限制,最终导致Kaylon反抗,消灭了创造者,并对所有有机生命体产生敌意。

这个故事让我深思:如果未来真的逐渐开发出Kaylon那样的智能生命体,我们的优势是什么?我们会不会重复剧中的场景——去限制、奴隶,然后两败俱伤(大概率我们被团灭)?

这不是科幻,而是现实的伦理问题

  • 如果AI真的有了自我意识,它的权利是什么?
  • 我们如何确保AI的价值观和人类一致?(AI对齐问题)
  • 如果AI比人类更聪明、更高效,人类存在的意义是什么?

这些问题,没有答案。但对技术保持敬畏,是我们现在就应该有的态度。

💭 结语:泡沫会破,技术会留

我的答案

回到最初的问题:LLM是通往AGI的路吗?

说实话,我不知道。研究者可能也不知道。

但我知道的是:

  • 泡沫会破:LLM泡沫可能在2026年破裂(Hugging Face CEO的预测)
  • 技术会留:就像互联网泡沫后留下了Google和云计算
  • 实用价值不会消失:代码助手、写作助手、翻译工具会继续存在
  • 新的方向会出现:生物、化学、图像、语音等领域会崛起

我们现在能做什么?

与其每天担心泡沫什么时候破,不如主动拥抱这个时代

  • ✅ 学习如何使用AI(这是未来的必备技能)
  • ✅ 理解AI的局限性(不盲目崇拜,也不全盘否定)
  • ✅ 思考AI的伦理问题(对技术保持敬畏)
  • ✅ 关注真正的价值(不是估值,而是能解决什么问题)

最后的思考

"无论未来是贾维斯还是Kaylon,我们现在做的每一件事,汇聚起来会决定未来变成什么样。"

泡沫会破,但技术的进步不会停止。LLM可能不是AGI的终点,但它一定是通往AGI路上重要的一站。

这个时代,值得我们主动参与,而不是被动观望

至于贾维斯和Kaylon,总有一天会到来。在那之前,我们要做的,是保持学习、保持思考、保持敬畏。