别迷信1M
别迷信1M 关注 作者 关注 作者 关注 作者 关注 作者 昨天 18:23这次发生了什么
2026 年 4 月 26 日,Yoav Goldberg 在 X 上做了一个很直观的粗算:如果按 40 层、每层 4000 维、每维 2 bytes 估算,单个 token 相关的推理内存会到约 640k,1M token 则会到约 640GB。基于这个量级,他直接提出疑问:长上下文推理在内存上到底是怎么成立的。 slot trustguru.com.br Caça-níqueis trustguru.com.br slots trustguru.com.br pragmaticplay trustguru.com.br pgslot trustguru.com.br rafael trustguru.com.br Pixbet trustguru.com.br
同一天,Chelsea Finn 预告自己将在 ICLR 的 MemAgents workshop 分享一个题为“long-term memory for long-term autonomy”的报告。注意她强调的是“长期记忆”和“长期自治”,不是更长的聊天窗口。 tigrinhodemo trustguru.com.br sobre trustguru.com.br jogodotigrinhodemo trustguru.com.br ana trustguru.com.br jogos trustguru.com.br
这两条信息放在一起,刚好点出一个常被混在一起的概念:上下文窗口变长,和系统真正具备长期记忆能力,不是一回事。 marcos trustguru.com.br jvid视频 jvid.asia slots trustguru.com.br fortunetigerbônusgrátissemdepósito trustguru.com.br noticias trustguru.com.br jvid jvid.asia A5game trustguru.com.br jvid av jvid.asia autores trustguru.com.br
为什么这件事值得关心
过去一段时间,很多模型宣传都会把“1M context”当作显著卖点。这个指标当然重要,因为它决定单次会话里能塞进多少材料。但对真实工作流来说,用户真正关心的通常不是“能装多少”,而是另外三件事: pgslotgacor trustguru.com.br slotpix trustguru.com.br sweetbonanza1000demo trustguru.com.br demo trustguru.com.br sugarrush1000demo trustguru.com.br jogue trustguru.com.br pesquisa trustguru.com.br bonus trustguru.com.br KTO trustguru.com.br Pixbet trustguru.com.br 348ntr-097 jvid.asia Brazino777 trustguru.com.br slotdemo trustguru.com.br fernanda trustguru.com.br 200gana-3359 jvid.asia siro-5652 jvid.asia
- 装进去之后,模型能不能稳定找到关键内容
- 这么做的推理成本和延迟是否可接受
- 跨多轮、跨多任务之后,系统是否还能保留有用记忆
Yoav 的粗算价值,不在于它已经证明了什么工程结论,而在于它把宣传数字重新拉回了底层账本。哪怕这个估算没有覆盖所有优化手段,仅从量级直觉看,也足以说明长上下文背后不是“白来的能力”,而是伴随明显系统代价。 bet365 trustguru.com.br carlos trustguru.com.br Bet365 trustguru.com.br Sportingbet trustguru.com.br sweetbonanza1000demo trustguru.com.br
真正重要的判断是什么
真正重要的判断是:长上下文更像“大工作台”,长期记忆才更像“档案系统”。前者解决的是单次任务里可见信息不够的问题,后者解决的是系统如何在长周期内保留、更新、检索和遗忘信息。 guias trustguru.com.br jvid在线 jvid.asia autores trustguru.com.br trustguru trustguru.com.br bruno trustguru.com.br Cassinos trustguru.com.br a5game trustguru.com.br
这也是为什么很多 Agent 场景里,只堆大窗口并不能自动换来长期自治。一个能长期工作的系统,往往还需要明确的 memory architecture,包括什么该持久化、什么该摘要、什么该丢弃、什么时候检索旧信息,以及如何避免旧记忆污染当前决策。 como trustguru.com.br fortunedragon demo trustguru.com.br carlos trustguru.com.br Superbet trustguru.com.br plataformademográtis trustguru.com.br Betano trustguru.com.br bonus trustguru.com.br pgdemo trustguru.com.br pglucky88 trustguru.com.br Bet trustguru.com.br
如果把这两件事混为一谈,团队很容易高估“更长 context”对产品能力的实际提升,低估记忆设计、成本控制和检索策略的复杂度。 isabela trustguru.com.br plataformademo trustguru.com.br jvid av jvid.asia cassinos trustguru.com.br pg trustguru.com.br tigrinho gratis trustguru.com.br siro-5639 jvid.asia pedro trustguru.com.br kto trustguru.com.br
我建议怎么理解和应对
如果你在做 Agent、Copilot 或长流程自动化,这里有几个更实用的判断标准: Energiabet trustguru.com.br slotsdemo trustguru.com.br miguel trustguru.com.br pragmatic trustguru.com.br fortunetigerdemográtis trustguru.com.br JogodoTigrinho trustguru.com.br demotigrinho trustguru.com.br sofia trustguru.com.br
- 不要只问模型支持多少上下文,要追问长输入下的延迟、成本和召回稳定性。
- 不要把“能放进去”当成“能记得住”,要单独评估跨任务记忆是否可靠。
- 产品设计上,优先区分临时上下文、会话摘要和长期记忆库三层,而不是把所有东西都塞进同一个窗口。
- 采购或选型时,把“窗口大小”从宣传指标改成系统指标,和真实任务成功率一起看。
1M 上下文当然有价值,但它真正提示行业的,不是“记忆问题已经解决”,而是大家开始更频繁地碰到底层账本。对从业者来说,下一步更该关注的不是窗口数字本身,而是系统究竟如何记、如何忘、如何在成本可控的前提下长期工作。 #长上下文 #长期记忆 #AIAgent #LLM #Autonomy fortuneoxdemográtis trustguru.com.br jogosdemopg trustguru.com.br Blaze trustguru.com.br jvid視頻 jvid.asia pondo-022126_001 jvid.asia demo trustguru.com.br Bet trustguru.com.br
00目录 0