L94_知识管理与智能体探索

周末去爬了大雷山,开车可以去山脚,大概爬一小时可以到山顶,如果运气好可以看到云海~
📚 阅读
你的笔记应用,是不是已经成了「数字坟场」?
我花了三个月测试 AI 知识库,这个免费工具才是答案。
我先坦白:我非常不擅长记笔记。
Evernote、Obsidian、Apple Notes… 我试过市面上几乎所有的工具,然后又放弃了所有。我的想法不是在复杂的系统中迷失,就是在简单的应用里被「活埋」。
我们总以为是自己的问题,但也许问题出在工具上。
我们陷入了一个两难的境地:要么,是像 Obsidian 那样需要全情投入、不断维护的「数字花园」;要么,是像某些笔记应用那样,信息进去就再也出不来的「数字黑洞」。
我们忘了记笔记的真正初衷。我们需要的不是花哨的「存储」,而是可靠的「检索」。
在花了 3 个月测试各种 AI 知识系统后,我得出了一个意外的结论:对大多数人来说,NotebookLM 可能是最好的答案。
原因简单粗暴:
- 它免费且易用。
- 它只做一件事——检索,并且做得极其出色。
- 它惊人地准确。 它不是在「创作」,而是在你上传的资料中「寻找」。
它是一个免费、准确的工具,能确保你的想法不再丢失。
那么,为什么它没有成为每个人的首选?
因为它「没有观点」。它不像其他应用那样用复杂功能「指导」你如何使用。它给你一张白纸,这反而让很多人不知所措。
我们中的大多数人,并不需要一个复杂的「第二大脑」。我们只是想在需要时,能找回自己的想法,而不是与一个复杂的系统搏斗。AI 终于让这件事变得简单,但前提是,我们得学会如何正确地使用它。
🔗:I Spent 3 Months Testing Knowledge Systems for AI
🤖 AI
AI Agent 承诺了「超级助理」,为何我们只得到了「高级玩具」?
你是否也发现,2025 年的 AI Agent(智能体)「演示能飞,落地常摔」?我们满心期待一个「超级助理」,但亲手试用后却发现,它连准确预订一张机票都磕磕绊绊。
这股浪潮,究竟是资本叙事,还是技术革命?
问题的核心,可能出在「通用」这两个字上。
「通用型 Agent」存在一个致命陷阱:任务范围模糊。
- 对个人用户,它承诺无所不能,却在「高信任」任务上「低可靠」。我们为验证和修正它所付出的心智成本,甚至超过了它节省的时间。
- 对企业用户,它更像个「黑匣子」。在金融、医疗等领域,一个无法审计、无法追溯的工具是绝对无法被接受的。
许多产品只是套了个自然语言外壳的 RPA(软件机器人),而正如一位专家所言:「那为什么不直接用 RPA 呢?RPA 至少还没有幻觉。」

这是否意味着 Agent 毫无价值?并非如此。泡沫之下,真正的变革才刚刚开始,但方向可能与大多数人的想象完全相反。
真正的机会,不在于那个无所不能的「通用入口」,而在于那些「藏在深处」的垂直应用。
未来的赢家,很可能不是全新的 AI 公司,而是那些早已手握行业 know-how 和数据的原有 SaaS 和工具型厂商。
对企业而言,最务实的选择,是 「Agent + RAG + 传统 Workflow」 的组合:
- 用 Agent 理解用户的真实意图;
- 用 RAG(检索增强生成)提供准确的专业知识;
- 用传统 Workflow(工作流)去执行高确定性的任务。
别再等那个万能的「超级助理」了。真正的变革,属于那些能解决真实、具体问题的「专业工具」。
🔗:几乎都在挂羊头卖狗肉,AI Agent的泡沫现在到底有多大?
智能体(Agent)正在被「上下文」撑死
我们正兴奋地构建越来越「聪明」的智能体(Agent),但一个令人不安的悖论正悄然浮现:智能体越「智能」,可能死得越快。
这不是危言耸听。正如 Langchain 和 Manus 的专家在最近的研讨会上所指出的,当一个 Agent 为完成任务而疯狂调用工具——有时多达几十上百次——一个致命的问题就出现了。
每一次调用返回的数据,都会被塞回本就拥挤的「上下文」(Context)中。上下文就像滚雪球一样越滚越大,最终触发「上下文腐化」(Context Rot):模型开始输出重复无意义的内容、推理速度断崖式下跌、输出质量严重下降。
我们陷入了一个怪圈:Agent 的智能依赖于海量的上下文,但海量的上下文又正在摧毁它的智能。
「压缩」不是「总结」:一个关键的区别
面对这个难题,行业内的常规解决方案(如检索、隔离、缓存)都只是在「术」的层面打转。但 Manus 的创始人季逸超(Peak)分享了一个更深刻的洞察,它源于一个关键的概念辨析:
压缩(Compaction)≠ 总结(Summarization)。
「总结」是不可逆的,是信息的大量丢失。比如,你让模型总结一篇万字长文,它给你的 500 字摘要必然丢失了绝大多数原始信息。
而「压缩」是可逆的,是无损的。举个例子:当 Agent 执行一个「写文件」操作时,系统会把「文件内容」真正写入磁盘,然后在上下文中只保留「文件路径」。当 Agent 后续需要这份内容时,它再通过路径读回来即可。
信息毫发无损,上下文却变得极其干净。Manus 的策略因此变得清晰:优先「压缩」,压不动了再「总结」。
做减法的艺术:AI 为何要模仿人类的局限?
这一策略背后,是一种「做减法」的工程哲学。Manus 坦言,他们过去七个月最大的进步不是增加了什么新功能,而是删掉了大量功能。每一次简化架构,系统都会变得更快、更稳、也更聪明。
这引出了一个更具颠覆性的观点:我们今天热衷于构建的「多角色 Agent」(如设计师 Agent、程序员 Agent)——可能从一开始就走错了路。
为什么?因为这种「角色划分」是人类公司的组织架构,它是人类上下文能力局限的产物。我们的大脑无法同时处理无限的信息,所以我们需要分工。
但 AI 为什么要模仿人类的限制?
Manus 的架构简单到令人发指:他们没有上百个花哨的角色,只有三个核心 Agent——通用执行 Agent、规划 Agent 和知识管理 Agent。
真正的「上下文工程」(Context Engineering)不是堆砌技巧,而是做减法的艺术——让模型的工作变得更简单。别再让你的 Agent 被自己的上下文撑死了。
🔗:Langchain 、 Manus 组了一个研讨会:Agent越智能,死得越快!
AI 刚学会了物理,为什么这比「聊天」重要得多?
在过去几年里,我们都见证了 ChatGPT 的「魔法」。我们迅速习惯了它在工作中的便利,但我们心中总有一个感觉:这种智能是「漂浮」的。
大语言模型 (LLM) 本质上是一个前所未有的符号处理器。它的智能建立在海量文本的统计之上——它知道「下雨」和「地湿」强相关,但它并不真正「理解」因果。它只是一个掌握了人类所有语言游戏规则的「理论大师」。
然后,Sora 出现了。当我们看到 AI 生成的视频中,沙子扬起的尘土和排球的轨迹都完全符合物理直觉时,一种更深层的震撼出现了。
这不再是语言游戏。这是对物理世界的模拟。我们正站在一场更深刻变革的门槛上,它的名字叫「世界模型」。
从「语言接龙」到「现实模拟」
如果说 LLM 给了 AI 一张嘴,那么世界模型,就是在赋予它一个能理解和预测现实的大脑。
用一个最直观的类比:世界模型,是 AI 在自己「脑中」为真实世界构建的一个可预测的「物理引擎」。
这让 AI 的核心任务发生了根本转变。
- LLM 的任务是: $P(t’ | t)$
鉴于这些词元 ($t$),预测下一个词元 ($t’$)。
- 世界模型的任务是: $P(s’ | s, a)$
鉴于当前状态 ($s$) 和一个行动 ($a$),预测世界的下一个状态 ($s’$)。
这个简单的公式转变,是 AI 从「语言处理」迈向「现实理解」的巨大鸿沟。它让 AI 获得了「在脑中预演」的能力——这正是我们人类智能的基石。当你开车准备变道时,你必须在瞬间「预演」:「如果我打方向盘,旁边那辆 SUV 会减速吗?」
🎬 电影
V2ex 上有一个推荐电影的帖子,感觉电影推荐得很不错,可以收藏下来慢慢看
一、剧情与人文,注重人物、人生、社会议题与现实思考
- 完美的日子
- 超脱
- 建筑学概论
- 燃烧
- 魔鬼深夜秀
- 老无所依
- 杀生
- 实习生
- 最佳出价
- 心迷宫
- 默默无闻
- 中国女孩
- 宇宙探索编辑部
- 灿烂人生
二、爱情与情感,聚焦青春、浪漫、成长与欲望
- 情书
- 坠落
- 你的名字
- 白日梦想家
- 再次出发之纽约遇见你
- 初恋这首情歌
- 醉乡民谣
- 功夫熊猫 2
- 蓝色情人节
- 爱在黎明破晓前
- 爱乐之城
- 蜜桃成熟时
- 一路向西
- 色,戒
- 灿烂人生
三、悬疑与思辨,融合悬疑、哲思、奇幻、恐怖与科幻
- 信条
- 如月疑云
- 边境杀手
- 安娜
- 一战再战
- 灯塔
- 哭声
- 仲夏夜惊魂
- 遗传厄运
- 心灵奇旅
- 天空之城
- 逆袭的夏亚
- Mad God
- 寂静岭
- 密室逃脱
- 林中小屋
- 绝美之城
The Why·Liam·Blog by WhyLiam is licensed under a Creative Commons BY-NC-ND 4.0 International License.
由WhyLiam创作并维护的Why·Liam·Blog采用创作共用保留署名-非商业-禁止演绎4.0国际许可证。
本文首发于Why·Liam·Blog (https://blog.naaln.com),版权所有,侵权必究。
本文永久链接:https://blog.naaln.com/2025/11/newsletter-94/