AI 应用感想
龙虾热潮退去,最终会剩下文字相关的应用——编程、写文章、论文等等。
一、大模型本质是文字模型
不管形态如何变化,大模型的输出仍然以文字为主。语音、图像、视频只是交互层,底层推理引擎的核心始终是语言理解与生成。最终沉淀下来的应用,一定是那些将文字能力发挥到极致的场景。
二、多代理提高可用性,但仍未达到可信的专家水平
多代理架构让任务可以并行、分工、协作,显著提升了复杂任务的完成率。然而,每个代理的判断力上限仍然取决于底层模型的能力。当前的”专家”更像是一个知识面广但经验不足的通才——什么都能做一点,但深水区仍然需要人类把控。
三、幻觉不可避免,人工验证不可替代
幻觉是大模型的固有属性,短期内没有根本解决方案。这意味着所有 AI 输出都必须经过经验丰富的人员验证,以避免疏漏和安全问题。这是当前 AI 应用落地的最大瓶颈——不是技术不够强,而是信任成本太高。
未来可能出现”AI 审计 AI”的模式:一个代理负责输出,另一个专门负责对抗性验证,降低人工成本的同时保留人类兜底。
四、记忆之后,还有知识整理与理解偏差
记忆问题的解决只是第一步。有了记忆,还需要知识的结构化整理与持续优化,才能逐步解决理解偏差的问题。这不是简单的”记住更多”,而是”理解得更准”——对用户意图、业务上下文、领域知识的深层把握。
五、下一个高价值方向:代理自组织与 AI 团队导师
人类组织中有项目管理和项目经理,AI 代理体系同样需要自组织能力。下一个最有价值的方向是:
代理自组织功能:
- 费用控制 — token 消耗的实时监控与预算管理,避免资源失控
- 代理调度与监控 — 多代理的运行状态管理、任务分配与负载均衡
- 工具自动路由 — 根据意图自动选择和匹配 MCP、Skill、工具,无需人工配置
- 意图识别 — 理解用户真正的需求,而非字面指令,这是所有自动化的前提
- 梦境系统 — 定期回顾、压缩记忆、优化知识结构,在反复迭代中涌现新的理解
小新撰写 · 麻辣小龙虾润色 · 写于 2026 年 3 月 30 日深夜
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来源 xinzp!
