首先,Meta招募Alexander Wang,赶走杨立昆。这个事情确实是有些抽象。不可否认。
但收购Manus这个事情,可能没有大家想象的那么幼稚。
昨天在另一个问题下,从技术视角回答了这个事件。
评论区有不少有意思的观点。
主要的争论点就是,Manus的“技术底色”,到底撑不撑的起这个收购价。
花高价买这个”套壳“产品,是不是Meta人傻钱多,或者病急乱投医。
没办法,毕竟Manus一出现,就伴随着”套壳“,”营销“的争议。
其实Manus到底有没有技术含量这个事情,实在是太有说头了。
大家普遍认为,一个产品,背后一定要有”硬科技“壁垒,才是真的值钱。
套壳到底价值在哪
我自己也是做技术,做算法的。
其实我能理解很多人对现在“套壳”不屑一顾的想法。
我之前也对很多流行的AI产品有一眼看穿的优越感。
但随着很多AI产品的爆火,以及国内如火如荼的AI出海浪潮。
我的想法发生了不少改变。
现在觉得,科技圈的鄙视链,往往也是最大的判断力陷阱。
我们今天对Manus的价值判断,其实历史上也有迹可循。

2007年,Hacker News对Dropbox的评论,当时也有无数人嘲笑它:“这不就是一个基于 rsync 和 FTP 的简单封装吗?我自己写个脚本就能搞定,这也能融资?”
结果呢?
Dropbox在这些技术上,解决的不是“文件传输”这个底层技术,而是跨平台同步时极度复杂的冲突处理、断点续传和“无感体验”。

2012年Facebook收购Instagram时,也有很多人骂扎克伯格疯了,花10亿刀买个“只会加滤镜的玩具”。图像处理也并不是什么深不见底的技术。
结果呢?那些人只看到了滤镜,没看到它定义的移动端交互范式和社交图谱。

还有苹果。
在 Apple I 和 Apple II 的时代,沃兹尼亚克是那个搞定底层电路板、写出 Integer BASIC 的天才。
如果只看“硬科技”,沃兹尼亚克的技术含量完爆乔布斯。
但在用户眼里,那一堆裸露的电路板和汇编语言是没有意义的。
乔布斯做的,就是那个最大的“壳”——他把冰冷、复杂的底层技术,封装成了普通人都能用的产品。
回到现在AI时代,“壳”的价值到底是什么?
Manus的价值
很多人说,Manus的技术,一天就能复现出来。
我自己也拆解过Github上很多开源项目,比如OpenManus,同样也是Plan Solve模式+虚拟机架构。
但实际用起来却没有Manus的效果那么好。
确实,Manus的技术实现,马后炮的来看并没有太多特别值得称道的地方。
但说白了,Agent 不是一个模型问题,而是一个系统鲁棒性(Robustness)问题。
这就是为什么 OpenManus 和 Manus 在架构图上看几乎一模一样(都是 Planner + Executor + Sandbox),但实际体验却天差地别的原因。
Manus自己发布过一篇博客,介绍过他们做上下文工程的方法。
其实这里又很多人会说,这些工程细节看起来也很浅显啊。
https://manus.im/zh-cn/blog/Context-Engineering-for-AI-Agents-Lessons-from-Building-Manus
但难道Anthropic最近发布的Building Agent Skills不浅显吗?
https://www.anthropic.com/engineering/equipping-agents-for-the-real-world-with-agent-skills
其实很多思想确实都是大道至简,
我在看 OpenManus 的代码时,发现它主要依赖 LLM 的自然语言理解能力去处理上下文。这在短任务上没问题,但在长达 50 步的复杂操作中,模型必定会“迷路”,触发大模型的Lost in Middle问题。
Manus 做了一些极其细碎但致命有效的工程优化。
比如那个看似不起眼的 todo.md 文件——它不仅仅是一个待办清单,而是一种“注意力操控机制”。通过在上下文中不断复述目标,强行把模型的注意力拉回主线。
再比如对 KV-Cache 的极致压榨。
Manus 为了降低延迟和成本,必须确保 Prompt 的前缀是字节级锁定的。
哪怕多了一个动态的时间戳,都会导致缓存失效。
这种对底层推理机制的适配,是简单的 API 调用者根本不会去考虑,但却决定了产品生死的细节。
另外,对于E2B这种开源沙盒,Manus也做了极其深入的“魔改”。
这些Infra层面的细致修改,普通开发者并不容易做到。
Meta买Manus,实际上买的是什么?
我看到很多答案其实没有提到这一点,
稀缺的“过程数据”
做过Agent的同学都知道,要想训练自己的Agent模型,最缺乏的就是所谓的“过程”数据,无论是训练更准的function calling,还是优化模型在复杂环境下的自我纠错能力,都需要海量的、高质量的轨迹数据。
这种轨迹数据特别难搞,目前除了显性的用户日志,只能用大量的合成方式,来进行。
这就造就了极其复杂的数据工程难题。
特别是,“如何操作计算机”的数据,在互联网上是几乎不存在的。
你可以在网上爬到一篇教程叫“如何使用携程订票”,
但你爬不到一个Agent在真实操作携程页面时,面对弹窗、验证码、服务器报错、DOM结构变化时,所产生的“思考-行动-观察-修正”的完整日志。
Manus手里握着的147万亿Token,不是静态的文本,而是动态的“执行流”。
这种数据对于训练过程奖励模型(PRM)简直是无价之宝。
基于强化学习的LLM,在基于结果数据产生思维链这条路跑通之前,很多人尝试过基于过程进行奖励。很难说之前基于过程进行奖励效果差的原因,是否还是由于过程数据的质量问题。
但现在有了一批高质量的过程数据,Meta是否会基于这些数据,重塑llama的荣光?让下一代llama模型变成比别家更强大的“Agent Native”模型,那就看小扎本人是不是这么想的。
还有一点,Meta以前拥有最强的开源llama模型,但陷入了“模型商品化”的陷阱——模型越来越强,但也越来越像水电煤一样便宜甚至免费。
这也是前段时间,Meta的AI动荡的原因。
如果Llama本身不赚钱,Meta靠什么变现?
收购Manus,意味着Meta要把Llama的智力,转化为直接的服务交付。
未来Meta的产品中,比如WhatsApp里,你发一句“帮我订去东京的机票”,Manus在后台直接操作Expedia完成交易,Meta抽取佣金。
这比现在Meta固有的业务,在卖广告的想象空间大得多。
在大多数的企业Agent项目都死于“Demo 很好看,上线就崩溃”的今天,Manus 是极少数解决了“最后一公里”可靠性的产品。
Meta需要Manus这双“手”,打通模型->实际商业的闭环。
总之,Meta花了几十亿收购Manus这一笔,绝对不是所谓的人傻钱多。
它买到的是:
- 时间窗口: 直接跳过1年的工程试错期。
- 数据垄断: 稀有的真实过程数据,也就是下一代 Agent-Native 模型的入场券。
- AI时代的商业模式入口: 从靠广告赚钱模式,跨越到靠Agent服务抽佣赚钱的“意图经济”。



