32个回答

Meta 数十亿美元收购 Manus,如何解读?会对双方带来怎样的影响?

晚点LatePost
137个点赞 👍

首先,Meta招募Alexander Wang,赶走杨立昆。这个事情确实是有些抽象。不可否认。

但收购Manus这个事情,可能没有大家想象的那么幼稚。

昨天在另一个问题下,从技术视角回答了这个事件。

评论区有不少有意思的观点。

主要的争论点就是,Manus的“技术底色”,到底撑不撑的起这个收购价。

花高价买这个”套壳“产品,是不是Meta人傻钱多,或者病急乱投医。

没办法,毕竟Manus一出现,就伴随着”套壳“,”营销“的争议。

其实Manus到底有没有技术含量这个事情,实在是太有说头了。

大家普遍认为,一个产品,背后一定要有”硬科技“壁垒,才是真的值钱。

套壳到底价值在哪

我自己也是做技术,做算法的。

其实我能理解很多人对现在“套壳”不屑一顾的想法。

我之前也对很多流行的AI产品有一眼看穿的优越感。

但随着很多AI产品的爆火,以及国内如火如荼的AI出海浪潮。

我的想法发生了不少改变。

现在觉得,科技圈的鄙视链,往往也是最大的判断力陷阱。

我们今天对Manus的价值判断,其实历史上也有迹可循。

2007年,Hacker News对Dropbox的评论,当时也有无数人嘲笑它:“这不就是一个基于 rsync 和 FTP 的简单封装吗?我自己写个脚本就能搞定,这也能融资?”

结果呢?

Dropbox在这些技术上,解决的不是“文件传输”这个底层技术,而是跨平台同步时极度复杂的冲突处理、断点续传和“无感体验”

2012年Facebook收购Instagram时,也有很多人骂扎克伯格疯了,花10亿刀买个“只会加滤镜的玩具”。图像处理也并不是什么深不见底的技术。

结果呢?那些人只看到了滤镜,没看到它定义的移动端交互范式和社交图谱。

还有苹果。

在 Apple I 和 Apple II 的时代,沃兹尼亚克是那个搞定底层电路板、写出 Integer BASIC 的天才。

如果只看“硬科技”,沃兹尼亚克的技术含量完爆乔布斯。

但在用户眼里,那一堆裸露的电路板和汇编语言是没有意义的。

乔布斯做的,就是那个最大的“壳”——他把冰冷、复杂的底层技术,封装成了普通人都能用的产品。

回到现在AI时代,“壳”的价值到底是什么?

Manus的价值

很多人说,Manus的技术,一天就能复现出来。

我自己也拆解过Github上很多开源项目,比如OpenManus,同样也是Plan Solve模式+虚拟机架构。

但实际用起来却没有Manus的效果那么好。

确实,Manus的技术实现,马后炮的来看并没有太多特别值得称道的地方。

但说白了,Agent 不是一个模型问题,而是一个系统鲁棒性(Robustness)问题。

这就是为什么 OpenManus 和 Manus 在架构图上看几乎一模一样(都是 Planner + Executor + Sandbox),但实际体验却天差地别的原因。

Manus自己发布过一篇博客,介绍过他们做上下文工程的方法。

其实这里又很多人会说,这些工程细节看起来也很浅显啊。

manus.im/zh-cn/blog/Con

但难道Anthropic最近发布的Building Agent Skills不浅显吗?

anthropic.com/engineeri

其实很多思想确实都是大道至简,

我在看 OpenManus 的代码时,发现它主要依赖 LLM 的自然语言理解能力去处理上下文。这在短任务上没问题,但在长达 50 步的复杂操作中,模型必定会“迷路”,触发大模型的Lost in Middle问题。

Manus 做了一些极其细碎但致命有效的工程优化。

比如那个看似不起眼的 todo.md 文件——它不仅仅是一个待办清单,而是一种“注意力操控机制”。通过在上下文中不断复述目标,强行把模型的注意力拉回主线。

再比如对 KV-Cache 的极致压榨。

Manus 为了降低延迟和成本,必须确保 Prompt 的前缀是字节级锁定的。

哪怕多了一个动态的时间戳,都会导致缓存失效。

这种对底层推理机制的适配,是简单的 API 调用者根本不会去考虑,但却决定了产品生死的细节。

另外,对于E2B这种开源沙盒,Manus也做了极其深入的“魔改”。

这些Infra层面的细致修改,普通开发者并不容易做到。

Meta买Manus,实际上买的是什么?

我看到很多答案其实没有提到这一点,

稀缺的“过程数据”

做过Agent的同学都知道,要想训练自己的Agent模型,最缺乏的就是所谓的“过程”数据,无论是训练更准的function calling,还是优化模型在复杂环境下的自我纠错能力,都需要海量的、高质量的轨迹数据。

这种轨迹数据特别难搞,目前除了显性的用户日志,只能用大量的合成方式,来进行。

这就造就了极其复杂的数据工程难题。

特别是,“如何操作计算机”的数据,在互联网上是几乎不存在的。

你可以在网上爬到一篇教程叫“如何使用携程订票”,

但你爬不到一个Agent在真实操作携程页面时,面对弹窗、验证码、服务器报错、DOM结构变化时,所产生的“思考-行动-观察-修正”的完整日志。

Manus手里握着的147万亿Token,不是静态的文本,而是动态的“执行流”。

这种数据对于训练过程奖励模型(PRM)简直是无价之宝。

基于强化学习的LLM,在基于结果数据产生思维链这条路跑通之前,很多人尝试过基于过程进行奖励。很难说之前基于过程进行奖励效果差的原因,是否还是由于过程数据的质量问题。

但现在有了一批高质量的过程数据,Meta是否会基于这些数据,重塑llama的荣光?让下一代llama模型变成比别家更强大的“Agent Native”模型,那就看小扎本人是不是这么想的。

还有一点,Meta以前拥有最强的开源llama模型,但陷入了“模型商品化”的陷阱——模型越来越强,但也越来越像水电煤一样便宜甚至免费。

这也是前段时间,Meta的AI动荡的原因。

如果Llama本身不赚钱,Meta靠什么变现?

收购Manus,意味着Meta要把Llama的智力,转化为直接的服务交付。

未来Meta的产品中,比如WhatsApp里,你发一句“帮我订去东京的机票”,Manus在后台直接操作Expedia完成交易,Meta抽取佣金。

这比现在Meta固有的业务,在卖广告的想象空间大得多。

在大多数的企业Agent项目都死于“Demo 很好看,上线就崩溃”的今天,Manus 是极少数解决了“最后一公里”可靠性的产品。

Meta需要Manus这双“手”,打通模型->实际商业的闭环。

总之,Meta花了几十亿收购Manus这一笔,绝对不是所谓的人傻钱多。

它买到的是:

  • 时间窗口: 直接跳过1年的工程试错期。
  • 数据垄断: 稀有的真实过程数据,也就是下一代 Agent-Native 模型的入场券。
  • AI时代的商业模式入口: 从靠广告赚钱模式,跨越到靠Agent服务抽佣赚钱的“意图经济”。

队长
自由评论 (0)
分享
Copyright © 2022 GreatFire.org