一方面为了追赶先进,另一方面为了培植生态以及建设标准。
结合最近几天的开源社区观察,和我们的实际实践来看,一个良好、稍先进于过去,但依旧存在较多问题的模型,已经能够激发社区里许多的开源战士一起共建,让社区朝着更好的方向前进了。(结尾附加例子,干说没啥意思)

开源是一种成熟的“破局方案”,尤其是在拉长对阵时间线的长期战役中,过往的一些案例:
- MySQL 对弈 Oracle 部分场景是;
- Chromium 对弈 IE 是;
- Android 对弈 iOS 是;
- Linux 对弈各种其他 OS 也是;
- 现在,Llama2 (开源,可商用大模型标杆)对弈 OpenAI + 一众其他的追赶者亦如是。
有技术储备、有耐心的后发者,对于已经积累了非常深厚优势的先行者,想要超越,首先要无限逼近,将优势缩小:开源,将生态做起来,将标准纳入自己的体系,让社区用户跟着你转,然后拉跑先发优势的其他竞争者的用户。
时间拉长,群雄讨伐董卓,自然会演变为鼎足而立的态势,太阳底下没有新鲜事儿,这样的故事已经发生了足够多次,但依旧会继续发生在开源的世界里。
一旦某种开源软件/生态簇拥者众,即使是早期的有优势的寡头,也会不得不迁就这个开源生态,比如做标准妥协(比如浏览器规范反推 w3,从事实标准改 spec),比如软件协议里单独列出的,大家不得不遵守的某些接口(最容易想到的 Google XXX产品 API、AWS S3),甚至变成其他软件默认实现的协议。
在隔壁偏技术的这个问题里,你能看到:
- 在 LLaMA2 模型发布的第二天,就做了 Docker 支持,老大难的部署问题缓解或部分解决了。
- 同一天,用上了社区的简单粗暴的 SFT 中文版本。
- 过了一天,4BIT 量化版出现了,只需要 5GB 显存就能玩了。
- 又过了一天,可以用 CPU 来做推理了。
- 如果你善于搜索,在这个世界的其他的角落里,你会发现还有其他的玩家也在折腾,用生态集成的方式,或者垂直领域在做 finetune 或 lora 化的应用...
就像是有人撒了一把种子在地上,然后浇了水,气温湿热,种子们蓬勃出土
补一个 CPU 跑的欢脱的视频 demo。
再补一个做基础任务替代的 demo。
再再补一个,如果和 code interpreter style 的工具结合。
再再再补一个,没有 GPU?那就用 CPU 来运行 LLaMA2 模型:
感谢真正的开源模型,让上面的一切都能够发生,并且是快速的发生,快速的演进。
编辑于 2023-07-24 00:28・IP 属地北京
真诚赞赏,手留余香
还没有人赞赏,快来当第一个赞赏的人吧!