15个回答

Meta AI 为什么会开源 Llama2 呢?

Ostring
27个点赞 👍

一方面为了追赶先进,另一方面为了培植生态以及建设标准

结合最近几天的开源社区观察,和我们的实际实践来看,一个良好、稍先进于过去,但依旧存在较多问题的模型,已经能够激发社区里许多的开源战士一起共建,让社区朝着更好的方向前进了。(结尾附加例子,干说没啥意思)

一骑绝尘的 LLaMA2 (*商业可用*的、效果不错开源模型哦)

开源是一种成熟的“破局方案”,尤其是在拉长对阵时间线的长期战役中,过往的一些案例:

  • MySQL 对弈 Oracle 部分场景是;
  • Chromium 对弈 IE 是;
  • Android 对弈 iOS 是;
  • Linux 对弈各种其他 OS 也是;
  • 现在,Llama2 (开源,可商用大模型标杆)对弈 OpenAI + 一众其他的追赶者亦如是。

有技术储备、有耐心的后发者,对于已经积累了非常深厚优势的先行者,想要超越,首先要无限逼近,将优势缩小:开源,将生态做起来,将标准纳入自己的体系,让社区用户跟着你转,然后拉跑先发优势的其他竞争者的用户。


时间拉长,群雄讨伐董卓,自然会演变为鼎足而立的态势,太阳底下没有新鲜事儿,这样的故事已经发生了足够多次,但依旧会继续发生在开源的世界里


一旦某种开源软件/生态簇拥者众,即使是早期的有优势的寡头,也会不得不迁就这个开源生态,比如做标准妥协(比如浏览器规范反推 w3,从事实标准改 spec),比如软件协议里单独列出的,大家不得不遵守的某些接口(最容易想到的 Google XXX产品 API、AWS S3),甚至变成其他软件默认实现的协议。


在隔壁偏技术的这个问题里,你能看到:

  • 在 LLaMA2 模型发布的第二天,就做了 Docker 支持,老大难的部署问题缓解或部分解决了。
  • 同一天,用上了社区的简单粗暴的 SFT 中文版本。
  • 过了一天,4BIT 量化版出现了,只需要 5GB 显存就能玩了。
  • 又过了一天,可以用 CPU 来做推理了。
  • 如果你善于搜索,在这个世界的其他的角落里,你会发现还有其他的玩家也在折腾,用生态集成的方式,或者垂直领域在做 finetune 或 lora 化的应用...


就像是有人撒了一把种子在地上,然后浇了水,气温湿热,种子们蓬勃出土


补一个 CPU 跑的欢脱的视频 demo。

再补一个做基础任务替代的 demo。

再再补一个,如果和 code interpreter style 的工具结合。


再再再补一个,没有 GPU?那就用 CPU 来运行 LLaMA2 模型:



感谢真正的开源模型,让上面的一切都能够发生,并且是快速的发生,快速的演进。

编辑于 2023-07-24 00:28・IP 属地北京
真诚赞赏,手留余香
还没有人赞赏,快来当第一个赞赏的人吧!
苏洋
自由评论 (0)
分享
Copyright © 2022 GreatFire.org