什么阶段?群模乱舞的阶段。自3月至今,推出所谓自主研发的国内LLM大模型估计得上百家。这还是叫的出名字的。
关键的技术壁垒?国内模型,目前看没有。
讲个真事,4月份推出的最火国内LLM,chatglm-6b,商业报价300万,chatglm-130b商业报价2000万。6月推出的第二代chatglm2-6b就免费了。为啥?被后面的免费商用baichuan-7b超过了。你说这能有啥门槛?啥技术壁垒都没有。
其实不光国内,老美那边也差不多。自从GPT3以后,openai就玩封闭不介绍不开源了。当然事实上搞得抄作业团体很郁闷,但老美那边也有人不服自己干,比如马斯克,还有黑客爆料,说GPT4是8个**组合的。
目前业内一致公认的就是,transformer架构确实有效,大力能出奇迹。所以AI三要素,算力,算法模型,数据,老美制裁咱啥?就是算力,不给你高端GPU,会制裁你模型数据吗?不会,那属于吃力不讨好。
国产GPU目前在快马加鞭搞,反正AI所需GPU的基础技术都是很明确的,抄作业nvidia就好,只是不知道国内能不能搞出自己的CUDA。
从热度上,LLM大模型正在降温,从CSDN的相关大模型发帖就能看出。
怎么评判一个大模型的好坏?最简单的就是能复现,通过Github读官方文档能顺利clone并用本地知识库微调,目前这方面国内还很欠缺。
发布于 2023-07-18 04:10・IP 属地上海