18个回答含有被封锁的答案1个

kimi chat大模型的200万长度无损上下文可能是如何做到的?

知乎用户

有可能模型本身很小,或者模型本身有很多out,大部分的token可以在小模型对应的out出结果,只有少部分token需要跑完比较大的模型。

发布于 2024-03-29 17:21・IP 属地北京
还是不注名好
自由评论 (0)
分享
Copyright © 2022 GreatFire.org