要看大模型和我们(人类)有啥异同?
大模型基本原理也是在模仿我们人类的学习方式,然后采取某种基于概率的选择法给出答案。
我们人类也是。我们绝大多数普通人所知道的一切,绝大多数也是从我们的看和听中得来。我们看到的和听到的,绝大多数也是别人的观点,别人的观点也是来自于别人(这里说的是绝大多数的普通人)。所以人类的文化和对应的学习,就是这样一个彼此互相借鉴吸收和影响的过程。
大模型的学习和内容的输出本质上和我们差不太多。它也是吸收了训练中的具有某种概率优势的资料后,再输出给我们。当我们带着一种求解的态度去询问它时,我们又吸收了这种输出。转过来我们又在各种场合,将这种输出结合我们一些其他的观点再输出出去,模型又会在某个时机吸纳我们的输出进行训练更新,整合到它未来的新版本输出里。所以在我们和它的系统里就是这样一种循环不息的自反馈。
因为大模型自己本身的超强能力,使得大模型的影响力会被放大。不同版本或者公司的大模型,之后会演变成类似超级KOL的存在。而这些大模型和大模型之间的区别,来自于1 它们在训练过程中被喂养的数据的不同,2 它们如何使用这些数据的方法的不同,以及3 它们后续给各自的输出定义的规则的不同。
回到主题,答案是,我们人类和大模型是彼此训练的关系。
更好的去理解这种关系,最好的方法是知道大模型到底是如何被创建和使用的。
可以看我对有关课程的学习笔记总结:
渺小的人类:课程笔记:Generative AI with Large Language Models 具有大型语言模型的生成式人工智能(week 1-part1)
发布于 2023-07-25 11:56・IP 属地北京