6个回答

是我们在训练大模型,还是大模型在训练我们?

刘聪NLP
18个点赞 👍

这个问题,首先让我想到了《人类简史》里提到的人和小麦相互驯化的关系:

人类通过长期的人工选择和种植,选取具有高产量和易于收割加工的小麦种子进行种植。在农业革命时期,人类投入大量时间和精力来种植小麦,进行除草、防虫、灌溉等管理活动,逐渐将小麦驯化成现代农业中使用的作物。

小麦的高产量和丰富营养使人类能够获得更多食物,促进了人类数量的增长。农业的出现改变了人类生活方式,让人类不得不永久定居在农田附近,投入更多时间和劳动来栽培小麦,改变了人类的生活节奏和生活方式。小麦的种植让人类形成了农业文明,推动了社会的发展和进步。

类比之下,我们和大模型的关系是否有相似之处呢?

以ChatGPT为代表的大型语言模型,是通过人工构建深度模型,使用丰富的人工创作语料进行训练,才获得了一定的语言理解和生成能力。而大型语言模型的使用过程,也带来了一系列反向作用,对我们的表达方式和沟通方式潜移默化产生了影响,使我们更倾向于场景化、角色化详细解释诉求和意图,在写作时,也更倾向于使用类似大模型的条理化表达形式。某种程度上,我们训练了模型,模型也确实反过来训练了我们。

进一步思考,会有新的发现。

与小麦不同,大型语言模型是人工塑造的,从内容到形式都是人工设计和优化得到的,并不具备什么天然的属性,其影响我们最为深远的理解和表达能力,也是通过对用来训练它们的人工创作文字的模仿实现的。

换句话说,大模型的“本事”,实质上是人类智慧的“蒸馏”输出,其风格也是人类文字记载里最为一致的表达风格。可以将人类与大模型的关系,类比为生成对抗网络(GAN)中的辨别器和生成器,不同的是,双方在不同阶段分别扮演了这两个角色。

在大模型的训练阶段,大模型是生成器,人类则充当辨别器的角色,通过其创作的文字语料作为代理辨别器,通过训练让大模型的输出更符合人类文字创作风格和逻辑。

在大模型的推理阶段,也就是用大模型进行生成式对话的时候,大模型在某种程度上扮演了辨别器的角色,而人类用户则成了生成器。在对话过程中,通过人工的大量提问(输出),反向筛选出最能与大模型高效沟通的话术,这个过程就是我们所说的提示工程。优质的提示可以显著改善生成结果的质量、提高沟通效率。

总而言之,从端到端的视角看,大型语言模型就像一座桥梁,让我们接触到了承载人类智慧的海量文字记载,这些智慧以模型能蒸馏出的角度影响着我们。简而言之,是有偏的人类智慧以模型交互的形式影响了我们自己。

编辑于 2023-07-25 18:11・IP 属地北京
知乎用户
自由评论 (0)
分享
Copyright © 2022 GreatFire.org