可能是人思维模式和大模型代表的机器思维模式的双向奔赴,或者说互相训练熟悉和融合
了解了一些大模型的思维方式和问题,会发现自己的思维方式也很类似。
例如”幻觉“,在好好:什么是大语言模型幻觉里说
幻觉是由有限的上下文理解引起的,因为模型有义务将提示和训练数据转换为抽象,其中某些信息可能会丢失
因为大语言模型是基于上下文理解进行推演,推演的过程中可能会存在内容不足。如果要继续下去,就需要补充一些内容。大语言模型就“自动生成”了很多内容来补全
人类在有些时候也会这样,所谓“添油加醋”,在我们有一个基本目的和预判之后,就会把获取的真实的内容用来描述验证这个判断,如果内容不足,就会“脑补”一些内容来完整整个推理逻辑
但是“幻觉”其实也是创造力的来源。例如,小说创作其实就是一种拿现实中的事情,然后发挥创作的虚拟内容。如果从大模型角度来说,也是幻觉
还有就是推理(inference)也是很类似的行为。大语言模型形成了一个超大参数的神经网络。当输入内容,也就是提示词(prompt)的时候。会将其通过数百万(甚至数十亿)的参数化神经网络层进行传递。在这个过程中,模型会根据其在训练过程中学习到的模式来处理这些编码
人也是这样。例如我经常会碰到别人问,“你觉得某某新技术是不是很有价值”。我就会结合之前形成的一些认识,例如技术倾向、业务实践结果等经过一定思考(推理)进行解答。这个过程就非常像推理
所以,神经网络有可能和我们人类思考有一定关联。但是肯定也存在绝大差异,如果能够结合我们在日常思考中的成功模式,建立进一步机制来训练大模型。那人类和机器相互趋近就会越来越快,那时候,就无所谓谁训练谁了,主要要考虑,谁管理谁了
发布于 2023-08-05 17:10・IP 属地上海