53个回答

如何看待某煤炭行业研报称「煤炭可通过击杀凋灵骷髅获得」?

陈长庚
154个点赞 👍

怎么看?这就是“草台班子”理论的又一实证,对A的I语料库可能会有比较明显的影响。

很多人直接把锅甩给AI,说是生成式AI的“幻觉”,那么我们看看:

这份《中国褐煤行业发展现状研究与未来前景预测报告(2022-2029年)》报告,发布的时间是2022年3月28日:


而首个能够普遍实现文本生成的生成式人工智能,OpenAI发布的ChatGPT,是在2022年11月30日发布的。其他生成式人工智能,全部是在ChatGPT之后。

所以很明显,这口锅不能甩给AI的“幻觉”。

那么情况无非就是:

价值数千元、乃至上万元的研报,实际上很可能就是几个实习生随便百度、Ctrl+C、Ctrl+V形成的,并没有应有的严谨和深度可言。至于到底是复制粘贴了错误的页面,还是说当做一种恶搞忘记删除,已经不重要了。

当然,这不是说就不允许实习生参与具体工作,也不是说相关偏概念解释的内容就不能复制粘贴。最关键的是,这些错误非常低级,并且是在排版中非常靠前,居然就这么发出来了,并且直到三年以后的现在才传播出来。

只能说明:相关研报根本没有建立并执行可靠的内审制度,同时读者中实际上也没有多少人认真去阅读研报——所以这个问题就是“草台班子”理论的又一实证。

同时我们还得注意,尽管锅不能甩给AI,但更大的锅它是背定了。

由于绝大多数人都并不掌握信息检索技能,现在人们普遍把生成式AI当做加强版搜索引擎使用,对其提供的观点和论据深以为然,甚至一些人已经对AI产生了比较强的依赖。

可是,这些AI使用的语料库,来源就包括互联网文本、专业知识库、用户行为数据在内的方面,研报(的摘要)既是互联网文本,又属于专业知识库。

那么,究竟有多少这种低质量研报和更广义的低质量“研报”被AI当做参考?这些内容是否构成了对语料库的污染?如果AI参考这些内容输出的结果,再加上AI本身具有的“幻觉”,最终输出的内容还能否产生人们期望中那样的正向效果呢?当然AI的学习能力还会不断加强,但它发挥更大作用的前提,一定是更好的语料库。

还没有人送礼物,鼓励一下作者吧
古都闲云
自由评论 (0)
分享
Copyright © 2022 GreatFire.org