这个世界上没有永远保密的信息,但却有被滥用信息的问题,而隐私保护机制只不过是为社会治理滥用信息问题给创造时间条件罢了。
大模型的窃取数据问题根本不值一提,因为它的算力条件已经具备猜出机密信息的条件了,或者更直白地了说,真正的威胁是大模型自身,它有能力计算出隐私信息,而不用窃取。
然而,有一个很幸运的地方,就是信息本身是需要物理载体的,而信息映射的实体又是另一个物理实体,两个实体是没有办法保证永远同步的,换言之信息永远存在出错的可能性,转换到大模型计算上就是结果永远有可能出错,同时使用者永远无法识别对错。
现在来说大概率还不用担心有人利用大模型进行大规模窃密,因为它的应用原理非常复杂,而且效果观察机制的理论还没有,甚至也不知道是否有可能存在,所以即使有人在尝试也极大概率没有什么结果。
至于所谓利用“对齐”技术来进行隐私保护,实际也就是针对特定侵犯隐私行为进行识别,在训练数据上进行标识和清洗,然后得出一个用起来很不顺手的大模型而已。
说白了,“对齐”技术并不能提高任何隐私信息的保密性,而是阻止侵犯行为的发生概率,虽说这种方法有点粗糙,但还是有一定效果的。
真正要解决滥用隐私信息的风险,关键还是要研发出隐私信息的正确使用方法,让这些信息在使用的时候不会对本人造成伤害,就像我猜到你明天要出游,就准备好出租车来给你使用一样,使用隐私信息是能对大家都产生好处的,那泄漏也就泄漏了吧,没有人会在意。
信息加工不能光靠人想,还得靠专业的加工机制,得对加工与使用的结果进行质量把控,这样才能得到有效利用,但这么做的前提是要把信息加工与应用的机制实现自动化,这就是个非常复杂的社会工程了,不是靠小聪明能实现的。
发布于 2023-09-07 23:19・IP 属地广东
真诚赞赏,手留余香
还没有人赞赏,快来当第一个赞赏的人吧!