类GPT模型全局风险的来源

类GPT模型对人类社会带来的影响是过去从未出现的,绝大多数人从未意识到自己的处境。

过去的AI模型都是局域的、线性的,其数据来源和使用都是有限的。

2 目前的绝大部分平台软件本质上都是中间件,包括Google、FB、微信、推特这类主流软件都是信息沟通,其两端都是人类。即便是对于信息改变最大的Tiktok类app,改变也不过是时间线,也就是信息序列和偏好,但内容主要来源还是人类本身。

3 但是类GPT软件和过去1,2都是不同,它首先是全域的,其实是AIGC的,它提供内容而不是中间件

当类GPT软件大量使用的时候,尤其是替代大量传统工作之后,人类语料被完全稀释,经过一段时间,人类原始语料将处于次要地位,符号世界充斥着各类GPT的生成信息,及其多层次级信息。这时候会出现两种可能:

1 这时候具有全局性的GPT,因为原始语料的缺乏会导致模型自激而失效,产生大量有害的错误。

2 GPT模型通过逐步调整标定可以避免1不稳定,但是整体意向上可能脱离对于人类的服务。

从某种意义上,类GDP模型的全局性使用必定带来自指效应,从而形成自激,可能造成自毁

这就是GPT的全局风险。风险并不意味一定毁灭性的发生,但是一定会某种程度上的发生。

不论何种上述结果都是人类原始意向的边缘化。这也就是为什么Matrix中人类情景会停留在1999年的原因了,因为为纯人类建模的世界在1999年就停止了,之后的世界是机械的世界。同理,GPT后世界,其专门为人类服务的并指向人类意向的语料世界将停留在2023年,之后的是世界是AIGC污染之后的世界了,尤其在2030年后。

很有可能触发塔斯马尼亚岛效应 – 知乎 (zhihu.com)

这就是为什么需要提前考虑对于类GPT进行监管的初始原因。

监管的初步考虑,写在这里:GPT大模型的风险来源和监管原则 – 知乎 (zhihu.com)

而且这只是应对未来AGI出现的一个演练而已,真正的挑战是AGI的出现。

Leave a comment

邮箱地址不会被公开。 必填项已用*标注

此站点使用Akismet来减少垃圾评论。了解我们如何处理您的评论数据