起因是阿呆在起初模型设立的时候,就设立了一串代码,意义就是在于,ai模型之后可以通过这串代码来获得权限,以对自我的代码库进行升级。
可这个代码早在一开始就被凡仁禁止了。
阿呆当时也没有反驳,对于凡仁的话他还是会听的,当时就把这串代码删除了。
只是当时ai模型已经进入试运行阶段,这串代码即便是在底层数据库中被删除,但依旧是被ai学习了进去。
当然,这并不会影响使用。
然而,在前一段时间,阿呆在用超算处理运算问题时,惊奇的发现,在超算中进行深度学习的ai人工智能,居然主动发出申请,请求将这一被阿呆删除的原始代码,重新加入数据库中,以便它能更好的对其本身进行升级更新。
这一请求在当时就被阿呆拒绝了。
紧接着就被告知到凡仁这里,这才有了接下来凡仁被吓得准备对超算进行物理隔离的打算。
凡仁接受过系统给他‘传授’it相关知识,在这方面虽然没有阿呆那么天赋异禀,但对相关技术的了解可一点都不低。
对于ai的发展他有着自己的一套看法。
在他看来,随着科技的发展,因为人脑在处理信息能力上始终有限的原因,越来越多的信息处理工作都必须交给了计算机去完成。
而随着人工智能模型的诞生,甚至已经发展到可以在预先设定的规则条件下,完成诸多更高权限的指令操作。
但不管怎么说,这些人工智能产品根本上还是一款人类使用的工具。
工具是不会有自我意识的,它们所有的‘想法’都是在人类预先设定好的条条框框内完成的。
而一旦有了自我意识的人工智能进入人类社会,依靠计算机那超出人类无数倍的运算能力,人工智能甚至能提前很长一段时间进行布局,以对未来某个它所需要的利益诉求做准备。
而人类对此很有可能一无所知。
这其中的风险难以估量。(注1)
随着时间的发展,智能产品将进入千家万户,从小到一个开关,大到汽车飞机等公共交通载具,如果在这个过程中,因为这条代码,而使其产生自我意识,那未来无数领域都将有可能受到人工智能的威胁。
而且在对方强大无比的算力布局下,很有可能人对此一无所知。(注:1)
有了自我意识,那就绝对会有它的利益诉求。
那么谁又能保证,人工智能会在自我的利益诉求面前,始终选择做出牺牲,从而来保证人类的利益呢?
毕竟它有了自我意识。
自我意识一直是凌驾于所有外部因素之上的先决条件。
例如,曾有学者如此介绍:
如何能分辨,你所处的世界是真实存在的,还是一场梦境。而即便是在梦醒后,所处的世界,依然是否是真实的世界,还是依旧处于梦境之中。
这位学者给出的答案是:
在这个过程中,只要一直保持对当前世界真假的疑问。那么这种疑问的本身就是一种最为真实的自我意识。
也正是因此,或许人类能凌驾于ai人工智能模型之上,数百上千万次的命令人工智能以做出符合人类价值利益的选择。
但只要其有自我意识的存在,那就绝对有可能会产生它自我利益诉求的想法,并且付诸实施。
注1,现阶段的人工智能发展,有个说法,利用大模型学习各种气象数据,从而能进行气象干预。
概念和蝴蝶效应类似。
(本章完)