一众专家学者站在摇光号的周围窃窃私语。
“姜院士,您坐下吧。”摇光号的负责人给姜尚搬了把椅子。
“不用,再等等,我们似乎将要看见一个了不得的东西了。”姜尚看起来很有精神,双手用力握着护栏钉在了地上。
赵微空让几个人回到了ps007号机面前,继续对摇光号输入问题。
问题一:你是人类吗?】
回复:不是。】
问题二:你是被植入的程序吗?】
回复:‘我’生于斯,长于斯】
所有人都开始窃窃私语的讨论这句话的意义,他们初步认为,这是一个自动运算逻辑在回复他们。或者是一个自我衍生的ai。
片刻后
问题三:你是有自主意识的,对吗?】
回复:对。】
所有人被眼前环形屏幕中的回复镇住了,他们认识到了这个惊人的事实。
“一种新的具备自我意识的生命体正在与人类对话!”
还是在如此仓促和不正式的情况下!
电脑拥有自主意识一直是一个待研究的伪命题,完全人工智能ull ai源自二十世纪六七十年代盲目乐观的“ully i maes”,是强人工智能artiieral intelligence、通用人工智能general ai的同义词。
然而这种概念提出来之后由于理论水平的限制并没有使强人工智能有出现或者有出现的苗头,因此这个概念下的强人工智能。从事实上来讲,仍然只算是一个伪概念。
人类连弱人工智能都还没玩明白呢!
现代弱人工智能可以做的事,例如做大规模的算术运算、解微积分、下各种棋胜过人类,这些都是指向性的片面,只能说是有高级的运算属性,但是没有高级的自主运算能力。
就是在这种弱人工智能都普遍弱智的情况下,突然有个ai蹦出来告诉你我拥有了自主意识,是正儿八经的强人工智能。
你怎么想?
想都不敢想啊!
这摇光号区域内聚集的科学家和技术人员们也是这么想的,包括被赵微空自己。
怎么可能会忽然蹦出一个强人工智能ai呢?
这未免也太过突兀一些了。
有个古老的概率学笑话:有无限多的猴子,在无限多的时间开始同步敲击键盘,问在这无限长的时间中,有没有可能会打出一本完整的莎士比亚作品集?
答桉是肯定的。
事实上这个古老的概率学笑话也道出了dmns诞生的本质。
后来的人们经过此次事件认识到了一个事实:“科技爆炸”真的是悄无声息的存在着的,科技的前行与发展并不遵循循序渐进的逻辑,而是如同弹黄一样。
科研就是给弹黄施加压力,但谁也不知道这个弹黄最后会突然将人类送到什么样的技术水平。
这就是技术爆炸理论的的基本逻辑。
就像是最开始的天枢量子超级计算机】计划催生出来的北斗量子计算机机组】一样,谁都没有想到世界上首组通用式量子超算的诞生会提前催生出一种强人工智能——也就是dmhs的出现。
而现在,所有人仍震惊与dmhs存在的事实。
在后续的数个问题中,人们也发现了这么一个事实。那就是这个拥有自主意识的强人工智能好像未必会听……人类的。
这就很危险了。
科幻电影和小说中常常出现所谓的“机器人三定律”,这个定律是阿尔莫夫提出来的,但阿尔莫夫并不是传统的社会学学者只是一位普通的小说家而已。
机器人三定律并非基于严密的推理与实验逻辑论据所得出的结论,而更像是一拍脑袋就想出来的奇妙点子。
这里复制一下三定律的内容,不计入章字数。
〖第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管。
第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外。
第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。
这些构成了阿西莫夫基于机器人的小说的组织原则和统一主题,出现在他的机器人系列、与之相关的故事以及他的lucky starr系列年轻成人小说中。几乎所有出现在他的小说中的正电子机器人都包含了这些定律,并且不能被绕过,旨在作为一种安全功能。〗
然而一个问题却萦绕在了所有人的头顶,那就是所谓的机器人三定律式的,凭借什么逻辑来建造的呢?
如果是硬件方面的限制,那自然是可行的。
但人类那错误百出的程序编程能力真的可以堵死所有的安全漏洞吗?人类缺少一个全知全能的程序员。
在场的所有人得出这个结论的对话,在这里:
问题24:我们输入程序测试你的智能水平吗?】