第1098章 思维逻辑不等于自我意识(1 / 8)
“这几年,我先后用C100和C200制造出好几批样品机器人,并且一直在观察评估,确定没有任何问题,最终才在几个月前,把C300装进了雅薇的大脑。”
“目前来看,我的担忧应该是多余的,即使有了C系列的智能芯片,机器人也只是在模拟人类,并没有产生脱离于程序设定的自主意识,所以还是能够掌控的。”
“后来我仔细想了一下,思维逻辑并不等于自我意识,这是两个完全不同的概念,使用了C系列芯片的智能产品仅仅只拥有思维逻辑,并没有诞生出以自我为中心的独立意识。”
“所谓的‘思维逻辑’其实也是由开发者事先构建好的,就好比已被发现的公式和定律,C系列的智能芯片只不过是在合理的使用这些东西,用已有的公式和定律进行复杂运算和各种推导,而它不可能创造出新的公式和新的定律。”
“换而言之,除非程序出BUG,否则它会始终服从主人的命令,不会违背一些基础设定。”
黎薇一本正经地说了一大堆,夜星宇逐字逐句地认真听完,途中想起自己曾对雅薇施展过赋灵神通,于是便不动声色地偷偷瞄了雅薇一眼。
此时的雅薇还算正常,没看出什么古怪,但她以前有过几次夸张举动,比如学着侯晓扮鬼脸什么的,感觉不像是一个机器人能做的事。
夜星宇不由怀疑:雅薇那家伙似乎有点不对劲,不会已经诞生出自我意识了吧?
他按耐住疑虑,向黎薇问道:“如何判断一个机器人有没有自我意识?”
“我刚才不是已经说了吗?你有没有认真听?”黎薇没好气地答道,“拥有自我意识的机器人会有自己的想法,无视三大定律的存在。”
她口中的“三大定律”,由上个世纪的科幻小说作家阿西莫夫最先提出,具体如下:
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不顾。
第二定律:机器人必须服从人类给予它的命令,当该命令与第一定律冲突时例外。
第三定律:机器人在不违反第一、第二定律的情况下,要尽可能保证自己的生存。
但经过这么多年的认知发展,原本的机器人三大定律有了一些小小的改变,与最初的版本略为不同,最终归结为以下三点:
第一,机器人不能伤害自己的主人。(非主人身份的其他人类不在此列)
第二,机器人必须服从主人的命令。(只限于主人,且不能违反第一条)
第三,机器人不但要保护好自己,更要保证主人的安全。(不能违反第一条和第二条)
对比后可以得出结论,修改后的三大定律摈弃了道德因素,更偏向于实用观点,是把机器人视为私人物品,而不是全人类的公众财产,甚至可以把机器人当作一种战争武器来使用。
如果还在沿用以前的三大定律,战斗类型的机器人将不可能出现,更没有存在的意义。
试想一下,既然不能伤害人类,那么造出来的机器人拿去跟谁战斗?
所以,夜星宇现在知道了,关于雅薇有没有产生自我意识,就得看她是否违反新的三大定律。