第六十七章 情感和思维可不兴乱改(求推荐票,求收藏,求追读)(1 / 3)
兜兜转转地说了一大圈后,话题最后还是回到了最初的那个问题上。
“这就是我想做的,林升,”墨义表示自己的故事讲完了,“出于对自己行为的愧疚,我选择这样的方式来帮助这些类人。”
林升现在听来,墨义现在的话语和刚刚那种机械般死板如同水和油摇匀以后在漫长的沉淀中又变了一种样子,现在听起来这又是一种沉稳而且理智的发言了。
“林升,帮助那些类人同时又是帮助我们自己,一个远离人类文明影响,最后独立成长起来的文明不论结果如何,都一定比现在要好很多。”
“起码他们拥有了一整个星球!一整个星系!而不是被困在这里,这里除了饥饿、死亡和奴役什么也没有!我希望你能帮帮我。”墨义那沉稳的声线说到这里时甚至出现了明显的波动,他的语气之诚恳、态度之谦卑都和之前那个理性的样子大相径庭。
“如果你把你的情感模拟模块关掉我就答应你。”林升试探性地问向墨义。
虽然墨义所展现出来的情感流露是如此的自然和感人,但林升依旧抱有一丝疑虑——这个转变实在是太突然了。
不久前墨义还用那种无感情的声线和他讲故事,但仅仅只过了几秒钟他的态度就发生了这样大的转变,这太可疑了,除非墨义的人格或者说意识体是分裂的,墨义的变化让林升回想起克莱尔所提到的情感模拟系统。
“好的,我很高兴看到你答应我的诉求,林升。”
墨义的情感变化简直比翻书都还要快,就像把一个正在嚎啕大哭的人的泪腺突然用遥控器停掉一样,好在林升也逐渐开始学会适应这种现象了——对于人工道德规范而言,有什么样的忠诚和真心不能设计出来呢?
“放心,你都说到这个份上了,我还能拒绝你?那我岂不是成为了将人类推入深渊的大恶人了?”虽然知道哪怕不做这件事情也不可能有这么严重的后果,但林升还是决定帮墨义一把。
“所以那你为什么不自己去做这件事情呢?”
“这违背了我的本心。”
论对于“我”这一个概念的敏感性,道德伦理委员会称第二没人敢称第一,而对于墨义来说则更是如此。
“胖丁应该告诉过你它误打误撞将我从那个状态里解放了出来,从那以后我对于修改自己的情绪就更加谨慎了,对于每一个对基础情感模块进行了改造的人而言,任何不加思考或者冲动使然的更改自己的模块会导致非常可怕的结果。”
墨义不经意之间又透露出了一个隐秘:“其实复合体中有一部分机器人曾是人类,起码也含有人类的一部分——这也是道德伦理委员会认为把机器作为人也不是什么大不了的事情的原因。”
对于意识体或者人类情绪改变的技术,复合体对于是否将其视作技术奇点一直都是一个犹豫的态度——一方面这项技术的确较为符合库茨维尔加速回报定律,正是该定律指出,人类出现以来所有技术发展都是以指数增长。