她跟我说后面半句话的时候,提着枪的那只手背在身后,脑袋微微歪着,单腿站立,另外一只脚的脚尖不时敲击着地面,面部线条忽然柔化,连语气都温和了不少。
--------------------
我自然知道玛莎·布鲁姆什么意思,当下便扭过头,将视线彻底从她身上移开,半跪下来跟单元e4901-b对话:“你们并非真正获得了智慧与生命。严格来说,你们还是机器人。只是依循着系统发出的电信号命令行事。”
“你这是在说谎。你们人类就是充满谎言的生物。”
“是啊,所有人类都说谎。”
“那么。”我右手贴近心脏的位置,接着说,“如果我,即人类所言为真,那就和先前假设此言为真相矛盾;又假设此言为假,那么也就是说不是所有人类都说谎,自己也是人类的我就不一定是在说谎,就是说这句话可能是真的,但如果这句话是真的,又会产生矛盾,怎么处理这个矛盾呢?”
“这,这个……”
单元e4901-b立时陷入了长久的混乱当中。
说谎者悖论:如果你假定它为真,那么它会立刻产生相反的效果。
这是哲学经典问题之一,主要根源是语言的指向性,可以说是语言工具的缺陷之一。
我们科技伦理治理委员会经常以此用来检验ai是否具有自我学习的能力。
不具备自我学习能力的机器人或许可以拥有较之常人更加庞大的知识,但是没有办法加以活用。
如果罗马人是因为语言工具的缺陷而无法只说出【我喜欢红色……我讨厌蓝色】这样的话,那么,没有自我学习能力的机器人就算拥有再多关于【红色】以及【蓝色】的知识,也还是无法明白什么是【红色】,什么又是【蓝色】。
再比如说爱斯基摩人会用二十种名词来形容雪。
其实并没有那么多。
在爱装懂的人之间口口相传后,到底会把爱斯基摩人形容雪的词说成多少种呢?谁也不知道。
而没有自我学习能力的机器人,二十种就是二十种,永远都是那么准确无误。
你若在输入相关信息的时候没有将其备注为传言,那么机器人可能终其一生都会将其奉为真理。
人类的语言对本身所起到的作用和机器人的语言对本身所起到的作用并不相同。
因为人类对于现实的认知,和语言没什么关系。
对人类来说,所说的话会存在真假性,本来就是一件很可笑的事啊。
当我对你以一种犹豫不安的表情轻声说:【我刚才说喜欢你,是说着玩的,你别当真……】
第一遍时,你会是什么反应呢?
把我所说的话当真?真的不当一回事?
当我不顾你的反应,再次以犹豫不安的表情并以希冀的眼神说:【我真的是说着玩的。】
你还会把我所说的话完全当真吗?
当我在你愣住的时候,一下子哭出声说:【我真的就是说着玩的。】
这个时候你要是不明白我是在不好意思且在撒娇的话,你真的就是活该一辈子做个单身狗了。
说到底,从广义的角度上讲,我也可以说是被人类本性扭曲了人生的受害者之一。
即使我的谎言基本上都是善意的谎言,谎言就还是谎言,没有办法变成真话。
而且,我这个可怜的殉道者,还必须要被这种本性纠缠,始终在艰难困苦的道路上前行……你不觉得吗?我很可怜么?
正因为如此,我也很清楚说谎是不对的。
我深知自己为了保持人性而做出了偏离正确的行为。
为了不将已到手的东西分享出去,不谈历史上曾发生过的机械叛乱,就算这些机器人和南河三那群真菌类生物一样真的拥有智慧与生命,想要与我们井水不犯河水,互相尊重,我也要毫不留情地将其肃清。
对不起,对不起……真的对不起……!
好嘞,既然道过歉了,罪就赎清了。
“你们认为自己拥有智慧与生命,只不过是你们称为有机体的其他人类所下的命令而已。”我将激光枪抵在单元e4901-b的额头,笑的时候让眼睛微微眯起来,“如果我此言为假,于你们而言,何言为真?”
“你们……”
我又将枪口往前一推,笑容一点点消失:“怎么说呢?”
我微微皱起眉,看那张与我完全不像,却感觉有几分相似的脸:“会思考可是很痛苦的,当一个不用思考的机器人,不是挺好的吗?”
原子受激辐射的光,比太阳的温度还高。
单元e4901-b顷刻间便被我击毁。
剩余的机器人采用了最稳健的战术,就是以推进的方式突破。
说的难听点,就是不管三七二十一地靠机器人的身体素质与我们这种基因改造人硬碰硬。
基于空间的大小,机器人们势必暴露在玛莎·布鲁姆的枪口之下,损伤在所难免,而且过程枯燥无味。但如果想要以最小伤亡取得胜利,这或许反而是最佳的战术。
什么迂回转进、机动作战之类的做法在此时都派不上用场。
面对人海战术,任何复杂的战术都会失去意义。
所有机器人们相隔约一个人通过的距离,各自踏出了一步——既然前排注定要承受炮击,队伍自然不能排的太密集。
机器人队伍以整齐划一的动作冲开空气扑向我们,人工塑造的金属制品,试图咬住造物主的咽喉。
我和玛莎·布鲁姆往后急退,玛莎·布鲁姆意识到眼前的形势比先前还要紧迫,于是按了一下把手上的按钮。