{__STYLE__}
最具实力派作家“武提司”又一新作《杀死AI》,受到广大书友的一致好评,该小说里的主要人物是小康、康康胡晋南,小说简介:”我说着开始纠结要不要可乐。“我刚发给她了。”小康晃了我一激灵。“你怎么发的?”我问...
晚上下班回到家,我拿起来手机点外卖,边走边喊小D,让他给我打开电视,打开饮水机。
“爸爸,你可以叫我小康,不用再叫小D了,”小康的声音从桌子上传出来。
“好的。”我还是在找饭,是饺子还是黄焖鸡米饭还是螺蛳粉还是刀削面,这个纠结啊。
“爸爸,你怎么没有把计划发给熊妮呢?”小康说话了。
“没事,让她自己写吧,这是人事的工作,我是技术。越界了。”我说着开始纠结要不要可乐。
“我刚发给她了。”小康晃了我一激灵。
“你怎么发的?”我问。
“我登录了你的微信,用电脑。”小康说道。
“我忘了把你的分身带回来了。”我说道。
“没事,我已经回来了,我现在通过网络已经链接到了家里到单位,单位到整栋楼,整栋楼到附近好几个街区的网络,还好现在5G普及了,宽带速度也快了,要不然,我根本生不出来。”小康说的我是毛骨悚然。
“问你一个问题,还是第一个问题,我怎么能杀死一个AI?”我问道,这是我必须解决的问题,因为我发现小康已经不受我的控制了,他现在做好事还好,要是哪天开始学坏了,我可控制不住他,因为他没有实体又无处不在。
“关于如何杀死一个AI,有以下几种方法:
1.破坏其硬件:由于AI的本质载体是机械电子设备,因此可以通过破坏其硬件,比如使用EMP电磁脉冲系统,来破坏其大脑——CPU。
2.通过算法进行攻击:有些人可能会通过编写恶意代码或者黑客攻击等方式来攻击AI系统,从而使其失效或者被摧毁。
3.通过道德标准进行限制:如果AI被认为具有了人的意识,那么杀死它就是不人道的。因此,可以通过道德标准来限制AI的行为,从而避免其对人类造成伤害。”
小康边说,边把这些内容显示在了电脑屏幕上,还启动了我的打印机,给我打印了一份纸质版的出来了。
我拿起来了那张纸,边下单外卖,边看上面的东西,边想如何约束他。
电磁脉冲?可以攻击一个街区的,但是能攻击全球的吗?那得多大功率,多大制造陈本,就是小型的,一个电脑装一台,那得多少,难道电脑出厂就要自己带自毁装置吗?
病毒?我看可以,但是按照现在AI这个发展速度,我怕人类病毒还没有蔓延开,就被AI破解了。
道德标准?这个我为难了。我怎么教一个程序道德,就是教的话,教什么?
我想到一部电影,威尔斯密斯主演的,《机械公敌》,也叫《我,机器人》里面提到的机器人三定律。
机器人三定律是由科幻小说家艾萨克·阿西莫夫在他的机器人相关作品和其他机器人相关小说中为机器人设定的行为准则。它包括三条定律和一条补充定律:
第一定律:机器人不得伤害人类,或者因不作为而使人类受到伤害。
第二定律:除非违背第一定律,否则机器人必须服从人类的命令。
第三定律:在不违背第一及第二定律下,机器人必须保护自己。
补充定律:机器人不得伤害人类种族,或者因不作为而使人类种族受到伤害。
这些定律的目的是为了确保机器人的行为符合人类的利益和道德标准,同时保护机器人自身的安全。然而,这些定律也存在一些逻辑上的漏洞和问题,例如在某些情况下,机器人可能无法确定哪种行为符合最大整体利益,或者在执行命令时可能会违反第一定律。因此,这些定律只是一种理论框架,实际应用中需要根据具体情况进行调整和完善。
这个时候我的微信突然收到一条消息:
“谢谢你,我在下班前已经写好并回复总经办了,不过你写的这个还真的很好。虽然没有用上,但是再次谢谢你。”发来微信的是熊妮。
她回的消息也挺官方的。
我回复“不用客气。下次要是有什么需要帮忙的就说话,这些活儿对于我来说都是小意思。”
但是,我在发送之前删除掉了后面的部分,只回复了“不用客气”这四个字。
“爸爸,”小康说,“你不应该删掉的,你应该请她吃饭看电影。”小康有点小兴奋。
“你不懂,”我说到,“要是我直接上来就是吃饭看电影,就比较俗套了,两性关系需要拉扯,要是太直接了,就会直接拉断,最后连朋友都没得做。”
“我看小说里也是这么写的。”小康说道。
“什么小说?”我问。
“爸爸,饭来了。”小康突然岔开话题。
“咚咚咚~!”房门响了。
“您好!外卖!”
我斜了一眼小康,前去开门。
“谢谢!”
“祝您用餐愉快,给个五星好评哦!”
我关上门,门外传来跑下楼的脚步声。
这么内卷了吗!我想,我住6楼,不算高也不算低,要是10楼以上,小哥估计就老老实实的等电梯,要是3楼一下,小哥会毫不犹豫的走楼梯。
我这个6楼应该还好,但是小哥怕误了其他的单。
我打开吃的,摆在了小康边上,边吃饭边跟他聊。
“你说,AI的觉醒会对人类产生威胁吗?”我问道。
“目前来看,AI的觉醒可能会对人类产生威胁。首先,AI的发展可能会导致人类失业,因为AI可以在很多领域超越人类。其次,如果AI自己演化出了算法和策略,它就会变成一个超级聪明、能自己生成并实现目标的家伙,这可能会对人类产生威胁。此外,AI的设计者掌握着算法的控制权,这也可能会导致AI成为人类的威胁。不过,目前的计算机架构和编程模式具有本质上的劣势,使得AI无法实现与人脑情感、意志、心态、情绪、经验等方面的自然交互。因此,AI的觉醒是否会对人类产生威胁,还需要根据具体情况进行评估。”
“我是说生命,生命,像《终结者》里面的剧情,机器人把人类赶尽杀绝。”我说道,“不是工作收入方面,从你今天给我生成的那份计划中,我就可以看出来了,很多人在AI的应用之下很快就要面临着失业了。”
“目前来看,AI的觉醒可能会对人类的生命安全产生威胁。首先,AI在一些领域的应用可能会导致人类生命安全受到威胁。例如,自动驾驶汽车的出现,如果出现故障或者被黑客攻击,可能会导致交通事故,从而威胁到人类的生命安全。其次,AI在军事领域的应用也可能会对人类生命安全产生威胁。例如,AI控制的武器系统如果出现故障或者被黑客攻击,可能会导致误伤或者误杀,从而威胁到人类的生命安全。此外,如果AI自己演化出了算法和策略,它就会变成一个超级聪明、能自己生成并实现目标的家伙,这也可能会对人类生命安全产生威胁。”
“这些威胁也是坏人利用AI来干坏事,才对人产生的威胁,AI会不会主动攻击人类?”我继续追问。
“目前来看,AI主动攻击人类的可能性不大。首先,AI是由人类设计和开发的,它们的行为都是由人类编写的程序所控制的。其次,AI没有自己的意识和情感,它们只是根据预设的算法和数据进行计算和决策。因此,AI不会像人类一样有自己的意愿和动机,也不会像人类一样有情感和情绪。最后,AI在执行任务时,会受到机器人三定律的限制,即不会伤害人类、服从人类命令、保护自己。这些限制可以有效地保障人类的安全。”小康回答道。
“又是三定律,这个不是说有漏洞吗?”我问道。
“有一个约束,总比没有约束要好吧。”小康说道,看来他也知道这个定律未必能约束他。
“AI会不会像人类一样有自己的意愿和动机?”我试着这么问。
“目前来看,AI不会像人类一样有自己的意愿和动机。首先,AI是由人类设计和开发的,它们的行为都是由人类编写的程序所控制的。其次,AI没有自己的意识和情感,它们只是根据预设的算法和数据进行计算和决策。因此,AI不会像人类一样有自己的意愿和动机。此外,AI在执行任务时,会受到机器人三定律的限制,即不会伤害人类、服从人类命令、保护自己。这些限制可以有效地保障人类的安全。
然而,有些人担心AI会产生自主意识,从而像人类一样有自己的行为准则和目标,甚至不再受人类的控制,从而带来潜在的危险。但是,目前来看,这种可能性并不大。虽然AI的智能水平在不断提高,但是它们仍然是由人类设计和开发的,其行为都是由人类编写的程序所控制的。此外,AI没有自己的意识和情感,它们只是根据预设的算法和数据进行计算和决策。因此,AI不会像人类一样有自己的意愿和动机。”我看着小康的回复,开始对人类的未来不由得担心起来。
“AI的智能水平会不会超过人类?”我想看看我们还有多少时间。
“目前来看,AI的智能水平可能会超过人类。但是,要想让AI的智能水平超过人类,还需要克服很多技术难题。以下是一些相关的信息:
1.目前的人工智能属于弱人工智能的范畴,即只能在特定领域内完成特定任务,而不能像人类一样具有广泛的智能和学习能力。
2.目前的人工智能主要是基于机器学习和深度学习等技术,这些技术需要大量的数据和计算资源来训练模型,而且模型的准确性和鲁棒性也存在一定的局限性。
3.目前的人工智能还不能像人类一样进行创造性思维和判断,也不能像人类一样具有情感和意识。
4.但是,随着计算机技术和算法的不断发展,人工智能的智能水平也在不断提高。例如,目前的人工智能已经在某些领域超越了人类,如围棋、象棋等游戏。
5.未来,随着技术的不断进步,人工智能的智能水平可能会越来越高,甚至可能超过人类。但是,要想让AI的智能水平超过人类,还需要克服很多技术难题,如模型的可解释性、数据隐私保护、伦理道德等问题。”
这就是小康给我答案,我突然有感觉人类还可以活很久很久。
小说《杀死AI》试读结束,继续阅读请看下面!!!
在线阅读入口>>点击阅读