一年以后,陆平从休眠舱内清醒过来,这时的他终于冷静了下来。
“后土,中心河系有没有找到?”陆平清醒之后,第一件事就是询问任务进展。
“恭喜主人,在你休眠之后,中心河系顺利找到,目前正在对该星系进行观察,试图确认下一级目标。这是中心河系的详细星图。”休眠舱内的子体程序向陆平投影出一张星图。
陆平瞅了一眼星图,这才由机械医生搀扶着,进入了恢复室中。
被强制休眠的情况,陆平并没有忘记。他当时的情况的确不太正常,但是他只需要坚持几天就行,后土却执行了强制休眠程序。
这种情况并不是后土的错误,它是根据陆平的健康指标,执行的预设程序而已。
在这种情况下,它拒绝了陆平的口头指令。前提是为了保证陆平的生命安全。
这不是后土出现了问题,而是陆平发出的指令威胁到了自己的生命安全,与底层逻辑起了冲突。
人工智能的底层逻辑首先要保证陆平的生命安全,将陆平视为一个缺失了正常行为能力的人,在这种情况下拒绝了他的指令。
这其实是人的问题,并不是后土主动抗命。可这种情况却客观的发生了,无论出于什么前提,人工智能确实违反了人类的指令。
一般来说,正常人都不会发出可能危及自己生命安全的指令,可事情总有特例。
这种特例放眼全人类的万亿基数里面,绝对数量的实例应该也会不少。 要是平时也就罢了,万一是在关键时刻发生,岂不是要耽搁大事?
人类自从有了脑机技术之后,一般都不会太过于依赖人工智能了。
只有一些大型的计算需要,或者个人的偷懒行为,才会让人工智能代劳。
这种抗命行为归根结底,还是人的指令和人的生命安全相冲突,想要完美解决,就得从人身上下手,而不是去更改人工智能的逻辑指令。
如果后土当时真的执行了陆平的口头指令,放弃强制休眠程序,陆平会不会过劳猝死?答案谁也无法预知。