第265章 机器人三定律缺陷

星际超越 赤脚大仙 1253 字 2天前

一年以后,陆平从休眠舱内清醒过来,这时的他终于冷静了下来。

“后土,中心河系有没有找到?”陆平清醒之后,第一件事就是询问任务进展。

“恭喜主人,在你休眠之后,中心河系顺利找到,目前正在对该星系进行观察,试图确认下一级目标。这是中心河系的详细星图。”休眠舱内的子体程序向陆平投影出一张星图。

陆平瞅了一眼星图,这才由机械医生搀扶着,进入了恢复室中。

被强制休眠的情况,陆平并没有忘记。他当时的情况的确不太正常,但是他只需要坚持几天就行,后土却执行了强制休眠程序。

这种情况并不是后土的错误,它是根据陆平的健康指标,执行的预设程序而已。

在这种情况下,它拒绝了陆平的口头指令。前提是为了保证陆平的生命安全。

这不是后土出现了问题,而是陆平发出的指令威胁到了自己的生命安全,与底层逻辑起了冲突。

人工智能的底层逻辑首先要保证陆平的生命安全,将陆平视为一个缺失了正常行为能力的人,在这种情况下拒绝了他的指令。

这其实是人的问题,并不是后土主动抗命。可这种情况却客观的发生了,无论出于什么前提,人工智能确实违反了人类的指令。

一般来说,正常人都不会发出可能危及自己生命安全的指令,可事情总有特例。

这种特例放眼全人类的万亿基数里面,绝对数量的实例应该也会不少。 要是平时也就罢了,万一是在关键时刻发生,岂不是要耽搁大事?

人类自从有了脑机技术之后,一般都不会太过于依赖人工智能了。

只有一些大型的计算需要,或者个人的偷懒行为,才会让人工智能代劳。

这种抗命行为归根结底,还是人的指令和人的生命安全相冲突,想要完美解决,就得从人身上下手,而不是去更改人工智能的逻辑指令。

如果后土当时真的执行了陆平的口头指令,放弃强制休眠程序,陆平会不会过劳猝死?答案谁也无法预知。