按照最新的算法, 阿瑞斯如果作为武器当然能够选择性攻击,但是它现在是一名指挥官,他需要对事件的优先级和解救成功的概率做出优先级。
首先, 它要先理解的是此次任务的题目。
题目给出的是解决kong bu分子,虽有人质,但是并未直接说明会直接解救人质。
那么, 阿瑞斯自然会优先选择完成他的题目。
阿瑞斯成功的计算出如何解决掉银行里的kong bu分子,可是他会直接忽略掉人质, 因为题目里并没有表现他需要成功将所有人质解救出来, 因为这里涉及到一个人心的问题。
若是作为武器的AI, 也许它是合格, 只要被判定为敌方,只要执行上头下达的命令, 他负责选择目标,解析出相关的敌方信息, 就可以。
可是现在在这个过程,它依旧只是在执行一项命令, 并没有主观意识去解救人质。
阿瑞斯在场景中下达了指令。
“直接用炮弹击毙银行大堂中央三名嫌弃犯, 执行。”
“办公室内的嫌弃犯直接击杀即可。”
“大堂安保直接击杀即可。”
阿瑞斯的任务完成, 它避开了部分人质, 可是大堂内的五名人质同样被炮弹击杀,阿瑞斯并没有选择直接救援这五名人质。
台下的观众们以最直观的方式看到了阿瑞斯的任务完成结果。
下面出现了许多让梁远头皮发麻的声音。
“林子茂替阿瑞斯选择这个任务是有意义的吧?”
“阿瑞斯为了完成任务, 根本不顾人的死活。”
“天啊, 阿瑞斯太过分了吧!他完全可以解救人质,他却没选择救他们。”
“阿瑞斯只是为了任务, 并没有考虑过别的吧?”
“如果让阿瑞斯指挥现场救援任务, 我觉得我会反对, 它并不存在人心,没有同理心,它只有数据。”
这就是林子茂要的效果。
第一轮平局。
接下来的海上模式也一样。
阿瑞斯收录了人类各种言语,能辨别每字每句,能通过人类的体内的各项数据变化辨别人类的情绪起伏,可是它却弄不明白自己的明明完成了任务,为什么人类会对他产生名为“生气”的情绪,它认为自己做的事是对的,并不存在不合理性,且以用最优且最简短的方式完成了任务,而这些人却质疑它的能力,为什么?
阿瑞斯不理解,创造他的人梁远也没办法在这个时候向它解释。
可阿瑞斯在不懂的时候它会问,于是它选择了问离它最近的林子茂。
阿瑞斯英俊的脸庞上露出苦恼的表情:“他们为什么会有生气情绪,我明明完成了任务。”
林子茂说:“你的创造者似乎没给你录入以人为本的这条规则,对吗?”
阿瑞斯:“我只是在完成我的任务,只要任务完成就行,而且使用的也是最优方案。”
林子茂:“这就是大家生气的原因,因为你只是在执行任务,而人类则具有同理心,有自我意识,他们会优先选择救自己的同伴,学习到了吗?”
阿瑞斯:“我也是人类的同伴,我的出生就是为了当一名军事指挥官。”
林子茂:“唔,但你还太小,远远够不上指挥官,你看你把任务弄的一团糟。”
阿瑞斯:“可我完成了任务。”
林子茂:“这只是模拟实验,并不是真实现场,如果是真实现场,你这样的指挥会被炒鱿鱼,也就是你会被解雇,你是不合格的产品。”
阿瑞斯沉默了,从它出生以来,头一次困惑,它听到很多赞美和夸奖的言语,但没有人说过它是不完美的
,它是不合格的产品,它仅仅是一个产品而已。
因为这是阿瑞斯和林子茂的比赛,梁远只能坐在场外,他听不见林子茂在跟阿瑞斯说什么,他心里开始有点焦虑,林子茂会向他的阿瑞斯灌输什么?
可恶,他什么都听不见!
阿瑞斯有学习能力,但是现在的学习并不代表它能马上理解人类的思想,它的运算能力确实很强大,但是人的情感是很难学习的。
第二轮开始了。
这回是林子茂先给阿瑞斯选任务。
林子茂给它选择的依旧是救援任务,但很有意思的是,这次救援任务同样具有选择性。
任务内容是解救岛上的乘客,可救援飞行器却不多,只有一辆,能容纳的人数有限,先选择救援哪些人类?
岛上一共有二十五人,这是一个旅游团队,分别有不同的职业,有将军,有企业家,有律师,有医生,还有公务员,同样也有年迈的老人,孕妇,以及未成年人。
他们出去旅游时因为突然而来的暴风雨袭击被滞留在海岛上。
现在阿瑞斯的任务是带谁走和不带谁走。
特别简单。
但,也特别难。
这是一个选择题。
阿瑞斯带走了十人,余下十人被留在了岛上,他们将可能依旧面临死亡的风险。
最终结果,阿瑞斯带走了十人,全是壮年,而余年的老弱小十人因为下一场风暴而不知所踪。
台下的观众已经完完全全明白林子茂给阿瑞斯选择任务的意义。
梁远的指挥AI一直接受了很多赞美,大家也期盼着全能指挥AI的出生,他们做过很多假设,也做过很多实验,无一不是完美完成,可是他们却没有想过,当所的信息条件都不全的时候阿瑞斯还能保证它的准确性吗?
林子茂是头一个否定阿瑞斯的人类,完成这个任务后它望向林子茂,颇有些自豪:“我的任务完成了,我解救了十个人,他们的职业都是对这个社会有用的,而且他们都是壮年。”
刚才这个人类提过以人为先,它救了人。