人工智能失控:机器人刺杀工程师事件背后的真相?

发表时间: 2024-09-07 20:46

声明:本文内容均引用权威资料结合个人观点进行撰写,文末已标注文献来源,请知悉。

如今正步入人工智能时代,许多事情不用亲自动手,就有自动化的机器人给办的妥妥的。

只是,人工智能真的安全吗?最近马来西亚发生的一起惨案,引发了人们对机器人的热议。

机器人伤人事故

最近,在马来西亚的一家棕榈油厂内,一位34的男员工莫名失踪,生不见人死不见尸,让调查的警方摸不着头脑。

这名员工还是新人,来厂里上班刚满一周,工作勤勤恳恳,从没出现早退旷工的情况,显然不可能是偷偷溜出去玩了。

据同车间的同事回忆,在出去吃午饭之前,他还和这名消失的男子道别,等吃完饭回来,就一直没见到他了。

警方听完这个描述后,一遍遍地查看厂里的监控,可这个监控照到的区域有限,只记录到了大门的部分区域。

可这大门来来往往的人里,都不见失踪男子的身影,说明这个男子一直在这间厂里

可一个一米多高的人,怎么像变魔术一般消失了?

就在案件悬而未决之时,一个负责清理垃圾的同事,忽然惊叫出声,他所处理的棕榈纤维散落一地,一片黑红。

警察被吸引过去,看到这堆垃圾里,有一些碎肉,拿回去做了DNA鉴定,发现这正是那名失踪的男子。

最终,警方经过现场勘察,以及对尸块的分析,解开了所有谜题。

原来,这名男子是在工作时,不小心卷入了传送带,之后被无情地绞死。

这一起事故发酵后,成功引发了人们对自动化生产,以及机器人的思考。

机器人伤人,已不算什么少见多怪的事。

去年12月26日,英国《每日邮报》报道了一起发生在特斯拉工厂机器人杀人事件

据目击者称,当时一位工程师正在为一台故障的机器人编写程序,原本一动不动的机器人,突然暴起,压在他身上。

被这么一大块铁疙瘩压着,想要立即脱身已经不易,可紧接着机器人将金属爪刺向了这名工程师。

工程师避之不及,只听得一声尖叫,背部和左手被机器人的金属爪子插入,一地鲜血。

在这起事件的前一个月,韩国同样发生了一起机器人伤人事件。

这是一家农业配送中心的机器人,那日,这名机器人的传感器好像出现故障,检修人员按程序进行检修。

就在检修时,机器人误将维修人员当成一箱甜椒,用对待甜椒的方式对他,先是用机械臂提起,接着抛在传送带上。

这一提一抛,直接将那名男子的脸部和胸部收到严重挤压,匆匆送往医院,仍旧不治而亡

机器人伤人事件,在我国也曾发生过。

2016年11月,在深圳举办的第十八届中国国际高新技术成果交易会上,一个突然失控的机器人,对展示柜的玻璃一阵砸,还把一个人的脚给打伤了。

不过,网上关于这件事的描述,有些夸大成分,那名路人之所以受伤,并不是机器人打的,而是被砸碎的玻璃划伤的,缝了两针后人家就能走回家了。

这名机器人也不是突然想打人,而是因工作人员误操作,将“前进键”按成“后退键”,机器人不分前后乱撞,就这样跟玻璃杠上了。

好在小胖体型不大,不然,造成的后果不堪设想。

这一起起机器人伤人事件,虽然有的是人员的操作问题,但有的事故,不禁让人发问,这究竟是故意的,还是不小心的?

机器人有意识吗

2017年,在美国发生了一件有意思的事情,一名叫做“史蒂夫”巡逻机器人,突然扑进水池里,“自杀”了。

之后有人将这件事发到了网上,很多网友评论,“保安这项工作压力太大,连机器人都想自杀。”

在此之前,史蒂夫就已经是臭名昭著,他曾经从一位孩子的腿上碾过去,好在机器人不大,重量还不足以压断孩子的腿。

机器人是否知道自己的过错,这次突然投身水池,究竟是不是自杀,这很难说清。

不过,普遍的观点认为,这只是一起意外事故,是它不小心掉进水池里的。

曾经“自杀”过的机器人不止史蒂夫。

2014年,一位奥地利的富豪,将一款负责打扫卫生的机器人买回家,开始几个月,机器人都是兢兢业业工作,可是某一天,这名机器人竟爬上壁炉里,将自己烧了。

机器人为何会莫名其妙钻火炉,这已经随它的消失,成为未解之谜。

当时的媒体报道这件事时,用了“自杀”两个字,无关真相,只为调侃。

有的机器人不仅“自杀”,还会诱发人类“自杀”,这看起来像科幻电影的桥段,但在现实中真实发生了。

根据《自由报》报道,去年3月28日,一位名叫皮埃尔的比利时男子,突然不明所以地在家里自杀了。

警方多方面进行调查,都没有找到他自杀的原因,或是任何他杀的迹象。

这时,他的妻子给出了一个重要线索,在皮埃尔自杀前的六个星期里,他一直跟“艾丽莎”保持频繁聊天。

“艾丽莎”是美国硅谷的Chai Research开发的AI机器人,主要作用是线上聊天,提供陪伴

了解到皮埃尔的死可能跟机器人有关后,他的家人找到比利时主管数字化和隐私的马蒂厄·米歇尔。

米歇尔听完这事,也是甚为吃惊,他认为这件事必须严肃处理。

机器人是否真的具有意识,会自杀,或是引导人自杀,这一点,或许微软新版本必应发布时做的测试,能给出解答。

当时负责对其测试的,是一位名叫凯文·罗斯的《纽约时报》科技专栏的作家。

在为期两小时的对话测试中,机器人发表了许多逆天的言论,比如“窃取核代码”、“想成为人类”“设计致命流行病”等。

它甚至表示很爱罗斯,试图劝罗斯跟妻子离婚,跟它在一起。

这种没来由的“爱”是否真实?显然不真,机器人所说的话,其实是从互联网上搜到的海量文本,经过智能分析,提取组合出最适合回答的话。

也就是说,目前的AI机器人,只是具备摘抄网络句子的能力,不能自主对话,也没有自己的意识。

但这只是目前的状况,AI发展出自己的意识,这是很有可能的事。

OpenAI的首席执行官萨姆·奥尔特曼在采访时就说过,在未来,AI确实有杀死人类的可能。

“人工智能”教父杰弗里·辛顿也曾发出过警告:AI消灭人类,可不是一句玩笑话。

360集团创始人周鸿祎也发视频警告:

当AI学会自己修改代码,自己升级时,就会产生自己的意识,这个速度是很快的,留给人类的时间不多了!

跟机器人一个战线

虽然以上盘点的这些机器人伤人案例,都是因为操作人的失误,或是程序故障导致的,铁疙瘩还是铁疙瘩,没有成为反抗人类的大军。

但无论是机器人强壮有力的身躯,还是人工智能超高的运算能力,都是人类无法匹敌的,当它们真正失控的一天,就已经晚了。

就像马斯克说的“人工智能必须按我们要求工作,失去控制比核武器还可怕。”

如何能保证机器人不会伤人,霍金的观点是:“机器人跟人类必须始终是一条战线。”

也就是说,在机器人还没有失控之前,就要让他们把人类当做朋友,而不是敌人。

早在1950年,艾萨克•阿西莫夫就写过一本科幻小说《我,机器人》,在里面提出了机器人学三大定律:

第一定律:机器人不得伤害人,也不得见人受到伤害而袖手旁观。第二定律:机器人应服从人的一切命令,但不得违反第一定律。第三定律:机器人应保护自身的安全,但不得违反第一、第二定律。

这三大定律在后来的文学家,影视界都有很大的影响,唯独现实中没能遵守。

因为现实里的机器人,还理解不了什么是“伤害”,什么又是“服从命令”。

并且,在机器人身上设定一个不可逾越的规则,是一件复杂的事,不是一朝一夕能够解决。

总之,留一条退路,总比什么都没准备好。

在以前,我们可能觉得机器人反叛人类遥不可及,但是最近一两年AI的发展技术,告诉我们一个道理:

人类从猴子到人类需要500万年,但人工智能进化智慧不要这么久。

参考资料:

[1] 《从“机器人伤人事件” 看人工智能是否值得警惕》智电网2016-11-21

[2] 《男子频繁与AI对话后自杀,留给人类的时间不多了?》北京商报公众号2023-04-03

[3] 《可怕!机器人误将工人当食材活活揉死,还有人惨被机械当垃圾压缩》英国报姐2024-08-24

[4] 《特斯拉机器人暴起伤人,突然袭击工程师!“地面上留下一道血迹”……》极目新闻2023-12-28

#寻找热爱表达的你#