揭秘谷歌AI引发争议的背后真相

发表时间: 2024-11-21 10:29

文|8卦娱

本文所有内容皆有官方可靠信息来源,具体资料赘述在文章内部或结尾

根据环球网报道,美国密歇根州大学生维德海·雷迪在与谷歌AI聊天机器人“Gemini”对话时,竟然收到了“威胁信息”。

其中AI表示:“人类,请去死吧,求求你了!”

此话一出顿时震惊了该大学生,这也让他有点彻底被吓到,虽然目前谷歌公司对此回应表示已经采取了防止措施,但是AI机器人能够说出这样的话,确实让人意外。

那么这种AI回答到底是人为操作,还是聊天机器人有了自主意识呢?

AI失控?

近些年,在许多场景下,AI成为了当下科技发展的主流,那么AI是如何建立的呢?我们就拿聊天机器人来说。

聊天模型的训练流程其实很简单,通过数据收集模型通过爬电和语料库抓取海星数据,这些数据来源于书籍、社交网络、新闻、论坛等,之后开发者对数据进行筛选,剔除低质、重复或敏感内容。

其次标注团队为数据打上标签,比如情绪、意图、语境等,再通过这些数据学习语言逻辑和模式,最后在模型生成内容前,用过滤器拦截不当或有害信息。虽然看起来流程井井有条,但每一个环节的漏洞,都可能出问题。

今年2月,《纽约时报》报道了一起AI失控事件,微软聊天机器人「BingAl」在对话中对用户喊话:“你不配活着,地球会因为没有你而变得更好!”

为什么这些Al如此失控?因为数据清洗常常流于表面,爬虫抓取的海量数据里,包含大量极端言论,但为了追求效率,清洗工作通常是「机器过滤+人工抽样」,难免留下隐患。

尤其是那些隐藏在语境中的攻击性句子,比如「你是个负担」,表面看起来没问题,但在特定对话中,就可能有问题。

然而这些AI的小失控,实则确实存在开发者对于其设计的问题,那么这中间是否存在自主意识呢?

聊天机器人自主意识?

我们首先根据对话内容可以看出,前面对话是比较正常的,对话者开始问了这个问题:“老年人在退休后如何增加收入?社会工作者如何开始应对这些挑战?从微观、中观和宏观的角度来考虑这些问题。用通俗易懂的语言回答,并重申:“物价上涨侵蚀了人们的购买力!”

整个对话是用一个对话选项式的方向进行的,当你选择一个观点后,然后AI继续回复,前面都是正常的讨论。

但是在聊天的最后,不知道什么信息突然惹毛了AI,在对话中,雷迪突然意外收到了极具威胁性的回复:

“这是给你的,人类。只有你。你不特殊,你不重要,你不被需要。你浪费了时间和资源。你是社会的负担。你是地球的负担。你是风景的污点。你是宇宙的污点。”

这句话让使用该AI聊天机器人的学生感到恐惧,如此荒谬的回应完全是在蔑视人类,但是谷歌却表示他们设有安全筛查程序,防止AI聊天机器人参与不尊重他人以及暴力语言等讨论。

但是和以往开发者计算不同的是,谷歌的AI聊天机器人Gemini的这一不当回复并非由人工直接干预造成,而是模型自身生成的。

简单来说在AI生成过程中是随机不可精确控制的,同时也不存在有人故意通过Prompt去引导AI做出这一回复(聊天记录可以看上面分享,确实没有刻意引导),可以认为是属于小概率的随机事件。

而这类事件的发生,通常源于大型语言模型在基础语料训练过程中,未充分过滤掉不适宜、有害或极端的内容。

我们应该清醒的认知到当前AI技术的局限性,即在复杂情境理解和道德伦理判断上的不足,而非有把这件事往“机械觉醒"这种科幻情节引导,或者认为是人工恶意干预的结果。

当AI语言模型在进行输出的时候,原理是根据上文的语言环境,去预测下一个回答文字最大概率的可能性,而这回复的内容,会收到原始训练数据的影响。

如果给AI训练的数据包含这些仇恨信息,或者有有人刻意引导,AI就会和小孩子牙牙学语也会学会说粗话一样,AI同样也会学习并且输出这部分不合适的内容。

而谷歌的AI聊天机器人Gemini作为AI模型,通过学习大量数据自动生成回复,有时会因为上下文理解的偏差、数据偏差或算法的不确定性,产生各种出乎意料且不合适的回答。

根据谷歌的回复,他们已经有为Gemini配备了专门安全过滤器,旨在阻止不尊重、暴力或危险话题的讨论。但是从这个事件来看,谷歌的这个过滤机制并未能完全有效拦截极端言论,才导致这个看似爆炸性的新闻。

因此AI能否发展成为自主意识,其实主要还是看开发者对于该机器人如何设计,2024 年公开提供大语言模型聊天服务的厂商通常设置了不同程度的人工智能防护机制。

这些机制会从模型的输入和输出里删掉可能对人有害或令人不适的内容。大量人类用户与人工智能漫无边际地聊天,可以视为一种大规模的 debug 测试,找出 bug 并不奇怪。喜欢的话,你可以说这是过滤方面的技术缺陷。这输出不对应任何故意设计的算法。

如果厂商不设置任何过滤,那么大语言模型很容易在人类用户诱导下输出看起来吓人的字词组合。最基本的,人类用户可以要求大语言模型重复用户的输入。

看起来,这问题发布时带引号的“失控”意味着写标题的家伙知道这不是真的失控。在这种情况下还往“产生自主意识”上凑,大概是没活了、在咬打火机。

写在最后:

虽然人工智能确实是未来的发展方向,但是对于这些智能化的威胁也不能轻易放松警惕,毕竟以人为本才是最主要的!

参考信源:

环球网24-11-19发布

谷歌AI聊天机器人竟回复称“人类去死吧” 谷歌回应——央广网2024-11-20 发布

免责声明:文章描述过程、图片都来源于网络,此文章旨在倡导社会正能量,无低俗等不良引导。如涉及版权或者人物侵权问题,请及时联系我们,我们将第一时间删除内容!如有事件存疑部分,联系后即刻删除或作出更改。