人工智能未来的八大惊人预测!

发表时间: 2024-08-26 01:24

 如今,人类的大部分希望都寄托在人工智能(AI)的发展上,它被视为一种治疗疾病、改善诊断与保护环境的方法。然而,也有很多人担忧演算法最终可能脱离人类掌控,进而引发不可逆的大灾难。

  事实上,一些像已故物理学家史蒂芬‧霍金(Stephen Hawking)这样的学者,以及伊隆‧马斯克(Elon Musk)和联合国人权事务高级专员办事处的蜜雪儿‧巴舍莱(Michelle Bachelet )等人,也都对科技可能造成世界末日的风险提出了警告。尽管争论从未间断,不过近年一系列的科技发展虽然无法拯救世界,但也不会让世界毁灭,而是展示了人工智慧更为奇特与耐人寻味的面向。

性取向的演算法

  一个人的性取向可以从外表来判断吗?美国史丹佛大学的研究团队提出了一个具争议性的问题,他们使用一种据称能分析人们上传在线上约会网路的照片的演算法,从而确定一个人为异性恋还是同性恋。

  研究团队从约会网站取得公开的使用者资讯,并训练神经网路从其特征和仪容来辨别性取向。根据这项研究,演算法猜测男性和女性的性取向正确率分别为81%和74%,而一群人类评估员猜测的正确率分别为61%和54%。

  这项研究遭到LGBT权利倡议团体的抗议,并指控它是所谓的「垃圾科学」(junk science);研究者则反驳,他们旨在明确地提醒人们新科技可能带来的侵害隐私风险。

人工智慧聊天机器人上线后不到一天,就被网络世界教成了极端的性别歧视、种族歧视与排外主义者。

  在网络上变成种族主义者的机器人

  2016年3月,当微软团队为新开发的人工智慧聊天机器人Tay注册推特(Twitter)帐号时,他们没有预料到这个实验只持续了不到16个小时。

  Tay上线后不到一天就被网路世界教成了极端的性别歧视、种族歧视与排外主义者,它在其9.6万多条的推文中,持续地侮辱少数民族,颂扬希特勒,否认犹太大屠杀,发表了各种荒腔走板的言论,迫使微软不得不将其下线。

  虽然Tay的案例引起轩然大波,但它并不是唯一的个案。 2021年,一个研究团队发现,人工智慧系统在生成图像时,倾向把女性描绘为性感的形象,而把男性描绘成更专业的形象。 2022年的另一项实验发现,一个人工智慧机器人在操控一堆人脸积木时,采用了种族与性别歧视的刻板印象:当被要求选择谁是罪犯时,它选择了黑人;在要求选择看护时,它选择了拉丁裔;在要求选择医生时,它选择了男性。专家警告说,这些有问题的偏见绝非道听途说,必须采取应对措施阻止。

两个发明自己英语版本的机器人

  专家们正在研究的挑战之一是人工智慧演算法如何处理与解释自然语言。人类从小就学会的事情对机器来说是一个大挑战,Facebook人工智慧研究实验室证明了这点。他们连接了两个对话机器人——爱丽丝和鲍勃——来训练它们的对话与谈判能力,但很快就惊讶地发现,机器之间的对话逻辑长这样:「球有零对我对我对我对我对我对我对我(balls have zero to me to me to me to me to me to me to me to me)。」Facebook解释说,这些机器人的程式设计并没有按照自然语言的文法和语法规则,因此它们运用英语字词构建了自己的语言代码,从而轻松地互相理解。

  从食物的照片推断出食谱

  每当吃到美食时,你是不是很想知道食谱呢?但是,我们永远不确定店家是否愿意透露这些「最高机密」。料理爱好者现在能依靠麻省理工学院、加泰隆尼亚理工大学和卡达计算研究所所开发的人工智慧系统,依据食物的照片推断出食材与食谱。 「Pic2Recipe」在使用一百万个案例训练系统后,判断出食谱和食材的正确率为65%。当然,它缺少了那些肉眼看不见的成分和配方,因此这方面演算法还是需要人为的协助。

在分析感情方面,机器不在意对话内容,而是聚焦于形式特征,比如语调、声音的强度或是谁在说话、何时说话、说了多久。

他爱我,他不爱我?

  我们永远不知道现在的爱情是否真能长久,至少目前为止是这样。南加州大学的研究团队收集了134对夫妻在两年多的咨商过程中的对话内容,并运用这些素材训练出一套人工智慧系统,用于预测从前幸福美满的夫妇是否有机会重回最初的心动。

  奇特的是,机器不在意对话内容,而是聚焦于形式特征,比如语调、声音的强度或是谁在说话、何时说话、说了多久。结果令人惊讶——人工智慧系统对案例的预测正确率为79.3%,超过了人类专家的75.6%。

  机器上帝

  我们在电影情节里经常看到人工智慧控制了地球上的一切,成为至高无上的存在。几年前,一名前Google工程师也想赋予人工智慧这个神圣的角色,他公开宣称这个「机器上帝」为改善社会做出贡献。

  故事的主角名字是安东尼‧莱万多斯基(Anthony Levandowski),他是自动驾驶汽车的系统开发人员,曾经在Google旗下的Waymo公司工作,后来自行成立了公司「Otto」,专门开发自动驾驶的卡车。 Otto之后被优步(Uber)收购,但莱万多斯基最后被优步解雇,并被前雇主Waymo指控侵犯商业机密。

  2017年,《Wired》杂志披露了这位工程师诡异的新计划:一个名为「未来之路」(Way of the Future)的宗教组织,其目标是「透过对上帝的理解和崇拜,发展与推动实现基于人工智慧的机器上帝,为改善社会做出贡献」。莱万多斯基最终在2021年关闭了这间虚拟教堂,但他明确表示,他仍然相信启发他创建虚拟教堂的初衷。

  (人为)的来世

近年最令人不安的人工智慧应用之一,或许是重建已故名人的虚拟复制品。近期有几项类似的举措在媒体上引发轰动:聊天机器人不仅可以模仿死者的声音,还能跟真人一样对话(或者说至少尝试这么做)。

  尽管人们对于这种新用途的看法非常两极,也存在伦理道德方面的争议,但科技公司认为这是一个潜在的市场。亚马逊(Amazon)希望为数位助理Alexa配置模仿任何人声音的能力,即使这个人已经不在世上。比如英国一名女性在自己的葬礼上回答了亲属的问题,以及1970年代和1980年代因电视连续剧《Lou Grant》走红的演员爱德华‧阿斯纳(Ed Asner)。

  和不真实的人做爱

  充气娃娃已经有很长的历史,但与过去粗糙的充气娃娃不同,现代材料和制造技术有能力打造超逼真的娃娃,不仅是外观,还有触感也是。下一步是为这些娃娃配置人工智慧,而一些公司已经着手研究。

  加州的RealDoll公司就是一个例子,他们发表的「Harmony」是由人工智慧驱动的机器人,头部能表现出脸部表情,跟使用者交谈并记住性癖好。机器人性爱是另一个引发强烈争议的人工智慧应用,但人们对这件事的兴趣似乎丝毫没有减弱。