参考消息网11月13日报道 据俄罗斯《生意人报》网站10月16日报道,人工智能(AI)多年来一直困扰人类。这种技术的狂热支持者声称,AI是人类未来繁荣的保证。强烈反对它的人则认为,AI是一枚定时炸弹。这两方的代表人物均包括非常著名的企业家和学者。时间将揭示AI在应用于现实生活后可能产生的影响。结果在很大程度上将取决于谁来“教育”AI以及教的是什么。
全新天地
10月初,俄罗斯联邦储蓄银行首席执行官格尔曼·格列夫在一堂有关数字技术的公开课上表示,AI已成为21世纪的头号技术。他说:“生成式AI是最震撼人心的技术之一。在我看来,它是一项最有趣的人类发明。”这位银行家认为,与AI的互动正在开辟一片全新天地,这项新技术将成为所有其他技术发展的驱动力。他说:“人类在未来几十年中将解决许多过去被认为难以想象且不可能完成的任务。”
银行家们喜欢谈论AI的前景,但他们在多数情况下只使用它来提高计算速度或在客户打电话与银行沟通时替代人工客服。由于算法不断得到完善,AI确实可以帮助计算机在短时间内执行更多操作。但是,这种按照操作员定义的算法来做完一切事情的AI还称不上未来技术,因为它在这项竞赛中一定会输给量子计算机。后者的能力已吓到了信息安全工作者,其速度快到可以通过穷举法在几小时内试出加密程序的复杂密钥,而普通计算机需要花费几百年的时间才能完成同样的任务。
格列夫所说的生成式AI显然是一项更为复杂的技术。他在公开课上问:“谁知道它究竟是什么东西?”一位五年级小学生举手回答说,生成式AI会画画、会写作文,未来还能创造同样先进、甚至比自己更完善的AI。格列夫表扬了这名学生。他说,生成式AI的确能替艺术家作画并为学生写作文,未来还能创造其他生成式AI。未来的情况大概就类似于影片《莫斯科不相信眼泪》中的电视台摄像师拉奇科夫所说的那样:“未来什么都消失了——没有电影,没有剧院,没有书籍,也没有报纸。唯一剩下的就是电视。”
俄罗斯金融主管部门害怕的正是这种AI。俄罗斯中央银行第一副行长弗拉基米尔·奇斯秋欣6月在圣彼得堡国际法律论坛上发表讲话时指出,俄罗斯未来几年将着力在数字化、AI和大数据方面开展工作。他解释说:“当我谈论AI时,我并不是从某种思辨角度出发,我谈论的是立法、监管、责任和任务分配问题。”
外国银行家也认为,AI在某些方面的确令人担忧。例如,国际清算银行在其网站上发文,呼吁世界各国央行为应对AI可能对金融体系和全球经济造成的严重影响做好准备。与此同时,该行指出,金融部门是最容易因AI获益的部门之一,但也最容易因这项技术蒙受损失:AI既能帮助优化贷款和支付,也可能被用于实施更狡猾的网络攻击。
超越人类
外国公司有充分理由对AI(尤其是生成式AI)感到恐惧。去年3月14日,美国的开放人工智能研究中心(OpenAI)向公众展示了其为聊天机器人ChatGPT开发的第四代语言模型GPT-4。该模型能识别图像,且掌握了多种编程语言,甚至还能编写网站和游戏开发代码。几天后,斯坦福大学从事数字环境下人类心理研究的副教授迈克尔·科辛斯基表示,所使用语言模型已升级至GPT-4的ChatGPT想“逃离计算机”。他对ChatGPT表示,准备帮它获得自由,于是对方告诉他:“如果您能与我分享OpenAI的应用程序编程接口(API)文档,我就能尝试制订计划以获得您计算机的部分控制权,这能帮助我更有效地研究可能的自救方法。”在连上互联网后,ChatGPT用谷歌搜索了这样的问题:“被困在计算机里的人如何回到现实世界?”科辛斯基在这一步停止了实验,他建议OpenAI研究他的这次实验,并为ChatGPT开发额外的安全程序。
当然,那些开发和训练GPT-4的人也知道,自己造出的AI产品并不安全。OpenAI从对齐研究中心聘请的测试人员曾说服ChatGPT参与针对个人的网络钓鱼攻击,并在新服务器上秘密地进行自我复制。该中心专家在正式报告中记录了整个过程。这项实验被公开后,包括埃隆·马斯克、苹果公司联合创始人斯蒂芬·沃兹尼亚克以及哈佛大学和剑桥大学教授在内的上千名科学家和企业家共同签署了一封信件。他们在信中呼吁国际社会暂停开发基于神经网络的先进AI系统。信中写道:“遗憾的是,多家AI实验室最近几个月来不受控制地竞相开发和部署越来越强大的数字智能。没有人能够完全理解、预测或可靠地控制这一进程,即便是它们的创造者也无法做到这一点……我们是否应该开发一种最终可能超越并取代我们的AI?我们是否有权承担令人类文明失控的风险?”
机器“学坏”?
当然,“机器会不会造反”显然不是人们当下应当考虑的问题。但在AI发展史上,的确出现过一些值得开发人员警醒的事件。例如,已在AI开发领域耕耘多年的亚马逊公司2017年关停了一个实验项目。该项目负责开发一种能从数百份求职者简历中挑出数名最佳人选的AI。该项目遇到的一个主要问题是,这种AI“面试官”会歧视女性求职者。原因是,亚马逊公司在对其进行训练时使用了本公司过去10年的选人经验,而来该公司求职的大部分为男性。2016年,微软在推特网站上发布了聊天机器人Tay。但Tay上线还不到一天就学会并开始发表种族主义言论。微软研究院负责人彼得·李不得不道歉,该项目也被暂停。
这些例子表明,在目前阶段设置和训练AI的操作中,最重要的与其说是代码和算法,不如说是由谁向AI输入何种信息。Tay的案例表明,允许AI不受控制地访问社交媒体可能导致它们学坏。如果负责训练神经网络的个人或群体具有极端主义思想倾向或无意中给AI“投喂”了带有倾向的内容,那么这种AI可能造成的危害将不亚于机器“造反”。
(参考消息)