揭秘OpenAI董事会:推特上得知ChatGPT的震撼推出

发表时间: 2024-06-05 17:26

我刚从日内瓦回来,在那里参加了由国际电信联盟组织的联合国“人工智能向善”(AI for Good)峰会。


峰会的重点是,如何利用人工智能实现联合国的可持续发展目标,如消除贫困和饥饿、实现性别平等、促进清洁能源和气候行动等。


会议上有很多机器人,包括一个送葡萄酒的机器人,但我最喜欢的是它召集了来自全球各地的人工智能从业者,中国、中东和非洲的演讲者都出席了会议。


比如为非洲语言构建人工智能的初创公司 Lelapa AI 的 CEO 佩洛诺米·莫伊洛阿(Pelonomi Moiloa)。


人工智能可以非常以美国为中心,以男性为主导,所以任何使人工智能更加全球化和多元化的努力都值得称赞。


但老实说,大会结束后,我并没有对人工智能抱有信心,尤其是它能在推进联合国的任何目标方面发挥有价值的作用。


事实上,最有趣的演讲是关于人工智能是如何反其道而行之的。气候活动家塞奇·莱尼尔(Sage Lenier)谈到了我们不能让人工智能加速环境破坏。


人道技术中心(Center for Humane Technology)的联合创始人特里斯坦·哈里斯(Tristan Harris)发表了一个引人注目的演讲。这场演讲将我们对社交媒体的沉迷、科技行业的财务激励,以及我们未能从以前的科技繁荣中吸取教训联系起来。


Women in AI Ethics 的创始人米娅·沙赫·丹德(Mia Shah-Dand)提醒我们,科技领域仍然存在根深蒂固的性别偏见。



(来源:ITU)


因此,虽然会议本身是关于“如何更好地使用人工智能”,但我希望看到更多关于提高透明度、问责制和包容性的讨论。


例如,从开发到部署的过程中,如何让人工智能“向善”。


我们现在知道,用生成式人工智能生成一张图像所消耗的能量与给一部智能手机充满电所消耗的能量一样多。


我希望,我们能就如何使这项技术本身更具可持续性以实现气候目标,进行更坦诚的对话。


我们使用的许多人工智能系统都雇用了贫困国家或地区的人作为内容筛查员。在此基础上,讨论如何利用人工智能来帮助减少不平等,这着实令人很不舒服。


这些人在筛查可能会导致心理创伤的内容的同时,仅仅获得了微薄的报酬。


OpenAI 的 CEO 山姆·奥特曼(Sam Altman)是此次峰会的明星发言人,他为人工智能的“巨大利益”辩护。


奥特曼接受了《大西洋月刊》CEO 尼古拉斯·汤普森(Nicholas Thompson)的远程采访,该报刚刚宣布与 OpenAI 达成协议,共享其内容以训练新的人工智能模型。


OpenAI 几乎是以一己之力引爆了当前的人工智能热潮,这将是一个向奥特曼询问所有这些问题的绝佳机会。


然而,两人就安全问题进行了相对模糊的笼统讨论,观众对 OpenAI 到底在做什么来让其系统更安全一无所知。他们似乎只是应该相信奥特曼的话。


不久前,乔治城安全与新兴技术中心研究员、前 OpenAI 董事会成员海伦·托纳(Helen Toner)在接受采访时表示,董事会是通过推特才知晓了 ChatGPT 的推出。


奥特曼曾多次向董事会提供有关公司正式安全流程的不准确信息。她还认为,让人工智能公司自我管理是个坏主意,因为巨大的利润激励总是会占据上风。


奥特曼则表示,他“不同意海伦对一些事件的记忆”。


当汤普森问奥特曼生成式人工智能的首要好处是什么时,奥特曼提到了生产力,并列举了一些例子,比如软件开发人员可以使用人工智能工具更快地完成工作。


他说:“我们将看到不同的行业比过去具备更强的生产力,因为人们可以使用这些工具。这将对一切产生积极影响。”


我认为这个问题还没到盖棺定论的时候。


作者简介:梅丽莎·海基莱(Melissa Heikkilä)是《麻省理工科技评论》的资深记者,她着重报道人工智能及其如何改变我们的社会。此前,她曾在 POLITICO 撰写有关人工智能政策和政治的文章。她还曾在《经济学人》工作,并曾担任新闻主播。


支持:Ren


运营/排版:何晨龙