近年来,随着人工智能(AI)的快速发展,公众在AI治理中发挥着不可或缺的作用。了解公众对AI的期望、假设和知识越来越重要。针对这一问题,我院王尚瑞博士生与梁正教授共同撰写的论文《What does the public think about artificial intelligence? An investigation of technological frames in different technological context》探讨了不同技术情境下公众关于AI认知的技术框架,该论文发表于电子政务与治理领域权威学术期刊Government Information Quarterly。
研究背景
AI治理被认为是应对技术双刃剑的必要举措,其中公众在AI技术采纳中的重要作用已成为广泛共识,因为公众不仅是民主治理中的核心主体,也是AI利益与风险的最终接收者。然而,在现有的AI治理叙事中,公众参与常常只是一种修辞性说法,缺乏明确承诺与具体渠道,这导致公众成为了AI的被动接受者,而不是整个技术生命周期中的参与者。鉴于此,公众如何认知AI仍然是一个黑箱。随着ChatGPT等大模型的兴起,这一问题日益突出,亟需深入探讨和理解。对此,本文提出两个研究问题:第一,公众对AI的假设、期望和知识是什么?第二,其在ChatGPT推出前后的技术情境中存在什么异同?
理论基础
基于社会认知视角,本文采用了技术框架(technological frames)的分析视角,并进行了适当拓展。技术框架是指“一个群体或社区共同持有的一组核心假设、期望和技术知识”,包含三个分析维度:(1)技术性质:关于技术及其能力和功能的想象(image);(2)技术战略:关于技术获取和实施的看法;(3)技术使用:关于技术如何使用及其条件和后果的理解。
研究方法
本文利用文本爬取技术,提取了社交平台上114,393条相关的公众评论,将其区分为ChatGPT发布前后的两类技术情境。在每一类技术情形下,本文进一步使用Latent Dirichlet Allocation(LDA)和内容编码方法,其中LDA可以高效处理大规模数据并自动发现潜在主题,而内容编码允许人工在理论指导下更加深刻地理解特定主题的发生情境,两种方法形成相互补充,从而探索了公众在不同技术情境下关于AI认知的技术框架及其异同。
研究结论
(1)虽然公众关于AI认知的技术框架存在部分共识,但在一些关键议题上通常是矛盾的,并对伦理与监管等问题关注不足。(2)ChatGPT的推出进一步激化了上述问题,同时放大了公众的期待与恐惧,并引起了对国家间技术竞争的担忧。
总而言之,公众关于AI认知的技术框架往往是矛盾和初步的,充满了抽象和宏大的叙述,难以形成共识和推动治理实践。这一发现引发了对公众参与人工智能治理的现实担忧:公众参与AI治理不仅面临着参与渠道限制,更难以在公共领域促成包容、理性和批判的讨论。
研究贡献与局限
本文的潜在贡献在于:第一,通过调查公众认知的技术框架,识别了公众参与AI治理的重要障碍,为AI治理提供了更为实证性的证据。第二,将技术框架理论的适用性扩展到组织之外的社会公众上,强调了技术框架的内部不一致性与动态性。第三,结合LDA和内容编码形成了“人机协作”方法,丰富了主题聚类的方法论。本文的研究局限在于:第一,样本局限于中国的社交媒体,导致研究结果可能仅适用于中国社会文化情境下的数字原住民;第二,研究描述了公众关于AI的技术框架,但没有反映技术框架的产生过程及其影响;第三,研究关于AI公众认知框架的操作化不够精细,没有反映出AI的技术多样性和公众的内部异质性。
作者简介
王尚瑞(第一作者)
清华大学公共管理学院博士研究生
梁正(通讯作者)
清华大学公共管理学院教授
论文链接
Wang, Shangrui & Liang, Zheng. "What does the public think about artificial intelligence? An investigation of technological frames in different technological context", Government Information Quarterly, 41(2), 101939. doi: https://doi.org/10.1016/j.giq.2024.101939
供稿 | 科研办
编辑 | 王瑞琪
审核 | 朱旭峰