发表时间: 2024-10-12 13:14

图片: 黄仔 | 撰稿: 雨山 | 责编: 雨山 原创文章,未经许可,请勿转载 商务合作敬请联系:shangwu@aksorvice.com


8月底到9月初,我们时不时就会在微博上看到令人震惊的消息。


一些IP在韩国的账号,用翻译器翻译的拗口中文,控诉她们正遭遇一场可怕的AI性犯罪。


她们遭遇了什么?为什么要跨国呼救?


韩国女性的声音提醒着所有人,在AI技术越来越发达的当下,我们或许都无法独善其身。


韩国女性控诉AI色情换脸


随着韩国女性在中国网络的呼救,一个词登上了热搜——「Deepfake」。


Deepfake(深度伪造)是deep learning(深度学习)和fake(伪造)的混成词。它是一种AI技术,可以把已有的图像或视频叠加到原有图像或视频上,简单来说就是AI换脸


▲图片来源:WIRED


网上随处可见用来娱乐的deepfake,它的诞生也许是为了拓展技术边界,但是却带来了犯罪隐忧。许多人将他人的照片或视频替换到色情制品上,制造虚假的色情片并广泛传播。


美国一家网络安全公司发布的《2023年Deepfake报告》显示,2023年网上流传着将近10万条AI换脸制造的色情影片。而其中,53%的受害者来自韩国,受害者里90%的脸属于歌手和演员。


而这次事件里,受害者都是普通女性,她们是女大学生、女高中生,甚至女初中生……她们的照片被同学校的男性上传到通信软件Telegram的秘密群组中,生成了大量色情制品。


▲图片来源:微博@加班十五夜


事情的开端是今年上半年,首尔大学两名毕业生因deepfake被拘留,他们伙同另外三人,用61名女性的照片视频制作了1852份色情制品。


根据调查,利用AI换脸造黄谣这件事,他们竟然从2021年就开始做了!也就是说,长达三年的时间里,首尔大学的学生们一直生活在充满性犯罪的环境里。


然而,这件等同于曾经的「N号房」的事件没有砸出水花。直到8月,卧底Telegram的女性们在X(原Twitter)上曝光大量内幕,人们才亲眼得见deepfake的世界里发生着什么,以及它到底发展到了什么程度。


女生们发现,不仅首尔大学有男人秘密聊天室,其他大学、高中、初中也有。聊天室正是以学校为划分,属于该学校的男生会加入同一「凌辱房」。


▲图片来源:微博@加班十五夜


男生们找到凌辱房地址后,需要上传偷拍的女同学、女老师,甚至妹妹、姐姐、妈妈的照片,这是加入男人世界的「投名状」。


正式加入后,就可以使用凌辱房内的工具bot。只要上传照片,几秒内它就会吐出色情图片和视频。这些bot还能识别性别,上传男性的照片无法合成。


群里的人开始源源不断地甩出女生照片,这些照片都是他们从社交网络上保存下来或自己偷拍的


如果发现有一位女生大家都认识,她的照片就会被换脸成色情制品在群内传播。接下来,群里的男性会围着「她」侮辱和嘲弄。


一场「凌辱」就这样完成了。


▲图片来源:微博@加班十五夜


Telegram上还出现了针对特定职业女性的房间,比如「教师房」「护士房」「军人房」,群组里的人称女军人的制品为「军需品」。


除了在线上,一部分人还在线下跟踪和勒索被换脸的女生。有人特意接近女生,告诉她你被deepfake了,偷拍下她的反应再上传到群组,形成第二轮凌辱。


这件事的普遍程度十分可怕,整个韩国超过70%的学校都发现了这样的秘密聊天室。有人在地图上标注涉事学校,只能看到城市被密密麻麻的红点覆盖。


▲图片来源:X


目前已知聊天室内有两个大型工具bot,一个现有用户量22万,另一个则达到了40万,而韩国的总人口只有五千多万。


有网民说,韩国出租车司机数量有23万人,也就是说,在路上遇到性罪犯的可能性,和遇到一辆出租车的可能性差不多。


Deepfake内幕通过网络揭开后,韩国女性关闭了自己的社交网络,不再上传照片,试图从互联网上抹去自己的脸。她们组织了抗议活动,戴着眼罩举起海报,上面写着「反复发生的deepfake性犯罪,国家也是共犯」。


▲图片来源:CBS NEWS


「N号房」从未从这个地方消失,deepfake的发酵是韩国女性被司法和媒体拒绝后的一场自救。


N号房2.0之后


要彻底杜绝AI技术带来的性犯罪,让女孩们不上传照片、注意安全是无效且无作为的。必须从法律上制定严格的惩罚措施,平台加强监管,以及从技术上做出改变。从工具bot无法将男性的照片合成色情图片就可以看出,这不难做到。


Deepfake性犯罪带来的一个隐忧是:它太像真的了。当遇到色情勒索或被造黄谣时,人们很难证明一段色情影片里的主角不是自己。


▲图片来源:CMG


针对这一点,在deepfake事件舆论爆发后,我国中科院工程师张欣怡在与团队商议后,将参加全球deepfake攻防挑战赛的AI模型面向全球开源。他们的成果可以通过数据对比证明图片和视频是伪造的,以便进行自证和成为打官司的关键证据。


▲图片来源:微博@张欣怡


这当然是十分重要的行动,但是,deepfake给女性造成的伤害,从图片生成的那一刻就开始了


Deepfake违背女性的意愿,抹去女性的人格,将女性当作物品一样随意对待。当受害者察觉自己的身体被挪用时,被侮辱带来的愤怒、痛苦就已经蔓延开来,这是事后自证也很难消解的。


Deepfake最根本的问题不是造假,而是憎恶女性。要从源头不让这些照片诞生,制定有威慑力的惩罚措施很有必要。


舆论过后,韩国国会通过了一项法案,将持有或观看deepfake色情制品定为犯罪,任何购买、保存或观看的人都可能面临最高三年的监禁或最高3000万韩元(约16万人民币)的罚款。制作deepfake色情制品并意图传播的人,将被处以最高七年监禁或5000万韩元(约26万人民币)的罚款。但这项新法案要得到总统尹锡悦的批准才能正式颁布。


韩国警察厅八月底也开始密集打击性犯罪,一周内就立案超过120起,不少参与deepfake的青少年被逮捕。


平台方也应该肩负起互联网公司的社会责任。社交媒体X曾在今年年初暂时屏蔽过对泰勒·斯威夫特的搜索,因为当时这位歌手的deepfake露骨图片大肆传播,浏览量上百万。


以此为参考,像Telegram这样存在大量deepfake制品的软件,应该从平台的角度禁止这类图片上传,并对账号所有者进行惩处。


▲图片来源:Google


最后,人数庞大的性犯罪也迫使整个社会不得不去思考,为什么这几十万男性(大部分是十几岁的青少年)会憎恶女性?是什么使得他们做出这样的事?


AI色情巨网下


Deepfake性犯罪绝不只发生在韩国。根据调查数据,20%的deepfake色情制品来自美国,10%来自日本,有3%来自中国


网络信息技术织成的一张巨网之下,没有人能绝对安全。


面对这一切,难道我们只能关闭社交软件、停止分享生活,始终活在不安中吗?是谁剥夺了女性自由享受生活的权利?我们该如何应对?


最希望的当然是从上至下地解决问题,国家能制定完整的法律规定进行约束。


我国在去年8月15日通过并施行了《生成式人工智能服务管理暂行办法》,对AI能生成什么、不能生成什么进行了规定。


▲图片来源:CCTV


该办法在统筹发展与安全的前提下,鼓励AI创新应用,着重维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益,其中就有提到:「不得生成淫秽色情以及虚假有害信息……不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益。」


《办法》还提及平台应该发挥作用,明确服务提供者的内容安全主体责任,「网信、发展改革、教育、科技、工业和信息化、公安、广播电视、新闻出版等部门,依据各自职责依法加强对生成式人工智能服务的管理。」


如果违反规定,有关部门可以按照《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》等法律、行政法规的规定予以处罚。


具体来说,如果我们真的遇到了AI性犯罪,可以按照取证—报警—起诉的流程维护自己的合法权益。


在发现性犯罪的第一时间,留存所有涉案的图片、视频、发布账号信息等。保存发布的时间、平台,后续的浏览、点赞、评论和转发数据,事后办案机关可根据这些证据内容判断犯罪情节严重程度。


取证完成后报警,向警方说明情况,提供证据。


接着联系、委托律师起诉。起诉需要有明确的被告方。可以联系平台,要求平台提供账号的运营者信息,如果平台拒绝,可以起诉平台方后拿到运营者的信息,这一步需要咨询律师的意见。


在其他时候,面对AI性犯罪,我们可以做的是:不观看、不消费、不传播、不羞辱。对虚假信息动手点点举报,在受害女性维权时帮忙发声。

保护其他女性,也是在保护我们自己。我们都有共同的诉求和心愿,那就是不用因会受到憎恨和侮辱而担惊受怕。


早安,我爱这个世界。


参考文献

[1] CNN. South Korea to criminalize watching or possessing sexually explicit deepfakes[EB/OL]. (2024-09-26)[2024-10-11]. https://www.cnn.com/2024/09/26/asia/south-korea-deepfake-bill-passed-intl-hnk/index.html.

[2] Reuters. South Korea to criminalise watching or possessing sexually explicit deepfakes[EB/OL]. (2024-09-26)[2024-10-11]. https://www.reuters.com/world/asia-pacific/south-korea-criminalise-watching-or-possessing-sexually-explicit-deepfakes-2024-09-26/.

[3] 中国网信网. 生成式人工智能服务管理暂行办法[EB/OL]. (2023-07-13)[2024-10-11]. https://www.cac.gov.cn/2023-07/13/c_1690898327029107.htm.