揭秘AIGC的另一面:深度伪造时代的来临

发表时间: 2024-03-05 15:30

美国当地时间2024年2月15日,OpenAI正式发布文生视频模型Sora ,正式入局视频生成领域 。Sora被认为将颠覆视频内容生成方式,也进一步增加了公众识别视频内容真伪的难度。

然而夹杂在新技术的亢奋之中的,还有人们对新技术的担忧。一些业内专家和观察人士表示,这类技术的普及,恐导致深度伪造(Deepfake)内容更加泛滥,造假成本更低廉,进而增加被用于诈骗、色情等违法犯罪活动的风险和隐患。从23年开始,业内一些知名学者就开始呼吁加强对AI的监管。(图:吴恩达在“x”上呼吁加强对AI的监管)

而在国内,基于AI换脸技术的诈骗犯罪早已不在稀奇,去年5月初,内蒙古包头市公安局电信网络犯罪侦查局发布一起使用AI换脸技术进行电信诈骗的案件。福建省福州市某科技公司法人代表郭先生的“好友”突然通过微信视频联系他,声称自己的朋友在外地投标,需要430万元保证金,想借用郭先生公司的账户走账。基于视频聊天信任的前提,郭先生并未核实钱是否到账,就陆续转给对方共计430万元,之后郭先生才发现被骗。

美国歌手霉霉(泰勒·斯威夫特),最近也深受深度伪造的困扰。近日,这名歌手的大量虚假“不雅照”在社交网络传播,引发关注和议论。这不是她第一次成为受害者。就在“不雅照”事件前不久,一则由AI生成的泰勒·斯威夫特带货广告在海外社交媒体上疯传。这则虚假广告利用深度伪造技术,合成了泰勒·斯威夫特的声音,并将声音及她的形象和某品牌炊具广告片段拼凑在一起,宣称免费向粉丝赠送炊具,引导受害者点击并支付运费,但炊具不会真的送出。

sora目前并未对普通公众开放,但是这也不影响一些人已经利用的sora影响,或是利用人们对AI时代可能被淘汰的恐慌,开始在网上打着sora试用、sora课程的名义坑蒙拐骗。他们不懂AI,但他们懂卖课。事实上,他们自己也没用过sora。

不难想到,在一个眼见也不一定为实的时代,需要我们有超越以往的识诈能力和防诈知识。首先应该是做好日常的信息安全的保护,加强对人脸、声纹、指纹等生物特征数据的安全防护。第二,不要登录来路不明的网站,以免被病毒侵入。第三,对可能进行声音、图像甚至视频和定位采集的应用,做好授权管理。不给他人收集自己信息的机会,也能在一定程度上让AI换脸诈骗远离自己。第四,若遇到骗子利用AI技术冒充熟人,关键在于不要轻信一段视频,一个照片,通过多方核实、查证真伪。