我本以为,随着那篇报道的结束,中国人假冒毛子的故事就告一段落。
但我万万没想到,在 2024 年,这个套路他 360 度大升级了。
具体是咋回事呢?
这两天,一个叫 Olga Loiek 的乌克兰女孩发了条视频,说有个朋友给她发个链接,自己一看,人都傻了。
好家伙,我怎么在中国咔咔带上货了??
原来在小红书上,有这样一类账号,天天就是一个长相完全一致的金发美女,变着法的讲中俄友谊长存,三句离不开谢谢中国。视频结尾,还会给你介绍下俄罗斯的美食。
而看视频的老铁们,自然也要照顾下大妹子的生意。
是的,成百上千万中国观众看到的这张侃侃而谈的 “ 脸庞 ” ,就是 Olga Loiek 。
反观 Olga ,自己还没在 YouTube 上赚到半毛钱呢。
而且更尴尬的是,脸被别人偷去用来带货不说,作为一个乌克兰人,人设还是个俄罗斯人,带得还都是人俄罗斯的土特产。。。这找谁说理去。
如果你没法和这个女孩共情,不妨可以设想一下,一个美国人顶着你的脸,假装自己是日本人,变着法吹日本。
然后他还利用你的脸,从其他美国人手里,赚了你这辈子都不一定能赚到的钱,在视频评论区里,观众们刷的都是 “ 你好日本,爱来自美国 ” 。
你气不气?
Olga Loiek 也不是唯一一个倒霉蛋,另一位来自瑞典的网红拉纳布莱克利的脸,也被移花接木到了中国人脸上。
在视频里, “ 她 ” 大谈中国人的勤劳善良,并且嫁给中国老公,余生在中国定居。
看完视频的网友也不知道自己成了即将被噶的韭菜,还在问她喜欢中国哪个城市。
在抽查了几个被 Olga Loiek 展示的账号之后,我发现这些假冒外国人的中国账号,有些已经在各大平台注销掉了,但还有一些依旧逍遥法外。
可世上只有千日做贼,哪有千日防贼。
AI 技术的发展速度,明显比人类目前的应对速度要快。
在一年前, AI 技术还是被网友嘲笑的对象,网友看了也只会觉得这辈子的恐怖谷效应都犯完了。
然而现在, AI 技术已经可以产生以假乱真的效果了。
变化总是在悄无声息中进行,在 AI 技术日渐进步的今天,眼睛和耳朵,正在逐渐失去辨别能力。
人的知觉,正在信息时代的冲击下 “ 被退化 ” 。
看到这,估计很多差友会觉得这些事都离自己太远,比如那个假冒的乌克兰女孩,懂行的一看就知道了,完全骗不到自己啊?
那你再试试这个呢?
如果你比较关注游戏杂谈,那你可能还记得一个叫做敖厂长的视频博主,他因为几波舆论潮,基本败完了自己的口碑。
在去年,他先后停止了 B 站和抖音的更新,悄无声息的从网友的关注列表里消失了。
可就在前两天,一位 B 站 UP 主用自研 AI 文本转语音技术,搭配上他原有的文案和剪辑风格,愣是复刻了一整个 UP 主敖厂长出来,给我看恍惚了。
弹幕里都在刷 “ 亡灵法师 ”“ 招魂成功 ” 。
在这个 UP 主页贴出的网址中,还能找到更多奇奇怪怪的 AI 音声,比如丁真、科比、孙笑川,以及一些知道这个网站八成要发律师函的明星们。
那么,使用 AI 生成一个人的音声,要搜集多少真人的声音呢?
UP 主在视频介绍中,给出的答案是:5 秒。
没错,你只要说 5 秒钟的话,你的声音就可能已经被克隆了。
如果以上的技术,能够用在发展生产力,推动社会进步上,那勉强还能算是最好的结局。
但你要知道,现在的 AI 技术,已经越来越下沉。
第一天出了个厉害的 AI 软件,第二天使用教程就有博主给你发抖音了,简直就是手把手教学,从入坑到精通给你安排的明明白白。
不可否认,这是一件好事,可它也把人心底的阴暗面一点点放大,最后形成公共事件。
前几天, AI 生成的泰勒斯威夫特虚假不雅照片,在整个网络上疯传,甚至惊动了美国白宫。
白宫新闻发言人卡里娜 · 让 - 皮埃尔警告 AI 生成照片的传播 “ 令人担忧 ” ,并敦促社交媒体公司防止此类错误信息的传播。
泰勒这事为啥这么爆炸?毕竟早在 PS 时代,就有很多女性饱受换脸的困扰了对吧?
但在 AI 时代,照片里的所有细节都可以被精心定制。
泰勒这次,就是因为交了一个橄榄球星男朋友,被生成出了在橄榄球更衣室里的照片。。。
换谁不急眼?
后来也是由于类似的图片过多,推特一度封锁了对斯威夫特的相关搜索。
为什么全美国因为这事都开始变得神经兮兮,因为大家都清楚,今天是泰勒,明天可能就是自己。
而且 AI 干的坏事,也不只是下三路,它的能量比你想的庞大。
在中国香港,发生过一起 AI“ 深度伪造 ” 诈骗案。
诈骗者就是通过 AI 技术,把网上搜集到的跨国公司总部高层的声音和面貌,替换到自己身上,然后,简简单单从该公司的香港分公司骗走了 2 亿港元,甚至,公司财务连老板的人脸和声音都没看出来有啥异常。
你以为 AI 也就到这种程度吗?
别忘了, 2022 年,乌克兰泽连斯基 “ 呼吁乌克兰士兵放下武器投降 ” 的视频在网上传播。
这条十分整蛊的视频,逼到乌克兰国防部都要站出来声明 “ 这是不可能的 ” 。
由此可见,从个人到团体,甚至是国家之间的,每个能钻的空子,都成为了 AI 的突破口。
更可怕是,到目前为止,还没有一个特别好的招儿能防让住人用 AI 干坏事。
网络安全业内人士,i春秋的朋友小傲( 化名 )就告诉世超,反 AI 犯罪的难点主要有两方面,一个是技术层面,一个是经济层面。
在技术层面上, AI 生成内容的识别难度大,特别是 AI 越发展,肉眼能识别出来的概率也越小,这种时候就只能上机器。
而在经济层面上,用 AI 来犯罪并不是难事也不需要花什么钱,但用 AI 来反 AI 的成本就高了,你得砸钱出力去搞研究。
现阶段,国内外有不少监管机构和公司在想法子拴住 AI ,去年公安部就端了个用 AI 写勒索病毒的团伙。
市面上,也有不少检测 AI 生成内容的工具,但效果还不好说。
像 OpenAI 之前就推出过一款文本检测工具,但因为检测错误率太高偷偷给下架了。。。
两年前,微软还有 BBC 等几家科技公司和媒体一起合作,成立了个内容来源和真实性联盟 ( C2PA ) 。
有了 C2PA 协议之后,内容是谁创作的,历史的修改记录,都会被记录下来。就相当于给生成的内容,打上了一层看不见的水印。
但用小傲的话来说, C2PA 这玩意属于防君子不防小人,大厂守规矩,不代表很多开源调出来的小模型,也会遵守协议。
而且, C2PA 现在还有不少 Bug ,像一截图水印就没了,要生效也得好几个平台都使用协议才行。
所以很残酷的一个现实是,现阶段咱们没法儿杜绝 AI 干坏事。
关键在于, AI 技术发展得实在是太快了, AI 生成的内容越来越逼真,生成的门槛却越来越低,就像 Sora 问世后,大家都在说 “ 现实,不存在了 ” 。
不可否认,之后的立法、反 AI 技术肯定会跟上,但这种敌在暗我在明的情况,监管就很被动了。
这就像一场猫鼠游戏, AI 知道规则就会绕过去,人类再设置新的规则,这场游戏,或许永无止境。
我们能做的,除了多加分辨,就只剩下下载国家反诈中心 App 了。
撰文:张大东&江江编辑:莽山烙铁头封面:焕妍