假新闻,你最近碰到过吗?
就在不久前,两封疑似AI生成的“重磅”信件引发了社交媒体的广泛关注——一封署名为英伟达CEO黄仁勋的信件谈论DeepSeek,另一封来自DeepSeek CEO梁文锋对冯骥的公开回应。信件内容优美、逻辑清晰,几乎让人无法分辨真假。幸亏辟谣及时,揭示这些信件不过是虚构捏造的产物。
随着AI技术的飞速发展,尤其是深度伪造技术(Deepfake)的崛起,“眼见为实”这一传统观念正面临前所未有的挑战。从虚假新闻到名人仿冒,AI技术已成为社会热点议题的幕后推手。那么,AI伪造的源头是什么?它给我们的社会带来了哪些深远的冲击?我们又该如何在这场真假难辨的博弈中守护真相的边界?
假新闻并非新生事物,但随着AI大模型的崛起,造假的门槛已大幅降低。浙江大学百人计划研究员、博导王永威指出,借助深度学习的力量,深度伪造技术如今已能够轻松生成逼真的图片、视频甚至语音,模拟换脸、视频合成、语音模仿等,几乎无法区分真假。
AI伪造现象早在2018年便开始显现,而至今,AI技术在模拟现实世界的能力上已取得突破性进展。从文本到图像、视频,每一次技术的飞跃都使得生产力提升的同时,也带来了犯罪成本的大幅下降。现在,仅通过与AI智能助手的简短对话,几秒钟内就能生成一篇图文并茂的假新闻。
这不仅给新闻行业带来了挑战,更让公众在社交媒体上无法判断真假信息。例如,近期浙江绍兴警方就破获了一个利用ChatGPT制作虚假新闻的团伙,其中包括一些从未接触过电脑技术的成员,他们只需简单使用AI工具,就能批量生成假新闻。
AI伪造不仅制造虚假信息,还影响着社会情绪,导致人们轻易被假新闻左右情感,传播谣言,形成恶性循环。加之“造谣一张嘴,辟谣跑断腿”的现实,假新闻往往传播迅速,造成的伤害也常常难以挽回。
AI伪造的影响不仅限于信息领域,还渗透到了金融与安全领域。蚂蚁集团AI核身安全负责人刘健提到,随着AI技术不断增强,它能够精准模拟生物特征,甚至进行定制化诈骗。2024年,香港一家公司财务通过视频会议被骗取2亿港元,骗子通过AI仿造了“高管”的形象,并伪装成合法参与者。类似的AI换脸诈骗、伪造电子身份凭证等事件屡见不鲜,严重威胁着个人和企业的安全。
AI伪造的最大威胁在于它对社会信任体系的冲击。如同“狼来了”的寓言,面对层出不穷的虚假信息,我们可能会因为真假难辨而失去判断力,进而影响到我们的情感和社会信任。
面对愈演愈烈的AI伪造挑战,越来越多的科技企业已开始加强防护。宇视科技就推出了3D结构光技术,通过深度训练的AI大模型,确保只有真人能够通过面部识别,防止通过AI生成的照片和视频欺骗系统。这种技术应用广泛,可以有效抵抗AI伪造的风险。
蚂蚁集团也在不断优化其防伪技术,采用“AI防伪大模型”和实时交互等策略,提升识别准确度。例如,在高风险场景中,AI会进行实时视频验证,增加造假难度,从而提升系统的安全性。
此外,全球范围内的技术攻防战也在逐步展开。2024年外滩大会举办的“全球Deepfake攻防挑战赛”吸引了来自全球2200多名参赛者,比赛中展示了许多基于AI的防伪技术,许多开源作品已为更多领域提供了防伪支持。
然而,技术防线并非唯一的解决之道,社会的共同努力至关重要。刘健指出,AI攻防是一个动态的博弈过程,技术发展存在周期性,每当防御体系加强,攻击手段也会随之进化。因此,我们需要构建一个跨部门、跨行业的综合性防护体系,包括政府监管、法律制度、公众教育等多个维度。
浙江大学的王永威团队提出的AI合成文本检测技术,准确率领先全球。这类技术的落地将有效帮助公众识别和避免AI伪造的内容,提升全民的防范意识。
在这一过程中,公众的辨识能力也是至关重要的一环。普通人可以通过注意图像的细节、生物合理性以及物理特性,增强对虚假信息的敏感性。教育和培训应成为防范AI伪造的重要措施之一。
“AI大模型是一把双刃剑,如何使用取决于使用者的意图和行为。”面对AI伪造的威胁,我们每个人都是这场防守战中的战士。从技术创新到社会协作,我们共同编织一张数字世界的安全网,以确保在这个充满变数的时代,真实依旧能够被信任。