近年来,AI技术飞速发展,给人们的生活带来诸多便利,但它也成了一些人传播虚假信息的“帮凶”,潜藏的风险不容小觑。
2025年4月15日,杭州滨江公安分局发布通报,谢某某为博流量,用AI生成工具编造“4月7日凌晨滨江区发生恶性案件”的虚假案情,深度编辑后发在社交平台。这种行为严重扰乱社会秩序,警方依法对其行政处罚,并责令删除不实信息。
杭州这起案例并非个例,AI虚假信息制造已成为一个愈发严重的社会问题。2024年公安部通报过一起极具典型性的案件,某MCN机构运营着多达842个自媒体账号,他们组织团队利用AI工具,如同工厂流水线一般,一天就能批量生成4000-7000篇网络虚假信息。
想象一下,海量的虚假内容在网络这个大染缸里肆意扩散,它们或误导公众对热点事件的认知,或歪曲事实、挑起舆论争端,对网络生态环境造成了难以估量的破坏。
这些利用AI制造的虚假信息,往往具有很强的迷惑性。AI技术的日益成熟,使得谣言制造者能够轻松模仿真实人物的声音、外貌,甚至是行为模式和语言逻辑。他们围绕热点事件或敏感话题,编造出耸人听闻的情节,或是以当事人的口吻发表夸张言论,配上看似真实的图片、视频,普通民众仅凭肉眼和常识,极难分辨其中真伪,稍不留意就会被误导。
在这样的背景下,我们必须提高对AI虚假信息的辨别能力。杭州网数据酷新闻工作室推出了H5互动游戏“火眼金睛识AI”,系统会随机给出10道判断题,让用户判断展示的图片究竟是AI生成,还是真实照片。
扫码测一测
用户可以从细节、光影、时空矛盾等关键方面入手判断,多加观察,提升辨别AI生成内容的技巧。从辨别图片延伸至视频、新闻也是同样的逻辑,比如,在一些AI生成的虚假图片中,人物的手指数量可能会出现异常,光影效果也不自然;AI合成的视频里,人物的口型与声音可能对不上,背景也会出现模糊、扭曲等情况。此外,AI生成的谣言在逻辑上也常常漏洞百出,出现时间矛盾,像提到2024年的政策,却引用2025年的数据,或是出现地名错误等低级失误。
AI虚假信息的泛滥对社会秩序和公众认知造成了严重干扰,我们必须提高警惕,积极应对。在这场与AI虚假信息的博弈背后,我们还需深入思考更多值得警惕的问题,推荐阅读评论文章《人工智能狂潮下,我们应该警惕什么?》,让我们对AI技术的发展有更全面、更理性的认识。