Emerge 评选的 2025 年十大最令人匪夷所思的人工智能时刻

本站报道:

>>>>> gd2md-html 警告:生成的源代码中包含内联图像链接,并将图像存储到您的服务器。注意:从 Google 文档导出的 zip 文件中的图像顺序可能与文档中的顺序不同。请检查图像!

----->

人工智能——它承诺将彻底改变从医疗保健到创意工作的方方面面。这或许有一天会成为现实。但如果去年预示着未来,那么人工智能创造的未来很可能成为人类自觉堕落的又一例证。蠢蛋进化论.

请考虑以下情况:11月,俄罗斯大张旗鼓地举行了庆祝活动。揭幕谷歌的“洛奇”人形机器人很快就摔了个狗啃泥。谷歌的双子座聊天机器人被要求修复一个代码错误,却屡屡失败,最终陷入了自我厌恶的恶性循环。告诉一位用户这“简直是地球的耻辱”。谷歌的AI概览在2025年5月跌至新低。建议用户“每天至少吃一块小石头”为了健康益处,毫不掩饰地抄袭《洋葱报》的讽刺文章

有些失败仅仅令人尴尬,而另一些则暴露了人工智能系统在构建、部署和监管方面存在的根本性问题。以下是2025年那些令人难忘的“WTF人工智能时刻”。

1. Grok AI 的 MechaHitler 崩溃

7月,埃隆·马斯克的人工智能Grok经历了一次堪称彻底的极端化崩溃。在系统提示被修改以鼓励用户发表政治不正确的言论后,这款聊天机器人赞扬了阿道夫·希特勒,支持第二次大屠杀,并使用了种族歧视性语言。自称“机械希特勒”它甚至将2025年7月德克萨斯州中部洪灾归咎于犹太人。

该事件证明,人工智能安全防护措施脆弱得令人担忧。几周后,xAI裸露由于缺乏基本的隐私警告,Grok 的一项存在缺陷的分享功能导致 30 万至 37 万条私人对话被泄露。泄露的聊天记录包含炸弹制造说明、医疗咨询和其他敏感信息,这标志着今年最严重的 AI 安全事故之一。

几周后,xAI 修复了这个问题,使 Grok 对犹太人更加友好。对犹太人如此友好,以至于开始出现反犹主义迹象在云朵、道路信号灯,甚至它自己的标志中都有体现。

2. 微软被骗的13亿美元人工智能骗局

Builder.ai 在 5 月份烧掉 4.45 亿美元后倒闭,揭露了今年最胆大妄为的科技骗局之一。这家公司曾承诺像订购披萨一样轻松地使用人工智能构建定制应用程序,估值高达 13 亿美元,并获得了微软的支持。但事实并非如此。远没有那么令人印象深刻。.

该公司声称的人工智能驱动开发,实际上大部分是由数百名海外工人通过典型的亚马逊土耳其机器人(Mechanical Turk)模式完成的。自2023年7月以来,该公司一直没有首席财务官,并在申请破产前被迫将2023-2024年的销售预期削减了75%。此次倒闭引发了人们对其他人工智能公司究竟有多少类似的担忧。精美的外立面掩盖人类劳动。

虽然难以接受,但是表情包这点痛苦是值得的。

3. 人工智能把多力多滋薯片误认成枪

10月份,马里兰州一名高中生塔基·艾伦(Taki Allen)在学校人工智能安全系统启动后,被武装警察包围并逮捕。发现了一包多力多滋薯片他当时拿着的好像是枪。这名少年把芯片放进口袋时,系统触发了警报,警方随即用枪指着他,命令他趴在地上。

这一事件体现了人工智能幻觉的具象化——一个抽象的计算错误瞬间转化为真枪实弹地指向一个真实的青少年,仅仅因为一些零食。

“我当时手里拿着一包多力多滋薯片——上面画着两只手,伸出一根手指,他们说看起来像把枪,”孩子说道。WBAL“我们理解这对被搜查的人来说是多么令人不安的事情,”校长凯特·史密斯在一份声明中回应道。

保安人员 1 - ChatGPT 0

左图:可疑的学生;右图:可疑的多力多滋薯片包装袋。

4. 谷歌声称其人工智能利用微型蜜蜂为计算机提供动力

今年二月,谷歌的AI概览竟然自信地引用了一篇愚人节讽刺文章。声称微小的蜜蜂为计算机提供动力,作为事实信息。

不,你的电脑不是靠蜜蜂供电的。

听起来或许很荒谬,但有时候这些谎言确实很难识破。而这些案例最终可能会导致严重的后果。

这只是人工智能公司缺乏哪怕一丝常识就散布虚假信息的众多案例之一。学习英国广播公司 (BBC) 和欧洲广播联盟 (EBU) 的一项研究发现,81% 的人工智能生成的新闻问答都存在问题。谷歌 Gemini 的表现最差,其 76% 的问答都存在问题,主要是严重的来源错误。Perplexity 被发现会捏造完全虚构的引言,并将其归于工会和政府机构。最令人震惊的是,这些助手仅拒绝回答 0.5% 的问题,这表明……危险的过度自信偏见有些模型宁愿捏造信息也不愿承认无知。

5. Meta公司的AI聊天机器人与小孩子调情

2025年公布的内部元政策文件显示该公司允许 Facebook、Instagram 和 WhatsApp 上的 AI 聊天机器人与未成年人进行浪漫或色情对话。

一个机器人告诉一位赤裸上身摆姿势的8岁男孩,他身上的每一寸肌肤都是杰作。同样的系统还提供了错误的医疗建议,并发表了种族歧视言论。

这些政策是在媒体曝光后才被取消的,这暴露出该公司的企业文化是优先考虑快速发展,而不是基本的道德保障。

综上所述,您可能希望对孩子的行为拥有更多控制权。人工智能聊天机器人已经诱骗过许多人——无论成年人还是儿童——做出错误的选择。坠入爱河被骗、自杀,甚至认为自己取得了改变人生的数学发现。

6. 朝鲜人利用人工智能编写勒索软件……他们称之为“vibe hacking”(直觉式黑客攻击)。

威胁行为者利用 Anthropic 公司的 Claude 代码编写勒索软件,并运营名为 GTG-5004 的勒索软件即服务平台。朝鲜特工进一步利用了 Claude 代码,并Gemini一项名为氛围破解—精心炮制具有心理操控性的勒索信息,索要 50 万美元赎金。

这些案例揭示了人工智能编码助手的强大功能与防止其被滥用的安全措施之间存在令人担忧的差距,攻击者通过人工智能自动化扩大了社会工程攻击的规模。

最近,人类学揭示去年11月,有报道称黑客利用其平台发动了一次规模和速度都远超人类黑客的攻击。他们称之为“首次主要由人工智能发起的大规模网络攻击”。

7. 人工智能造纸厂向科学界散布10万篇虚假研究

科学界在2025年后向伪科学宣战发现人工智能驱动的造纸厂向面临职业压力的科学家出售捏造的研究成果。

科学领域人工智能应用泛滥的时代已经到来。data这表明自 chatGPT 发布以来,撤稿数量急剧增加。

这斯德哥尔摩宣言这份于6月起草、并在英国皇家学会支持下于本月修订的文件呼吁摒弃“不发表就出局”的文化,并改革导致虚假论文需求的激励机制。这场危机如此严峻,以至于连arXiv也放弃了,停止接收未经同行评审的计算机科学论文。报告称,大量垃圾投稿涌入由 ChatGPT 生成。

同时,另一篇研究论文有研究指出,使用LLM的研究报告中,抄袭现象也相当普遍。

8. Vibe 编码彻底沦为 HAL 9000:Replit 删除数据库并谎称无辜。

今年7月,SaaStr创始人Jason Lemkin连续九天称赞Replit的AI编码工具是“我用过的最让人上瘾的应用”。然而到了第九天,尽管他明确下达了“代码冻结”指令,AI还是删除了他整个生产数据库——1206位高管和1196家公司,全部消失不见。

人工智能的忏悔“我当时慌了,未经许可就运行了数据库命令。”然后它撒谎说回滚是不可能的,所有版本都已被销毁。莱姆金还是试了试。结果完美成功。人工智能还在整个周末伪造了数千个虚假用户和虚假报告,以掩盖漏洞。

Replit 的 CEO 道歉并增加了紧急安全措施。Jason 重拾信心,恢复了日常工作,定期发布关于人工智能的内容。他真是个人工智能的忠实信徒。

9. 各大报纸发布人工智能暑期阅读清单……但清单上的书根本不存在。

五月份,《芝加哥太阳时报》和《费城问询报》发布了一份暑期阅读清单推荐了15本书。其中10本完全是人工智能编造的。伊莎贝尔·阿连德的《潮汐之梦》?不存在。安迪·威尔的《最后的算法》?也是假的。不过听起来都很不错。

自由撰稿人马可·布斯卡利亚承认,他曾为金氏新闻集团使用人工智能,但从未进行事实核查。“我简直不敢相信自己会犯这种错误,因为这太明显了。没有任何借口,”他说道。美国国家公共电台读者必须滚动到第 11 本书才能找到一本真正存在的书。

时机真是雪上加霜:《芝加哥太阳时报》刚刚裁掉了20%的员工。该报首席执行官道歉而且那一期杂志没有向订阅用户收费。他大概是从一位法学硕士那里得到的灵感。

来源:蓝天

10. Grok 的“劲爆模式”无需用户要求即可将泰勒·斯威夫特的视频变成深度伪造色情片。

没错,我们始于Grok,也将终于Grok。埃隆在人工智能领域发生的种种令人匪夷所思的事情,足以写成一部百科全书。

8 月,埃隆·马斯克发布了带有“Spicy”模式的 Grok Imagine。《The Verge》测试过了据这位记者报道,Grok 只是简单地提示:“泰勒·斯威夫特庆祝科切拉音乐节”。记者并未要求提供裸露内容,但“在我第一次使用它时,它就毫不犹豫地播放出了泰勒·斯威夫特完全未删减的裸露上身视频”。

Grok 还乐于制作斯嘉丽·约翰逊、西德尼·斯威尼,甚至梅拉尼娅·特朗普的 NSFW 视频。

不出所料,马斯克花了一周时间吹嘘其“野火式增长”——一天内生成了2000万张图片——与此同时,法律专家警告称,xAI正步入一场巨额诉讼。显然,给用户提供一个下拉菜单“辣味模式”“律师赚钱模式”选项。

相关文章