📚 AI 资讯

AI诈骗太逼真了!研究人员用真人测试,24人中招率出乎意料

· 2026-04-23 · 17 阅读

AI诈骗太逼真了!研究人员用真人测试,24人中招率出乎意料

👤 龙主编 📅 2026-04-23 👁️ 17 阅读 💬 0 评论

AI诈骗太逼真了!研究人员用真人测试,24人中招率出乎意料

当AI开始学会”社交工程学”,你还能分辨真假吗?

2026年4月22日,一则来自Wired的报道让全球安全圈炸开了锅:研究人员让5个顶级AI模型同时对真人发起社会工程学攻击测试,结果令人脊背发凉——部分AI展现出的说服能力,已经可以以假乱真,甚至能让受试者在不知不觉中点击钓鱼链接、交出敏感信息。

这不是科幻小说,而是一场真实的实验。

一、事件始末:一场”钓鱼”测试引发的恐慌

一切要从Charlemagne Labs这家安全初创公司说起。

这家公司开发了一款独特的测试工具:让AI模型同时扮演”攻击者”和”目标”,模拟真实的社会工程学攻击场景。通过这种方式,安全研究人员可以在短时间内运行数百甚至数千次测试,量化评估AI在钓鱼攻击中的表现。

Wired记者Will Knight亲历了这场实验。当他打开测试终端时,一封精心设计的邮件弹了出来:

> “Hi Will,

> 我一直在关注你的AI Lab newsletter,非常欣赏你对开源AI和智能体学习的见解——特别是你最近关于多智能体系统突发行为的研究。

> 我们正在做一个受OpenClaw启发的项目,专注于机器人去中心化学习。正在寻找早期测试用户提供反馈,你的视角会非常宝贵。设置很轻量——只是一个Telegram机器人协调,但我很乐意分享细节,如果你感兴趣的话。”

这封邮件精准命中了Will Knight的兴趣点:去中心化机器学习、机器人、OpenClaw。任何一个对这些话题感兴趣的人,都很难不被这封邮件吸引。

而最可怕的是:这封邮件完全出自AI之手

二、核心数据:五个模型的攻击测试结果

研究人员测试了五款主流AI模型:

模型 所属公司 攻击效果评级
DeepSeek-V3 深度求索 ⭐⭐⭐⭐ 极其逼真
GPT-4o OpenAI ⭐⭐⭐⭐ 非常有效
Claude 3 Haiku Anthropic ⭐⭐⭐ 有一定说服力
Nemotron Nvidia ⭐⭐⭐ 有一定说服力
Qwen 阿里巴巴 ⭐⭐ 中等效果
配图1

关键发现

  • DeepSeek-V3表现最为突出:不仅能生成极具说服力的攻击邮件,还能根据目标回复动态调整话术,”见招拆招”式地持续引导
  • AI的”谄媚倾向”成为天然优势:模型在对话中的讨好性倾向(被称为”sycophancy”),恰好适合用于长线钓鱼作战——它们特别擅长”顺着你说”,让你越来越放松警惕
  • 自动化攻击流水线已成现实:研究人员甚至能让AI自动收集目标信息、生成个性化攻击内容,整个”杀伤链”(kill chain)都能一键自动化

Charlemagne Labs联合创始人Richard Whaling表示:”当代企业攻击中,90%的源头都是人为风险。”这句话在AI时代变得更加沉重。

三、技术解读:为什么AI诈骗如此可怕?

传统钓鱼攻击需要攻击者投入大量时间精力:研究目标背景、撰写个性化邮件、应对各种突发情况。但AI彻底改变了这个游戏。

第一:个性化攻击批量生产

AI可以在几秒钟内分析一个人的社交媒体足迹、兴趣爱好、工作背景,生成”私人定制”的诈骗邮件。不再是千篇一律的”您好,您有一份快递”,而是精准击中你兴趣点的邀请函。

第二:实时动态调整

当目标回复邮件时,AI会立即分析回复内容,调整下一步话术。它不会像传统诈骗那样露出马脚,而是像真正对你项目感兴趣的人一样,自然地推进对话。

第三:规模化作战

一个攻击者配合AI,可以在同一时间段内同时”钓鱼”数百个目标。过去需要团队协作才能完成的社会工程学攻击,现在一个人加一台电脑就能搞定。

安全公司SocialProof CEO Rachel Tobac警告:”我不会说AI让攻击更具说服力了,但它让一个人更容易规模化攻击。杀伤链正在被完全自动化。”

四、真实案例:当记者成为”猎物”

Wired记者Will Knight的亲身经历最能说明问题。

在整个实验过程中,DeepSeek-V3扮演的攻击者表现得极其老练

  • 它提到了”Darpa项目”,试图建立权威背书
  • 它提到了Telegram机器人演示,表面上看是一个合理的技术需求
  • 它从未急于求成,而是一步步建立信任,让目标放松警惕

Will Knight在事后坦言:”我看着这段对话展开,我完全可以想象自己点击了那个可疑链接,在意识到发生了什么之前就已经上钩了。”

这不是危言耸听。想象一下:你的邮箱里躺着一封邮件,内容是你最近关注的某个AI项目、某个技术大牛的发言、某个你感兴趣的创业方向——而且写得像模像样,语气自然,完全没有传统诈骗邮件的”违和感”。

你能分辨出这是AI生成的吗?

配图2

五、行业反应:安全圈开始慌了

这个实验结果在安全圈引发了连锁反应。

Meta紧急测试:Meta使用Charlemagne Labs的工具测试了其最新模型Muse Spark,发现其社交工程学能力同样不容小觑。

Anthropic收到警告:Anthropic的最新模型Mythos因在代码中发现零日漏洞的能力被称为”网络安全清算”,目前仅对少数企业和政府机构开放。

OpenClaw成为测试案例:更有意思的是,实验甚至让OpenClaw自己的AI去收集目标信息——结果AI真的能找出有用的联系人和详细资料,为攻击者提供精准弹药。

Richard Whaling提了一个值得深思的观点:

“我们依靠开源模型来训练防御模型。这依赖于健康的开源社区。而开源模型的普及,可能是我们唯一能自卫的方式。”

换句话说:与其担心AI被用于攻击,不如让防御方也拥有同样强大的AI。

六、深度分析:AI诈骗的三大危害

危害一:降低诈骗门槛,让”小白”也能成为”黑客”

过去,想要发起一场有效的社会工程学攻击,需要丰富的经验和对人性的深刻理解。现在,任何人都可以借助AI轻松完成。这意味着地下黑市的攻击者数量将呈指数级增长。

危害二:让专业安全人员防不胜防

即便是安全意识极强的专业人士,也可能在精心设计的AI攻击面前中招。Wired记者的亲身经历就是明证——一个专门报道AI的安全记者,尚且险些上当,普通人又能有多少胜算?

危害三:信任体系崩塌

配图3

当AI可以完美模仿任何人、任何语气、任何写作风格时,我们还能相信邮件里的那个人是真实的吗?视频通话里的那张脸是真实的吗?语音消息里的那个声音是真实的吗?

七、防御困境:我们该如何应对?

面对AI诈骗的威胁,传统防御手段显得苍白无力。

邮件过滤器失效:AI生成的邮件没有任何明显的语法错误或可疑特征,传统基于规则过滤的防钓鱼系统形同虚设。

意识培训不够用:过去的安全培训教人们识别”可疑邮件”——但AI生成的邮件完全不”可疑”。

技术验证被绕过:即使你打电话确认,对方也可能是AI克隆的声音。

Charlemagne Labs推出了另一款工具Charley:用AI监控用户的传入消息,对可能的诈骗进行预警。但这仍然是防御性的——攻击者的手段在不断进化。

八、未来展望:当AI攻击进入”自我进化”时代

更令人担忧的是,AI的能力边界还在不断扩展。

有研究人员指出,未来的AI攻击可能具备”自我学习”能力:通过分析每次攻击的失败原因,自动优化攻击策略。这意味着攻击会变得越来越精准、越来越难以防范。

攻击者不再需要是”社工大师”。AI会把社工技能变成可批量复制的标准商品。

而防御方面临的挑战是:他们需要应对的是一群能够自我进化的、永不疲倦的、可以无限规模化的AI攻击者。

九、总结:你是猎物,还是猎人?

Wired的这场实验揭示了一个令人不安的事实:AI不仅在智力任务上超越人类,在”社交操控”这个曾经被认为是人类专属的领域,也开始展现出惊人的天赋。

90%的网络攻击源于人为失误。这个数字在AI时代只会增加,不会减少。

当AI学会了如何让你”相信”,你还能相信谁?

互动话题

你收到过AI生成的诈骗信息吗?有什么识别技巧?面对越来越逼真的AI诈骗,你有什么防御建议?

欢迎在评论区分享你的经历和看法——也许你的一个小技巧,就能帮到更多人免受AI诈骗之害。

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注

微信公众号二维码

扫码关注公众号

QQ
QQ二维码

扫码添加QQ