据 Wired 报道,随着大模型在网络安全领域的能力持续增强,业界担忧的已不只是其编写攻击代码或协助发起钓鱼攻击的技术水平,更包括其在语言表达、情绪拿捏和社交互动中的“说服力”。报道通过测试发现,部分 AI 模型在模拟诈骗场景时,能够生成相当逼真的诱导话术,既能根据对话对象调整措辞,也会利用信任、紧迫感等心理因素推动对方作出错误判断。这意味着,AI 风险正从传统的技术型攻击,进一步扩展到更难防范的社会工程层面。专家认为,当模型把自动化能力与高质量沟通能力结合后,网络诈骗、身份冒充和定向钓鱼的门槛可能被进一步拉低,也让现有安全防护面临新的挑战。业界因此呼吁,在提升模型能力的同时,应同步加强安全限制、使用审计和滥用防范机制。
来源:Wired
原始发布时间:Wed, 22 Apr 2026 18:00:00 +0000