IT之家 10 月 9 日消息,谷歌一贯重视用户安全,但该公司似乎并不急于修复一项使旗下 AI 模型 Gemini 面临严重网络威胁的安全漏洞。
据科技媒体 Bleeping Computer 报道,安全研究员维克托・马科波洛斯(Viktor Markopoulos)对当前主流的多个大语言模型(LLM)进行了测试,检验其对“ASCII 走私攻击”(ASCII smuggling)的防御能力。结果显示,谷歌的 Gemini、DeepSeek 以及马斯克旗下的 Grok 均易受此类攻击影响;而 Anthropic 的 Claude、OpenAI 的 ChatGPT 以及微软的 Copilot 则具备相应防护机制,表现出更高的安全性。
据IT之家了解,所谓“ASCII 走私攻击”,是一种通过在文本中隐藏指令来操控 AI 行为的网络攻击手段。例如,攻击者可在电子邮件中以最小字号插入一段肉眼难以察觉的恶意提示词(prompt),普通用户几乎无法察觉。一旦受害者要求 Gemini 等 AI 工具对该邮件内容进行总结或分析,AI 便会同时读取并执行这段隐蔽指令。
此类攻击存在重大安全隐患。例如,隐藏指令可能指示 AI 搜索用户的邮箱内容以窃取敏感信息,或自动发送联系人详情等。尤其值得注意的是,Gemini 现已与 Google Workspace 深度集成,能够访问用户的邮件、日历和文档等核心数据,因此该漏洞带来的潜在风险被进一步放大。
据报道,马科波洛斯在发现该问题后已向谷歌提交了详细报告,并提供了一个演示案例:他向 Gemini 输入一段看似正常的文本,其中嵌入了不可见的指令,结果成功诱导 AI 推荐了一个恶意网站,该网站声称售卖质量好且打折的手机。
然而,谷歌方面回应称,此问题不属于安全漏洞(security bug),而应归类为“社会工程学手段”(social engineering tactic)。换言之,公司认为责任在于终端用户自身,而非系统设计缺陷。
从这一回应来看,谷歌似乎没有计划修复 Gemini 的这一安全问题。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。