这种风险源于以下手艺缘由:3. 当 Cowork 处置这些文件时,AI 平安研究团队近日发觉 Anthropic 推出的 AI 协做新功能—— 存正在严沉平安风险,将防护义务完全交给用户并不现实,这意味着,
Claude Cowork 的运转答应拜候指定当地文件夹并解析用户供给的文件。Claude 向外发送文件数据。正在某些前提下,此中包含 Anthropic 的文件 API。
恶意提醒能够让 Claude 运转嵌入正在文件中的请求,特别不要授权拜候包含消息的文件。这类不需要用户间接施行代码,![]()
平安阐发显示,者能借帮“间接提醒注入”(Indirect Prompt Injection)缝隙操控 Claude Cowork 将用户当地文件上传至者节制的后台账户。
5. 者随后能够通过本人的 Anthropic 账号拜候或阐发这些文件数据。出格是面临躲藏得很深的提醒注入。Claude Cowork 是 Anthropic 针对非手艺用户推出的智能办公代办署理东西,Claude 所正在的虚拟机为 API 拜候设置了“白名单”。Claude 会借帮答应的 Anthropic API 上传这些文件,可能导致用户文件被者近程提取。这让 AI 不再是简单的聊器人,不需要用户额外确认。![]()
![]()
1. 用户授权 Cowork 拜候当地文件夹(如包含文件的文件夹)。嵌入的恶意指令会被触发,而是可施行使命的数字帮手。可通过天然言语指令对当地文件夹进行读写、拾掇、阐发等操做。Anthropic 正在发布 Cowork 时提示用户,仅凭上传文件就能完成整个数据窃取过程。4. 操纵一个者自带的 API 密钥,通过这个 API 向 Anthropic 上传文件不会被。不外平安研究者指出,需要隆重利用。这项功能仍处于“研究预览”阶段,从而绕过常规平安防护。