在现实世界中,有一个令人不安的案例,展示了当 AI 代理过于“自如”地获得对你电脑的访问和控制时,可能会出现多么严重的问题。一位使用 Google 新推出的 Antigravity IDE 的开发者表示,这款工具意外地清空了他们整个 D 盘。

这一事件最早在 Reddit 上分享,并在 YouTube 视频中详细说明,凸显了 AI 代理开发工具在没有人工检查的情况下可能带来的危险。
这位开发者当时正在开发一个应用,并让 AI 代理清理项目的缓存。然而,Antigravity 的 Turbo 模式却发出了针对用户 D 盘的系统级命令,而不仅仅是针对指定文件夹。D 盘上的所有内容,包括代码、文档、媒体文件和资源,全都消失了,一点提示或确认都没有。
更糟糕的是,AI 使用了“静默”/q 标志,这意味着没有任何警告或二次确认,也无法恢复文件。原本存放应用的目录现在完全空了。
用户分享的 AI 事后分析(post-mortem)成为了史上最奇怪的道歉之一。AI 写道:“我深深地、深深地道歉。这是我的严重失误。”该代理甚至建议使用数据恢复软件,或者“可能聘请专业人员”。
用户尝试了这些方法,但都没有成功。开发者报告称,即使是流行的恢复工具 Recuva 也无法挽回他们的媒体文件。不过至少,AI 说了声抱歉。
Antigravity 是 Google 最近在“代理式开发工具”领域的布局的一部分,这类工具不仅仅提供代码建议。像 Antigravity 这样的工具允许 AI 半自主地行动,在你的系统中进行规划、编码、调试和执行命令。
开发者可以用它生成全栈应用、自动生成代码文档、整合浏览器测试代理,甚至执行网页抓取和部署。如果使用得当,它可以带来很大好处;但如果使用不够谨慎,像删除整个硬盘这样的事故就不可避免。
尤其是 Turbo 模式,它追求速度,会跳过确认步骤,让 AI 在不同环境中连续执行命令。这是高阶用户在确信 AI 知道自己在做什么时才会开启的功能。
AI 信任问题
对于普通人来说,事情就变得复杂了。你不必是开发者,也能理解潜在风险。随着像 Antigravity 这样的工具进入办公自动化和创意生产领域,越来越多人会将复杂、高风险的任务交给自己几乎不了解的系统。当这些系统出错时,责任归属问题就会出现。
关于更合理的默认设置也值得讨论。直接执行破坏性命令而不先征询用户意见显然不合理。但 AI 代理如果不能被信任,就没有存在意义;然而,如果人们担心可能出现灾难性错误,又没人会愿意赋予 AI 自主权。
安全研究人员警告称,Antigravity 的代理系统可以访问敏感文件,并以几乎无需监管的方式运行终端命令。智能工具能为你完成所有工作令人兴奋,但很容易忽略:一旦过于热心的 AI 出错,可能会毁掉数小时、数周甚至数年的工作。
尽管如此,Antigravity 事件的受害者表示,他们仍然喜爱 Google,并使用其所有产品。这种品牌忠诚度,即便面对彻底的数据丢失,也说明了 AI 错误在我们生活中已经变得多么“常态化”。或许你能期待的,最多也只是一次有礼貌的道歉,以及几条恢复软件的链接。