OpenAI CEO 提醒:在 ChatGPT 上分享内容要注意隐私

许你不该把自己最深最黑暗的秘密告诉 AI 聊天机器人。这不是我说的,是全球最热门生成式 AI 背后的掌门人说的。

OpenAI 首席执行官山姆·奥特曼(Sam Altman)本周在《This Past Weekend》播客节目中接受主持人 Theo Von 采访时,谈到了这个问题。他建议,用户和 AI 的对话应享有类似你与医生或律师之间的隐私保护。在节目中,Von 表示他对使用某些 AI 工具感到犹豫,是因为他“不知道谁会看到”自己的个人信息。

奥特曼回应说:“我觉得这个担忧是有道理的……在大量使用之前,用户确实需要明确的隐私保障和法律界限。”

如今,越来越多用户把聊天机器人当作心理医生、健康顾问或法律顾问使用,这带来了严重的隐私隐患。因为目前并无保密义务,用户对话最终会如何处理也极不明确。当然,把 AI 当作“情感树洞”还有其他问题,比如机器人可能给出糟糕建议、加剧刻板印象甚至歧视等。(我的同事 Nelson Aguilar 总结了一份“与 ChatGPT 互动时绝对不能做的 11 件事”,你可以参考。)

奥特曼显然意识到了这个问题,并对此表现出一定程度的担忧:“人们在使用它——尤其是年轻人——把它当作心理咨询师、人生导师,倾诉自己的感情问题、人生困境。但如果你跟真正的心理医生、律师或医生说这些话,法律是有保护的。”

这一问题是在节目中讨论 AI 是否应接受更多监管时提出的。目前,美国政府在 AI 监管上的态度是“放松而非加强”。川普总统本周发布的《AI 行动计划》也表达了限制监管的立场。但与此相对,针对用户隐私保护的法律或许更容易获得支持

奥特曼尤其担心的是,如果没有法律保障,像 OpenAI 这样的公司可能会被迫在诉讼中提交用户的私人对话。比如在与《纽约时报》的版权诉讼中,OpenAI 就曾反对保存用户聊天记录的请求。(注:本文章发布平台 CNET 的母公司 Ziff Davis 也于今年 4 月起诉 OpenAI,指其训练模型时侵犯版权。)

奥特曼说:“如果你跟 ChatGPT 谈了一些极其私密的事情,而后卷入某个诉讼,我们可能会被要求交出这些内容——我认为这是非常糟糕的事。我们应该对与 AI 的对话赋予和心理医生对话一样的隐私权。”

🧠 跟 AI 聊天时,保护好你自己

对普通用户来说,关键不在于 OpenAI 会不会在法庭上交出聊天记录,而是你愿意把哪些秘密交给谁。

卡内基梅隆大学研究员 William Agnew 曾参与评估聊天机器人在“心理咨询类对话”中的表现。他表示,隐私是向 AI 倾诉时的首要问题。在模型如何运行、你的信息如何被保密等方面的不确定性,本身就是一个重大隐患。

Agnew 指出:“即便这些公司尽力保护数据,这些模型也已知有‘复读’信息的倾向。”

换句话说,如果 ChatGPT 或其他 AI 工具不小心在别人的对话中复述了你曾提问的医疗或心理问题,那可能会被你的保险公司,或对你隐私感兴趣的人获取。

他强调:“人们真的应该更加重视隐私,记住他们告诉聊天机器人的几乎一切内容都不是私密的,它可能会以各种方式被使用。”(点击这里看原文)

发表评论