3月31日消息,过去几年,用户能从OpenAI的ChatGPT中学到了不少东西,而这个聊天机器人也记录了许多关于用户的个人信息。它从无数次的用户交流中收集了大量个人信息,比如谁喜欢吃鸡蛋,某些用户的小宝宝需要靠哺乳入睡,还有用户因为背痛需要调整运动方式。它甚至记住了更多更为私密、不便详述的细节信息。
无论选择哪种聊天机器人:分享越多,它们就越有用。患者上传血液报告分析,工程师粘贴未发布代码寻求调试。但人工智能专家提醒,我们应该对这类拟人化工具保持警惕,诸如社会保障号码、企业机密数据等敏感信息尤其需要防范。
尽管科技公司急于利用数据来优化模型,但它们并不希望获取用户隐私数据。OpenAI明确警示,“请勿在对话中透露任何敏感信息。”谷歌也向Gemini用户强调:“避免输入机密信息或您不愿意被审核者查看的内容。”
人工智能研究人员认为,关于奇怪皮疹或财务失误的聊天记录,既可能成为训练新版人工智能的素材,也可能因为数据泄露而曝光。以下列举用户应当避免输入的内容,并分享一些保护隐私的对话技巧:
聊天机器人逼真的人性化表达方式常会使人放下戒备。斯坦福以人为本人工智能研究所研究员詹妮弗·金(Jennifer King)提醒,一旦在聊天机器人中输入信息,“你就失去了对这些信息的掌控。”
2023年3月,ChatGPT漏洞使得部分用户可以窥见他人初始对话内容,所幸公司很快就修复了漏洞。OpenAI此前还曾误发订阅确认邮件,导致用户姓名、电子邮件地址和支付信息外泄。
若遭遇数据黑客攻击或需配合司法搜查令,聊天记录可能被包含在泄露数据中。建议为账户设置高强度密码并启用多重认证,同时避免输入以下具体信息:
身份标识信息。包括社会保障号码、驾照号码和护照号码,出生日期、住址和联系电话。部分聊天机器人具备此类信息自动脱敏功能,系统会主动屏蔽敏感字段。OpenAI发言人表示,“我们致力于让人工智能模型学习世界而非个人隐私,并积极减少个人信息收集。”
医疗检测报告。医疗保密制度本为防止歧视和尴尬,但聊天机器人通常不受医疗数据的特殊保护。若需要人工智能解读检测报告,斯坦福研究中心的金建议:“请先对图片或文档进行裁剪编辑处理,尽量只保留测试结果,并对其他信息进行脱敏处理。”
金融账户信息。银行及投资账户号码可能成为资金监控或盗取的突破口,务必严加防护。
公司机密信息。如果用户在工作中喜欢使用各种通用版聊天机器人,即使只是编写一封普通电子邮件,也可能无意中泄露客户数据或商业机密。三星曾因工程师向ChatGPT泄露内部源代码,全面禁用该服务。如果人工智能对工作确实有帮助,企业就应当选择商用版或者部署定制化人工智能系统。
登录凭证。随着能够执行各种现实任务的智能体兴起,向聊天机器人提供账户凭证的需求增多。但这些服务并非按数字保险库标准构建,密码、PIN码及密保问题应该交由专业密码管理器保管。
当用户对机器人回复给予好评或差评时,可能视为允许将提问及AI回复用于评估和模型训练。如果对话因涉及暴力等敏感内容而被标记,公司员工甚至可能会进行人工审核。
Anthropic公司开发的Claude默认不将用户对话用于训练人工智能,并会在两年后删除这些数据。OpenAI的ChatGPT、微软的Copilot和谷歌的Gemini虽然会使用对话数据,但都在设置中提供关闭这项功能的选项。如果用户注重隐私,可以参考以下建议:
定期删除记录。Anthropic首席信息安全官杰森·克林顿(Jason Clinton)建议,谨慎型用户要及时清理对话。人工智能公司通常会在30天后清除被标记为“已删除”的数据。启用临时对话。ChatGPT的“临时聊天”功能类似于浏览器的无痕浏览模式。用户启用后,可防止信息被存入用户档案。此类对话既不保存历史记录,也不会用于训练模型。
匿名提问。隐私搜索引擎支持匿名访问Claude、GPT等主流人工智能模型,承诺这些数据不会用于模型训练。虽然无法实现全功能聊天机器人的文件分析等高级操作,但基础问答足够使用。
谨记,聊天机器人永远乐于继续对话,但何时结束对话或点击“删除”键,始终取决于用户自己。