谷歌的母公司Alphabet警告员工不要使用聊天机器人,包括自己的Bard,因为担心保护敏感数据。该公司援引一项长期存在的数据保护政策,警告员工不要将私人信息输入人工智能聊天机器人。
像Bard和ChatGPT这样的聊天机器人使用生成人工智能来模拟人类交互并响应用户请求的对话。
作为培训过程的一部分,人类评审员可能会阅读这些交互。研究人员发现整合到这些聊天机器人中的人工智能模型能够重新创建在训练期间摄取的数据,这可能会造成泄漏风险。
此外,Alphabet已经指示其开发人员避免直接使用聊天机器人生成的计算机代码。Bard可以提供编码建议,但业务部门理解在其技术局限性上需要谨慎和开放。
随着谷歌与OpenAI和微软支持的ChatGPT竞争,这一谨慎的策略旨在最大限度地减少对谷歌公司的任何可能伤害。
包括三星、亚马逊和德意志银行在内的其他企业也采取了类似的安全措施,表明企业安全的门槛越来越高。
在聊天机器人讨论中可能会分享不正确的信息、私人信息甚至版权材料,这引起了人们的担忧。
一些公司已经开发了软件解决方案来解决这些问题。例如,Cloudflare提供了标记和限制外部数据传输的选项,以保护敏感数据。
尽管它们更昂贵,但谷歌和微软也为商业客户提供对话工具,这些客户不包括他们的数据在开源人工智能模型中。虽然用户可以选择删除它,但Bard和ChatGPT默认保留用户的聊天历史记录。
微软消费者部门的首席营销官Yusuf Mehdi说:“出于商业原因,企业避免使用向公众提供的聊天机器人是有意义的。与免费的必应聊天机器人相比,微软对其商业软件设定了更严格的规则。另一位高管承认,尽管微软在全面禁止公开可访问的人工智能程序中的专有信息的话题上保持沉默,但个人对使用这类程序存在个人限制。
Alphabet和其他企业实施的安全措施强调,在使用人工智能聊天机器人时,有必要保证对私人数据的保护。企业可以通过制定规则和技术解决方案来降低风险并确保数据机密性。