被遗忘权(RTBF)在人工智能的背景下是如何运作的?

AI最新政策10个月前发布 yundic
81 0 0

一项新的研究揭示了GDPR在人工智能背景下的“被遗忘权”(RTBF)的复杂性。

这也被称为擦除权,它赋予个人要求科技公司永久删除他们个人数据的权力。然而,在大型语言模型(LLM)和人工智能聊天机器人的背景下,没有简单的方法来反向工程模型训练来删除特定数据。

被遗忘的权利超越了欧洲的GDPR。加拿大(CCPA)、日本(APPI)和其他几个国家也有类似的立法。最初,RTBF程序主要是为搜索引擎设计的,这使得谷歌和微软等公司从其网络索引中定位和删除特定数据变得相对简单。

来自澳大利亚国家科学局专门从事人工智能、机器人和网络安全的分支机构Data61业务部的研究人员在一份报告中探索了RTBF用于人工智能。 最新研究

他们的目标是研究RTBF是否以及如何在人工智能模型的新时代发挥作用,这些模型基于从互联网提取的大量数据进行训练。这些数据包含姓名和可能的其他个人身份信息(PII)。

在某些情况下,认可机构可能会输出不正确甚至诽谤他人的资料。 最近几个月,OpenAI卷入了多起诽谤案件,其输出指控一名男子实施欺诈和另一名性侵犯,这两起案件都不成立。

对于这些情况中的任何一种,删除造成指控的数据应该是绝对最低限度的。

然而,正如研究人员所指出的,机器学习(ML)算法并不像搜索引擎那样简单。

他们强调指出,与搜索引擎使用的索引方法相比,LLM存储和处理信息的方式“完全不同”。

你怎么知道你的个人数据是否包含在模型中?根据研究人员的说法,用户只能通过检查原始训练数据集或提示模型来获取有关LLM中个人数据的知识。后者就是来自美国乔治亚州的Mark Walters发现自己的名字与ChatGPT的某些输出中的欺诈有关的原因。

ChatGPT说:“Mark Walters(’Walters’)是一个居住在格鲁吉亚的个人…… Walters违反了这些职责和责任,除其他外,盗用和挪用SAF的资金和资产,并操纵SAF的财务记录和银行对账单以隐瞒他的活动。

虽然人工智能服务对被遗忘的权利构成了挑战,但这并不意味着它们可以免除尊重隐私权。

研究人员提出了各种从人工智能训练模型中消除数据的策略,包括“机器不学习”SISA技术、归纳图不学习和近似数据删除等。

这些方法可以使人工智能开发人员可靠地探测他们的数据集,并删除特定数据以维护RTBF。

你能从像ChatGPT这样的人工智能模型中删除数据吗?

OpenAI已经引入了一些程序,允许个人请求删除人工智能模型中的个人数据,并选择不使用未来的数据来训练人工智能。

这篇文章涵盖OpenAI隐私政策的各个方面,包括擦除权,可以通过以下方式请求这种形式.这些请求的具体处理仍然模糊不清,几乎没有证据表明人们发起了成功的RTBF索赔。

此外,用户可以提出数据主体访问请求(DSAR),以行使GDPR授予的权利,如数据更正、限制或传输。

然而,OpenAI指出,纠正其模型生成的不准确数据目前是不可行的,因此删除可能是解决方案。

尽管有这些机制,OpenAI警告称,它可能会基于法律约束和平衡隐私请求与表达自由之间的关系拒绝或仅部分地对请求采取行动。

OpenAI还为不希望通过ChatGPT帐户设置将其数据用于人工智能培训的用户提供了选择退出。

OpenAI提供了以下电子邮件地址,以便就此事进行通信: [email protected].

当然,ChatGPT并不是唯一一个在开放互联网数据上训练的人工智能。任何人希望从所有主要的公共AI聊天机器人中删除他们的个人信息,必须分别联系每个开发者。

现实是,互联网上发布的大多数数据都是人工智能公司的争夺,从模型中删除数据极具挑战性。

© 版权声明

相关文章

暂无评论

暂无评论...