英国获得OpenAI、DeepMind和Anthropic的模型访问权限

AI伦理与社会2年前 (2023)发布 yundic
298 0 0

英国首相Rishi Sunak上周在伦敦科技周上表示,OpenAI、Google DeepMind和Anthropic已承诺提供对其人工智能模型的“早期或优先访问”。

此举旨在帮助专注于评估和安全性的人工智能领域的研究。本声明遵循 英国政府的计划 召开一次全球人工智能安全会议。

总理Sunak表示,他对人工智能安全研究的承诺,他说:“我们将在英国进行尖端的人工智能安全研究。“我们在人工智能安全方面的投入比其他任何政府都多,其中包括1亿英镑用于我们的专家任务团队。

他接着解释说:“我们正在与前沿实验室合作,包括Google DeepMind、OpenAI和Anthropic。我很高兴地说,他们已经同意出于研究和安全原因提供早期或优先访问模型,以帮助我们构建更好的评估并了解这些系统的潜力和危害。

为了促进英国成为全球人工智能安全监管中心,苏纳克首相将其与COP气候大会联系在一起。他在谈到即将召开的会议时表示:“就像我们通过COP团结起来应对气候变化一样,英国也将在今年晚些时候主办首次全球人工智能安全峰会。”我的目标是使英国不仅成为全球人工智能安全监管的知识分子,而且还成为全球人工智能安全监管的地理所在地。

目前对人工智能安全的重视反映了政府态度的重大转变。过去,英国政府倾向于支持创新的姿态和灵活的人工智能治理原则,而不需要技术法规或监督机构。

然而,随着对人工智能可能存在的危险和控制的担忧日益加剧,唐宁街迅速重新评估了自己的计划。

虽然人工智能公司承诺提供更好的访问他们的模型,这为英国提供了一个在人工智能审查和审计方法方面发挥领导作用的机会,但行业对该国的人工智能安全措施存在影响的危险。

人工智能巨头可以通过塑造围绕人工智能安全研究的辩论和影响问题优先级来塑造未来与自己企业相关的人工智能规则。

为了确保产生可靠和严格的结果,英国政府的人工智能安全计划必须包括独立研究人员、民间社会组织和最容易受到自动化损害的人。

伦理学家强调,需要解决人工智能技术造成的现实世界的不公正,包括偏见、歧视、侵犯隐私、侵犯知识产权和环境剥削。

随着英国推进其人工智能安全议程,将行业参与与独立监督相结合,对于开发一个负责任和包容性的人工智能生态系统至关重要,该生态系统可以在最大限度地发挥人工智能的优势的同时保护可能的危害。

© 版权声明

相关文章

暂无评论

暂无评论...