英国正在与包括OpenAI和DeepMind在内的主要科技公司进行谈判,旨在更深入地了解它们的人工智能技术的安全性。
随着英国为全球人工智能安全峰会做准备,英国政府表达了探索人工智能模型并洞察黑匣子的愿望。知情人士透露,谈判代表们正在积极寻求许可,以深入研究先进人工智能模型的内部工作原理。
众所周知,主要的人工智能开发人员对于分享此类信息非常谨慎——他们可能无意中泄露机密产品细节或版权培训数据的证据吗?
英国政府辩称,了解先进的人工智能模型是如何工作的,将使当局能够先发制人地发现危险,但他们并没有确切解释他们想知道的事情。还有许多开源人工智能模型的工作原理类似于专有人工智能,比如ChatGPT。
在美国,几家领先的人工智能开发人员签署了一个自愿框架,要求他们的模型在发布前接受独立测试-中国已经做到了这一点。
今年6月早些时候,DeepMind、OpenAI和Anthropic达成了初步协议,同意将模型授予英国政府进行研究和安全评估。然而,这种访问的具体细节仍不明确。
在一份声明中,Anthropic提到了探索通过API(应用程序编程接口)交付模型的可能性,以平衡双方的关注点。
据知情人士透露,虽然API对该模型的运作情况提供了有限的了解,但英国政府正在游说, 金融时报。
DeepMind内部人士一致认为,访问安全研究模型将是有用的,但OpenAI尚未发表评论。
一位接近政府的消息人士解释说,“这些公司并没有阻挠,但这通常是一个棘手的问题,他们有合理的担忧,”“这些公司没有按钮可以按下来实现这一目标。这些都是悬而未决的研究问题。”
英国11月初的人工智能安全峰会是对更严格人工智能监管呼吁的直接回应。预计将有各种利益攸关方参与,特别是包括中国官员。
据知情人士透露,英国政府正在努力敲定一项协议,该协议将在峰会上公布。