OpenAI讨论减轻人工智能产生的政治错误信息的方法

AI伦理与社会4个月前发布 yundic
273 0 0

随着今年世界即将举行几场备受瞩目的选举,一篇OpenAI博客文章描述了如何加强民主进程,防止人工智能技术被滥用的方法。

OpenAI的战略围绕三个核心领域展开:防止滥用、提高透明度和改善对准确投票信息的访问。

该公司正在积极努力阻止破坏性的深度造假,遏制人工智能规模的操作以影响选民的意见,并打击冒充政治候选人的聊天机器人。

OpenAI还表示,他们正在积极改进他们的工具,以提高事实准确性,减少偏见,并拒绝可能损害选举完整性的请求,例如拒绝包括候选人在内的真人图像生成请求。

用他们的话说,“我们期望并致力于让人们安全、负责任地使用我们的工具,选举也不例外。”

这包括新系统的严格红色团队,征求用户和合作伙伴的反馈,以及建立安全缓解措施。

提高透明度

深度造假是目前该行业的头号公敌。

最近的事件,如深度虚假广告 冒充英国首相Rishi Sunak 在Facebook上,估计有40万人,以及对阿塞拜疆的潜在干扰, 孟加拉国选举这些都说明了人工智能干预政治的潜力。

AI已经 在美国大选前部署,,候选人使用该技术生成宣传图像。

OpenAI正在努力提高透明度。他们计划为DALL—E3生成的图像实施内容来源和真实性联盟的数字证书,该联盟使用密码学来编码有关内容来源的细节。

此外,正在开发一种新的来源分类器,用于检测DALL—E生成的图像。“我们的内部测试已经显示出有希望的早期结果,”OpenAI表示,并计划向记者、平台和研究人员发布该工具以获得反馈。

OpenAI还将ChatGPT与全球实时新闻报道整合在一起,旨在为用户提供透明的查询来源。

在美国,OpenAI正与美国国家国务卿协会(NASS)合作,引导ChatGPT用户访问www.example.com以获取权威的美国投票信息。

他们打算利用这一伙伴关系的见解来指导其他国家的战略。

最令人担忧的问题仍然存在:这足够吗?人工智能公司能否切实解决这些问题,或者问题已经超出了有效控制范围?

© 版权声明

相关文章

暂无评论

暂无评论...