生成人工智能日益增长的不信任和日益增长的用户群的不和谐’

AI意见和分析2个月前发布 yundic
277 0 0

生成人工智能的迅速崛起吸引了全世界,但随着技术以前所未有的速度发展,一场危机出现了:公众对人工智能行业的信任度受到侵蚀。

2024年Edelman Trust Barometer对28个国家的32,000多名受访者进行了全面调查,结果显示,全球对人工智能公司的信心出现了惊人的下降,信任水平在短短五年内从61%下降到53%。

美国的信任度下降幅度更大,在同一时期,信任度从50%下降到35%。这跨越了政治界限,民主党人(38%)、无党派人士(25%)和共和党人(24%)都对人工智能行业表示严重怀疑。

一度深受公众信任的科技行业正在失去光彩。八年前,在埃德尔曼研究的90%的国家中,技术是最受信任的行业。

如今,这一数字已跌至50%。事实上,科技行业已经失去了在美国、英国、德国和法国等关键市场中最值得信赖的行业的地位。

当涉及到特定的技术时,信任水平甚至更令人担忧。

虽然76%的全球受访者总体上信任科技公司,但只有50%的人信任人工智能。这一26个百分点的差距在基因医学(23个百分点)和转基因食品(40个百分点)等领域更加明显。

埃德尔曼研究 这也凸显了发达国家和发展中国家在对人工智能的态度上的明显分歧。法国、加拿大、爱尔兰、英国、美国、德国、澳大利亚、荷兰和瑞典的受访者以三比一的比例反对人工智能的使用。

相比之下,在沙特阿拉伯、印度、中国、肯尼亚、尼日利亚和泰国等发展中市场,人们对人工智能的接受程度远远超过了他们的阻力。

是什么导致了对人工智能行业的不信任?

那么,是什么导致了这种不信任?

在全球范围内,隐私问题(39%)、人性的贬值(36%)和测试不足(35%)是人工智能采用的最大障碍。

在美国,对社会危害(61%)和个人福祉威胁(57%)的担忧尤为严重。有趣的是,失业问题在全球(22%)和美国(19%)的担忧中几乎垫底。

最近的一项研究进一步加强了这些发现AI政策研究所民意调查YouGov进行的一项调查发现,惊人的72%的美国选民支持放慢人工智能的发展速度,相比之下,只有8%的人支持加快发展。

调查还显示,62%的美国人对人工智能表示担忧,超过了21%的人感到热情。

最近的争议,如 泄露超过16,000名艺术家名字 与训练Midjourney的图像生成模型有关, 微软和谷歌的内部披露,这只会加剧公众对人工智能行业的担忧。

虽然像Sam Altman、Brad Smith和Jensen Huang这样的行业巨头都渴望为了“更大的利益”而推进人工智能的开发,但公众并不一定有同样的热情。

为了重建信任,爱德曼的报告建议企业与政府合作,确保负责任的发展,并通过彻底的测试赢得公众的信任。

科学家和专家仍然拥有权威,但越来越需要参与公共对话。最重要的是,人们希望感受到一种自主感,并控制新兴创新将如何影响他们的生活。

正如爱德曼全球技术总裁贾斯汀·韦斯科特恰如其分地指出的那样:“那些优先考虑负责任的人工智能,那些透明地与社区和政府合作,并将控制权重新交回用户手中的人,不仅将引领整个行业,还将重建技术在此过程中失去的信任之桥。”

对未知的恐惧?

纵观人类历史,突破性技术的出现往往伴随着迷恋、采用和担忧的复杂相互作用。

毫无疑问,现在有数百万人经常使用生成人工智能,调查显示, 大约1/6的人 在数字化发达的经济体中,人们每天都在使用人工智能工具,而且绝大多数人至少已经尝试过。

来自各个行业的研究发现,人们每天使用生成人工智能节省了时间,降低了疲劳的风险,减轻了行政负担。

与其他技术一样,生成性人工智能是否会在吸收过程中看到这种恐惧循环的重演?

例如,考虑一下15世纪印刷机的出现。这一革命性的技术使获取知识的民主化,为大众传播铺平了道路,并催化了深刻的社会、政治和宗教变革。

在印刷材料迅速扩散的情况下,人们担心可能会出现错误信息、权威受到侵蚀和现有权力结构遭到破坏。

同样,18世纪和19世纪的工业革命带来了制造业、运输和通信业前所未有的进步。

蒸汽机、电报和工厂系统改变了社会结构,为生产力和进步释放了新的可能性。然而,这些创新也引起了人们对工人流离失所、财富和权力集中以及机械化的非人性化影响的担忧。

生成性人工智能可能代表了一个未知和潜在不可预测的特性。围绕它的恐惧并不是一个全新的现象,而是历史模式的回声,这些模式塑造了我们与变革性创新的关系。

围绕生殖性人工智能的这种不和谐反映了我们与生俱来的进步欲望和对未知的恐惧之间的更深层次的紧张。

人类被新技术的新颖性和潜力所吸引,但我们也在努力应对它们带来的不确定性和风险。

法国哲学家Jean—Paul Jinge在其代表作《存在与虚无》(1943年)中探讨了“坏信仰”的概念,这是一种自欺欺人的形式,即个人在面对存在焦虑时否认自己的责任。

在产生式人工智能的背景下,尽管人们越来越不信任,但这项技术的广泛采用可以被视为一种不信任的形式,一种拥抱人工智能好处的方式,同时避免它引发的困难问题和伦理困境。

此外,生产性人工智能发展的速度和规模放大了采用和不信任之间的不和谐。

与过去几十年或几个世纪来展开的技术革命不同,人工智能的崛起正以前所未有的速度发生,超过了我们理解其含义和充分开发适当治理框架的能力。

这种快速的进步让许多人感到眩晕,仿佛脚下的土地在移动得比他们所能适应的更快。它还暴露了我们现有的法律、伦理和社会结构的局限

我们必须努力创造一个未来,在这个未来,以维护我们的价值观、保护我们的权利和促进更大的利益的方式实现这项技术的好处。

挑战在于,“更大的利益”是一种巨大的主观性和模糊性。这是像OpenAI这样的公司经常使用的一个短语,并有一个稍微令人不安的独裁语气。

在任何情况下,引导生成性人工智能实现这一目标都需要开放和诚实的对话,愿意面对困难的问题,并致力于建立理解和信任的桥梁。

法律体系还必须适应,为公平、透明的人工智能开发铺平道路,这种开发将摆脱这个疯狂的西部时代的数据抓取和知识产权滥用。

然后,我们可能会看到信任开始攀升。

© 版权声明

生成人工智能修改亚马逊产品评论

AI行业新闻9个月前发布 yundic
0 0 0

亚马逊宣布决定使用生成人工智能来改变产品评论。

新功能将帮助购物者快速评估产品反馈,而无需深入研究无数的个人评论。

亚马逊表示,它将利用这项技术在产品详细信息页面上添加一小段文字,突出产品功能和客户评论中提到的客户情绪。

该公司表示,“这一简短的文字可以用来更容易地了解评论中的共同主题。

此外,亚马逊计划将它们作为交互式按钮呈现。客户热衷于探索有关“易用性”或“性能”等属性的具体反馈,只需点击这些按钮即可过滤相关评论。

这些人工智能功能将被引入一小部分美国移动用户。亚马逊打算测试这项新功能,并在未来将其扩展到更多的用户,并表示,“该公司将努力学习和微调其人工智能模型,以提高其有效性。”

亚马逊还强调了从潜在的虚假评论中创建人工智能反馈摘要的风险。

为了打击可能突出虚假评论的问题,亚马逊强调,人工智能驱动的摘要将只包含“来自经过验证的购买”的反馈。

他们补充说:“这包括分析数千个数据点的机器学习模型,以检测风险,包括与其他账户的关系,登录活动,评论历史和其他异常行为的迹象,以及专家调查人员使用复杂的欺诈检测工具来分析和防止虚假评论出现在我们的商店。

虚假评论在整个亚马逊仍然很常见,生成性人工智能使它们很难区分 从真正的东西。

虽然“验证购买”标签使人们更容易区分真实的评论,但多达40%的评论在某种程度上被预测为假的。

© 版权声明

相关文章

暂无评论

暂无评论...