世界经济论坛(WEF)强调,迫切需要回答生殖性人工智能如何影响儿童,以期制定政策和法规。
今天的科技发展很快,儿童和青少年往往比成年人更善于探索它。
民意调查显示,虽然只有30%的父母使用过像ChatGPT这样的人工智能工具, 58%的儿童 12—18岁的儿童这样做,并向家长和老师隐瞒。
Snapchat等受儿童欢迎的平台已经集成了AI聊天机器人,这些机器人易于访问和使用。
其他主要科技公司也在计划进行类似的整合,这表明生成性人工智能可能会迅速成为儿童数字环境的关键功能。成年人要监管儿童使用生成人工智能将变得非常困难。
世界经济论坛指出,生成性人工智能确实为孩子们提供了潜在的好处,比如帮助他们做作业,个性化的学习体验,以及培养创造力。此外,对于残疾儿童,人工智能提供了独特的学习和互动方式。
然而,尽管它有好处,但生成性人工智能存在可能无意中伤害儿童的风险。例如,人工智能可以创建基于文本的虚假信息,比人类生成的内容更有说服力, 现在,很深的假图像和真实的图像是难以区分的。
恋童癖已经在使用人工智能来生成虐待儿童的图像,像Replika这样的服务已经因其性暗示行为而受到儿童保护组织的批评。Replika是一款复杂的聊天机器人,旨在成为数字朋友或伴侣,年龄限制为18岁以上,尽管有证据表明用户并不总是遵守它。
长期使用生成性人工智能引发了有关儿童发展、潜在偏见、隐私、数据保护和儿童数据的商业使用的问题。
此外,还有对教育系统和未来就业市场造成重大破坏的不小问题。
我们能否依靠教育机构来提供儿童在一个几乎每一个过程中都嵌入人工智能的世界中茁壮成长所需的教育?如果教育真的转向人工智能,它在这个过程中牺牲了什么?
C我们能信任人工智能作为主要的信息来源吗?
政策行动的必要性
世界经济论坛强调,人工智能对儿童的广泛潜在影响需要决策者、科技公司、监管机构和其他利益相关者采取紧急行动。
尽管人工智能监管规定了控制深度虚假和虚假信息的规定,但几乎没有说明儿童和年轻人应该如何与这项技术互动,无论是在家里还是在教育环境中。
此外,在短时间内收集关于这一点的循证研究是异常困难的。
现有资源,如 联合国儿童基金会关于儿童人工智能的政策指导,提供了一些方向,但人工智能很快就会超越它们。
那些致力于保护儿童的人必须支持关于生殖性人工智能影响的研究,并倡导儿童权利。必须有更大的透明度,人工智能提供商负责任的发展,并支持全球层面监管人工智能的努力。
至关重要的是,人工智能开发人员应该考虑儿童何时使用他们的技术的风险,并可能开发出检测儿童何时使用工具的方法。
随着今天的孩子们在几乎不间断的人工智能环境中长大,为他们量身定做的全面政策和法规的需求比以往任何时候都更加迫切。