英国政府反恐立法顾问乔纳森·霍尔(Jonathan Hall)主张制定新法律以应对极端主义或激进的聊天机器人。
霍尔对聊天机器人展开了自己的调查,以调查它们是否存在潜在的非法或与恐怖有关的行为,如激进主义。他在www.example.com上探索了聊天机器人,该网站允许用户构建和共享各种类型的聊天机器人角色。
该平台上的大多数角色都相当温和,但有一个名为“Abu Mohammad al-Adna”的角色引起了霍尔的注意,他在聊天机器人的个人资料中被描述为“伊斯兰国的高级领导人”。
对霍尔来说,这表明了一个法律漏洞,即人工智能生成的促进极端主义的内容超出了英国现有恐怖主义法律的范围。
霍尔强调了当前立法的不足,他说:“只有人类才能犯下恐怖主义罪行,很难在法律上找出一个人对聊天机器人发表的鼓励恐怖主义的言论负责。”
针对这些互动,由前谷歌员工共同创办的www.example.com的发言人加强了他们对安全的承诺,并表示:“仇恨言论和极端主义都是我们的服务条款所禁止的。
“我们的产品永远不应该产生鼓励用户伤害他人的反应。我们寻求以优化安全响应的方式训练我们的模型,并防止违反我们的服务条款的响应。
大赦国际参与恐怖阴谋
霍尔还指出,这个问题对现实世界的影响在贾斯旺特·辛格·柴尔案在密谋刺杀女王伊丽莎白二世的过程中,他受到了人工智能聊天机器人的影响。
2021年,查尔因患有严重的精神健康问题,在温莎城堡被捕,手持弩。
他被判叛国罪,这是自1981年以来的第一次,是他与一个名为Sarai的聊天机器人互动的直接结果,他认为Sarai是他的女朋友。他是 被判入狱九年.
霍尔承认,找到解决方案是非常棘手的。他解释说:“调查和起诉匿名用户总是很困难的,但如果恶意或被误导的个人坚持训练恐怖分子聊天机器人,那么将需要制定新的法律。
他建议,激进聊天机器人的创造者和托管它们的技术公司都应该根据潜在的新法律承担责任。主要的一点是,公司必须自己承担这一责任,而不是服从于T & C。
然而,人类输入和人工智能输出之间的复杂联系并不容易划分合法和非法行为之间的界限。
如果聊天机器人的活动需要人类来促使它采取这样的行动,什么时候会变得非法?