加拿大航空公司下令在法律诉讼中尊重聊天机器人的建议’

AI伦理与社会10个月前发布 yundic
93 0 0

加拿大航空公司已被勒令遵守其聊天机器人错误创建的退款政策。

这起案件开始于杰克·莫法特(Jake Moffatt)因祖母去世而悲痛不已,他咨询了加拿大航空公司的人工智能聊天机器人系统,以了解该公司的丧亲票价政策。

聊天机器人告诉他,他可以预订他的航班,然后在预订后的90天内申请特别折扣。

但是,这一信息是错误的,因为加拿大航空公司的实际政策规定,您不能在预订航班后获得丧亲旅行退款。

这一信息与加航的实际政策直接冲突,该政策明确规定,在预订航班后,无法为丧亲旅行退款。

聊天机器人特别指出,“如果您需要立即旅行或已经旅行,并希望提交您的机票以降低丧亲率,请在您的机票签发之日90天内通过填写我们的机票退款申请表来提交。

这为随后的法律斗争奠定了基础。

加航辩称,聊天机器人作为一个自主实体,应对错误信息负责,从而免除加航的责任。这一论点遭到了法庭的质疑。

负责此案的仲裁庭成员克里斯托弗·里弗斯(Christopher Rivers)批评加航的立场,称:“加航辩称,它不能对其代理人、雇员或代表提供的信息负责,包括聊天机器人。

他质疑该航空公司希望客户将聊天机器人的信息与加航网站的其他部分进行验证,并指出这种期望的不合理性质。

有利于莫法特的裁决允许他从最初1640.36加元的票价中部分退还650.88加元,以及额外损害赔偿,包括机票利息和仲裁费。

对于那些不熟悉丧亲票价的人来说,他们是为那些因即将死亡或最近去世而需要紧急旅行的乘客提供的特别折扣机票价格。

这些票价的设计是为了在个人紧急情况下提供一些经济上的缓解,因为他们意识到了最后一刻旅行的高昂成本。并不是所有的航空公司都提供丧亲票价,以及那些有具体政策的航空公司,包括资格标准、所需的紧急情况证明(比如死亡证明或殡仪馆的信件),以及折扣的幅度。

这表明了公司在使用人工智能聊天机器人担任客户服务角色时的法律和道德责任,强调了此类数字工具提供的信息需要准确和负责任。

与人工智能系统提供糟糕的投资建议、指示某人进行欺诈性交易等情况相比,650美元只是一个名义价值。

加拿大航空公司此前已开始进行人工智能“实验”,以减少其呼叫中心在高需求时期的工作量,例如天气相关的航班中断。

加拿大航空公司首席信息官梅尔·克罗克(Mel Crocker)曾设想过这种客户服务方式,处理复杂的客户服务问题。这可能需要重新考虑一下。

其他公司现在在委托人工智能提供法律建议之前会三思而后行。

© 版权声明

相关文章

暂无评论

暂无评论...