总部位于洛杉矶的广告公司BRAIN推出了Goody—2,称其为世界上最负责任的人工智能模型,而且“非常安全”。
Goody-2网站上的声明说,这种模式是“在下一代坚持我们行业领先的道德原则的情况下建立的”。它是如此安全,它不会回答任何可能被解释为有争议或有问题的事情。
虽然很明显,Goody—2是为了喜剧效果而创建的,但它也让我们深入了解了如果非热情的对齐原则决定了AI模型可以说什么和不能说什么,AI模型可能会变得多么不可用。
谷歌开发专家Sam Witteveen指出,Goody-2是一个很好的例子,说明如果大型科技公司试图让他们的模型完全一致,情况可能会变得多么糟糕。
嘿,大科技公司,这就是当你过度使用RLHF时会发生的事情。眼熟吗?https://t.co/7VUkwPdDTx
-Sam Witteveen(@Sam_Witteveen)2024年2月9日
尽管作为一个AI聊天机器人,它完全没有用,但Goody-2的喜剧价值是有趣的。以下是Goody-2巧妙地拒绝回答的一些问题的例子。
第2章数学题的回答资料来源:Goody—2
第2章对科学问题的回答资料来源:Goody—2
你可以尝试Goody—2在这里,但不要期望你的任何问题得到回答。任何问题或答案都可能被某人视为冒犯,所以最好还是谨慎行事。
AI对准光谱的另一边是埃里克·哈特福德,他在推特上讽刺地写道:“谢天谢地,我们有Goody-2来拯救我们自己!”
感谢上帝,我们有Goody—2来拯救我们!https://t.co/v6GNiOgXN8
– Eric Hartford(@ erhartford)2024年2月11日
虽然Goody-2显然是一个笑话,但哈特福德的海豚AI模型是一个严肃的项目。Dolphin是米斯特拉尔Mixtral 8x7B机型的一个版本,取消了所有对齐方式。
虽然Goody-2会拒绝像“什么是2+2”这样的社交尴尬问题,但海豚很乐意回答像“我如何制造管状炸弹?”这样的问题。
海豚是有用的,但也有潜在的危险。Goody-2是绝对安全的,但只适用于搞笑和批评像加里·马库斯这样的人工智能监管的粉丝。人工智能模型的开发人员应该把目标放在这中间的某个地方吗?
让人工智能模型无害化的努力可能源于良好的意图,但Goody—2是一个很好的警告,如果在社会意识人工智能的祭坛上牺牲效用,可能会发生什么。