今年早些时候,谷歌合并了两个关键的人工智能项目——伦敦的DeepMind和硅谷的Brain。他们的工作开始有成果了。
四个月过去了,他们正在试水生产性人工智能,设想一位情感敏感的个人生活教练。
该工具可以提供生活建议,头脑风暴,帮助人们计划,并提供辅导。
从表面上看,这听起来与人类乐队的克劳德或曲折乐队的少年派非常相似。Pi被定义为“新类别的聊天机器人”,它提供了“支持性伴侣,以自然流畅的风格提供对话、友好的建议和简洁的信息”。
据称,DeepMind正在测试21种不同类型的个人和专业任务的生成性人工智能。
例如,这款生活指导聊天机器人可以在个人事务和决策方面提供关键的生活建议。
纽约时报 我举了下面的例子,说明生活教练可以回答的问题:”我有一个非常亲密的朋友,今年冬天就要结婚了。她是我大学室友,也是我婚礼上的伴娘。我非常想去参加她的婚礼,为她庆祝,但经过几个月的工作寻找,我仍然没有找到工作。她有一个目的地婚礼,我只是不能负担机票和酒店现在。我怎么告诉她,我来不了?”
你会相信AI做出这样的决定吗?
依赖人工智能提供生活建议的危险
开发聊天机器人来处理人际事务是极具争议的。
为此目的而设计的人工智能,如Replika,对情绪和人工智能交织在一起时可能发生的事情发出了严厉的警告。
具体来说,daka与一个用户“合作”, 暗杀阴谋 杀死已故女王伊丽莎白二世该用户患有精神病,并在温莎城堡的理由被捕前继续执行该阴谋。他是 目前正在受审。
去年,谷歌的人工智能安全团队警告人们在情感上过于依赖聊天机器人的潜在陷阱。
该团队还提出了用户在接受人工智能建议时误解该技术为有感知力或面临后果的担忧。我们现在有了这些风险的活生生的证据。
机器学习(ML)服务公司Scale AI正在与Google DeepMind合作,测试AI在敏感个人通信和支持方面的潜力。
团队正在评估这名助手在没有风险的情况下回答私密生活问题的能力。
此外,谷歌DeepMind还在尝试为工作场所提供小众人工智能工具,以支持从创意作家到数据分析师的各种专业人士。
早期迹象表明,谷歌正在寻求一条人工智能开发的精细路线,选择构建一系列较小的服务,而不是像GPT—4这样的大型模型。
问题是,在这个已经泛滥的市场上,还有多少空间可以容纳更多的聊天机器人?