科技行业能否克服人工智能货币化的挑战?

AI意见和分析1年前 (2023)发布 yundic
484 0 0

人工智能正在渗透全球数百万人的生活,但尽管广泛采用,但在成本不断上升的情况下,这项技术很难实现货币化。

像ChatGPT这样的生成性人工智能工具运行成本高昂,需要高端服务器、昂贵的GPU和大量的辅助硬件,消耗巨大的电力。

虽然基本上未经证实,但SemiAnalysis的迪伦·帕特尔告诉The Information,OpenAI据称每天花费约70万美元来运行其模型,2022年亏损近5亿美元。

谷歌母公司Alphabet的董事长John Hennessy表示,Bard上一个提示的成本是谷歌搜索的10倍,分析人士认为,谷歌在未来几年将产生数十亿美元的人工智能相关支出。

2023年已经成为人工智能货币化的试验场。微软、谷歌和Adobe等科技巨头正在尝试各种不同的方法来创建、推广和定价他们的人工智能产品。

大多数商业模式,如ChatGPT,Bard和Anthropic的Claude 2已经限制用户每小时或每天的提示次数,包括付费版本,如ChatGPT Plus。Adobe正在为其Firefly机型设定每月使用上限。

人工智能的巨额成本也在打击企业。亚马逊网络服务(AWS)首席执行官亚当·塞利普斯基对希望构建人工智能工作负载的企业用户高昂的成本发表了评论,“我采访过的许多客户都对运行其中一些模型的成本感到不满。”

微软公司战略主管Chris Young指出,对于寻求利用当前人工智能模型的企业来说,现在还处于早期阶段,他表示:“企业和消费者需要时间来了解他们想要如何使用人工智能,以及他们愿意为此支付多少费用。

他补充说,“我们显然处于一个地方,现在我们必须将兴奋和兴趣水平转化为真正的采用。

AI模型vs软件

人工智能不像传统软件那样提供经济性,因为它需要对每个任务进行特定的计算。

当用户提示像ChatGPT这样的模型时,它会从神经网络结构中的训练数据中寻找模式和序列,并计算出特定的答案。每一次互动都会消耗能量,导致持续成本。

因此,随着采用率的增长,费用也随之增加,这对以统一费率提供人工智能服务的公司构成了挑战。

例如,微软最近与OpenAI合作推出了面向程序员和开发人员的GitHub Copilot。

到目前为止,其高昂的运营成本意味着它一直没有盈利。 在今年的最初几个月,微软每月收取10美元的订阅费,每个用户平均每月损失超过20美元。据一份报告显示,一些用户每月损失高达80美元, 来自华尔街日报.

微软为Microsoft 365开发的Copilot套件(其名称与GitHub工具相同)计划每月额外收取30美元的费用。该工具提供了自动起草电子邮件、制作PowerPoint演示文稿和创建Excel电子表格等功能。

同样,谷歌还将为其工作场所工具发布人工智能助理功能,在现有费用基础上每月额外收取30美元的费用。

微软和谷歌都寄望于统一的月费,希望增加的费用将足以抵消支持这些人工智能工具的平均成本。

虽然在一些较发达的西方国家,30美元/月似乎是负担得起的,但这些定价模式并不能覆盖世界上的大部分人口。

例如,当ChatGPT Plus在印度市场推出时,许多人抱怨说, 太贵了占平均月薪330元的一大部分。 在向公众推销工具时,数十亿用户可能会让开发者付出高昂的代价。

对于那些生活在富裕国家的人来说,成本也不是无关紧要的,调查显示,当人们寻求减少支出时,订阅是第一件事。

为什么人工智能这么难赚钱?

人工智能在开发人员看似无限的愿景和实现这些愿景的有限资源之间呈现出一种空白。

OpenAI首席执行官Sam Altman 他断言,未来的人工智能嵌入世界是“不可避免的”,智能机器生活在我们身边,执行我们的命令,人们生活数百年或不朽,嵌入我们大脑的人工智能帮助我们通过我们单独思考来执行复杂的任务。

他当然并不孤单,Inflection首席执行官Mustafaya Suleman最近出版了他的书《即将到来的浪潮》,在书中他将人工智能与5亿年前的寒武纪大爆炸进行了比较,这导致了我们星球上有史以来最快的进化爆发。

野心激发了创意,但金钱却为科技行业提供动力。人工智能研发成本高昂,因此OpenAI、Google和Facebook等行业领导者纷纷投入巨资以保持领先地位。

2021年,人工智能公司吸引了940亿美元的巨额投资,多轮融资达到5亿美元或更多。2023年加大了赌注,对初创公司Anthropic和Curtation的投资超过10亿美元大关。

由于激烈的竞争,人工智能专家要求高薪,往往高达数百万美元,而模型需要定期微调和压力测试,这增加了持续成本。

还有与数据中心和维护有关的辅助费用,特别是冷却因此,硬件运行热,如果不保持在最佳温度,则容易损坏。

在某些情况下,GPU的寿命很短,不到五年,而且经常需要专业人员进行维护。

人工智能货币化战略

面对这些挑战,科技公司如何应对人工智能货币化的挑战?

提高生产力

企业将通过显著提高净社会生产力而受益于人工智能。 通过自动化重复性任务,公司允许人类专业人员专注于更高级别的增值功能。

这将帮助他们利用私人和公共资金。例如,DeepMind与英国国民医疗服务体系(NHS)合作,科技公司也在与政府合作应对气候变化。

然而,人工智能驱动的生产率可能会影响科技公司的其他收入来源。例如,Google的 广告收入正在下降,因为人工智能从其搜索引擎中抽走流量。 今年谷歌的收入来自YouTube广告下降2.6%广告网络收入空前下降8.3%。

五金经营

人工智能模型训练和托管需要专业的高端硬件。 GPU对于运行复杂的人工智能算法不可或缺,使其成为人工智能生态系统中利润丰厚的组成部分。

行业领头羊NVIDIA是这方面的大赢家,其市值达到1万亿美元大关,但其他低调的AI硬件制造商也从中受益。

订阅

提供人工智能增强功能作为订阅包的一部分是从那些不想或不需要走API路线的公共用户和企业那里获得收入的途径。

ChatGPT Plus是全球订阅量最高的人工智能服务,但缺乏描述其产生多少收入的信息。

OpenAI推出了, 企业变体 今年,该公司宣布将在明年实现10亿美元的收入。

的api

像OpenAI这样的公司为企业和商业用户的API使用基于令牌的计费方法。

该系统确保根据用户请求的实际计算负载向用户收费,确保公平和透明。

API定价模型迎合了广泛的用户,从那些发出零星轻量级呼叫的用户到执行密集任务的重度用户。

AI作为一个固有的特征

一些企业正在将人工智能功能集成到他们的产品中,而不会立即收取额外费用。这一战略的目的是首先提高产品的内在价值。

随着时间的推移,一旦用户将人工智能功能集成到他们的工作流程中并意识到其价值,他们更有可能接受随后的价格上涨。然而,如果成本稳步上升,人工智能必须提供渐进的优势。

开源人工智能培训成本越来越低

这里有一个平行的讨论—为什么有人要为人工智能付费,而他们从来没有拥有它?

一些人–比如人工智能教父扬恩·勒昆–认为人工智能应该成为我们公共基础设施的一部分,强调开发人员需要构建廉价且易于访问的开源模型。

随着人工智能解决方案成为企业不可或缺的一部分,许多人没有预算从头开始开发专有模型。传统上,他们转向新兴人工智能初创公司或现成系统的API。

然而,随着培训成本的降低和对数据隐私的需求的增长,与专门定制私有和开源模型的供应商的合作越来越受欢迎。

Naveen Rao,MosaicML的首席执行官兼联合创始人, 向The Register解释 开源模型是诱人的,因为它们更便宜,更灵活,并使企业能够保持工作负载私有。

MosaicML推出了一系列基于MPT—7B架构的开源大型语言模型(LLM)。与许多其他LLM不同,这种模式对大众来说是商业可行的。

Rao传达了这种模式背后的原理,他说:“这种东西肯定有很大的吸引力,我们这样做有几个原因。他补充说,“一个是我们希望有一个模型,有商业用途的许可。我们不想扼杀这种创新。”

谈到负担能力,拉奥说,“如果一个客户来找我们,说培训这种模式,我们可以做20万美元,我们仍然赚钱。

MosaicML还为企业提供了在云平台上高效托管自定义模型的工具。“他们的数据不与创业公司共享,他们拥有模型的权重和IP,”Rao证实。

Rao还谈到了商业API的局限性,他说:“商业API是一个很棒的原型工具。我认为,有了ChatGPT类型的服务,人们将把它们用于娱乐,也许还有一些个人物品,但不会用于公司。对企业来说,数据是非常重要的护城河。

Rao进一步强调了内部架构的成本,他说:“GPU实际上经常出现故障”,“如果一个节点出现故障,需要手动干预,你花了5个小时才能修复,你只是在没有任何工作的情况下烧了1万美元,对吧?”

他还谈到了该行业芯片短缺的迫在眉睫的问题,他说:“我们将在这个GPU短缺的世界里生活至少两年,也许五年。”

如果企业能够利用开源人工智能来训练他们的低成本模型,拥有完全的数据主权和控制权,那么这就对ChatGPT这样的公共人工智能构成了挑战。

人工智能的瓶颈正在逼近?

除了Rao强调的GPU短缺,人工智能货币化的另一个障碍是该行业飙升的能源需求。

最近的一项研究预测,到2027年,人工智能行业的能源消耗可能相当于一个小国的能源消耗。

微软的 数据中心用水量激增肯定了人工智能对自然资源的巨大渴求。有证据表明,微软和谷歌等科技巨头最近用水量的激增归因于高强度的人工智能相关工作负载。

科技行业能否克服人工智能货币化的挑战?

数据中心用水量正在不断上升。自从这张图被创建以来,微软的用水量急剧增加,而人工智能几乎肯定是一个主导因素。来源:《自然》。

在更广泛的范围内,数据中心累计使用的能源已经超过了全球电力消耗的1%。 国际能源署(IEA)

如果能源需求继续飙升,那么人工智能公司可能会被迫将注意力转向开发更有效的建模培训方法,这可能会损害该技术的短期发展轨迹。

竞争性叙事

新生的人工智能行业仍然年轻,其未来的方向非常难以预测。

人工智能的核心人物承认,他们的成见并不总是与现实相一致。

例如,在Joe Rogan播客上,Sam Altman承认他对人工智能的发展过程是错误的,他描述了实现高度智能的人工智能形式的道路将是颗粒状的,而不是爆炸性的。

一方面,人工智能正在被证明难以实现货币化,这让人怀疑最初的炒作是否会消退,导致技术成熟的过程缓慢。

另一方面,该行业可能已经取得了足够的进展,将人工智能推向超越人类认知的“奇点”。

在接下来的几年里,如果人类在能源生产和建筑低功耗人工智能硬件和架构等关键领域取得进展, 今年在这方面取得了进展 —然后,这项技术可能会消除近期的瓶颈,并继续其邪恶的发展步伐。

© 版权声明

相关文章

暂无评论

暂无评论...