OpenAI首席执行官萨姆·奥尔特曼为古怪的人工智能芯片项目寻找数万亿美元

AI行业新闻4个月前发布 yundic
532 0 0

据报道,OpenAI的首席执行官Sam Altman正在协调一项深不可测的融资努力,旨在获得5万亿至7万亿美元的资金。

这项大规模投资旨在大幅扩展高性能人工智能硬件的生产能力,而这是生成人工智能行业所依赖的,而且永远不会满足。

在一个主要由英伟达(Nvidia)主导的行业中,对人工智能专用芯片的需求正在飙升,英伟达拥有约80%的市场份额,市值接近1.72万亿美元。

去年,许多人对它甚至达到1万亿美元感到震惊。

2024年,全球芯片销售额预计将达到5953亿美元,同比增长13.1%。半导体行业协会Altman寻求最终解决目前阻碍人工智能发展的供需失衡,包括OpenAI。

奥特曼一直在积极接触潜在投资者和政府官员,包括来自阿联酋的投资者和政府官员,并与美国商务部长吉娜·雷蒙多进行了讨论,倡导政府支持。

美国政府一直热衷于支持国内芯片制造,而美国政府在这一领域的表现优于中国。

计划?OpenAI、各种芯片制造商和能源公司之间的合作努力,旨在建立专门的工厂来生产这些基本的半导体器件。当然,OpenAI将是关键的消费者。

OpenAI拥有比以往任何时候都更强的购买力,去年12月收入达到20亿美元,并承认需要更多芯片来实现其目标。

据报道,微软听取了简报,并支持奥特曼的宏伟计划。奥特曼已经与微软首席执行官萨蒂亚·纳德拉和首席技术官凯文·斯科特分享了项目细节。这些数字很高,超过了科技巨头苹果和微软的市值总和。

这个7万亿美元的数字最初来自《华尔街日报》,该报写道,作为谈判的一部分,奥特曼正在OpenAI、各种投资者、芯片制造商和电力提供商之间建立合作伙伴关系,这些合作伙伴将共同出资建造芯片铸造厂,然后由现有的芯片制造商运营。

Altman致力于支持人工智能基础设施,包括制造能力、能源、数据中心等,这反映出人们更广泛地认识到,迫切需要一个更强大的全球框架,以维持人工智能创新的快速步伐。

“建设大规模人工智能基础设施和弹性供应链,对经济竞争力至关重要。OpenAI将尽力帮助!”奥特曼分享了X,强调了这项大规模工程的战略意义。

Altman的这个富有远见的项目标志着在增强OpenAI能力和加强全球人工智能生态系统方面的重大飞跃。即使在很大程度上是象征性的,这也是一个严肃的意图声明。

竞争对手的科技公司和批评奥特曼领导力的人一想到他控制着如此庞大的供应链,他们就会不寒而栗。

但他很年轻,雄心勃勃,他掌管着一家董事会无法推翻他的公司。

怀疑他可能会被证明是一个致命的错误。

正如X上的一位网友所说:“萨玛已经从募集数十亿美元的游戏升级了。他创造了一个新的水平,在那里他独自运作。

© 版权声明

OpenAI首席执行官Sam Altman开玩笑说,AGI是在内部实现的“”

OpenAI的首席执行官Sam Altman宣布人工通用智能(AGI)已经“内部实现”,这引起了科技界的轰动,后来他说他“只是迷因”。

山姆·奥特曼几乎不像埃隆·马斯克那么有争议,但他已经成为一个有点两极分化的人物,因为一些人认为不合适的玩笑。毕竟,他可能被认为是科技界最有影响力的人物之一。

奥特曼的笑话是在Reddit论坛r/singularity上发的,他说:“AGI已经在内部实现了。

AGI是人工通用智能的简称,是指与人类认知能力平行甚至超越人类认知能力的人工智能系统。OpenAI现在将自己贴上AGI开发者的标签,并打算成为第一个“突破”到这一范式的人。

奥特曼很快编辑了他轻率的声明,并补充了一条警告:“很明显,这只是表情包,你们都不要着急,当AGI实现时,不会用Reddit的评论来宣布。”

许多人在Reddit和X上指责奥特曼拖钓 —当人们真正担心人工智能的未来时,也许会有点不和谐。

“奇点”

论坛, R/奇点,主要深入讨论技术奇点-计算机智能可能会使人类智能黯然失色,导致我们所知的世界发生不可预测和不可逆转的变化。

这篇评论的背景源于牛津大学哲学家尼克·博斯特罗姆(Nick Bostrom)在他2014年颇具影响力的著作中所写的一个假设场景。超智能:路径、危险、策略.“。”

Bostrom描述了超先进人工智能可能带来的生存风险。他的一个思想实验,被称为回形针最大化,描绘了一幅AGI的画面,其天真的意图—生产尽可能多的回形针—可能无意中导致人类的灭亡。

他解释说,人工智能会将人体视为制造回形针的有价值的原子来源。

在Altman的帖子之后,OpenAI研究人员Will Depue在推特上分享了一张人工智能渲染的图片,上面写道:OpenAI办公室里满是回形针!这是对这一思维实验的幽默点头。

博斯特罗姆还假设,“人工智能很快就会意识到,如果没有人类,情况会更好,因为人类可能会决定关闭它。

这是一个熟悉的科幻情节—例如,黑客帝国中的机器开始为了能源的目的而收割人类。

正如Morpheus所说,“人体产生的生物电比120伏电池和超过25,000 BTU的体温还要多。Bostrum理论认为,如果在正确的场景中激发人工智能可能会得出这样的结论。

至少可以说,人类被回形针取代将是人类奇怪的命运。

© 版权声明

OpenAI首席执行官Sam Altman在东京讨论人工智能对教育的影响’

OpenAI首席执行官萨姆·奥尔特曼周一访问了日本,他在东京庆应义乌大学发表了演讲。

奥特曼目前正在结束对亚洲的广泛访问,他对人工智能的全球合作表示乐观,这是他最近许多会谈的主题。

告诉学生“我来参加这次旅行……怀疑短期内是否有可能获得全球合作以减少生存风险,但我现在结束了这次旅行,感到非常乐观,我们可以完成它。

早在4月,奥特曼访问了日本,在那里他会见了首相岸田文雄,并探讨了在那里设立办事处的想法。在反思他的讨论时,奥特曼说:“所有的对话都进展得很好。”

萨姆·奥尔特曼谈教育

在与东京学生的交谈中,奥特曼将人工智能工具对教育的革命性影响与计算器相提并论。

他强调,人工智能不会取代学习。他说,“可能带回家的论文永远不会再一样了,”补充说,“我们有了一个新的教育工具。有点像单词计算器。我们教书的方式必须改变,我们评估学生的方式也必须改变。“

在教育领域,人们对ChatGPT被学生滥用以及学术原创性的下降感到担忧,这可能导致衰弱——一个用于描述人类在人工智能手中认知和身体衰退的术语。

这在日本是一个突出的话题,日本的几所大学禁止了ChatGPT,包括东京的上智大学, 发布了这份声明

“不允许在任何作业中使用ChatGPT和其他人工智能聊天机器人生成的文本,程序源代码,计算结果,如反应论文,报告,论文和论文,因为它们不是由学生自己创建的。

奥特曼强调,最好的(或最坏的)还没有到来,“我们拥有的工具仍然非常原始,相对于我们将在几年内拥有的工具。

他在谈到OpenAI时说,“无论它出了什么问题,我们都会感到超级负责。”他还厚颜无耻地预言,在接下来的几年里,人类的发展将“像过去500年那样”,并补充说,“这是非常令人兴奋的。”

在谈到人工智能工作替代时,奥特曼令人安心地说:“我认为它不会像人们预期的那样产生就业影响。”他暗示,“新的工作类别”将会出现。

去奥特曼的下一站?新加坡,印度尼西亚,澳大利亚,然后回家。

© 版权声明

OpenAI首席执行官萨姆·奥尔特曼宣称印度的人工智能努力是“非常无望的”,引起了轩然大波

OpenAI首席执行官萨姆·奥特曼(Sam Altman)表示,印度试图构建与OpenAI竞争的基础模型的尝试“相当无望”,引起了轰动。

前谷歌印度负责人拉詹·阿南丹在新德里的一次活动上发表讲话时, 阿尔特曼问道萨姆,我们在印度有一个非常有活力的生态系统,但特别专注于人工智能,你有没有看到来自印度的初创公司构建基础(AI)模型;我们应该如何考虑这一点。

奥特曼回应说:“在训练基础模型上与我们竞争是完全没有希望的。你不应该尝试,而且你的工作就是喜欢尝试。我相信这两件事。我觉得这是相当无望的。”

安丹慷慨解囊,他说:“印度5000年的创业历程告诉我们,我们永远不能低估印度企业家。我们确实打算试一试。

社交媒体上的许多人对此做出了回应,包括Mahindra首席执行官CP Gurnani,他通过推特引发了辩论,“OpenAI创始人Sam Altman表示,印度公司试图与他们竞争是相当无望的。亲爱的山姆·奥特曼,从一个CEO到另一个CEO。接受挑战。” 400万人浏览了古拉尼的推文。

许多评论员说,奥特曼的评论是不礼貌的,缺乏机智,或者给人以傲慢的印象。其他人说,这只是一个过于具体的问题的正确答案。

奥特曼在推特帖子中回应说:“这真的是断章取义!问题是以1,000万元与我们竞争,我认为这是行不通的。但我还是说试试!但我认为这是错误的问题。

他接着说,“正确的问题是,创业公司能做什么,这是前所未有的,这将为世界贡献一个新的东西。我毫不怀疑,印度的创业公司可以而且会做到这一点!除了建筑商,没有人能回答这个问题。”

奥特曼会见印度总理纳伦德拉·莫迪

在与莫迪的一次会议上,奥特曼讨论了自我监管和潜在的合作。奥特曼说:“我们一直对印度初创企业的质量感到惊讶和感激。”

印度拥有强大的技术部门和大量的培训数据,这对于构建ChatGPT这样的大型模型至关重要。预计AI将作出贡献 到2035年,为印度经济提供9570亿美元.

奥特曼说:”我们谈到了该国面临的机遇,该国应该做什么,以及考虑全球监管的必要性,以确保我们防止一些不利因素发生—但这是一个伟大的时刻。”

奥特曼的世界巡演将在下周继续。

© 版权声明

OpenAI首席执行官Sam Altman的亚洲之旅:到目前为止我们学到了什么’

OpenAI首席执行官萨姆·奥尔特曼在亚洲之行中访问了印度和韩国,他的亚洲之行还包括以色列、约旦、卡塔尔和阿联酋。下周,他将访问日本、新加坡、印度尼西亚和澳大利亚。

印度奥特曼

在访问印度期间, 接受《经济时报》采访时,,他将ChatGPT称为某种程度上的潘多拉魔盒,他说他担心自己创造了人工智能,做了一些非常糟糕的事情。

“最让我失眠的是一种假设,即我们推出ChatGPT已经做了一些非常糟糕的事情。”奥特曼告诉Satyan Gajwani,时代互联网副董事长。Altman表示,他希望ChatGPT能在人工智能治理方面发挥带头作用,强调这项技术做好事的潜力,而不是它的风险。

他说:“OpenAI是一种追求。这是人类建造的最酷的东西之一。我们要确保人们得到好处。”

奥特曼随后描述了最近几周强调的科幻风格的人工智能风险,包括类似终结者的情景,即机器人接管。他说:“我确实认为有一些对科幻的担忧,这将被证明是错误的,”但对后来版本的人工智能的描述,或者说‘超级智能’,“可能是一件非常不同的事情。”

当被问及人工智能监管时,阿尔特曼重复了他之前讨论的核风格的监督系统,“让我们有一个系统,这样我们就可以审计正在做这件事的人,给它发牌,在部署之前进行安全测试。”

韩国奥特曼

阿尔特曼周五访问韩国期间在一次活动上发表讲话,他敦促采取统一的全球方法来监管人工智能,“随着这些系统变得非常、非常强大,这确实需要特别关注,而且它具有全球影响。因此,这也需要全球合作。

Altman表示,他并不怀疑人类应对人工智能风险的能力,但更怀疑人工智能可能进化的速度。

如果你研究一下技术革命的历史,似乎在大约两代人的时间里,我们几乎可以适应劳动力市场的任何程度的变化。但如果这一切都发生在10年内,那将是一个新的挑战。

在韩国的另一场活动中,当被问及人工智能对就业的影响时,奥特曼回答说:“我认为真正会发生的事情不是我们都没有工作,而是我们有不同类型的工作,这些工作看起来可能不太像今天的工作。

他接着说,“当100年后的人们回头看我们时,他们会说,‘哇,我不敢相信他们是那样生活的。

一位观众问奥特曼,学生应该如何为AI “生存”做好准备,奥特曼反驳道,”你即将进入,我认为像,人类可能性、技术发展、经济增长的最大黄金时代。”上个月,英伟达首席执行官Jensen Huang表示,现在可能是自个人电脑问世以来学生毕业的最佳时机。

Altman说:“快速学习新事物并适应新事物的能力,并将自己进化为技术,我认为这些技能将得到很大的回报。

作为人工智能发展中最有影响力的人物,执掌着最有影响力的公司,我们不得不希望奥特曼对人类控制人工智能的乐观态度是有先见之明的。

然而,他因在对AI未来的积极性和偏执症之间摇摆而获得了一定的声誉,他再次通过说他有时会因为创建ChatGPT而在晚上失眠来说明这一点。无论是否夸张,人们对人工智能的担忧肯定不局限于公众,它们也影响到了人工智能的创造者。

© 版权声明

OpenAI首席执行官U型转向离开欧洲市场

AI最新政策1年前 (2023)发布 yundic
0 0 0

OpenAI老板萨姆·奥尔特曼对欧盟进行了猛烈抨击,暗示欧盟起草的人工智能法案监管过度,不可能得到满足。几天后,他在推特上表示,OpenAI对继续在欧盟运营感到兴奋。

奥特曼一直在欧洲各地乘坐喷气式飞机,会见来自德国、法国、西班牙、波兰和英国的政界人士。然而,据报道,他取消了在布鲁塞尔的预约,那里的立法者正在起草欧盟人工智能法案。

他之前表示,OpenAI将努力遵守该法案,“如果我们能遵守,我们会遵守,如果我们不能,我们将停止运营。我们会尽力的。但可能性存在技术限制。”

在社交媒体上遭到一些强烈反对后,奥特曼似乎对自己的言论做出了180度大转弯。“我们很高兴能继续在这里运营,当然也没有离开的计划。”

奥特曼此前, 告诉路透社目前的欧盟人工智能法案草案将过度监管,但我们听说它将被撤回。

欧盟回应—荷兰欧洲议会议员Kim van Sparentak表示,起草人工智能法案的立法者“不应该让自己被美国公司勒索”。

她说:“如果OpenAI不能满足基本的数据治理、透明度、安全性和安全性要求,那么他们的系统就不适合欧洲市场。

《人工智能法案》可能会将大型语言模型(LLM)归入高危类别

《欧盟人工智能法》界定了不同类别的人工智能,包括受透明度和监测严格规则约束的”高风险”类别。这似乎是奥特曼恐惧的中心。

OpenAI首席执行官U型转向离开欧洲市场

欧盟人工智能法案风险级别。:欧盟。

根据目前的草案,部署高风险人工智能的公司必须披露培训数据和日志活动中包含的任何受版权保护的材料,以确保输出的可复制性和可追溯性。这对较小的人工智能公司来说可能是昂贵的和负担。

版权材料仍然是一个症结所在

OpenAI远不是一本关于其培训数据中受版权保护的材料的公开书籍。

人工智能被发现, 重复下列行包括《哈利波特》和《权力的游戏》在内的几部小说。研究人员建议这很可能是因为书籍中的段落经常出现在公共领域。

有很多 未决版权相关法律案件反对OpenAI、微软和图像生成器背后的创建者,如中途.目前,我们根本不知道人工智能对版权数据的使用程度以及检索它的方法。

欧盟希望通过引入透明度规则来改变这一点,这可能会改变认可机构的培训方式,从而改变它们的表现。

我们可能生活在一个不受监管的人工智能泡沫中,即将破裂。

© 版权声明

相关文章

暂无评论

暂无评论...