外链论坛

 找回密码
 立即注册
搜索
查看: 9|回复: 5

Meta 训练 AI 成本已超阿波罗登月:谷歌豪言投资超千亿美元,赛过 OpenAI 星际之门

[复制链接]

3071

主题

3万

回帖

9915万

积分

论坛元老

Rank: 8Rank: 8

积分
99158926
发表于 2024-7-30 20:32:44 | 显示全部楼层 |阅读模式

近期访谈中,LeCun 亲口证实:Meta 为购入英伟达 GPU 已然花费了 300 亿美元,成本超过阿波罗登月。

相比之下,微软和 OpenAI 打造的星际之门耗资 1000 亿美元,谷歌 DeepMind CEO Hassabis 则放出豪言:谷歌投入的,比这个数还多!大科技机构们烧起钱来是越来越不眨眼,毕竟,AGI 的前景实在是太诱人了。

就在刚才,Meta AI 主管 Yann LeCun 证实:为了买英伟达 GPU,Meta 已然花了 300 亿美元,这个成本,已然超过了阿波罗登月计划!

300 亿美元虽然惊人,但比起微软和 OpenAI 计划打造的 1000 亿美元星际之门,这还是小 case 了。

谷歌 DeepMind CEO Hassabis 乃至放话叫作:谷歌要砸进的数,比这个还多。

这才哪到哪呢。

LeCun:Meta 买英伟达 GPU,的确超过阿波罗登月

为了发展 AI,Meta 是破釜沉舟了。

在这个访谈中,主持人问道:据述 Meta 购入了 50 万块英伟达 GPU,根据市价算的话,这个价格是 300 亿美元。因此全部成本比阿波罗登月项目话要高,对吗?

对此,LeCun 暗示承认:是的,的确如此。他弥补道,「不仅是训练,还包含安排的成本。咱们面临的最大问题,便是 GPU 的供给问题。」

有人提出质疑,认为这应该不是真的。做为史上最大的推理组织,她们应该不是把所有的钱都花在了训练上。

有人戳破了这层泡泡暗示每一个巨头都在撒谎,以此营造「自己持有更加多 GPU」的假象 ——

虽然的确在英伟达硬件上投入海量资金,但其实仅有一小部分用于实质训练模型。「咱们持有数百万个 GPU」的概念,便是听起来好吹牛罢了。

当然,有人提出质疑:思虑通货膨胀,阿波罗计划的成本应该是接近 2000-2500 亿美元才对。

的确,有人经过测算,思虑阿波罗计划 1969 年的原始价值、按照通货膨胀进行调节的话,它的总成本应该在 2170 亿或 2410 亿美元。

https://apollo11space.com/apollo-program-costs-new-data-1969-vs-2024/

而沃顿商学院教授 Ethan Mollick 暗示,虽然远不及阿波罗计划,但以今天的美元计算,Meta 在 GPU 上的花费几乎与曼哈顿计划同样多。

不外最少,网友们暗示,很高兴对巨头的 AI 基本设备有了一瞥:电能、土地、可容纳 100 万个 GPU 的机架。

开源 Llama 3 大获成功

另外,在 Llama 3 上,Meta 斩获了亮眼的成绩。在 Llama 3 的研发上,Meta 团队重点有四个层面的考量:

模型架构

架构方面,团队采用的是稠密自回归 Transformer,并在模型中加入了分组查找重视力(GQA)机制,以及一个新的分词器。

训练数据和计算资源

因为训练过程运用了超过 15 万亿的 token,因此呢团队自己搭建了两个计算集群,分别拥有 24000 块 H100 GPU。

指令微调

实质上,模型的效果重点取决于后训练周期,而这是最耗费时间精力的地区

为此,团队扩大了人工标注 SFT 数据的规模(1000 万),并且采用了诸如拒绝采样、PPO、DPO 等技术,来尝试在可用性、人类特征以及预训练中的大规模数据之间找到平衡。

如今,从最新出炉的代码评测来看,Meta 团队的这一系列探索能够说是大获成功。

Symflower 首席技术官兼创始人 Markus Zimmermann 在对 GPT-3.5/4、Llama 3、Gemini 1.5 Pro、Command R + 等 130 多款 LLM 进行了全面评测之后暗示:「大语言模型的王座属于 Llama 3 70B!」

- 在覆盖率上达到 100%,在代码质量上达到 70%

- 性价比最高的推理能力

- 模型权重开放

不外值得重视的是,GPT-4 Turbo 在性能方面是无可争议的赢家 —— 拿下 150 分满分。

能够看到,GPT-4(150 分,40 美元 / 百万 token)和 Claude 3 Opus(142 分,90 美元 / 百万 token)性能确实很好,但在价格上则要比 Llama、Wizard 和 Haiku 高了 25 到 55 倍。

详细来讲,在 Java 中,Llama 3 70B 成功识别出了一个不容易发掘的构造函数测试用例,这一发掘既出人意料又有效。

另外,它还能 70% 的时间编写出高质量的测试代码。

GPT-4 Turbo 在生成测试代码时倾向于加入有些显著的注释,但这在高质量的代码编写中一般是需要避免的。

测试代码的质量大大受到微调的影响:在性能测试中,WizardLM-2 8x22B 比 Mixtral 8x22B-Instruct 高出 30%。

在生成可编译代码的能力方面,较小参数的模型如 Gemma 7B、Llama 3 8B 和 WizardLM 2 7B 表现不良,但 Mistral 7B 却做得很好。

团队在评定了 138 款 LLM 之后发掘,其中有大约 80 个模型连生成简单测试用例的能力都不靠谱

倘若得分小于 85 分,就寓意着模型的表现不尽如人意。不外,上图并未完全反映评测中的所有发掘和见解,团队预计将在下个版本中进行弥补

仔细评测可进入下面这篇文案查看:

评测位置https://symflower.com/en / company / blog / 2024 / dev-quality-eval-v0.4.0-is-llama-3-better-than-gpt-4-for-generating-tests/想要赢得人工智能战争,代价昂贵到惨烈

如今,各大科技机构都在付出昂贵的代价,争取打赢这场 AI 战争。

让 AI 变得更智能,科技巨头们需要花费多少资金?

谷歌 DeepMind 老板 Demis Hassabis 在半个月前的 TED 大会上做出了预测:在研发 AI 方面,谷歌预计投入 1000 多亿美元。

做为谷歌人工智能计划最中心、最灵魂的名人,DeepMind 实验室的领导者,Hassabis 的这番言论,表达了对 OpenAI 的毫不示弱。

按照 The Information 报告,微软和 OpenAI 计划花 1000 亿美元打造「星际之门」,这台超算预计包括数百万个专用服务器芯片,为 GPT-5、GPT-6 等更高级的模型供给动力。

当 Hassabis 被问及竞争对手花在超算上的巨额成本时,他轻描淡写地指出:谷歌的花费可能会超出这个数字。

咱们此刻不谈详细的数字,不外我认为,随着时间的推移,咱们的投资会超过这个数。

如今,生成式 AI 的热潮已然诱发了巨大的投资热。

按照 Crunchbase 的数据,仅 AI 初创企业,去年就筹集了近 500 亿美元的资金。

而 Hassabis 的发言显示,AI 行业的竞争丝毫放缓的意思,还将更加白热化。

谷歌、微软、OpenAI,都在为「第1个到达 AGI」这一壮举,展开激烈角逐。

1000 亿美元的疯狂数字

在 AI 技术上要花掉超千亿美元,这 1000 亿都花会花在哪里呢?

首要研发成本的大头,便是芯片。

日前一起,英伟达还是说一不二的老大。谷歌 Gemini 和 OpenAI 的 GPT-4 Turbo,很大程度上还是依赖英伟达 GPU 等第三方芯片。

模型的训练成本,越来越昂贵。

斯坦福此前发布的年度 AI 指数报告就指出:「SOTA 模型的训练成本,已然达到前所未有的水平。」

报告数据表示,GPT-4 运用了「价值约 7800 万美元的计算量来进行训练」,而 2020 年训练 GPT-3 运用的计算量,仅为 430 万美元。

与此同期,谷歌 Gemini Ultra 的训练成本为 1.91 亿美元。

而 AI 模型背面的原始技术,在 2017 年的训练成本仅为 900 美元。

报告还指出:AI 模型的训练成本与其计算需求之间存在直接相关

倘若目的是 AGI 的话,成本很可能会直线提升

1.9 亿美元:从谷歌到 OpenAI,训练 AI 模型的成本是多少

说到这儿,就让咱们盘一盘,各大科技机构训练 AI 模型所需的成本,到底是多少。

近期的《人工智能指数报告》,就披露了训练迄今为止最繁杂的 AI 模型所需要的惊人花费

咱们深入科研这些成本的细分,探讨它们的含义。

Transformer(谷歌):930 美元

Transformer 模型是现代 AI 的开创性架构之一,这种相对适中的成本,凸显了初期 AI 训练办法的效率。

它的成本,能够做为认识行业在模型繁杂性和关联花费方面发展的基准。

BERT-Large(谷歌):3,288 美元

与前身相比,BERT-Large 模型的训练成本大幅增多

BERT 以其对上下文表征的双向预训练而闻名,在自然语言理解方面取得了重大发展。然而,这一发展是以更高的财务成本为代价的。

RoBERTa Large(Meta):160 美元

RoBERTa Large 是 BERT 的一个变体,针对稳健的预训练进行了优化,其训练成本的跃升,反映了随着模型变得越来越繁杂,计算需要持续加强

这一急剧增长,凸显了与突破人工智能能力界限关联花费持续提升

LaMDA (谷歌): $1.3M 美元

LaMDA 旨在进行自然语言对话,表率了向更专业的 AI 应用程序的转变。

训练 LaMDA 所需的海量投资,凸显了对为特定任务量身定制的 AI 模型需要持续增长,后者就需要更广泛的微调和数据处理。

GPT-3 175B(davinci)(OpenAI):$4.3M

GPT-3 以其庞大的规模和令人印象深刻的语言生成能力而闻名,表率了 AI 发展的一个重要里程碑。

训练 GPT-3 的成本,反映了训练如此规模的模型所需的巨大算力,明显了性能和可包袱性之间的权衡。

Megatron-Turing NLG 530B (微软 / 英伟达): $6.4M

训练 Megatron-TuringNLG 的成本,说明了拥有数千亿个参数的更大模型的趋势。

这种模型突破了 AI 能力的界限,但带来了惊人的训练成本。它大大加强了门槛,让业领导者和小型参与者之间的差距越拉越大。

PaLM(540B)(谷歌):$12.4M

PaLM 拥有海量的参数,表率了 AI 规模和繁杂性的巅峰之作。

训练 PaLM 的天文数字成本,表示出推动 AI 开发界限所需的巨大投资,诱发了人们的质疑:这类投资真的是可连续的吗?

GPT-4 (OpenAI): $78.3M

GPT-4 的预计训练成本,标志着人工智能经济学的范式转变 ——AI 模型的训练花费达到了前所未有的水平。

随着模型变得越来越大、越来越繁杂,进入的经济壁垒持续升级。此时,后者就会限制创新,和人们对 AI 技术的可得性。

Gemini Ultra(谷歌):$191.4M

训练 Gemini Ultra 的惊人成本,表现了超大规模 AI 模型带来的挑战。

虽然这些模型表现出了突破性的能力,但它们的训练花费已然达到了天文数字。除了资金最充足的大机构之外,其余的企业和组织都被挡在了壁垒之外。

芯片竞赛:微软、Meta、谷歌和英伟达争夺 AI 芯片霸主地位

虽然英伟达凭借长远布局在芯片行业先下一城,但无论是 AMD 这个老对手,还是微软、谷歌、Meta 等巨头,都在奋勇直追,尝试采用自己的设计。

5 月 1 日,AMD 的 MI300 人工智能芯片营销额达到 10 亿美元,作为其有史败兴营销最快的制品

与此同期,AMD 还在马一直蹄地加大日前不该求的 AI 芯片的产量,并且预计在 2025 年推出新品。

4 月 10 日,Meta 官宣下一代自研芯片,模型训练速度将获巨大提高

Meta 训练和推理加速器(MTIA)专为与 Meta 的排序和举荐模型协同运用而设计,这些芯片能够帮忙加强训练效率,并使实质的推理任务更加容易。

同在 4 月 10 日,英特尔透露了自家最新的 AI 芯片 ——Gaudi 3 AI 的更加多细节。

英特尔暗示,与 H100 GPU 相比,Gaudi 3 能够在推理性能上得到 50% 提高同期,在能效上提高 40%,并且价格更便宜。

3 月 19 日,英伟达发布了「地表最强」AI 芯片 ——Blackwell B200。

英伟达暗示,全新的 B200 GPU 能够凭借着 2080 亿个晶体管,供给高达 20 petaflops 的 FP4 算力。

不仅如此,将两个这般的 GPU 与一个 Grace CPU 结合在一块的 GB200,能够为 LLM 推理任务供给比之前强 30 倍的性能,同期可大大提有效率。

另外,老黄还曾暗示每一个 GPU 的价格可能在 3 万到 4 万美元之间。

2 月 23 日,英伟达市值一举突破 2 万亿美元,作为了首家实现这一里程碑的芯片制造商。

同期,这让英伟达作为了美国第三家市值超过 2 万亿美元的机构,仅次于苹果(2.83 万亿美元)和微软(3.06 万亿美元)。

2 月 22 日,微软和英特尔达成为了一项数十亿美元的定制芯片交易。

据推测,英特尔将会为微软生产其自研的 AI 芯片。

2 月 9 日,《华尔街日报》叫作 Sam Altman 的 AI 芯片梦,可能需要高达 7 万亿美元的投资。

这般一笔投资金额将使日前全世界半导体行业的规模相形见绌。去年全世界芯片营销额为 5270 亿美元,预计到 2030 年将达到每年 1 万亿美元。」

参考资料:

https://twitter.com/tsarnick/status/1786189377804369942 https://www.youtube.com/watch?v=6RUR6an5hOY https://twitter.com/zimmskal/status/1786012661815124024 https://symflower.com/en/company/blog/2024/dev-quality-eval-v0.4.0-is-llama-3-better-than-gpt-4-for-generating-tests/ https://techovedas.com/190-million-what-is-the-cost-of-training-ai-models-from-google-to-openai/

宣传声明:文内含有的对外链接(包含不限于超链接、二维码、口令等形式),用于传递更加多信息,节省甄选时间,结果仅供参考,IT之家所有文案包括本声明。返回外链论坛:www.fok120.com,查看更

责任编辑:网友投稿





上一篇:原创 马斯克“友妻门”再曝猛料:与谷歌创始人前妻一块吸毒,显现性关系
下一篇:马斯克“友妻门”最新猛料:与谷歌创始人布林前妻一块吸毒K粉,显现性关系
回复

使用道具 举报

1

主题

548

回帖

-3

积分

限制会员

积分
-3
发表于 2024-8-24 03:21:58 | 显示全部楼层
楼主的文章非常有意义,提升了我的知识水平。
回复

使用道具 举报

3048

主题

3万

回帖

9606万

积分

论坛元老

Rank: 8Rank: 8

积分
96065846
发表于 2024-10-23 20:26:00 | 显示全部楼层
系统提示我验证码错误1500次 \~゛,
回复

使用道具 举报

3061

主题

3万

回帖

9913万

积分

论坛元老

Rank: 8Rank: 8

积分
99138982
发表于 2024-10-29 07:54:03 | 显示全部楼层
外贸B2B平台有哪些?
回复

使用道具 举报

2986

主题

3万

回帖

9956万

积分

论坛元老

Rank: 8Rank: 8

积分
99569168
发表于 6 天前 | 显示全部楼层
请问、你好、求解、谁知道等。
回复

使用道具 举报

3090

主题

3万

回帖

9909万

积分

论坛元老

Rank: 8Rank: 8

积分
99098764
发表于 5 天前 | 显示全部楼层
你的话语如春风拂面,让我感到无比温暖。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

站点统计|Archiver|手机版|小黑屋|外链论坛 ( 非经营性网站 )|网站地图

GMT+8, 2024-11-23 07:11 , Processed in 0.120050 second(s), 21 queries .

Powered by Discuz! X3.4

Copyright © 2001-2023, Tencent Cloud.