尽管GPT-4目前处于日益复杂的生成人工智能世界的顶峰,但其竞争对手,包括Anthropic的Claude和Meta的开源Llama,不断变得更好,需要OpenAI旗舰大语言模型(LLM)的另一次迭代。尽管许多人预计SamAltman的非营利组织将在2024年发布GPT-5,但一些分析师现在断言,这些期望仍然很牵强,特别是考虑到所需资源的规模。
相关故事微软与OpenAI斥资1000亿美元开发全球最大人工智能超级计算机Stargate
AI安全中心主任DanHendrycks表示,OpenAI的GPTLLM每次增量迭代都需要增加10倍的计算资源。因此,如果OpenAI跳过GPT-4.5并直接跳转到GPT-5,相对于GPT-4,计算要求将增加约100倍,相当于约100万个H100芯片连续运行三个月。
本论文得到了Anthropic首席执行官DarioAmodei的评论的支持,他最近指出,目前培养最先进的法学硕士的成本约为10亿美元,预计到2020年这一成本将激增至50亿至100亿美元。2025/26。至关重要的是,10亿美元的训练成本与计算资源的10倍增长相一致,这可以合理地推断为GPT-4.5。
我们最近注意到,NVIDIA今年部署的H100机组预计每年消耗约13,000GWh的电力,相当于立陶宛和危地马拉等国家的年用电量。到2027年,全球数据中心的能耗预计将飙升至85至134TWh(太瓦时)!
当然,GPT-4的竞争正在迅速迎头赶上。Meta的Llama3LLM(700亿个参数)就是最好的例子,它现在在Arena领导委员会中排名第五。至关重要的是,Llama3现在的表现优于所有其他开源LLM,而且这是在没有即将推出的4050亿参数模型的情况下。