近日,CNMO注意到 Meta的第二代自研芯片正式投产,据悉,扎克伯格计划今年部署 Artemis AI芯片,为 AI 提供算力,以降低对英伟达等供应商的依赖。

  新的芯片将被应用于数据中心的推理任务,与英伟达等供应商的 GPU一起协同工作。此前Meta发言人表示:我们相信,我们自主开发的加速器将与市面上的  GPU相得益彰,为  Meta 的任务提供最佳的性能与效率平衡。

Meta第二代自研AI芯片正式投产 欲摆脱英伟达依赖-冯金伟博客园
在此处添加图片标题

  除了更高效地运行推荐模型外,Meta还需要为自家的生成式 AI应用,以及正在训练的  GPT-4开源竞品 Llama3 提供算力。扎克伯格此前宣布,计划到今年年底部署35 万颗英伟达 H100 GPU,使得 Meta 共拥有约60 万颗 GPU用于运行和训练 AI系统。

  小扎表示:“如果算上英伟达 A100和其他 AI芯片,到2024 年底,Meta 将拥有近60 万个 GPU 等效算力。”这一计划将有助于 Meta 在 AI领域保持竞争力,并进一步降低对单一供应商的依赖。

  总之,Meta 的自研芯片投产标志着该公司在 AI算力领域的发展迈出了新的一步。通过部署 Artemis AI芯片,Meta旨在实现算力自主,同时提高 AI应用的性能和效率。在未来,Meta将继续投资于AI技术,以推动公司的发展和创新。