CNBCが1月19日に報じたように、MetaはNvidiaのAIチップに数十億ドルを費やしています。 ザッカーバーグ氏は11日、インスタグラムのリールへの投稿で、同社のAIの「将来のロードマップ」では「大規模なコンピューティングインフラ」の構築を求めていると述べた。 ザッカーバーグ氏によると、このインフラには2024年末までにNvidiaのH100グラフィックスカード35万枚が含まれる予定だという。 ザッカーバーグは、同社が購入したGPUの数を明らかにしていませんが、H100は2022年後半まで入手できず、供給も限られていました。 Raymond Jamesのアナリストは、NvidiaのH100は25,000ドルから30,000ドルで販売されていますが、eBayでは40,000ドル以上になる可能性があると推定しています。 Metaが価格の下限で支払っていた場合、支払いは90億ドル近くになっていたでしょう。 さらに、ザッカーバーグ氏は、Metaが未開発の「汎用インテリジェンス」を「責任を持って」オープンソース化する計画であり、同社が大規模言語モデルのLlamaファミリーで行っていると述べた。 ザッカーバーグ氏によると、メタは現在、ラマ3のトレーニングを行っており、基礎人工知能研究チーム(FAIR)やGenAI研究チームとより緊密に連携しているという。