馬斯克為 Grok 人工智慧新創融資 60 億美元用來採購輝達晶片

robot
摘要生成中

特斯拉創辦人暨首任 DOGE 長馬斯克旗下的 xAI 將會以 500 億美元的市場估值融資 60 億美元。據 CNBC 報導,這筆資金將於下週到位,金主包括中東主權基金提供的 50 億美元和其他投資者提供的 10 億美元,這筆資金用來採購 10 萬個輝達晶片。

馬斯克的 xAI 人工智慧新創公司選擇位於田納西州的 Memphis 市打造命名為 Colossus 的超級電腦,輝達的 AI 晶片扮演關鍵角色,目前由十萬個 Nvidia H100 GPU 組成,每個成本約為3萬美元,馬斯克希望繼續使用輝達的晶片,並以輝達的 H200 GPU 升級該設施, H200 可擴增內存容量,但每台成本接近 4 萬美元,明年夏天馬斯克預備還繼續採買 30 萬個 Nvidia Blackwell B200 GPU 。

去年11月,xAI 推出 Grok 聊天機器人,預備與 Sam Altman 的 ChatGPT 競爭 AI 市場。馬斯克本為 Open AI 的早期天使投資人,之後因與 Sam Altman 起衝突而離開,現在變成 Sam Altman 的 AI 競爭對手。

關於 xAI Grok

Grok 是 xAI 開發的人工智慧,可為各種問題提供有用且真實的答案。 Grok 的概念啟發自銀河系漫遊指南 (The Hitchhiker’s Guide to the Galaxy)、和鋼鐵人東尼史塔克創造的 J.A.R.V.I.S. 人工智慧系統,宗旨為幫使用者了解宇宙科學,並可回答任何問題,據 Grok 自己說,本段解釋來自於 Grok ,Grok 會誠實又不加批判的為使用者提供資訊,專注於理解與詳細解釋,甚至以幽默的方式或是外部視角看待人類的問題。

xAI 如何使用 Nvidia 的晶片來構建超級電腦

xAI 利用 H100 GPU 晶片,打造以人工智慧訓練為目的的超級電腦 Colossus。xAI 利用 Nvidia 的 GPU 不僅獲得運算力,並可使用專門的基礎建設架構來加速人工智慧和機器學習,使 xAI 能夠突破人工智慧研究和開發的界限。

Nvidia X Grok 的六大應用場景

大規模平行處理 (Massive Parallel Processing):Nvidia 的 GPU(H100)專為平行處理而設計,對於 AI 模型訓練所需的複雜運算至關重要,這些晶片可同時處理數千筆操作,加速 Grok 大型語言模型 (LLM) 的訓練過程。

擴展性 (Scalability):超級電腦 Colossus 初由十萬個 Nvidia H100 GPU 組成,使 xAI 能夠管理大量的運算工作負載,遠遠超出典型的 CPU 處理功能,並計劃增加一倍數量,達到20萬個 GPU(包括 H200 晶片)。

能源效率 (Energy Efficiency):大規模的運作對能源的需求很高,但與傳統 CPU 相比,Nvidia 的 GPU 對於 xAI 運作的工作負載更節能。

網路基礎設施 (Network Infrastructure):超級電腦 Colossus 運用 Nvidia 的 Spectrum-X 乙太網路平台,透過提供低延遲、高頻寬連線來支援多租戶。

AI 的高階功能 (Advanced Features for AI):Nvidia 的 H100 和 H200 晶片配備了專為 AI 定制的功能,包括高速記憶體(分別為 HBM3 和 HBM3e),可減少記憶體與 GPU 運算核心之間的資料傳輸時間。此功能對於資料移動可能成為瓶頸的人工智慧工作負載非常有用。

軟體支援 (Software Support):Nvidia 提供 CUDA 平行運算平台和程式設計模型,xAI 使用 CUDA 開發應用 AI 演算法。

這篇文章 馬斯克為 Grok 人工智慧新創融資 60 億美元用來採購輝達晶片 最早出現於 鏈新聞 ABMedia。

查看原文
  • 讚賞
  • 留言
  • 分享
留言
0/400
暫無留言