📢 #Gate观点任务# 第六十四期精彩啟程!調研Streamflow (STREAM)項目,在Gate.io動態發佈您的看法觀點,瓜分$100 STREAM獎勵池!
💰️ 選取5名優質發帖用戶,每人輕鬆贏取 $20 等值 $STREAM 獎勵!
👉 參與方式:
1.調研$STREAM項目,並發表你對項目的見解。
2.帶上$STREAM現貨交易鏈接:https://www.gate.io/trade/STREAM_USDT 並註明$STREAM上線日期:2024/12/17 21:00(UTC+8)
3.推廣$STREAM活動:
-推廣$STREAM上線慶典,充值即享豪禮,瓜分 100,000 $STREAM 獎池:https://www.gate.io/announcements/article/41608
-推廣$STREAM “Startup新幣挖礦”,質押$GT、$USDT或$STREAM瓜分400,000 $STREAM,年華收益率高達521%:https://www.gate.io/announcements/article/41623
項目相關創作靈感:
Streamflow 正在解決加密貨幣領域最大的問題之一激勵錯位。Streamflow 是安全、易用且功能強大的代幣基礎設施,用於創建和分發代幣,貫徹於從創建到成熟的整個代幣生命週期。
請點擊鏈接查閱項目官網和
馬斯克為 Grok 人工智慧新創融資 60 億美元用來採購輝達晶片
特斯拉創辦人暨首任 DOGE 長馬斯克旗下的 xAI 將會以 500 億美元的市場估值融資 60 億美元。據 CNBC 報導,這筆資金將於下週到位,金主包括中東主權基金提供的 50 億美元和其他投資者提供的 10 億美元,這筆資金用來採購 10 萬個輝達晶片。
馬斯克的 xAI 人工智慧新創公司選擇位於田納西州的 Memphis 市打造命名為 Colossus 的超級電腦,輝達的 AI 晶片扮演關鍵角色,目前由十萬個 Nvidia H100 GPU 組成,每個成本約為3萬美元,馬斯克希望繼續使用輝達的晶片,並以輝達的 H200 GPU 升級該設施, H200 可擴增內存容量,但每台成本接近 4 萬美元,明年夏天馬斯克預備還繼續採買 30 萬個 Nvidia Blackwell B200 GPU 。
去年11月,xAI 推出 Grok 聊天機器人,預備與 Sam Altman 的 ChatGPT 競爭 AI 市場。馬斯克本為 Open AI 的早期天使投資人,之後因與 Sam Altman 起衝突而離開,現在變成 Sam Altman 的 AI 競爭對手。
關於 xAI Grok
Grok 是 xAI 開發的人工智慧,可為各種問題提供有用且真實的答案。 Grok 的概念啟發自銀河系漫遊指南 (The Hitchhiker’s Guide to the Galaxy)、和鋼鐵人東尼史塔克創造的 J.A.R.V.I.S. 人工智慧系統,宗旨為幫使用者了解宇宙科學,並可回答任何問題,據 Grok 自己說,本段解釋來自於 Grok ,Grok 會誠實又不加批判的為使用者提供資訊,專注於理解與詳細解釋,甚至以幽默的方式或是外部視角看待人類的問題。
xAI 如何使用 Nvidia 的晶片來構建超級電腦
xAI 利用 H100 GPU 晶片,打造以人工智慧訓練為目的的超級電腦 Colossus。xAI 利用 Nvidia 的 GPU 不僅獲得運算力,並可使用專門的基礎建設架構來加速人工智慧和機器學習,使 xAI 能夠突破人工智慧研究和開發的界限。
Nvidia X Grok 的六大應用場景
大規模平行處理 (Massive Parallel Processing):Nvidia 的 GPU(H100)專為平行處理而設計,對於 AI 模型訓練所需的複雜運算至關重要,這些晶片可同時處理數千筆操作,加速 Grok 大型語言模型 (LLM) 的訓練過程。
擴展性 (Scalability):超級電腦 Colossus 初由十萬個 Nvidia H100 GPU 組成,使 xAI 能夠管理大量的運算工作負載,遠遠超出典型的 CPU 處理功能,並計劃增加一倍數量,達到20萬個 GPU(包括 H200 晶片)。
能源效率 (Energy Efficiency):大規模的運作對能源的需求很高,但與傳統 CPU 相比,Nvidia 的 GPU 對於 xAI 運作的工作負載更節能。
網路基礎設施 (Network Infrastructure):超級電腦 Colossus 運用 Nvidia 的 Spectrum-X 乙太網路平台,透過提供低延遲、高頻寬連線來支援多租戶。
AI 的高階功能 (Advanced Features for AI):Nvidia 的 H100 和 H200 晶片配備了專為 AI 定制的功能,包括高速記憶體(分別為 HBM3 和 HBM3e),可減少記憶體與 GPU 運算核心之間的資料傳輸時間。此功能對於資料移動可能成為瓶頸的人工智慧工作負載非常有用。
軟體支援 (Software Support):Nvidia 提供 CUDA 平行運算平台和程式設計模型,xAI 使用 CUDA 開發應用 AI 演算法。
這篇文章 馬斯克為 Grok 人工智慧新創融資 60 億美元用來採購輝達晶片 最早出現於 鏈新聞 ABMedia。