Akash เป็นแพลตฟอร์มการประมวลผลแบบกระจายอำนาจที่ออกแบบมาเพื่อเชื่อมต่อ GPU ที่ไม่ได้ใช้งานกับผู้ใช้ที่ต้องการการประมวลผล GPU โดยมีเป้าหมายที่จะกลายเป็น "Airbnb" ของการประมวลผล GPU ต่างจากคู่แข่งรายอื่นตรงที่เน้นไปที่การประมวลผล GPU ระดับองค์กรทั่วไปเป็นหลัก นับตั้งแต่เปิดตัวเมนเน็ต GPU ในเดือนกันยายน 2566 พวกเขามี GPU 150-200 ตัวบนเครือข่าย โดยมีอัตราการใช้งานสูงถึง 50-70% และมูลค่าธุรกรรมรวมต่อปีที่ 500,000 ถึง 1 ล้านดอลลาร์ เพื่อให้สอดคล้องกับตลาดเครือข่าย Akash จะเรียกเก็บค่าธรรมเนียมการทำธุรกรรม 20% สำหรับการชำระเงิน USDC
เราอยู่ที่จุดเริ่มต้นของการเปลี่ยนแปลงโครงสร้างพื้นฐานครั้งใหญ่ โดยมีการประมวลผลแบบขนานที่ขับเคลื่อนด้วย GPU มีเพิ่มมากขึ้น คาดการณ์ว่าปัญญาประดิษฐ์จะเพิ่ม GDP โลกได้ 7 ล้านล้านดอลลาร์ ขณะเดียวกันก็สร้างงานอัตโนมัติ 300 ล้านตำแหน่ง Nvidia ผู้ผลิต GPU คาดว่ารายรับจะเพิ่มขึ้นจาก 27 พันล้านดอลลาร์ในปี 2565 เป็น 60 พันล้านดอลลาร์ในปี 2566 และแตะประมาณ 100 พันล้านดอลลาร์ภายในปี 2568 รายจ่ายฝ่ายทุนโดยผู้ให้บริการระบบคลาวด์ (AWS, GCP, Azure ฯลฯ) บนชิป Nvidia เพิ่มขึ้นจากหลักเดียวเป็น 25% และคาดว่าจะเกิน 50% ในปีต่อ ๆ ไป (ที่มา: Koyfin)
Morgan Stanley ประมาณการว่าภายในปี 2568 โอกาสสำหรับโครงสร้างพื้นฐาน GPU ขนาดใหญ่พิเศษในฐานะบริการ (IaaS) จะสูงถึง 40-50 พันล้านดอลลาร์ ตัวอย่างเช่น หาก 30% ของการประมวลผล GPU ถูกขายต่อโดยมีส่วนลด 30% ผ่านทางตลาดรอง นี่จะแสดงถึงโอกาสในการสร้างรายได้ 1 หมื่นล้านดอลลาร์ การเพิ่มโอกาสในการสร้างรายได้อีก 5 พันล้านดอลลาร์จากแหล่งที่ไม่ใหญ่มาก โอกาสในการสร้างรายได้ทั้งหมดจะอยู่ที่ 15 พันล้านดอลลาร์ สมมติว่า Akash สามารถคว้าส่วนแบ่งการตลาด 33% ของโอกาสนี้ (มูลค่าการทำธุรกรรมทั้งหมด 5 พันล้านดอลลาร์) และเรียกเก็บค่าธรรมเนียมการทำธุรกรรม 20% สิ่งนี้จะแปลงเป็นรายได้สุทธิ 1 พันล้านดอลลาร์ ถ้าเราคูณตัวเลขนี้ด้วย 10 ผลลัพธ์ที่ได้จะเป็นมูลค่าหลักทรัพย์ตามราคาตลาดเกือบ 1 หมื่นล้านดอลลาร์
ในเดือนพฤศจิกายน 2565 OpenAI ได้เปิดตัว ChatGPT ซึ่งสร้างสถิติการเติบโตของฐานผู้ใช้ที่เร็วที่สุด โดยเข้าถึงผู้ใช้ 100 ล้านคนภายในเดือนมกราคม 2566 และ 200 ล้านคนภายในเดือนพฤษภาคม ผลกระทบนี้มีขนาดใหญ่มาก โดยมีการประมาณการว่าการเพิ่มผลผลิตและการทำงานอัตโนมัติจำนวน 3 ล้านตำแหน่งจะช่วยเพิ่ม GDP โลกได้ 7 ล้านล้านดอลลาร์
ปัญญาประดิษฐ์ได้เพิ่มขึ้นอย่างรวดเร็วจากการวิจัยเฉพาะกลุ่มไปสู่การใช้จ่ายที่มุ่งเน้นมากที่สุดสำหรับบริษัทต่างๆ ค่าใช้จ่ายในการสร้าง GPT-4 อยู่ที่ 100 ล้านดอลลาร์ โดยมีค่าใช้จ่ายในการดำเนินงานต่อปีอยู่ที่ 250 ล้านดอลลาร์ GPT-5 ต้องการ GPU A100 จำนวน 25,000 ตัว (เทียบเท่ากับฮาร์ดแวร์ Nvidia มูลค่า 2.25 พันล้านดอลลาร์) และอาจต้องมีการลงทุนด้านฮาร์ดแวร์รวม 10 พันล้านดอลลาร์ สิ่งนี้ได้จุดประกายการแข่งขันทางอาวุธระหว่างบริษัทต่างๆ เพื่อให้ได้ GPU เพียงพอที่จะรองรับปริมาณงานขององค์กรที่ขับเคลื่อนด้วย AI
การปฏิวัติปัญญาประดิษฐ์ได้จุดประกายให้เกิดการเปลี่ยนแปลงครั้งใหญ่ในโครงสร้างพื้นฐาน โดยเร่งการเปลี่ยนจากการประมวลผลแบบขนานจาก CPU ไปเป็น GPU ในอดีต GPU ถูกนำมาใช้เพื่อการเรนเดอร์และการประมวลผลภาพขนาดใหญ่พร้อมกัน ในขณะที่ CPU ได้รับการออกแบบมาเพื่อการดำเนินการแบบอนุกรม ซึ่งไม่สามารถดำเนินการพร้อมกันดังกล่าวได้ เนื่องจากแบนด์วิธหน่วยความจำสูง GPU จึงค่อยๆ พัฒนาเพื่อรองรับการคำนวณอื่นๆ ที่มีปัญหาคู่ขนาน เช่น การฝึกอบรม การเพิ่มประสิทธิภาพ และการปรับปรุงโมเดลปัญญาประดิษฐ์
Nvidia ผู้บุกเบิกเทคโนโลยี GPU ในทศวรรษ 1990 ได้รวมฮาร์ดแวร์ชั้นยอดเข้ากับชุดซอฟต์แวร์ CUDA เพื่อสร้างความเป็นผู้นำเหนือคู่แข่ง (โดยเฉพาะ AMD และ Intel) มาหลายปี CUDA stack ของ Nvidia ได้รับการพัฒนาในปี 2549 ช่วยให้นักพัฒนาสามารถปรับแต่ง Nvidia GPUs เพื่อเร่งปริมาณงานและลดความซับซ้อนในการเขียนโปรแกรม GPU ด้วยผู้ใช้ CUDA 4 ล้านคนและนักพัฒนากว่า 50,000 คนที่ใช้ CUDA เพื่อการพัฒนา ทำให้มีระบบนิเวศอันทรงพลังของภาษาการเขียนโปรแกรม ไลบรารี เครื่องมือ แอปพลิเคชัน และเฟรมเวิร์ก เมื่อเวลาผ่านไป เราคาดว่า Nvidia GPU จะเหนือกว่า CPU Intel และ AMD ในศูนย์ข้อมูล
ค่าใช้จ่ายสำหรับ Nvidia GPU โดยผู้ให้บริการคลาวด์ระดับไฮเปอร์สเกลและบริษัทเทคโนโลยีขนาดใหญ่เพิ่มขึ้นอย่างรวดเร็วจากเปอร์เซ็นต์ตัวเลขหลักเดียวที่ต่ำในช่วงต้นปี 2010 เป็นตัวเลขหลักเดียวกลางตั้งแต่ปี 2558 ถึงปี 2565 และเพิ่มเป็น 25% ในปี 2566 เราเชื่อว่า Nvidia จะคิดเป็นสัดส่วนมากกว่า 50% ของรายจ่ายฝ่ายทุนโดยผู้ให้บริการคลาวด์ในอีกไม่กี่ปีข้างหน้า สิ่งนี้คาดว่าจะผลักดันรายรับของ Nvidia จาก 25 พันล้านดอลลาร์ในปี 2565 เป็น 100 พันล้านดอลลาร์ในปี 2568 (ที่มา: Koyfin)
Morgan Stanley ประมาณการว่าภายในปี 2568 โครงสร้างพื้นฐาน GPU ในฐานะขนาดตลาดบริการ (IaaS) สำหรับผู้ให้บริการคลาวด์ระดับไฮเปอร์สเกลจะสูงถึง 40-50 พันล้านดอลลาร์ นี่ยังเป็นเพียงส่วนเล็กๆ ของรายได้รวมของผู้ให้บริการคลาวด์ระดับไฮเปอร์สเกล โดยผู้ให้บริการคลาวด์ไฮเปอร์สเกลชั้นนำ 3 อันดับแรกสร้างรายได้มากกว่า 250 พันล้านดอลลาร์ในปัจจุบัน
เนื่องจากความต้องการ GPU ที่เพิ่มขึ้น การขาดแคลน GPU จึงได้รับการรายงานอย่างกว้างขวางจากสื่อต่างๆ เช่น The New York Times และ The Wall Street Journal CEO ของ AWS กล่าวว่า “อุปสงค์มีมากกว่าอุปทาน ซึ่งเป็นเรื่องจริงสำหรับทุกคน” Elon Musk กล่าวในระหว่างการรายงานผลประกอบการไตรมาสที่ 2 ปี 2023 ของ Tesla ว่า "เราจะใช้ต่อไป เราจะได้ฮาร์ดแวร์ของ Nvidia โดยเร็วที่สุด"
Index Ventures ต้องซื้อชิปให้กับบริษัทในเครือ แทบจะเป็นไปไม่ได้เลยที่จะซื้อชิปจาก Nvidia นอกเหนือจากบริษัทเทคโนโลยีกระแสหลัก และการได้รับชิปจากผู้ให้บริการคลาวด์ระดับไฮเปอร์สเกลก็ใช้เวลานานเช่นกัน
ด้านล่างนี้คือราคา GPU สำหรับ AWS และ Azure ตามที่แสดงด้านล่าง มีส่วนลด 30-65% สำหรับการจอง 1-3 ปี เนื่องจากผู้ให้บริการคลาวด์ระดับไฮเปอร์สเกลลงทุนหลายพันล้านดอลลาร์ในการขยายขีดความสามารถ พวกเขาจึงมองหาโอกาสในการลงทุนที่ให้การมองเห็นรายได้ หากลูกค้าคาดหวังว่าอัตราการใช้งานจะเกิน 60% วิธีที่ดีที่สุดคือเลือกใช้ราคาแบบเหมาจ่าย 1 ปี หากอัตราการใช้ประโยชน์ที่คาดหวังเกิน 35% ให้เลือก 3 ปี กำลังการผลิตที่ไม่ได้ใช้สามารถขายต่อได้ ซึ่งช่วยลดต้นทุนรวมลงได้อย่างมาก
หากผู้ให้บริการคลาวด์ระดับซุปเปอร์สเกลก่อตั้งธุรกิจให้เช่าการประมวลผล GPU มูลค่า 5 หมื่นล้านดอลลาร์ การขายต่อพลังการประมวลผลที่ไม่ได้ใช้จะเป็นโอกาสที่ยิ่งใหญ่ สมมติว่า 30% ของพลังการประมวลผลถูกขายต่อด้วยส่วนลด 30% มันจะสร้างตลาดมูลค่า 1 หมื่นล้านดอลลาร์สำหรับการขายพลังการประมวลผล GPU ของผู้ให้บริการคลาวด์ระดับซุปเปอร์
อย่างไรก็ตาม นอกเหนือจากผู้ให้บริการคลาวด์ขนาดใหญ่แล้ว ยังมีแหล่งจัดหาอื่นๆ รวมถึงองค์กรขนาดใหญ่ (เช่น Meta, Tesla) คู่แข่ง (CoreWeave, Lambda ฯลฯ) และสตาร์ทอัพ AI ที่ได้รับทุนสนับสนุนอย่างดี ตั้งแต่ปี 2022 ถึง 2025 Nvidia คาดว่าจะสร้างรายได้ประมาณ 300 พันล้านดอลลาร์ สมมติว่ามีชิปมูลค่าเพิ่มเติม 70 พันล้านดอลลาร์นอกเหนือจากผู้ให้บริการคลาวด์ขนาดใหญ่ การขายพลังการประมวลผล 20% พร้อมส่วนลด 30% จะเพิ่มอีก 10 พันล้านดอลลาร์ รวมเป็น 200 พันล้านดอลลาร์
Akash คือตลาดการประมวลผลแบบกระจายอำนาจที่ก่อตั้งขึ้นในปี 2558 และเปิดตัว mainnet ในฐานะเครือข่ายแอปพลิเคชัน Cosmos ในเดือนกันยายน 2563 วิสัยทัศน์ของบริษัทคือการทำให้คอมพิวเตอร์คลาวด์เป็นประชาธิปไตยโดยนำเสนอทรัพยากรคอมพิวเตอร์ที่มีราคาถูกกว่าผู้ให้บริการคลาวด์ขนาดใหญ่อย่างมาก
บล็อกเชนจัดการการประสานงานและการชำระหนี้ จัดเก็บบันทึกคำขอ การประมูล การเช่าซื้อ และการชำระหนี้ ในขณะที่การดำเนินการเสร็จสิ้นนอกเครือข่าย Akash โฮสต์คอนเทนเนอร์ที่ผู้ใช้สามารถเรียกใช้แอปพลิเคชันบนคลาวด์ได้ Akash ได้สร้างชุดบริการการจัดการระบบคลาวด์ รวมถึง Kubernetes เพื่อประสานและจัดการคอนเทนเนอร์เหล่านี้ การปรับใช้จะถูกถ่ายโอนจากเครือข่ายเพียร์ทูเพียร์ส่วนตัวที่แยกได้จากบล็อกเชน
Akash เวอร์ชันแรกเน้นไปที่การประมวลผล CPU ในช่วงจุดสูงสุด ธุรกิจมีปริมาณธุรกรรมรวมต่อปีประมาณ 200,000 ดอลลาร์ โดยเช่า CPU 4-5,000 ตัว อย่างไรก็ตาม มีสองประเด็นหลัก: อุปสรรคในการเข้า (ต้องเริ่มต้นกระเป๋าสตางค์ Cosmos และใช้โทเค็น AKT เพื่อชำระค่าภาระงาน) และการเลิกใช้งานของลูกค้า (ต้องเติมเงินกระเป๋าสตางค์ด้วย AKT และหาก AKT หมดหรือราคาเปลี่ยนแปลง ภาระงานจะหยุดลง โดยไม่มีผู้ให้บริการรายอื่น)
ในปีที่ผ่านมา Akash ได้เปลี่ยนจากการประมวลผล CPU ไปเป็นการประมวลผล GPU โดยใช้ประโยชน์จากการเปลี่ยนแปลงกระบวนทัศน์ในโครงสร้างพื้นฐานการประมวลผลและการขาดแคลนอุปทาน
เครือข่าย GPU ของ Akash จะเปิดตัวบน mainnet ในเดือนกันยายน 2566 ตั้งแต่นั้นมา Akash ได้ปรับขนาดเป็น 150-200 GPU และมีอัตราการใช้งานอยู่ที่ 50-70%
ด้านล่างนี้เป็นการเปรียบเทียบราคา Nvidia A100 จากผู้จำหน่ายหลายราย ราคาของ Akash นั้นถูกกว่าคู่แข่งถึง 30-60%
มีซัพพลายเออร์ที่ไม่ซ้ำกันประมาณ 19 รายในเครือข่าย Akash ซึ่งตั้งอยู่ใน 7 ประเทศ และจัดหาชิปมากกว่า 15 ประเภท ผู้ให้บริการรายใหญ่ที่สุดคือ Foundry ซึ่งเป็นบริษัทที่ได้รับการสนับสนุนจาก DCG ซึ่งดำเนินธุรกิจด้านการขุดและการวางเดิมพัน crypto ด้วย
Akash มุ่งเน้นไปที่ชิประดับองค์กร (A100) เป็นหลัก ซึ่งปกติแล้วจะใช้เพื่อรองรับปริมาณงาน AI แม้ว่าชิปเหล่านี้จะมีชิปสำหรับผู้บริโภคบางรุ่น แต่โดยทั่วไปแล้วชิปเหล่านี้เคยใช้งานสำหรับ AI ได้ยากในอดีต เนื่องจากปัญหาการใช้พลังงาน ซอฟต์แวร์ และความล่าช้า บริษัทหลายแห่ง เช่น FedML, io.net และ Gensyn กำลังพยายามสร้างเลเยอร์การประสานเพื่อเปิดใช้งานการประมวลผล AI Edge
ในขณะที่ตลาดเปลี่ยนไปสู่การอนุมานมากกว่าการฝึกอบรม GPU ระดับผู้บริโภคอาจมีศักยภาพมากขึ้น แต่ในปัจจุบันตลาดมุ่งเน้นไปที่การใช้ชิประดับองค์กรสำหรับการฝึกอบรม
ในด้านอุปทาน Akash มุ่งเน้นไปที่ผู้ให้บริการคลาวด์ไฮเปอร์สเกลสาธารณะ ผู้จำหน่าย GPU ส่วนตัว นักขุดเหมือง crypto และองค์กรที่ถือ GPU ที่ไม่ได้ใช้งาน
ในช่วงปี 2022 และ 2023 ส่วนใหญ่ก่อนการเปิดตัวเครือข่าย GPU มูลค่าสินค้ารวม (GMV) ต่อปีสำหรับ CPU อยู่ที่ประมาณ 50,000 ดอลลาร์ นับตั้งแต่เปิดตัวเครือข่าย GPU GMV ก็มีมูลค่าถึงระดับ 500,000 ถึง 1,000,000 เหรียญสหรัฐต่อปี โดยมีอัตราการใช้งานบนเครือข่าย GPU อยู่ระหว่าง 50% ถึง 70%
Akash ทำงานเพื่อลดอุปสรรคของผู้ใช้ ปรับปรุงประสบการณ์ผู้ใช้ และขยายกรณีการใช้งาน
Akash ยังตรวจสอบกรณีการใช้งานผ่านเครือข่ายอีกด้วย ในระหว่างเครือข่ายการทดสอบ GPU ชุมชนได้แสดงให้เห็นว่าสามารถใช้เครือข่ายเพื่อปรับใช้และเรียกใช้การอนุมานในโมเดล AI ยอดนิยมมากมาย แอปพลิเคชัน Akash Chat และ Stable Diffusion XL ต่างแสดงให้เห็นถึงความสามารถของ Akash ในการอนุมาน เราเชื่อว่าเมื่อเวลาผ่านไป ตลาดการอนุมานจะมีขนาดใหญ่กว่าตลาดการฝึกอบรมมาก การค้นหาที่ขับเคลื่อนด้วย AI ในปัจจุบันมีค่าใช้จ่าย 0.02 ดอลลาร์ (10 เท่าของต้นทุนปัจจุบันของ Google) เนื่องจากมีการค้นหา 3 ล้านล้านครั้งต่อปี ซึ่งคิดเป็น 60 พันล้านดอลลาร์ต่อปี เพื่อให้เข้าใจในบริบทนี้ การฝึกอบรมโมเดล OpenAI มีค่าใช้จ่ายประมาณ 100 ล้านดอลลาร์ แม้ว่าต้นทุนน่าจะลดลงสำหรับทั้งคู่ แต่สิ่งนี้เน้นให้เห็นถึงความแตกต่างที่สำคัญในกลุ่มรายได้ระยะยาว
เมื่อพิจารณาว่าความต้องการชิประดับไฮเอนด์ส่วนใหญ่ในปัจจุบันมุ่งเน้นไปที่การฝึกอบรม Akash กำลังทำงานเพื่อแสดงให้เห็นว่าพวกเขาสามารถใช้เครือข่าย Akash เพื่อฝึกอบรมโมเดล ซึ่งพวกเขาวางแผนที่จะเปิดตัวในต้นปี 2567 หลังจากใช้เวเฟอร์ที่เป็นเนื้อเดียวกันจากซัพพลายเออร์รายเดียว โครงการต่อไปคือการใช้เวเฟอร์ที่ต่างกันจากซัพพลายเออร์หลายราย
แผนงานของ Akash นั้นใหญ่มาก คุณสมบัติผลิตภัณฑ์บางอย่างที่กำลังดำเนินอยู่ ได้แก่ การสนับสนุนการจัดการความเป็นส่วนตัว อินสแตนซ์ตามความต้องการ/ที่จองไว้ และการค้นพบที่ดีขึ้น
Akash เรียกเก็บค่าธรรมเนียมการจัดการ 4% สำหรับการชำระเงิน AKT และค่าธรรมเนียมการจัดการ 20% สำหรับการชำระเงิน USDC อัตราค่าธรรมเนียม 20% นี้คล้ายกับที่เราเห็นในตลาดออนไลน์แบบดั้งเดิม (เช่น อูเบอร์ 30%)
Akash มีโทเค็นหมุนเวียนประมาณ 58% (หมุนเวียน 225 ล้าน อุปทานสูงสุด 388 ล้าน) อัตราเงินเฟ้อต่อปีเพิ่มขึ้นจาก 8% เป็น 13% ปัจจุบัน 60% ของโทเค็นหมุนเวียนถูกล็อค โดยมีระยะเวลาล็อค 21 วัน
อัตราค่าธรรมเนียม 40% (ก่อนหน้านี้ 25%) ของอัตราเงินเฟ้อและ GMV จะเข้าสู่กลุ่มชุมชนด้วย ซึ่งปัจจุบันถือครองโทเค็น AKT มูลค่า 10 ล้านดอลลาร์
วัตถุประสงค์ของกองทุนเหล่านี้ยังอยู่ระหว่างการพิจารณา แต่จะมีการแจกจ่ายระหว่างกองทุนสาธารณะ สิ่งจูงใจของผู้ให้บริการ การปักหลัก การเผาที่อาจเกิดขึ้น และกลุ่มชุมชน
เมื่อวันที่ 19 มกราคม Akash ได้เปิดตัวโครงการจูงใจนักบินมูลค่า 5 ล้านดอลลาร์ โดยมีเป้าหมายเพื่อนำ A100 จำนวน 1,000 ลำมาสู่แพลตฟอร์ม เมื่อเวลาผ่านไป เป้าหมายคือเพื่อให้มองเห็นรายได้ฝั่งอุปทาน (เช่น การใช้งานอย่างมีประสิทธิภาพ 95%) แก่ผู้ให้บริการที่เข้าร่วมในตลาด
ต่อไปนี้เป็นสถานการณ์จำลองและข้อสมมติฐานหลายประการเกี่ยวกับปัจจัยขับเคลื่อนหลักของ Akash:
สถานการณ์ระยะสั้น: เราคาดการณ์ว่าหาก Akash สามารถเข้าถึง A100 ได้ 15,000 หน่วย จะสร้างรายได้ GMV ได้เกือบ 150 ล้านดอลลาร์ ในอัตราค่าคอมมิชชั่น 20% จะทำให้ Akash มีค่าธรรมเนียมข้อตกลง 30 ล้านดอลลาร์ เมื่อพิจารณาจากวิถีการเติบโต เมื่อคูณตัวเลขนี้ด้วย 100 (โดยคำนึงถึงการประเมินมูลค่าของ AI) ก็จะมีมูลค่า 3 พันล้านดอลลาร์
กรณีพื้นฐาน: เราถือว่าโอกาสทางการตลาดของ IaaS สอดคล้องกับประมาณการของ Morgan Stanley ที่ 5 หมื่นล้านดอลลาร์ สมมติว่ามีการใช้งาน 70% จะมีกำลังการผลิตขายต่อได้ 15 พันล้านดอลลาร์ สมมติว่ามีส่วนลด 30% สำหรับกำลังการผลิตนี้ เราจะได้เงิน 10 พันล้านดอลลาร์ บวกอีก 10 พันล้านดอลลาร์จากแหล่งที่ไม่สามารถขยายขนาดได้อื่นๆ เนื่องจากตลาดมักมีคูเมืองที่แข็งแกร่ง เราจึงถือว่า Akash สามารถบรรลุส่วนแบ่ง 33% (20% ของส่วนแบ่งตลาดที่พักให้เช่าของ Airbnb, 75% ของส่วนแบ่งการตลาดแบบแชร์รถของ Uber และ 65% ของส่วนแบ่งตลาดการจัดส่งอาหารของ Doordash) ในอัตราค่าคอมมิชชั่น 20% จะสร้างค่าธรรมเนียมโปรโตคอล 1 พันล้านดอลลาร์ เมื่อคูณด้วย 10 Akash จะได้รับผลลัพธ์ 10 พันล้านดอลลาร์
กรณีขาขึ้น: กรณีขาขึ้นของเราใช้กรอบงานเดียวกันกับกรณีพื้นฐาน เรารับโอกาสในการขายต่อมูลค่า 2 หมื่นล้านดอลลาร์ เนื่องจากความสามารถในการเจาะแหล่ง GPU ที่เป็นเอกลักษณ์มากขึ้นและส่วนแบ่งการเติบโตที่สูงขึ้น
ข้อมูลความเป็นมา: Nvidia เป็นบริษัทจดทะเบียนที่มีมูลค่าตลาด 1.2 ล้านล้านเหรียญสหรัฐ ในขณะที่ OpenAI มีมูลค่า 80 พันล้านเหรียญสหรัฐในตลาดเอกชน Anthropic มีมูลค่า 20 พันล้านเหรียญสหรัฐ และ CoreWeave มีมูลค่า 7 พันล้านเหรียญสหรัฐ ในพื้นที่ crypto Render และ TAO มีมูลค่ามากกว่า 2 พันล้านดอลลาร์และมากกว่า 5.5 พันล้านดอลลาร์ตามลำดับ
การกระจุกตัวของอุปสงค์และอุปทาน: ปัจจุบัน ความต้องการ GPU ส่วนใหญ่มาจากบริษัทเทคโนโลยีขนาดใหญ่สำหรับการฝึกอบรม LLM ที่มีขนาดใหญ่และซับซ้อนมาก (โมเดลภาษาขนาดใหญ่) เมื่อเวลาผ่านไป เราคาดว่าจะมีความสนใจมากขึ้นในการฝึกอบรมโมเดล AI ขนาดเล็กซึ่งมีราคาถูกกว่าและเหมาะสมกว่าในการจัดการข้อมูลส่วนตัว การปรับแต่งอย่างละเอียดจะมีความสำคัญมากขึ้นเมื่อโมเดลเปลี่ยนจากการใช้งานทั่วไปไปสู่การใช้งานในแนวตั้ง ท้ายที่สุดแล้ว เมื่อการใช้งานและการยอมรับเร่งตัวขึ้น การอนุมานก็จะกลายเป็นเรื่องสำคัญมากขึ้น
การแข่งขัน: มีบริษัท crypto และ non-crypto จำนวนมากที่พยายามเพิ่ม GPU ที่ใช้งานน้อยเกินไป โปรโตคอลการเข้ารหัสที่โดดเด่นบางส่วน ได้แก่:
ปัญหาด้านความหน่วงและความท้าทายทางเทคนิค: เนื่องจากการฝึกอบรม AI เป็นงานที่ต้องใช้ทรัพยากรมาก และการพิจารณาว่าชิปทั้งหมดตั้งอยู่ภายในศูนย์ข้อมูล จึงไม่ชัดเจนว่าสามารถฝึกอบรมโมเดลบนสแต็ก GPU แบบกระจายอำนาจและไม่มีตำแหน่งร่วมได้หรือไม่ OpenAI วางแผนที่จะสร้างศูนย์ฝึกอบรมแห่งใหม่ที่มี GPU มากกว่า 75,000 ตัวในรัฐแอริโซนา ปัญหาเหล่านี้ล้วนได้รับการแก้ไขด้วยการจัดกำหนดการเลเยอร์ เช่น FedML, Io.net และ Gensyn
Akash เป็นแพลตฟอร์มการประมวลผลแบบกระจายอำนาจที่ออกแบบมาเพื่อเชื่อมต่อ GPU ที่ไม่ได้ใช้งานกับผู้ใช้ที่ต้องการการประมวลผล GPU โดยมีเป้าหมายที่จะกลายเป็น "Airbnb" ของการประมวลผล GPU ต่างจากคู่แข่งรายอื่นตรงที่เน้นไปที่การประมวลผล GPU ระดับองค์กรทั่วไปเป็นหลัก นับตั้งแต่เปิดตัวเมนเน็ต GPU ในเดือนกันยายน 2566 พวกเขามี GPU 150-200 ตัวบนเครือข่าย โดยมีอัตราการใช้งานสูงถึง 50-70% และมูลค่าธุรกรรมรวมต่อปีที่ 500,000 ถึง 1 ล้านดอลลาร์ เพื่อให้สอดคล้องกับตลาดเครือข่าย Akash จะเรียกเก็บค่าธรรมเนียมการทำธุรกรรม 20% สำหรับการชำระเงิน USDC
เราอยู่ที่จุดเริ่มต้นของการเปลี่ยนแปลงโครงสร้างพื้นฐานครั้งใหญ่ โดยมีการประมวลผลแบบขนานที่ขับเคลื่อนด้วย GPU มีเพิ่มมากขึ้น คาดการณ์ว่าปัญญาประดิษฐ์จะเพิ่ม GDP โลกได้ 7 ล้านล้านดอลลาร์ ขณะเดียวกันก็สร้างงานอัตโนมัติ 300 ล้านตำแหน่ง Nvidia ผู้ผลิต GPU คาดว่ารายรับจะเพิ่มขึ้นจาก 27 พันล้านดอลลาร์ในปี 2565 เป็น 60 พันล้านดอลลาร์ในปี 2566 และแตะประมาณ 100 พันล้านดอลลาร์ภายในปี 2568 รายจ่ายฝ่ายทุนโดยผู้ให้บริการระบบคลาวด์ (AWS, GCP, Azure ฯลฯ) บนชิป Nvidia เพิ่มขึ้นจากหลักเดียวเป็น 25% และคาดว่าจะเกิน 50% ในปีต่อ ๆ ไป (ที่มา: Koyfin)
Morgan Stanley ประมาณการว่าภายในปี 2568 โอกาสสำหรับโครงสร้างพื้นฐาน GPU ขนาดใหญ่พิเศษในฐานะบริการ (IaaS) จะสูงถึง 40-50 พันล้านดอลลาร์ ตัวอย่างเช่น หาก 30% ของการประมวลผล GPU ถูกขายต่อโดยมีส่วนลด 30% ผ่านทางตลาดรอง นี่จะแสดงถึงโอกาสในการสร้างรายได้ 1 หมื่นล้านดอลลาร์ การเพิ่มโอกาสในการสร้างรายได้อีก 5 พันล้านดอลลาร์จากแหล่งที่ไม่ใหญ่มาก โอกาสในการสร้างรายได้ทั้งหมดจะอยู่ที่ 15 พันล้านดอลลาร์ สมมติว่า Akash สามารถคว้าส่วนแบ่งการตลาด 33% ของโอกาสนี้ (มูลค่าการทำธุรกรรมทั้งหมด 5 พันล้านดอลลาร์) และเรียกเก็บค่าธรรมเนียมการทำธุรกรรม 20% สิ่งนี้จะแปลงเป็นรายได้สุทธิ 1 พันล้านดอลลาร์ ถ้าเราคูณตัวเลขนี้ด้วย 10 ผลลัพธ์ที่ได้จะเป็นมูลค่าหลักทรัพย์ตามราคาตลาดเกือบ 1 หมื่นล้านดอลลาร์
ในเดือนพฤศจิกายน 2565 OpenAI ได้เปิดตัว ChatGPT ซึ่งสร้างสถิติการเติบโตของฐานผู้ใช้ที่เร็วที่สุด โดยเข้าถึงผู้ใช้ 100 ล้านคนภายในเดือนมกราคม 2566 และ 200 ล้านคนภายในเดือนพฤษภาคม ผลกระทบนี้มีขนาดใหญ่มาก โดยมีการประมาณการว่าการเพิ่มผลผลิตและการทำงานอัตโนมัติจำนวน 3 ล้านตำแหน่งจะช่วยเพิ่ม GDP โลกได้ 7 ล้านล้านดอลลาร์
ปัญญาประดิษฐ์ได้เพิ่มขึ้นอย่างรวดเร็วจากการวิจัยเฉพาะกลุ่มไปสู่การใช้จ่ายที่มุ่งเน้นมากที่สุดสำหรับบริษัทต่างๆ ค่าใช้จ่ายในการสร้าง GPT-4 อยู่ที่ 100 ล้านดอลลาร์ โดยมีค่าใช้จ่ายในการดำเนินงานต่อปีอยู่ที่ 250 ล้านดอลลาร์ GPT-5 ต้องการ GPU A100 จำนวน 25,000 ตัว (เทียบเท่ากับฮาร์ดแวร์ Nvidia มูลค่า 2.25 พันล้านดอลลาร์) และอาจต้องมีการลงทุนด้านฮาร์ดแวร์รวม 10 พันล้านดอลลาร์ สิ่งนี้ได้จุดประกายการแข่งขันทางอาวุธระหว่างบริษัทต่างๆ เพื่อให้ได้ GPU เพียงพอที่จะรองรับปริมาณงานขององค์กรที่ขับเคลื่อนด้วย AI
การปฏิวัติปัญญาประดิษฐ์ได้จุดประกายให้เกิดการเปลี่ยนแปลงครั้งใหญ่ในโครงสร้างพื้นฐาน โดยเร่งการเปลี่ยนจากการประมวลผลแบบขนานจาก CPU ไปเป็น GPU ในอดีต GPU ถูกนำมาใช้เพื่อการเรนเดอร์และการประมวลผลภาพขนาดใหญ่พร้อมกัน ในขณะที่ CPU ได้รับการออกแบบมาเพื่อการดำเนินการแบบอนุกรม ซึ่งไม่สามารถดำเนินการพร้อมกันดังกล่าวได้ เนื่องจากแบนด์วิธหน่วยความจำสูง GPU จึงค่อยๆ พัฒนาเพื่อรองรับการคำนวณอื่นๆ ที่มีปัญหาคู่ขนาน เช่น การฝึกอบรม การเพิ่มประสิทธิภาพ และการปรับปรุงโมเดลปัญญาประดิษฐ์
Nvidia ผู้บุกเบิกเทคโนโลยี GPU ในทศวรรษ 1990 ได้รวมฮาร์ดแวร์ชั้นยอดเข้ากับชุดซอฟต์แวร์ CUDA เพื่อสร้างความเป็นผู้นำเหนือคู่แข่ง (โดยเฉพาะ AMD และ Intel) มาหลายปี CUDA stack ของ Nvidia ได้รับการพัฒนาในปี 2549 ช่วยให้นักพัฒนาสามารถปรับแต่ง Nvidia GPUs เพื่อเร่งปริมาณงานและลดความซับซ้อนในการเขียนโปรแกรม GPU ด้วยผู้ใช้ CUDA 4 ล้านคนและนักพัฒนากว่า 50,000 คนที่ใช้ CUDA เพื่อการพัฒนา ทำให้มีระบบนิเวศอันทรงพลังของภาษาการเขียนโปรแกรม ไลบรารี เครื่องมือ แอปพลิเคชัน และเฟรมเวิร์ก เมื่อเวลาผ่านไป เราคาดว่า Nvidia GPU จะเหนือกว่า CPU Intel และ AMD ในศูนย์ข้อมูล
ค่าใช้จ่ายสำหรับ Nvidia GPU โดยผู้ให้บริการคลาวด์ระดับไฮเปอร์สเกลและบริษัทเทคโนโลยีขนาดใหญ่เพิ่มขึ้นอย่างรวดเร็วจากเปอร์เซ็นต์ตัวเลขหลักเดียวที่ต่ำในช่วงต้นปี 2010 เป็นตัวเลขหลักเดียวกลางตั้งแต่ปี 2558 ถึงปี 2565 และเพิ่มเป็น 25% ในปี 2566 เราเชื่อว่า Nvidia จะคิดเป็นสัดส่วนมากกว่า 50% ของรายจ่ายฝ่ายทุนโดยผู้ให้บริการคลาวด์ในอีกไม่กี่ปีข้างหน้า สิ่งนี้คาดว่าจะผลักดันรายรับของ Nvidia จาก 25 พันล้านดอลลาร์ในปี 2565 เป็น 100 พันล้านดอลลาร์ในปี 2568 (ที่มา: Koyfin)
Morgan Stanley ประมาณการว่าภายในปี 2568 โครงสร้างพื้นฐาน GPU ในฐานะขนาดตลาดบริการ (IaaS) สำหรับผู้ให้บริการคลาวด์ระดับไฮเปอร์สเกลจะสูงถึง 40-50 พันล้านดอลลาร์ นี่ยังเป็นเพียงส่วนเล็กๆ ของรายได้รวมของผู้ให้บริการคลาวด์ระดับไฮเปอร์สเกล โดยผู้ให้บริการคลาวด์ไฮเปอร์สเกลชั้นนำ 3 อันดับแรกสร้างรายได้มากกว่า 250 พันล้านดอลลาร์ในปัจจุบัน
เนื่องจากความต้องการ GPU ที่เพิ่มขึ้น การขาดแคลน GPU จึงได้รับการรายงานอย่างกว้างขวางจากสื่อต่างๆ เช่น The New York Times และ The Wall Street Journal CEO ของ AWS กล่าวว่า “อุปสงค์มีมากกว่าอุปทาน ซึ่งเป็นเรื่องจริงสำหรับทุกคน” Elon Musk กล่าวในระหว่างการรายงานผลประกอบการไตรมาสที่ 2 ปี 2023 ของ Tesla ว่า "เราจะใช้ต่อไป เราจะได้ฮาร์ดแวร์ของ Nvidia โดยเร็วที่สุด"
Index Ventures ต้องซื้อชิปให้กับบริษัทในเครือ แทบจะเป็นไปไม่ได้เลยที่จะซื้อชิปจาก Nvidia นอกเหนือจากบริษัทเทคโนโลยีกระแสหลัก และการได้รับชิปจากผู้ให้บริการคลาวด์ระดับไฮเปอร์สเกลก็ใช้เวลานานเช่นกัน
ด้านล่างนี้คือราคา GPU สำหรับ AWS และ Azure ตามที่แสดงด้านล่าง มีส่วนลด 30-65% สำหรับการจอง 1-3 ปี เนื่องจากผู้ให้บริการคลาวด์ระดับไฮเปอร์สเกลลงทุนหลายพันล้านดอลลาร์ในการขยายขีดความสามารถ พวกเขาจึงมองหาโอกาสในการลงทุนที่ให้การมองเห็นรายได้ หากลูกค้าคาดหวังว่าอัตราการใช้งานจะเกิน 60% วิธีที่ดีที่สุดคือเลือกใช้ราคาแบบเหมาจ่าย 1 ปี หากอัตราการใช้ประโยชน์ที่คาดหวังเกิน 35% ให้เลือก 3 ปี กำลังการผลิตที่ไม่ได้ใช้สามารถขายต่อได้ ซึ่งช่วยลดต้นทุนรวมลงได้อย่างมาก
หากผู้ให้บริการคลาวด์ระดับซุปเปอร์สเกลก่อตั้งธุรกิจให้เช่าการประมวลผล GPU มูลค่า 5 หมื่นล้านดอลลาร์ การขายต่อพลังการประมวลผลที่ไม่ได้ใช้จะเป็นโอกาสที่ยิ่งใหญ่ สมมติว่า 30% ของพลังการประมวลผลถูกขายต่อด้วยส่วนลด 30% มันจะสร้างตลาดมูลค่า 1 หมื่นล้านดอลลาร์สำหรับการขายพลังการประมวลผล GPU ของผู้ให้บริการคลาวด์ระดับซุปเปอร์
อย่างไรก็ตาม นอกเหนือจากผู้ให้บริการคลาวด์ขนาดใหญ่แล้ว ยังมีแหล่งจัดหาอื่นๆ รวมถึงองค์กรขนาดใหญ่ (เช่น Meta, Tesla) คู่แข่ง (CoreWeave, Lambda ฯลฯ) และสตาร์ทอัพ AI ที่ได้รับทุนสนับสนุนอย่างดี ตั้งแต่ปี 2022 ถึง 2025 Nvidia คาดว่าจะสร้างรายได้ประมาณ 300 พันล้านดอลลาร์ สมมติว่ามีชิปมูลค่าเพิ่มเติม 70 พันล้านดอลลาร์นอกเหนือจากผู้ให้บริการคลาวด์ขนาดใหญ่ การขายพลังการประมวลผล 20% พร้อมส่วนลด 30% จะเพิ่มอีก 10 พันล้านดอลลาร์ รวมเป็น 200 พันล้านดอลลาร์
Akash คือตลาดการประมวลผลแบบกระจายอำนาจที่ก่อตั้งขึ้นในปี 2558 และเปิดตัว mainnet ในฐานะเครือข่ายแอปพลิเคชัน Cosmos ในเดือนกันยายน 2563 วิสัยทัศน์ของบริษัทคือการทำให้คอมพิวเตอร์คลาวด์เป็นประชาธิปไตยโดยนำเสนอทรัพยากรคอมพิวเตอร์ที่มีราคาถูกกว่าผู้ให้บริการคลาวด์ขนาดใหญ่อย่างมาก
บล็อกเชนจัดการการประสานงานและการชำระหนี้ จัดเก็บบันทึกคำขอ การประมูล การเช่าซื้อ และการชำระหนี้ ในขณะที่การดำเนินการเสร็จสิ้นนอกเครือข่าย Akash โฮสต์คอนเทนเนอร์ที่ผู้ใช้สามารถเรียกใช้แอปพลิเคชันบนคลาวด์ได้ Akash ได้สร้างชุดบริการการจัดการระบบคลาวด์ รวมถึง Kubernetes เพื่อประสานและจัดการคอนเทนเนอร์เหล่านี้ การปรับใช้จะถูกถ่ายโอนจากเครือข่ายเพียร์ทูเพียร์ส่วนตัวที่แยกได้จากบล็อกเชน
Akash เวอร์ชันแรกเน้นไปที่การประมวลผล CPU ในช่วงจุดสูงสุด ธุรกิจมีปริมาณธุรกรรมรวมต่อปีประมาณ 200,000 ดอลลาร์ โดยเช่า CPU 4-5,000 ตัว อย่างไรก็ตาม มีสองประเด็นหลัก: อุปสรรคในการเข้า (ต้องเริ่มต้นกระเป๋าสตางค์ Cosmos และใช้โทเค็น AKT เพื่อชำระค่าภาระงาน) และการเลิกใช้งานของลูกค้า (ต้องเติมเงินกระเป๋าสตางค์ด้วย AKT และหาก AKT หมดหรือราคาเปลี่ยนแปลง ภาระงานจะหยุดลง โดยไม่มีผู้ให้บริการรายอื่น)
ในปีที่ผ่านมา Akash ได้เปลี่ยนจากการประมวลผล CPU ไปเป็นการประมวลผล GPU โดยใช้ประโยชน์จากการเปลี่ยนแปลงกระบวนทัศน์ในโครงสร้างพื้นฐานการประมวลผลและการขาดแคลนอุปทาน
เครือข่าย GPU ของ Akash จะเปิดตัวบน mainnet ในเดือนกันยายน 2566 ตั้งแต่นั้นมา Akash ได้ปรับขนาดเป็น 150-200 GPU และมีอัตราการใช้งานอยู่ที่ 50-70%
ด้านล่างนี้เป็นการเปรียบเทียบราคา Nvidia A100 จากผู้จำหน่ายหลายราย ราคาของ Akash นั้นถูกกว่าคู่แข่งถึง 30-60%
มีซัพพลายเออร์ที่ไม่ซ้ำกันประมาณ 19 รายในเครือข่าย Akash ซึ่งตั้งอยู่ใน 7 ประเทศ และจัดหาชิปมากกว่า 15 ประเภท ผู้ให้บริการรายใหญ่ที่สุดคือ Foundry ซึ่งเป็นบริษัทที่ได้รับการสนับสนุนจาก DCG ซึ่งดำเนินธุรกิจด้านการขุดและการวางเดิมพัน crypto ด้วย
Akash มุ่งเน้นไปที่ชิประดับองค์กร (A100) เป็นหลัก ซึ่งปกติแล้วจะใช้เพื่อรองรับปริมาณงาน AI แม้ว่าชิปเหล่านี้จะมีชิปสำหรับผู้บริโภคบางรุ่น แต่โดยทั่วไปแล้วชิปเหล่านี้เคยใช้งานสำหรับ AI ได้ยากในอดีต เนื่องจากปัญหาการใช้พลังงาน ซอฟต์แวร์ และความล่าช้า บริษัทหลายแห่ง เช่น FedML, io.net และ Gensyn กำลังพยายามสร้างเลเยอร์การประสานเพื่อเปิดใช้งานการประมวลผล AI Edge
ในขณะที่ตลาดเปลี่ยนไปสู่การอนุมานมากกว่าการฝึกอบรม GPU ระดับผู้บริโภคอาจมีศักยภาพมากขึ้น แต่ในปัจจุบันตลาดมุ่งเน้นไปที่การใช้ชิประดับองค์กรสำหรับการฝึกอบรม
ในด้านอุปทาน Akash มุ่งเน้นไปที่ผู้ให้บริการคลาวด์ไฮเปอร์สเกลสาธารณะ ผู้จำหน่าย GPU ส่วนตัว นักขุดเหมือง crypto และองค์กรที่ถือ GPU ที่ไม่ได้ใช้งาน
ในช่วงปี 2022 และ 2023 ส่วนใหญ่ก่อนการเปิดตัวเครือข่าย GPU มูลค่าสินค้ารวม (GMV) ต่อปีสำหรับ CPU อยู่ที่ประมาณ 50,000 ดอลลาร์ นับตั้งแต่เปิดตัวเครือข่าย GPU GMV ก็มีมูลค่าถึงระดับ 500,000 ถึง 1,000,000 เหรียญสหรัฐต่อปี โดยมีอัตราการใช้งานบนเครือข่าย GPU อยู่ระหว่าง 50% ถึง 70%
Akash ทำงานเพื่อลดอุปสรรคของผู้ใช้ ปรับปรุงประสบการณ์ผู้ใช้ และขยายกรณีการใช้งาน
Akash ยังตรวจสอบกรณีการใช้งานผ่านเครือข่ายอีกด้วย ในระหว่างเครือข่ายการทดสอบ GPU ชุมชนได้แสดงให้เห็นว่าสามารถใช้เครือข่ายเพื่อปรับใช้และเรียกใช้การอนุมานในโมเดล AI ยอดนิยมมากมาย แอปพลิเคชัน Akash Chat และ Stable Diffusion XL ต่างแสดงให้เห็นถึงความสามารถของ Akash ในการอนุมาน เราเชื่อว่าเมื่อเวลาผ่านไป ตลาดการอนุมานจะมีขนาดใหญ่กว่าตลาดการฝึกอบรมมาก การค้นหาที่ขับเคลื่อนด้วย AI ในปัจจุบันมีค่าใช้จ่าย 0.02 ดอลลาร์ (10 เท่าของต้นทุนปัจจุบันของ Google) เนื่องจากมีการค้นหา 3 ล้านล้านครั้งต่อปี ซึ่งคิดเป็น 60 พันล้านดอลลาร์ต่อปี เพื่อให้เข้าใจในบริบทนี้ การฝึกอบรมโมเดล OpenAI มีค่าใช้จ่ายประมาณ 100 ล้านดอลลาร์ แม้ว่าต้นทุนน่าจะลดลงสำหรับทั้งคู่ แต่สิ่งนี้เน้นให้เห็นถึงความแตกต่างที่สำคัญในกลุ่มรายได้ระยะยาว
เมื่อพิจารณาว่าความต้องการชิประดับไฮเอนด์ส่วนใหญ่ในปัจจุบันมุ่งเน้นไปที่การฝึกอบรม Akash กำลังทำงานเพื่อแสดงให้เห็นว่าพวกเขาสามารถใช้เครือข่าย Akash เพื่อฝึกอบรมโมเดล ซึ่งพวกเขาวางแผนที่จะเปิดตัวในต้นปี 2567 หลังจากใช้เวเฟอร์ที่เป็นเนื้อเดียวกันจากซัพพลายเออร์รายเดียว โครงการต่อไปคือการใช้เวเฟอร์ที่ต่างกันจากซัพพลายเออร์หลายราย
แผนงานของ Akash นั้นใหญ่มาก คุณสมบัติผลิตภัณฑ์บางอย่างที่กำลังดำเนินอยู่ ได้แก่ การสนับสนุนการจัดการความเป็นส่วนตัว อินสแตนซ์ตามความต้องการ/ที่จองไว้ และการค้นพบที่ดีขึ้น
Akash เรียกเก็บค่าธรรมเนียมการจัดการ 4% สำหรับการชำระเงิน AKT และค่าธรรมเนียมการจัดการ 20% สำหรับการชำระเงิน USDC อัตราค่าธรรมเนียม 20% นี้คล้ายกับที่เราเห็นในตลาดออนไลน์แบบดั้งเดิม (เช่น อูเบอร์ 30%)
Akash มีโทเค็นหมุนเวียนประมาณ 58% (หมุนเวียน 225 ล้าน อุปทานสูงสุด 388 ล้าน) อัตราเงินเฟ้อต่อปีเพิ่มขึ้นจาก 8% เป็น 13% ปัจจุบัน 60% ของโทเค็นหมุนเวียนถูกล็อค โดยมีระยะเวลาล็อค 21 วัน
อัตราค่าธรรมเนียม 40% (ก่อนหน้านี้ 25%) ของอัตราเงินเฟ้อและ GMV จะเข้าสู่กลุ่มชุมชนด้วย ซึ่งปัจจุบันถือครองโทเค็น AKT มูลค่า 10 ล้านดอลลาร์
วัตถุประสงค์ของกองทุนเหล่านี้ยังอยู่ระหว่างการพิจารณา แต่จะมีการแจกจ่ายระหว่างกองทุนสาธารณะ สิ่งจูงใจของผู้ให้บริการ การปักหลัก การเผาที่อาจเกิดขึ้น และกลุ่มชุมชน
เมื่อวันที่ 19 มกราคม Akash ได้เปิดตัวโครงการจูงใจนักบินมูลค่า 5 ล้านดอลลาร์ โดยมีเป้าหมายเพื่อนำ A100 จำนวน 1,000 ลำมาสู่แพลตฟอร์ม เมื่อเวลาผ่านไป เป้าหมายคือเพื่อให้มองเห็นรายได้ฝั่งอุปทาน (เช่น การใช้งานอย่างมีประสิทธิภาพ 95%) แก่ผู้ให้บริการที่เข้าร่วมในตลาด
ต่อไปนี้เป็นสถานการณ์จำลองและข้อสมมติฐานหลายประการเกี่ยวกับปัจจัยขับเคลื่อนหลักของ Akash:
สถานการณ์ระยะสั้น: เราคาดการณ์ว่าหาก Akash สามารถเข้าถึง A100 ได้ 15,000 หน่วย จะสร้างรายได้ GMV ได้เกือบ 150 ล้านดอลลาร์ ในอัตราค่าคอมมิชชั่น 20% จะทำให้ Akash มีค่าธรรมเนียมข้อตกลง 30 ล้านดอลลาร์ เมื่อพิจารณาจากวิถีการเติบโต เมื่อคูณตัวเลขนี้ด้วย 100 (โดยคำนึงถึงการประเมินมูลค่าของ AI) ก็จะมีมูลค่า 3 พันล้านดอลลาร์
กรณีพื้นฐาน: เราถือว่าโอกาสทางการตลาดของ IaaS สอดคล้องกับประมาณการของ Morgan Stanley ที่ 5 หมื่นล้านดอลลาร์ สมมติว่ามีการใช้งาน 70% จะมีกำลังการผลิตขายต่อได้ 15 พันล้านดอลลาร์ สมมติว่ามีส่วนลด 30% สำหรับกำลังการผลิตนี้ เราจะได้เงิน 10 พันล้านดอลลาร์ บวกอีก 10 พันล้านดอลลาร์จากแหล่งที่ไม่สามารถขยายขนาดได้อื่นๆ เนื่องจากตลาดมักมีคูเมืองที่แข็งแกร่ง เราจึงถือว่า Akash สามารถบรรลุส่วนแบ่ง 33% (20% ของส่วนแบ่งตลาดที่พักให้เช่าของ Airbnb, 75% ของส่วนแบ่งการตลาดแบบแชร์รถของ Uber และ 65% ของส่วนแบ่งตลาดการจัดส่งอาหารของ Doordash) ในอัตราค่าคอมมิชชั่น 20% จะสร้างค่าธรรมเนียมโปรโตคอล 1 พันล้านดอลลาร์ เมื่อคูณด้วย 10 Akash จะได้รับผลลัพธ์ 10 พันล้านดอลลาร์
กรณีขาขึ้น: กรณีขาขึ้นของเราใช้กรอบงานเดียวกันกับกรณีพื้นฐาน เรารับโอกาสในการขายต่อมูลค่า 2 หมื่นล้านดอลลาร์ เนื่องจากความสามารถในการเจาะแหล่ง GPU ที่เป็นเอกลักษณ์มากขึ้นและส่วนแบ่งการเติบโตที่สูงขึ้น
ข้อมูลความเป็นมา: Nvidia เป็นบริษัทจดทะเบียนที่มีมูลค่าตลาด 1.2 ล้านล้านเหรียญสหรัฐ ในขณะที่ OpenAI มีมูลค่า 80 พันล้านเหรียญสหรัฐในตลาดเอกชน Anthropic มีมูลค่า 20 พันล้านเหรียญสหรัฐ และ CoreWeave มีมูลค่า 7 พันล้านเหรียญสหรัฐ ในพื้นที่ crypto Render และ TAO มีมูลค่ามากกว่า 2 พันล้านดอลลาร์และมากกว่า 5.5 พันล้านดอลลาร์ตามลำดับ
การกระจุกตัวของอุปสงค์และอุปทาน: ปัจจุบัน ความต้องการ GPU ส่วนใหญ่มาจากบริษัทเทคโนโลยีขนาดใหญ่สำหรับการฝึกอบรม LLM ที่มีขนาดใหญ่และซับซ้อนมาก (โมเดลภาษาขนาดใหญ่) เมื่อเวลาผ่านไป เราคาดว่าจะมีความสนใจมากขึ้นในการฝึกอบรมโมเดล AI ขนาดเล็กซึ่งมีราคาถูกกว่าและเหมาะสมกว่าในการจัดการข้อมูลส่วนตัว การปรับแต่งอย่างละเอียดจะมีความสำคัญมากขึ้นเมื่อโมเดลเปลี่ยนจากการใช้งานทั่วไปไปสู่การใช้งานในแนวตั้ง ท้ายที่สุดแล้ว เมื่อการใช้งานและการยอมรับเร่งตัวขึ้น การอนุมานก็จะกลายเป็นเรื่องสำคัญมากขึ้น
การแข่งขัน: มีบริษัท crypto และ non-crypto จำนวนมากที่พยายามเพิ่ม GPU ที่ใช้งานน้อยเกินไป โปรโตคอลการเข้ารหัสที่โดดเด่นบางส่วน ได้แก่:
ปัญหาด้านความหน่วงและความท้าทายทางเทคนิค: เนื่องจากการฝึกอบรม AI เป็นงานที่ต้องใช้ทรัพยากรมาก และการพิจารณาว่าชิปทั้งหมดตั้งอยู่ภายในศูนย์ข้อมูล จึงไม่ชัดเจนว่าสามารถฝึกอบรมโมเดลบนสแต็ก GPU แบบกระจายอำนาจและไม่มีตำแหน่งร่วมได้หรือไม่ OpenAI วางแผนที่จะสร้างศูนย์ฝึกอบรมแห่งใหม่ที่มี GPU มากกว่า 75,000 ตัวในรัฐแอริโซนา ปัญหาเหล่านี้ล้วนได้รับการแก้ไขด้วยการจัดกำหนดการเลเยอร์ เช่น FedML, Io.net และ Gensyn