Akash là một nền tảng điện toán phi tập trung được thiết kế để kết nối các nguồn cung cấp GPU chưa được sử dụng đúng mức với những người dùng có nhu cầu tính toán GPU, nhằm mục đích trở thành “Airbnb” của điện toán GPU. Không giống như các đối thủ cạnh tranh khác, họ chủ yếu tập trung vào điện toán GPU cấp doanh nghiệp nói chung. Kể từ khi ra mắt mạng chính GPU vào tháng 9 năm 2023, họ đã có 150-200 GPU trên mạng của mình, với tỷ lệ sử dụng đạt 50-70% và tổng giá trị giao dịch hàng năm từ 500.000 đến 1 triệu USD. Phù hợp với thị trường mạng lưới, Akash tính phí giao dịch 20% cho các khoản thanh toán USDC.
Chúng tôi đang ở giai đoạn đầu của quá trình chuyển đổi cơ sở hạ tầng quy mô lớn, với khả năng xử lý song song dựa trên GPU ngày càng gia tăng. Dự kiến trí tuệ nhân tạo sẽ tăng GDP toàn cầu thêm 7 nghìn tỷ USD, đồng thời tự động hóa 300 triệu việc làm. Nvidia, nhà sản xuất GPU, dự kiến doanh thu của họ sẽ tăng từ 27 tỷ USD vào năm 2022 lên 60 tỷ USD vào năm 2023, đạt xấp xỉ 100 tỷ USD vào năm 2025. Chi tiêu vốn của các nhà cung cấp điện toán đám mây (AWS, GCP, Azure, v.v.) cho chip Nvidia đã tăng từ một con số lên 25% và dự kiến sẽ vượt 50% trong những năm tới. (Nguồn: Koyfin)
Morgan Stanley ước tính rằng đến năm 2025, cơ hội cho cơ sở hạ tầng GPU quy mô cực lớn dưới dạng dịch vụ (IaaS) sẽ đạt 40-50 tỷ USD. Ví dụ: nếu 30% điện toán GPU được bán lại với mức chiết khấu 30% thông qua thị trường thứ cấp thì điều này sẽ thể hiện cơ hội doanh thu là 10 tỷ USD. Thêm một cơ hội doanh thu 5 tỷ USD nữa từ các nguồn không có quy mô cực lớn, tổng cơ hội doanh thu sẽ là 15 tỷ USD. Giả sử Akash có thể chiếm được 33% thị phần của cơ hội này (tổng giá trị giao dịch là 5 tỷ USD) và tính phí giao dịch 20%, điều này sẽ mang lại doanh thu ròng là 1 tỷ USD. Nếu chúng ta nhân con số này với 10, kết quả sẽ là gần 10 tỷ USD vốn hóa thị trường.
Vào tháng 11 năm 2022, OpenAI ra mắt ChatGPT, lập kỷ lục về tốc độ tăng trưởng cơ sở người dùng nhanh nhất, đạt 100 triệu người dùng vào tháng 1 năm 2023 và 200 triệu người dùng vào tháng 5. Tác động của điều này là rất lớn, với ước tính cho thấy rằng việc tăng năng suất và tự động hóa 3 triệu việc làm sẽ làm tăng GDP toàn cầu thêm 7 nghìn tỷ USD.
Trí tuệ nhân tạo đã nhanh chóng phát triển từ một lĩnh vực nghiên cứu nhỏ thành trọng tâm chi tiêu lớn nhất cho các công ty. Chi phí tạo ra GPT-4 là 100 triệu USD, với chi phí vận hành hàng năm là 250 triệu USD. GPT-5 yêu cầu 25.000 GPU A100 (tương đương 2,25 tỷ USD phần cứng Nvidia) và có thể yêu cầu tổng đầu tư phần cứng là 10 tỷ USD. Điều này đã gây ra một cuộc chạy đua vũ trang giữa các công ty để đảm bảo có đủ GPU hỗ trợ khối lượng công việc doanh nghiệp do AI điều khiển.
Cuộc cách mạng trí tuệ nhân tạo đã tạo ra sự thay đổi to lớn về cơ sở hạ tầng, đẩy nhanh quá trình chuyển đổi từ xử lý song song CPU sang GPU. Trong lịch sử, GPU đã được sử dụng để xử lý hình ảnh và hiển thị quy mô lớn đồng thời, trong khi CPU được thiết kế để thực thi nối tiếp, không có khả năng thực hiện các hoạt động đồng thời như vậy. Do băng thông bộ nhớ cao, GPU đã dần phát triển để xử lý các tính toán khác với các vấn đề song song, chẳng hạn như đào tạo, tối ưu hóa và cải thiện các mô hình trí tuệ nhân tạo.
Nvidia, công ty tiên phong về công nghệ GPU vào những năm 1990, đã kết hợp phần cứng hàng đầu của mình với nền tảng phần mềm CUDA, thiết lập vị trí dẫn đầu so với các đối thủ (chủ yếu là AMD và Intel) trong nhiều năm. Ngăn xếp CUDA của Nvidia được phát triển vào năm 2006, cho phép các nhà phát triển tối ưu hóa GPU Nvidia để tăng tốc khối lượng công việc của họ và đơn giản hóa việc lập trình GPU. Với 4 triệu người dùng CUDA và hơn 50.000 nhà phát triển sử dụng CUDA để phát triển, nó tự hào có một hệ sinh thái mạnh mẽ gồm các ngôn ngữ lập trình, thư viện, công cụ, ứng dụng và khung. Theo thời gian, chúng tôi kỳ vọng GPU Nvidia sẽ vượt qua CPU Intel và AMD trong các trung tâm dữ liệu.
Chi tiêu cho GPU Nvidia của các nhà cung cấp dịch vụ đám mây siêu quy mô và các công ty công nghệ lớn đã tăng nhanh chóng từ tỷ lệ phần trăm thấp một chữ số vào đầu những năm 2010 lên mức trung bình một chữ số từ năm 2015 đến năm 2022 và lên 25% vào năm 2023. Chúng tôi tin rằng Nvidia sẽ chiếm hơn 50% chi phí vốn của các nhà cung cấp dịch vụ đám mây trong những năm tới. Điều này dự kiến sẽ thúc đẩy doanh thu của Nvidia từ 25 tỷ USD vào năm 2022 lên 100 tỷ USD vào năm 2025 (Nguồn: Koyfin).
Morgan Stanley ước tính rằng đến năm 2025, quy mô thị trường cơ sở hạ tầng GPU dưới dạng dịch vụ (IaaS) dành cho các nhà cung cấp dịch vụ đám mây siêu quy mô sẽ đạt 40-50 tỷ USD. Đây vẫn chỉ là một phần nhỏ trong tổng doanh thu của các nhà cung cấp dịch vụ đám mây siêu quy mô, trong đó ba nhà cung cấp dịch vụ đám mây siêu quy mô hàng đầu hiện tạo ra doanh thu hơn 250 tỷ USD.
Do nhu cầu về GPU tăng cao, tình trạng thiếu GPU đã được các phương tiện truyền thông như The New York Times và The Wall Street Journal đưa tin rộng rãi. Giám đốc điều hành của AWS cho biết: “Cầu vượt quá cung, điều này đúng với tất cả mọi người”. Elon Musk cho biết trong cuộc họp báo thu nhập quý 2 năm 2023 của Tesla: “Chúng tôi sẽ tiếp tục sử dụng—chúng tôi sẽ nhận được phần cứng Nvidia càng sớm càng tốt”.
Index Ventures đã phải mua chip cho các công ty trong danh mục đầu tư của mình. Gần như không thể mua chip từ Nvidia ngoài các công ty công nghệ chính thống và việc mua chip từ các nhà cung cấp dịch vụ đám mây siêu quy mô cũng mất nhiều thời gian.
Dưới đây là giá GPU cho AWS và Azure. Như hiển thị bên dưới, giảm giá 30-65% dành cho đặt phòng từ 1-3 năm. Khi các nhà cung cấp dịch vụ đám mây siêu quy mô đầu tư hàng tỷ đô la vào việc mở rộng công suất, họ đang tìm kiếm cơ hội đầu tư mang lại khả năng hiển thị doanh thu. Nếu khách hàng dự đoán tỷ lệ sử dụng vượt quá 60%, tốt nhất nên chọn mức giá đặt trước trong 1 năm. Nếu tỷ lệ sử dụng dự kiến vượt quá 35%, hãy chọn 3 năm. Mọi công suất không sử dụng đều có thể được bán lại, giúp giảm đáng kể tổng chi phí.
Nếu một nhà cung cấp dịch vụ đám mây siêu quy mô thành lập doanh nghiệp cho thuê máy tính GPU trị giá 50 tỷ USD thì việc bán lại sức mạnh tính toán chưa sử dụng sẽ là một cơ hội lớn. Giả sử rằng 30% sức mạnh tính toán được bán lại với mức chiết khấu 30%, điều này sẽ tạo ra một thị trường trị giá 10 tỷ USD để bán lại sức mạnh tính toán GPU của các nhà cung cấp dịch vụ đám mây siêu quy mô.
Tuy nhiên, ngoài các nhà cung cấp dịch vụ đám mây siêu quy mô, còn có các nguồn cung cấp khác, bao gồm các doanh nghiệp lớn (như Meta, Tesla), đối thủ cạnh tranh (CoreWeave, Lambda, v.v.) và các công ty khởi nghiệp AI được tài trợ tốt. Từ năm 2022 đến năm 2025, Nvidia dự kiến sẽ tạo ra doanh thu khoảng 300 tỷ USD. Giả sử có thêm số chip trị giá 70 tỷ USD bên ngoài các nhà cung cấp dịch vụ đám mây siêu quy mô, việc bán lại 20% sức mạnh tính toán với mức chiết khấu 30% sẽ cộng thêm 10 tỷ USD nữa, tổng cộng là 200 tỷ USD.
Akash là một thị trường điện toán phi tập trung được thành lập vào năm 2015 và ra mắt mạng chính dưới dạng chuỗi ứng dụng Cosmos vào tháng 9 năm 2020. Tầm nhìn của nó là dân chủ hóa điện toán đám mây bằng cách cung cấp tài nguyên điện toán rẻ hơn đáng kể so với các nhà cung cấp dịch vụ đám mây siêu quy mô.
Blockchain xử lý việc phối hợp và giải quyết, lưu trữ hồ sơ yêu cầu, đấu thầu, cho thuê và thanh toán trong khi việc thực thi được thực hiện ngoài chuỗi. Akash lưu trữ các vùng chứa nơi người dùng có thể chạy bất kỳ ứng dụng gốc trên nền tảng đám mây nào. Akash đã xây dựng một bộ dịch vụ quản lý đám mây, bao gồm Kubernetes, để sắp xếp và quản lý các vùng chứa này. Việc triển khai được chuyển từ một mạng ngang hàng riêng tư được tách biệt khỏi chuỗi khối.
Phiên bản đầu tiên của Akash tập trung vào tính toán CPU. Vào thời kỳ đỉnh cao, doanh nghiệp có tổng khối lượng giao dịch hàng năm khoảng 200.000 USD, cho thuê 4-5 nghìn CPU. Tuy nhiên, có hai vấn đề chính: rào cản gia nhập (yêu cầu khởi động ví Cosmos và sử dụng mã thông báo AKT để thanh toán cho khối lượng công việc) và sự rời bỏ của khách hàng (phải nạp tiền vào ví bằng AKT và nếu AKT hết hoặc giá thay đổi, khối lượng công việc sẽ dừng lại không có nhà cung cấp thay thế).
Trong năm qua, Akash đã chuyển đổi từ điện toán CPU sang điện toán GPU, tận dụng sự thay đổi mô hình này trong cơ sở hạ tầng máy tính và tình trạng thiếu nguồn cung.
Mạng GPU của Akash sẽ được ra mắt trên mạng chính vào tháng 9 năm 2023. Kể từ đó, Akash đã mở rộng quy mô lên 150-200 GPU và đạt tỷ lệ sử dụng 50-70%.
Dưới đây là so sánh giá Nvidia A100 từ một số nhà cung cấp. Giá của Akash rẻ hơn 30-60% so với đối thủ.
Có khoảng 19 nhà cung cấp duy nhất trên mạng lưới Akash, có trụ sở tại 7 quốc gia, cung cấp hơn 15 loại chip. Nhà cung cấp lớn nhất là Foundry, một công ty được DCG hậu thuẫn cũng tham gia vào hoạt động khai thác và đặt cược tiền điện tử.
Akash tập trung chủ yếu vào chip doanh nghiệp (A100), vốn thường được sử dụng để hỗ trợ khối lượng công việc AI. Mặc dù họ cũng cung cấp một số chip tiêu dùng, nhưng trước đây chúng thường khó sử dụng cho AI do các vấn đề về tiêu thụ điện năng, phần mềm và độ trễ. Một số công ty, chẳng hạn như FedML, io.net và Gensyn, đang cố gắng xây dựng một lớp điều phối để kích hoạt tính toán biên AI.
Khi thị trường ngày càng chuyển sang hướng suy luận hơn là đào tạo, GPU cấp độ người tiêu dùng có thể trở nên khả thi hơn, nhưng hiện tại thị trường đang tập trung vào việc sử dụng chip cấp doanh nghiệp để đào tạo.
Về phía cung, Akash tập trung vào các nhà cung cấp dịch vụ đám mây siêu quy mô công cộng, nhà cung cấp GPU tư nhân, công cụ khai thác tiền điện tử và các doanh nghiệp nắm giữ GPU không được sử dụng đúng mức.
Trong hầu hết năm 2022 và 2023, trước khi ra mắt mạng GPU, Tổng giá trị hàng hóa (GMV) hàng năm cho CPU là khoảng 50.000 USD. Kể từ khi mạng GPU ra đời, GMV đã đạt mức hàng năm từ 500.000 USD đến 1.000.000 USD, với tỷ lệ sử dụng trên mạng GPU dao động từ 50% đến 70%.
Akash đã và đang nỗ lực giảm thiểu sự cản trở của người dùng, cải thiện trải nghiệm người dùng và mở rộng các trường hợp sử dụng.
Akash cũng đang xác thực các trường hợp sử dụng thông qua mạng. Trong Mạng thử nghiệm GPU, cộng đồng đã chứng minh rằng họ có thể sử dụng mạng để triển khai và chạy suy luận trên nhiều mô hình AI phổ biến. Các ứng dụng Akash Chat và Stable Diffusion XL đều thể hiện khả năng chạy suy luận của Akash. Chúng tôi tin rằng theo thời gian, thị trường suy luận sẽ lớn hơn nhiều so với thị trường đào tạo. Tìm kiếm dựa trên AI ngày nay có giá 0,02 USD (gấp 10 lần chi phí hiện tại của Google). Cho rằng có 3 nghìn tỷ lượt tìm kiếm mỗi năm, con số này sẽ là 60 tỷ USD mỗi năm. Để đưa điều này vào bối cảnh, việc đào tạo một mô hình OpenAI tiêu tốn khoảng 100 triệu USD. Mặc dù chi phí có thể sẽ thấp hơn cho cả hai, nhưng điều này làm nổi bật sự khác biệt đáng kể trong nhóm doanh thu dài hạn.
Nhận thấy rằng hầu hết nhu cầu về chip cao cấp ngày nay đều tập trung vào đào tạo, Akash hiện cũng đang nỗ lực chứng minh rằng họ có thể sử dụng mạng Akash để đào tạo một mô hình mà họ dự định ra mắt vào đầu năm 2024. Sau khi sử dụng các tấm bán dẫn đồng nhất từ một nhà cung cấp duy nhất, dự án tiếp theo sẽ là sử dụng các tấm bán dẫn không đồng nhất từ nhiều nhà cung cấp.
Lộ trình của Akash rất lớn. Một số tính năng hiện tại của sản phẩm bao gồm hỗ trợ quản lý quyền riêng tư, phiên bản theo yêu cầu/dự trữ và khả năng phát hiện tốt hơn.
Akash tính phí xử lý 4% đối với thanh toán AKT và 20% phí xử lý đối với thanh toán USDC. Mức phí 20% này tương tự như những gì chúng ta thấy ở các thị trường trực tuyến truyền thống (ví dụ: Uber là 30%).
Akash có khoảng 58% số token đang lưu hành (225 triệu đang lưu hành, nguồn cung tối đa 388 triệu). Tỷ lệ lạm phát hàng năm đã tăng từ 8% lên 13%. Hiện tại, 60% số token lưu hành đã bị khóa, thời gian khóa là 21 ngày.
Tỷ lệ phí 40% (trước đây là 25%) lạm phát và GMV cũng sẽ được đưa vào nhóm cộng đồng, hiện đang nắm giữ 10 triệu đô la mã thông báo AKT.
Mục đích của các quỹ này vẫn đang được xác định, nhưng sẽ được phân bổ giữa các quỹ công, ưu đãi của nhà cung cấp, đặt cược, đốt tiềm năng và nhóm cộng đồng.
Vào ngày 19 tháng 1, Akash đã triển khai chương trình khuyến khích thí điểm trị giá 5 triệu USD nhằm đưa 1.000 chiếc A100 lên nền tảng này. Theo thời gian, mục tiêu là cung cấp khả năng hiển thị doanh thu từ phía cung (ví dụ: mức sử dụng hiệu quả 95%) cho các nhà cung cấp tham gia thị trường.
Dưới đây là một số tình huống và giả định minh họa về các động lực chính của Akash:
Kịch bản ngắn hạn: Chúng tôi ước tính rằng nếu Akash có thể đạt 15.000 chiếc A100 thì điều này sẽ tạo ra gần 150 triệu USD GMV. Với tỷ lệ hoa hồng 20%, điều này sẽ mang lại cho Akash 30 triệu USD phí thỏa thuận. Với quỹ đạo tăng trưởng, nhân con số này với 100 (có tính đến định giá AI), số tiền này sẽ trị giá 3 tỷ USD.
Trường hợp cơ bản: Chúng tôi giả định cơ hội thị trường IaaS phù hợp với ước tính 50 tỷ USD của Morgan Stanley. Giả sử sử dụng 70% thì công suất có thể bán lại là 15 tỷ USD. Giả sử giảm 30% công suất này, chúng ta nhận được 10 tỷ USD, cộng thêm 10 tỷ USD từ các nguồn không thể tăng quy mô khác. Do các thị trường thường có hào quang mạnh mẽ, chúng tôi giả định Akash có thể đạt được 33% thị phần (20% thị phần cho thuê nhà nghỉ dưỡng của Airbnb, 75% thị phần chia sẻ chuyến đi của Uber và 65% thị phần giao đồ ăn của Doordash). Với tỷ lệ hoa hồng 20%, điều này sẽ tạo ra 1 tỷ USD phí giao thức. Nhân nó với 10, Akash sẽ thu được kết quả 10 tỷ USD.
Trường hợp hướng lên: Trường hợp hướng lên của chúng tôi sử dụng cùng một khuôn khổ với trường hợp cơ sở. Chúng tôi giả định cơ hội bán lại trị giá 20 tỷ USD nhờ khả năng thâm nhập vào nhiều nguồn GPU độc đáo hơn và tăng trưởng thị phần cao hơn.
Thông tin cơ bản: Nvidia là công ty niêm yết có vốn hóa thị trường là 1,2 nghìn tỷ USD, trong khi OpenAI được định giá 80 tỷ USD trên thị trường tư nhân, Anthropic được định giá 20 tỷ USD và CoreWeave được định giá 7 tỷ USD. Trong không gian tiền điện tử, Render và TAO lần lượt được định giá hơn 2 tỷ USD và hơn 5,5 tỷ USD.
Sự tập trung của cung và cầu: Hiện tại, phần lớn nhu cầu GPU đến từ các công ty công nghệ lớn để đào tạo LLM (Mô hình ngôn ngữ lớn) cực kỳ lớn và phức tạp. Theo thời gian, chúng tôi dự đoán sẽ có nhiều sự quan tâm hơn đến việc đào tạo các mô hình AI quy mô nhỏ hơn, rẻ hơn và phù hợp hơn để xử lý dữ liệu riêng tư. Việc tinh chỉnh sẽ ngày càng trở nên quan trọng khi các mô hình chuyển từ mục đích chung sang cụ thể theo chiều dọc. Cuối cùng, khi việc sử dụng và áp dụng tăng tốc, khả năng suy luận sẽ ngày càng trở nên quan trọng.
Cạnh tranh: Có rất nhiều công ty tiền điện tử và phi tiền điện tử đang cố gắng giải phóng các GPU không được sử dụng đúng mức. Một số giao thức mã hóa đáng chú ý hơn là:
Các vấn đề về độ trễ và thách thức kỹ thuật: Do việc đào tạo AI là một nhiệm vụ cực kỳ tốn nhiều tài nguyên và xét rằng tất cả các chip đều được đặt trong một trung tâm dữ liệu, nên không rõ liệu các mô hình có thể được đào tạo trên các ngăn xếp GPU phi tập trung, không cùng vị trí hay không. OpenAI có kế hoạch xây dựng cơ sở đào tạo tiếp theo với hơn 75.000 GPU ở Arizona. Đây là tất cả các vấn đề đang được giải quyết bằng cách lập lịch các lớp như FedML, Io.net và Gensyn.
Akash là một nền tảng điện toán phi tập trung được thiết kế để kết nối các nguồn cung cấp GPU chưa được sử dụng đúng mức với những người dùng có nhu cầu tính toán GPU, nhằm mục đích trở thành “Airbnb” của điện toán GPU. Không giống như các đối thủ cạnh tranh khác, họ chủ yếu tập trung vào điện toán GPU cấp doanh nghiệp nói chung. Kể từ khi ra mắt mạng chính GPU vào tháng 9 năm 2023, họ đã có 150-200 GPU trên mạng của mình, với tỷ lệ sử dụng đạt 50-70% và tổng giá trị giao dịch hàng năm từ 500.000 đến 1 triệu USD. Phù hợp với thị trường mạng lưới, Akash tính phí giao dịch 20% cho các khoản thanh toán USDC.
Chúng tôi đang ở giai đoạn đầu của quá trình chuyển đổi cơ sở hạ tầng quy mô lớn, với khả năng xử lý song song dựa trên GPU ngày càng gia tăng. Dự kiến trí tuệ nhân tạo sẽ tăng GDP toàn cầu thêm 7 nghìn tỷ USD, đồng thời tự động hóa 300 triệu việc làm. Nvidia, nhà sản xuất GPU, dự kiến doanh thu của họ sẽ tăng từ 27 tỷ USD vào năm 2022 lên 60 tỷ USD vào năm 2023, đạt xấp xỉ 100 tỷ USD vào năm 2025. Chi tiêu vốn của các nhà cung cấp điện toán đám mây (AWS, GCP, Azure, v.v.) cho chip Nvidia đã tăng từ một con số lên 25% và dự kiến sẽ vượt 50% trong những năm tới. (Nguồn: Koyfin)
Morgan Stanley ước tính rằng đến năm 2025, cơ hội cho cơ sở hạ tầng GPU quy mô cực lớn dưới dạng dịch vụ (IaaS) sẽ đạt 40-50 tỷ USD. Ví dụ: nếu 30% điện toán GPU được bán lại với mức chiết khấu 30% thông qua thị trường thứ cấp thì điều này sẽ thể hiện cơ hội doanh thu là 10 tỷ USD. Thêm một cơ hội doanh thu 5 tỷ USD nữa từ các nguồn không có quy mô cực lớn, tổng cơ hội doanh thu sẽ là 15 tỷ USD. Giả sử Akash có thể chiếm được 33% thị phần của cơ hội này (tổng giá trị giao dịch là 5 tỷ USD) và tính phí giao dịch 20%, điều này sẽ mang lại doanh thu ròng là 1 tỷ USD. Nếu chúng ta nhân con số này với 10, kết quả sẽ là gần 10 tỷ USD vốn hóa thị trường.
Vào tháng 11 năm 2022, OpenAI ra mắt ChatGPT, lập kỷ lục về tốc độ tăng trưởng cơ sở người dùng nhanh nhất, đạt 100 triệu người dùng vào tháng 1 năm 2023 và 200 triệu người dùng vào tháng 5. Tác động của điều này là rất lớn, với ước tính cho thấy rằng việc tăng năng suất và tự động hóa 3 triệu việc làm sẽ làm tăng GDP toàn cầu thêm 7 nghìn tỷ USD.
Trí tuệ nhân tạo đã nhanh chóng phát triển từ một lĩnh vực nghiên cứu nhỏ thành trọng tâm chi tiêu lớn nhất cho các công ty. Chi phí tạo ra GPT-4 là 100 triệu USD, với chi phí vận hành hàng năm là 250 triệu USD. GPT-5 yêu cầu 25.000 GPU A100 (tương đương 2,25 tỷ USD phần cứng Nvidia) và có thể yêu cầu tổng đầu tư phần cứng là 10 tỷ USD. Điều này đã gây ra một cuộc chạy đua vũ trang giữa các công ty để đảm bảo có đủ GPU hỗ trợ khối lượng công việc doanh nghiệp do AI điều khiển.
Cuộc cách mạng trí tuệ nhân tạo đã tạo ra sự thay đổi to lớn về cơ sở hạ tầng, đẩy nhanh quá trình chuyển đổi từ xử lý song song CPU sang GPU. Trong lịch sử, GPU đã được sử dụng để xử lý hình ảnh và hiển thị quy mô lớn đồng thời, trong khi CPU được thiết kế để thực thi nối tiếp, không có khả năng thực hiện các hoạt động đồng thời như vậy. Do băng thông bộ nhớ cao, GPU đã dần phát triển để xử lý các tính toán khác với các vấn đề song song, chẳng hạn như đào tạo, tối ưu hóa và cải thiện các mô hình trí tuệ nhân tạo.
Nvidia, công ty tiên phong về công nghệ GPU vào những năm 1990, đã kết hợp phần cứng hàng đầu của mình với nền tảng phần mềm CUDA, thiết lập vị trí dẫn đầu so với các đối thủ (chủ yếu là AMD và Intel) trong nhiều năm. Ngăn xếp CUDA của Nvidia được phát triển vào năm 2006, cho phép các nhà phát triển tối ưu hóa GPU Nvidia để tăng tốc khối lượng công việc của họ và đơn giản hóa việc lập trình GPU. Với 4 triệu người dùng CUDA và hơn 50.000 nhà phát triển sử dụng CUDA để phát triển, nó tự hào có một hệ sinh thái mạnh mẽ gồm các ngôn ngữ lập trình, thư viện, công cụ, ứng dụng và khung. Theo thời gian, chúng tôi kỳ vọng GPU Nvidia sẽ vượt qua CPU Intel và AMD trong các trung tâm dữ liệu.
Chi tiêu cho GPU Nvidia của các nhà cung cấp dịch vụ đám mây siêu quy mô và các công ty công nghệ lớn đã tăng nhanh chóng từ tỷ lệ phần trăm thấp một chữ số vào đầu những năm 2010 lên mức trung bình một chữ số từ năm 2015 đến năm 2022 và lên 25% vào năm 2023. Chúng tôi tin rằng Nvidia sẽ chiếm hơn 50% chi phí vốn của các nhà cung cấp dịch vụ đám mây trong những năm tới. Điều này dự kiến sẽ thúc đẩy doanh thu của Nvidia từ 25 tỷ USD vào năm 2022 lên 100 tỷ USD vào năm 2025 (Nguồn: Koyfin).
Morgan Stanley ước tính rằng đến năm 2025, quy mô thị trường cơ sở hạ tầng GPU dưới dạng dịch vụ (IaaS) dành cho các nhà cung cấp dịch vụ đám mây siêu quy mô sẽ đạt 40-50 tỷ USD. Đây vẫn chỉ là một phần nhỏ trong tổng doanh thu của các nhà cung cấp dịch vụ đám mây siêu quy mô, trong đó ba nhà cung cấp dịch vụ đám mây siêu quy mô hàng đầu hiện tạo ra doanh thu hơn 250 tỷ USD.
Do nhu cầu về GPU tăng cao, tình trạng thiếu GPU đã được các phương tiện truyền thông như The New York Times và The Wall Street Journal đưa tin rộng rãi. Giám đốc điều hành của AWS cho biết: “Cầu vượt quá cung, điều này đúng với tất cả mọi người”. Elon Musk cho biết trong cuộc họp báo thu nhập quý 2 năm 2023 của Tesla: “Chúng tôi sẽ tiếp tục sử dụng—chúng tôi sẽ nhận được phần cứng Nvidia càng sớm càng tốt”.
Index Ventures đã phải mua chip cho các công ty trong danh mục đầu tư của mình. Gần như không thể mua chip từ Nvidia ngoài các công ty công nghệ chính thống và việc mua chip từ các nhà cung cấp dịch vụ đám mây siêu quy mô cũng mất nhiều thời gian.
Dưới đây là giá GPU cho AWS và Azure. Như hiển thị bên dưới, giảm giá 30-65% dành cho đặt phòng từ 1-3 năm. Khi các nhà cung cấp dịch vụ đám mây siêu quy mô đầu tư hàng tỷ đô la vào việc mở rộng công suất, họ đang tìm kiếm cơ hội đầu tư mang lại khả năng hiển thị doanh thu. Nếu khách hàng dự đoán tỷ lệ sử dụng vượt quá 60%, tốt nhất nên chọn mức giá đặt trước trong 1 năm. Nếu tỷ lệ sử dụng dự kiến vượt quá 35%, hãy chọn 3 năm. Mọi công suất không sử dụng đều có thể được bán lại, giúp giảm đáng kể tổng chi phí.
Nếu một nhà cung cấp dịch vụ đám mây siêu quy mô thành lập doanh nghiệp cho thuê máy tính GPU trị giá 50 tỷ USD thì việc bán lại sức mạnh tính toán chưa sử dụng sẽ là một cơ hội lớn. Giả sử rằng 30% sức mạnh tính toán được bán lại với mức chiết khấu 30%, điều này sẽ tạo ra một thị trường trị giá 10 tỷ USD để bán lại sức mạnh tính toán GPU của các nhà cung cấp dịch vụ đám mây siêu quy mô.
Tuy nhiên, ngoài các nhà cung cấp dịch vụ đám mây siêu quy mô, còn có các nguồn cung cấp khác, bao gồm các doanh nghiệp lớn (như Meta, Tesla), đối thủ cạnh tranh (CoreWeave, Lambda, v.v.) và các công ty khởi nghiệp AI được tài trợ tốt. Từ năm 2022 đến năm 2025, Nvidia dự kiến sẽ tạo ra doanh thu khoảng 300 tỷ USD. Giả sử có thêm số chip trị giá 70 tỷ USD bên ngoài các nhà cung cấp dịch vụ đám mây siêu quy mô, việc bán lại 20% sức mạnh tính toán với mức chiết khấu 30% sẽ cộng thêm 10 tỷ USD nữa, tổng cộng là 200 tỷ USD.
Akash là một thị trường điện toán phi tập trung được thành lập vào năm 2015 và ra mắt mạng chính dưới dạng chuỗi ứng dụng Cosmos vào tháng 9 năm 2020. Tầm nhìn của nó là dân chủ hóa điện toán đám mây bằng cách cung cấp tài nguyên điện toán rẻ hơn đáng kể so với các nhà cung cấp dịch vụ đám mây siêu quy mô.
Blockchain xử lý việc phối hợp và giải quyết, lưu trữ hồ sơ yêu cầu, đấu thầu, cho thuê và thanh toán trong khi việc thực thi được thực hiện ngoài chuỗi. Akash lưu trữ các vùng chứa nơi người dùng có thể chạy bất kỳ ứng dụng gốc trên nền tảng đám mây nào. Akash đã xây dựng một bộ dịch vụ quản lý đám mây, bao gồm Kubernetes, để sắp xếp và quản lý các vùng chứa này. Việc triển khai được chuyển từ một mạng ngang hàng riêng tư được tách biệt khỏi chuỗi khối.
Phiên bản đầu tiên của Akash tập trung vào tính toán CPU. Vào thời kỳ đỉnh cao, doanh nghiệp có tổng khối lượng giao dịch hàng năm khoảng 200.000 USD, cho thuê 4-5 nghìn CPU. Tuy nhiên, có hai vấn đề chính: rào cản gia nhập (yêu cầu khởi động ví Cosmos và sử dụng mã thông báo AKT để thanh toán cho khối lượng công việc) và sự rời bỏ của khách hàng (phải nạp tiền vào ví bằng AKT và nếu AKT hết hoặc giá thay đổi, khối lượng công việc sẽ dừng lại không có nhà cung cấp thay thế).
Trong năm qua, Akash đã chuyển đổi từ điện toán CPU sang điện toán GPU, tận dụng sự thay đổi mô hình này trong cơ sở hạ tầng máy tính và tình trạng thiếu nguồn cung.
Mạng GPU của Akash sẽ được ra mắt trên mạng chính vào tháng 9 năm 2023. Kể từ đó, Akash đã mở rộng quy mô lên 150-200 GPU và đạt tỷ lệ sử dụng 50-70%.
Dưới đây là so sánh giá Nvidia A100 từ một số nhà cung cấp. Giá của Akash rẻ hơn 30-60% so với đối thủ.
Có khoảng 19 nhà cung cấp duy nhất trên mạng lưới Akash, có trụ sở tại 7 quốc gia, cung cấp hơn 15 loại chip. Nhà cung cấp lớn nhất là Foundry, một công ty được DCG hậu thuẫn cũng tham gia vào hoạt động khai thác và đặt cược tiền điện tử.
Akash tập trung chủ yếu vào chip doanh nghiệp (A100), vốn thường được sử dụng để hỗ trợ khối lượng công việc AI. Mặc dù họ cũng cung cấp một số chip tiêu dùng, nhưng trước đây chúng thường khó sử dụng cho AI do các vấn đề về tiêu thụ điện năng, phần mềm và độ trễ. Một số công ty, chẳng hạn như FedML, io.net và Gensyn, đang cố gắng xây dựng một lớp điều phối để kích hoạt tính toán biên AI.
Khi thị trường ngày càng chuyển sang hướng suy luận hơn là đào tạo, GPU cấp độ người tiêu dùng có thể trở nên khả thi hơn, nhưng hiện tại thị trường đang tập trung vào việc sử dụng chip cấp doanh nghiệp để đào tạo.
Về phía cung, Akash tập trung vào các nhà cung cấp dịch vụ đám mây siêu quy mô công cộng, nhà cung cấp GPU tư nhân, công cụ khai thác tiền điện tử và các doanh nghiệp nắm giữ GPU không được sử dụng đúng mức.
Trong hầu hết năm 2022 và 2023, trước khi ra mắt mạng GPU, Tổng giá trị hàng hóa (GMV) hàng năm cho CPU là khoảng 50.000 USD. Kể từ khi mạng GPU ra đời, GMV đã đạt mức hàng năm từ 500.000 USD đến 1.000.000 USD, với tỷ lệ sử dụng trên mạng GPU dao động từ 50% đến 70%.
Akash đã và đang nỗ lực giảm thiểu sự cản trở của người dùng, cải thiện trải nghiệm người dùng và mở rộng các trường hợp sử dụng.
Akash cũng đang xác thực các trường hợp sử dụng thông qua mạng. Trong Mạng thử nghiệm GPU, cộng đồng đã chứng minh rằng họ có thể sử dụng mạng để triển khai và chạy suy luận trên nhiều mô hình AI phổ biến. Các ứng dụng Akash Chat và Stable Diffusion XL đều thể hiện khả năng chạy suy luận của Akash. Chúng tôi tin rằng theo thời gian, thị trường suy luận sẽ lớn hơn nhiều so với thị trường đào tạo. Tìm kiếm dựa trên AI ngày nay có giá 0,02 USD (gấp 10 lần chi phí hiện tại của Google). Cho rằng có 3 nghìn tỷ lượt tìm kiếm mỗi năm, con số này sẽ là 60 tỷ USD mỗi năm. Để đưa điều này vào bối cảnh, việc đào tạo một mô hình OpenAI tiêu tốn khoảng 100 triệu USD. Mặc dù chi phí có thể sẽ thấp hơn cho cả hai, nhưng điều này làm nổi bật sự khác biệt đáng kể trong nhóm doanh thu dài hạn.
Nhận thấy rằng hầu hết nhu cầu về chip cao cấp ngày nay đều tập trung vào đào tạo, Akash hiện cũng đang nỗ lực chứng minh rằng họ có thể sử dụng mạng Akash để đào tạo một mô hình mà họ dự định ra mắt vào đầu năm 2024. Sau khi sử dụng các tấm bán dẫn đồng nhất từ một nhà cung cấp duy nhất, dự án tiếp theo sẽ là sử dụng các tấm bán dẫn không đồng nhất từ nhiều nhà cung cấp.
Lộ trình của Akash rất lớn. Một số tính năng hiện tại của sản phẩm bao gồm hỗ trợ quản lý quyền riêng tư, phiên bản theo yêu cầu/dự trữ và khả năng phát hiện tốt hơn.
Akash tính phí xử lý 4% đối với thanh toán AKT và 20% phí xử lý đối với thanh toán USDC. Mức phí 20% này tương tự như những gì chúng ta thấy ở các thị trường trực tuyến truyền thống (ví dụ: Uber là 30%).
Akash có khoảng 58% số token đang lưu hành (225 triệu đang lưu hành, nguồn cung tối đa 388 triệu). Tỷ lệ lạm phát hàng năm đã tăng từ 8% lên 13%. Hiện tại, 60% số token lưu hành đã bị khóa, thời gian khóa là 21 ngày.
Tỷ lệ phí 40% (trước đây là 25%) lạm phát và GMV cũng sẽ được đưa vào nhóm cộng đồng, hiện đang nắm giữ 10 triệu đô la mã thông báo AKT.
Mục đích của các quỹ này vẫn đang được xác định, nhưng sẽ được phân bổ giữa các quỹ công, ưu đãi của nhà cung cấp, đặt cược, đốt tiềm năng và nhóm cộng đồng.
Vào ngày 19 tháng 1, Akash đã triển khai chương trình khuyến khích thí điểm trị giá 5 triệu USD nhằm đưa 1.000 chiếc A100 lên nền tảng này. Theo thời gian, mục tiêu là cung cấp khả năng hiển thị doanh thu từ phía cung (ví dụ: mức sử dụng hiệu quả 95%) cho các nhà cung cấp tham gia thị trường.
Dưới đây là một số tình huống và giả định minh họa về các động lực chính của Akash:
Kịch bản ngắn hạn: Chúng tôi ước tính rằng nếu Akash có thể đạt 15.000 chiếc A100 thì điều này sẽ tạo ra gần 150 triệu USD GMV. Với tỷ lệ hoa hồng 20%, điều này sẽ mang lại cho Akash 30 triệu USD phí thỏa thuận. Với quỹ đạo tăng trưởng, nhân con số này với 100 (có tính đến định giá AI), số tiền này sẽ trị giá 3 tỷ USD.
Trường hợp cơ bản: Chúng tôi giả định cơ hội thị trường IaaS phù hợp với ước tính 50 tỷ USD của Morgan Stanley. Giả sử sử dụng 70% thì công suất có thể bán lại là 15 tỷ USD. Giả sử giảm 30% công suất này, chúng ta nhận được 10 tỷ USD, cộng thêm 10 tỷ USD từ các nguồn không thể tăng quy mô khác. Do các thị trường thường có hào quang mạnh mẽ, chúng tôi giả định Akash có thể đạt được 33% thị phần (20% thị phần cho thuê nhà nghỉ dưỡng của Airbnb, 75% thị phần chia sẻ chuyến đi của Uber và 65% thị phần giao đồ ăn của Doordash). Với tỷ lệ hoa hồng 20%, điều này sẽ tạo ra 1 tỷ USD phí giao thức. Nhân nó với 10, Akash sẽ thu được kết quả 10 tỷ USD.
Trường hợp hướng lên: Trường hợp hướng lên của chúng tôi sử dụng cùng một khuôn khổ với trường hợp cơ sở. Chúng tôi giả định cơ hội bán lại trị giá 20 tỷ USD nhờ khả năng thâm nhập vào nhiều nguồn GPU độc đáo hơn và tăng trưởng thị phần cao hơn.
Thông tin cơ bản: Nvidia là công ty niêm yết có vốn hóa thị trường là 1,2 nghìn tỷ USD, trong khi OpenAI được định giá 80 tỷ USD trên thị trường tư nhân, Anthropic được định giá 20 tỷ USD và CoreWeave được định giá 7 tỷ USD. Trong không gian tiền điện tử, Render và TAO lần lượt được định giá hơn 2 tỷ USD và hơn 5,5 tỷ USD.
Sự tập trung của cung và cầu: Hiện tại, phần lớn nhu cầu GPU đến từ các công ty công nghệ lớn để đào tạo LLM (Mô hình ngôn ngữ lớn) cực kỳ lớn và phức tạp. Theo thời gian, chúng tôi dự đoán sẽ có nhiều sự quan tâm hơn đến việc đào tạo các mô hình AI quy mô nhỏ hơn, rẻ hơn và phù hợp hơn để xử lý dữ liệu riêng tư. Việc tinh chỉnh sẽ ngày càng trở nên quan trọng khi các mô hình chuyển từ mục đích chung sang cụ thể theo chiều dọc. Cuối cùng, khi việc sử dụng và áp dụng tăng tốc, khả năng suy luận sẽ ngày càng trở nên quan trọng.
Cạnh tranh: Có rất nhiều công ty tiền điện tử và phi tiền điện tử đang cố gắng giải phóng các GPU không được sử dụng đúng mức. Một số giao thức mã hóa đáng chú ý hơn là:
Các vấn đề về độ trễ và thách thức kỹ thuật: Do việc đào tạo AI là một nhiệm vụ cực kỳ tốn nhiều tài nguyên và xét rằng tất cả các chip đều được đặt trong một trung tâm dữ liệu, nên không rõ liệu các mô hình có thể được đào tạo trên các ngăn xếp GPU phi tập trung, không cùng vị trí hay không. OpenAI có kế hoạch xây dựng cơ sở đào tạo tiếp theo với hơn 75.000 GPU ở Arizona. Đây là tất cả các vấn đề đang được giải quyết bằng cách lập lịch các lớp như FedML, Io.net và Gensyn.