Từ Điện toán đám mây đến AI, liệu Akash có trở thành chú ngựa ô trong đường đua DePIN không?

Người mới bắt đầu2/18/2024, 5:47:59 AM
Bài viết này phân tích mô hình mã thông báo Akash và các kịch bản ứng dụng của nó.

Tóm tắt

Akash là một nền tảng điện toán phi tập trung được thiết kế để kết nối các nguồn cung cấp GPU chưa được sử dụng đúng mức với những người dùng có nhu cầu tính toán GPU, nhằm mục đích trở thành “Airbnb” của điện toán GPU. Không giống như các đối thủ cạnh tranh khác, họ chủ yếu tập trung vào điện toán GPU cấp doanh nghiệp nói chung. Kể từ khi ra mắt mạng chính GPU vào tháng 9 năm 2023, họ đã có 150-200 GPU trên mạng của mình, với tỷ lệ sử dụng đạt 50-70% và tổng giá trị giao dịch hàng năm từ 500.000 đến 1 triệu USD. Phù hợp với thị trường mạng lưới, Akash tính phí giao dịch 20% cho các khoản thanh toán USDC.

Chúng tôi đang ở giai đoạn đầu của quá trình chuyển đổi cơ sở hạ tầng quy mô lớn, với khả năng xử lý song song dựa trên GPU ngày càng gia tăng. Dự kiến trí tuệ nhân tạo sẽ tăng GDP toàn cầu thêm 7 nghìn tỷ USD, đồng thời tự động hóa 300 triệu việc làm. Nvidia, nhà sản xuất GPU, dự kiến doanh thu của họ sẽ tăng từ 27 tỷ USD vào năm 2022 lên 60 tỷ USD vào năm 2023, đạt xấp xỉ 100 tỷ USD vào năm 2025. Chi tiêu vốn của các nhà cung cấp điện toán đám mây (AWS, GCP, Azure, v.v.) cho chip Nvidia đã tăng từ một con số lên 25% và dự kiến sẽ vượt 50% trong những năm tới. (Nguồn: Koyfin)

Morgan Stanley ước tính rằng đến năm 2025, cơ hội cho cơ sở hạ tầng GPU quy mô cực lớn dưới dạng dịch vụ (IaaS) sẽ đạt 40-50 tỷ USD. Ví dụ: nếu 30% điện toán GPU được bán lại với mức chiết khấu 30% thông qua thị trường thứ cấp thì điều này sẽ thể hiện cơ hội doanh thu là 10 tỷ USD. Thêm một cơ hội doanh thu 5 tỷ USD nữa từ các nguồn không có quy mô cực lớn, tổng cơ hội doanh thu sẽ là 15 tỷ USD. Giả sử Akash có thể chiếm được 33% thị phần của cơ hội này (tổng giá trị giao dịch là 5 tỷ USD) và tính phí giao dịch 20%, điều này sẽ mang lại doanh thu ròng là 1 tỷ USD. Nếu chúng ta nhân con số này với 10, kết quả sẽ là gần 10 tỷ USD vốn hóa thị trường.

Tổng quan thị trường:

Vào tháng 11 năm 2022, OpenAI ra mắt ChatGPT, lập kỷ lục về tốc độ tăng trưởng cơ sở người dùng nhanh nhất, đạt 100 triệu người dùng vào tháng 1 năm 2023 và 200 triệu người dùng vào tháng 5. Tác động của điều này là rất lớn, với ước tính cho thấy rằng việc tăng năng suất và tự động hóa 3 triệu việc làm sẽ làm tăng GDP toàn cầu thêm 7 nghìn tỷ USD.

Trí tuệ nhân tạo đã nhanh chóng phát triển từ một lĩnh vực nghiên cứu nhỏ thành trọng tâm chi tiêu lớn nhất cho các công ty. Chi phí tạo ra GPT-4 là 100 triệu USD, với chi phí vận hành hàng năm là 250 triệu USD. GPT-5 yêu cầu 25.000 GPU A100 (tương đương 2,25 tỷ USD phần cứng Nvidia) và có thể yêu cầu tổng đầu tư phần cứng là 10 tỷ USD. Điều này đã gây ra một cuộc chạy đua vũ trang giữa các công ty để đảm bảo có đủ GPU hỗ trợ khối lượng công việc doanh nghiệp do AI điều khiển.

Cuộc cách mạng trí tuệ nhân tạo đã tạo ra sự thay đổi to lớn về cơ sở hạ tầng, đẩy nhanh quá trình chuyển đổi từ xử lý song song CPU sang GPU. Trong lịch sử, GPU đã được sử dụng để xử lý hình ảnh và hiển thị quy mô lớn đồng thời, trong khi CPU được thiết kế để thực thi nối tiếp, không có khả năng thực hiện các hoạt động đồng thời như vậy. Do băng thông bộ nhớ cao, GPU đã dần phát triển để xử lý các tính toán khác với các vấn đề song song, chẳng hạn như đào tạo, tối ưu hóa và cải thiện các mô hình trí tuệ nhân tạo.

Nvidia, công ty tiên phong về công nghệ GPU vào những năm 1990, đã kết hợp phần cứng hàng đầu của mình với nền tảng phần mềm CUDA, thiết lập vị trí dẫn đầu so với các đối thủ (chủ yếu là AMD và Intel) trong nhiều năm. Ngăn xếp CUDA của Nvidia được phát triển vào năm 2006, cho phép các nhà phát triển tối ưu hóa GPU Nvidia để tăng tốc khối lượng công việc của họ và đơn giản hóa việc lập trình GPU. Với 4 triệu người dùng CUDA và hơn 50.000 nhà phát triển sử dụng CUDA để phát triển, nó tự hào có một hệ sinh thái mạnh mẽ gồm các ngôn ngữ lập trình, thư viện, công cụ, ứng dụng và khung. Theo thời gian, chúng tôi kỳ vọng GPU Nvidia sẽ vượt qua CPU Intel và AMD trong các trung tâm dữ liệu.

Chi tiêu cho GPU Nvidia của các nhà cung cấp dịch vụ đám mây siêu quy mô và các công ty công nghệ lớn đã tăng nhanh chóng từ tỷ lệ phần trăm thấp một chữ số vào đầu những năm 2010 lên mức trung bình một chữ số từ năm 2015 đến năm 2022 và lên 25% vào năm 2023. Chúng tôi tin rằng Nvidia sẽ chiếm hơn 50% chi phí vốn của các nhà cung cấp dịch vụ đám mây trong những năm tới. Điều này dự kiến sẽ thúc đẩy doanh thu của Nvidia từ 25 tỷ USD vào năm 2022 lên 100 tỷ USD vào năm 2025 (Nguồn: Koyfin).

Morgan Stanley ước tính rằng đến năm 2025, quy mô thị trường cơ sở hạ tầng GPU dưới dạng dịch vụ (IaaS) dành cho các nhà cung cấp dịch vụ đám mây siêu quy mô sẽ đạt 40-50 tỷ USD. Đây vẫn chỉ là một phần nhỏ trong tổng doanh thu của các nhà cung cấp dịch vụ đám mây siêu quy mô, trong đó ba nhà cung cấp dịch vụ đám mây siêu quy mô hàng đầu hiện tạo ra doanh thu hơn 250 tỷ USD.

Do nhu cầu về GPU tăng cao, tình trạng thiếu GPU đã được các phương tiện truyền thông như The New York Times và The Wall Street Journal đưa tin rộng rãi. Giám đốc điều hành của AWS cho biết: “Cầu vượt quá cung, điều này đúng với tất cả mọi người”. Elon Musk cho biết trong cuộc họp báo thu nhập quý 2 năm 2023 của Tesla: “Chúng tôi sẽ tiếp tục sử dụng—chúng tôi sẽ nhận được phần cứng Nvidia càng sớm càng tốt”.

Index Ventures đã phải mua chip cho các công ty trong danh mục đầu tư của mình. Gần như không thể mua chip từ Nvidia ngoài các công ty công nghệ chính thống và việc mua chip từ các nhà cung cấp dịch vụ đám mây siêu quy mô cũng mất nhiều thời gian.

Dưới đây là giá GPU cho AWS và Azure. Như hiển thị bên dưới, giảm giá 30-65% dành cho đặt phòng từ 1-3 năm. Khi các nhà cung cấp dịch vụ đám mây siêu quy mô đầu tư hàng tỷ đô la vào việc mở rộng công suất, họ đang tìm kiếm cơ hội đầu tư mang lại khả năng hiển thị doanh thu. Nếu khách hàng dự đoán tỷ lệ sử dụng vượt quá 60%, tốt nhất nên chọn mức giá đặt trước trong 1 năm. Nếu tỷ lệ sử dụng dự kiến vượt quá 35%, hãy chọn 3 năm. Mọi công suất không sử dụng đều có thể được bán lại, giúp giảm đáng kể tổng chi phí.

Nếu một nhà cung cấp dịch vụ đám mây siêu quy mô thành lập doanh nghiệp cho thuê máy tính GPU trị giá 50 tỷ USD thì việc bán lại sức mạnh tính toán chưa sử dụng sẽ là một cơ hội lớn. Giả sử rằng 30% sức mạnh tính toán được bán lại với mức chiết khấu 30%, điều này sẽ tạo ra một thị trường trị giá 10 tỷ USD để bán lại sức mạnh tính toán GPU của các nhà cung cấp dịch vụ đám mây siêu quy mô.

Tuy nhiên, ngoài các nhà cung cấp dịch vụ đám mây siêu quy mô, còn có các nguồn cung cấp khác, bao gồm các doanh nghiệp lớn (như Meta, Tesla), đối thủ cạnh tranh (CoreWeave, Lambda, v.v.) và các công ty khởi nghiệp AI được tài trợ tốt. Từ năm 2022 đến năm 2025, Nvidia dự kiến sẽ tạo ra doanh thu khoảng 300 tỷ USD. Giả sử có thêm số chip trị giá 70 tỷ USD bên ngoài các nhà cung cấp dịch vụ đám mây siêu quy mô, việc bán lại 20% sức mạnh tính toán với mức chiết khấu 30% sẽ cộng thêm 10 tỷ USD nữa, tổng cộng là 200 tỷ USD.

Tổng quan về Akash

Akash là một thị trường điện toán phi tập trung được thành lập vào năm 2015 và ra mắt mạng chính dưới dạng chuỗi ứng dụng Cosmos vào tháng 9 năm 2020. Tầm nhìn của nó là dân chủ hóa điện toán đám mây bằng cách cung cấp tài nguyên điện toán rẻ hơn đáng kể so với các nhà cung cấp dịch vụ đám mây siêu quy mô.

Blockchain xử lý việc phối hợp và giải quyết, lưu trữ hồ sơ yêu cầu, đấu thầu, cho thuê và thanh toán trong khi việc thực thi được thực hiện ngoài chuỗi. Akash lưu trữ các vùng chứa nơi người dùng có thể chạy bất kỳ ứng dụng gốc trên nền tảng đám mây nào. Akash đã xây dựng một bộ dịch vụ quản lý đám mây, bao gồm Kubernetes, để sắp xếp và quản lý các vùng chứa này. Việc triển khai được chuyển từ một mạng ngang hàng riêng tư được tách biệt khỏi chuỗi khối.

Phiên bản đầu tiên của Akash tập trung vào tính toán CPU. Vào thời kỳ đỉnh cao, doanh nghiệp có tổng khối lượng giao dịch hàng năm khoảng 200.000 USD, cho thuê 4-5 nghìn CPU. Tuy nhiên, có hai vấn đề chính: rào cản gia nhập (yêu cầu khởi động ví Cosmos và sử dụng mã thông báo AKT để thanh toán cho khối lượng công việc) và sự rời bỏ của khách hàng (phải nạp tiền vào ví bằng AKT và nếu AKT hết hoặc giá thay đổi, khối lượng công việc sẽ dừng lại không có nhà cung cấp thay thế).

Trong năm qua, Akash đã chuyển đổi từ điện toán CPU sang điện toán GPU, tận dụng sự thay đổi mô hình này trong cơ sở hạ tầng máy tính và tình trạng thiếu nguồn cung.

Cung cấp GPU Akash

Mạng GPU của Akash sẽ được ra mắt trên mạng chính vào tháng 9 năm 2023. Kể từ đó, Akash đã mở rộng quy mô lên 150-200 GPU và đạt tỷ lệ sử dụng 50-70%.

Dưới đây là so sánh giá Nvidia A100 từ một số nhà cung cấp. Giá của Akash rẻ hơn 30-60% so với đối thủ.

Có khoảng 19 nhà cung cấp duy nhất trên mạng lưới Akash, có trụ sở tại 7 quốc gia, cung cấp hơn 15 loại chip. Nhà cung cấp lớn nhất là Foundry, một công ty được DCG hậu thuẫn cũng tham gia vào hoạt động khai thác và đặt cược tiền điện tử.

Akash tập trung chủ yếu vào chip doanh nghiệp (A100), vốn thường được sử dụng để hỗ trợ khối lượng công việc AI. Mặc dù họ cũng cung cấp một số chip tiêu dùng, nhưng trước đây chúng thường khó sử dụng cho AI do các vấn đề về tiêu thụ điện năng, phần mềm và độ trễ. Một số công ty, chẳng hạn như FedML, io.net và Gensyn, đang cố gắng xây dựng một lớp điều phối để kích hoạt tính toán biên AI.

Khi thị trường ngày càng chuyển sang hướng suy luận hơn là đào tạo, GPU cấp độ người tiêu dùng có thể trở nên khả thi hơn, nhưng hiện tại thị trường đang tập trung vào việc sử dụng chip cấp doanh nghiệp để đào tạo.

Về phía cung, Akash tập trung vào các nhà cung cấp dịch vụ đám mây siêu quy mô công cộng, nhà cung cấp GPU tư nhân, công cụ khai thác tiền điện tử và các doanh nghiệp nắm giữ GPU không được sử dụng đúng mức.

  1. Nhà cung cấp đám mây công cộng siêu quy mô: Tiềm năng lớn nhất nằm ở việc cho phép các nhà cung cấp dịch vụ đám mây công cộng lớn (Azure, AWS, GCP) cho phép khách hàng của họ bán lại công suất chưa được sử dụng đúng mức trên thị trường Akash. Điều này sẽ cung cấp cho họ khả năng hiển thị về doanh thu từ đầu tư vốn. Khi các nhà cung cấp dịch vụ đám mây lớn cho phép điều này, những nhà cung cấp khác có thể cần phải làm theo để duy trì thị phần cạnh tranh. Như đã đề cập trước đó, các nhà cung cấp dịch vụ đám mây lớn có thể có cơ hội Cơ sở hạ tầng dưới dạng dịch vụ (IaaS) trị giá 50 tỷ USD, tạo cơ hội giao dịch thứ cấp quy mô lớn cho thị trường Akash.
  2. Đối thủ cạnh tranh trên đám mây riêng: Ngoài các nhà cung cấp dịch vụ đám mây công cộng siêu quy mô, một số công ty đám mây riêng (CoreWeave, Lambda Labs, v.v.) cũng cung cấp dịch vụ cho thuê GPU. Với động lực cạnh tranh của các nhà cung cấp dịch vụ đám mây siêu quy mô đang cố gắng xây dựng ASIC của riêng họ làm phần cứng thay thế, Nvidia đã cung cấp thêm nguồn cung cho một số công ty tư nhân. Các đối thủ cạnh tranh tư nhân thường có giá rẻ hơn so với các nhà cung cấp đám mây siêu quy mô (ví dụ: A100 rẻ hơn tới 50%). CoreWeave, một trong những đối thủ cạnh tranh tư nhân nổi tiếng nhất, từng là một công ty khai thác tiền điện tử đã chuyển sang xây dựng trung tâm dữ liệu và cung cấp cơ sở hạ tầng GPU vào năm 2019. Nó đang huy động vốn với mức định giá 7 tỷ USD và được hỗ trợ bởi Nvidia. CoreWeave đang phát triển nhanh chóng, với doanh thu đạt 500 triệu USD vào năm 2023 và doanh thu dự kiến đạt 1,5-2 tỷ USD vào năm 2024. CoreWeave có 45.000 chip Nvidia và ước tính rằng các đối thủ cạnh tranh tư nhân này có thể có tổng cộng hơn 100.000 GPU. Việc kích hoạt thị trường thứ cấp cho cơ sở khách hàng của họ có thể cho phép các đối thủ cạnh tranh tư nhân này giành được thị phần trước các nhà cung cấp đám mây siêu quy mô công cộng.
  3. Thợ đào tiền điện tử: Thợ đào tiền điện tử từ lâu đã là người tiêu dùng chính của GPU Nvidia. Do tính phức tạp trong việc giải quyết các bằng chứng mật mã, GPU đã trở thành phần cứng chiếm ưu thế cho các mạng bằng chứng công việc. Với việc Ethereum chuyển từ bằng chứng công việc sang bằng chứng cổ phần, điều này đã dẫn đến sự dư thừa đáng kể về công suất. Người ta ước tính rằng khoảng 20% số chip được giải phóng có thể được tái sử dụng cho khối lượng công việc AI. Ngoài ra, các công ty khai thác Bitcoin cũng đang tìm cách đa dạng hóa nguồn doanh thu của họ. Trong vài tháng qua, Hut 8, Ứng dụng kỹ thuật số, Iris Energy, Hive và các công ty khai thác Bitcoin khác đều đã công bố các chiến lược học máy/trí tuệ nhân tạo. Foundry là nhà cung cấp lớn nhất trên Akash và là một trong những công ty khai thác Bitcoin lớn nhất.
  4. Doanh nghiệp: Như đã đề cập trước đó, Meta có số lượng GPU lớn, với 15.000 A100 với tỷ lệ sử dụng là 5%. Tương tự, Tesla cũng có 15.000 chiếc A100. Tỷ lệ sử dụng cho điện toán doanh nghiệp thường dưới 50%. Với khoản đầu tư vốn mạo hiểm đáng kể vào lĩnh vực này, nhiều công ty khởi nghiệp AI/ML cũng đã mua trước chip. Việc có thể bán lại công suất chưa sử dụng sẽ làm giảm tổng chi phí sở hữu cho các công ty nhỏ hơn này. Điều thú vị là có thể có những lợi thế về thuế khi cho thuê GPU cũ.

Phía cầu GPU Akash

Trong hầu hết năm 2022 và 2023, trước khi ra mắt mạng GPU, Tổng giá trị hàng hóa (GMV) hàng năm cho CPU là khoảng 50.000 USD. Kể từ khi mạng GPU ra đời, GMV đã đạt mức hàng năm từ 500.000 USD đến 1.000.000 USD, với tỷ lệ sử dụng trên mạng GPU dao động từ 50% đến 70%.

Akash đã và đang nỗ lực giảm thiểu sự cản trở của người dùng, cải thiện trải nghiệm người dùng và mở rộng các trường hợp sử dụng.

  1. Thanh toán USDC: Akash gần đây đã cho phép thanh toán ổn định bằng USDC, giúp khách hàng không bị biến động giá khi mua AKT và giữ AKT cho đến khi thanh toán.
  2. Hỗ trợ ví Metamask: Akash cũng đã triển khai Metamask Snap để giúp bắt đầu dễ dàng hơn mà không cần phải tạo ví dành riêng cho Cosmos.
  3. Hỗ trợ cấp doanh nghiệp: Overclock Labs, nhà sáng tạo Mạng Akash, đã ra mắt AkashML để giúp đưa người dùng đến Mạng Akash với sự hỗ trợ cấp doanh nghiệp dễ dàng hơn.
  4. Tự phục vụ: Cloudmos, gần đây đã được Akash mua lại, cũng giới thiệu giao diện tự phục vụ thân thiện với người dùng để triển khai GPU. Trước đây, việc triển khai phải được thực hiện thông qua mã dòng lệnh.
  5. Lựa chọn: Mặc dù trọng tâm chủ yếu là chip doanh nghiệp Nvidia, Akash cũng cung cấp chip tiêu dùng và tính đến cuối năm 2023, đã bổ sung hỗ trợ cho chip AMD.

Akash cũng đang xác thực các trường hợp sử dụng thông qua mạng. Trong Mạng thử nghiệm GPU, cộng đồng đã chứng minh rằng họ có thể sử dụng mạng để triển khai và chạy suy luận trên nhiều mô hình AI phổ biến. Các ứng dụng Akash Chat và Stable Diffusion XL đều thể hiện khả năng chạy suy luận của Akash. Chúng tôi tin rằng theo thời gian, thị trường suy luận sẽ lớn hơn nhiều so với thị trường đào tạo. Tìm kiếm dựa trên AI ngày nay có giá 0,02 USD (gấp 10 lần chi phí hiện tại của Google). Cho rằng có 3 nghìn tỷ lượt tìm kiếm mỗi năm, con số này sẽ là 60 tỷ USD mỗi năm. Để đưa điều này vào bối cảnh, việc đào tạo một mô hình OpenAI tiêu tốn khoảng 100 triệu USD. Mặc dù chi phí có thể sẽ thấp hơn cho cả hai, nhưng điều này làm nổi bật sự khác biệt đáng kể trong nhóm doanh thu dài hạn.

Nhận thấy rằng hầu hết nhu cầu về chip cao cấp ngày nay đều tập trung vào đào tạo, Akash hiện cũng đang nỗ lực chứng minh rằng họ có thể sử dụng mạng Akash để đào tạo một mô hình mà họ dự định ra mắt vào đầu năm 2024. Sau khi sử dụng các tấm bán dẫn đồng nhất từ một nhà cung cấp duy nhất, dự án tiếp theo sẽ là sử dụng các tấm bán dẫn không đồng nhất từ nhiều nhà cung cấp.

Lộ trình của Akash rất lớn. Một số tính năng hiện tại của sản phẩm bao gồm hỗ trợ quản lý quyền riêng tư, phiên bản theo yêu cầu/dự trữ và khả năng phát hiện tốt hơn.

Mô hình token và ưu đãi

Akash tính phí xử lý 4% đối với thanh toán AKT và 20% phí xử lý đối với thanh toán USDC. Mức phí 20% này tương tự như những gì chúng ta thấy ở các thị trường trực tuyến truyền thống (ví dụ: Uber là 30%).

Akash có khoảng 58% số token đang lưu hành (225 triệu đang lưu hành, nguồn cung tối đa 388 triệu). Tỷ lệ lạm phát hàng năm đã tăng từ 8% lên 13%. Hiện tại, 60% số token lưu hành đã bị khóa, thời gian khóa là 21 ngày.

Tỷ lệ phí 40% (trước đây là 25%) lạm phát và GMV cũng sẽ được đưa vào nhóm cộng đồng, hiện đang nắm giữ 10 triệu đô la mã thông báo AKT.

Mục đích của các quỹ này vẫn đang được xác định, nhưng sẽ được phân bổ giữa các quỹ công, ưu đãi của nhà cung cấp, đặt cược, đốt tiềm năng và nhóm cộng đồng.

Vào ngày 19 tháng 1, Akash đã triển khai chương trình khuyến khích thí điểm trị giá 5 triệu USD nhằm đưa 1.000 chiếc A100 lên nền tảng này. Theo thời gian, mục tiêu là cung cấp khả năng hiển thị doanh thu từ phía cung (ví dụ: mức sử dụng hiệu quả 95%) cho các nhà cung cấp tham gia thị trường.

Định giá và phân tích kịch bản

Dưới đây là một số tình huống và giả định minh họa về các động lực chính của Akash:

Kịch bản ngắn hạn: Chúng tôi ước tính rằng nếu Akash có thể đạt 15.000 chiếc A100 thì điều này sẽ tạo ra gần 150 triệu USD GMV. Với tỷ lệ hoa hồng 20%, điều này sẽ mang lại cho Akash 30 triệu USD phí thỏa thuận. Với quỹ đạo tăng trưởng, nhân con số này với 100 (có tính đến định giá AI), số tiền này sẽ trị giá 3 tỷ USD.

Trường hợp cơ bản: Chúng tôi giả định cơ hội thị trường IaaS phù hợp với ước tính 50 tỷ USD của Morgan Stanley. Giả sử sử dụng 70% thì công suất có thể bán lại là 15 tỷ USD. Giả sử giảm 30% công suất này, chúng ta nhận được 10 tỷ USD, cộng thêm 10 tỷ USD từ các nguồn không thể tăng quy mô khác. Do các thị trường thường có hào quang mạnh mẽ, chúng tôi giả định Akash có thể đạt được 33% thị phần (20% thị phần cho thuê nhà nghỉ dưỡng của Airbnb, 75% thị phần chia sẻ chuyến đi của Uber và 65% thị phần giao đồ ăn của Doordash). Với tỷ lệ hoa hồng 20%, điều này sẽ tạo ra 1 tỷ USD phí giao thức. Nhân nó với 10, Akash sẽ thu được kết quả 10 tỷ USD.

Trường hợp hướng lên: Trường hợp hướng lên của chúng tôi sử dụng cùng một khuôn khổ với trường hợp cơ sở. Chúng tôi giả định cơ hội bán lại trị giá 20 tỷ USD nhờ khả năng thâm nhập vào nhiều nguồn GPU độc đáo hơn và tăng trưởng thị phần cao hơn.

Thông tin cơ bản: Nvidia là công ty niêm yết có vốn hóa thị trường là 1,2 nghìn tỷ USD, trong khi OpenAI được định giá 80 tỷ USD trên thị trường tư nhân, Anthropic được định giá 20 tỷ USD và CoreWeave được định giá 7 tỷ USD. Trong không gian tiền điện tử, Render và TAO lần lượt được định giá hơn 2 tỷ USD và hơn 5,5 tỷ USD.

Rủi ro và biện pháp giảm thiểu:

Sự tập trung của cung và cầu: Hiện tại, phần lớn nhu cầu GPU đến từ các công ty công nghệ lớn để đào tạo LLM (Mô hình ngôn ngữ lớn) cực kỳ lớn và phức tạp. Theo thời gian, chúng tôi dự đoán sẽ có nhiều sự quan tâm hơn đến việc đào tạo các mô hình AI quy mô nhỏ hơn, rẻ hơn và phù hợp hơn để xử lý dữ liệu riêng tư. Việc tinh chỉnh sẽ ngày càng trở nên quan trọng khi các mô hình chuyển từ mục đích chung sang cụ thể theo chiều dọc. Cuối cùng, khi việc sử dụng và áp dụng tăng tốc, khả năng suy luận sẽ ngày càng trở nên quan trọng.

Cạnh tranh: Có rất nhiều công ty tiền điện tử và phi tiền điện tử đang cố gắng giải phóng các GPU không được sử dụng đúng mức. Một số giao thức mã hóa đáng chú ý hơn là:

  1. Render và Nosana đang phát hành GPU dành cho người tiêu dùng để suy luận.
  2. Cùng nhau thiết lập các mô hình đào tạo nguồn mở, cho phép các nhà phát triển xây dựng dựa trên chúng.
  3. Ritual đang xây dựng một mạng lưới cho các mô hình lưu trữ.

Các vấn đề về độ trễ và thách thức kỹ thuật: Do việc đào tạo AI là một nhiệm vụ cực kỳ tốn nhiều tài nguyên và xét rằng tất cả các chip đều được đặt trong một trung tâm dữ liệu, nên không rõ liệu các mô hình có thể được đào tạo trên các ngăn xếp GPU phi tập trung, không cùng vị trí hay không. OpenAI có kế hoạch xây dựng cơ sở đào tạo tiếp theo với hơn 75.000 GPU ở Arizona. Đây là tất cả các vấn đề đang được giải quyết bằng cách lập lịch các lớp như FedML, Io.net và Gensyn.

Tuyên bố từ chối trách nhiệm:

  1. Bài viết này được in lại từ [Tin tức tầm nhìn xa]. Mọi bản quyền đều thuộc về tác giả gốc [Vincent Jow]. Nếu có ý kiến phản đối việc tái bản này, vui lòng liên hệ với nhóm Gate Learn , họ sẽ xử lý kịp thời.
  2. Tuyên bố miễn trừ trách nhiệm pháp lý: Các quan điểm và ý kiến trình bày trong bài viết này chỉ là của tác giả và không cấu thành bất kỳ lời khuyên đầu tư nào.
  3. Việc dịch bài viết sang các ngôn ngữ khác được thực hiện bởi nhóm Gate Learn. Trừ khi được đề cập, việc sao chép, phân phối hoặc đạo văn các bài viết đã dịch đều bị cấm.

Từ Điện toán đám mây đến AI, liệu Akash có trở thành chú ngựa ô trong đường đua DePIN không?

Người mới bắt đầu2/18/2024, 5:47:59 AM
Bài viết này phân tích mô hình mã thông báo Akash và các kịch bản ứng dụng của nó.

Tóm tắt

Akash là một nền tảng điện toán phi tập trung được thiết kế để kết nối các nguồn cung cấp GPU chưa được sử dụng đúng mức với những người dùng có nhu cầu tính toán GPU, nhằm mục đích trở thành “Airbnb” của điện toán GPU. Không giống như các đối thủ cạnh tranh khác, họ chủ yếu tập trung vào điện toán GPU cấp doanh nghiệp nói chung. Kể từ khi ra mắt mạng chính GPU vào tháng 9 năm 2023, họ đã có 150-200 GPU trên mạng của mình, với tỷ lệ sử dụng đạt 50-70% và tổng giá trị giao dịch hàng năm từ 500.000 đến 1 triệu USD. Phù hợp với thị trường mạng lưới, Akash tính phí giao dịch 20% cho các khoản thanh toán USDC.

Chúng tôi đang ở giai đoạn đầu của quá trình chuyển đổi cơ sở hạ tầng quy mô lớn, với khả năng xử lý song song dựa trên GPU ngày càng gia tăng. Dự kiến trí tuệ nhân tạo sẽ tăng GDP toàn cầu thêm 7 nghìn tỷ USD, đồng thời tự động hóa 300 triệu việc làm. Nvidia, nhà sản xuất GPU, dự kiến doanh thu của họ sẽ tăng từ 27 tỷ USD vào năm 2022 lên 60 tỷ USD vào năm 2023, đạt xấp xỉ 100 tỷ USD vào năm 2025. Chi tiêu vốn của các nhà cung cấp điện toán đám mây (AWS, GCP, Azure, v.v.) cho chip Nvidia đã tăng từ một con số lên 25% và dự kiến sẽ vượt 50% trong những năm tới. (Nguồn: Koyfin)

Morgan Stanley ước tính rằng đến năm 2025, cơ hội cho cơ sở hạ tầng GPU quy mô cực lớn dưới dạng dịch vụ (IaaS) sẽ đạt 40-50 tỷ USD. Ví dụ: nếu 30% điện toán GPU được bán lại với mức chiết khấu 30% thông qua thị trường thứ cấp thì điều này sẽ thể hiện cơ hội doanh thu là 10 tỷ USD. Thêm một cơ hội doanh thu 5 tỷ USD nữa từ các nguồn không có quy mô cực lớn, tổng cơ hội doanh thu sẽ là 15 tỷ USD. Giả sử Akash có thể chiếm được 33% thị phần của cơ hội này (tổng giá trị giao dịch là 5 tỷ USD) và tính phí giao dịch 20%, điều này sẽ mang lại doanh thu ròng là 1 tỷ USD. Nếu chúng ta nhân con số này với 10, kết quả sẽ là gần 10 tỷ USD vốn hóa thị trường.

Tổng quan thị trường:

Vào tháng 11 năm 2022, OpenAI ra mắt ChatGPT, lập kỷ lục về tốc độ tăng trưởng cơ sở người dùng nhanh nhất, đạt 100 triệu người dùng vào tháng 1 năm 2023 và 200 triệu người dùng vào tháng 5. Tác động của điều này là rất lớn, với ước tính cho thấy rằng việc tăng năng suất và tự động hóa 3 triệu việc làm sẽ làm tăng GDP toàn cầu thêm 7 nghìn tỷ USD.

Trí tuệ nhân tạo đã nhanh chóng phát triển từ một lĩnh vực nghiên cứu nhỏ thành trọng tâm chi tiêu lớn nhất cho các công ty. Chi phí tạo ra GPT-4 là 100 triệu USD, với chi phí vận hành hàng năm là 250 triệu USD. GPT-5 yêu cầu 25.000 GPU A100 (tương đương 2,25 tỷ USD phần cứng Nvidia) và có thể yêu cầu tổng đầu tư phần cứng là 10 tỷ USD. Điều này đã gây ra một cuộc chạy đua vũ trang giữa các công ty để đảm bảo có đủ GPU hỗ trợ khối lượng công việc doanh nghiệp do AI điều khiển.

Cuộc cách mạng trí tuệ nhân tạo đã tạo ra sự thay đổi to lớn về cơ sở hạ tầng, đẩy nhanh quá trình chuyển đổi từ xử lý song song CPU sang GPU. Trong lịch sử, GPU đã được sử dụng để xử lý hình ảnh và hiển thị quy mô lớn đồng thời, trong khi CPU được thiết kế để thực thi nối tiếp, không có khả năng thực hiện các hoạt động đồng thời như vậy. Do băng thông bộ nhớ cao, GPU đã dần phát triển để xử lý các tính toán khác với các vấn đề song song, chẳng hạn như đào tạo, tối ưu hóa và cải thiện các mô hình trí tuệ nhân tạo.

Nvidia, công ty tiên phong về công nghệ GPU vào những năm 1990, đã kết hợp phần cứng hàng đầu của mình với nền tảng phần mềm CUDA, thiết lập vị trí dẫn đầu so với các đối thủ (chủ yếu là AMD và Intel) trong nhiều năm. Ngăn xếp CUDA của Nvidia được phát triển vào năm 2006, cho phép các nhà phát triển tối ưu hóa GPU Nvidia để tăng tốc khối lượng công việc của họ và đơn giản hóa việc lập trình GPU. Với 4 triệu người dùng CUDA và hơn 50.000 nhà phát triển sử dụng CUDA để phát triển, nó tự hào có một hệ sinh thái mạnh mẽ gồm các ngôn ngữ lập trình, thư viện, công cụ, ứng dụng và khung. Theo thời gian, chúng tôi kỳ vọng GPU Nvidia sẽ vượt qua CPU Intel và AMD trong các trung tâm dữ liệu.

Chi tiêu cho GPU Nvidia của các nhà cung cấp dịch vụ đám mây siêu quy mô và các công ty công nghệ lớn đã tăng nhanh chóng từ tỷ lệ phần trăm thấp một chữ số vào đầu những năm 2010 lên mức trung bình một chữ số từ năm 2015 đến năm 2022 và lên 25% vào năm 2023. Chúng tôi tin rằng Nvidia sẽ chiếm hơn 50% chi phí vốn của các nhà cung cấp dịch vụ đám mây trong những năm tới. Điều này dự kiến sẽ thúc đẩy doanh thu của Nvidia từ 25 tỷ USD vào năm 2022 lên 100 tỷ USD vào năm 2025 (Nguồn: Koyfin).

Morgan Stanley ước tính rằng đến năm 2025, quy mô thị trường cơ sở hạ tầng GPU dưới dạng dịch vụ (IaaS) dành cho các nhà cung cấp dịch vụ đám mây siêu quy mô sẽ đạt 40-50 tỷ USD. Đây vẫn chỉ là một phần nhỏ trong tổng doanh thu của các nhà cung cấp dịch vụ đám mây siêu quy mô, trong đó ba nhà cung cấp dịch vụ đám mây siêu quy mô hàng đầu hiện tạo ra doanh thu hơn 250 tỷ USD.

Do nhu cầu về GPU tăng cao, tình trạng thiếu GPU đã được các phương tiện truyền thông như The New York Times và The Wall Street Journal đưa tin rộng rãi. Giám đốc điều hành của AWS cho biết: “Cầu vượt quá cung, điều này đúng với tất cả mọi người”. Elon Musk cho biết trong cuộc họp báo thu nhập quý 2 năm 2023 của Tesla: “Chúng tôi sẽ tiếp tục sử dụng—chúng tôi sẽ nhận được phần cứng Nvidia càng sớm càng tốt”.

Index Ventures đã phải mua chip cho các công ty trong danh mục đầu tư của mình. Gần như không thể mua chip từ Nvidia ngoài các công ty công nghệ chính thống và việc mua chip từ các nhà cung cấp dịch vụ đám mây siêu quy mô cũng mất nhiều thời gian.

Dưới đây là giá GPU cho AWS và Azure. Như hiển thị bên dưới, giảm giá 30-65% dành cho đặt phòng từ 1-3 năm. Khi các nhà cung cấp dịch vụ đám mây siêu quy mô đầu tư hàng tỷ đô la vào việc mở rộng công suất, họ đang tìm kiếm cơ hội đầu tư mang lại khả năng hiển thị doanh thu. Nếu khách hàng dự đoán tỷ lệ sử dụng vượt quá 60%, tốt nhất nên chọn mức giá đặt trước trong 1 năm. Nếu tỷ lệ sử dụng dự kiến vượt quá 35%, hãy chọn 3 năm. Mọi công suất không sử dụng đều có thể được bán lại, giúp giảm đáng kể tổng chi phí.

Nếu một nhà cung cấp dịch vụ đám mây siêu quy mô thành lập doanh nghiệp cho thuê máy tính GPU trị giá 50 tỷ USD thì việc bán lại sức mạnh tính toán chưa sử dụng sẽ là một cơ hội lớn. Giả sử rằng 30% sức mạnh tính toán được bán lại với mức chiết khấu 30%, điều này sẽ tạo ra một thị trường trị giá 10 tỷ USD để bán lại sức mạnh tính toán GPU của các nhà cung cấp dịch vụ đám mây siêu quy mô.

Tuy nhiên, ngoài các nhà cung cấp dịch vụ đám mây siêu quy mô, còn có các nguồn cung cấp khác, bao gồm các doanh nghiệp lớn (như Meta, Tesla), đối thủ cạnh tranh (CoreWeave, Lambda, v.v.) và các công ty khởi nghiệp AI được tài trợ tốt. Từ năm 2022 đến năm 2025, Nvidia dự kiến sẽ tạo ra doanh thu khoảng 300 tỷ USD. Giả sử có thêm số chip trị giá 70 tỷ USD bên ngoài các nhà cung cấp dịch vụ đám mây siêu quy mô, việc bán lại 20% sức mạnh tính toán với mức chiết khấu 30% sẽ cộng thêm 10 tỷ USD nữa, tổng cộng là 200 tỷ USD.

Tổng quan về Akash

Akash là một thị trường điện toán phi tập trung được thành lập vào năm 2015 và ra mắt mạng chính dưới dạng chuỗi ứng dụng Cosmos vào tháng 9 năm 2020. Tầm nhìn của nó là dân chủ hóa điện toán đám mây bằng cách cung cấp tài nguyên điện toán rẻ hơn đáng kể so với các nhà cung cấp dịch vụ đám mây siêu quy mô.

Blockchain xử lý việc phối hợp và giải quyết, lưu trữ hồ sơ yêu cầu, đấu thầu, cho thuê và thanh toán trong khi việc thực thi được thực hiện ngoài chuỗi. Akash lưu trữ các vùng chứa nơi người dùng có thể chạy bất kỳ ứng dụng gốc trên nền tảng đám mây nào. Akash đã xây dựng một bộ dịch vụ quản lý đám mây, bao gồm Kubernetes, để sắp xếp và quản lý các vùng chứa này. Việc triển khai được chuyển từ một mạng ngang hàng riêng tư được tách biệt khỏi chuỗi khối.

Phiên bản đầu tiên của Akash tập trung vào tính toán CPU. Vào thời kỳ đỉnh cao, doanh nghiệp có tổng khối lượng giao dịch hàng năm khoảng 200.000 USD, cho thuê 4-5 nghìn CPU. Tuy nhiên, có hai vấn đề chính: rào cản gia nhập (yêu cầu khởi động ví Cosmos và sử dụng mã thông báo AKT để thanh toán cho khối lượng công việc) và sự rời bỏ của khách hàng (phải nạp tiền vào ví bằng AKT và nếu AKT hết hoặc giá thay đổi, khối lượng công việc sẽ dừng lại không có nhà cung cấp thay thế).

Trong năm qua, Akash đã chuyển đổi từ điện toán CPU sang điện toán GPU, tận dụng sự thay đổi mô hình này trong cơ sở hạ tầng máy tính và tình trạng thiếu nguồn cung.

Cung cấp GPU Akash

Mạng GPU của Akash sẽ được ra mắt trên mạng chính vào tháng 9 năm 2023. Kể từ đó, Akash đã mở rộng quy mô lên 150-200 GPU và đạt tỷ lệ sử dụng 50-70%.

Dưới đây là so sánh giá Nvidia A100 từ một số nhà cung cấp. Giá của Akash rẻ hơn 30-60% so với đối thủ.

Có khoảng 19 nhà cung cấp duy nhất trên mạng lưới Akash, có trụ sở tại 7 quốc gia, cung cấp hơn 15 loại chip. Nhà cung cấp lớn nhất là Foundry, một công ty được DCG hậu thuẫn cũng tham gia vào hoạt động khai thác và đặt cược tiền điện tử.

Akash tập trung chủ yếu vào chip doanh nghiệp (A100), vốn thường được sử dụng để hỗ trợ khối lượng công việc AI. Mặc dù họ cũng cung cấp một số chip tiêu dùng, nhưng trước đây chúng thường khó sử dụng cho AI do các vấn đề về tiêu thụ điện năng, phần mềm và độ trễ. Một số công ty, chẳng hạn như FedML, io.net và Gensyn, đang cố gắng xây dựng một lớp điều phối để kích hoạt tính toán biên AI.

Khi thị trường ngày càng chuyển sang hướng suy luận hơn là đào tạo, GPU cấp độ người tiêu dùng có thể trở nên khả thi hơn, nhưng hiện tại thị trường đang tập trung vào việc sử dụng chip cấp doanh nghiệp để đào tạo.

Về phía cung, Akash tập trung vào các nhà cung cấp dịch vụ đám mây siêu quy mô công cộng, nhà cung cấp GPU tư nhân, công cụ khai thác tiền điện tử và các doanh nghiệp nắm giữ GPU không được sử dụng đúng mức.

  1. Nhà cung cấp đám mây công cộng siêu quy mô: Tiềm năng lớn nhất nằm ở việc cho phép các nhà cung cấp dịch vụ đám mây công cộng lớn (Azure, AWS, GCP) cho phép khách hàng của họ bán lại công suất chưa được sử dụng đúng mức trên thị trường Akash. Điều này sẽ cung cấp cho họ khả năng hiển thị về doanh thu từ đầu tư vốn. Khi các nhà cung cấp dịch vụ đám mây lớn cho phép điều này, những nhà cung cấp khác có thể cần phải làm theo để duy trì thị phần cạnh tranh. Như đã đề cập trước đó, các nhà cung cấp dịch vụ đám mây lớn có thể có cơ hội Cơ sở hạ tầng dưới dạng dịch vụ (IaaS) trị giá 50 tỷ USD, tạo cơ hội giao dịch thứ cấp quy mô lớn cho thị trường Akash.
  2. Đối thủ cạnh tranh trên đám mây riêng: Ngoài các nhà cung cấp dịch vụ đám mây công cộng siêu quy mô, một số công ty đám mây riêng (CoreWeave, Lambda Labs, v.v.) cũng cung cấp dịch vụ cho thuê GPU. Với động lực cạnh tranh của các nhà cung cấp dịch vụ đám mây siêu quy mô đang cố gắng xây dựng ASIC của riêng họ làm phần cứng thay thế, Nvidia đã cung cấp thêm nguồn cung cho một số công ty tư nhân. Các đối thủ cạnh tranh tư nhân thường có giá rẻ hơn so với các nhà cung cấp đám mây siêu quy mô (ví dụ: A100 rẻ hơn tới 50%). CoreWeave, một trong những đối thủ cạnh tranh tư nhân nổi tiếng nhất, từng là một công ty khai thác tiền điện tử đã chuyển sang xây dựng trung tâm dữ liệu và cung cấp cơ sở hạ tầng GPU vào năm 2019. Nó đang huy động vốn với mức định giá 7 tỷ USD và được hỗ trợ bởi Nvidia. CoreWeave đang phát triển nhanh chóng, với doanh thu đạt 500 triệu USD vào năm 2023 và doanh thu dự kiến đạt 1,5-2 tỷ USD vào năm 2024. CoreWeave có 45.000 chip Nvidia và ước tính rằng các đối thủ cạnh tranh tư nhân này có thể có tổng cộng hơn 100.000 GPU. Việc kích hoạt thị trường thứ cấp cho cơ sở khách hàng của họ có thể cho phép các đối thủ cạnh tranh tư nhân này giành được thị phần trước các nhà cung cấp đám mây siêu quy mô công cộng.
  3. Thợ đào tiền điện tử: Thợ đào tiền điện tử từ lâu đã là người tiêu dùng chính của GPU Nvidia. Do tính phức tạp trong việc giải quyết các bằng chứng mật mã, GPU đã trở thành phần cứng chiếm ưu thế cho các mạng bằng chứng công việc. Với việc Ethereum chuyển từ bằng chứng công việc sang bằng chứng cổ phần, điều này đã dẫn đến sự dư thừa đáng kể về công suất. Người ta ước tính rằng khoảng 20% số chip được giải phóng có thể được tái sử dụng cho khối lượng công việc AI. Ngoài ra, các công ty khai thác Bitcoin cũng đang tìm cách đa dạng hóa nguồn doanh thu của họ. Trong vài tháng qua, Hut 8, Ứng dụng kỹ thuật số, Iris Energy, Hive và các công ty khai thác Bitcoin khác đều đã công bố các chiến lược học máy/trí tuệ nhân tạo. Foundry là nhà cung cấp lớn nhất trên Akash và là một trong những công ty khai thác Bitcoin lớn nhất.
  4. Doanh nghiệp: Như đã đề cập trước đó, Meta có số lượng GPU lớn, với 15.000 A100 với tỷ lệ sử dụng là 5%. Tương tự, Tesla cũng có 15.000 chiếc A100. Tỷ lệ sử dụng cho điện toán doanh nghiệp thường dưới 50%. Với khoản đầu tư vốn mạo hiểm đáng kể vào lĩnh vực này, nhiều công ty khởi nghiệp AI/ML cũng đã mua trước chip. Việc có thể bán lại công suất chưa sử dụng sẽ làm giảm tổng chi phí sở hữu cho các công ty nhỏ hơn này. Điều thú vị là có thể có những lợi thế về thuế khi cho thuê GPU cũ.

Phía cầu GPU Akash

Trong hầu hết năm 2022 và 2023, trước khi ra mắt mạng GPU, Tổng giá trị hàng hóa (GMV) hàng năm cho CPU là khoảng 50.000 USD. Kể từ khi mạng GPU ra đời, GMV đã đạt mức hàng năm từ 500.000 USD đến 1.000.000 USD, với tỷ lệ sử dụng trên mạng GPU dao động từ 50% đến 70%.

Akash đã và đang nỗ lực giảm thiểu sự cản trở của người dùng, cải thiện trải nghiệm người dùng và mở rộng các trường hợp sử dụng.

  1. Thanh toán USDC: Akash gần đây đã cho phép thanh toán ổn định bằng USDC, giúp khách hàng không bị biến động giá khi mua AKT và giữ AKT cho đến khi thanh toán.
  2. Hỗ trợ ví Metamask: Akash cũng đã triển khai Metamask Snap để giúp bắt đầu dễ dàng hơn mà không cần phải tạo ví dành riêng cho Cosmos.
  3. Hỗ trợ cấp doanh nghiệp: Overclock Labs, nhà sáng tạo Mạng Akash, đã ra mắt AkashML để giúp đưa người dùng đến Mạng Akash với sự hỗ trợ cấp doanh nghiệp dễ dàng hơn.
  4. Tự phục vụ: Cloudmos, gần đây đã được Akash mua lại, cũng giới thiệu giao diện tự phục vụ thân thiện với người dùng để triển khai GPU. Trước đây, việc triển khai phải được thực hiện thông qua mã dòng lệnh.
  5. Lựa chọn: Mặc dù trọng tâm chủ yếu là chip doanh nghiệp Nvidia, Akash cũng cung cấp chip tiêu dùng và tính đến cuối năm 2023, đã bổ sung hỗ trợ cho chip AMD.

Akash cũng đang xác thực các trường hợp sử dụng thông qua mạng. Trong Mạng thử nghiệm GPU, cộng đồng đã chứng minh rằng họ có thể sử dụng mạng để triển khai và chạy suy luận trên nhiều mô hình AI phổ biến. Các ứng dụng Akash Chat và Stable Diffusion XL đều thể hiện khả năng chạy suy luận của Akash. Chúng tôi tin rằng theo thời gian, thị trường suy luận sẽ lớn hơn nhiều so với thị trường đào tạo. Tìm kiếm dựa trên AI ngày nay có giá 0,02 USD (gấp 10 lần chi phí hiện tại của Google). Cho rằng có 3 nghìn tỷ lượt tìm kiếm mỗi năm, con số này sẽ là 60 tỷ USD mỗi năm. Để đưa điều này vào bối cảnh, việc đào tạo một mô hình OpenAI tiêu tốn khoảng 100 triệu USD. Mặc dù chi phí có thể sẽ thấp hơn cho cả hai, nhưng điều này làm nổi bật sự khác biệt đáng kể trong nhóm doanh thu dài hạn.

Nhận thấy rằng hầu hết nhu cầu về chip cao cấp ngày nay đều tập trung vào đào tạo, Akash hiện cũng đang nỗ lực chứng minh rằng họ có thể sử dụng mạng Akash để đào tạo một mô hình mà họ dự định ra mắt vào đầu năm 2024. Sau khi sử dụng các tấm bán dẫn đồng nhất từ một nhà cung cấp duy nhất, dự án tiếp theo sẽ là sử dụng các tấm bán dẫn không đồng nhất từ nhiều nhà cung cấp.

Lộ trình của Akash rất lớn. Một số tính năng hiện tại của sản phẩm bao gồm hỗ trợ quản lý quyền riêng tư, phiên bản theo yêu cầu/dự trữ và khả năng phát hiện tốt hơn.

Mô hình token và ưu đãi

Akash tính phí xử lý 4% đối với thanh toán AKT và 20% phí xử lý đối với thanh toán USDC. Mức phí 20% này tương tự như những gì chúng ta thấy ở các thị trường trực tuyến truyền thống (ví dụ: Uber là 30%).

Akash có khoảng 58% số token đang lưu hành (225 triệu đang lưu hành, nguồn cung tối đa 388 triệu). Tỷ lệ lạm phát hàng năm đã tăng từ 8% lên 13%. Hiện tại, 60% số token lưu hành đã bị khóa, thời gian khóa là 21 ngày.

Tỷ lệ phí 40% (trước đây là 25%) lạm phát và GMV cũng sẽ được đưa vào nhóm cộng đồng, hiện đang nắm giữ 10 triệu đô la mã thông báo AKT.

Mục đích của các quỹ này vẫn đang được xác định, nhưng sẽ được phân bổ giữa các quỹ công, ưu đãi của nhà cung cấp, đặt cược, đốt tiềm năng và nhóm cộng đồng.

Vào ngày 19 tháng 1, Akash đã triển khai chương trình khuyến khích thí điểm trị giá 5 triệu USD nhằm đưa 1.000 chiếc A100 lên nền tảng này. Theo thời gian, mục tiêu là cung cấp khả năng hiển thị doanh thu từ phía cung (ví dụ: mức sử dụng hiệu quả 95%) cho các nhà cung cấp tham gia thị trường.

Định giá và phân tích kịch bản

Dưới đây là một số tình huống và giả định minh họa về các động lực chính của Akash:

Kịch bản ngắn hạn: Chúng tôi ước tính rằng nếu Akash có thể đạt 15.000 chiếc A100 thì điều này sẽ tạo ra gần 150 triệu USD GMV. Với tỷ lệ hoa hồng 20%, điều này sẽ mang lại cho Akash 30 triệu USD phí thỏa thuận. Với quỹ đạo tăng trưởng, nhân con số này với 100 (có tính đến định giá AI), số tiền này sẽ trị giá 3 tỷ USD.

Trường hợp cơ bản: Chúng tôi giả định cơ hội thị trường IaaS phù hợp với ước tính 50 tỷ USD của Morgan Stanley. Giả sử sử dụng 70% thì công suất có thể bán lại là 15 tỷ USD. Giả sử giảm 30% công suất này, chúng ta nhận được 10 tỷ USD, cộng thêm 10 tỷ USD từ các nguồn không thể tăng quy mô khác. Do các thị trường thường có hào quang mạnh mẽ, chúng tôi giả định Akash có thể đạt được 33% thị phần (20% thị phần cho thuê nhà nghỉ dưỡng của Airbnb, 75% thị phần chia sẻ chuyến đi của Uber và 65% thị phần giao đồ ăn của Doordash). Với tỷ lệ hoa hồng 20%, điều này sẽ tạo ra 1 tỷ USD phí giao thức. Nhân nó với 10, Akash sẽ thu được kết quả 10 tỷ USD.

Trường hợp hướng lên: Trường hợp hướng lên của chúng tôi sử dụng cùng một khuôn khổ với trường hợp cơ sở. Chúng tôi giả định cơ hội bán lại trị giá 20 tỷ USD nhờ khả năng thâm nhập vào nhiều nguồn GPU độc đáo hơn và tăng trưởng thị phần cao hơn.

Thông tin cơ bản: Nvidia là công ty niêm yết có vốn hóa thị trường là 1,2 nghìn tỷ USD, trong khi OpenAI được định giá 80 tỷ USD trên thị trường tư nhân, Anthropic được định giá 20 tỷ USD và CoreWeave được định giá 7 tỷ USD. Trong không gian tiền điện tử, Render và TAO lần lượt được định giá hơn 2 tỷ USD và hơn 5,5 tỷ USD.

Rủi ro và biện pháp giảm thiểu:

Sự tập trung của cung và cầu: Hiện tại, phần lớn nhu cầu GPU đến từ các công ty công nghệ lớn để đào tạo LLM (Mô hình ngôn ngữ lớn) cực kỳ lớn và phức tạp. Theo thời gian, chúng tôi dự đoán sẽ có nhiều sự quan tâm hơn đến việc đào tạo các mô hình AI quy mô nhỏ hơn, rẻ hơn và phù hợp hơn để xử lý dữ liệu riêng tư. Việc tinh chỉnh sẽ ngày càng trở nên quan trọng khi các mô hình chuyển từ mục đích chung sang cụ thể theo chiều dọc. Cuối cùng, khi việc sử dụng và áp dụng tăng tốc, khả năng suy luận sẽ ngày càng trở nên quan trọng.

Cạnh tranh: Có rất nhiều công ty tiền điện tử và phi tiền điện tử đang cố gắng giải phóng các GPU không được sử dụng đúng mức. Một số giao thức mã hóa đáng chú ý hơn là:

  1. Render và Nosana đang phát hành GPU dành cho người tiêu dùng để suy luận.
  2. Cùng nhau thiết lập các mô hình đào tạo nguồn mở, cho phép các nhà phát triển xây dựng dựa trên chúng.
  3. Ritual đang xây dựng một mạng lưới cho các mô hình lưu trữ.

Các vấn đề về độ trễ và thách thức kỹ thuật: Do việc đào tạo AI là một nhiệm vụ cực kỳ tốn nhiều tài nguyên và xét rằng tất cả các chip đều được đặt trong một trung tâm dữ liệu, nên không rõ liệu các mô hình có thể được đào tạo trên các ngăn xếp GPU phi tập trung, không cùng vị trí hay không. OpenAI có kế hoạch xây dựng cơ sở đào tạo tiếp theo với hơn 75.000 GPU ở Arizona. Đây là tất cả các vấn đề đang được giải quyết bằng cách lập lịch các lớp như FedML, Io.net và Gensyn.

Tuyên bố từ chối trách nhiệm:

  1. Bài viết này được in lại từ [Tin tức tầm nhìn xa]. Mọi bản quyền đều thuộc về tác giả gốc [Vincent Jow]. Nếu có ý kiến phản đối việc tái bản này, vui lòng liên hệ với nhóm Gate Learn , họ sẽ xử lý kịp thời.
  2. Tuyên bố miễn trừ trách nhiệm pháp lý: Các quan điểm và ý kiến trình bày trong bài viết này chỉ là của tác giả và không cấu thành bất kỳ lời khuyên đầu tư nào.
  3. Việc dịch bài viết sang các ngôn ngữ khác được thực hiện bởi nhóm Gate Learn. Trừ khi được đề cập, việc sao chép, phân phối hoặc đạo văn các bài viết đã dịch đều bị cấm.
Bắt đầu giao dịch
Đăng ký và giao dịch để nhận phần thưởng USDTEST trị giá
$100
$5500