Von Cloud Computing bis KI: Wird Akash der Geheimtipp in der DePIN-Schiene?

EinsteigerFeb 18, 2024
In diesem Artikel werden das Akash-Token-Modell und seine Anwendungsszenarien analysiert.
Von Cloud Computing bis KI: Wird Akash der Geheimtipp in der DePIN-Schiene?

Kurzfassung

Akash ist eine dezentrale Computing-Plattform, die entwickelt wurde, um nicht ausgelastete GPU-Versorgungen mit Benutzern zu verbinden, die GPU-Computing benötigen, mit dem Ziel, das "Airbnb" des GPU-Computings zu werden. Im Gegensatz zu anderen Wettbewerbern konzentrieren sie sich in erster Linie auf allgemeines GPU-Computing der Enterprise-Klasse. Seit dem Start des GPU-Mainnets im September 2023 hatten sie 150-200 GPUs in ihrem Netzwerk, mit Auslastungsraten von 50-70 % und einem jährlichen Gesamttransaktionswert von 500.000 bis 1 Million US-Dollar. In Übereinstimmung mit dem Netzwerkmarkt erhebt Akash eine Transaktionsgebühr von 20 % für USDC-Zahlungen.

Wir stehen am Anfang einer massiven Infrastrukturtransformation, bei der GPU-gesteuerte Parallelverarbeitung auf dem Vormarsch ist. Es wird prognostiziert, dass künstliche Intelligenz das globale BIP um 7 Billionen US-Dollar steigern und gleichzeitig 300 Millionen Arbeitsplätze automatisieren wird. Nvidia, der Hersteller von GPUs, erwartet, dass sein Umsatz von 27 Milliarden US-Dollar im Jahr 2022 auf 60 Milliarden US-Dollar im Jahr 2023 steigen und bis 2025 etwa 100 Milliarden US-Dollar erreichen wird. Die Investitionsausgaben von Cloud-Computing-Anbietern (AWS, GCP, Azure usw.) für Nvidia-Chips sind von einem einstelligen Bereich auf 25 % gestiegen und werden in den kommenden Jahren voraussichtlich 50 % überschreiten. (Quelle: Koyfin)

Morgan Stanley schätzt, dass bis 2025 die Möglichkeiten für eine ultragroße GPU-Infrastruktur als Service (IaaS) 40 bis 50 Milliarden US-Dollar erreichen werden. Wenn beispielsweise 30 % des GPU-Computings mit einem Rabatt von 30 % über den Sekundärmarkt weiterverkauft werden, entspricht dies einer Umsatzchance von 10 Milliarden US-Dollar. Rechnet man weitere 5 Milliarden US-Dollar Umsatzmöglichkeiten aus nicht ultragroßen Quellen hinzu, wird sich die Gesamtumsatzchance auf 15 Milliarden US-Dollar belaufen. Unter der Annahme, dass Akash einen Marktanteil von 33 % (5 Milliarden US-Dollar Gesamttransaktionswert) erobern und eine Transaktionsgebühr von 20 % erheben kann, entspricht dies einem Nettoumsatz von 1 Milliarde US-Dollar. Wenn wir diese Zahl mit 10 multiplizieren, ergäbe sich eine Marktkapitalisierung von fast 10 Milliarden US-Dollar.

Marktübersicht:

Im November 2022 startete OpenAI ChatGPT und stellte damit den Rekord für das schnellste Wachstum der Nutzerbasis auf, das bis Januar 2023 100 Millionen Nutzer und bis Mai 200 Millionen Nutzer erreichte. Die Auswirkungen sind enorm: Schätzungen gehen davon aus, dass die Steigerung der Produktivität und die Automatisierung von 3 Millionen Arbeitsplätzen das globale BIP um 7 Billionen US-Dollar steigern werden.

Künstliche Intelligenz hat sich rasant von einem Nischenforschungsbereich zum größten Ausgabenschwerpunkt für Unternehmen entwickelt. Die Kosten für die Erstellung von GPT-4 belaufen sich auf 100 Millionen US-Dollar, die jährlichen Betriebskosten belaufen sich auf 250 Millionen US-Dollar. GPT-5 erfordert 25.000 A100-GPUs (entspricht 2,25 Milliarden US-Dollar an Nvidia-Hardware) und kann eine Gesamtinvestition von 10 Milliarden US-Dollar in Hardware erfordern. Dies hat ein Wettrüsten zwischen den Unternehmen ausgelöst, um sich genügend GPUs zu sichern, um KI-gesteuerte Unternehmens-Workloads zu unterstützen.

Die Revolution der künstlichen Intelligenz hat einen monumentalen Wandel in der Infrastruktur ausgelöst und den Übergang von der CPU- zur GPU-Parallelverarbeitung beschleunigt. In der Vergangenheit wurden GPUs für das gleichzeitige Rendering und die Bildverarbeitung in großem Maßstab verwendet, während CPUs für die serielle Ausführung ausgelegt sind und nicht in der Lage sind, solche gleichzeitigen Operationen durchzuführen. Aufgrund der hohen Speicherbandbreite haben sich GPUs nach und nach weiterentwickelt, um andere Berechnungen mit parallelen Problemen zu bewältigen, wie z. B. Training, Optimierung und Verbesserung von Modellen der künstlichen Intelligenz.

Nvidia, der Pionier der GPU-Technologie in den 1990er Jahren, kombinierte seine erstklassige Hardware mit dem CUDA-Software-Stack und etablierte sich so viele Jahre lang eine führende Position gegenüber der Konkurrenz (vor allem AMD und Intel). Der CUDA-Stack von Nvidia wurde 2006 entwickelt und ermöglicht es Entwicklern, Nvidia-GPUs zu optimieren, um ihre Workloads zu beschleunigen und die GPU-Programmierung zu vereinfachen. Mit 4 Millionen CUDA-Benutzern und über 50.000 Entwicklern, die CUDA für die Entwicklung verwenden, verfügt es über ein leistungsstarkes Ökosystem von Programmiersprachen, Bibliotheken, Tools, Anwendungen und Frameworks. Wir gehen davon aus, dass die Nvidia-GPUs im Laufe der Zeit die Intel- und AMD-CPUs in Rechenzentren übertreffen werden.

Die Ausgaben für Nvidia-GPUs von Hyperscale-Cloud-Service-Providern und großen Technologieunternehmen sind von niedrigen einstelligen Prozentsätzen in den frühen 2010er Jahren auf mittlere einstellige Werte von 2015 bis 2022 und auf 25 % im Jahr 2023 gestiegen. Wir gehen davon aus, dass Nvidia in den kommenden Jahren über 50 % der Investitionen von Cloud-Service-Providern ausmachen wird. Es wird erwartet, dass der Umsatz von Nvidia von 25 Milliarden US-Dollar im Jahr 2022 auf 100 Milliarden US-Dollar im Jahr 2025 steigen wird (Quelle: Koyfin).

Morgan Stanley schätzt, dass bis 2025 die Marktgröße für GPU-Infrastructure-as-a-Service (IaaS) für Hyperscale-Cloud-Service-Anbieter 40 bis 50 Milliarden US-Dollar erreichen wird. Dies ist immer noch nur ein kleiner Teil des Gesamtumsatzes von Hyperscale-Cloud-Service-Providern, wobei die drei größten Hyperscale-Cloud-Service-Provider derzeit einen Umsatz von über 250 Milliarden US-Dollar erwirtschaften.

Angesichts der starken Nachfrage nach GPUs wurde von Medien wie der New York Times und dem Wall Street Journal ausführlich über GPU-Engpässe berichtet. Der CEO von AWS erklärte: "Die Nachfrage übersteigt das Angebot, was für alle gilt." Elon Musk sagte während der Telefonkonferenz zu den Ergebnissen des 2. Quartals 2023 von Tesla: "Wir werden weiterhin Nvidia-Hardware so schnell wie möglich erhalten."

Index Ventures musste Chips für seine Portfoliounternehmen kaufen. Es ist fast unmöglich, Chips von Nvidia außerhalb von Mainstream-Technologieunternehmen zu kaufen, und auch die Beschaffung von Chips von Hyperscale-Cloud-Service-Providern dauert lange.

Nachfolgend finden Sie die GPU-Preise für AWS und Azure. Wie unten gezeigt, ist ein Rabatt von 30-65% für Reservierungen von 1-3 Jahren verfügbar. Da Anbieter von Hyperscale-Cloud-Diensten Milliarden von Dollar in den Ausbau ihrer Kapazitäten investieren, suchen sie nach Investitionsmöglichkeiten, die für Umsatztransparenz sorgen. Wenn Kunden davon ausgehen, dass die Auslastung 60 % übersteigt, ist es am besten, sich für einen reservierten 1-Jahres-Preis zu entscheiden. Wenn die erwartete Auslastung 35 % übersteigt, wählen Sie 3 Jahre. Ungenutzte Kapazitäten können weiterverkauft werden, wodurch die Gesamtkosten erheblich gesenkt werden.

Wenn ein riesiger Cloud-Service-Provider ein 50-Milliarden-Dollar-Leasinggeschäft für GPU-Computing aufbaut, wäre der Weiterverkauf ungenutzter Rechenleistung eine große Chance. Unter der Annahme, dass 30 % der Rechenleistung mit einem Rabatt von 30 % weiterverkauft werden, würde dies einen 10-Milliarden-Dollar-Markt für den Weiterverkauf der GPU-Rechenleistung von Super-Scale-Cloud-Service-Providern schaffen.

Abgesehen von Super-Scale-Cloud-Service-Providern gibt es jedoch auch andere Bezugsquellen, darunter große Unternehmen (wie Meta, Tesla), Konkurrenten (CoreWeave, Lambda usw.) und gut finanzierte KI-Startups. Von 2022 bis 2025 wird Nvidia voraussichtlich einen Umsatz von rund 300 Milliarden US-Dollar erzielen. Unter der Annahme, dass es zusätzliche Chips im Wert von 70 Milliarden US-Dollar außerhalb von Super-Scale-Cloud-Service-Anbietern gibt, würde der Weiterverkauf von 20 % der Rechenleistung mit einem Rabatt von 30 % weitere 10 Milliarden US-Dollar auf insgesamt 200 Milliarden US-Dollar bringen.

Akash Übersicht

Akash ist ein dezentraler Computing-Marktplatz, der 2015 gegründet wurde und im September 2020 sein Mainnet als Cosmos-Anwendungskette startete. Seine Vision ist es, das Cloud Computing zu demokratisieren, indem es Rechenressourcen anbietet, die deutlich billiger sind als die von Super-Scale-Cloud-Service-Providern.

Die Blockchain kümmert sich um die Koordination und Abwicklung und speichert Aufzeichnungen über Anfragen, Gebote, Leasing und Abrechnung, während die Ausführung außerhalb der Kette erfolgt. Akash hostet Container, in denen Benutzer jede Cloud-native Anwendung ausführen können. Akash hat eine Reihe von Cloud-Management-Diensten, einschließlich Kubernetes, entwickelt, um diese Container zu orchestrieren und zu verwalten. Die Bereitstellung erfolgt über ein privates Peer-to-Peer-Netzwerk, das von der Blockchain isoliert ist.

Die erste Version von Akash konzentrierte sich auf CPU-Computing. Zu Spitzenzeiten hatte das Unternehmen ein jährliches Gesamttransaktionsvolumen von rund 200.000 US-Dollar und vermietete 4-5 Tausend CPUs. Es gab jedoch zwei Hauptprobleme: Eintrittsbarrieren (die das Starten einer Cosmos-Wallet und die Verwendung von AKT-Token zur Bezahlung von Workloads erfordern) und die Kundenabwanderung (die Wallet muss mit AKT aufgeladen werden, und wenn AKT ausläuft oder sich der Preis ändert, wird die Workload ohne alternative Anbieter gestoppt).

Im vergangenen Jahr ist Akash von CPU-Computing auf GPU-Computing umgestiegen und hat sich diesen Paradigmenwechsel in der Computing-Infrastruktur und die Lieferengpässe zunutze gemacht.

Akash GPU-Versorgung

Das GPU-Netzwerk von Akash wird im September 2023 im Mainnet eingeführt. Seitdem ist Akash auf 150-200 GPUs skaliert und hat Auslastungsraten von 50-70% erreicht.

Nachfolgend finden Sie einen Vergleich der Nvidia A100 Preise von verschiedenen Anbietern. Die Preise von Akash sind 30-60% günstiger als die der Konkurrenz.

Es gibt ungefähr 19 einzigartige Lieferanten im Akash-Netzwerk in 7 Ländern, die mehr als 15 Arten von Chips liefern. Der größte Anbieter ist Foundry, ein DCG-gestütztes Unternehmen, das sich auch mit Krypto-Mining und Staking beschäftigt.

Akash konzentriert sich in erster Linie auf Unternehmenschips (A100), die traditionell zur Unterstützung von KI-Workloads verwendet werden. Sie bieten zwar auch einige Consumer-Chips an, aber diese waren in der Vergangenheit aufgrund von Stromverbrauch, Software und Latenzproblemen im Allgemeinen schwer für KI zu verwenden. Mehrere Unternehmen, wie FedML, io.net und Gensyn, versuchen, eine Orchestrierungsschicht aufzubauen, um KI-Edge-Computing zu ermöglichen.

Da sich der Markt zunehmend in Richtung Inferenz statt Training verlagert, könnten GPUs für Endverbraucher rentabler werden, aber derzeit konzentriert sich der Markt auf die Verwendung von Chips der Enterprise-Klasse für das Training.

Auf der Angebotsseite konzentriert sich Akash auf öffentliche Hyperscale-Cloud-Service-Provider, private GPU-Anbieter, Krypto-Miner und Unternehmen, die nicht ausgelastete GPUs halten.

  1. Hyperscale-Public-Cloud-Anbieter: Das größte Potenzial liegt darin, dass große Public-Cloud-Service-Provider (Azure, AWS, GCP) ihren Kunden die Möglichkeit geben, nicht ausgelastete Kapazitäten auf dem Akash-Marktplatz weiterzuverkaufen. Dies würde ihnen einen Einblick in die Einnahmen aus Kapitalinvestitionen verschaffen. Sobald große Cloud-Service-Anbieter dies zulassen, müssen andere möglicherweise nachziehen, um wettbewerbsfähige Marktanteile zu halten. Wie bereits erwähnt, könnten große Cloud-Service-Anbieter eine Infrastructure-as-a-Service-Chance (IaaS) in Höhe von 50 Milliarden US-Dollar haben, was eine groß angelegte Sekundärhandelsmöglichkeit für den Akash-Marktplatz schafft.
  2. Private-Cloud-Wettbewerber: Neben Hyperscale-Public-Cloud-Service-Providern bieten auch mehrere Private-Cloud-Unternehmen (CoreWeave, Lambda Labs usw.) GPU-Mietdienste an. Angesichts der Wettbewerbsdynamik von Hyperscale-Cloud-Service-Providern, die versuchen, ihre eigenen ASICs als Ersatzhardware zu bauen, hat Nvidia einigen privaten Unternehmen mehr Angebot zur Verfügung gestellt. Private Wettbewerber sind oft preislich günstiger als Hyperscale-Cloud-Anbieter (z. B. ist der A100 bis zu 50 % günstiger). CoreWeave, einer der bekanntesten privaten Konkurrenten, war einst ein Krypto-Mining-Unternehmen, das 2019 auf den Bau von Rechenzentren und die Bereitstellung von GPU-Infrastruktur umgestiegen ist. Es sammelt Geld mit einer Bewertung von 7 Mrd. $ ein und wird von Nvidia unterstützt. CoreWeave wächst rasant, mit einem Umsatz von 500 Millionen US-Dollar im Jahr 2023 und einem erwarteten Umsatz von 1,5 bis 2 Milliarden US-Dollar im Jahr 2024. CoreWeave verfügt über 45.000 Nvidia-Chips und schätzt, dass diese privaten Konkurrenten insgesamt mehr als 100.000 GPUs haben könnten. Die Erschließung von Sekundärmärkten für ihren Kundenstamm könnte es diesen privaten Wettbewerbern ermöglichen, Marktanteile gegenüber öffentlichen Hyperscale-Cloud-Anbietern zu gewinnen.
  3. Cryptominer: Cryptominer waren in der Vergangenheit wichtige Verbraucher von Nvidia-GPUs. Aufgrund der Rechenkomplexität bei der Lösung kryptografischer Beweise sind GPUs zur vorherrschenden Hardware für Proof-of-Work-Netzwerke geworden. Mit dem Übergang von Ethereum von Proof-of-Work zu Proof-of-Stake hat dies zu einem erheblichen Kapazitätsüberschuss geführt. Es wird geschätzt, dass etwa 20 % der freigesetzten Chips für KI-Workloads wiederverwendet werden können. Darüber hinaus versuchen Bitcoin-Miner auch, ihre Einnahmequellen zu diversifizieren. In den letzten Monaten haben Hut 8, Applied Digital, Iris Energy, Hive und andere Bitcoin-Miner Strategien für künstliche Intelligenz und maschinelles Lernen angekündigt. Foundry ist der größte Anbieter auf Akash und einer der größten Bitcoin-Miner.
  4. Unternehmen: Wie bereits erwähnt, verfügt Meta über eine große Anzahl von GPUs mit 15.000 A100 bei einer Auslastung von 5 %. In ähnlicher Weise hat Tesla auch 15.000 A100. Die Auslastungsraten für Enterprise Computing liegen in der Regel unter 50 %. Angesichts der erheblichen Risikokapitalinvestitionen in diesem Bereich haben viele KI/ML-Startups auch Chips im Voraus gekauft. Die Möglichkeit, ungenutzte Kapazitäten weiterzuverkaufen, wird die Gesamtbetriebskosten für diese kleineren Unternehmen senken. Interessanterweise kann das Leasing alter GPUs potenzielle Steuervorteile mit sich bringen.

Akash GPU Nachfrageseite

In den Jahren 2022 und 2023, vor dem Start des GPU-Netzwerks, lag der annualisierte Bruttowarenwert (GMV) für CPUs bei etwa 50.000 US-Dollar. Seit der Einführung des GPU-Netzwerks hat der GMV ein annualisiertes Niveau von 500.000 bis 1.000.000 US-Dollar erreicht, wobei die Auslastung des GPU-Netzwerks zwischen 50 % und 70 % liegt.

Akash hat daran gearbeitet, die Reibungsverluste für Benutzer zu reduzieren, die Benutzererfahrung zu verbessern und die Anwendungsfälle zu erweitern.

  1. USDC-Zahlungen: Akash erlaubte kürzlich stabile Zahlungen mit USDC, wodurch Kunden beim Kauf von AKT von Preisschwankungen befreit und AKT bis zur Zahlung gehalten werden.
  2. Metamask-Wallet-Unterstützung: Akash hat auch Metamask Snap implementiert, um den Einstieg zu erleichtern, ohne eine Cosmos-spezifische Wallet erstellen zu müssen.
  3. Support auf Unternehmensebene: Overclock Labs, die Entwickler des Akash-Netzwerks, haben AkashML eingeführt, um es einfacher zu machen, Benutzer mit Unterstützung auf Unternehmensebene in das Akash-Netzwerk zu bringen.
  4. Self-Service: Cloudmos, das kürzlich von Akash übernommen wurde, hat auch eine benutzerfreundliche Self-Service-Oberfläche für die GPU-Bereitstellung eingeführt. Bisher musste die Bereitstellung über Befehlszeilencode erfolgen.
  5. Auswahl: Während der Fokus in erster Linie auf Nvidia-Enterprise-Chips liegt, bietet Akash auch Consumer-Chips an und unterstützt seit Ende 2023 auch AMD-Chips.

Akash validiert auch Anwendungsfälle über das Netzwerk. Während des GPU-Testnetzwerks hat die Community gezeigt, dass sie das Netzwerk nutzen kann, um Inferenz für viele beliebte KI-Modelle bereitzustellen und auszuführen. Die Anwendungen Akash Chat und Stable Diffusion XL demonstrieren beide die Fähigkeit von Akash, Inferenz durchzuführen. Wir glauben, dass der Inferenzmarkt im Laufe der Zeit viel größer sein wird als der Schulungsmarkt. Die heutige KI-gesteuerte Suche kostet 0,02 US-Dollar (das 10-fache der aktuellen Kosten von Google). Bei 3 Billionen Suchanfragen pro Jahr wären das 60 Milliarden US-Dollar pro Jahr. Zum Vergleich: Das Training eines OpenAI-Modells kostet etwa 100 Millionen US-Dollar. Während die Kosten für beide wahrscheinlich niedriger sein werden, unterstreicht dies den erheblichen Unterschied bei den langfristigen Einnahmequellen.

In Anbetracht der Tatsache, dass sich der Großteil der Nachfrage nach High-End-Chips heute auf das Training konzentriert, arbeitet Akash derzeit auch daran, zu demonstrieren, dass sie das Akash-Netzwerk nutzen können, um ein Modell zu trainieren, das sie Anfang 2024 auf den Markt bringen wollen. Nachdem wir homogene Wafer von einem einzigen Lieferanten verwendet haben, wird das nächste Projekt darin bestehen, heterogene Wafer von mehreren Lieferanten zu verwenden.

Akashs Roadmap ist riesig. Zu den laufenden Produktfunktionen gehören die Unterstützung der Datenschutzverwaltung, On-Demand-/Reserved Instances und eine bessere Auffindbarkeit.

Token-Modell und Anreize

Akash erhebt eine Bearbeitungsgebühr von 4 % für AKT-Zahlungen und eine Bearbeitungsgebühr von 20 % für USDC-Zahlungen. Dieser Gebührensatz von 20 % ähnelt dem, was wir in traditionellen Online-Märkten sehen (z. Uber 30 %).

Akash hat etwa 58 % seiner Token im Umlauf (225 Millionen im Umlauf, maximales Angebot 388 Millionen). Die jährliche Inflationsrate ist von 8 % auf 13 % gestiegen. Derzeit sind 60% der im Umlauf befindlichen Token gesperrt, mit einer Sperrfrist von 21 Tagen.

Ein Gebührensatz von 40 % (bisher 25 %) der Inflation und des GMV wird ebenfalls in den Community-Pool fließen, der derzeit 10 Millionen US-Dollar in AKT-Token hält.

Der Zweck dieser Mittel wird noch festgelegt, wird aber zwischen öffentlichen Mitteln, Anbieteranreizen, Staking, potenzieller Verbrennung und Community-Pools aufgeteilt.

Am 19. Januar startete Akash ein Pilot-Incentive-Programm in Höhe von 5 Millionen US-Dollar, das darauf abzielt, 1.000 A100 auf die Plattform zu bringen. Im Laufe der Zeit besteht das Ziel darin, den am Markt teilnehmenden Anbietern eine angebotsseitige Umsatztransparenz (z. B. 95 % effektive Auslastung) zu bieten.

Bewertung und Szenarioanalyse

Hier sind einige Szenarien und anschauliche Annahmen zu den wichtigsten Treibern von Akash:

Kurzfristiges Szenario: Wir schätzen, dass, wenn Akash 15.000 A100-Einheiten erreichen kann, dies fast 150 Millionen US-Dollar an GMV generieren wird. Bei einem Provisionssatz von 20 % würde dies Akash 30 Millionen US-Dollar an Vertragsgebühren einbringen. Angesichts des Wachstumskurses, multipliziert man diese Zahl mit 100 (unter Berücksichtigung der KI-Bewertungen), wäre dies 3 Milliarden US-Dollar wert.

Baseline-Case: Wir gehen davon aus, dass die IaaS-Marktchancen im Einklang mit der Schätzung von Morgan Stanley von 50 Milliarden US-Dollar liegen. Bei einer angenommenen Auslastung von 70 % gibt es 15 Milliarden US-Dollar an wiederverkaufsfähiger Kapazität. Unter der Annahme eines Rabatts von 30 % auf diese Kapazität erhalten wir 10 Milliarden US-Dollar plus 10 Milliarden US-Dollar aus anderen nicht hyperskalierbaren Quellen. Angesichts der Tatsache, dass Märkte in der Regel über starke Burggräben verfügen, gehen wir davon aus, dass Akash einen Marktanteil von 33 % erreichen kann (20 % des Marktanteils von Airbnb bei Ferienvermietungen, 75 % des Marktanteils von Uber bei Mitfahrgelegenheiten und 65 % des Marktanteils von Doordash bei der Lieferung von Lebensmitteln). Bei einem Provisionssatz von 20 % würde dies 1 Milliarde US-Dollar an Protokollgebühren generieren. Multipliziert man es mit 10, käme Akash auf ein Ergebnis von 10 Milliarden Dollar.

Aufwärts-Case: Unser Aufwärts-Case verwendet den gleichen Rahmen wie der Baseline-Case. Wir gehen von einer Wiederverkaufschance von 20 Milliarden US-Dollar aus, da wir in der Lage sind, mehr einzigartige GPU-Quellen zu erschließen und den Marktanteil zu steigern.

Hintergrundinformationen: Nvidia ist ein börsennotiertes Unternehmen mit einer Marktkapitalisierung von 1,2 Billionen US-Dollar, während OpenAI auf dem privaten Markt mit 80 Milliarden US-Dollar, Anthropic mit 20 Milliarden US-Dollar und CoreWeave mit 7 Milliarden US-Dollar bewertet wird. Im Krypto-Bereich werden Render und TAO mit über 2 Mrd. $ bzw. über 5,5 Mrd. $ bewertet.

Risiken und Maßnahmen zur Risikominderung:

Konzentration von Angebot und Nachfrage: Derzeit kommt der Großteil der GPU-Nachfrage von großen Technologieunternehmen für das Training extrem großer und komplexer LLMs (Large Language Models). Im Laufe der Zeit erwarten wir ein größeres Interesse am Training kleinerer KI-Modelle, die billiger und besser für den Umgang mit privaten Daten geeignet sind. Die Feinabstimmung wird immer wichtiger, da sich die Modelle von universellen zu vertikalen Modellen entwickeln. Mit zunehmender Nutzung und Akzeptanz wird die Inferenz letztendlich immer wichtiger.

Wettbewerb: Es gibt viele Krypto- und Nicht-Krypto-Unternehmen, die versuchen, ungenutzte GPUs freizusetzen. Einige der bemerkenswertesten Verschlüsselungsprotokolle sind:

  1. Render und Nosana veröffentlichen Consumer-GPUs für Inferenzen.
  2. Together etabliert Open-Source-Trainingsmodelle, die es Entwicklern ermöglichen, darauf aufzubauen.
  3. Ritual baut ein Netzwerk für das Hosting von Models auf.

Latenzprobleme und technische Herausforderungen: Angesichts der Tatsache, dass das KI-Training eine extrem ressourcenintensive Aufgabe ist und alle Chips in einem Rechenzentrum untergebracht sind, ist unklar, ob Modelle auf dezentralen, nicht an einem gemeinsamen Standort befindlichen GPU-Stacks trainiert werden können. OpenAI plant, seine nächste Trainingseinrichtung mit über 75.000 GPUs in Arizona zu bauen. Dies sind alles Probleme, die durch Planungsebenen wie FedML, Io.net und Gensyn behoben werden.

Verzichtserklärung:

  1. Dieser Artikel ist ein Nachdruck von [Foresight News]. Alle Urheberrechte liegen beim ursprünglichen Autor [Vincent Jow]. Wenn es Einwände gegen diesen Nachdruck gibt, wenden Sie sich bitte an das Gate Learn-Team , das sich umgehend darum kümmern wird.
  2. Haftungsausschluss: Die in diesem Artikel geäußerten Ansichten und Meinungen sind ausschließlich die des Autors und stellen keine Anlageberatung dar.
  3. Übersetzungen des Artikels in andere Sprachen werden vom Gate Learn-Team durchgeführt. Sofern nicht anders angegeben, ist das Kopieren, Verbreiten oder Plagiieren der übersetzten Artikel verboten.

Von Cloud Computing bis KI: Wird Akash der Geheimtipp in der DePIN-Schiene?

EinsteigerFeb 18, 2024
In diesem Artikel werden das Akash-Token-Modell und seine Anwendungsszenarien analysiert.
Von Cloud Computing bis KI: Wird Akash der Geheimtipp in der DePIN-Schiene?

Kurzfassung

Akash ist eine dezentrale Computing-Plattform, die entwickelt wurde, um nicht ausgelastete GPU-Versorgungen mit Benutzern zu verbinden, die GPU-Computing benötigen, mit dem Ziel, das "Airbnb" des GPU-Computings zu werden. Im Gegensatz zu anderen Wettbewerbern konzentrieren sie sich in erster Linie auf allgemeines GPU-Computing der Enterprise-Klasse. Seit dem Start des GPU-Mainnets im September 2023 hatten sie 150-200 GPUs in ihrem Netzwerk, mit Auslastungsraten von 50-70 % und einem jährlichen Gesamttransaktionswert von 500.000 bis 1 Million US-Dollar. In Übereinstimmung mit dem Netzwerkmarkt erhebt Akash eine Transaktionsgebühr von 20 % für USDC-Zahlungen.

Wir stehen am Anfang einer massiven Infrastrukturtransformation, bei der GPU-gesteuerte Parallelverarbeitung auf dem Vormarsch ist. Es wird prognostiziert, dass künstliche Intelligenz das globale BIP um 7 Billionen US-Dollar steigern und gleichzeitig 300 Millionen Arbeitsplätze automatisieren wird. Nvidia, der Hersteller von GPUs, erwartet, dass sein Umsatz von 27 Milliarden US-Dollar im Jahr 2022 auf 60 Milliarden US-Dollar im Jahr 2023 steigen und bis 2025 etwa 100 Milliarden US-Dollar erreichen wird. Die Investitionsausgaben von Cloud-Computing-Anbietern (AWS, GCP, Azure usw.) für Nvidia-Chips sind von einem einstelligen Bereich auf 25 % gestiegen und werden in den kommenden Jahren voraussichtlich 50 % überschreiten. (Quelle: Koyfin)

Morgan Stanley schätzt, dass bis 2025 die Möglichkeiten für eine ultragroße GPU-Infrastruktur als Service (IaaS) 40 bis 50 Milliarden US-Dollar erreichen werden. Wenn beispielsweise 30 % des GPU-Computings mit einem Rabatt von 30 % über den Sekundärmarkt weiterverkauft werden, entspricht dies einer Umsatzchance von 10 Milliarden US-Dollar. Rechnet man weitere 5 Milliarden US-Dollar Umsatzmöglichkeiten aus nicht ultragroßen Quellen hinzu, wird sich die Gesamtumsatzchance auf 15 Milliarden US-Dollar belaufen. Unter der Annahme, dass Akash einen Marktanteil von 33 % (5 Milliarden US-Dollar Gesamttransaktionswert) erobern und eine Transaktionsgebühr von 20 % erheben kann, entspricht dies einem Nettoumsatz von 1 Milliarde US-Dollar. Wenn wir diese Zahl mit 10 multiplizieren, ergäbe sich eine Marktkapitalisierung von fast 10 Milliarden US-Dollar.

Marktübersicht:

Im November 2022 startete OpenAI ChatGPT und stellte damit den Rekord für das schnellste Wachstum der Nutzerbasis auf, das bis Januar 2023 100 Millionen Nutzer und bis Mai 200 Millionen Nutzer erreichte. Die Auswirkungen sind enorm: Schätzungen gehen davon aus, dass die Steigerung der Produktivität und die Automatisierung von 3 Millionen Arbeitsplätzen das globale BIP um 7 Billionen US-Dollar steigern werden.

Künstliche Intelligenz hat sich rasant von einem Nischenforschungsbereich zum größten Ausgabenschwerpunkt für Unternehmen entwickelt. Die Kosten für die Erstellung von GPT-4 belaufen sich auf 100 Millionen US-Dollar, die jährlichen Betriebskosten belaufen sich auf 250 Millionen US-Dollar. GPT-5 erfordert 25.000 A100-GPUs (entspricht 2,25 Milliarden US-Dollar an Nvidia-Hardware) und kann eine Gesamtinvestition von 10 Milliarden US-Dollar in Hardware erfordern. Dies hat ein Wettrüsten zwischen den Unternehmen ausgelöst, um sich genügend GPUs zu sichern, um KI-gesteuerte Unternehmens-Workloads zu unterstützen.

Die Revolution der künstlichen Intelligenz hat einen monumentalen Wandel in der Infrastruktur ausgelöst und den Übergang von der CPU- zur GPU-Parallelverarbeitung beschleunigt. In der Vergangenheit wurden GPUs für das gleichzeitige Rendering und die Bildverarbeitung in großem Maßstab verwendet, während CPUs für die serielle Ausführung ausgelegt sind und nicht in der Lage sind, solche gleichzeitigen Operationen durchzuführen. Aufgrund der hohen Speicherbandbreite haben sich GPUs nach und nach weiterentwickelt, um andere Berechnungen mit parallelen Problemen zu bewältigen, wie z. B. Training, Optimierung und Verbesserung von Modellen der künstlichen Intelligenz.

Nvidia, der Pionier der GPU-Technologie in den 1990er Jahren, kombinierte seine erstklassige Hardware mit dem CUDA-Software-Stack und etablierte sich so viele Jahre lang eine führende Position gegenüber der Konkurrenz (vor allem AMD und Intel). Der CUDA-Stack von Nvidia wurde 2006 entwickelt und ermöglicht es Entwicklern, Nvidia-GPUs zu optimieren, um ihre Workloads zu beschleunigen und die GPU-Programmierung zu vereinfachen. Mit 4 Millionen CUDA-Benutzern und über 50.000 Entwicklern, die CUDA für die Entwicklung verwenden, verfügt es über ein leistungsstarkes Ökosystem von Programmiersprachen, Bibliotheken, Tools, Anwendungen und Frameworks. Wir gehen davon aus, dass die Nvidia-GPUs im Laufe der Zeit die Intel- und AMD-CPUs in Rechenzentren übertreffen werden.

Die Ausgaben für Nvidia-GPUs von Hyperscale-Cloud-Service-Providern und großen Technologieunternehmen sind von niedrigen einstelligen Prozentsätzen in den frühen 2010er Jahren auf mittlere einstellige Werte von 2015 bis 2022 und auf 25 % im Jahr 2023 gestiegen. Wir gehen davon aus, dass Nvidia in den kommenden Jahren über 50 % der Investitionen von Cloud-Service-Providern ausmachen wird. Es wird erwartet, dass der Umsatz von Nvidia von 25 Milliarden US-Dollar im Jahr 2022 auf 100 Milliarden US-Dollar im Jahr 2025 steigen wird (Quelle: Koyfin).

Morgan Stanley schätzt, dass bis 2025 die Marktgröße für GPU-Infrastructure-as-a-Service (IaaS) für Hyperscale-Cloud-Service-Anbieter 40 bis 50 Milliarden US-Dollar erreichen wird. Dies ist immer noch nur ein kleiner Teil des Gesamtumsatzes von Hyperscale-Cloud-Service-Providern, wobei die drei größten Hyperscale-Cloud-Service-Provider derzeit einen Umsatz von über 250 Milliarden US-Dollar erwirtschaften.

Angesichts der starken Nachfrage nach GPUs wurde von Medien wie der New York Times und dem Wall Street Journal ausführlich über GPU-Engpässe berichtet. Der CEO von AWS erklärte: "Die Nachfrage übersteigt das Angebot, was für alle gilt." Elon Musk sagte während der Telefonkonferenz zu den Ergebnissen des 2. Quartals 2023 von Tesla: "Wir werden weiterhin Nvidia-Hardware so schnell wie möglich erhalten."

Index Ventures musste Chips für seine Portfoliounternehmen kaufen. Es ist fast unmöglich, Chips von Nvidia außerhalb von Mainstream-Technologieunternehmen zu kaufen, und auch die Beschaffung von Chips von Hyperscale-Cloud-Service-Providern dauert lange.

Nachfolgend finden Sie die GPU-Preise für AWS und Azure. Wie unten gezeigt, ist ein Rabatt von 30-65% für Reservierungen von 1-3 Jahren verfügbar. Da Anbieter von Hyperscale-Cloud-Diensten Milliarden von Dollar in den Ausbau ihrer Kapazitäten investieren, suchen sie nach Investitionsmöglichkeiten, die für Umsatztransparenz sorgen. Wenn Kunden davon ausgehen, dass die Auslastung 60 % übersteigt, ist es am besten, sich für einen reservierten 1-Jahres-Preis zu entscheiden. Wenn die erwartete Auslastung 35 % übersteigt, wählen Sie 3 Jahre. Ungenutzte Kapazitäten können weiterverkauft werden, wodurch die Gesamtkosten erheblich gesenkt werden.

Wenn ein riesiger Cloud-Service-Provider ein 50-Milliarden-Dollar-Leasinggeschäft für GPU-Computing aufbaut, wäre der Weiterverkauf ungenutzter Rechenleistung eine große Chance. Unter der Annahme, dass 30 % der Rechenleistung mit einem Rabatt von 30 % weiterverkauft werden, würde dies einen 10-Milliarden-Dollar-Markt für den Weiterverkauf der GPU-Rechenleistung von Super-Scale-Cloud-Service-Providern schaffen.

Abgesehen von Super-Scale-Cloud-Service-Providern gibt es jedoch auch andere Bezugsquellen, darunter große Unternehmen (wie Meta, Tesla), Konkurrenten (CoreWeave, Lambda usw.) und gut finanzierte KI-Startups. Von 2022 bis 2025 wird Nvidia voraussichtlich einen Umsatz von rund 300 Milliarden US-Dollar erzielen. Unter der Annahme, dass es zusätzliche Chips im Wert von 70 Milliarden US-Dollar außerhalb von Super-Scale-Cloud-Service-Anbietern gibt, würde der Weiterverkauf von 20 % der Rechenleistung mit einem Rabatt von 30 % weitere 10 Milliarden US-Dollar auf insgesamt 200 Milliarden US-Dollar bringen.

Akash Übersicht

Akash ist ein dezentraler Computing-Marktplatz, der 2015 gegründet wurde und im September 2020 sein Mainnet als Cosmos-Anwendungskette startete. Seine Vision ist es, das Cloud Computing zu demokratisieren, indem es Rechenressourcen anbietet, die deutlich billiger sind als die von Super-Scale-Cloud-Service-Providern.

Die Blockchain kümmert sich um die Koordination und Abwicklung und speichert Aufzeichnungen über Anfragen, Gebote, Leasing und Abrechnung, während die Ausführung außerhalb der Kette erfolgt. Akash hostet Container, in denen Benutzer jede Cloud-native Anwendung ausführen können. Akash hat eine Reihe von Cloud-Management-Diensten, einschließlich Kubernetes, entwickelt, um diese Container zu orchestrieren und zu verwalten. Die Bereitstellung erfolgt über ein privates Peer-to-Peer-Netzwerk, das von der Blockchain isoliert ist.

Die erste Version von Akash konzentrierte sich auf CPU-Computing. Zu Spitzenzeiten hatte das Unternehmen ein jährliches Gesamttransaktionsvolumen von rund 200.000 US-Dollar und vermietete 4-5 Tausend CPUs. Es gab jedoch zwei Hauptprobleme: Eintrittsbarrieren (die das Starten einer Cosmos-Wallet und die Verwendung von AKT-Token zur Bezahlung von Workloads erfordern) und die Kundenabwanderung (die Wallet muss mit AKT aufgeladen werden, und wenn AKT ausläuft oder sich der Preis ändert, wird die Workload ohne alternative Anbieter gestoppt).

Im vergangenen Jahr ist Akash von CPU-Computing auf GPU-Computing umgestiegen und hat sich diesen Paradigmenwechsel in der Computing-Infrastruktur und die Lieferengpässe zunutze gemacht.

Akash GPU-Versorgung

Das GPU-Netzwerk von Akash wird im September 2023 im Mainnet eingeführt. Seitdem ist Akash auf 150-200 GPUs skaliert und hat Auslastungsraten von 50-70% erreicht.

Nachfolgend finden Sie einen Vergleich der Nvidia A100 Preise von verschiedenen Anbietern. Die Preise von Akash sind 30-60% günstiger als die der Konkurrenz.

Es gibt ungefähr 19 einzigartige Lieferanten im Akash-Netzwerk in 7 Ländern, die mehr als 15 Arten von Chips liefern. Der größte Anbieter ist Foundry, ein DCG-gestütztes Unternehmen, das sich auch mit Krypto-Mining und Staking beschäftigt.

Akash konzentriert sich in erster Linie auf Unternehmenschips (A100), die traditionell zur Unterstützung von KI-Workloads verwendet werden. Sie bieten zwar auch einige Consumer-Chips an, aber diese waren in der Vergangenheit aufgrund von Stromverbrauch, Software und Latenzproblemen im Allgemeinen schwer für KI zu verwenden. Mehrere Unternehmen, wie FedML, io.net und Gensyn, versuchen, eine Orchestrierungsschicht aufzubauen, um KI-Edge-Computing zu ermöglichen.

Da sich der Markt zunehmend in Richtung Inferenz statt Training verlagert, könnten GPUs für Endverbraucher rentabler werden, aber derzeit konzentriert sich der Markt auf die Verwendung von Chips der Enterprise-Klasse für das Training.

Auf der Angebotsseite konzentriert sich Akash auf öffentliche Hyperscale-Cloud-Service-Provider, private GPU-Anbieter, Krypto-Miner und Unternehmen, die nicht ausgelastete GPUs halten.

  1. Hyperscale-Public-Cloud-Anbieter: Das größte Potenzial liegt darin, dass große Public-Cloud-Service-Provider (Azure, AWS, GCP) ihren Kunden die Möglichkeit geben, nicht ausgelastete Kapazitäten auf dem Akash-Marktplatz weiterzuverkaufen. Dies würde ihnen einen Einblick in die Einnahmen aus Kapitalinvestitionen verschaffen. Sobald große Cloud-Service-Anbieter dies zulassen, müssen andere möglicherweise nachziehen, um wettbewerbsfähige Marktanteile zu halten. Wie bereits erwähnt, könnten große Cloud-Service-Anbieter eine Infrastructure-as-a-Service-Chance (IaaS) in Höhe von 50 Milliarden US-Dollar haben, was eine groß angelegte Sekundärhandelsmöglichkeit für den Akash-Marktplatz schafft.
  2. Private-Cloud-Wettbewerber: Neben Hyperscale-Public-Cloud-Service-Providern bieten auch mehrere Private-Cloud-Unternehmen (CoreWeave, Lambda Labs usw.) GPU-Mietdienste an. Angesichts der Wettbewerbsdynamik von Hyperscale-Cloud-Service-Providern, die versuchen, ihre eigenen ASICs als Ersatzhardware zu bauen, hat Nvidia einigen privaten Unternehmen mehr Angebot zur Verfügung gestellt. Private Wettbewerber sind oft preislich günstiger als Hyperscale-Cloud-Anbieter (z. B. ist der A100 bis zu 50 % günstiger). CoreWeave, einer der bekanntesten privaten Konkurrenten, war einst ein Krypto-Mining-Unternehmen, das 2019 auf den Bau von Rechenzentren und die Bereitstellung von GPU-Infrastruktur umgestiegen ist. Es sammelt Geld mit einer Bewertung von 7 Mrd. $ ein und wird von Nvidia unterstützt. CoreWeave wächst rasant, mit einem Umsatz von 500 Millionen US-Dollar im Jahr 2023 und einem erwarteten Umsatz von 1,5 bis 2 Milliarden US-Dollar im Jahr 2024. CoreWeave verfügt über 45.000 Nvidia-Chips und schätzt, dass diese privaten Konkurrenten insgesamt mehr als 100.000 GPUs haben könnten. Die Erschließung von Sekundärmärkten für ihren Kundenstamm könnte es diesen privaten Wettbewerbern ermöglichen, Marktanteile gegenüber öffentlichen Hyperscale-Cloud-Anbietern zu gewinnen.
  3. Cryptominer: Cryptominer waren in der Vergangenheit wichtige Verbraucher von Nvidia-GPUs. Aufgrund der Rechenkomplexität bei der Lösung kryptografischer Beweise sind GPUs zur vorherrschenden Hardware für Proof-of-Work-Netzwerke geworden. Mit dem Übergang von Ethereum von Proof-of-Work zu Proof-of-Stake hat dies zu einem erheblichen Kapazitätsüberschuss geführt. Es wird geschätzt, dass etwa 20 % der freigesetzten Chips für KI-Workloads wiederverwendet werden können. Darüber hinaus versuchen Bitcoin-Miner auch, ihre Einnahmequellen zu diversifizieren. In den letzten Monaten haben Hut 8, Applied Digital, Iris Energy, Hive und andere Bitcoin-Miner Strategien für künstliche Intelligenz und maschinelles Lernen angekündigt. Foundry ist der größte Anbieter auf Akash und einer der größten Bitcoin-Miner.
  4. Unternehmen: Wie bereits erwähnt, verfügt Meta über eine große Anzahl von GPUs mit 15.000 A100 bei einer Auslastung von 5 %. In ähnlicher Weise hat Tesla auch 15.000 A100. Die Auslastungsraten für Enterprise Computing liegen in der Regel unter 50 %. Angesichts der erheblichen Risikokapitalinvestitionen in diesem Bereich haben viele KI/ML-Startups auch Chips im Voraus gekauft. Die Möglichkeit, ungenutzte Kapazitäten weiterzuverkaufen, wird die Gesamtbetriebskosten für diese kleineren Unternehmen senken. Interessanterweise kann das Leasing alter GPUs potenzielle Steuervorteile mit sich bringen.

Akash GPU Nachfrageseite

In den Jahren 2022 und 2023, vor dem Start des GPU-Netzwerks, lag der annualisierte Bruttowarenwert (GMV) für CPUs bei etwa 50.000 US-Dollar. Seit der Einführung des GPU-Netzwerks hat der GMV ein annualisiertes Niveau von 500.000 bis 1.000.000 US-Dollar erreicht, wobei die Auslastung des GPU-Netzwerks zwischen 50 % und 70 % liegt.

Akash hat daran gearbeitet, die Reibungsverluste für Benutzer zu reduzieren, die Benutzererfahrung zu verbessern und die Anwendungsfälle zu erweitern.

  1. USDC-Zahlungen: Akash erlaubte kürzlich stabile Zahlungen mit USDC, wodurch Kunden beim Kauf von AKT von Preisschwankungen befreit und AKT bis zur Zahlung gehalten werden.
  2. Metamask-Wallet-Unterstützung: Akash hat auch Metamask Snap implementiert, um den Einstieg zu erleichtern, ohne eine Cosmos-spezifische Wallet erstellen zu müssen.
  3. Support auf Unternehmensebene: Overclock Labs, die Entwickler des Akash-Netzwerks, haben AkashML eingeführt, um es einfacher zu machen, Benutzer mit Unterstützung auf Unternehmensebene in das Akash-Netzwerk zu bringen.
  4. Self-Service: Cloudmos, das kürzlich von Akash übernommen wurde, hat auch eine benutzerfreundliche Self-Service-Oberfläche für die GPU-Bereitstellung eingeführt. Bisher musste die Bereitstellung über Befehlszeilencode erfolgen.
  5. Auswahl: Während der Fokus in erster Linie auf Nvidia-Enterprise-Chips liegt, bietet Akash auch Consumer-Chips an und unterstützt seit Ende 2023 auch AMD-Chips.

Akash validiert auch Anwendungsfälle über das Netzwerk. Während des GPU-Testnetzwerks hat die Community gezeigt, dass sie das Netzwerk nutzen kann, um Inferenz für viele beliebte KI-Modelle bereitzustellen und auszuführen. Die Anwendungen Akash Chat und Stable Diffusion XL demonstrieren beide die Fähigkeit von Akash, Inferenz durchzuführen. Wir glauben, dass der Inferenzmarkt im Laufe der Zeit viel größer sein wird als der Schulungsmarkt. Die heutige KI-gesteuerte Suche kostet 0,02 US-Dollar (das 10-fache der aktuellen Kosten von Google). Bei 3 Billionen Suchanfragen pro Jahr wären das 60 Milliarden US-Dollar pro Jahr. Zum Vergleich: Das Training eines OpenAI-Modells kostet etwa 100 Millionen US-Dollar. Während die Kosten für beide wahrscheinlich niedriger sein werden, unterstreicht dies den erheblichen Unterschied bei den langfristigen Einnahmequellen.

In Anbetracht der Tatsache, dass sich der Großteil der Nachfrage nach High-End-Chips heute auf das Training konzentriert, arbeitet Akash derzeit auch daran, zu demonstrieren, dass sie das Akash-Netzwerk nutzen können, um ein Modell zu trainieren, das sie Anfang 2024 auf den Markt bringen wollen. Nachdem wir homogene Wafer von einem einzigen Lieferanten verwendet haben, wird das nächste Projekt darin bestehen, heterogene Wafer von mehreren Lieferanten zu verwenden.

Akashs Roadmap ist riesig. Zu den laufenden Produktfunktionen gehören die Unterstützung der Datenschutzverwaltung, On-Demand-/Reserved Instances und eine bessere Auffindbarkeit.

Token-Modell und Anreize

Akash erhebt eine Bearbeitungsgebühr von 4 % für AKT-Zahlungen und eine Bearbeitungsgebühr von 20 % für USDC-Zahlungen. Dieser Gebührensatz von 20 % ähnelt dem, was wir in traditionellen Online-Märkten sehen (z. Uber 30 %).

Akash hat etwa 58 % seiner Token im Umlauf (225 Millionen im Umlauf, maximales Angebot 388 Millionen). Die jährliche Inflationsrate ist von 8 % auf 13 % gestiegen. Derzeit sind 60% der im Umlauf befindlichen Token gesperrt, mit einer Sperrfrist von 21 Tagen.

Ein Gebührensatz von 40 % (bisher 25 %) der Inflation und des GMV wird ebenfalls in den Community-Pool fließen, der derzeit 10 Millionen US-Dollar in AKT-Token hält.

Der Zweck dieser Mittel wird noch festgelegt, wird aber zwischen öffentlichen Mitteln, Anbieteranreizen, Staking, potenzieller Verbrennung und Community-Pools aufgeteilt.

Am 19. Januar startete Akash ein Pilot-Incentive-Programm in Höhe von 5 Millionen US-Dollar, das darauf abzielt, 1.000 A100 auf die Plattform zu bringen. Im Laufe der Zeit besteht das Ziel darin, den am Markt teilnehmenden Anbietern eine angebotsseitige Umsatztransparenz (z. B. 95 % effektive Auslastung) zu bieten.

Bewertung und Szenarioanalyse

Hier sind einige Szenarien und anschauliche Annahmen zu den wichtigsten Treibern von Akash:

Kurzfristiges Szenario: Wir schätzen, dass, wenn Akash 15.000 A100-Einheiten erreichen kann, dies fast 150 Millionen US-Dollar an GMV generieren wird. Bei einem Provisionssatz von 20 % würde dies Akash 30 Millionen US-Dollar an Vertragsgebühren einbringen. Angesichts des Wachstumskurses, multipliziert man diese Zahl mit 100 (unter Berücksichtigung der KI-Bewertungen), wäre dies 3 Milliarden US-Dollar wert.

Baseline-Case: Wir gehen davon aus, dass die IaaS-Marktchancen im Einklang mit der Schätzung von Morgan Stanley von 50 Milliarden US-Dollar liegen. Bei einer angenommenen Auslastung von 70 % gibt es 15 Milliarden US-Dollar an wiederverkaufsfähiger Kapazität. Unter der Annahme eines Rabatts von 30 % auf diese Kapazität erhalten wir 10 Milliarden US-Dollar plus 10 Milliarden US-Dollar aus anderen nicht hyperskalierbaren Quellen. Angesichts der Tatsache, dass Märkte in der Regel über starke Burggräben verfügen, gehen wir davon aus, dass Akash einen Marktanteil von 33 % erreichen kann (20 % des Marktanteils von Airbnb bei Ferienvermietungen, 75 % des Marktanteils von Uber bei Mitfahrgelegenheiten und 65 % des Marktanteils von Doordash bei der Lieferung von Lebensmitteln). Bei einem Provisionssatz von 20 % würde dies 1 Milliarde US-Dollar an Protokollgebühren generieren. Multipliziert man es mit 10, käme Akash auf ein Ergebnis von 10 Milliarden Dollar.

Aufwärts-Case: Unser Aufwärts-Case verwendet den gleichen Rahmen wie der Baseline-Case. Wir gehen von einer Wiederverkaufschance von 20 Milliarden US-Dollar aus, da wir in der Lage sind, mehr einzigartige GPU-Quellen zu erschließen und den Marktanteil zu steigern.

Hintergrundinformationen: Nvidia ist ein börsennotiertes Unternehmen mit einer Marktkapitalisierung von 1,2 Billionen US-Dollar, während OpenAI auf dem privaten Markt mit 80 Milliarden US-Dollar, Anthropic mit 20 Milliarden US-Dollar und CoreWeave mit 7 Milliarden US-Dollar bewertet wird. Im Krypto-Bereich werden Render und TAO mit über 2 Mrd. $ bzw. über 5,5 Mrd. $ bewertet.

Risiken und Maßnahmen zur Risikominderung:

Konzentration von Angebot und Nachfrage: Derzeit kommt der Großteil der GPU-Nachfrage von großen Technologieunternehmen für das Training extrem großer und komplexer LLMs (Large Language Models). Im Laufe der Zeit erwarten wir ein größeres Interesse am Training kleinerer KI-Modelle, die billiger und besser für den Umgang mit privaten Daten geeignet sind. Die Feinabstimmung wird immer wichtiger, da sich die Modelle von universellen zu vertikalen Modellen entwickeln. Mit zunehmender Nutzung und Akzeptanz wird die Inferenz letztendlich immer wichtiger.

Wettbewerb: Es gibt viele Krypto- und Nicht-Krypto-Unternehmen, die versuchen, ungenutzte GPUs freizusetzen. Einige der bemerkenswertesten Verschlüsselungsprotokolle sind:

  1. Render und Nosana veröffentlichen Consumer-GPUs für Inferenzen.
  2. Together etabliert Open-Source-Trainingsmodelle, die es Entwicklern ermöglichen, darauf aufzubauen.
  3. Ritual baut ein Netzwerk für das Hosting von Models auf.

Latenzprobleme und technische Herausforderungen: Angesichts der Tatsache, dass das KI-Training eine extrem ressourcenintensive Aufgabe ist und alle Chips in einem Rechenzentrum untergebracht sind, ist unklar, ob Modelle auf dezentralen, nicht an einem gemeinsamen Standort befindlichen GPU-Stacks trainiert werden können. OpenAI plant, seine nächste Trainingseinrichtung mit über 75.000 GPUs in Arizona zu bauen. Dies sind alles Probleme, die durch Planungsebenen wie FedML, Io.net und Gensyn behoben werden.

Verzichtserklärung:

  1. Dieser Artikel ist ein Nachdruck von [Foresight News]. Alle Urheberrechte liegen beim ursprünglichen Autor [Vincent Jow]. Wenn es Einwände gegen diesen Nachdruck gibt, wenden Sie sich bitte an das Gate Learn-Team , das sich umgehend darum kümmern wird.
  2. Haftungsausschluss: Die in diesem Artikel geäußerten Ansichten und Meinungen sind ausschließlich die des Autors und stellen keine Anlageberatung dar.
  3. Übersetzungen des Artikels in andere Sprachen werden vom Gate Learn-Team durchgeführt. Sofern nicht anders angegeben, ist das Kopieren, Verbreiten oder Plagiieren der übersetzten Artikel verboten.
เริ่มตอนนี้
สมัครและรับรางวัล
$100
ลงทะเบียนทันที