Akash est une plateforme informatique décentralisée conçue pour connecter des processeurs graphiques sous-utilisés aux utilisateurs qui en ont besoin, dans le but de devenir l' « Airbnb » de l'informatique par GPU. Contrairement à d'autres concurrents, ils se concentrent principalement sur l'informatique graphique générale destinée aux entreprises. Depuis le lancement du réseau principal des GPU en septembre 2023, 150 à 200 GPU sont installés sur leur réseau, avec des taux d'utilisation de 50 à 70 %, et une valeur de transaction totale annuelle de 500 000 à 1 million de dollars. Conformément au marché des réseaux, Akash facture des frais de transaction de 20 % pour les paiements en USDC.
Nous sommes au début d'une transformation massive de l'infrastructure, avec une augmentation du traitement parallèle piloté par GPU. L'intelligence artificielle devrait augmenter le PIB mondial de 7 billions de dollars, tout en automatisant 300 millions d'emplois. Nvidia, le fabricant de GPU, prévoit que son chiffre d'affaires passera de 27 milliards de dollars en 2022 à 60 milliards de dollars en 2023, pour atteindre environ 100 milliards de dollars d'ici 2025. Les dépenses d'investissement des fournisseurs de cloud computing (AWS, GCP, Azure, etc.) consacrées aux puces Nvidia sont passées de 10 % à 25 % et devraient dépasser les 50 % dans les années à venir. (Source : Koyfin)
Morgan Stanley estime que d'ici 2025, les opportunités de création d'une infrastructure GPU en tant que service (IaaS) à très grande échelle atteindront 40 à 50 milliards de dollars. Par exemple, si 30 % des processeurs graphiques sont revendus avec une réduction de 30 % sur le marché secondaire, cela représentera une opportunité de revenus de 10 milliards de dollars. En ajoutant une nouvelle opportunité de revenus de 5 milliards de dollars provenant de sources autres que de très grande envergure, l'opportunité de revenus totale sera de 15 milliards de dollars. En supposant qu'Akash puisse saisir 33 % de part de marché de cette opportunité (valeur totale des transactions de 5 milliards de dollars) et facturer des frais de transaction de 20 %, cela se traduira par un chiffre d'affaires net d'un milliard de dollars. Si nous multiplions ce chiffre par 10, le résultat serait de près de 10 milliards de dollars de capitalisation boursière.
En novembre 2022, OpenAI a lancé ChatGPT, établissant le record de croissance la plus rapide de sa base d'utilisateurs, atteignant 100 millions d'utilisateurs en janvier 2023 et 200 millions d'utilisateurs en mai. L'impact est énorme, les estimations suggérant que l'augmentation de la productivité et l'automatisation de 3 millions d'emplois augmenteront le PIB mondial de 7 billions de dollars.
L'intelligence artificielle est rapidement passée d'un domaine de recherche de niche à la principale source de dépenses des entreprises. Le coût de création du GPT-4 est de 100 millions de dollars, avec des coûts d'exploitation annuels de 250 millions de dollars. Le GPT-5 nécessite 25 000 GPU A100 (soit 2,25 milliards de dollars de matériel Nvidia) et peut nécessiter un investissement matériel total de 10 milliards de dollars. Cela a déclenché une course aux armements entre les entreprises pour se procurer suffisamment de GPU pour prendre en charge les charges de travail des entreprises pilotées par l'IA.
La révolution de l'intelligence artificielle a entraîné une modification majeure de l'infrastructure, accélérant la transition du traitement parallèle entre le processeur et le processeur graphique. Historiquement, les GPU étaient utilisés pour le rendu à grande échelle et le traitement d'images simultanés, tandis que les processeurs étaient conçus pour une exécution en série, ne pouvant pas effectuer de telles opérations simultanées. En raison de la bande passante mémoire élevée, les GPU ont progressivement évolué pour gérer d'autres calculs présentant des problèmes parallèles, tels que l'entraînement, l'optimisation et l'amélioration des modèles d'intelligence artificielle.
Nvidia, la pionnière de la technologie GPU dans les années 1990, a associé son matériel haut de gamme à sa suite logicielle CUDA, se taillant ainsi une position de leader sur ses concurrents (principalement AMD et Intel) pendant de nombreuses années. Le stack CUDA de Nvidia a été développé en 2006, permettant aux développeurs d'optimiser les GPU Nvidia afin d'accélérer leurs charges de travail et de simplifier la programmation des GPU. Avec 4 millions d'utilisateurs CUDA et plus de 50 000 développeurs utilisant CUDA pour le développement, le site possède un puissant écosystème de langages de programmation, de bibliothèques, d'outils, d'applications et de frameworks. Au fil du temps, nous nous attendons à ce que les GPU Nvidia surpassent les processeurs Intel et AMD dans les centres de données.
Les dépenses consacrées aux GPU Nvidia par les fournisseurs de services cloud à grande échelle et les grandes entreprises technologiques ont rapidement augmenté, passant de faibles pourcentages à un chiffre au début des années 2010 à un chiffre entre 2015 et 2022, et à 25 % en 2023. Nous pensons que Nvidia représentera plus de 50 % des dépenses d'investissement des fournisseurs de services cloud dans les années à venir. Cela devrait faire passer le chiffre d'affaires de Nvidia de 25 milliards de dollars en 2022 à 100 milliards de dollars en 2025 (Source : Koyfin).
Morgan Stanley estime que d'ici 2025, la taille du marché de l'infrastructure graphique en tant que service (IaaS) pour les fournisseurs de services cloud à grande échelle atteindra 40 à 50 milliards de dollars. Cela ne représente encore qu'une petite partie du chiffre d'affaires total des fournisseurs de services cloud hyperscale, les trois principaux fournisseurs de services cloud hyperscale générant actuellement un chiffre d'affaires de plus de 250 milliards de dollars.
Compte tenu de la forte demande de GPU, les pénuries de GPU ont été largement signalées par des médias tels que le New York Times et le Wall Street Journal. Le PDG d'AWS a déclaré : « La demande dépasse l'offre, ce qui est vrai pour tout le monde. » Elon Musk a déclaré lors de l'appel de résultats de Tesla pour le deuxième trimestre 2023 : « Nous continuerons à utiliser du matériel Nvidia dès que possible ».
Index Ventures a dû acheter des puces pour les sociétés de son portefeuille. Il est quasiment impossible d'acheter des puces auprès de Nvidia en dehors des grandes entreprises technologiques, et l'obtention de puces auprès de fournisseurs de services cloud à grande échelle prend également beaucoup de temps.
Vous trouverez ci-dessous les tarifs des GPU pour AWS et Azure. Comme indiqué ci-dessous, une réduction de 30 à 65 % est disponible pour les réservations de 1 à 3 ans. Alors que les fournisseurs de services cloud à grande échelle investissent des milliards de dollars dans l'extension de leurs capacités, ils recherchent des opportunités d'investissement qui leur offrent de la visibilité sur leurs revenus. Si les clients s'attendent à ce que les taux d'utilisation dépassent 60 %, il est préférable d'opter pour un tarif réservé d'un an. Si le taux d'utilisation prévu dépasse 35 %, choisissez 3 ans. Toute capacité inutilisée peut être revendue, ce qui réduit considérablement leur coût total.
Si un fournisseur de services cloud de grande envergure créait une activité de crédit-bail de 50 milliards de dollars pour les processeurs graphiques, la revente de puissance informatique inutilisée serait une énorme opportunité. En supposant que 30 % de la puissance informatique soit revendue avec une réduction de 30 %, cela créerait un marché de 10 milliards de dollars pour la revente de la puissance de calcul des GPU des grands fournisseurs de services cloud.
Cependant, outre les fournisseurs de services cloud à grande échelle, il existe d'autres sources d'approvisionnement, notamment de grandes entreprises (telles que Meta, Tesla), des concurrents (CoreWeave, Lambda, etc.) et des startups d'IA bien financées. De 2022 à 2025, Nvidia devrait générer un chiffre d'affaires d'environ 300 milliards de dollars. En supposant qu'il y ait 70 milliards de dollars supplémentaires de puces provenant de fournisseurs de services cloud à grande échelle, la revente de 20 % de la puissance informatique avec une réduction de 30 % rapporterait 10 milliards de dollars supplémentaires, soit 200 milliards de dollars au total.
Akash est une place de marché informatique décentralisée fondée en 2015 et qui a lancé son réseau principal en tant que chaîne d'applications Cosmos en septembre 2020. Sa vision est de démocratiser le cloud computing en proposant des ressources informatiques nettement moins chères que celles des grands fournisseurs de services cloud.
La blockchain gère la coordination et le règlement, stocke les enregistrements des demandes, des enchères, du crédit-bail et du règlement, tandis que l'exécution se fait hors chaîne. Akash héberge des conteneurs dans lesquels les utilisateurs peuvent exécuter n'importe quelle application native du cloud. Akash a créé une suite de services de gestion du cloud, y compris Kubernetes, pour orchestrer et gérer ces conteneurs. Le déploiement est transféré depuis un réseau peer-to-peer privé isolé de la blockchain.
La première version d'Akash était axée sur les processeurs. À son apogée, l'entreprise réalisait un volume de transactions annuel total d'environ 200 000 dollars, louant 4 à 5 000 processeurs. Cependant, il y avait deux problèmes principaux : les barrières à l'entrée (obligation de créer un portefeuille Cosmos et utiliser des jetons AKT pour payer la charge de travail) et le taux de désabonnement des clients (devoir recharger le portefeuille avec AKT, et si AKT est épuisé ou si le prix change, la charge de travail cesse sans autre fournisseur).
Au cours de l'année écoulée, Akash est passée de l'informatique sur processeur à l'informatique sur GPU, profitant de ce changement de paradigme en matière d'infrastructure informatique et de pénuries d'approvisionnement.
Le réseau GPU d'Akash sera lancé sur le réseau principal en septembre 2023. Depuis, Akash est passé à 150 à 200 GPU et a atteint des taux d'utilisation de 50 à 70 %.
Vous trouverez ci-dessous une comparaison des prix de la Nvidia A100 proposés par plusieurs fournisseurs. Les prix d'Akash sont de 30 à 60 % inférieurs à ceux de la concurrence.
Le réseau Akash compte environ 19 fournisseurs uniques, situés dans 7 pays, qui fournissent plus de 15 types de puces. Le principal fournisseur est Foundry, une société soutenue par la DCG qui se consacre également au minage et au jalonnement de cryptomonnaies.
Akash se concentre principalement sur les puces d'entreprise (A100), qui sont traditionnellement utilisées pour prendre en charge les charges de travail liées à l'IA. Bien qu'ils proposent également des puces grand public, celles-ci étaient généralement difficiles à utiliser pour l'IA par le passé en raison de problèmes de consommation d'énergie, de logiciels et de latence. Plusieurs entreprises, telles que FedML, io.net et Gensyn, essaient de créer une couche d'orchestration pour permettre l'informatique de pointe basée sur l'IA.
Alors que le marché s'oriente de plus en plus vers l'inférence plutôt que vers la formation, les GPU grand public pourraient devenir plus viables, mais actuellement, le marché se concentre sur l'utilisation de puces de qualité professionnelle pour la formation.
Du côté de l'offre, Akash se concentre sur les fournisseurs de services cloud publics à grande échelle, les fournisseurs de GPU privés, les mineurs de cryptomonnaies et les entreprises détenant des GPU sous-utilisés.
Pendant la majeure partie de 2022 et 2023, avant le lancement du réseau GPU, la valeur brute des marchandises (GMV) annualisée des processeurs était d'environ 50 000 dollars. Depuis l'introduction du réseau GPU, le GMV a atteint un niveau annualisé de 500 000 à 1 000 000 dollars, avec des taux d'utilisation du réseau GPU allant de 50 % à 70 %.
Akash s'efforce de réduire les frictions entre utilisateurs, d'améliorer l'expérience utilisateur et d'élargir les cas d'utilisation.
Akash valide également des cas d'utilisation via le réseau. Lors du GPU Test Network, la communauté a démontré qu'elle pouvait utiliser le réseau pour déployer et faire des inférences sur de nombreux modèles d'IA populaires. Les applications Akash Chat et Stable Diffusion XL démontrent toutes deux la capacité d'Akash à faire des inférences. Nous pensons qu'au fil du temps, le marché de l'inférence sera bien plus important que le marché de la formation. La recherche basée sur l'IA coûte aujourd'hui 0,02 dollar (10 fois les coûts actuels de Google). Étant donné qu'il y a 3 billions de recherches par an, cela représenterait 60 milliards de dollars par an. Pour mettre les choses en contexte, la formation d'un modèle OpenAI coûte environ 100 millions de dollars. Bien que les coûts soient probablement inférieurs dans les deux cas, cela met en évidence la différence significative entre les sources de revenus à long terme.
Étant donné que la majeure partie de la demande de puces haut de gamme est aujourd'hui axée sur la formation, Akash s'efforce également de démontrer qu'elle peut utiliser le réseau Akash pour entraîner un modèle, qu'elle prévoit de lancer début 2024. Après avoir utilisé des plaquettes homogènes provenant d'un seul fournisseur, le prochain projet consistera à utiliser des plaquettes hétérogènes provenant de plusieurs fournisseurs.
La feuille de route d'Akash est énorme. Parmi les fonctionnalités permanentes du produit, citons la prise en charge de la gestion de la confidentialité, les instances à la demande/réservées et une meilleure visibilité.
Akash facture des frais de gestion de 4 % pour les paiements AKT et de 20 % pour les paiements en USDC. Ce taux de 20 % est similaire à celui que nous observons sur les marchés en ligne traditionnels (par ex. Uber est à 30 %).
Akash a environ 58 % de ses jetons en circulation (225 millions en circulation, approvisionnement maximum 388 millions). Le taux d'inflation annuel est passé de 8 % à 13 %. Actuellement, 60 % des jetons en circulation sont bloqués, avec une période de blocage de 21 jours.
Un taux de frais de 40 % (auparavant 25 %) de l'inflation et du GMV sera également versé au pool communautaire, qui détient actuellement 10 millions de dollars de jetons AKT.
L'objectif de ces fonds n'est pas encore déterminé, mais ils seront répartis entre les fonds publics, les incitations des fournisseurs, le jalonnement, le risque de combustion et les pools communautaires.
Le 19 janvier, Akash a lancé un programme d'incitation pilote de 5 millions de dollars visant à intégrer 1 000 A100 sur la plateforme. Au fil du temps, l'objectif est de fournir une visibilité des revenus du côté de l'offre (par exemple, une utilisation effective de 95 %) aux fournisseurs présents sur le marché.
Voici plusieurs scénarios et hypothèses illustrant les principaux moteurs d'Akash :
Scénario à court terme : Nous estimons que si Akash parvient à atteindre 15 000 unités A100, cela générera près de 150 millions de dollars de GMV. À un taux de commission de 20 %, cela rapporterait 30 millions de dollars à Akash en frais de contrat. Compte tenu de la trajectoire de croissance, en multipliant ce chiffre par 100 (en tenant compte des valorisations de l'IA), cela vaudrait 3 milliards de dollars.
Scénario de référence : Nous partons du principe que l'opportunité de marché de l'IaaS correspond à l'estimation de 50 milliards de dollars de Morgan Stanley. En supposant une utilisation de 70 %, il y a 15 milliards de dollars de capacité revendue. En supposant une réduction de 30 % sur cette capacité, nous obtiendrons 10 milliards de dollars, plus 10 milliards de dollars provenant d'autres sources non hyperscalables. Étant donné que les marchés connaissent généralement de solides douves, nous partons du principe qu'Akash peut atteindre 33 % des parts de marché (20 % de la part de marché des locations de vacances d'Airbnb, 75 % de la part de marché du covoiturage d'Uber et 65 % de la part de marché de la livraison de nourriture de Doordash). À un taux de commission de 20 %, cela générerait 1 milliard de dollars de frais de protocole. En le multipliant par 10, Akash obtiendrait un résultat de 10 milliards de dollars.
Scénario à la hausse : Notre scénario à la hausse utilise le même cadre que le scénario de référence. Nous partons d'une opportunité de revente de 20 milliards de dollars grâce à la capacité à pénétrer un plus grand nombre de sources GPU uniques et à une plus forte croissance des parts de marché.
Informations générales : Nvidia est une société cotée en bourse dont la capitalisation boursière est de 1,2 billion de dollars américains, tandis qu'OpenAI est valorisée à 80 milliards de dollars américains sur le marché privé, Anthropic à 20 milliards de dollars américains et CoreWeave à 7 milliards de dollars américains. Dans l'espace cryptographique, Render et TAO sont évalués à plus de 2 milliards de dollars et plus de 5,5 milliards de dollars respectivement.
Concentration de l'offre et de la demande : Actuellement, la majeure partie de la demande en GPU provient de grandes entreprises technologiques pour la formation de LLM (grands modèles linguistiques) extrêmement volumineux et complexes. Au fil du temps, nous prévoyons un intérêt croissant pour la formation de modèles d'IA à plus petite échelle, moins chers et mieux adaptés au traitement des données privées. Les ajustements deviendront de plus en plus importants à mesure que les modèles passeront d'une utilisation générale à des modèles spécifiques à la verticale. En fin de compte, à mesure que l'utilisation et l'adoption s'accéléreront, l'inférence deviendra de plus en plus essentielle.
Concurrence : De nombreuses entreprises cryptées et non cryptées essaient de libérer des GPU sous-utilisés. Les protocoles de cryptage les plus connus sont les suivants :
Problèmes de latence et défis techniques : Étant donné que la formation à l'IA est une tâche extrêmement gourmande en ressources et que toutes les puces sont hébergées dans un centre de données, on ne sait pas si les modèles peuvent être entraînés sur des piles GPU décentralisées et non colocalisées. OpenAI prévoit de construire son prochain centre de formation équipé de plus de 75 000 GPU en Arizona. Tous ces problèmes sont résolus par des couches de planification telles que FedML, IO.Net et Gensyn.
Akash est une plateforme informatique décentralisée conçue pour connecter des processeurs graphiques sous-utilisés aux utilisateurs qui en ont besoin, dans le but de devenir l' « Airbnb » de l'informatique par GPU. Contrairement à d'autres concurrents, ils se concentrent principalement sur l'informatique graphique générale destinée aux entreprises. Depuis le lancement du réseau principal des GPU en septembre 2023, 150 à 200 GPU sont installés sur leur réseau, avec des taux d'utilisation de 50 à 70 %, et une valeur de transaction totale annuelle de 500 000 à 1 million de dollars. Conformément au marché des réseaux, Akash facture des frais de transaction de 20 % pour les paiements en USDC.
Nous sommes au début d'une transformation massive de l'infrastructure, avec une augmentation du traitement parallèle piloté par GPU. L'intelligence artificielle devrait augmenter le PIB mondial de 7 billions de dollars, tout en automatisant 300 millions d'emplois. Nvidia, le fabricant de GPU, prévoit que son chiffre d'affaires passera de 27 milliards de dollars en 2022 à 60 milliards de dollars en 2023, pour atteindre environ 100 milliards de dollars d'ici 2025. Les dépenses d'investissement des fournisseurs de cloud computing (AWS, GCP, Azure, etc.) consacrées aux puces Nvidia sont passées de 10 % à 25 % et devraient dépasser les 50 % dans les années à venir. (Source : Koyfin)
Morgan Stanley estime que d'ici 2025, les opportunités de création d'une infrastructure GPU en tant que service (IaaS) à très grande échelle atteindront 40 à 50 milliards de dollars. Par exemple, si 30 % des processeurs graphiques sont revendus avec une réduction de 30 % sur le marché secondaire, cela représentera une opportunité de revenus de 10 milliards de dollars. En ajoutant une nouvelle opportunité de revenus de 5 milliards de dollars provenant de sources autres que de très grande envergure, l'opportunité de revenus totale sera de 15 milliards de dollars. En supposant qu'Akash puisse saisir 33 % de part de marché de cette opportunité (valeur totale des transactions de 5 milliards de dollars) et facturer des frais de transaction de 20 %, cela se traduira par un chiffre d'affaires net d'un milliard de dollars. Si nous multiplions ce chiffre par 10, le résultat serait de près de 10 milliards de dollars de capitalisation boursière.
En novembre 2022, OpenAI a lancé ChatGPT, établissant le record de croissance la plus rapide de sa base d'utilisateurs, atteignant 100 millions d'utilisateurs en janvier 2023 et 200 millions d'utilisateurs en mai. L'impact est énorme, les estimations suggérant que l'augmentation de la productivité et l'automatisation de 3 millions d'emplois augmenteront le PIB mondial de 7 billions de dollars.
L'intelligence artificielle est rapidement passée d'un domaine de recherche de niche à la principale source de dépenses des entreprises. Le coût de création du GPT-4 est de 100 millions de dollars, avec des coûts d'exploitation annuels de 250 millions de dollars. Le GPT-5 nécessite 25 000 GPU A100 (soit 2,25 milliards de dollars de matériel Nvidia) et peut nécessiter un investissement matériel total de 10 milliards de dollars. Cela a déclenché une course aux armements entre les entreprises pour se procurer suffisamment de GPU pour prendre en charge les charges de travail des entreprises pilotées par l'IA.
La révolution de l'intelligence artificielle a entraîné une modification majeure de l'infrastructure, accélérant la transition du traitement parallèle entre le processeur et le processeur graphique. Historiquement, les GPU étaient utilisés pour le rendu à grande échelle et le traitement d'images simultanés, tandis que les processeurs étaient conçus pour une exécution en série, ne pouvant pas effectuer de telles opérations simultanées. En raison de la bande passante mémoire élevée, les GPU ont progressivement évolué pour gérer d'autres calculs présentant des problèmes parallèles, tels que l'entraînement, l'optimisation et l'amélioration des modèles d'intelligence artificielle.
Nvidia, la pionnière de la technologie GPU dans les années 1990, a associé son matériel haut de gamme à sa suite logicielle CUDA, se taillant ainsi une position de leader sur ses concurrents (principalement AMD et Intel) pendant de nombreuses années. Le stack CUDA de Nvidia a été développé en 2006, permettant aux développeurs d'optimiser les GPU Nvidia afin d'accélérer leurs charges de travail et de simplifier la programmation des GPU. Avec 4 millions d'utilisateurs CUDA et plus de 50 000 développeurs utilisant CUDA pour le développement, le site possède un puissant écosystème de langages de programmation, de bibliothèques, d'outils, d'applications et de frameworks. Au fil du temps, nous nous attendons à ce que les GPU Nvidia surpassent les processeurs Intel et AMD dans les centres de données.
Les dépenses consacrées aux GPU Nvidia par les fournisseurs de services cloud à grande échelle et les grandes entreprises technologiques ont rapidement augmenté, passant de faibles pourcentages à un chiffre au début des années 2010 à un chiffre entre 2015 et 2022, et à 25 % en 2023. Nous pensons que Nvidia représentera plus de 50 % des dépenses d'investissement des fournisseurs de services cloud dans les années à venir. Cela devrait faire passer le chiffre d'affaires de Nvidia de 25 milliards de dollars en 2022 à 100 milliards de dollars en 2025 (Source : Koyfin).
Morgan Stanley estime que d'ici 2025, la taille du marché de l'infrastructure graphique en tant que service (IaaS) pour les fournisseurs de services cloud à grande échelle atteindra 40 à 50 milliards de dollars. Cela ne représente encore qu'une petite partie du chiffre d'affaires total des fournisseurs de services cloud hyperscale, les trois principaux fournisseurs de services cloud hyperscale générant actuellement un chiffre d'affaires de plus de 250 milliards de dollars.
Compte tenu de la forte demande de GPU, les pénuries de GPU ont été largement signalées par des médias tels que le New York Times et le Wall Street Journal. Le PDG d'AWS a déclaré : « La demande dépasse l'offre, ce qui est vrai pour tout le monde. » Elon Musk a déclaré lors de l'appel de résultats de Tesla pour le deuxième trimestre 2023 : « Nous continuerons à utiliser du matériel Nvidia dès que possible ».
Index Ventures a dû acheter des puces pour les sociétés de son portefeuille. Il est quasiment impossible d'acheter des puces auprès de Nvidia en dehors des grandes entreprises technologiques, et l'obtention de puces auprès de fournisseurs de services cloud à grande échelle prend également beaucoup de temps.
Vous trouverez ci-dessous les tarifs des GPU pour AWS et Azure. Comme indiqué ci-dessous, une réduction de 30 à 65 % est disponible pour les réservations de 1 à 3 ans. Alors que les fournisseurs de services cloud à grande échelle investissent des milliards de dollars dans l'extension de leurs capacités, ils recherchent des opportunités d'investissement qui leur offrent de la visibilité sur leurs revenus. Si les clients s'attendent à ce que les taux d'utilisation dépassent 60 %, il est préférable d'opter pour un tarif réservé d'un an. Si le taux d'utilisation prévu dépasse 35 %, choisissez 3 ans. Toute capacité inutilisée peut être revendue, ce qui réduit considérablement leur coût total.
Si un fournisseur de services cloud de grande envergure créait une activité de crédit-bail de 50 milliards de dollars pour les processeurs graphiques, la revente de puissance informatique inutilisée serait une énorme opportunité. En supposant que 30 % de la puissance informatique soit revendue avec une réduction de 30 %, cela créerait un marché de 10 milliards de dollars pour la revente de la puissance de calcul des GPU des grands fournisseurs de services cloud.
Cependant, outre les fournisseurs de services cloud à grande échelle, il existe d'autres sources d'approvisionnement, notamment de grandes entreprises (telles que Meta, Tesla), des concurrents (CoreWeave, Lambda, etc.) et des startups d'IA bien financées. De 2022 à 2025, Nvidia devrait générer un chiffre d'affaires d'environ 300 milliards de dollars. En supposant qu'il y ait 70 milliards de dollars supplémentaires de puces provenant de fournisseurs de services cloud à grande échelle, la revente de 20 % de la puissance informatique avec une réduction de 30 % rapporterait 10 milliards de dollars supplémentaires, soit 200 milliards de dollars au total.
Akash est une place de marché informatique décentralisée fondée en 2015 et qui a lancé son réseau principal en tant que chaîne d'applications Cosmos en septembre 2020. Sa vision est de démocratiser le cloud computing en proposant des ressources informatiques nettement moins chères que celles des grands fournisseurs de services cloud.
La blockchain gère la coordination et le règlement, stocke les enregistrements des demandes, des enchères, du crédit-bail et du règlement, tandis que l'exécution se fait hors chaîne. Akash héberge des conteneurs dans lesquels les utilisateurs peuvent exécuter n'importe quelle application native du cloud. Akash a créé une suite de services de gestion du cloud, y compris Kubernetes, pour orchestrer et gérer ces conteneurs. Le déploiement est transféré depuis un réseau peer-to-peer privé isolé de la blockchain.
La première version d'Akash était axée sur les processeurs. À son apogée, l'entreprise réalisait un volume de transactions annuel total d'environ 200 000 dollars, louant 4 à 5 000 processeurs. Cependant, il y avait deux problèmes principaux : les barrières à l'entrée (obligation de créer un portefeuille Cosmos et utiliser des jetons AKT pour payer la charge de travail) et le taux de désabonnement des clients (devoir recharger le portefeuille avec AKT, et si AKT est épuisé ou si le prix change, la charge de travail cesse sans autre fournisseur).
Au cours de l'année écoulée, Akash est passée de l'informatique sur processeur à l'informatique sur GPU, profitant de ce changement de paradigme en matière d'infrastructure informatique et de pénuries d'approvisionnement.
Le réseau GPU d'Akash sera lancé sur le réseau principal en septembre 2023. Depuis, Akash est passé à 150 à 200 GPU et a atteint des taux d'utilisation de 50 à 70 %.
Vous trouverez ci-dessous une comparaison des prix de la Nvidia A100 proposés par plusieurs fournisseurs. Les prix d'Akash sont de 30 à 60 % inférieurs à ceux de la concurrence.
Le réseau Akash compte environ 19 fournisseurs uniques, situés dans 7 pays, qui fournissent plus de 15 types de puces. Le principal fournisseur est Foundry, une société soutenue par la DCG qui se consacre également au minage et au jalonnement de cryptomonnaies.
Akash se concentre principalement sur les puces d'entreprise (A100), qui sont traditionnellement utilisées pour prendre en charge les charges de travail liées à l'IA. Bien qu'ils proposent également des puces grand public, celles-ci étaient généralement difficiles à utiliser pour l'IA par le passé en raison de problèmes de consommation d'énergie, de logiciels et de latence. Plusieurs entreprises, telles que FedML, io.net et Gensyn, essaient de créer une couche d'orchestration pour permettre l'informatique de pointe basée sur l'IA.
Alors que le marché s'oriente de plus en plus vers l'inférence plutôt que vers la formation, les GPU grand public pourraient devenir plus viables, mais actuellement, le marché se concentre sur l'utilisation de puces de qualité professionnelle pour la formation.
Du côté de l'offre, Akash se concentre sur les fournisseurs de services cloud publics à grande échelle, les fournisseurs de GPU privés, les mineurs de cryptomonnaies et les entreprises détenant des GPU sous-utilisés.
Pendant la majeure partie de 2022 et 2023, avant le lancement du réseau GPU, la valeur brute des marchandises (GMV) annualisée des processeurs était d'environ 50 000 dollars. Depuis l'introduction du réseau GPU, le GMV a atteint un niveau annualisé de 500 000 à 1 000 000 dollars, avec des taux d'utilisation du réseau GPU allant de 50 % à 70 %.
Akash s'efforce de réduire les frictions entre utilisateurs, d'améliorer l'expérience utilisateur et d'élargir les cas d'utilisation.
Akash valide également des cas d'utilisation via le réseau. Lors du GPU Test Network, la communauté a démontré qu'elle pouvait utiliser le réseau pour déployer et faire des inférences sur de nombreux modèles d'IA populaires. Les applications Akash Chat et Stable Diffusion XL démontrent toutes deux la capacité d'Akash à faire des inférences. Nous pensons qu'au fil du temps, le marché de l'inférence sera bien plus important que le marché de la formation. La recherche basée sur l'IA coûte aujourd'hui 0,02 dollar (10 fois les coûts actuels de Google). Étant donné qu'il y a 3 billions de recherches par an, cela représenterait 60 milliards de dollars par an. Pour mettre les choses en contexte, la formation d'un modèle OpenAI coûte environ 100 millions de dollars. Bien que les coûts soient probablement inférieurs dans les deux cas, cela met en évidence la différence significative entre les sources de revenus à long terme.
Étant donné que la majeure partie de la demande de puces haut de gamme est aujourd'hui axée sur la formation, Akash s'efforce également de démontrer qu'elle peut utiliser le réseau Akash pour entraîner un modèle, qu'elle prévoit de lancer début 2024. Après avoir utilisé des plaquettes homogènes provenant d'un seul fournisseur, le prochain projet consistera à utiliser des plaquettes hétérogènes provenant de plusieurs fournisseurs.
La feuille de route d'Akash est énorme. Parmi les fonctionnalités permanentes du produit, citons la prise en charge de la gestion de la confidentialité, les instances à la demande/réservées et une meilleure visibilité.
Akash facture des frais de gestion de 4 % pour les paiements AKT et de 20 % pour les paiements en USDC. Ce taux de 20 % est similaire à celui que nous observons sur les marchés en ligne traditionnels (par ex. Uber est à 30 %).
Akash a environ 58 % de ses jetons en circulation (225 millions en circulation, approvisionnement maximum 388 millions). Le taux d'inflation annuel est passé de 8 % à 13 %. Actuellement, 60 % des jetons en circulation sont bloqués, avec une période de blocage de 21 jours.
Un taux de frais de 40 % (auparavant 25 %) de l'inflation et du GMV sera également versé au pool communautaire, qui détient actuellement 10 millions de dollars de jetons AKT.
L'objectif de ces fonds n'est pas encore déterminé, mais ils seront répartis entre les fonds publics, les incitations des fournisseurs, le jalonnement, le risque de combustion et les pools communautaires.
Le 19 janvier, Akash a lancé un programme d'incitation pilote de 5 millions de dollars visant à intégrer 1 000 A100 sur la plateforme. Au fil du temps, l'objectif est de fournir une visibilité des revenus du côté de l'offre (par exemple, une utilisation effective de 95 %) aux fournisseurs présents sur le marché.
Voici plusieurs scénarios et hypothèses illustrant les principaux moteurs d'Akash :
Scénario à court terme : Nous estimons que si Akash parvient à atteindre 15 000 unités A100, cela générera près de 150 millions de dollars de GMV. À un taux de commission de 20 %, cela rapporterait 30 millions de dollars à Akash en frais de contrat. Compte tenu de la trajectoire de croissance, en multipliant ce chiffre par 100 (en tenant compte des valorisations de l'IA), cela vaudrait 3 milliards de dollars.
Scénario de référence : Nous partons du principe que l'opportunité de marché de l'IaaS correspond à l'estimation de 50 milliards de dollars de Morgan Stanley. En supposant une utilisation de 70 %, il y a 15 milliards de dollars de capacité revendue. En supposant une réduction de 30 % sur cette capacité, nous obtiendrons 10 milliards de dollars, plus 10 milliards de dollars provenant d'autres sources non hyperscalables. Étant donné que les marchés connaissent généralement de solides douves, nous partons du principe qu'Akash peut atteindre 33 % des parts de marché (20 % de la part de marché des locations de vacances d'Airbnb, 75 % de la part de marché du covoiturage d'Uber et 65 % de la part de marché de la livraison de nourriture de Doordash). À un taux de commission de 20 %, cela générerait 1 milliard de dollars de frais de protocole. En le multipliant par 10, Akash obtiendrait un résultat de 10 milliards de dollars.
Scénario à la hausse : Notre scénario à la hausse utilise le même cadre que le scénario de référence. Nous partons d'une opportunité de revente de 20 milliards de dollars grâce à la capacité à pénétrer un plus grand nombre de sources GPU uniques et à une plus forte croissance des parts de marché.
Informations générales : Nvidia est une société cotée en bourse dont la capitalisation boursière est de 1,2 billion de dollars américains, tandis qu'OpenAI est valorisée à 80 milliards de dollars américains sur le marché privé, Anthropic à 20 milliards de dollars américains et CoreWeave à 7 milliards de dollars américains. Dans l'espace cryptographique, Render et TAO sont évalués à plus de 2 milliards de dollars et plus de 5,5 milliards de dollars respectivement.
Concentration de l'offre et de la demande : Actuellement, la majeure partie de la demande en GPU provient de grandes entreprises technologiques pour la formation de LLM (grands modèles linguistiques) extrêmement volumineux et complexes. Au fil du temps, nous prévoyons un intérêt croissant pour la formation de modèles d'IA à plus petite échelle, moins chers et mieux adaptés au traitement des données privées. Les ajustements deviendront de plus en plus importants à mesure que les modèles passeront d'une utilisation générale à des modèles spécifiques à la verticale. En fin de compte, à mesure que l'utilisation et l'adoption s'accéléreront, l'inférence deviendra de plus en plus essentielle.
Concurrence : De nombreuses entreprises cryptées et non cryptées essaient de libérer des GPU sous-utilisés. Les protocoles de cryptage les plus connus sont les suivants :
Problèmes de latence et défis techniques : Étant donné que la formation à l'IA est une tâche extrêmement gourmande en ressources et que toutes les puces sont hébergées dans un centre de données, on ne sait pas si les modèles peuvent être entraînés sur des piles GPU décentralisées et non colocalisées. OpenAI prévoit de construire son prochain centre de formation équipé de plus de 75 000 GPU en Arizona. Tous ces problèmes sont résolus par des couches de planification telles que FedML, IO.Net et Gensyn.