A Akash é uma plataforma de computação descentralizada projetada para conectar suprimentos de GPU subutilizados com usuários que precisam de computação de GPU, com o objetivo de se tornar o "Airbnb" da computação de GPU. Ao contrário de outros concorrentes, eles se concentram principalmente na computação de GPU geral e de nível empresarial. Desde o lançamento da rede principal de GPUs em setembro de 2023, eles têm 150-200 GPUs em sua rede, com taxas de utilização que chegam a 50-70% e um valor total anual de transações de US$ 500.000 a US$ 1 milhão. Em consonância com o mercado de rede, a Akash cobra uma taxa de transação de 20% para pagamentos em USDC.
Estamos no início de uma transformação maciça da infraestrutura, com o processamento paralelo orientado por GPU em ascensão. Prevê-se que a inteligência artificial aumentará o PIB global em US$ 7 trilhões, automatizando 300 milhões de empregos. A Nvidia, fabricante de GPUs, espera que sua receita aumente de US$ 27 bilhões em 2022 para US$ 60 bilhões em 2023, chegando a aproximadamente US$ 100 bilhões em 2025. Os gastos de capital dos provedores de computação em nuvem (AWS, GCP, Azure, etc.) com chips da Nvidia cresceram de um dígito para 25% e devem ultrapassar 50% nos próximos anos. (Fonte: Koyfin)
O Morgan Stanley estima que, até 2025, a oportunidade de infraestrutura como serviço (IaaS) de GPU em escala ultragrande chegará a US$ 40-50 bilhões. Por exemplo, se 30% da computação da GPU for revendida com um desconto de 30% no mercado secundário, isso representará uma oportunidade de receita de US$ 10 bilhões. Acrescentando outra oportunidade de receita de US$ 5 bilhões de fontes que não sejam de ultragrande escala, a oportunidade total de receita será de US$ 15 bilhões. Supondo que a Akash possa capturar 33% da participação de mercado dessa oportunidade (valor total da transação de US$ 5 bilhões) e cobrar uma taxa de transação de 20%, isso se traduzirá em US$ 1 bilhão em receita líquida. Se multiplicarmos esse número por 10, o resultado seria quase US$ 10 bilhões de capitalização de mercado.
Em novembro de 2022, a OpenAI lançou o ChatGPT, estabelecendo o recorde de crescimento mais rápido da base de usuários, atingindo 100 milhões de usuários em janeiro de 2023 e 200 milhões de usuários em maio. O impacto disso é enorme, com estimativas que sugerem que o aumento da produtividade e a automação de 3 milhões de empregos aumentarão o PIB global em US$ 7 trilhões.
A inteligência artificial passou rapidamente de uma área de nicho de pesquisa para o maior foco de gastos das empresas. O custo de criação do GPT-4 é de US$ 100 milhões, com custos operacionais anuais de US$ 250 milhões. O GPT-5 requer 25.000 GPUs A100 (equivalente a US$ 2,25 bilhões em hardware da Nvidia) e pode exigir um investimento total em hardware de US$ 10 bilhões. Isso provocou uma corrida armamentista entre as empresas para garantir GPUs suficientes para dar suporte a cargas de trabalho corporativas orientadas por IA.
A revolução da inteligência artificial provocou uma mudança monumental na infraestrutura, acelerando a transição do processamento paralelo da CPU para a GPU. Historicamente, as GPUs têm sido utilizadas para renderização simultânea em grande escala e processamento de imagens, enquanto as CPUs são projetadas para execução em série, incapazes de realizar essas operações simultâneas. Devido à alta largura de banda da memória, as GPUs evoluíram gradualmente para lidar com outros cálculos com problemas paralelos, como treinamento, otimização e aprimoramento de modelos de inteligência artificial.
A Nvidia, pioneira da tecnologia de GPU na década de 1990, combinou seu hardware de primeira linha com a pilha de software CUDA, estabelecendo uma posição de liderança sobre os concorrentes (principalmente AMD e Intel) por muitos anos. A pilha CUDA da Nvidia foi desenvolvida em 2006, permitindo que os desenvolvedores otimizem as GPUs da Nvidia para acelerar suas cargas de trabalho e simplificar a programação da GPU. Com 4 milhões de usuários de CUDA e mais de 50.000 desenvolvedores que usam CUDA para desenvolvimento, ele possui um ecossistema avançado de linguagens de programação, bibliotecas, ferramentas, aplicativos e estruturas. Com o tempo, esperamos que as GPUs da Nvidia ultrapassem as CPUs da Intel e da AMD nos data centers.
Os gastos com GPUs da Nvidia por provedores de serviços de nuvem em hiperescala e grandes empresas de tecnologia aumentaram rapidamente de porcentagens baixas de um dígito no início da década de 2010 para dígitos médios de um dígito de 2015 a 2022 e para 25% em 2023. Acreditamos que a Nvidia será responsável por mais de 50% dos gastos de capital dos provedores de serviços em nuvem nos próximos anos. Espera-se que isso aumente a receita da Nvidia de US$ 25 bilhões em 2022 para US$ 100 bilhões em 2025 (Fonte: Koyfin).
O Morgan Stanley estima que, até 2025, o tamanho do mercado de IaaS (infraestrutura como serviço) de GPU para provedores de serviços de nuvem em hiperescala chegará a US$ 40-50 bilhões. Essa ainda é apenas uma pequena parte da receita total dos provedores de serviços de nuvem em hiperescala, sendo que os três principais provedores de serviços de nuvem em hiperescala geram atualmente uma receita de mais de US$ 250 bilhões.
Devido à grande demanda por GPUs, a escassez de GPUs foi amplamente divulgada por veículos de mídia como o The New York Times e o The Wall Street Journal. O CEO da AWS declarou: "A demanda excede a oferta, o que é verdade para todos". Elon Musk disse durante a chamada de resultados do segundo trimestre de 2023 da Tesla: "Continuaremos a usar - obteremos hardware da Nvidia o mais rápido possível".
A Index Ventures teve que comprar chips para as empresas de seu portfólio. É quase impossível comprar chips da Nvidia fora das principais empresas de tecnologia, e obter chips de provedores de serviços de nuvem em hiperescala também leva muito tempo.
Abaixo estão os preços de GPU para AWS e Azure. Conforme mostrado abaixo, um desconto de 30 a 65% está disponível para reservas de 1 a 3 anos. Como os provedores de serviços de nuvem em hiperescala investem bilhões de dólares na expansão da capacidade, eles estão procurando oportunidades de investimento que proporcionem visibilidade da receita. Se os clientes preveem que as taxas de utilização excederão 60%, é melhor optar pelo preço reservado de 1 ano. Se a taxa de utilização prevista for superior a 35%, escolha 3 anos. Qualquer capacidade não utilizada pode ser revendida, reduzindo significativamente seu custo total.
Se um provedor de serviços de nuvem em grande escala estabelecer um negócio de leasing de computação de GPU de US$ 50 bilhões, a revenda da capacidade de computação não utilizada seria uma grande oportunidade. Supondo que 30% da capacidade de computação seja revendida com um desconto de 30%, isso criaria um mercado de US$ 10 bilhões para revender a capacidade de computação da GPU de provedores de serviços em nuvem de grande escala.
No entanto, além dos provedores de serviços de nuvem em grande escala, há outras fontes de suprimento, incluindo grandes empresas (como Meta, Tesla), concorrentes (CoreWeave, Lambda etc.) e startups de IA bem financiadas. De 2022 a 2025, espera-se que a Nvidia gere aproximadamente US$ 300 bilhões em receita. Supondo que haja um valor adicional de US$ 70 bilhões em chips fora dos provedores de serviços de nuvem em grande escala, a revenda de 20% da capacidade de computação com um desconto de 30% acrescentaria outros US$ 10 bilhões, totalizando US$ 200 bilhões.
A Akash é um mercado de computação descentralizado fundado em 2015 e lançou sua mainnet como uma cadeia de aplicativos Cosmos em setembro de 2020. Sua visão é democratizar a computação em nuvem, oferecendo recursos de computação significativamente mais baratos do que os provedores de serviços em nuvem de grande escala.
O blockchain lida com a coordenação e a liquidação, armazenando registros de solicitações, lances, leasing e liquidação, enquanto a execução é feita fora da cadeia. O Akash hospeda contêineres nos quais os usuários podem executar qualquer aplicativo nativo da nuvem. A Akash criou um conjunto de serviços de gerenciamento de nuvem, incluindo o Kubernetes, para orquestrar e gerenciar esses contêineres. A implantação é transferida de uma rede privada peer-to-peer isolada do blockchain.
A primeira versão do Akash se concentrava na computação da CPU. Em seu auge, a empresa tinha um volume total anual de transações de cerca de US$ 200.000, alugando de 4 a 5 mil CPUs. No entanto, havia dois problemas principais: barreiras de entrada (que exigiam a criação de uma carteira Cosmos e o uso de tokens AKT para pagar por cargas de trabalho) e rotatividade de clientes (que precisavam recarregar a carteira com AKT e, se o AKT acabasse ou o preço mudasse, a carga de trabalho seria interrompida sem fornecedores alternativos).
No último ano, a Akash fez a transição da computação de CPU para a computação de GPU, aproveitando essa mudança de paradigma na infraestrutura de computação e na escassez de suprimentos.
A rede GPU da Akash será lançada na rede principal em setembro de 2023. Desde então, o Akash foi ampliado para 150-200 GPUs e atingiu taxas de utilização de 50-70%.
Abaixo está uma comparação dos preços da Nvidia A100 de vários fornecedores. Os preços da Akash são de 30 a 60% mais baratos do que os da concorrência.
Há aproximadamente 19 fornecedores exclusivos na rede Akash, localizados em 7 países, que fornecem mais de 15 tipos de chips. O maior provedor é a Foundry, uma empresa apoiada pelo DCG que também se dedica à mineração de criptografia e staking.
A Akash se concentra principalmente em chips empresariais (A100), que são tradicionalmente usados para dar suporte a cargas de trabalho de IA. Embora também ofereçam alguns chips para consumidores, esses chips geralmente eram difíceis de usar para IA no passado devido ao consumo de energia, ao software e a problemas de latência. Várias empresas, como a FedML, a io.net e a Gensyn, estão tentando criar uma camada de orquestração para permitir a computação de ponta com IA.
À medida que o mercado se volta cada vez mais para a inferência em vez do treinamento, as GPUs de nível de consumidor podem se tornar mais viáveis, mas atualmente o mercado está concentrado no uso de chips de nível empresarial para treinamento.
No lado da oferta, a Akash se concentra em provedores públicos de serviços de nuvem em hiperescala, fornecedores privados de GPU, mineradores de criptografia e empresas que possuem GPUs subutilizadas.
Na maior parte de 2022 e 2023, antes do lançamento da rede GPU, o Valor Bruto de Mercadoria (GMV) anualizado para CPUs era de aproximadamente US$ 50.000. Desde a introdução da rede de GPUs, o GMV atingiu um nível anualizado de US$ 500.000 a US$ 1.000.000, com taxas de utilização na rede de GPUs variando de 50% a 70%.
A Akash tem trabalhado para reduzir o atrito com o usuário, melhorar a experiência do usuário e ampliar os casos de uso.
A Akash também está validando casos de uso por meio da rede. Durante a GPU Test Network, a comunidade demonstrou que pode usar a rede para implantar e executar inferência em muitos modelos populares de IA. Os aplicativos Akash Chat e Stable Diffusion XL demonstram a capacidade do Akash de executar inferência. Acreditamos que, com o tempo, o mercado de inferência será muito maior do que o mercado de treinamento. A pesquisa orientada por IA de hoje custa US$ 0,02 (10 vezes os custos atuais do Google). Considerando que há 3 trilhões de pesquisas por ano, isso representaria US$ 60 bilhões por ano. Para colocar isso em contexto, o treinamento de um modelo da OpenAI custa aproximadamente US$ 100 milhões. Embora os custos provavelmente sejam menores para ambos, isso destaca a diferença significativa nos pools de receita de longo prazo.
Considerando que a maior parte da demanda por chips de alta tecnologia atualmente se concentra em treinamento, a Akash também está trabalhando atualmente para demonstrar que pode usar a rede Akash para treinar um modelo, que planeja lançar no início de 2024. Depois de usar wafers homogêneos de um único fornecedor, o próximo projeto será usar wafers heterogêneos de vários fornecedores.
O roteiro da Akash é enorme. Alguns recursos contínuos do produto incluem suporte ao gerenciamento de privacidade, instâncias sob demanda/reservadas e melhor capacidade de descoberta.
A Akash cobra uma taxa de manuseio de 4% para pagamentos em AKT e uma taxa de manuseio de 20% para pagamentos em USDC. Essa taxa de 20% é semelhante ao que vemos nos mercados on-line tradicionais (por exemplo, o 30% da Uber).
A Akash tem aproximadamente 58% de seus tokens em circulação (225 milhões em circulação, suprimento máximo de 388 milhões). A taxa de inflação anual aumentou de 8% para 13%. Atualmente, 60% dos tokens em circulação foram bloqueados, com um período de bloqueio de 21 dias.
Uma taxa de 40% (anteriormente 25%) da inflação e do GMV também será destinada ao pool da comunidade, que atualmente detém US$ 10 milhões em tokens AKT.
A finalidade desses fundos ainda está sendo determinada, mas será distribuída entre fundos públicos, incentivos aos provedores, staking, queima potencial e pools comunitários.
Em 19 de janeiro, a Akash lançou um programa piloto de incentivo de US$ 5 milhões com o objetivo de trazer 1.000 A100s para a plataforma. Com o tempo, a meta é fornecer visibilidade da receita do lado da oferta (por exemplo, 95% de utilização efetiva) aos provedores que participam do mercado.
Aqui estão vários cenários e suposições ilustrativas sobre os principais motivadores da Akash:
Cenário de curto prazo: Estimamos que, se a Akash conseguir atingir 15.000 unidades do A100, isso gerará quase US$ 150 milhões em GMV. Com uma taxa de comissão de 20%, isso renderia à Akash US$ 30 milhões em taxas de contrato. Dada a trajetória de crescimento, multiplicando esse número por 100 (levando em conta as avaliações de IA), isso valeria US$ 3 bilhões.
Caso de linha de base: Presumimos que a oportunidade do mercado de IaaS esteja alinhada com a estimativa de US$ 50 bilhões do Morgan Stanley. Supondo 70% de utilização, há US$ 15 bilhões de capacidade revendível. Supondo um desconto de 30% sobre essa capacidade, obtemos US$ 10 bilhões, mais US$ 10 bilhões de outras fontes não hiperescaláveis. Considerando que os mercados costumam ter fortes fossos, presumimos que a Akash possa atingir 33% de participação (20% da participação de mercado de aluguel por temporada da Airbnb, 75% da participação de mercado de compartilhamento de carona da Uber e 65% da participação de mercado de entrega de alimentos da Doordash). Com uma taxa de comissão de 20%, isso geraria US$ 1 bilhão em taxas de protocolo. Multiplicando esse valor por 10, Akash obteria um resultado de US$ 10 bilhões.
Caso ascendente: Nosso caso ascendente usa a mesma estrutura que o caso de linha de base. Presumimos uma oportunidade de revenda de US$ 20 bilhões devido à capacidade de penetrar em fontes de GPU mais exclusivas e maior crescimento de participação.
Informações básicas: A Nvidia é uma empresa de capital aberto com uma capitalização de mercado de US$ 1,2 trilhão, enquanto a OpenAI é avaliada em US$ 80 bilhões no mercado privado, a Anthropic é avaliada em US$ 20 bilhões e a CoreWeave é avaliada em US$ 7 bilhões. No espaço criptográfico, a Render e a TAO estão avaliadas em mais de US$ 2 bilhões e mais de US$ 5,5 bilhões, respectivamente.
Concentração de oferta e demanda: Atualmente, a maior parte da demanda de GPUs vem de grandes empresas de tecnologia para treinar LLMs (Large Language Models) extremamente grandes e complexos. Com o tempo, prevemos mais interesse no treinamento de modelos de IA de menor escala, que são mais baratos e mais adequados para lidar com dados privados. O ajuste fino se tornará cada vez mais importante à medida que os modelos deixarem de ser de uso geral e passarem a ser verticalmente específicos. Por fim, com a aceleração do uso e da adoção, a inferência se tornará cada vez mais essencial.
Concorrência: Há muitas empresas de criptografia e não criptografia tentando liberar GPUs subutilizadas. Alguns dos protocolos de criptografia mais notáveis são:
Problemas de latência e desafios técnicos: Como o treinamento em IA é uma tarefa que consome muitos recursos e considerando que todos os chips estão alojados em um data center, não está claro se os modelos podem ser treinados em pilhas de GPU descentralizadas e não co-localizadas. A OpenAI planeja construir sua próxima instalação de treinamento com mais de 75.000 GPUs no Arizona. Todos esses problemas estão sendo resolvidos por camadas de agendamento como FedML, Io.net e Gensyn.
A Akash é uma plataforma de computação descentralizada projetada para conectar suprimentos de GPU subutilizados com usuários que precisam de computação de GPU, com o objetivo de se tornar o "Airbnb" da computação de GPU. Ao contrário de outros concorrentes, eles se concentram principalmente na computação de GPU geral e de nível empresarial. Desde o lançamento da rede principal de GPUs em setembro de 2023, eles têm 150-200 GPUs em sua rede, com taxas de utilização que chegam a 50-70% e um valor total anual de transações de US$ 500.000 a US$ 1 milhão. Em consonância com o mercado de rede, a Akash cobra uma taxa de transação de 20% para pagamentos em USDC.
Estamos no início de uma transformação maciça da infraestrutura, com o processamento paralelo orientado por GPU em ascensão. Prevê-se que a inteligência artificial aumentará o PIB global em US$ 7 trilhões, automatizando 300 milhões de empregos. A Nvidia, fabricante de GPUs, espera que sua receita aumente de US$ 27 bilhões em 2022 para US$ 60 bilhões em 2023, chegando a aproximadamente US$ 100 bilhões em 2025. Os gastos de capital dos provedores de computação em nuvem (AWS, GCP, Azure, etc.) com chips da Nvidia cresceram de um dígito para 25% e devem ultrapassar 50% nos próximos anos. (Fonte: Koyfin)
O Morgan Stanley estima que, até 2025, a oportunidade de infraestrutura como serviço (IaaS) de GPU em escala ultragrande chegará a US$ 40-50 bilhões. Por exemplo, se 30% da computação da GPU for revendida com um desconto de 30% no mercado secundário, isso representará uma oportunidade de receita de US$ 10 bilhões. Acrescentando outra oportunidade de receita de US$ 5 bilhões de fontes que não sejam de ultragrande escala, a oportunidade total de receita será de US$ 15 bilhões. Supondo que a Akash possa capturar 33% da participação de mercado dessa oportunidade (valor total da transação de US$ 5 bilhões) e cobrar uma taxa de transação de 20%, isso se traduzirá em US$ 1 bilhão em receita líquida. Se multiplicarmos esse número por 10, o resultado seria quase US$ 10 bilhões de capitalização de mercado.
Em novembro de 2022, a OpenAI lançou o ChatGPT, estabelecendo o recorde de crescimento mais rápido da base de usuários, atingindo 100 milhões de usuários em janeiro de 2023 e 200 milhões de usuários em maio. O impacto disso é enorme, com estimativas que sugerem que o aumento da produtividade e a automação de 3 milhões de empregos aumentarão o PIB global em US$ 7 trilhões.
A inteligência artificial passou rapidamente de uma área de nicho de pesquisa para o maior foco de gastos das empresas. O custo de criação do GPT-4 é de US$ 100 milhões, com custos operacionais anuais de US$ 250 milhões. O GPT-5 requer 25.000 GPUs A100 (equivalente a US$ 2,25 bilhões em hardware da Nvidia) e pode exigir um investimento total em hardware de US$ 10 bilhões. Isso provocou uma corrida armamentista entre as empresas para garantir GPUs suficientes para dar suporte a cargas de trabalho corporativas orientadas por IA.
A revolução da inteligência artificial provocou uma mudança monumental na infraestrutura, acelerando a transição do processamento paralelo da CPU para a GPU. Historicamente, as GPUs têm sido utilizadas para renderização simultânea em grande escala e processamento de imagens, enquanto as CPUs são projetadas para execução em série, incapazes de realizar essas operações simultâneas. Devido à alta largura de banda da memória, as GPUs evoluíram gradualmente para lidar com outros cálculos com problemas paralelos, como treinamento, otimização e aprimoramento de modelos de inteligência artificial.
A Nvidia, pioneira da tecnologia de GPU na década de 1990, combinou seu hardware de primeira linha com a pilha de software CUDA, estabelecendo uma posição de liderança sobre os concorrentes (principalmente AMD e Intel) por muitos anos. A pilha CUDA da Nvidia foi desenvolvida em 2006, permitindo que os desenvolvedores otimizem as GPUs da Nvidia para acelerar suas cargas de trabalho e simplificar a programação da GPU. Com 4 milhões de usuários de CUDA e mais de 50.000 desenvolvedores que usam CUDA para desenvolvimento, ele possui um ecossistema avançado de linguagens de programação, bibliotecas, ferramentas, aplicativos e estruturas. Com o tempo, esperamos que as GPUs da Nvidia ultrapassem as CPUs da Intel e da AMD nos data centers.
Os gastos com GPUs da Nvidia por provedores de serviços de nuvem em hiperescala e grandes empresas de tecnologia aumentaram rapidamente de porcentagens baixas de um dígito no início da década de 2010 para dígitos médios de um dígito de 2015 a 2022 e para 25% em 2023. Acreditamos que a Nvidia será responsável por mais de 50% dos gastos de capital dos provedores de serviços em nuvem nos próximos anos. Espera-se que isso aumente a receita da Nvidia de US$ 25 bilhões em 2022 para US$ 100 bilhões em 2025 (Fonte: Koyfin).
O Morgan Stanley estima que, até 2025, o tamanho do mercado de IaaS (infraestrutura como serviço) de GPU para provedores de serviços de nuvem em hiperescala chegará a US$ 40-50 bilhões. Essa ainda é apenas uma pequena parte da receita total dos provedores de serviços de nuvem em hiperescala, sendo que os três principais provedores de serviços de nuvem em hiperescala geram atualmente uma receita de mais de US$ 250 bilhões.
Devido à grande demanda por GPUs, a escassez de GPUs foi amplamente divulgada por veículos de mídia como o The New York Times e o The Wall Street Journal. O CEO da AWS declarou: "A demanda excede a oferta, o que é verdade para todos". Elon Musk disse durante a chamada de resultados do segundo trimestre de 2023 da Tesla: "Continuaremos a usar - obteremos hardware da Nvidia o mais rápido possível".
A Index Ventures teve que comprar chips para as empresas de seu portfólio. É quase impossível comprar chips da Nvidia fora das principais empresas de tecnologia, e obter chips de provedores de serviços de nuvem em hiperescala também leva muito tempo.
Abaixo estão os preços de GPU para AWS e Azure. Conforme mostrado abaixo, um desconto de 30 a 65% está disponível para reservas de 1 a 3 anos. Como os provedores de serviços de nuvem em hiperescala investem bilhões de dólares na expansão da capacidade, eles estão procurando oportunidades de investimento que proporcionem visibilidade da receita. Se os clientes preveem que as taxas de utilização excederão 60%, é melhor optar pelo preço reservado de 1 ano. Se a taxa de utilização prevista for superior a 35%, escolha 3 anos. Qualquer capacidade não utilizada pode ser revendida, reduzindo significativamente seu custo total.
Se um provedor de serviços de nuvem em grande escala estabelecer um negócio de leasing de computação de GPU de US$ 50 bilhões, a revenda da capacidade de computação não utilizada seria uma grande oportunidade. Supondo que 30% da capacidade de computação seja revendida com um desconto de 30%, isso criaria um mercado de US$ 10 bilhões para revender a capacidade de computação da GPU de provedores de serviços em nuvem de grande escala.
No entanto, além dos provedores de serviços de nuvem em grande escala, há outras fontes de suprimento, incluindo grandes empresas (como Meta, Tesla), concorrentes (CoreWeave, Lambda etc.) e startups de IA bem financiadas. De 2022 a 2025, espera-se que a Nvidia gere aproximadamente US$ 300 bilhões em receita. Supondo que haja um valor adicional de US$ 70 bilhões em chips fora dos provedores de serviços de nuvem em grande escala, a revenda de 20% da capacidade de computação com um desconto de 30% acrescentaria outros US$ 10 bilhões, totalizando US$ 200 bilhões.
A Akash é um mercado de computação descentralizado fundado em 2015 e lançou sua mainnet como uma cadeia de aplicativos Cosmos em setembro de 2020. Sua visão é democratizar a computação em nuvem, oferecendo recursos de computação significativamente mais baratos do que os provedores de serviços em nuvem de grande escala.
O blockchain lida com a coordenação e a liquidação, armazenando registros de solicitações, lances, leasing e liquidação, enquanto a execução é feita fora da cadeia. O Akash hospeda contêineres nos quais os usuários podem executar qualquer aplicativo nativo da nuvem. A Akash criou um conjunto de serviços de gerenciamento de nuvem, incluindo o Kubernetes, para orquestrar e gerenciar esses contêineres. A implantação é transferida de uma rede privada peer-to-peer isolada do blockchain.
A primeira versão do Akash se concentrava na computação da CPU. Em seu auge, a empresa tinha um volume total anual de transações de cerca de US$ 200.000, alugando de 4 a 5 mil CPUs. No entanto, havia dois problemas principais: barreiras de entrada (que exigiam a criação de uma carteira Cosmos e o uso de tokens AKT para pagar por cargas de trabalho) e rotatividade de clientes (que precisavam recarregar a carteira com AKT e, se o AKT acabasse ou o preço mudasse, a carga de trabalho seria interrompida sem fornecedores alternativos).
No último ano, a Akash fez a transição da computação de CPU para a computação de GPU, aproveitando essa mudança de paradigma na infraestrutura de computação e na escassez de suprimentos.
A rede GPU da Akash será lançada na rede principal em setembro de 2023. Desde então, o Akash foi ampliado para 150-200 GPUs e atingiu taxas de utilização de 50-70%.
Abaixo está uma comparação dos preços da Nvidia A100 de vários fornecedores. Os preços da Akash são de 30 a 60% mais baratos do que os da concorrência.
Há aproximadamente 19 fornecedores exclusivos na rede Akash, localizados em 7 países, que fornecem mais de 15 tipos de chips. O maior provedor é a Foundry, uma empresa apoiada pelo DCG que também se dedica à mineração de criptografia e staking.
A Akash se concentra principalmente em chips empresariais (A100), que são tradicionalmente usados para dar suporte a cargas de trabalho de IA. Embora também ofereçam alguns chips para consumidores, esses chips geralmente eram difíceis de usar para IA no passado devido ao consumo de energia, ao software e a problemas de latência. Várias empresas, como a FedML, a io.net e a Gensyn, estão tentando criar uma camada de orquestração para permitir a computação de ponta com IA.
À medida que o mercado se volta cada vez mais para a inferência em vez do treinamento, as GPUs de nível de consumidor podem se tornar mais viáveis, mas atualmente o mercado está concentrado no uso de chips de nível empresarial para treinamento.
No lado da oferta, a Akash se concentra em provedores públicos de serviços de nuvem em hiperescala, fornecedores privados de GPU, mineradores de criptografia e empresas que possuem GPUs subutilizadas.
Na maior parte de 2022 e 2023, antes do lançamento da rede GPU, o Valor Bruto de Mercadoria (GMV) anualizado para CPUs era de aproximadamente US$ 50.000. Desde a introdução da rede de GPUs, o GMV atingiu um nível anualizado de US$ 500.000 a US$ 1.000.000, com taxas de utilização na rede de GPUs variando de 50% a 70%.
A Akash tem trabalhado para reduzir o atrito com o usuário, melhorar a experiência do usuário e ampliar os casos de uso.
A Akash também está validando casos de uso por meio da rede. Durante a GPU Test Network, a comunidade demonstrou que pode usar a rede para implantar e executar inferência em muitos modelos populares de IA. Os aplicativos Akash Chat e Stable Diffusion XL demonstram a capacidade do Akash de executar inferência. Acreditamos que, com o tempo, o mercado de inferência será muito maior do que o mercado de treinamento. A pesquisa orientada por IA de hoje custa US$ 0,02 (10 vezes os custos atuais do Google). Considerando que há 3 trilhões de pesquisas por ano, isso representaria US$ 60 bilhões por ano. Para colocar isso em contexto, o treinamento de um modelo da OpenAI custa aproximadamente US$ 100 milhões. Embora os custos provavelmente sejam menores para ambos, isso destaca a diferença significativa nos pools de receita de longo prazo.
Considerando que a maior parte da demanda por chips de alta tecnologia atualmente se concentra em treinamento, a Akash também está trabalhando atualmente para demonstrar que pode usar a rede Akash para treinar um modelo, que planeja lançar no início de 2024. Depois de usar wafers homogêneos de um único fornecedor, o próximo projeto será usar wafers heterogêneos de vários fornecedores.
O roteiro da Akash é enorme. Alguns recursos contínuos do produto incluem suporte ao gerenciamento de privacidade, instâncias sob demanda/reservadas e melhor capacidade de descoberta.
A Akash cobra uma taxa de manuseio de 4% para pagamentos em AKT e uma taxa de manuseio de 20% para pagamentos em USDC. Essa taxa de 20% é semelhante ao que vemos nos mercados on-line tradicionais (por exemplo, o 30% da Uber).
A Akash tem aproximadamente 58% de seus tokens em circulação (225 milhões em circulação, suprimento máximo de 388 milhões). A taxa de inflação anual aumentou de 8% para 13%. Atualmente, 60% dos tokens em circulação foram bloqueados, com um período de bloqueio de 21 dias.
Uma taxa de 40% (anteriormente 25%) da inflação e do GMV também será destinada ao pool da comunidade, que atualmente detém US$ 10 milhões em tokens AKT.
A finalidade desses fundos ainda está sendo determinada, mas será distribuída entre fundos públicos, incentivos aos provedores, staking, queima potencial e pools comunitários.
Em 19 de janeiro, a Akash lançou um programa piloto de incentivo de US$ 5 milhões com o objetivo de trazer 1.000 A100s para a plataforma. Com o tempo, a meta é fornecer visibilidade da receita do lado da oferta (por exemplo, 95% de utilização efetiva) aos provedores que participam do mercado.
Aqui estão vários cenários e suposições ilustrativas sobre os principais motivadores da Akash:
Cenário de curto prazo: Estimamos que, se a Akash conseguir atingir 15.000 unidades do A100, isso gerará quase US$ 150 milhões em GMV. Com uma taxa de comissão de 20%, isso renderia à Akash US$ 30 milhões em taxas de contrato. Dada a trajetória de crescimento, multiplicando esse número por 100 (levando em conta as avaliações de IA), isso valeria US$ 3 bilhões.
Caso de linha de base: Presumimos que a oportunidade do mercado de IaaS esteja alinhada com a estimativa de US$ 50 bilhões do Morgan Stanley. Supondo 70% de utilização, há US$ 15 bilhões de capacidade revendível. Supondo um desconto de 30% sobre essa capacidade, obtemos US$ 10 bilhões, mais US$ 10 bilhões de outras fontes não hiperescaláveis. Considerando que os mercados costumam ter fortes fossos, presumimos que a Akash possa atingir 33% de participação (20% da participação de mercado de aluguel por temporada da Airbnb, 75% da participação de mercado de compartilhamento de carona da Uber e 65% da participação de mercado de entrega de alimentos da Doordash). Com uma taxa de comissão de 20%, isso geraria US$ 1 bilhão em taxas de protocolo. Multiplicando esse valor por 10, Akash obteria um resultado de US$ 10 bilhões.
Caso ascendente: Nosso caso ascendente usa a mesma estrutura que o caso de linha de base. Presumimos uma oportunidade de revenda de US$ 20 bilhões devido à capacidade de penetrar em fontes de GPU mais exclusivas e maior crescimento de participação.
Informações básicas: A Nvidia é uma empresa de capital aberto com uma capitalização de mercado de US$ 1,2 trilhão, enquanto a OpenAI é avaliada em US$ 80 bilhões no mercado privado, a Anthropic é avaliada em US$ 20 bilhões e a CoreWeave é avaliada em US$ 7 bilhões. No espaço criptográfico, a Render e a TAO estão avaliadas em mais de US$ 2 bilhões e mais de US$ 5,5 bilhões, respectivamente.
Concentração de oferta e demanda: Atualmente, a maior parte da demanda de GPUs vem de grandes empresas de tecnologia para treinar LLMs (Large Language Models) extremamente grandes e complexos. Com o tempo, prevemos mais interesse no treinamento de modelos de IA de menor escala, que são mais baratos e mais adequados para lidar com dados privados. O ajuste fino se tornará cada vez mais importante à medida que os modelos deixarem de ser de uso geral e passarem a ser verticalmente específicos. Por fim, com a aceleração do uso e da adoção, a inferência se tornará cada vez mais essencial.
Concorrência: Há muitas empresas de criptografia e não criptografia tentando liberar GPUs subutilizadas. Alguns dos protocolos de criptografia mais notáveis são:
Problemas de latência e desafios técnicos: Como o treinamento em IA é uma tarefa que consome muitos recursos e considerando que todos os chips estão alojados em um data center, não está claro se os modelos podem ser treinados em pilhas de GPU descentralizadas e não co-localizadas. A OpenAI planeja construir sua próxima instalação de treinamento com mais de 75.000 GPUs no Arizona. Todos esses problemas estão sendo resolvidos por camadas de agendamento como FedML, Io.net e Gensyn.