Da computação em nuvem à IA, será que a Akash se vai tornar o cavalo negro da pista DePIN?

PrincipianteFeb 18, 2024
Este artigo analisa o modelo de token Akash e os seus cenários de aplicação.
Da computação em nuvem à IA, será que a Akash se vai tornar o cavalo negro da pista DePIN?

Resumo

A Akash é uma plataforma de computação descentralizada concebida para ligar fornecimentos de GPU subutilizados a utilizadores que necessitam de computação GPU, com o objetivo de se tornar o "Airbnb" da computação GPU. Ao contrário de outros concorrentes, concentra-se principalmente na computação GPU geral e de nível empresarial. Desde o lançamento da rede principal de GPUs em setembro de 2023, têm tido 150-200 GPUs na sua rede, com taxas de utilização que atingem 50-70% e um valor total anual de transacções de 500.000 a 1 milhão de dólares. Em consonância com o mercado da rede, a Akash cobra uma taxa de transação de 20% para pagamentos em USDC.

Estamos no início de uma transformação maciça das infra-estruturas, com o processamento paralelo impulsionado por GPU a aumentar. Prevê-se que a inteligência artificial aumente o PIB mundial em 7 biliões de dólares, automatizando ao mesmo tempo 300 milhões de postos de trabalho. A Nvidia, fabricante de GPUs, espera que as suas receitas aumentem de 27 mil milhões de dólares em 2022 para 60 mil milhões de dólares em 2023, atingindo cerca de 100 mil milhões de dólares em 2025. As despesas de capital dos fornecedores de computação em nuvem (AWS, GCP, Azure, etc.) em chips Nvidia aumentaram de um dígito para 25% e espera-se que excedam 50% nos próximos anos. (Fonte: Koyfin)

A Morgan Stanley estima que, até 2025, a oportunidade para a infraestrutura como serviço (IaaS) de GPU em ultra-grande escala atingirá os 40-50 mil milhões de dólares. A título de exemplo, se 30% da computação GPU for revendida com um desconto de 30% através do mercado secundário, isso representará uma oportunidade de receita de 10 mil milhões de dólares. Se acrescentarmos mais 5 mil milhões de dólares de oportunidades de receitas provenientes de fontes não ultra-grandes, a oportunidade total de receitas será de 15 mil milhões de dólares. Partindo do princípio de que a Akash consegue captar 33% da quota de mercado desta oportunidade (valor total da transação de 5 mil milhões de dólares) e cobrar uma taxa de transação de 20%, isto traduzir-se-á em mil milhões de dólares em receitas líquidas. Se multiplicarmos este número por 10, o resultado será uma capitalização de mercado de quase 10 mil milhões de dólares.

Panorama do mercado:

Em novembro de 2022, a OpenAI lançou o ChatGPT, estabelecendo o recorde de crescimento mais rápido da base de utilizadores, atingindo 100 milhões de utilizadores em janeiro de 2023 e 200 milhões de utilizadores em maio. O impacto desta situação é enorme, com estimativas que sugerem que o aumento da produtividade e a automatização de 3 milhões de postos de trabalho aumentarão o PIB mundial em 7 biliões de dólares.

A inteligência artificial passou rapidamente de uma área de nicho de investigação para o maior foco de despesa das empresas. O custo da criação da GPT-4 é de 100 milhões de dólares, com custos de exploração anuais de 250 milhões de dólares. O GPT-5 requer 25.000 GPUs A100 (equivalente a 2,25 mil milhões de dólares em hardware da Nvidia) e pode exigir um investimento total em hardware de 10 mil milhões de dólares. Isto desencadeou uma corrida às armas entre as empresas para garantir GPUs suficientes para suportar cargas de trabalho empresariais orientadas para a IA.

A revolução da inteligência artificial provocou uma mudança monumental na infraestrutura, acelerando a transição do processamento paralelo da CPU para a GPU. Historicamente, as GPUs têm sido utilizadas para renderização e processamento de imagens simultâneos em grande escala, enquanto as CPUs são concebidas para execução em série, incapazes de tais operações simultâneas. Devido à elevada largura de banda da memória, as GPUs evoluíram gradualmente para lidar com outros cálculos com problemas paralelos, como a formação, a otimização e o aperfeiçoamento de modelos de inteligência artificial.

A Nvidia, pioneira da tecnologia GPU na década de 1990, combinou o seu hardware de topo com a pilha de software CUDA, estabelecendo uma posição de liderança sobre os concorrentes (principalmente a AMD e a Intel) durante muitos anos. A pilha CUDA da Nvidia foi desenvolvida em 2006, permitindo aos programadores otimizar as GPUs Nvidia para acelerar as suas cargas de trabalho e simplificar a programação de GPU. Com 4 milhões de utilizadores CUDA e mais de 50.000 programadores que utilizam CUDA para desenvolvimento, possui um poderoso ecossistema de linguagens de programação, bibliotecas, ferramentas, aplicações e estruturas. Com o tempo, esperamos que as GPUs da Nvidia ultrapassem as CPUs da Intel e da AMD nos centros de dados.

As despesas com GPUs Nvidia por parte de fornecedores de serviços de nuvem em hiperescala e grandes empresas tecnológicas aumentaram rapidamente, passando de percentagens baixas de um só dígito no início da década de 2010 para valores médios de um só dígito de 2015 a 2022 e para 25% em 2023. Acreditamos que a Nvidia será responsável por mais de 50% das despesas de capital dos fornecedores de serviços na nuvem nos próximos anos. Prevê-se que as receitas da Nvidia passem de 25 mil milhões de dólares em 2022 para 100 mil milhões de dólares em 2025 (Fonte: Koyfin).

A Morgan Stanley estima que, até 2025, a dimensão do mercado da infraestrutura como serviço (IaaS) de GPU para fornecedores de serviços de nuvem em hiperescala atingirá 40-50 mil milhões de dólares. Esta é ainda apenas uma pequena parte das receitas totais dos fornecedores de serviços de nuvem em hiperescala, sendo que os três principais fornecedores de serviços de nuvem em hiperescala geram atualmente receitas superiores a 250 mil milhões de dólares.

Dada a forte procura de GPUs, a escassez de GPUs tem sido amplamente noticiada por meios de comunicação social como o The New York Times e o The Wall Street Journal. O CEO da AWS declarou: "A procura excede a oferta, o que é verdade para todos". Elon Musk disse durante a chamada de resultados do segundo trimestre de 2023 da Tesla: "Vamos continuar a utilizar - vamos obter hardware da Nvidia o mais rapidamente possível".

A Index Ventures teve de comprar chips para as empresas da sua carteira. É quase impossível comprar chips da Nvidia fora das principais empresas de tecnologia, e a obtenção de chips de fornecedores de serviços de nuvem em hiperescala também leva muito tempo.

Abaixo estão os preços de GPU para AWS e Azure. Conforme indicado abaixo, está disponível um desconto de 30-65% para reservas de 1-3 anos. À medida que os fornecedores de serviços de nuvem em hiperescala investem milhares de milhões de dólares na expansão da capacidade, procuram oportunidades de investimento que proporcionem visibilidade das receitas. Se os clientes prevêem que as taxas de utilização excedam 60%, é melhor optar por um preço reservado de 1 ano. Se a taxa de utilização prevista for superior a 35%, seleccione 3 anos. Qualquer capacidade não utilizada pode ser revendida, reduzindo significativamente o seu custo total.

Se um fornecedor de serviços de nuvem em grande escala estabelecer um negócio de aluguer de computação GPU no valor de 50 mil milhões de dólares, a revenda de potência de computação não utilizada seria uma enorme oportunidade. Partindo do princípio de que 30% da capacidade de computação é revendida com um desconto de 30%, criar-se-ia um mercado de 10 mil milhões de dólares para a revenda da capacidade de computação GPU de fornecedores de serviços de computação em nuvem de grande escala.

No entanto, para além dos fornecedores de serviços de nuvem em grande escala, existem outras fontes de abastecimento, incluindo grandes empresas (como a Meta, a Tesla), concorrentes (CoreWeave, Lambda, etc.) e startups de IA bem financiadas. De 2022 a 2025, prevê-se que a Nvidia gere aproximadamente 300 mil milhões de dólares em receitas. Partindo do princípio de que existem mais 70 mil milhões de dólares de chips fora dos fornecedores de serviços de computação em nuvem de grande escala, a revenda de 20% da capacidade de computação com um desconto de 30% acrescentaria mais 10 mil milhões de dólares, totalizando 200 mil milhões de dólares.

Visão geral da Akash

Akash é um mercado de computação descentralizado fundado em 2015 e lançou sua mainnet como uma cadeia de aplicativos Cosmos em setembro de 2020. A sua visão é democratizar a computação em nuvem, oferecendo recursos de computação significativamente mais baratos do que os fornecedores de serviços de nuvem em grande escala.

A cadeia de blocos trata da coordenação e da liquidação, armazenando registos de pedidos, licitações, alugueres e liquidações, enquanto a execução é feita fora da cadeia. O Akash aloja contentores onde os utilizadores podem executar qualquer aplicação nativa da nuvem. A Akash criou um conjunto de serviços de gestão da nuvem, incluindo Kubernetes, para orquestrar e gerir estes contentores. A implantação é transferida a partir de uma rede privada peer-to-peer isolada da blockchain.

A primeira versão do Akash centrava-se na computação da CPU. No seu auge, a empresa tinha um volume total anual de transacções de cerca de 200.000 dólares, alugando 4-5 mil CPUs. No entanto, existiam dois problemas principais: barreiras à entrada (que exigiam a criação de uma carteira Cosmos e a utilização de tokens AKT para pagar cargas de trabalho) e a rotatividade dos clientes (que tinham de recarregar a carteira com AKT e, se o AKT se esgotasse ou o preço mudasse, a carga de trabalho deixava de existir sem fornecedores alternativos).

Ao longo do último ano, a Akash passou da computação CPU para a computação GPU, tirando partido desta mudança de paradigma na infraestrutura de computação e na escassez de oferta.

Fornecimento de GPU Akash

A rede GPU da Akash será lançada na rede principal em setembro de 2023. Desde então, a Akash foi ampliada para 150-200 GPUs e alcançou taxas de utilização de 50-70%.

Abaixo está uma comparação dos preços da Nvidia A100 de vários fornecedores. Os preços da Akash são 30-60% mais baratos do que os da concorrência.

Existem aproximadamente 19 fornecedores únicos na rede Akash, localizados em 7 países, que fornecem mais de 15 tipos de chips. O maior fornecedor é a Foundry, uma empresa apoiada pelo DCG que também se dedica à extração de criptomoedas e ao staking.

A Akash concentra-se principalmente em chips empresariais (A100), que são tradicionalmente utilizados para suportar cargas de trabalho de IA. Embora também ofereça alguns chips de consumo, estes têm sido geralmente difíceis de utilizar para IA no passado devido ao consumo de energia, ao software e a problemas de latência. Várias empresas, como a FedML, a io.net e a Gensyn, estão a tentar criar uma camada de orquestração para permitir a computação periférica de IA.

À medida que o mercado se desloca cada vez mais para a inferência e não para a formação, as GPU de nível de consumidor podem tornar-se mais viáveis, mas atualmente o mercado está concentrado na utilização de chips de nível empresarial para formação.

Do lado da oferta, a Akash concentra-se em fornecedores públicos de serviços de nuvem em hiperescala, fornecedores privados de GPU, mineradores de criptografia e empresas que possuem GPUs subutilizadas.

  1. Fornecedores de nuvem pública de hiperescala: O maior potencial reside em permitir que os principais fornecedores de serviços de nuvem pública (Azure, AWS, GCP) permitam que os seus clientes revendam capacidade subutilizada no mercado Akash. Isto dar-lhe-ia visibilidade sobre as receitas do investimento de capital. Quando os principais fornecedores de serviços de computação em nuvem o permitirem, outros poderão ter de seguir o exemplo para manter a sua quota de mercado. Como mencionado anteriormente, os grandes fornecedores de serviços na nuvem podem ter uma oportunidade de Infraestrutura como Serviço (IaaS) de 50 mil milhões de dólares, criando uma oportunidade de negociação secundária em grande escala para o mercado Akash.
  2. Concorrentes de nuvem privada: Para além dos fornecedores de serviços de nuvem pública de hiperescala, várias empresas de nuvem privada (CoreWeave, Lambda Labs, etc.) também fornecem serviços de aluguer de GPU. Dada a dinâmica competitiva dos fornecedores de serviços de nuvem em hiperescala que tentam construir os seus próprios ASIC como hardware de substituição, a Nvidia disponibilizou mais fornecimentos a algumas empresas privadas. Os concorrentes privados são muitas vezes mais baratos do que os fornecedores de serviços de nuvem em hiperescala (por exemplo, o A100 é até 50% mais barato). A CoreWeave, um dos concorrentes privados mais conhecidos, já foi uma empresa de mineração de criptografia que fez a transição em 2019 para a construção de centros de dados e fornecimento de infraestrutura de GPU. Está a angariar fundos com uma avaliação de 7 mil milhões de dólares e é apoiada pela Nvidia. A CoreWeave está a crescer rapidamente, com receitas que atingem os 500 milhões de dólares em 2023 e receitas que deverão atingir os 1,5-2 mil milhões de dólares em 2024. A CoreWeave tem 45.000 chips Nvidia e estima que estes concorrentes privados possam ter mais de 100.000 GPUs no total. A criação de mercados secundários para a sua base de clientes poderá permitir que estes concorrentes privados ganhem quota em relação aos fornecedores públicos de nuvens em hiperescala.
  3. Criptominadores: Os criptominadores têm sido historicamente grandes consumidores de GPUs da Nvidia. Devido à complexidade computacional da resolução de provas criptográficas, as GPUs tornaram-se o hardware predominante para redes de prova de trabalho. Com a transição do Ethereum da prova de trabalho para a prova de participação, isto levou a um excedente significativo de capacidade. Estima-se que cerca de 20% dos chips libertados possam ser reorientados para cargas de trabalho de IA. Além disso, os mineiros de Bitcoin também estão a tentar diversificar os seus fluxos de receitas. Nos últimos meses, a Hut 8, a Applied Digital, a Iris Energy, a Hive e outros mineiros de Bitcoin anunciaram estratégias de inteligência artificial/aprendizagem automática. A Foundry é o maior fornecedor da Akash e é um dos maiores mineiros de Bitcoin.
  4. Empresas: Como mencionado anteriormente, a Meta tem um grande número de GPUs, com 15.000 A100s a uma taxa de utilização de 5%. Do mesmo modo, a Tesla também tem 15 000 A100. As taxas de utilização da computação empresarial são normalmente inferiores a 50%. Dado o investimento significativo de capital de risco nesta área, muitas empresas em fase de arranque de IA/ML também compraram previamente chips. A possibilidade de revender a capacidade não utilizada reduzirá os custos totais de propriedade para estas empresas mais pequenas. Curiosamente, poderá haver potenciais vantagens fiscais no aluguer de GPUs antigas.

Akash GPU do lado da procura

Na maior parte de 2022 e 2023, antes do lançamento da rede GPU, o Valor Bruto de Mercadoria (GMV) anualizado para CPUs era de aproximadamente US$ 50.000. Desde a introdução da rede GPU, o GMV atingiu um nível anualizado de 500.000 a 1.000.000 dólares, com taxas de utilização da rede GPU que variam entre 50% e 70%.

A Akash tem trabalhado para reduzir o atrito com o utilizador, melhorar a experiência do utilizador e alargar os casos de utilização.

  1. Pagamentos em USDC: Recentemente, a Akash permitiu pagamentos estáveis utilizando USDC, libertando os clientes das flutuações de preços quando compram AKT e retêm AKT até ao pagamento.
  2. Suporte à carteira Metamask: A Akash também implementou o Metamask Snap para facilitar o arranque sem ter de criar uma carteira específica para o Cosmos.
  3. Suporte a nível empresarial: A Overclock Labs, os criadores da rede Akash, lançaram o AkashML para facilitar a entrada de utilizadores na rede Akash com suporte a nível empresarial.
  4. Autosserviço: A Cloudmos, recentemente adquirida pela Akash, também introduziu uma interface self-service de fácil utilização para a implementação de GPU. Anteriormente, a implementação tinha de ser efectuada através de código de linha de comandos.
  5. Escolha: Embora se concentre principalmente nos chips empresariais da Nvidia, a Akash também oferece chips de consumo e, a partir do final de 2023, adicionou suporte para chips AMD.

A Akash está também a validar casos de utilização através da rede. Durante a Rede de Teste GPU, a comunidade demonstrou que pode utilizar a rede para implementar e executar inferência em muitos modelos populares de IA. As aplicações Akash Chat e Stable Diffusion XL demonstram a capacidade do Akash para efetuar inferências. Acreditamos que, com o tempo, o mercado da inferência será muito maior do que o mercado da formação. A pesquisa atual baseada em IA custa 0,02 dólares (10 vezes os custos actuais da Google). Tendo em conta que existem 3 triliões de pesquisas por ano, este valor seria de 60 mil milhões de dólares por ano. Para contextualizar, o treino de um modelo da OpenAI custa cerca de 100 milhões de dólares. Embora os custos sejam provavelmente mais baixos para ambos, este facto realça a diferença significativa nos conjuntos de receitas a longo prazo.

Tendo em conta que a maior parte da procura de chips topo de gama se centra atualmente na formação, a Akash está também a trabalhar para demonstrar que pode utilizar a rede Akash para formar um modelo, que planeia lançar no início de 2024. Após a utilização de bolachas homogéneas de um único fornecedor, o próximo projeto será a utilização de bolachas heterogéneas de vários fornecedores.

O roteiro da Akash é enorme. Algumas das funcionalidades actuais do produto incluem suporte para gestão da privacidade, instâncias a pedido/reservadas e melhor capacidade de descoberta.

Modelo de Token e Incentivos

A Akash cobra uma taxa de processamento de 4% para pagamentos AKT e uma taxa de processamento de 20% para pagamentos USDC. Esta taxa de 20% é semelhante à que se verifica nos mercados tradicionais em linha (por exemplo 30% da Uber).

A Akash tem aproximadamente 58% dos seus tokens em circulação (225 milhões em circulação, oferta máxima de 388 milhões). A taxa de inflação anual aumentou de 8% para 13%. Atualmente, 60% dos tokens em circulação foram bloqueados, com um período de bloqueio de 21 dias.

Uma taxa de 40% (anteriormente 25%) da inflação e GMV também irá para o pool da comunidade, que atualmente detém 10 milhões de dólares em tokens AKT.

O objetivo destes fundos ainda está a ser determinado, mas será distribuído entre fundos públicos, incentivos aos prestadores de serviços, apostas, potenciais queimadas e fundos comunitários.

Em 19 de janeiro, a Akash lançou um programa piloto de incentivo de 5 milhões de dólares com o objetivo de trazer 1000 A100 para a plataforma. Com o tempo, o objetivo é proporcionar visibilidade das receitas do lado da oferta (por exemplo, 95% de utilização efectiva) aos prestadores que participam no mercado.

Avaliação e análise de cenários

Seguem-se vários cenários e pressupostos ilustrativos sobre os principais factores da Akash:

Cenário a curto prazo: Estimamos que, se a Akash conseguir atingir as 15 000 unidades do A100, gerará cerca de 150 milhões de dólares em GMV. Com uma taxa de comissão de 20%, isto renderia a Akash 30 milhões de dólares em taxas de acordo. Tendo em conta a trajetória de crescimento, multiplicando este número por 100 (tendo em conta as avaliações da IA), este valor seria de 3 mil milhões de dólares.

Caso de referência: Assumimos que a oportunidade de mercado da IaaS está em linha com a estimativa da Morgan Stanley de 50 mil milhões de dólares. Partindo de uma utilização de 70%, há 15 mil milhões de dólares de capacidade revendível. Assumindo um desconto de 30% sobre esta capacidade, obtemos 10 mil milhões de dólares, mais 10 mil milhões de dólares de outras fontes não hiperescaláveis. Dado que os mercados gozam tipicamente de fortes fossos, assumimos que a Akash pode atingir 33% de quota (20% da quota de mercado de aluguer de férias da Airbnb, 75% da quota de mercado de partilha de boleias da Uber e 65% da quota de mercado de entrega de comida da Doordash). Com uma taxa de comissão de 20%, isto geraria mil milhões de dólares em taxas de protocolo. Multiplicando-o por 10, Akash obteria um resultado de 10 mil milhões de dólares.

Caso ascendente: O nosso caso ascendente utiliza o mesmo quadro que o caso de referência. Assumimos uma oportunidade de revenda de 20 mil milhões de dólares devido à capacidade de penetrar em fontes de GPU mais exclusivas e a um maior crescimento das quotas.

Informações gerais: A Nvidia é uma empresa cotada na bolsa com uma capitalização de mercado de 1,2 biliões de dólares, enquanto a OpenAI está avaliada em 80 mil milhões de dólares no mercado privado, a Anthropic está avaliada em 20 mil milhões de dólares e a CoreWeave está avaliada em 7 mil milhões de dólares. No espaço criptográfico, a Render e a TAO estão avaliadas em mais de 2 mil milhões de dólares e mais de 5,5 mil milhões de dólares, respetivamente.

Riscos e medidas de atenuação:

Concentração da oferta e da procura: Atualmente, a maior parte da procura de GPU provém de grandes empresas tecnológicas para formação de LLMs (Large Language Models) extremamente grandes e complexos. Com o tempo, prevemos um maior interesse no treino de modelos de IA de menor escala, que são mais baratos e mais adequados para lidar com dados privados. O ajuste fino tornar-se-á cada vez mais importante à medida que os modelos deixarem de ser de uso geral e passarem a ser verticalmente específicos. Em última análise, à medida que a utilização e a adoção forem acelerando, a inferência tornar-se-á cada vez mais crítica.

Concorrência: Há muitas empresas de criptografia e não criptografia tentando liberar GPUs subutilizadas. Alguns dos protocolos de encriptação mais notáveis são:

  1. A Render e a Nosana estão a lançar GPUs de consumo para inferência.
  2. A Together está a criar modelos de formação de código aberto, permitindo que os programadores os utilizem como base.
  3. A Ritual está a construir uma rede de acolhimento de modelos.

Problemas de latência e desafios técnicos: Dado que o treino de IA é uma tarefa extremamente intensiva em termos de recursos, e considerando que todos os chips estão alojados num centro de dados, não é claro se os modelos podem ser treinados em pilhas de GPU descentralizadas e não co-localizadas. A OpenAI planeia construir a sua próxima instalação de formação com mais de 75.000 GPUs no Arizona. Todas estas questões estão a ser abordadas por camadas de programação como o FedML, Io.net e Gensyn.

Declaração de exoneração de responsabilidade:

  1. Este artigo foi reproduzido de[Foresight News]. Todos os direitos de autor pertencem ao autor original[Vincent Jow]. Se houver objecções a esta reimpressão, contacte a equipa da Gate Learn, que tratará prontamente do assunto.
  2. Declaração de exoneração de responsabilidade: Os pontos de vista e opiniões expressos neste artigo são da exclusiva responsabilidade do autor e não constituem um conselho de investimento.
  3. As traduções do artigo para outras línguas são efectuadas pela equipa Gate Learn. A menos que seja mencionado, é proibido copiar, distribuir ou plagiar os artigos traduzidos.

Da computação em nuvem à IA, será que a Akash se vai tornar o cavalo negro da pista DePIN?

PrincipianteFeb 18, 2024
Este artigo analisa o modelo de token Akash e os seus cenários de aplicação.
Da computação em nuvem à IA, será que a Akash se vai tornar o cavalo negro da pista DePIN?

Resumo

A Akash é uma plataforma de computação descentralizada concebida para ligar fornecimentos de GPU subutilizados a utilizadores que necessitam de computação GPU, com o objetivo de se tornar o "Airbnb" da computação GPU. Ao contrário de outros concorrentes, concentra-se principalmente na computação GPU geral e de nível empresarial. Desde o lançamento da rede principal de GPUs em setembro de 2023, têm tido 150-200 GPUs na sua rede, com taxas de utilização que atingem 50-70% e um valor total anual de transacções de 500.000 a 1 milhão de dólares. Em consonância com o mercado da rede, a Akash cobra uma taxa de transação de 20% para pagamentos em USDC.

Estamos no início de uma transformação maciça das infra-estruturas, com o processamento paralelo impulsionado por GPU a aumentar. Prevê-se que a inteligência artificial aumente o PIB mundial em 7 biliões de dólares, automatizando ao mesmo tempo 300 milhões de postos de trabalho. A Nvidia, fabricante de GPUs, espera que as suas receitas aumentem de 27 mil milhões de dólares em 2022 para 60 mil milhões de dólares em 2023, atingindo cerca de 100 mil milhões de dólares em 2025. As despesas de capital dos fornecedores de computação em nuvem (AWS, GCP, Azure, etc.) em chips Nvidia aumentaram de um dígito para 25% e espera-se que excedam 50% nos próximos anos. (Fonte: Koyfin)

A Morgan Stanley estima que, até 2025, a oportunidade para a infraestrutura como serviço (IaaS) de GPU em ultra-grande escala atingirá os 40-50 mil milhões de dólares. A título de exemplo, se 30% da computação GPU for revendida com um desconto de 30% através do mercado secundário, isso representará uma oportunidade de receita de 10 mil milhões de dólares. Se acrescentarmos mais 5 mil milhões de dólares de oportunidades de receitas provenientes de fontes não ultra-grandes, a oportunidade total de receitas será de 15 mil milhões de dólares. Partindo do princípio de que a Akash consegue captar 33% da quota de mercado desta oportunidade (valor total da transação de 5 mil milhões de dólares) e cobrar uma taxa de transação de 20%, isto traduzir-se-á em mil milhões de dólares em receitas líquidas. Se multiplicarmos este número por 10, o resultado será uma capitalização de mercado de quase 10 mil milhões de dólares.

Panorama do mercado:

Em novembro de 2022, a OpenAI lançou o ChatGPT, estabelecendo o recorde de crescimento mais rápido da base de utilizadores, atingindo 100 milhões de utilizadores em janeiro de 2023 e 200 milhões de utilizadores em maio. O impacto desta situação é enorme, com estimativas que sugerem que o aumento da produtividade e a automatização de 3 milhões de postos de trabalho aumentarão o PIB mundial em 7 biliões de dólares.

A inteligência artificial passou rapidamente de uma área de nicho de investigação para o maior foco de despesa das empresas. O custo da criação da GPT-4 é de 100 milhões de dólares, com custos de exploração anuais de 250 milhões de dólares. O GPT-5 requer 25.000 GPUs A100 (equivalente a 2,25 mil milhões de dólares em hardware da Nvidia) e pode exigir um investimento total em hardware de 10 mil milhões de dólares. Isto desencadeou uma corrida às armas entre as empresas para garantir GPUs suficientes para suportar cargas de trabalho empresariais orientadas para a IA.

A revolução da inteligência artificial provocou uma mudança monumental na infraestrutura, acelerando a transição do processamento paralelo da CPU para a GPU. Historicamente, as GPUs têm sido utilizadas para renderização e processamento de imagens simultâneos em grande escala, enquanto as CPUs são concebidas para execução em série, incapazes de tais operações simultâneas. Devido à elevada largura de banda da memória, as GPUs evoluíram gradualmente para lidar com outros cálculos com problemas paralelos, como a formação, a otimização e o aperfeiçoamento de modelos de inteligência artificial.

A Nvidia, pioneira da tecnologia GPU na década de 1990, combinou o seu hardware de topo com a pilha de software CUDA, estabelecendo uma posição de liderança sobre os concorrentes (principalmente a AMD e a Intel) durante muitos anos. A pilha CUDA da Nvidia foi desenvolvida em 2006, permitindo aos programadores otimizar as GPUs Nvidia para acelerar as suas cargas de trabalho e simplificar a programação de GPU. Com 4 milhões de utilizadores CUDA e mais de 50.000 programadores que utilizam CUDA para desenvolvimento, possui um poderoso ecossistema de linguagens de programação, bibliotecas, ferramentas, aplicações e estruturas. Com o tempo, esperamos que as GPUs da Nvidia ultrapassem as CPUs da Intel e da AMD nos centros de dados.

As despesas com GPUs Nvidia por parte de fornecedores de serviços de nuvem em hiperescala e grandes empresas tecnológicas aumentaram rapidamente, passando de percentagens baixas de um só dígito no início da década de 2010 para valores médios de um só dígito de 2015 a 2022 e para 25% em 2023. Acreditamos que a Nvidia será responsável por mais de 50% das despesas de capital dos fornecedores de serviços na nuvem nos próximos anos. Prevê-se que as receitas da Nvidia passem de 25 mil milhões de dólares em 2022 para 100 mil milhões de dólares em 2025 (Fonte: Koyfin).

A Morgan Stanley estima que, até 2025, a dimensão do mercado da infraestrutura como serviço (IaaS) de GPU para fornecedores de serviços de nuvem em hiperescala atingirá 40-50 mil milhões de dólares. Esta é ainda apenas uma pequena parte das receitas totais dos fornecedores de serviços de nuvem em hiperescala, sendo que os três principais fornecedores de serviços de nuvem em hiperescala geram atualmente receitas superiores a 250 mil milhões de dólares.

Dada a forte procura de GPUs, a escassez de GPUs tem sido amplamente noticiada por meios de comunicação social como o The New York Times e o The Wall Street Journal. O CEO da AWS declarou: "A procura excede a oferta, o que é verdade para todos". Elon Musk disse durante a chamada de resultados do segundo trimestre de 2023 da Tesla: "Vamos continuar a utilizar - vamos obter hardware da Nvidia o mais rapidamente possível".

A Index Ventures teve de comprar chips para as empresas da sua carteira. É quase impossível comprar chips da Nvidia fora das principais empresas de tecnologia, e a obtenção de chips de fornecedores de serviços de nuvem em hiperescala também leva muito tempo.

Abaixo estão os preços de GPU para AWS e Azure. Conforme indicado abaixo, está disponível um desconto de 30-65% para reservas de 1-3 anos. À medida que os fornecedores de serviços de nuvem em hiperescala investem milhares de milhões de dólares na expansão da capacidade, procuram oportunidades de investimento que proporcionem visibilidade das receitas. Se os clientes prevêem que as taxas de utilização excedam 60%, é melhor optar por um preço reservado de 1 ano. Se a taxa de utilização prevista for superior a 35%, seleccione 3 anos. Qualquer capacidade não utilizada pode ser revendida, reduzindo significativamente o seu custo total.

Se um fornecedor de serviços de nuvem em grande escala estabelecer um negócio de aluguer de computação GPU no valor de 50 mil milhões de dólares, a revenda de potência de computação não utilizada seria uma enorme oportunidade. Partindo do princípio de que 30% da capacidade de computação é revendida com um desconto de 30%, criar-se-ia um mercado de 10 mil milhões de dólares para a revenda da capacidade de computação GPU de fornecedores de serviços de computação em nuvem de grande escala.

No entanto, para além dos fornecedores de serviços de nuvem em grande escala, existem outras fontes de abastecimento, incluindo grandes empresas (como a Meta, a Tesla), concorrentes (CoreWeave, Lambda, etc.) e startups de IA bem financiadas. De 2022 a 2025, prevê-se que a Nvidia gere aproximadamente 300 mil milhões de dólares em receitas. Partindo do princípio de que existem mais 70 mil milhões de dólares de chips fora dos fornecedores de serviços de computação em nuvem de grande escala, a revenda de 20% da capacidade de computação com um desconto de 30% acrescentaria mais 10 mil milhões de dólares, totalizando 200 mil milhões de dólares.

Visão geral da Akash

Akash é um mercado de computação descentralizado fundado em 2015 e lançou sua mainnet como uma cadeia de aplicativos Cosmos em setembro de 2020. A sua visão é democratizar a computação em nuvem, oferecendo recursos de computação significativamente mais baratos do que os fornecedores de serviços de nuvem em grande escala.

A cadeia de blocos trata da coordenação e da liquidação, armazenando registos de pedidos, licitações, alugueres e liquidações, enquanto a execução é feita fora da cadeia. O Akash aloja contentores onde os utilizadores podem executar qualquer aplicação nativa da nuvem. A Akash criou um conjunto de serviços de gestão da nuvem, incluindo Kubernetes, para orquestrar e gerir estes contentores. A implantação é transferida a partir de uma rede privada peer-to-peer isolada da blockchain.

A primeira versão do Akash centrava-se na computação da CPU. No seu auge, a empresa tinha um volume total anual de transacções de cerca de 200.000 dólares, alugando 4-5 mil CPUs. No entanto, existiam dois problemas principais: barreiras à entrada (que exigiam a criação de uma carteira Cosmos e a utilização de tokens AKT para pagar cargas de trabalho) e a rotatividade dos clientes (que tinham de recarregar a carteira com AKT e, se o AKT se esgotasse ou o preço mudasse, a carga de trabalho deixava de existir sem fornecedores alternativos).

Ao longo do último ano, a Akash passou da computação CPU para a computação GPU, tirando partido desta mudança de paradigma na infraestrutura de computação e na escassez de oferta.

Fornecimento de GPU Akash

A rede GPU da Akash será lançada na rede principal em setembro de 2023. Desde então, a Akash foi ampliada para 150-200 GPUs e alcançou taxas de utilização de 50-70%.

Abaixo está uma comparação dos preços da Nvidia A100 de vários fornecedores. Os preços da Akash são 30-60% mais baratos do que os da concorrência.

Existem aproximadamente 19 fornecedores únicos na rede Akash, localizados em 7 países, que fornecem mais de 15 tipos de chips. O maior fornecedor é a Foundry, uma empresa apoiada pelo DCG que também se dedica à extração de criptomoedas e ao staking.

A Akash concentra-se principalmente em chips empresariais (A100), que são tradicionalmente utilizados para suportar cargas de trabalho de IA. Embora também ofereça alguns chips de consumo, estes têm sido geralmente difíceis de utilizar para IA no passado devido ao consumo de energia, ao software e a problemas de latência. Várias empresas, como a FedML, a io.net e a Gensyn, estão a tentar criar uma camada de orquestração para permitir a computação periférica de IA.

À medida que o mercado se desloca cada vez mais para a inferência e não para a formação, as GPU de nível de consumidor podem tornar-se mais viáveis, mas atualmente o mercado está concentrado na utilização de chips de nível empresarial para formação.

Do lado da oferta, a Akash concentra-se em fornecedores públicos de serviços de nuvem em hiperescala, fornecedores privados de GPU, mineradores de criptografia e empresas que possuem GPUs subutilizadas.

  1. Fornecedores de nuvem pública de hiperescala: O maior potencial reside em permitir que os principais fornecedores de serviços de nuvem pública (Azure, AWS, GCP) permitam que os seus clientes revendam capacidade subutilizada no mercado Akash. Isto dar-lhe-ia visibilidade sobre as receitas do investimento de capital. Quando os principais fornecedores de serviços de computação em nuvem o permitirem, outros poderão ter de seguir o exemplo para manter a sua quota de mercado. Como mencionado anteriormente, os grandes fornecedores de serviços na nuvem podem ter uma oportunidade de Infraestrutura como Serviço (IaaS) de 50 mil milhões de dólares, criando uma oportunidade de negociação secundária em grande escala para o mercado Akash.
  2. Concorrentes de nuvem privada: Para além dos fornecedores de serviços de nuvem pública de hiperescala, várias empresas de nuvem privada (CoreWeave, Lambda Labs, etc.) também fornecem serviços de aluguer de GPU. Dada a dinâmica competitiva dos fornecedores de serviços de nuvem em hiperescala que tentam construir os seus próprios ASIC como hardware de substituição, a Nvidia disponibilizou mais fornecimentos a algumas empresas privadas. Os concorrentes privados são muitas vezes mais baratos do que os fornecedores de serviços de nuvem em hiperescala (por exemplo, o A100 é até 50% mais barato). A CoreWeave, um dos concorrentes privados mais conhecidos, já foi uma empresa de mineração de criptografia que fez a transição em 2019 para a construção de centros de dados e fornecimento de infraestrutura de GPU. Está a angariar fundos com uma avaliação de 7 mil milhões de dólares e é apoiada pela Nvidia. A CoreWeave está a crescer rapidamente, com receitas que atingem os 500 milhões de dólares em 2023 e receitas que deverão atingir os 1,5-2 mil milhões de dólares em 2024. A CoreWeave tem 45.000 chips Nvidia e estima que estes concorrentes privados possam ter mais de 100.000 GPUs no total. A criação de mercados secundários para a sua base de clientes poderá permitir que estes concorrentes privados ganhem quota em relação aos fornecedores públicos de nuvens em hiperescala.
  3. Criptominadores: Os criptominadores têm sido historicamente grandes consumidores de GPUs da Nvidia. Devido à complexidade computacional da resolução de provas criptográficas, as GPUs tornaram-se o hardware predominante para redes de prova de trabalho. Com a transição do Ethereum da prova de trabalho para a prova de participação, isto levou a um excedente significativo de capacidade. Estima-se que cerca de 20% dos chips libertados possam ser reorientados para cargas de trabalho de IA. Além disso, os mineiros de Bitcoin também estão a tentar diversificar os seus fluxos de receitas. Nos últimos meses, a Hut 8, a Applied Digital, a Iris Energy, a Hive e outros mineiros de Bitcoin anunciaram estratégias de inteligência artificial/aprendizagem automática. A Foundry é o maior fornecedor da Akash e é um dos maiores mineiros de Bitcoin.
  4. Empresas: Como mencionado anteriormente, a Meta tem um grande número de GPUs, com 15.000 A100s a uma taxa de utilização de 5%. Do mesmo modo, a Tesla também tem 15 000 A100. As taxas de utilização da computação empresarial são normalmente inferiores a 50%. Dado o investimento significativo de capital de risco nesta área, muitas empresas em fase de arranque de IA/ML também compraram previamente chips. A possibilidade de revender a capacidade não utilizada reduzirá os custos totais de propriedade para estas empresas mais pequenas. Curiosamente, poderá haver potenciais vantagens fiscais no aluguer de GPUs antigas.

Akash GPU do lado da procura

Na maior parte de 2022 e 2023, antes do lançamento da rede GPU, o Valor Bruto de Mercadoria (GMV) anualizado para CPUs era de aproximadamente US$ 50.000. Desde a introdução da rede GPU, o GMV atingiu um nível anualizado de 500.000 a 1.000.000 dólares, com taxas de utilização da rede GPU que variam entre 50% e 70%.

A Akash tem trabalhado para reduzir o atrito com o utilizador, melhorar a experiência do utilizador e alargar os casos de utilização.

  1. Pagamentos em USDC: Recentemente, a Akash permitiu pagamentos estáveis utilizando USDC, libertando os clientes das flutuações de preços quando compram AKT e retêm AKT até ao pagamento.
  2. Suporte à carteira Metamask: A Akash também implementou o Metamask Snap para facilitar o arranque sem ter de criar uma carteira específica para o Cosmos.
  3. Suporte a nível empresarial: A Overclock Labs, os criadores da rede Akash, lançaram o AkashML para facilitar a entrada de utilizadores na rede Akash com suporte a nível empresarial.
  4. Autosserviço: A Cloudmos, recentemente adquirida pela Akash, também introduziu uma interface self-service de fácil utilização para a implementação de GPU. Anteriormente, a implementação tinha de ser efectuada através de código de linha de comandos.
  5. Escolha: Embora se concentre principalmente nos chips empresariais da Nvidia, a Akash também oferece chips de consumo e, a partir do final de 2023, adicionou suporte para chips AMD.

A Akash está também a validar casos de utilização através da rede. Durante a Rede de Teste GPU, a comunidade demonstrou que pode utilizar a rede para implementar e executar inferência em muitos modelos populares de IA. As aplicações Akash Chat e Stable Diffusion XL demonstram a capacidade do Akash para efetuar inferências. Acreditamos que, com o tempo, o mercado da inferência será muito maior do que o mercado da formação. A pesquisa atual baseada em IA custa 0,02 dólares (10 vezes os custos actuais da Google). Tendo em conta que existem 3 triliões de pesquisas por ano, este valor seria de 60 mil milhões de dólares por ano. Para contextualizar, o treino de um modelo da OpenAI custa cerca de 100 milhões de dólares. Embora os custos sejam provavelmente mais baixos para ambos, este facto realça a diferença significativa nos conjuntos de receitas a longo prazo.

Tendo em conta que a maior parte da procura de chips topo de gama se centra atualmente na formação, a Akash está também a trabalhar para demonstrar que pode utilizar a rede Akash para formar um modelo, que planeia lançar no início de 2024. Após a utilização de bolachas homogéneas de um único fornecedor, o próximo projeto será a utilização de bolachas heterogéneas de vários fornecedores.

O roteiro da Akash é enorme. Algumas das funcionalidades actuais do produto incluem suporte para gestão da privacidade, instâncias a pedido/reservadas e melhor capacidade de descoberta.

Modelo de Token e Incentivos

A Akash cobra uma taxa de processamento de 4% para pagamentos AKT e uma taxa de processamento de 20% para pagamentos USDC. Esta taxa de 20% é semelhante à que se verifica nos mercados tradicionais em linha (por exemplo 30% da Uber).

A Akash tem aproximadamente 58% dos seus tokens em circulação (225 milhões em circulação, oferta máxima de 388 milhões). A taxa de inflação anual aumentou de 8% para 13%. Atualmente, 60% dos tokens em circulação foram bloqueados, com um período de bloqueio de 21 dias.

Uma taxa de 40% (anteriormente 25%) da inflação e GMV também irá para o pool da comunidade, que atualmente detém 10 milhões de dólares em tokens AKT.

O objetivo destes fundos ainda está a ser determinado, mas será distribuído entre fundos públicos, incentivos aos prestadores de serviços, apostas, potenciais queimadas e fundos comunitários.

Em 19 de janeiro, a Akash lançou um programa piloto de incentivo de 5 milhões de dólares com o objetivo de trazer 1000 A100 para a plataforma. Com o tempo, o objetivo é proporcionar visibilidade das receitas do lado da oferta (por exemplo, 95% de utilização efectiva) aos prestadores que participam no mercado.

Avaliação e análise de cenários

Seguem-se vários cenários e pressupostos ilustrativos sobre os principais factores da Akash:

Cenário a curto prazo: Estimamos que, se a Akash conseguir atingir as 15 000 unidades do A100, gerará cerca de 150 milhões de dólares em GMV. Com uma taxa de comissão de 20%, isto renderia a Akash 30 milhões de dólares em taxas de acordo. Tendo em conta a trajetória de crescimento, multiplicando este número por 100 (tendo em conta as avaliações da IA), este valor seria de 3 mil milhões de dólares.

Caso de referência: Assumimos que a oportunidade de mercado da IaaS está em linha com a estimativa da Morgan Stanley de 50 mil milhões de dólares. Partindo de uma utilização de 70%, há 15 mil milhões de dólares de capacidade revendível. Assumindo um desconto de 30% sobre esta capacidade, obtemos 10 mil milhões de dólares, mais 10 mil milhões de dólares de outras fontes não hiperescaláveis. Dado que os mercados gozam tipicamente de fortes fossos, assumimos que a Akash pode atingir 33% de quota (20% da quota de mercado de aluguer de férias da Airbnb, 75% da quota de mercado de partilha de boleias da Uber e 65% da quota de mercado de entrega de comida da Doordash). Com uma taxa de comissão de 20%, isto geraria mil milhões de dólares em taxas de protocolo. Multiplicando-o por 10, Akash obteria um resultado de 10 mil milhões de dólares.

Caso ascendente: O nosso caso ascendente utiliza o mesmo quadro que o caso de referência. Assumimos uma oportunidade de revenda de 20 mil milhões de dólares devido à capacidade de penetrar em fontes de GPU mais exclusivas e a um maior crescimento das quotas.

Informações gerais: A Nvidia é uma empresa cotada na bolsa com uma capitalização de mercado de 1,2 biliões de dólares, enquanto a OpenAI está avaliada em 80 mil milhões de dólares no mercado privado, a Anthropic está avaliada em 20 mil milhões de dólares e a CoreWeave está avaliada em 7 mil milhões de dólares. No espaço criptográfico, a Render e a TAO estão avaliadas em mais de 2 mil milhões de dólares e mais de 5,5 mil milhões de dólares, respetivamente.

Riscos e medidas de atenuação:

Concentração da oferta e da procura: Atualmente, a maior parte da procura de GPU provém de grandes empresas tecnológicas para formação de LLMs (Large Language Models) extremamente grandes e complexos. Com o tempo, prevemos um maior interesse no treino de modelos de IA de menor escala, que são mais baratos e mais adequados para lidar com dados privados. O ajuste fino tornar-se-á cada vez mais importante à medida que os modelos deixarem de ser de uso geral e passarem a ser verticalmente específicos. Em última análise, à medida que a utilização e a adoção forem acelerando, a inferência tornar-se-á cada vez mais crítica.

Concorrência: Há muitas empresas de criptografia e não criptografia tentando liberar GPUs subutilizadas. Alguns dos protocolos de encriptação mais notáveis são:

  1. A Render e a Nosana estão a lançar GPUs de consumo para inferência.
  2. A Together está a criar modelos de formação de código aberto, permitindo que os programadores os utilizem como base.
  3. A Ritual está a construir uma rede de acolhimento de modelos.

Problemas de latência e desafios técnicos: Dado que o treino de IA é uma tarefa extremamente intensiva em termos de recursos, e considerando que todos os chips estão alojados num centro de dados, não é claro se os modelos podem ser treinados em pilhas de GPU descentralizadas e não co-localizadas. A OpenAI planeia construir a sua próxima instalação de formação com mais de 75.000 GPUs no Arizona. Todas estas questões estão a ser abordadas por camadas de programação como o FedML, Io.net e Gensyn.

Declaração de exoneração de responsabilidade:

  1. Este artigo foi reproduzido de[Foresight News]. Todos os direitos de autor pertencem ao autor original[Vincent Jow]. Se houver objecções a esta reimpressão, contacte a equipa da Gate Learn, que tratará prontamente do assunto.
  2. Declaração de exoneração de responsabilidade: Os pontos de vista e opiniões expressos neste artigo são da exclusiva responsabilidade do autor e não constituem um conselho de investimento.
  3. As traduções do artigo para outras línguas são efectuadas pela equipa Gate Learn. A menos que seja mencionado, é proibido copiar, distribuir ou plagiar os artigos traduzidos.
Comece agora
Registe-se e ganhe um cupão de
100 USD
!