A GPU do Blockchain: Análise abrangente dos coprocessadores ZK

Avançado7/24/2024, 11:15:15 AM
O coprocessador ZK pode ser considerado um plug-in de computação off-chain derivado do conceito modular. Sua função é semelhante à da GPU em nossos computadores tradicionais que compartilha tarefas de computação gráfica para a CPU, ou seja, um processador que compartilha tarefas de computação em cenários específicos. Sob esta arquitetura de design, tarefas de dados pesados e lógica de cálculo complexa que as cadeias públicas não são boas em pode ser calculado através do coprocessador ZK. A cadeia só precisa receber os resultados de cálculo retornados, e sua correção é determinada por garantias de prova ZK, e, finalmente, permite cálculos off-chain confiáveis de tarefas complexas.

tldr

  • Os coprocessadores zk podem ser vistos como plug-ins de computação off-chain derivados do conceito modular, semelhantes às GPUs em computadores tradicionais que descarregam tarefas de computação gráfica da CPU, lidando com tarefas computacionais específicas.
  • eles podem ser usados para lidar com cálculos complexos e dados pesados, reduzindo taxas de gás e estendendo a funcionalidade de contratos inteligentes.
  • ao contrário dos rollups, os zk coprocessors são stateless, podem ser usados em várias cadeias e são adequados para cenários computacionais complexos.
  • desenvolver coprocessadores zk é desafiador, com altos custos de desempenho e falta de padronização. Os custos de hardware também são substanciais. Embora o campo tenha amadurecido significativamente em comparação com um ano atrás, ainda está nos estágios iniciais.
  • à medida que a era modular avança para a escala fractal, a Blockchain enfrenta questões como escassez de liquidez, usuários dispersos, falta de inovação e problemas de interoperabilidade entre cadeias, criando um paradoxo com cadeias l1 escaladas verticalmente. Os coprocessadores zk podem oferecer uma maneira de superar esses desafios, fornecendo suporte para aplicativos existentes e emergentes e trazendo novas narrativas para o espaço Blockchain.

i. outro ramo da infraestrutura modular: coprocessadores zk

1.1 visão geral dos coprocessadores zk

Os coprocessadores zk podem ser considerados como plugins de computação off-chain derivados do conceito modular, semelhante à forma como as GPUs descarregam tarefas de computação gráfica dos CPUs em computadores tradicionais, lidando com tarefas computacionais específicas. Neste quadro de design, tarefas que as cadeias públicas não são experientes em, como “dados pesados” e “lógica computacional complexa”, podem ser computadas pelos coprocessadores zk, com a cadeia apenas recebendo os resultados de computação devolvidos. Sua correção é garantida por provas zk, alcançando, em última análise, computação off-chain confiável para tarefas complexas.

Atualmente, aplicações populares como ai, socialfi, dex e gamefi têm uma necessidade urgente de alto desempenho e controle de custos. Nas soluções tradicionais, essas “aplicações pesadas” que exigem alto desempenho muitas vezes optam por modelos de aplicação on-chain + off-chain de ativos ou projetam uma cadeia de aplicativos separada. No entanto, ambas as abordagens têm problemas inerentes: a primeira tem uma “caixa preta” e a segunda enfrenta altos custos de desenvolvimento, desassociação do ecossistema da cadeia original e liquidez fragmentada. Além disso, a máquina virtual da cadeia principal impõe limitações significativas ao desenvolvimento e operação de tais aplicações (por exemplo, falta de padrões de camada de aplicação, linguagens de desenvolvimento complexas).

Os coprocessadores zk visam resolver esses problemas. Para fornecer um exemplo mais detalhado, podemos pensar na blockchain como um terminal (como um telefone ou computador) que não pode se conectar à internet. Nesse cenário, podemos executar aplicativos relativamente simples, como uniswap ou outros aplicativos defi, totalmente on-chain. Mas quando surgem aplicativos mais complexos, como executar um aplicativo semelhante ao chatgpt, o desempenho e o armazenamento da cadeia pública serão completamente insuficientes, levando a explosões de gás. No cenário web2, quando executamos o chatgpt, nosso terminal comum em si não consegue lidar com o grande modelo de linguagem gpt-4o; precisamos nos conectar aos servidores da openai para transmitir a pergunta e, depois que o servidor calcular e inferir o resultado, recebemos diretamente a resposta. Os coprocessadores zk são como servidores remotos da blockchain. Embora diferentes projetos de coprocessador possam ter pequenas diferenças de design dependendo do tipo de projeto, a lógica subjacente permanece amplamente semelhante - computação off-chain + provas zk ou provas de armazenamento para validação.

tomando o deployment de bonsai de zero do rise como exemplo, esta arquitetura é muito direta. o projeto se integra perfeitamente ao zkvm próprio do zero do rise, e os desenvolvedores só precisam de dois passos simples para usar o bonsai como um coprocessador:

  • escreva uma aplicação zkvm para lidar com a lógica da aplicação.
  • escrever um contrato solidity para exigir bonsai para executar sua aplicação zkvm e lidar com os resultados.

1.2 diferenças em relação a rollups

a partir das definições acima, pode parecer que os rollups e os coprocessadores zk têm uma lógica de implementação e objetivos altamente sobrepostos. no entanto, os rollups são mais como expansões multi-core da cadeia principal, com as diferenças específicas entre os dois da seguinte forma:

1. finalidade principal:

  • rollups: aumentar a capacidade de transação da blockchain e reduzir as taxas de transação.
  • zk coprocessors: estender as capacidades computacionais do contrato inteligente para lidar com lógica mais complexa e volumes de dados maiores.

2. princípio de funcionamento:

  • rollups: aggreGate on-chain transactions and submit them to the main chain with fraud proofs or zk proofs.
  • coprocessadores zk: semelhantes aos zk rollups, mas projetados para diferentes cenários de aplicação. Os zk rollups, devido a restrições e regras específicas da cadeia, não são adequados para tarefas de coprocessador.

3. gestão de estado:

  • rollups: mantêm seu estado e sincronizam periodicamente com a cadeia principal.
  • zk coprocessors: sem estado, cada computação é sem estado.

4. cenários de aplicação:

  • rollups: servem principalmente os utilizadores finais, adequados para transações de alta frequência.
  • coprocessadores zk: servem principalmente empresas, adequados para cenários que exigem cálculos complexos, como modelos financeiros avançados e análise de big data.

5. relação com a cadeia principal:

  • rollups: vistos como extensões da cadeia principal, geralmente focados em redes blockchain específicas.
  • coprocessadores zk: podem servir várias blockchains, não se limitando a cadeias principais específicas e também podem servir rollups.

Assim, os dois não são mutuamente exclusivos, mas complementares. Mesmo que um rollup exista na forma de uma cadeia de aplicativos, os coprocessadores zk ainda podem fornecer serviços.

1.3 casos de uso

teoricamente, o âmbito de aplicação dos coprocessadores zk é extenso, abrangendo projetos em vários setores da blockchain. os coprocessadores zk permitem que as dapps tenham funcionalidades mais próximas das dos aplicativos web2 centralizados. aqui estão alguns exemplos de casos de uso recolhidos de fontes online:

desenvolvimento de dapp orientado por dados:

zk coprocessors permitem aos desenvolvedores criar dapps orientadas a dados que utilizam dados históricos completos on-chain para cálculos complexos sem suposições adicionais de confiança. isso abre possibilidades sem precedentes para o desenvolvimento de dapps, tais como:

  • análise avançada de dados: funções de análise de dados on-chain semelhantes ao dune analytics.
  • lógica de negócios complexa: implementação de algoritmos complexos e lógica de negócios encontrados em aplicações centralizadas tradicionais.
  • aplicações inter-cadeia: construção de dapps inter-cadeia com base em dados multi-cadeia.

programa de trader vip para dexs:

um cenário típico de aplicação é a implementação de um programa de desconto de taxas com base no volume de negociação em dexs, conhecido como o “programa de fidelidade do trader vip.” tais programas são comuns em cexs, mas raros em dexs.

com coprocessadores zk, dexs podem:

  • rastrear os volumes de negociação históricos dos usuários.
  • calcular os níveis VIP dos usuários.
  • ajustar dinamicamente as taxas de negociação com base nos níveis vip. esta funcionalidade pode ajudar as dexs a melhorar a retenção de usuários, aumentar a liquidez e, finalmente, aumentar a receita.

aumento de dados para contratos inteligentes:

coprocessadores zk podem atuar como middleware poderoso, fornecendo serviços de captura, computação e verificação de dados para contratos inteligentes, reduzindo custos e melhorando a eficiência. isso permite que os contratos inteligentes:

  • acessar e processar grandes quantidades de dados históricos.
  • realizar cálculos complexos fora da cadeia.
  • implementar lógica de negócios mais avançada.

tecnologia de ponte entre cadeias:

Algumas tecnologias de ponte cruzada baseadas em zk, como heródoto e lagrange, também podem ser consideradas aplicações de coprocessadores zk. Essas tecnologias focam principalmente na extração e verificação de dados, fornecendo uma base de dados confiável para a comunicação entre cadeias.

1.4 coprocessadores zk não são perfeitos

Apesar das inúmeras vantagens, os coprocessadores zk na fase atual estão longe de serem perfeitos e enfrentam vários problemas. Eu summarizei os seguintes pontos:

  1. desenvolvimento: o conceito de zk é difícil de entender para muitos desenvolvedores. o desenvolvimento requer conhecimentos criptográficos relacionados e proficiência em linguagens de desenvolvimento e ferramentas específicas.
  2. custos elevados de hardware: o hardware zk usado para cálculos off-chain deve ser totalmente suportado pelo próprio projeto. O hardware zk é caro e evolui rapidamente, tornando-o provável de se tornar obsoleto a qualquer momento. Se isso pode formar um loop comercial fechado é uma questão que vale a pena considerar.
  3. campo lotado: tecnicamente, não haverá muita diferença na implementação, e o resultado final pode se assemelhar à paisagem atual da camada 2, onde alguns projetos proeminentes se destacam enquanto o restante é amplamente ignorado.
  4. zk circuits: executar cálculos off-chain em coprocessadores zk requer a conversão de programas de computador tradicionais em zk circuits. Escrever circuitos personalizados para cada aplicação é complicado, e usar zkvms em máquinas virtuais para escrever circuitos apresenta sobrecarga computacional significativa devido a modelos computacionais diferentes.

ii. uma peça fundamental para a adoção em massa

(esta seção é altamente subjetiva e representa apenas as opiniões pessoais do autor.)

este ciclo é liderado principalmente por infraestrutura modular. se modularização for o caminho correto, este ciclo pode ser o passo final em direção à adoção em massa. no entanto, nesta fase atual, todos compartilhamos um sentimento comum: por que vemos apenas algumas aplicações antigas sendo reapresentadas, por que existem mais cadeias do que aplicações e por que um novo padrão de token como inscrições está sendo aclamado como a maior inovação deste ciclo?

A razão fundamental para a falta de novas narrativas é que a infraestrutura modular atual é insuficiente para suportar superaplicações, especialmente faltando alguns pré-requisitos (interoperabilidade entre cadeias, barreiras ao usuário, etc.), levando à fragmentação mais significativa da história do blockchain. Os rollups, como o núcleo da era modular, de fato aceleraram as coisas, mas também trouxeram inúmeros problemas, como fragmentação de liquidez, dispersão de usuários e limitações impostas pela cadeia ou pela própria máquina virtual à inovação de aplicativos. Além disso, outro "jogador-chave" na modularização, Celestia, foi pioneiro no caminho de DA não estar necessariamente no Ethereum, exacerbando ainda mais a fragmentação. Seja impulsionado por ideologia ou custos de DA, o resultado é que o BTC é forçado a se tornar DA, e outras cadeias públicas visam fornecer soluções de AD mais econômicas. A situação atual é que cada cadeia pública tem pelo menos um, se não dezenas, de projetos de camada 2. Além disso, todos os projetos de infraestrutura e ecossistema aprenderam profundamente a estratégia de staking de tokens pioneira pelo blur, exigindo que os usuários estabeleçam tokens dentro do projeto. Este modo, que beneficia as baleias de três maneiras (juros, valorização de ETH ou BTC e tokens livres), comprime ainda mais a liquidez on-chain.

nos mercados de touro passados, os fundos só fluiriam dentro de algumas a uma dúzia de cadeias públicas, mesmo concentrando-se principalmente no ethereum. agora, os fundos estão dispersos por centenas de cadeias públicas e apostados em milhares de projetos semelhantes, levando a uma queda na atividade on-chain. até mesmo o ethereum carece de atividade on-chain. como resultado, os jogadores orientais envolvem-se em pvp no ecossistema btc, enquanto os jogadores ocidentais o fazem na solana, por necessidade.

portanto, meu foco atual é como promover a liquidez aggreGated em todas as cadeias e apoiar o surgimento de novos estilos de jogo e super aplicativos. no setor de interoperabilidade entre cadeias, projetos líderes tradicionais consistentemente apresentaram desempenho inferior, ainda se assemelhando a pontes tradicionais entre cadeias. as novas soluções de interoperabilidade discutidas em relatórios anteriores têm como objetivo principal agregar várias cadeias em uma única cadeia. exemplos incluem agglayer, superchain, elastic chain, jam, etc., que não serão detalhados aqui. em resumo, a agregação entre cadeias é um obstáculo necessário na infraestrutura modular, mas levará muito tempo para superá-lo.

Os coprocessadores zk são uma peça crítica na fase atual. Eles podem fortalecer a camada2 e complementar a camada1. Existe uma maneira de superar temporariamente questões de interconexão e trilema, permitindo-nos realizar algumas aplicações da era atual em determinados camadas1 ou camadas2 com ampla liquidez? Afinal, as aplicações de blockchain carecem de narrativas frescas. Além disso, permitir estilos de jogo diversos, controle de gás, aplicativos em larga escala, capacidades de interconexão e reduzir as barreiras do usuário por meio de soluções integradas de coprocessador pode ser mais ideal do que depender da centralização.

iii. visão geral do projeto

o campo do coprocessador zk surgiu por volta de 2023 e tornou-se relativamente maduro nesta fase. de acordo com a classificação da messari, este campo atualmente abrange três grandes domínios verticais (computação geral, interoperabilidade e cross-chain, ai e machine training) com 18 projetos. a maioria desses projetos é apoiada por vcs líderes. abaixo, descrevemos vários projetos de diferentes domínios verticais.

3.1 giza

giza é um protocolo zkml (zero-knowledge machine learning) implantado na starknet, oficialmente suportado pela starkware. Ele se concentra em permitir que modelos de IA sejam usados verificadamente em contratos inteligentes de blockchain. Os desenvolvedores podem implantar modelos de IA na rede giza, que então verifica a correção da inferência do modelo por meio de provas de conhecimento zero e fornece os resultados aos contratos inteligentes de maneira confiável. Isso permite que os desenvolvedores construam aplicativos on-chain que combinem capacidades de IA enquanto mantêm a descentralização e a verificabilidade da blockchain.

giza completa o fluxo de trabalho através dos seguintes três passos:

  • conversão de modelo: giza converte modelos de IA em formato onnx comumente utilizados em um formato que pode ser executado em um sistema de prova de conhecimento zero. Isso permite que os desenvolvedores treinem modelos usando ferramentas familiares e, em seguida, os implantem na rede giza.
  • inferência off-chain: quando um contrato inteligente solicita inferência de modelo de AI, Giza realiza o cálculo real off-chain. Isso evita os altos custos de execução de modelos de AI complexos diretamente na blockchain.
  • verificação de conhecimento zero: Giza gera provas zk para cada inferência de modelo, provando que a computação foi executada corretamente. Essas provas são verificadas em cadeia, garantindo a correção dos resultados de inferência sem repetir todo o processo de computação em cadeia.

A abordagem da giza permite que os modelos de IA sirvam como fontes de entrada confiáveis para contratos inteligentes, sem depender de oráculos centralizados ou ambientes de execução confiáveis. Isso abre novas possibilidades para aplicações de blockchain, como gestão de ativos baseada em IA, detecção de fraudes e preços dinâmicos. É um dos poucos projetos no espaço atual de web3 x IA com um loop fechado lógico e um uso inteligente de coprocessadores no campo de IA.

3.2 RISC Zero

risc zero é um projeto de coprocessador líder apoiado por vários dos principais vcs. Ele se concentra em permitir que qualquer computação seja executada de forma verificável em contratos inteligentes de blockchain. Os desenvolvedores podem escrever programas em Rust e implantá-los na rede risc zero. Em seguida, o risc zero verifica a correção da execução do programa por meio de provas de conhecimento zero e fornece os resultados aos contratos inteligentes de maneira confiável. Isso permite que os desenvolvedores construam aplicativos complexos on-chain mantendo a descentralização e a verificabilidade da blockchain.

mencionámos brevemente a implementação e o fluxo de trabalho anteriormente. aqui, detalhamos dois componentes chave:

  • bonsai: bonsai é o componente coprocessador dentro do risc zero, integrado de forma transparente no zkvm da arquitetura de conjunto de instruções risc-v. Permite aos desenvolvedores integrar rapidamente provas de conhecimento zero de alto desempenho no ethereum, cadeias de blocos l1, cadeias de aplicativos cosmos, rollups l2 e dapps em poucos dias. Oferece chamadas diretas de contratos inteligentes, computação verificável off-chain, interoperabilidade entre cadeias cruzadas e funcionalidade geral de rollup, tudo isso adotando uma arquitetura distribuída descentralizada em primeiro lugar. Combinando provas recursivas, compiladores de circuito personalizados, continuação de estado e algoritmos de prova em constante melhoria, permite que qualquer pessoa gere provas de conhecimento zero de alto desempenho para várias aplicações.
  • zkvm: o zkvm é um computador verificável que opera de forma semelhante a um microprocessador risc-v embutido real. Com base na arquitetura de conjunto de instruções risc-v, ele permite que os desenvolvedores escrevam programas em linguagens de programação de alto nível como rust, c++, solidity, go, etc., que podem gerar provas de conhecimento zero. Com suporte a mais de 70% das crate rust populares, ele combina perfeitamente computação geral e provas de conhecimento zero, capaz de gerar provas de conhecimento zero eficientes para cálculos de qualquer complexidade, mantendo a privacidade do processo de computação e a verificabilidade dos resultados. O zkvm utiliza tecnologias zk, incluindo stark e snark, e alcança geração e verificação eficientes de prova por meio de componentes como provador de recursão e provador stark-to-snark, com suporte a execução off-chain e verificação on-chain.

risc zero integrou-se com várias soluções eth layer2 e demonstrou vários casos de uso para bonsai. um exemplo interessante é o bonsai pay. esta demonstração utiliza zkvm da risc zero e o serviço de prova bonsai, permitindo aos usuários enviar ou retirar eth e tokens na ethereum usando suas contas do google. Isso demonstra como o risc zero pode integrar perfeitamente aplicativos on-chain com oauth2.0 (o padrão usado pelos principais provedores de identidade como o google), fornecendo um caso de uso que reduz a barreira do usuário web3 por meio de aplicativos web2 tradicionais. Outros exemplos incluem aplicativos baseados em daos.

3.3 =nil;

=nil; é um projeto de investimento apoiado por entidades de renome como mina, polychain, starkware e blockchain capital. Notavelmente, pioneiros em tecnologia zk como mina e starkware estão entre os apoiadores, o que indica um alto reconhecimento técnico para o projeto. =nil; também foi mencionado em nosso relatório “o mercado de energia de computação”, focando principalmente no mercado de geração de prova (um mercado de geração de prova descentralizado). Além disso, =nil; tem outro subproduto chamado zkllvm.

zkllvm, desenvolvido pela fundação =nil;, é um compilador de circuitos inovador que converte automaticamente o código de aplicação escrito em linguagens de programação mainstream como c++ e rust em circuitos eficientes e comprováveis para ethereum, sem a necessidade de linguagens de domínio específico zero-knowledge (dsl) especializadas. Isso simplifica significativamente o processo de desenvolvimento, reduz a barreira de entrada e melhora o desempenho, evitando zkvm. Ele suporta aceleração de hardware para acelerar a geração de prova, tornando-o adequado para vários cenários de aplicação zk, como rollups, bridges cross-chain, oráculos, aprendizado de máquina e jogos. Ele está intimamente integrado ao mercado de provas da fundação =nil;, fornecendo suporte completo para os desenvolvedores desde a criação do circuito até a geração da prova.

3.4 brevis

brevis é um subprojeto da rede celer e é um coprocessador zero-knowledge (zk) inteligente para blockchain, permitindo que dapps acessem, calculem e utilizem dados arbitrários em vários blockchains de maneira totalmente confiável. Como outros coprocessadores, brevis tem uma ampla gama de casos de uso, como defi orientado por dados, zkbridges, aquisição de usuários em cadeia, zkdid e abstração de contas sociais.

a arquitetura brevis consiste em três componentes principais:

  • zkfabric: o zkfabric é o componente de relé da arquitetura Brevis. Sua principal tarefa é coletar e sincronizar informações de cabeçalho de bloco de todas as blockchains conectadas e, em seguida, gerar provas de consenso para cada cabeçalho de bloco coletado por meio do circuito do cliente leve zk.
  • zkquerynet: zkquerynet é um mercado aberto de mecanismo de consulta zk que pode aceitar diretamente consultas de dados de contratos inteligentes on-chain e gerar resultados de consulta e respectivas provas de consulta zk através do circuito do mecanismo de consulta zk. esses mecanismos variam de altamente especializados (por exemplo, calcular o volume de negociação de um dex durante um período específico) a abstrações de indexação de dados altamente gerais e linguagens avançadas de consulta para atender a várias necessidades de aplicação.
  • zkaggregatorrollup: ele atua como a camada de agregação e armazenamento para zkfabric e zkquerynet. ele verifica as provas desses dois componentes, armazena os dados comprovados e envia as raízes de estado de suas provas zk para todas as blockchains conectadas, permitindo que os dapps acessem diretamente os resultados de consulta comprovados em sua lógica de negócios de contrato inteligente on-chain.

com esta arquitetura modular, o brevis pode fornecer todos os contratos inteligentes de blockchain público suportados com um método de acesso confiável, eficiente e flexível. a versão v4 da uni também adota este projeto e o integra com ganchos (um sistema para integrar várias lógicas personalizadas do usuário) para facilitar a leitura de dados históricos da blockchain, reduzir as taxas de gás, garantindo a descentralização. este é um exemplo de um coprocessador zk promovendo um dex.

3.5 lagrange

lagrange é um protocolo de coprocessador zk de interoperabilidade liderado pela 1kx e pelo founders fund, principalmente destinado a proporcionar interoperabilidade trustless entre cadeias e a apoiar aplicações que exigem cálculos complexos de grandes volumes de dados. Ao contrário das pontes de nó tradicionais, a interoperabilidade cross-chain de lagrange é principalmente atingida através dos seus inovadores mecanismos zk big data e comité de estado.

  • zk big data: este é o produto central do lagrange, responsável pelo processamento e verificação de dados entre cadeias e pela geração de provas zk relacionadas. Este componente inclui um coprocessador zk altamente paralelo para executar cálculos complexos fora da cadeia e gerar provas de conhecimento zero, um banco de dados verificável especialmente projetado que suporta slots de armazenamento ilimitados e consultas SQL diretas de contratos inteligentes, um mecanismo de atualização dinâmica que atualiza apenas os pontos de dados alterados para reduzir o tempo de prova e uma função integrada que permite aos desenvolvedores usar consultas SQL diretamente de contratos inteligentes para acessar dados históricos sem escrever circuitos complexos. Juntos, eles formam um sistema de processamento e verificação de dados de blockchain em grande escala.
  • comité estatal: este componente é uma rede de verificação descentralizada composta por vários nós independentes, cada um apostando eth como garantia. estes nós atuam como clientes leves zk específicamente verificando o estado de determinados rollups otimizados. o comité estatal integra-se com o avs da eigenlayer, aproveitando o mecanismo de novo depósito para reforçar a segurança, suportando um número ilimitado de nós participantes para alcançar um crescimento de segurança superlinear. também fornece um "modo rápido", permitindo aos utilizadores realizar operações entre cadeias sem esperar pela janela de desafio, melhorando significativamente a experiência do utilizador. a combinação destas duas tecnologias permite ao lagrange processar eficientemente dados em grande escala, realizar cálculos complexos e transmitir e verificar resultados de forma segura em diferentes blockchains, suportando o desenvolvimento de aplicações complexas entre cadeias.

Lagrange já integrou com eigenlayer, mantle, base, frax, polymer, layerzero, omni, altlayer, entre outros, e será o primeiro zk avs a se conectar dentro do ecossistema do Ethereum.

sobre ybb

ybb é um fundo web3 dedicado a identificar projetos que definem a web3 com a visão de criar um habitat online melhor para todos os residentes da internet. Fundado por um grupo de entusiastas de blockchain que têm participado ativamente desta indústria desde 2013, a ybb está sempre disposta a ajudar projetos em estágio inicial a evoluir de 0 a 1. Valorizamos a inovação, a paixão autoimpulsionada e produtos orientados para o usuário, ao mesmo tempo em que reconhecemos o potencial das criptomoedas e aplicações blockchain.

Sítio Web | Twi: @ybbcapital

referências:

1.ABCDE: Um mergulho profundo no coprocessador ZK e seu futuro:https://medium.com/ABCDE.com/en-abcde-a-deep-dive-into-zk-coprocessor-and-its-future-1d1b3f33f946

2. "zk" é tudo o que você precisa:https://medium.com/gate_ventures/zk-is-all-you-need-238886062c52

3.risc zero:https://www.risczero.com/bonsai

4. lagrange:https://www.lagrange.dev/blog/interoperabilidade-para-blockchains-modulares-a-tese-de-lagrange

5.axiomblog:https://blog.axiom.xyz/

6. aceleração de nitrogênio! como o coprocessador zk quebra as barreiras de dados do contrato inteligentehttps://foresightnews.pro/article/detail/48239

disclaimer:

  1. este artigo foi republicado a partir de [médio], encaminhe o título original 'a gpu da blockchain: análise abrangente dos coprocessadores zk', todos os direitos autorais pertencem ao autor original [pesquisador da ybb capital zeke]. Se houver objeções a esta reimpressão, entre em contato com o Gate aprenderequipa, e eles vão tratar disso prontamente.

  2. aviso de responsabilidade: as opiniões expressas neste artigo são exclusivamente do autor e não constituem qualquer conselho de investimento.

  3. as traduções do artigo para outros idiomas são feitas pela equipe da Gate Learn. A menos que seja mencionado, copiar, distribuir ou plagiar os artigos traduzidos é proibido.

A GPU do Blockchain: Análise abrangente dos coprocessadores ZK

Avançado7/24/2024, 11:15:15 AM
O coprocessador ZK pode ser considerado um plug-in de computação off-chain derivado do conceito modular. Sua função é semelhante à da GPU em nossos computadores tradicionais que compartilha tarefas de computação gráfica para a CPU, ou seja, um processador que compartilha tarefas de computação em cenários específicos. Sob esta arquitetura de design, tarefas de dados pesados e lógica de cálculo complexa que as cadeias públicas não são boas em pode ser calculado através do coprocessador ZK. A cadeia só precisa receber os resultados de cálculo retornados, e sua correção é determinada por garantias de prova ZK, e, finalmente, permite cálculos off-chain confiáveis de tarefas complexas.

tldr

  • Os coprocessadores zk podem ser vistos como plug-ins de computação off-chain derivados do conceito modular, semelhantes às GPUs em computadores tradicionais que descarregam tarefas de computação gráfica da CPU, lidando com tarefas computacionais específicas.
  • eles podem ser usados para lidar com cálculos complexos e dados pesados, reduzindo taxas de gás e estendendo a funcionalidade de contratos inteligentes.
  • ao contrário dos rollups, os zk coprocessors são stateless, podem ser usados em várias cadeias e são adequados para cenários computacionais complexos.
  • desenvolver coprocessadores zk é desafiador, com altos custos de desempenho e falta de padronização. Os custos de hardware também são substanciais. Embora o campo tenha amadurecido significativamente em comparação com um ano atrás, ainda está nos estágios iniciais.
  • à medida que a era modular avança para a escala fractal, a Blockchain enfrenta questões como escassez de liquidez, usuários dispersos, falta de inovação e problemas de interoperabilidade entre cadeias, criando um paradoxo com cadeias l1 escaladas verticalmente. Os coprocessadores zk podem oferecer uma maneira de superar esses desafios, fornecendo suporte para aplicativos existentes e emergentes e trazendo novas narrativas para o espaço Blockchain.

i. outro ramo da infraestrutura modular: coprocessadores zk

1.1 visão geral dos coprocessadores zk

Os coprocessadores zk podem ser considerados como plugins de computação off-chain derivados do conceito modular, semelhante à forma como as GPUs descarregam tarefas de computação gráfica dos CPUs em computadores tradicionais, lidando com tarefas computacionais específicas. Neste quadro de design, tarefas que as cadeias públicas não são experientes em, como “dados pesados” e “lógica computacional complexa”, podem ser computadas pelos coprocessadores zk, com a cadeia apenas recebendo os resultados de computação devolvidos. Sua correção é garantida por provas zk, alcançando, em última análise, computação off-chain confiável para tarefas complexas.

Atualmente, aplicações populares como ai, socialfi, dex e gamefi têm uma necessidade urgente de alto desempenho e controle de custos. Nas soluções tradicionais, essas “aplicações pesadas” que exigem alto desempenho muitas vezes optam por modelos de aplicação on-chain + off-chain de ativos ou projetam uma cadeia de aplicativos separada. No entanto, ambas as abordagens têm problemas inerentes: a primeira tem uma “caixa preta” e a segunda enfrenta altos custos de desenvolvimento, desassociação do ecossistema da cadeia original e liquidez fragmentada. Além disso, a máquina virtual da cadeia principal impõe limitações significativas ao desenvolvimento e operação de tais aplicações (por exemplo, falta de padrões de camada de aplicação, linguagens de desenvolvimento complexas).

Os coprocessadores zk visam resolver esses problemas. Para fornecer um exemplo mais detalhado, podemos pensar na blockchain como um terminal (como um telefone ou computador) que não pode se conectar à internet. Nesse cenário, podemos executar aplicativos relativamente simples, como uniswap ou outros aplicativos defi, totalmente on-chain. Mas quando surgem aplicativos mais complexos, como executar um aplicativo semelhante ao chatgpt, o desempenho e o armazenamento da cadeia pública serão completamente insuficientes, levando a explosões de gás. No cenário web2, quando executamos o chatgpt, nosso terminal comum em si não consegue lidar com o grande modelo de linguagem gpt-4o; precisamos nos conectar aos servidores da openai para transmitir a pergunta e, depois que o servidor calcular e inferir o resultado, recebemos diretamente a resposta. Os coprocessadores zk são como servidores remotos da blockchain. Embora diferentes projetos de coprocessador possam ter pequenas diferenças de design dependendo do tipo de projeto, a lógica subjacente permanece amplamente semelhante - computação off-chain + provas zk ou provas de armazenamento para validação.

tomando o deployment de bonsai de zero do rise como exemplo, esta arquitetura é muito direta. o projeto se integra perfeitamente ao zkvm próprio do zero do rise, e os desenvolvedores só precisam de dois passos simples para usar o bonsai como um coprocessador:

  • escreva uma aplicação zkvm para lidar com a lógica da aplicação.
  • escrever um contrato solidity para exigir bonsai para executar sua aplicação zkvm e lidar com os resultados.

1.2 diferenças em relação a rollups

a partir das definições acima, pode parecer que os rollups e os coprocessadores zk têm uma lógica de implementação e objetivos altamente sobrepostos. no entanto, os rollups são mais como expansões multi-core da cadeia principal, com as diferenças específicas entre os dois da seguinte forma:

1. finalidade principal:

  • rollups: aumentar a capacidade de transação da blockchain e reduzir as taxas de transação.
  • zk coprocessors: estender as capacidades computacionais do contrato inteligente para lidar com lógica mais complexa e volumes de dados maiores.

2. princípio de funcionamento:

  • rollups: aggreGate on-chain transactions and submit them to the main chain with fraud proofs or zk proofs.
  • coprocessadores zk: semelhantes aos zk rollups, mas projetados para diferentes cenários de aplicação. Os zk rollups, devido a restrições e regras específicas da cadeia, não são adequados para tarefas de coprocessador.

3. gestão de estado:

  • rollups: mantêm seu estado e sincronizam periodicamente com a cadeia principal.
  • zk coprocessors: sem estado, cada computação é sem estado.

4. cenários de aplicação:

  • rollups: servem principalmente os utilizadores finais, adequados para transações de alta frequência.
  • coprocessadores zk: servem principalmente empresas, adequados para cenários que exigem cálculos complexos, como modelos financeiros avançados e análise de big data.

5. relação com a cadeia principal:

  • rollups: vistos como extensões da cadeia principal, geralmente focados em redes blockchain específicas.
  • coprocessadores zk: podem servir várias blockchains, não se limitando a cadeias principais específicas e também podem servir rollups.

Assim, os dois não são mutuamente exclusivos, mas complementares. Mesmo que um rollup exista na forma de uma cadeia de aplicativos, os coprocessadores zk ainda podem fornecer serviços.

1.3 casos de uso

teoricamente, o âmbito de aplicação dos coprocessadores zk é extenso, abrangendo projetos em vários setores da blockchain. os coprocessadores zk permitem que as dapps tenham funcionalidades mais próximas das dos aplicativos web2 centralizados. aqui estão alguns exemplos de casos de uso recolhidos de fontes online:

desenvolvimento de dapp orientado por dados:

zk coprocessors permitem aos desenvolvedores criar dapps orientadas a dados que utilizam dados históricos completos on-chain para cálculos complexos sem suposições adicionais de confiança. isso abre possibilidades sem precedentes para o desenvolvimento de dapps, tais como:

  • análise avançada de dados: funções de análise de dados on-chain semelhantes ao dune analytics.
  • lógica de negócios complexa: implementação de algoritmos complexos e lógica de negócios encontrados em aplicações centralizadas tradicionais.
  • aplicações inter-cadeia: construção de dapps inter-cadeia com base em dados multi-cadeia.

programa de trader vip para dexs:

um cenário típico de aplicação é a implementação de um programa de desconto de taxas com base no volume de negociação em dexs, conhecido como o “programa de fidelidade do trader vip.” tais programas são comuns em cexs, mas raros em dexs.

com coprocessadores zk, dexs podem:

  • rastrear os volumes de negociação históricos dos usuários.
  • calcular os níveis VIP dos usuários.
  • ajustar dinamicamente as taxas de negociação com base nos níveis vip. esta funcionalidade pode ajudar as dexs a melhorar a retenção de usuários, aumentar a liquidez e, finalmente, aumentar a receita.

aumento de dados para contratos inteligentes:

coprocessadores zk podem atuar como middleware poderoso, fornecendo serviços de captura, computação e verificação de dados para contratos inteligentes, reduzindo custos e melhorando a eficiência. isso permite que os contratos inteligentes:

  • acessar e processar grandes quantidades de dados históricos.
  • realizar cálculos complexos fora da cadeia.
  • implementar lógica de negócios mais avançada.

tecnologia de ponte entre cadeias:

Algumas tecnologias de ponte cruzada baseadas em zk, como heródoto e lagrange, também podem ser consideradas aplicações de coprocessadores zk. Essas tecnologias focam principalmente na extração e verificação de dados, fornecendo uma base de dados confiável para a comunicação entre cadeias.

1.4 coprocessadores zk não são perfeitos

Apesar das inúmeras vantagens, os coprocessadores zk na fase atual estão longe de serem perfeitos e enfrentam vários problemas. Eu summarizei os seguintes pontos:

  1. desenvolvimento: o conceito de zk é difícil de entender para muitos desenvolvedores. o desenvolvimento requer conhecimentos criptográficos relacionados e proficiência em linguagens de desenvolvimento e ferramentas específicas.
  2. custos elevados de hardware: o hardware zk usado para cálculos off-chain deve ser totalmente suportado pelo próprio projeto. O hardware zk é caro e evolui rapidamente, tornando-o provável de se tornar obsoleto a qualquer momento. Se isso pode formar um loop comercial fechado é uma questão que vale a pena considerar.
  3. campo lotado: tecnicamente, não haverá muita diferença na implementação, e o resultado final pode se assemelhar à paisagem atual da camada 2, onde alguns projetos proeminentes se destacam enquanto o restante é amplamente ignorado.
  4. zk circuits: executar cálculos off-chain em coprocessadores zk requer a conversão de programas de computador tradicionais em zk circuits. Escrever circuitos personalizados para cada aplicação é complicado, e usar zkvms em máquinas virtuais para escrever circuitos apresenta sobrecarga computacional significativa devido a modelos computacionais diferentes.

ii. uma peça fundamental para a adoção em massa

(esta seção é altamente subjetiva e representa apenas as opiniões pessoais do autor.)

este ciclo é liderado principalmente por infraestrutura modular. se modularização for o caminho correto, este ciclo pode ser o passo final em direção à adoção em massa. no entanto, nesta fase atual, todos compartilhamos um sentimento comum: por que vemos apenas algumas aplicações antigas sendo reapresentadas, por que existem mais cadeias do que aplicações e por que um novo padrão de token como inscrições está sendo aclamado como a maior inovação deste ciclo?

A razão fundamental para a falta de novas narrativas é que a infraestrutura modular atual é insuficiente para suportar superaplicações, especialmente faltando alguns pré-requisitos (interoperabilidade entre cadeias, barreiras ao usuário, etc.), levando à fragmentação mais significativa da história do blockchain. Os rollups, como o núcleo da era modular, de fato aceleraram as coisas, mas também trouxeram inúmeros problemas, como fragmentação de liquidez, dispersão de usuários e limitações impostas pela cadeia ou pela própria máquina virtual à inovação de aplicativos. Além disso, outro "jogador-chave" na modularização, Celestia, foi pioneiro no caminho de DA não estar necessariamente no Ethereum, exacerbando ainda mais a fragmentação. Seja impulsionado por ideologia ou custos de DA, o resultado é que o BTC é forçado a se tornar DA, e outras cadeias públicas visam fornecer soluções de AD mais econômicas. A situação atual é que cada cadeia pública tem pelo menos um, se não dezenas, de projetos de camada 2. Além disso, todos os projetos de infraestrutura e ecossistema aprenderam profundamente a estratégia de staking de tokens pioneira pelo blur, exigindo que os usuários estabeleçam tokens dentro do projeto. Este modo, que beneficia as baleias de três maneiras (juros, valorização de ETH ou BTC e tokens livres), comprime ainda mais a liquidez on-chain.

nos mercados de touro passados, os fundos só fluiriam dentro de algumas a uma dúzia de cadeias públicas, mesmo concentrando-se principalmente no ethereum. agora, os fundos estão dispersos por centenas de cadeias públicas e apostados em milhares de projetos semelhantes, levando a uma queda na atividade on-chain. até mesmo o ethereum carece de atividade on-chain. como resultado, os jogadores orientais envolvem-se em pvp no ecossistema btc, enquanto os jogadores ocidentais o fazem na solana, por necessidade.

portanto, meu foco atual é como promover a liquidez aggreGated em todas as cadeias e apoiar o surgimento de novos estilos de jogo e super aplicativos. no setor de interoperabilidade entre cadeias, projetos líderes tradicionais consistentemente apresentaram desempenho inferior, ainda se assemelhando a pontes tradicionais entre cadeias. as novas soluções de interoperabilidade discutidas em relatórios anteriores têm como objetivo principal agregar várias cadeias em uma única cadeia. exemplos incluem agglayer, superchain, elastic chain, jam, etc., que não serão detalhados aqui. em resumo, a agregação entre cadeias é um obstáculo necessário na infraestrutura modular, mas levará muito tempo para superá-lo.

Os coprocessadores zk são uma peça crítica na fase atual. Eles podem fortalecer a camada2 e complementar a camada1. Existe uma maneira de superar temporariamente questões de interconexão e trilema, permitindo-nos realizar algumas aplicações da era atual em determinados camadas1 ou camadas2 com ampla liquidez? Afinal, as aplicações de blockchain carecem de narrativas frescas. Além disso, permitir estilos de jogo diversos, controle de gás, aplicativos em larga escala, capacidades de interconexão e reduzir as barreiras do usuário por meio de soluções integradas de coprocessador pode ser mais ideal do que depender da centralização.

iii. visão geral do projeto

o campo do coprocessador zk surgiu por volta de 2023 e tornou-se relativamente maduro nesta fase. de acordo com a classificação da messari, este campo atualmente abrange três grandes domínios verticais (computação geral, interoperabilidade e cross-chain, ai e machine training) com 18 projetos. a maioria desses projetos é apoiada por vcs líderes. abaixo, descrevemos vários projetos de diferentes domínios verticais.

3.1 giza

giza é um protocolo zkml (zero-knowledge machine learning) implantado na starknet, oficialmente suportado pela starkware. Ele se concentra em permitir que modelos de IA sejam usados verificadamente em contratos inteligentes de blockchain. Os desenvolvedores podem implantar modelos de IA na rede giza, que então verifica a correção da inferência do modelo por meio de provas de conhecimento zero e fornece os resultados aos contratos inteligentes de maneira confiável. Isso permite que os desenvolvedores construam aplicativos on-chain que combinem capacidades de IA enquanto mantêm a descentralização e a verificabilidade da blockchain.

giza completa o fluxo de trabalho através dos seguintes três passos:

  • conversão de modelo: giza converte modelos de IA em formato onnx comumente utilizados em um formato que pode ser executado em um sistema de prova de conhecimento zero. Isso permite que os desenvolvedores treinem modelos usando ferramentas familiares e, em seguida, os implantem na rede giza.
  • inferência off-chain: quando um contrato inteligente solicita inferência de modelo de AI, Giza realiza o cálculo real off-chain. Isso evita os altos custos de execução de modelos de AI complexos diretamente na blockchain.
  • verificação de conhecimento zero: Giza gera provas zk para cada inferência de modelo, provando que a computação foi executada corretamente. Essas provas são verificadas em cadeia, garantindo a correção dos resultados de inferência sem repetir todo o processo de computação em cadeia.

A abordagem da giza permite que os modelos de IA sirvam como fontes de entrada confiáveis para contratos inteligentes, sem depender de oráculos centralizados ou ambientes de execução confiáveis. Isso abre novas possibilidades para aplicações de blockchain, como gestão de ativos baseada em IA, detecção de fraudes e preços dinâmicos. É um dos poucos projetos no espaço atual de web3 x IA com um loop fechado lógico e um uso inteligente de coprocessadores no campo de IA.

3.2 RISC Zero

risc zero é um projeto de coprocessador líder apoiado por vários dos principais vcs. Ele se concentra em permitir que qualquer computação seja executada de forma verificável em contratos inteligentes de blockchain. Os desenvolvedores podem escrever programas em Rust e implantá-los na rede risc zero. Em seguida, o risc zero verifica a correção da execução do programa por meio de provas de conhecimento zero e fornece os resultados aos contratos inteligentes de maneira confiável. Isso permite que os desenvolvedores construam aplicativos complexos on-chain mantendo a descentralização e a verificabilidade da blockchain.

mencionámos brevemente a implementação e o fluxo de trabalho anteriormente. aqui, detalhamos dois componentes chave:

  • bonsai: bonsai é o componente coprocessador dentro do risc zero, integrado de forma transparente no zkvm da arquitetura de conjunto de instruções risc-v. Permite aos desenvolvedores integrar rapidamente provas de conhecimento zero de alto desempenho no ethereum, cadeias de blocos l1, cadeias de aplicativos cosmos, rollups l2 e dapps em poucos dias. Oferece chamadas diretas de contratos inteligentes, computação verificável off-chain, interoperabilidade entre cadeias cruzadas e funcionalidade geral de rollup, tudo isso adotando uma arquitetura distribuída descentralizada em primeiro lugar. Combinando provas recursivas, compiladores de circuito personalizados, continuação de estado e algoritmos de prova em constante melhoria, permite que qualquer pessoa gere provas de conhecimento zero de alto desempenho para várias aplicações.
  • zkvm: o zkvm é um computador verificável que opera de forma semelhante a um microprocessador risc-v embutido real. Com base na arquitetura de conjunto de instruções risc-v, ele permite que os desenvolvedores escrevam programas em linguagens de programação de alto nível como rust, c++, solidity, go, etc., que podem gerar provas de conhecimento zero. Com suporte a mais de 70% das crate rust populares, ele combina perfeitamente computação geral e provas de conhecimento zero, capaz de gerar provas de conhecimento zero eficientes para cálculos de qualquer complexidade, mantendo a privacidade do processo de computação e a verificabilidade dos resultados. O zkvm utiliza tecnologias zk, incluindo stark e snark, e alcança geração e verificação eficientes de prova por meio de componentes como provador de recursão e provador stark-to-snark, com suporte a execução off-chain e verificação on-chain.

risc zero integrou-se com várias soluções eth layer2 e demonstrou vários casos de uso para bonsai. um exemplo interessante é o bonsai pay. esta demonstração utiliza zkvm da risc zero e o serviço de prova bonsai, permitindo aos usuários enviar ou retirar eth e tokens na ethereum usando suas contas do google. Isso demonstra como o risc zero pode integrar perfeitamente aplicativos on-chain com oauth2.0 (o padrão usado pelos principais provedores de identidade como o google), fornecendo um caso de uso que reduz a barreira do usuário web3 por meio de aplicativos web2 tradicionais. Outros exemplos incluem aplicativos baseados em daos.

3.3 =nil;

=nil; é um projeto de investimento apoiado por entidades de renome como mina, polychain, starkware e blockchain capital. Notavelmente, pioneiros em tecnologia zk como mina e starkware estão entre os apoiadores, o que indica um alto reconhecimento técnico para o projeto. =nil; também foi mencionado em nosso relatório “o mercado de energia de computação”, focando principalmente no mercado de geração de prova (um mercado de geração de prova descentralizado). Além disso, =nil; tem outro subproduto chamado zkllvm.

zkllvm, desenvolvido pela fundação =nil;, é um compilador de circuitos inovador que converte automaticamente o código de aplicação escrito em linguagens de programação mainstream como c++ e rust em circuitos eficientes e comprováveis para ethereum, sem a necessidade de linguagens de domínio específico zero-knowledge (dsl) especializadas. Isso simplifica significativamente o processo de desenvolvimento, reduz a barreira de entrada e melhora o desempenho, evitando zkvm. Ele suporta aceleração de hardware para acelerar a geração de prova, tornando-o adequado para vários cenários de aplicação zk, como rollups, bridges cross-chain, oráculos, aprendizado de máquina e jogos. Ele está intimamente integrado ao mercado de provas da fundação =nil;, fornecendo suporte completo para os desenvolvedores desde a criação do circuito até a geração da prova.

3.4 brevis

brevis é um subprojeto da rede celer e é um coprocessador zero-knowledge (zk) inteligente para blockchain, permitindo que dapps acessem, calculem e utilizem dados arbitrários em vários blockchains de maneira totalmente confiável. Como outros coprocessadores, brevis tem uma ampla gama de casos de uso, como defi orientado por dados, zkbridges, aquisição de usuários em cadeia, zkdid e abstração de contas sociais.

a arquitetura brevis consiste em três componentes principais:

  • zkfabric: o zkfabric é o componente de relé da arquitetura Brevis. Sua principal tarefa é coletar e sincronizar informações de cabeçalho de bloco de todas as blockchains conectadas e, em seguida, gerar provas de consenso para cada cabeçalho de bloco coletado por meio do circuito do cliente leve zk.
  • zkquerynet: zkquerynet é um mercado aberto de mecanismo de consulta zk que pode aceitar diretamente consultas de dados de contratos inteligentes on-chain e gerar resultados de consulta e respectivas provas de consulta zk através do circuito do mecanismo de consulta zk. esses mecanismos variam de altamente especializados (por exemplo, calcular o volume de negociação de um dex durante um período específico) a abstrações de indexação de dados altamente gerais e linguagens avançadas de consulta para atender a várias necessidades de aplicação.
  • zkaggregatorrollup: ele atua como a camada de agregação e armazenamento para zkfabric e zkquerynet. ele verifica as provas desses dois componentes, armazena os dados comprovados e envia as raízes de estado de suas provas zk para todas as blockchains conectadas, permitindo que os dapps acessem diretamente os resultados de consulta comprovados em sua lógica de negócios de contrato inteligente on-chain.

com esta arquitetura modular, o brevis pode fornecer todos os contratos inteligentes de blockchain público suportados com um método de acesso confiável, eficiente e flexível. a versão v4 da uni também adota este projeto e o integra com ganchos (um sistema para integrar várias lógicas personalizadas do usuário) para facilitar a leitura de dados históricos da blockchain, reduzir as taxas de gás, garantindo a descentralização. este é um exemplo de um coprocessador zk promovendo um dex.

3.5 lagrange

lagrange é um protocolo de coprocessador zk de interoperabilidade liderado pela 1kx e pelo founders fund, principalmente destinado a proporcionar interoperabilidade trustless entre cadeias e a apoiar aplicações que exigem cálculos complexos de grandes volumes de dados. Ao contrário das pontes de nó tradicionais, a interoperabilidade cross-chain de lagrange é principalmente atingida através dos seus inovadores mecanismos zk big data e comité de estado.

  • zk big data: este é o produto central do lagrange, responsável pelo processamento e verificação de dados entre cadeias e pela geração de provas zk relacionadas. Este componente inclui um coprocessador zk altamente paralelo para executar cálculos complexos fora da cadeia e gerar provas de conhecimento zero, um banco de dados verificável especialmente projetado que suporta slots de armazenamento ilimitados e consultas SQL diretas de contratos inteligentes, um mecanismo de atualização dinâmica que atualiza apenas os pontos de dados alterados para reduzir o tempo de prova e uma função integrada que permite aos desenvolvedores usar consultas SQL diretamente de contratos inteligentes para acessar dados históricos sem escrever circuitos complexos. Juntos, eles formam um sistema de processamento e verificação de dados de blockchain em grande escala.
  • comité estatal: este componente é uma rede de verificação descentralizada composta por vários nós independentes, cada um apostando eth como garantia. estes nós atuam como clientes leves zk específicamente verificando o estado de determinados rollups otimizados. o comité estatal integra-se com o avs da eigenlayer, aproveitando o mecanismo de novo depósito para reforçar a segurança, suportando um número ilimitado de nós participantes para alcançar um crescimento de segurança superlinear. também fornece um "modo rápido", permitindo aos utilizadores realizar operações entre cadeias sem esperar pela janela de desafio, melhorando significativamente a experiência do utilizador. a combinação destas duas tecnologias permite ao lagrange processar eficientemente dados em grande escala, realizar cálculos complexos e transmitir e verificar resultados de forma segura em diferentes blockchains, suportando o desenvolvimento de aplicações complexas entre cadeias.

Lagrange já integrou com eigenlayer, mantle, base, frax, polymer, layerzero, omni, altlayer, entre outros, e será o primeiro zk avs a se conectar dentro do ecossistema do Ethereum.

sobre ybb

ybb é um fundo web3 dedicado a identificar projetos que definem a web3 com a visão de criar um habitat online melhor para todos os residentes da internet. Fundado por um grupo de entusiastas de blockchain que têm participado ativamente desta indústria desde 2013, a ybb está sempre disposta a ajudar projetos em estágio inicial a evoluir de 0 a 1. Valorizamos a inovação, a paixão autoimpulsionada e produtos orientados para o usuário, ao mesmo tempo em que reconhecemos o potencial das criptomoedas e aplicações blockchain.

Sítio Web | Twi: @ybbcapital

referências:

1.ABCDE: Um mergulho profundo no coprocessador ZK e seu futuro:https://medium.com/ABCDE.com/en-abcde-a-deep-dive-into-zk-coprocessor-and-its-future-1d1b3f33f946

2. "zk" é tudo o que você precisa:https://medium.com/gate_ventures/zk-is-all-you-need-238886062c52

3.risc zero:https://www.risczero.com/bonsai

4. lagrange:https://www.lagrange.dev/blog/interoperabilidade-para-blockchains-modulares-a-tese-de-lagrange

5.axiomblog:https://blog.axiom.xyz/

6. aceleração de nitrogênio! como o coprocessador zk quebra as barreiras de dados do contrato inteligentehttps://foresightnews.pro/article/detail/48239

disclaimer:

  1. este artigo foi republicado a partir de [médio], encaminhe o título original 'a gpu da blockchain: análise abrangente dos coprocessadores zk', todos os direitos autorais pertencem ao autor original [pesquisador da ybb capital zeke]. Se houver objeções a esta reimpressão, entre em contato com o Gate aprenderequipa, e eles vão tratar disso prontamente.

  2. aviso de responsabilidade: as opiniões expressas neste artigo são exclusivamente do autor e não constituem qualquer conselho de investimento.

  3. as traduções do artigo para outros idiomas são feitas pela equipe da Gate Learn. A menos que seja mencionado, copiar, distribuir ou plagiar os artigos traduzidos é proibido.

Comece agora
Registe-se e ganhe um cupão de
100 USD
!