La GPU de la Cadena de bloques: Análisis completo de los coprocesadores ZK

Avanzado7/24/2024, 11:15:15 AM
El coprocesador ZK se puede considerar como un complemento de computación fuera de la cadena derivado del concepto modular. Su función es similar a la GPU en nuestras computadoras tradicionales que comparte tareas de computación gráfica para la CPU, es decir, un procesador que comparte tareas de computación en escenarios específicos. Bajo esta arquitectura de diseño, los datos pesados y las tareas de lógica de cálculo complejas que las cadenas públicas no son buenas para calcularse a través del coprocesador ZK. La cadena solo necesita recibir los resultados de cálculo devueltos, y su corrección se determina mediante garantías de prueba ZK, y finalmente permite cálculos de tareas complejas fuera de la cadena confiables.

En resumen

  • los coprocesadores zk se pueden ver como complementos de computación fuera de la cadena derivados del concepto modular, similar a las gpus en computadoras tradicionales que descargan tareas de computación gráfica de la cpu, manejando tareas computacionales específicas.
  • Se pueden usar para manejar cálculos complejos y datos pesados, reduciendo las tarifas de gas y ampliando la funcionalidad de los contratos inteligentes.
  • a diferencia de los rollups, los coprocesadores zk son sin estado, se pueden utilizar en diferentes cadenas y son adecuados para escenarios computacionales complejos.
  • Desarrollar coprocesadores zk es desafiante, con altos costos de rendimiento y falta de estandarización. Los costos de hardware también son sustanciales. Aunque el campo ha madurado significativamente en comparación con un año atrás, todavía está en sus primeras etapas.
  • a medida que la era modular avanza hacia la escala fractal, la cadena de bloques enfrenta problemas como la escasez de liquidez, usuarios dispersos, falta de innovación y problemas de interoperabilidad entre cadenas, creando un paradoja con cadenas l1 escaladas verticalmente. Los coprocesadores zk pueden ofrecer una forma de superar estos desafíos, brindando soporte tanto para aplicaciones existentes como emergentes y aportando nuevas narrativas al espacio de la cadena de bloques.

i. otra rama de infraestructura modular: coprocesadores zk

1.1 descripción general de los coprocesadores zk

Los coprocesadores zk se pueden considerar como complementos de computación fuera de la cadena derivados del concepto modular, similar a cómo las gpus descargan tareas de computación gráfica de las cpus en computadoras tradicionales, manejando tareas computacionales específicas. En este marco de diseño, las tareas que las cadenas públicas no son hábiles, como "datos pesados" y "lógica computacional compleja," pueden ser calculadas por los coprocesadores zk, con la cadena solo recibiendo los resultados de la computación devuelta. Su corrección está garantizada por pruebas zk, logrando en última instancia una computación fuera de la cadena confiable para tareas complejas.

Actualmente, aplicaciones populares como ai, socialfi, dex y gamefi tienen una necesidad apremiante de alto rendimiento y control de costos. En las soluciones tradicionales, estas "aplicaciones pesadas" que requieren alto rendimiento a menudo optan por modelos de aplicación en cadena + fuera de cadena o diseñan una cadena de aplicación separada. Sin embargo, ambos enfoques tienen problemas inherentes: el primero tiene una "caja negra" y el segundo enfrenta altos costos de desarrollo, desvinculación del ecosistema de la cadena original y liquidez fragmentada. Además, la máquina virtual de la cadena principal impone limitaciones significativas en el desarrollo y operación de dichas aplicaciones (por ejemplo, falta de estándares de capa de aplicación, lenguajes de desarrollo complejos).

Los coprocesadores zk tienen como objetivo resolver estos problemas. Para proporcionar un ejemplo más detallado, podemos pensar en la cadena de bloques como una terminal (como un teléfono o una computadora) que no puede conectarse a Internet. En este escenario, podemos ejecutar aplicaciones relativamente simples, como Uniswap u otras aplicaciones de DeFi, totalmente en la cadena. Pero cuando aparecen aplicaciones más complejas, como la ejecución de una aplicación similar a ChatGPT, el rendimiento y el almacenamiento de la cadena pública serán completamente insuficientes, lo que provocará explosiones de gas. En el escenario de la web2, cuando ejecutamos ChatGPT, nuestra terminal común en sí misma no puede manejar el modelo de lenguaje grande GPT-4o; necesitamos conectarnos a los servidores de OpenAI para transmitir la pregunta y, después de que el servidor calcule e infiera el resultado, recibimos directamente la respuesta. Los coprocesadores zk son como servidores remotos de la cadena de bloques. Si bien los diferentes proyectos de coprocesadores pueden tener ligeras diferencias de diseño según el tipo de proyecto, la lógica subyacente sigue siendo ampliamente similar: cálculo fuera de la cadena + pruebas zk o pruebas de almacenamiento para validación.

tomando el despliegue de bonsái de rise zero como ejemplo, esta arquitectura es muy directa. el proyecto se integra perfectamente en el zkvm propio de rise zero, y los desarrolladores solo necesitan dos pasos simples para usar bonsái como coprocesador:

  • escribe una aplicación zkvm para manejar la lógica de la aplicación.
  • escribe un contrato de solidez para requerir bonsai para ejecutar tu aplicación zkvm y manejar los resultados.

1.2 diferencias de rollups

a partir de las definiciones anteriores, puede parecer que los rollups y los coprocesadores zk tienen una lógica de implementación y objetivos altamente superpuestos. sin embargo, los rollups son más como expansiones multinúcleo de la cadena principal, con las diferencias específicas entre los dos como sigue:

1. objetivo principal:

  • rollups: mejorar el rendimiento de transacciones en la cadena de bloques y reducir las tarifas de transacción.
  • coprocesadores zk: ampliar las capacidades computacionales de contratos inteligentes para manejar lógica más compleja y volúmenes de datos más grandes.

2. principio de funcionamiento:

  • rollups: Agrega transacciones en cadena y las envía a la cadena principal con pruebas de fraude o pruebas de conocimiento nulo.
  • zk coprocesadores: similares a zk rollups, pero diseñados para diferentes escenarios de aplicación. zk rollups, debido a las restricciones y reglas específicas de la cadena, no son adecuados para tareas de coprocesador.

3. gestión de estado:

  • rollups: mantienen su estado y sincronizan periódicamente con la cadena principal.
  • coprocesadores zk: sin estado, cada cálculo es sin estado.

4. escenarios de aplicación:

  • Los rollups: sirven principalmente a los usuarios finales, son adecuados para transacciones de alta frecuencia.
  • coprocesadores zk: sirven principalmente a empresas, adecuados para escenarios que requieren cálculos complejos, como modelos financieros avanzados y análisis de grandes datos.

5. relación con la cadena principal:

  • rollups: vistos como extensiones de la cadena principal, generalmente enfocados en redes de cadenas de bloques específicas.
  • Coprocesadores zk: pueden servir a múltiples cadenas de bloques, no se limitan a cadenas principales específicas, y también pueden servir a rollups.

así, los dos no son mutuamente excluyentes sino complementarios. incluso si existe un rollup en forma de una cadena de aplicaciones, los coprocesadores zk aún pueden proporcionar servicios.

1.3 casos de uso

teóricamente, el alcance de la aplicación de los coprocesadores zk es amplio, abarcando proyectos en varios sectores de la cadena de bloques. los coprocesadores zk permiten que las dapps tengan funcionalidades más cercanas a las de las aplicaciones web2 centralizadas. aquí hay algunos ejemplos de casos de uso recopilados de fuentes en línea:

desarrollo de dapp basado en datos:

Los coprocesadores zk permiten a los desarrolladores crear dapps impulsadas por datos que utilizan datos históricos completos en cadena para cálculos complejos sin suposiciones adicionales de confianza. Esto abre posibilidades sin precedentes para el desarrollo de dapps, como:

  • análisis de datos avanzado: funciones de análisis de datos en cadena similares a dune analytics.
  • lógica empresarial compleja: implementación de algoritmos complejos y lógica empresarial que se encuentran en aplicaciones centralizadas tradicionales.
  • aplicaciones de cadena cruzada: construyendo dapps de cadena cruzada basadas en datos de múltiples cadenas.

programa de operador VIP para DEXs:

Un escenario de aplicación típico es implementar un programa de descuento de tarifas basado en el volumen de operaciones en los dexs, conocido como el “programa de fidelización del trader vip.” Estos programas son comunes en los cexs pero raros en los dexs.

con coprocesadores zk, los dex pueden:

  • rastrear los volúmenes de negociación históricos de los usuarios.
  • calcular los niveles VIP de los usuarios.
  • ajustar dinámicamente las tarifas de negociación en función de los niveles de vip. esta funcionalidad puede ayudar a los dexs a mejorar la retención de usuarios, aumentar la liquidez y, en última instancia, mejorar los ingresos.

aumento de datos para contratos inteligentes:

Los coprocesadores zk pueden actuar como middleware potente, proporcionando servicios de captura de datos, cálculo y verificación para contratos inteligentes, reduciendo así los costos y mejorando la eficiencia. esto permite que los contratos inteligentes:

  • acceder y procesar grandes cantidades de datos históricos.
  • realizar cálculos complejos fuera de la cadena.
  • implementar una lógica empresarial más avanzada.

tecnología de puente cruzado:

Algunas tecnologías de puente interconectado basadas en zk, como Herodoto y Lagrange, también pueden considerarse aplicaciones de coprocesadores zk. Estas tecnologías se centran principalmente en la extracción y verificación de datos, proporcionando una base de datos confiable para la comunicación entre cadenas.

Los coprocesadores zk 1.4 no son perfectos

a pesar de las numerosas ventajas, los coprocesadores zk en la etapa actual están lejos de ser perfectos y enfrentan varios problemas. He resumido los siguientes puntos:

  1. desarrollo: el concepto de zk es difícil de entender para muchos desarrolladores. El desarrollo requiere conocimientos criptográficos relacionados y habilidades en lenguajes de desarrollo y herramientas específicas.
  2. altos costos de hardware: el hardware zk utilizado para cálculos fuera de la cadena debe ser completamente sufragado por el proyecto mismo. el hardware zk es costoso y está evolucionando rápidamente, lo que lo hace susceptible de volverse obsoleto en cualquier momento. vale la pena considerar si esto puede formar un bucle comercial cerrado.
  3. campo abarrotado: técnicamente, no habrá mucha diferencia en la implementación, y el resultado final puede parecerse al panorama actual de la capa 2, donde destacan algunos proyectos prominentes mientras que el resto es en gran medida pasado por alto.
  4. circuitos zk: la ejecución de cálculos fuera de la cadena en coprocesadores zk requiere convertir programas informáticos tradicionales en circuitos zk. Es engorroso escribir circuitos personalizados para cada aplicación, y el uso de zkvms en máquinas virtuales para escribir circuitos presenta una sobrecarga computacional significativa debido a los diferentes modelos computacionales.

ii. una pieza crítica para la adopción masiva

(esta sección es altamente subjetiva y representa solo las opiniones personales del autor.)

este ciclo está liderado principalmente por infraestructura modular. Si la modularización es el camino correcto, este ciclo podría ser el paso final hacia la adopción masiva. Sin embargo, en la etapa actual, todos compartimos un sentimiento común: ¿por qué solo vemos algunas aplicaciones antiguas empaquetadas de nuevo, por qué hay más cadenas que aplicaciones y por qué se considera que un nuevo estándar de token como inscripciones es la mayor innovación de este ciclo?

la razón fundamental de la falta de nuevas narrativas es que la infraestructura modular actual es insuficiente para admitir superaplicaciones, especialmente carece de algunos requisitos previos (interoperabilidad entre cadenas, barreras para los usuarios, etc.), lo que conduce a la fragmentación más significativa en la historia de la cadena de bloques. los rollups, como núcleo de la era modular, han acelerado las cosas, pero también han traído numerosos problemas, como la fragmentación de la liquidez, la dispersión de los usuarios y las limitaciones impuestas por la cadena o la máquina virtual en sí misma en la innovación de las aplicaciones. además, otro “actor clave” en la modularización, celestia, ha liderado el camino de que da no necesariamente esté en ethereum, exacerbando aún más la fragmentación. ya sea impulsado por la ideología o los costos de da, el resultado es que btc se ve obligado a convertirse en da y otras cadenas públicas buscan proporcionar soluciones de da más rentables. la situación actual es que cada cadena pública tiene al menos uno, si no decenas, de proyectos de capa 2. sumado a esto, todos los proyectos de infraestructura y ecosistema han aprendido profundamente la estrategia de apuesta de tokens pionera de blur, exigiendo a los usuarios que apuesten fichas dentro del proyecto. este modo, que beneficia a las ballenas de tres maneras (intereses, apreciación de eth o btc y fichas gratuitas), comprime aún más la liquidez en cadena.

en los mercados alcistas pasados, los fondos solo fluirían dentro de unas pocas a una docena de cadenas públicas, incluso concentrándose principalmente en ethereum. ahora, los fondos están dispersos en cientos de cadenas públicas y apostados en miles de proyectos similares, lo que ha llevado a una disminución en la actividad en la cadena. incluso ethereum carece de actividad en la cadena. como resultado, los jugadores del este participan en pvp en el ecosistema de btc, mientras que los jugadores del oeste lo hacen en solana, por necesidad.

por lo tanto, mi enfoque actual está en cómo promover la liquidez agGretada en todas las cadenas y apoyar la aparición de nuevos estilos de juego y superaplicaciones. en el sector de interoperabilidad entre cadenas, los proyectos líderes tradicionales han rendido consistentemente por debajo, todavía se asemejan a puentes tradicionales entre cadenas. las nuevas soluciones de interoperabilidad que discutimos en informes anteriores tienen como objetivo principal aggreGar múltiples cadenas en una sola cadena. ejemplos incluyen agglayer, superchain, cadena elástica, jam, etc., que no se detallarán aquí. en resumen, la agregación entre cadenas es un obstáculo necesario en la infraestructura modular, pero tomará mucho tiempo superarlo.

Los coprocesadores zk son una pieza crítica en la fase actual. Pueden fortalecer la capa2 y complementar la capa1. ¿Existe una forma de superar temporalmente los problemas de intercambio cruzado y trilema, permitiéndonos realizar algunas aplicaciones de la era actual en ciertas capas1 o capas2 con amplia liquidez? Después de todo, las aplicaciones de cadena de bloques carecen de narrativas frescas. Además, permitir estilos de juego diversos, control de gas, aplicaciones a gran escala, capacidades de intercambio cruzado y reducir las barreras del usuario a través de soluciones integradas de coprocesador podrían ser más ideales que depender de la centralización.

iii. Descripción del proyecto

el campo de coprocesador zk surgió alrededor de 2023 y se ha vuelto relativamente maduro en esta etapa. según la clasificación de messari, este campo actualmente abarca tres dominios verticales principales (computación general, interoperabilidad y cross-chain, ai y machine training) con 18 proyectos. la mayoría de estos proyectos son apoyados por vcs líderes. a continuación, describimos varios proyectos de diferentes dominios verticales.

3.1 giza

Giza es un protocolo zkml (aprendizaje automático de conocimiento cero) desplegado en starknet, apoyado oficialmente por starkware. Se centra en permitir que los modelos de IA se utilicen de manera verificable en contratos inteligentes de blockchain. Los desarrolladores pueden implementar modelos de IA en la red de Giza, que luego verifica la corrección de la inferencia del modelo a través de pruebas de conocimiento cero y proporciona los resultados a los contratos inteligentes de manera confiable. Esto permite a los desarrolladores construir aplicaciones en cadena que combinen capacidades de IA manteniendo la descentralización y verificabilidad de la cadena de bloques.

giza completa el flujo de trabajo a través de los siguientes tres pasos:

  • conversión de modelo: giza convierte modelos de inteligencia artificial en formato onnx comúnmente utilizados en un formato que puede ejecutarse en un sistema de prueba de conocimiento cero. Esto permite a los desarrolladores entrenar modelos utilizando herramientas familiares y luego implementarlos en la red de giza.
  • inferencia fuera de la cadena: cuando un contrato inteligente solicita la inferencia del modelo de inteligencia artificial, Giza realiza el cálculo real fuera de la cadena. Esto evita los altos costos de ejecutar modelos de inteligencia artificial complejos directamente en la cadena de bloques.
  • verificación de conocimiento cero: giza genera pruebas zk para cada inferencia de modelo, demostrando que la computación se ejecutó correctamente. Estas pruebas se verifican en la cadena, asegurando la corrección de los resultados de inferencia sin repetir todo el proceso de computación en la cadena.

El enfoque de giza permite que los modelos de IA sirvan como fuentes de entrada confiables para contratos inteligentes sin depender de oráculos centralizados o entornos de ejecución confiables. Esto abre nuevas posibilidades para aplicaciones de cadena de bloques, como la gestión de activos basada en IA, detección de fraudes y fijación dinámica de precios. Es uno de los pocos proyectos en el espacio actual de web3 x IA con un bucle cerrado lógico y un uso inteligente de coprocesadores en el campo de la IA.

3.2 risc zero

RISC Zero es un proyecto de coprocesador líder compatible con varios VC de primer nivel. Se centra en permitir que cualquier cálculo se ejecute de forma verificable en contratos inteligentes de blockchain. Los desarrolladores pueden escribir programas en Rust y desplegarlos en la red RISCi Zero. A continuación, RISC Zero verifica la corrección de la ejecución del programa a través de pruebas de conocimiento cero y proporciona los resultados a los contratos inteligentes de forma fiable. Esto permite a los desarrolladores crear aplicaciones complejas en cadena mientras mantienen la descentralización y la verificabilidad de la cadena de bloques.

mencionamos brevemente la implementación y el flujo de trabajo anteriormente. aquí, detallamos dos componentes clave:

  • Bonsái: Bonsai es el componente del coprocesador dentro de RISC-Zero, perfectamente integrado en el ZKVM de la arquitectura del conjunto de instrucciones RISC-V. Permite a los desarrolladores integrar rápidamente pruebas de conocimiento cero de alto rendimiento en Ethereum, cadenas de bloques L1, cadenas de aplicaciones Cosmos, paquetes acumulativos L2 y dApps en cuestión de días. Ofrece llamadas directas a contratos inteligentes, computación verificable fuera de la cadena, interoperabilidad entre cadenas y funcionalidad general de acumulación, todo ello mientras adopta una arquitectura distribuida descentralizada. Combinando pruebas recursivas, compiladores de circuitos personalizados, continuación de estado y algoritmos de prueba de mejora continua, permite a cualquier persona generar pruebas de conocimiento cero de alto rendimiento para diversas aplicaciones.
  • ZKVM: El ZKVM es un ordenador verificable que funciona de forma similar a un microprocesador RISC-V embebido real. Basado en la arquitectura del conjunto de instrucciones RISC-V, permite a los desarrolladores escribir programas en lenguajes de programación de alto nivel como Rust, C ++, Solidity, Go, etcétera, que pueden generar pruebas de conocimiento cero. Compatible con más del 70% de las cajas de óxido populares, combina a la perfección la computación general y las pruebas de conocimiento cero, capaz de generar pruebas eficientes de conocimiento cero para cálculos de cualquier complejidad, manteniendo al mismo tiempo la privacidad del proceso de cálculo y la verificabilidad de los resultados. El ZKVM utiliza tecnologías ZK, incluidas Stark y Snark, y logra una generación y verificación de pruebas eficientes a través de componentes como Recursion Prover y Stark to Snark Prover, lo que admite la ejecución fuera de la cadena y la verificación en la cadena.

risc zero se ha integrado con múltiples soluciones de capa 2 de eth y ha demostrado varios casos de uso para bonsai. Un ejemplo interesante es bonsai pay. Esta demostración utiliza zkvm de risc zero y el servicio de prueba de bonsai, permitiendo a los usuarios enviar o retirar eth y tokens en ethereum usando sus cuentas de Google. Muestra cómo risc zero puede integrar de manera perfecta las aplicaciones on-chain con oauth2.0 (el estándar utilizado por importantes proveedores de identidad como Google), proporcionando un caso de uso que reduce la barrera de usuario web3 a través de aplicaciones web2 tradicionales. Otros ejemplos incluyen aplicaciones basadas en daos.

3.3 =nil;

=nil; es un proyecto de inversión respaldado por entidades reconocidas como mina, polychain, starkware y blockchain capital. Cabe destacar que pioneros en tecnología zk como mina y starkware se encuentran entre los patrocinadores, lo que indica un alto reconocimiento técnico para el proyecto. También se mencionó a =nil; en nuestro informe "El mercado de la potencia informática", centrándose principalmente en el mercado de pruebas (un mercado de generación de pruebas descentralizado). Además, =nil; tiene otro subproducto llamado zkllvm.

zkllvm, desarrollado por la fundación =nil;, es un compilador de circuitos innovador que convierte automáticamente el código de aplicación escrito en lenguajes de programación principales como c++ y rust en circuitos eficientes y demostrables para Ethereum sin la necesidad de lenguajes específicos de dominio de conocimiento nulo (dsl) especializados. Esto simplifica significativamente el proceso de desarrollo, reduce la barrera de entrada y mejora el rendimiento al evitar zkvm. Admite aceleración por hardware para acelerar la generación de pruebas, lo que lo hace adecuado para varios escenarios de aplicaciones zk como rollups, puentes entre cadenas, oráculos, aprendizaje automático y juegos. Está estrechamente integrado con el mercado de pruebas de =nil; foundation, brindando a los desarrolladores soporte integral desde la creación de circuitos hasta la generación de pruebas.

3.4 brevis

brevis es un subproyecto de celer network y es un coprocesador inteligente de conocimiento cero (zk) para blockchain, lo que permite a las dapps acceder, calcular y utilizar datos arbitrarios en múltiples blockchains de manera totalmente confiable. Al igual que otros coprocesadores, brevis tiene una amplia gama de casos de uso, como la defi impulsada por datos, los zkbridges, la adquisición de usuarios en cadena, zkdid y la abstracción de cuentas sociales en cadena.

La arquitectura brevis consta de tres componentes principales:

  • zkfabric: el zkfabric es el componente de relé de la arquitectura brevis. Su principal tarea es recopilar y sincronizar información de encabezado de bloque de todas las cadenas de bloques conectadas y luego generar pruebas de consenso para cada encabezado de bloque recopilado a través del circuito de cliente ligero zk.
  • zkquerynet: zkquerynet es un mercado abierto de motores de consulta zk que puede aceptar directamente consultas de datos de contratos inteligentes on-chain y generar resultados de consulta y pruebas de consulta zk correspondientes a través del circuito del motor de consulta zk. Estos motores van desde altamente especializados (por ejemplo, calcular el volumen de negociación de un dex durante un período específico) hasta abstracciones de indexación de datos altamente generales y lenguajes de consulta avanzados para satisfacer diversas necesidades de aplicación.
  • zkaggregatorrollup: sirve como la capa de agregación y almacenamiento para zkfabric y zkquerynet. verifica las pruebas de estos dos componentes, almacena los datos probados y envía las raíces de estado de sus pruebas zk a todas las cadenas de bloques conectadas, permitiendo a las dapps acceder directamente a los resultados de consulta probados en su lógica de contrato inteligente en la cadena.

con esta arquitectura modular, Brevis puede proporcionar a todos los contratos inteligentes públicos admitidos por la cadena de bloques un método de acceso confiable, eficiente y flexible. La versión v4 de Uni también adopta este proyecto e integra ganchos (un sistema para integrar varias lógicas personalizadas de usuario) para facilitar la lectura de datos históricos de la cadena de bloques, reducir las tarifas de gas y garantizar la descentralización. Este es un ejemplo de un coprocesador zk que promueve un dex.

3.5 lagrange

Lagrange es un protocolo de coprocesador zk de interoperabilidad liderado por 1kx y Founders Fund, principalmente destinado a proporcionar interoperabilidad trustless entre cadenas y apoyar aplicaciones que requieren cálculos de datos a gran escala. A diferencia de los puentes nodales tradicionales, la interoperabilidad entre cadenas de Lagrange se logra principalmente a través de sus innovadores mecanismos de grandes datos zk y de comité de estado.

  • zk big data: este es el producto principal de lagrange, responsable del procesamiento y verificación de datos entre cadenas y la generación de pruebas zk relacionadas. Este componente incluye un coprocesador zk altamente paralelo para ejecutar cálculos complejos fuera de la cadena y generar pruebas de conocimiento cero, una base de datos verificable especialmente diseñada que admite ranuras de almacenamiento ilimitadas y consultas sql directas desde contratos inteligentes, un mecanismo de actualización dinámica que solo actualiza puntos de datos cambiados para reducir el tiempo de prueba, y una función integrada que permite a los desarrolladores utilizar consultas sql directamente desde contratos inteligentes para acceder a datos históricos sin escribir circuitos complejos. Juntos, forman un sistema de procesamiento y verificación de datos de blockchain a gran escala.
  • comité estatal: este componente es una red de verificación descentralizada compuesta por múltiples nodos independientes, cada uno de los cuales apuesta eth como garantía. Estos nodos actúan como clientes ligeros zk que verifican específicamente el estado de ciertos rollups optimizados. El comité estatal se integra con avs de EigenLayer, aprovechando el mecanismo de re-apuesta para mejorar la seguridad, admitiendo un número ilimitado de nodos participantes para lograr un crecimiento de seguridad superlineal. También proporciona un 'modo rápido', que permite a los usuarios realizar operaciones entre cadenas sin esperar la ventana de desafío, mejorando en gran medida la experiencia del usuario. La combinación de estas dos tecnologías permite a Lagrange procesar eficientemente datos a gran escala, realizar cálculos complejos y transmitir y verificar resultados de manera segura en diferentes cadenas de bloques, lo que respalda el desarrollo de aplicaciones complejas entre cadenas.

lagrange ya se ha integrado con eigenlayer, mantle, base, frax, polymer, layerzero, omni, altlayer, entre otros, y será el primer zk avs en vincularse dentro del ecosistema de ethereum.

acerca de ybb

ybb es un fondo web3 que se dedica a identificar proyectos que definen web3 con la visión de crear un mejor hábitat en línea para todos los residentes de Internet. Fundada por un grupo de creyentes en blockchain que han participado activamente en esta industria desde 2013, ybb siempre está dispuesta a ayudar a los proyectos en etapa inicial a evolucionar de 0 a 1. Valoramos la innovación, la pasión autodirigida y los productos orientados al usuario, al tiempo que reconocemos el potencial de las criptomonedas y las aplicaciones blockchain.

Sitio web | Twi: @ybbcapital

referencias:

1.abcde: una inmersión profunda en el coprocesador zk y su futuro:https://medium.com/ABCDE.com/es-abcde-una-investigación-profunda-sobre-el-coprocesador-zk-y-su-futuro-1d1b3f33f946

2. "zk" es todo lo que necesitas:https://medium.com/gate_ventures/zk-es-todo-lo-que-necesitas-238886062c52

3. risc zero:https://www.risczero.com/bonsai

4.lagrange:https://www.lagrange.dev/blog/interoperability-for-modular-blockchains-the-lagrange-thesis

5.axiomblog:https://blog.axiom.xyz/

6. ¡Aceleración de nitrógeno! ¿Cómo el coprocesador zk rompe las barreras de los datos del contrato inteligente en la cadena de bloques Gate?https://foresightnews.pro/article/detail/48239

descargo de responsabilidad:

  1. Este artículo es una reimpresión de [medio], reenviar el título original 'la gpu de blockchain: análisis integral de coprocesadores zk', todos los derechos de autor pertenecen al autor original [investigador de ybb capital zeke]. Si hay objeciones a esta reproducción, por favor contacte al Gate aprenderequipo, y lo resolverán rápidamente.

  2. exención de responsabilidad: las opiniones expresadas en este artículo son únicamente las del autor y no constituyen ningún consejo de inversión.

  3. las traducciones del artículo a otros idiomas son realizadas por el equipo de aprendizaje de Gate. A menos que se mencione lo contrario, está prohibido copiar, distribuir o plagiar los artículos traducidos.

La GPU de la Cadena de bloques: Análisis completo de los coprocesadores ZK

Avanzado7/24/2024, 11:15:15 AM
El coprocesador ZK se puede considerar como un complemento de computación fuera de la cadena derivado del concepto modular. Su función es similar a la GPU en nuestras computadoras tradicionales que comparte tareas de computación gráfica para la CPU, es decir, un procesador que comparte tareas de computación en escenarios específicos. Bajo esta arquitectura de diseño, los datos pesados y las tareas de lógica de cálculo complejas que las cadenas públicas no son buenas para calcularse a través del coprocesador ZK. La cadena solo necesita recibir los resultados de cálculo devueltos, y su corrección se determina mediante garantías de prueba ZK, y finalmente permite cálculos de tareas complejas fuera de la cadena confiables.

En resumen

  • los coprocesadores zk se pueden ver como complementos de computación fuera de la cadena derivados del concepto modular, similar a las gpus en computadoras tradicionales que descargan tareas de computación gráfica de la cpu, manejando tareas computacionales específicas.
  • Se pueden usar para manejar cálculos complejos y datos pesados, reduciendo las tarifas de gas y ampliando la funcionalidad de los contratos inteligentes.
  • a diferencia de los rollups, los coprocesadores zk son sin estado, se pueden utilizar en diferentes cadenas y son adecuados para escenarios computacionales complejos.
  • Desarrollar coprocesadores zk es desafiante, con altos costos de rendimiento y falta de estandarización. Los costos de hardware también son sustanciales. Aunque el campo ha madurado significativamente en comparación con un año atrás, todavía está en sus primeras etapas.
  • a medida que la era modular avanza hacia la escala fractal, la cadena de bloques enfrenta problemas como la escasez de liquidez, usuarios dispersos, falta de innovación y problemas de interoperabilidad entre cadenas, creando un paradoja con cadenas l1 escaladas verticalmente. Los coprocesadores zk pueden ofrecer una forma de superar estos desafíos, brindando soporte tanto para aplicaciones existentes como emergentes y aportando nuevas narrativas al espacio de la cadena de bloques.

i. otra rama de infraestructura modular: coprocesadores zk

1.1 descripción general de los coprocesadores zk

Los coprocesadores zk se pueden considerar como complementos de computación fuera de la cadena derivados del concepto modular, similar a cómo las gpus descargan tareas de computación gráfica de las cpus en computadoras tradicionales, manejando tareas computacionales específicas. En este marco de diseño, las tareas que las cadenas públicas no son hábiles, como "datos pesados" y "lógica computacional compleja," pueden ser calculadas por los coprocesadores zk, con la cadena solo recibiendo los resultados de la computación devuelta. Su corrección está garantizada por pruebas zk, logrando en última instancia una computación fuera de la cadena confiable para tareas complejas.

Actualmente, aplicaciones populares como ai, socialfi, dex y gamefi tienen una necesidad apremiante de alto rendimiento y control de costos. En las soluciones tradicionales, estas "aplicaciones pesadas" que requieren alto rendimiento a menudo optan por modelos de aplicación en cadena + fuera de cadena o diseñan una cadena de aplicación separada. Sin embargo, ambos enfoques tienen problemas inherentes: el primero tiene una "caja negra" y el segundo enfrenta altos costos de desarrollo, desvinculación del ecosistema de la cadena original y liquidez fragmentada. Además, la máquina virtual de la cadena principal impone limitaciones significativas en el desarrollo y operación de dichas aplicaciones (por ejemplo, falta de estándares de capa de aplicación, lenguajes de desarrollo complejos).

Los coprocesadores zk tienen como objetivo resolver estos problemas. Para proporcionar un ejemplo más detallado, podemos pensar en la cadena de bloques como una terminal (como un teléfono o una computadora) que no puede conectarse a Internet. En este escenario, podemos ejecutar aplicaciones relativamente simples, como Uniswap u otras aplicaciones de DeFi, totalmente en la cadena. Pero cuando aparecen aplicaciones más complejas, como la ejecución de una aplicación similar a ChatGPT, el rendimiento y el almacenamiento de la cadena pública serán completamente insuficientes, lo que provocará explosiones de gas. En el escenario de la web2, cuando ejecutamos ChatGPT, nuestra terminal común en sí misma no puede manejar el modelo de lenguaje grande GPT-4o; necesitamos conectarnos a los servidores de OpenAI para transmitir la pregunta y, después de que el servidor calcule e infiera el resultado, recibimos directamente la respuesta. Los coprocesadores zk son como servidores remotos de la cadena de bloques. Si bien los diferentes proyectos de coprocesadores pueden tener ligeras diferencias de diseño según el tipo de proyecto, la lógica subyacente sigue siendo ampliamente similar: cálculo fuera de la cadena + pruebas zk o pruebas de almacenamiento para validación.

tomando el despliegue de bonsái de rise zero como ejemplo, esta arquitectura es muy directa. el proyecto se integra perfectamente en el zkvm propio de rise zero, y los desarrolladores solo necesitan dos pasos simples para usar bonsái como coprocesador:

  • escribe una aplicación zkvm para manejar la lógica de la aplicación.
  • escribe un contrato de solidez para requerir bonsai para ejecutar tu aplicación zkvm y manejar los resultados.

1.2 diferencias de rollups

a partir de las definiciones anteriores, puede parecer que los rollups y los coprocesadores zk tienen una lógica de implementación y objetivos altamente superpuestos. sin embargo, los rollups son más como expansiones multinúcleo de la cadena principal, con las diferencias específicas entre los dos como sigue:

1. objetivo principal:

  • rollups: mejorar el rendimiento de transacciones en la cadena de bloques y reducir las tarifas de transacción.
  • coprocesadores zk: ampliar las capacidades computacionales de contratos inteligentes para manejar lógica más compleja y volúmenes de datos más grandes.

2. principio de funcionamiento:

  • rollups: Agrega transacciones en cadena y las envía a la cadena principal con pruebas de fraude o pruebas de conocimiento nulo.
  • zk coprocesadores: similares a zk rollups, pero diseñados para diferentes escenarios de aplicación. zk rollups, debido a las restricciones y reglas específicas de la cadena, no son adecuados para tareas de coprocesador.

3. gestión de estado:

  • rollups: mantienen su estado y sincronizan periódicamente con la cadena principal.
  • coprocesadores zk: sin estado, cada cálculo es sin estado.

4. escenarios de aplicación:

  • Los rollups: sirven principalmente a los usuarios finales, son adecuados para transacciones de alta frecuencia.
  • coprocesadores zk: sirven principalmente a empresas, adecuados para escenarios que requieren cálculos complejos, como modelos financieros avanzados y análisis de grandes datos.

5. relación con la cadena principal:

  • rollups: vistos como extensiones de la cadena principal, generalmente enfocados en redes de cadenas de bloques específicas.
  • Coprocesadores zk: pueden servir a múltiples cadenas de bloques, no se limitan a cadenas principales específicas, y también pueden servir a rollups.

así, los dos no son mutuamente excluyentes sino complementarios. incluso si existe un rollup en forma de una cadena de aplicaciones, los coprocesadores zk aún pueden proporcionar servicios.

1.3 casos de uso

teóricamente, el alcance de la aplicación de los coprocesadores zk es amplio, abarcando proyectos en varios sectores de la cadena de bloques. los coprocesadores zk permiten que las dapps tengan funcionalidades más cercanas a las de las aplicaciones web2 centralizadas. aquí hay algunos ejemplos de casos de uso recopilados de fuentes en línea:

desarrollo de dapp basado en datos:

Los coprocesadores zk permiten a los desarrolladores crear dapps impulsadas por datos que utilizan datos históricos completos en cadena para cálculos complejos sin suposiciones adicionales de confianza. Esto abre posibilidades sin precedentes para el desarrollo de dapps, como:

  • análisis de datos avanzado: funciones de análisis de datos en cadena similares a dune analytics.
  • lógica empresarial compleja: implementación de algoritmos complejos y lógica empresarial que se encuentran en aplicaciones centralizadas tradicionales.
  • aplicaciones de cadena cruzada: construyendo dapps de cadena cruzada basadas en datos de múltiples cadenas.

programa de operador VIP para DEXs:

Un escenario de aplicación típico es implementar un programa de descuento de tarifas basado en el volumen de operaciones en los dexs, conocido como el “programa de fidelización del trader vip.” Estos programas son comunes en los cexs pero raros en los dexs.

con coprocesadores zk, los dex pueden:

  • rastrear los volúmenes de negociación históricos de los usuarios.
  • calcular los niveles VIP de los usuarios.
  • ajustar dinámicamente las tarifas de negociación en función de los niveles de vip. esta funcionalidad puede ayudar a los dexs a mejorar la retención de usuarios, aumentar la liquidez y, en última instancia, mejorar los ingresos.

aumento de datos para contratos inteligentes:

Los coprocesadores zk pueden actuar como middleware potente, proporcionando servicios de captura de datos, cálculo y verificación para contratos inteligentes, reduciendo así los costos y mejorando la eficiencia. esto permite que los contratos inteligentes:

  • acceder y procesar grandes cantidades de datos históricos.
  • realizar cálculos complejos fuera de la cadena.
  • implementar una lógica empresarial más avanzada.

tecnología de puente cruzado:

Algunas tecnologías de puente interconectado basadas en zk, como Herodoto y Lagrange, también pueden considerarse aplicaciones de coprocesadores zk. Estas tecnologías se centran principalmente en la extracción y verificación de datos, proporcionando una base de datos confiable para la comunicación entre cadenas.

Los coprocesadores zk 1.4 no son perfectos

a pesar de las numerosas ventajas, los coprocesadores zk en la etapa actual están lejos de ser perfectos y enfrentan varios problemas. He resumido los siguientes puntos:

  1. desarrollo: el concepto de zk es difícil de entender para muchos desarrolladores. El desarrollo requiere conocimientos criptográficos relacionados y habilidades en lenguajes de desarrollo y herramientas específicas.
  2. altos costos de hardware: el hardware zk utilizado para cálculos fuera de la cadena debe ser completamente sufragado por el proyecto mismo. el hardware zk es costoso y está evolucionando rápidamente, lo que lo hace susceptible de volverse obsoleto en cualquier momento. vale la pena considerar si esto puede formar un bucle comercial cerrado.
  3. campo abarrotado: técnicamente, no habrá mucha diferencia en la implementación, y el resultado final puede parecerse al panorama actual de la capa 2, donde destacan algunos proyectos prominentes mientras que el resto es en gran medida pasado por alto.
  4. circuitos zk: la ejecución de cálculos fuera de la cadena en coprocesadores zk requiere convertir programas informáticos tradicionales en circuitos zk. Es engorroso escribir circuitos personalizados para cada aplicación, y el uso de zkvms en máquinas virtuales para escribir circuitos presenta una sobrecarga computacional significativa debido a los diferentes modelos computacionales.

ii. una pieza crítica para la adopción masiva

(esta sección es altamente subjetiva y representa solo las opiniones personales del autor.)

este ciclo está liderado principalmente por infraestructura modular. Si la modularización es el camino correcto, este ciclo podría ser el paso final hacia la adopción masiva. Sin embargo, en la etapa actual, todos compartimos un sentimiento común: ¿por qué solo vemos algunas aplicaciones antiguas empaquetadas de nuevo, por qué hay más cadenas que aplicaciones y por qué se considera que un nuevo estándar de token como inscripciones es la mayor innovación de este ciclo?

la razón fundamental de la falta de nuevas narrativas es que la infraestructura modular actual es insuficiente para admitir superaplicaciones, especialmente carece de algunos requisitos previos (interoperabilidad entre cadenas, barreras para los usuarios, etc.), lo que conduce a la fragmentación más significativa en la historia de la cadena de bloques. los rollups, como núcleo de la era modular, han acelerado las cosas, pero también han traído numerosos problemas, como la fragmentación de la liquidez, la dispersión de los usuarios y las limitaciones impuestas por la cadena o la máquina virtual en sí misma en la innovación de las aplicaciones. además, otro “actor clave” en la modularización, celestia, ha liderado el camino de que da no necesariamente esté en ethereum, exacerbando aún más la fragmentación. ya sea impulsado por la ideología o los costos de da, el resultado es que btc se ve obligado a convertirse en da y otras cadenas públicas buscan proporcionar soluciones de da más rentables. la situación actual es que cada cadena pública tiene al menos uno, si no decenas, de proyectos de capa 2. sumado a esto, todos los proyectos de infraestructura y ecosistema han aprendido profundamente la estrategia de apuesta de tokens pionera de blur, exigiendo a los usuarios que apuesten fichas dentro del proyecto. este modo, que beneficia a las ballenas de tres maneras (intereses, apreciación de eth o btc y fichas gratuitas), comprime aún más la liquidez en cadena.

en los mercados alcistas pasados, los fondos solo fluirían dentro de unas pocas a una docena de cadenas públicas, incluso concentrándose principalmente en ethereum. ahora, los fondos están dispersos en cientos de cadenas públicas y apostados en miles de proyectos similares, lo que ha llevado a una disminución en la actividad en la cadena. incluso ethereum carece de actividad en la cadena. como resultado, los jugadores del este participan en pvp en el ecosistema de btc, mientras que los jugadores del oeste lo hacen en solana, por necesidad.

por lo tanto, mi enfoque actual está en cómo promover la liquidez agGretada en todas las cadenas y apoyar la aparición de nuevos estilos de juego y superaplicaciones. en el sector de interoperabilidad entre cadenas, los proyectos líderes tradicionales han rendido consistentemente por debajo, todavía se asemejan a puentes tradicionales entre cadenas. las nuevas soluciones de interoperabilidad que discutimos en informes anteriores tienen como objetivo principal aggreGar múltiples cadenas en una sola cadena. ejemplos incluyen agglayer, superchain, cadena elástica, jam, etc., que no se detallarán aquí. en resumen, la agregación entre cadenas es un obstáculo necesario en la infraestructura modular, pero tomará mucho tiempo superarlo.

Los coprocesadores zk son una pieza crítica en la fase actual. Pueden fortalecer la capa2 y complementar la capa1. ¿Existe una forma de superar temporalmente los problemas de intercambio cruzado y trilema, permitiéndonos realizar algunas aplicaciones de la era actual en ciertas capas1 o capas2 con amplia liquidez? Después de todo, las aplicaciones de cadena de bloques carecen de narrativas frescas. Además, permitir estilos de juego diversos, control de gas, aplicaciones a gran escala, capacidades de intercambio cruzado y reducir las barreras del usuario a través de soluciones integradas de coprocesador podrían ser más ideales que depender de la centralización.

iii. Descripción del proyecto

el campo de coprocesador zk surgió alrededor de 2023 y se ha vuelto relativamente maduro en esta etapa. según la clasificación de messari, este campo actualmente abarca tres dominios verticales principales (computación general, interoperabilidad y cross-chain, ai y machine training) con 18 proyectos. la mayoría de estos proyectos son apoyados por vcs líderes. a continuación, describimos varios proyectos de diferentes dominios verticales.

3.1 giza

Giza es un protocolo zkml (aprendizaje automático de conocimiento cero) desplegado en starknet, apoyado oficialmente por starkware. Se centra en permitir que los modelos de IA se utilicen de manera verificable en contratos inteligentes de blockchain. Los desarrolladores pueden implementar modelos de IA en la red de Giza, que luego verifica la corrección de la inferencia del modelo a través de pruebas de conocimiento cero y proporciona los resultados a los contratos inteligentes de manera confiable. Esto permite a los desarrolladores construir aplicaciones en cadena que combinen capacidades de IA manteniendo la descentralización y verificabilidad de la cadena de bloques.

giza completa el flujo de trabajo a través de los siguientes tres pasos:

  • conversión de modelo: giza convierte modelos de inteligencia artificial en formato onnx comúnmente utilizados en un formato que puede ejecutarse en un sistema de prueba de conocimiento cero. Esto permite a los desarrolladores entrenar modelos utilizando herramientas familiares y luego implementarlos en la red de giza.
  • inferencia fuera de la cadena: cuando un contrato inteligente solicita la inferencia del modelo de inteligencia artificial, Giza realiza el cálculo real fuera de la cadena. Esto evita los altos costos de ejecutar modelos de inteligencia artificial complejos directamente en la cadena de bloques.
  • verificación de conocimiento cero: giza genera pruebas zk para cada inferencia de modelo, demostrando que la computación se ejecutó correctamente. Estas pruebas se verifican en la cadena, asegurando la corrección de los resultados de inferencia sin repetir todo el proceso de computación en la cadena.

El enfoque de giza permite que los modelos de IA sirvan como fuentes de entrada confiables para contratos inteligentes sin depender de oráculos centralizados o entornos de ejecución confiables. Esto abre nuevas posibilidades para aplicaciones de cadena de bloques, como la gestión de activos basada en IA, detección de fraudes y fijación dinámica de precios. Es uno de los pocos proyectos en el espacio actual de web3 x IA con un bucle cerrado lógico y un uso inteligente de coprocesadores en el campo de la IA.

3.2 risc zero

RISC Zero es un proyecto de coprocesador líder compatible con varios VC de primer nivel. Se centra en permitir que cualquier cálculo se ejecute de forma verificable en contratos inteligentes de blockchain. Los desarrolladores pueden escribir programas en Rust y desplegarlos en la red RISCi Zero. A continuación, RISC Zero verifica la corrección de la ejecución del programa a través de pruebas de conocimiento cero y proporciona los resultados a los contratos inteligentes de forma fiable. Esto permite a los desarrolladores crear aplicaciones complejas en cadena mientras mantienen la descentralización y la verificabilidad de la cadena de bloques.

mencionamos brevemente la implementación y el flujo de trabajo anteriormente. aquí, detallamos dos componentes clave:

  • Bonsái: Bonsai es el componente del coprocesador dentro de RISC-Zero, perfectamente integrado en el ZKVM de la arquitectura del conjunto de instrucciones RISC-V. Permite a los desarrolladores integrar rápidamente pruebas de conocimiento cero de alto rendimiento en Ethereum, cadenas de bloques L1, cadenas de aplicaciones Cosmos, paquetes acumulativos L2 y dApps en cuestión de días. Ofrece llamadas directas a contratos inteligentes, computación verificable fuera de la cadena, interoperabilidad entre cadenas y funcionalidad general de acumulación, todo ello mientras adopta una arquitectura distribuida descentralizada. Combinando pruebas recursivas, compiladores de circuitos personalizados, continuación de estado y algoritmos de prueba de mejora continua, permite a cualquier persona generar pruebas de conocimiento cero de alto rendimiento para diversas aplicaciones.
  • ZKVM: El ZKVM es un ordenador verificable que funciona de forma similar a un microprocesador RISC-V embebido real. Basado en la arquitectura del conjunto de instrucciones RISC-V, permite a los desarrolladores escribir programas en lenguajes de programación de alto nivel como Rust, C ++, Solidity, Go, etcétera, que pueden generar pruebas de conocimiento cero. Compatible con más del 70% de las cajas de óxido populares, combina a la perfección la computación general y las pruebas de conocimiento cero, capaz de generar pruebas eficientes de conocimiento cero para cálculos de cualquier complejidad, manteniendo al mismo tiempo la privacidad del proceso de cálculo y la verificabilidad de los resultados. El ZKVM utiliza tecnologías ZK, incluidas Stark y Snark, y logra una generación y verificación de pruebas eficientes a través de componentes como Recursion Prover y Stark to Snark Prover, lo que admite la ejecución fuera de la cadena y la verificación en la cadena.

risc zero se ha integrado con múltiples soluciones de capa 2 de eth y ha demostrado varios casos de uso para bonsai. Un ejemplo interesante es bonsai pay. Esta demostración utiliza zkvm de risc zero y el servicio de prueba de bonsai, permitiendo a los usuarios enviar o retirar eth y tokens en ethereum usando sus cuentas de Google. Muestra cómo risc zero puede integrar de manera perfecta las aplicaciones on-chain con oauth2.0 (el estándar utilizado por importantes proveedores de identidad como Google), proporcionando un caso de uso que reduce la barrera de usuario web3 a través de aplicaciones web2 tradicionales. Otros ejemplos incluyen aplicaciones basadas en daos.

3.3 =nil;

=nil; es un proyecto de inversión respaldado por entidades reconocidas como mina, polychain, starkware y blockchain capital. Cabe destacar que pioneros en tecnología zk como mina y starkware se encuentran entre los patrocinadores, lo que indica un alto reconocimiento técnico para el proyecto. También se mencionó a =nil; en nuestro informe "El mercado de la potencia informática", centrándose principalmente en el mercado de pruebas (un mercado de generación de pruebas descentralizado). Además, =nil; tiene otro subproducto llamado zkllvm.

zkllvm, desarrollado por la fundación =nil;, es un compilador de circuitos innovador que convierte automáticamente el código de aplicación escrito en lenguajes de programación principales como c++ y rust en circuitos eficientes y demostrables para Ethereum sin la necesidad de lenguajes específicos de dominio de conocimiento nulo (dsl) especializados. Esto simplifica significativamente el proceso de desarrollo, reduce la barrera de entrada y mejora el rendimiento al evitar zkvm. Admite aceleración por hardware para acelerar la generación de pruebas, lo que lo hace adecuado para varios escenarios de aplicaciones zk como rollups, puentes entre cadenas, oráculos, aprendizaje automático y juegos. Está estrechamente integrado con el mercado de pruebas de =nil; foundation, brindando a los desarrolladores soporte integral desde la creación de circuitos hasta la generación de pruebas.

3.4 brevis

brevis es un subproyecto de celer network y es un coprocesador inteligente de conocimiento cero (zk) para blockchain, lo que permite a las dapps acceder, calcular y utilizar datos arbitrarios en múltiples blockchains de manera totalmente confiable. Al igual que otros coprocesadores, brevis tiene una amplia gama de casos de uso, como la defi impulsada por datos, los zkbridges, la adquisición de usuarios en cadena, zkdid y la abstracción de cuentas sociales en cadena.

La arquitectura brevis consta de tres componentes principales:

  • zkfabric: el zkfabric es el componente de relé de la arquitectura brevis. Su principal tarea es recopilar y sincronizar información de encabezado de bloque de todas las cadenas de bloques conectadas y luego generar pruebas de consenso para cada encabezado de bloque recopilado a través del circuito de cliente ligero zk.
  • zkquerynet: zkquerynet es un mercado abierto de motores de consulta zk que puede aceptar directamente consultas de datos de contratos inteligentes on-chain y generar resultados de consulta y pruebas de consulta zk correspondientes a través del circuito del motor de consulta zk. Estos motores van desde altamente especializados (por ejemplo, calcular el volumen de negociación de un dex durante un período específico) hasta abstracciones de indexación de datos altamente generales y lenguajes de consulta avanzados para satisfacer diversas necesidades de aplicación.
  • zkaggregatorrollup: sirve como la capa de agregación y almacenamiento para zkfabric y zkquerynet. verifica las pruebas de estos dos componentes, almacena los datos probados y envía las raíces de estado de sus pruebas zk a todas las cadenas de bloques conectadas, permitiendo a las dapps acceder directamente a los resultados de consulta probados en su lógica de contrato inteligente en la cadena.

con esta arquitectura modular, Brevis puede proporcionar a todos los contratos inteligentes públicos admitidos por la cadena de bloques un método de acceso confiable, eficiente y flexible. La versión v4 de Uni también adopta este proyecto e integra ganchos (un sistema para integrar varias lógicas personalizadas de usuario) para facilitar la lectura de datos históricos de la cadena de bloques, reducir las tarifas de gas y garantizar la descentralización. Este es un ejemplo de un coprocesador zk que promueve un dex.

3.5 lagrange

Lagrange es un protocolo de coprocesador zk de interoperabilidad liderado por 1kx y Founders Fund, principalmente destinado a proporcionar interoperabilidad trustless entre cadenas y apoyar aplicaciones que requieren cálculos de datos a gran escala. A diferencia de los puentes nodales tradicionales, la interoperabilidad entre cadenas de Lagrange se logra principalmente a través de sus innovadores mecanismos de grandes datos zk y de comité de estado.

  • zk big data: este es el producto principal de lagrange, responsable del procesamiento y verificación de datos entre cadenas y la generación de pruebas zk relacionadas. Este componente incluye un coprocesador zk altamente paralelo para ejecutar cálculos complejos fuera de la cadena y generar pruebas de conocimiento cero, una base de datos verificable especialmente diseñada que admite ranuras de almacenamiento ilimitadas y consultas sql directas desde contratos inteligentes, un mecanismo de actualización dinámica que solo actualiza puntos de datos cambiados para reducir el tiempo de prueba, y una función integrada que permite a los desarrolladores utilizar consultas sql directamente desde contratos inteligentes para acceder a datos históricos sin escribir circuitos complejos. Juntos, forman un sistema de procesamiento y verificación de datos de blockchain a gran escala.
  • comité estatal: este componente es una red de verificación descentralizada compuesta por múltiples nodos independientes, cada uno de los cuales apuesta eth como garantía. Estos nodos actúan como clientes ligeros zk que verifican específicamente el estado de ciertos rollups optimizados. El comité estatal se integra con avs de EigenLayer, aprovechando el mecanismo de re-apuesta para mejorar la seguridad, admitiendo un número ilimitado de nodos participantes para lograr un crecimiento de seguridad superlineal. También proporciona un 'modo rápido', que permite a los usuarios realizar operaciones entre cadenas sin esperar la ventana de desafío, mejorando en gran medida la experiencia del usuario. La combinación de estas dos tecnologías permite a Lagrange procesar eficientemente datos a gran escala, realizar cálculos complejos y transmitir y verificar resultados de manera segura en diferentes cadenas de bloques, lo que respalda el desarrollo de aplicaciones complejas entre cadenas.

lagrange ya se ha integrado con eigenlayer, mantle, base, frax, polymer, layerzero, omni, altlayer, entre otros, y será el primer zk avs en vincularse dentro del ecosistema de ethereum.

acerca de ybb

ybb es un fondo web3 que se dedica a identificar proyectos que definen web3 con la visión de crear un mejor hábitat en línea para todos los residentes de Internet. Fundada por un grupo de creyentes en blockchain que han participado activamente en esta industria desde 2013, ybb siempre está dispuesta a ayudar a los proyectos en etapa inicial a evolucionar de 0 a 1. Valoramos la innovación, la pasión autodirigida y los productos orientados al usuario, al tiempo que reconocemos el potencial de las criptomonedas y las aplicaciones blockchain.

Sitio web | Twi: @ybbcapital

referencias:

1.abcde: una inmersión profunda en el coprocesador zk y su futuro:https://medium.com/ABCDE.com/es-abcde-una-investigación-profunda-sobre-el-coprocesador-zk-y-su-futuro-1d1b3f33f946

2. "zk" es todo lo que necesitas:https://medium.com/gate_ventures/zk-es-todo-lo-que-necesitas-238886062c52

3. risc zero:https://www.risczero.com/bonsai

4.lagrange:https://www.lagrange.dev/blog/interoperability-for-modular-blockchains-the-lagrange-thesis

5.axiomblog:https://blog.axiom.xyz/

6. ¡Aceleración de nitrógeno! ¿Cómo el coprocesador zk rompe las barreras de los datos del contrato inteligente en la cadena de bloques Gate?https://foresightnews.pro/article/detail/48239

descargo de responsabilidad:

  1. Este artículo es una reimpresión de [medio], reenviar el título original 'la gpu de blockchain: análisis integral de coprocesadores zk', todos los derechos de autor pertenecen al autor original [investigador de ybb capital zeke]. Si hay objeciones a esta reproducción, por favor contacte al Gate aprenderequipo, y lo resolverán rápidamente.

  2. exención de responsabilidad: las opiniones expresadas en este artículo son únicamente las del autor y no constituyen ningún consejo de inversión.

  3. las traducciones del artículo a otros idiomas son realizadas por el equipo de aprendizaje de Gate. A menos que se mencione lo contrario, está prohibido copiar, distribuir o plagiar los artículos traducidos.

ابدأ التداول الآن
اشترك وتداول لتحصل على جوائز ذهبية بقيمة
100 دولار أمريكي
و
5500 دولارًا أمريكيًا
لتجربة الإدارة المالية الذهبية!