Las horribles ineficiencias de las cadenas de bloques monolíticas

Intermedio1/4/2024, 10:35:03 AM
Este artículo analiza los desafíos que enfrenta blockchain y las tecnologías propuestas para abordar estos desafíos: prueba de validez y muestreo de disponibilidad de datos.

Nada aquí es nuevo y, de hecho, he repetido todo esto hasta la saciedad en 2021. Además, es completamente absurdo que la industria esté obsesionada principalmente con la infraestructura hoy en día, cuando hay docenas, si no cientos, de L1 y L2 por igual que apenas tienen utilización no spam después de años de estar activas. Sin mencionar el crecimiento exponencial del suministro de espacio de bloques entrante en 2024, 2025 y más allá con un suministro básicamente infinito de disponibilidad de datos (con diferentes propiedades). El abrumador cuello de botella han sido las aplicaciones y la incorporación de usuarios desde hace más de un par de años, y cada día que pasa la brecha entre la demanda y la oferta se hace más grande. (Apéndice: Lo peor aún es que se descuidan por completo las aplicaciones valiosas que han demostrado adaptarse al mercado de productos). Francamente, he renunciado a esta industria, pero de todos modos seguiré intentándolo a mi manera a través de publicaciones ocasionales en el blog.

No he mencionado ni una sola L1 o L2 en esta publicación; me importan un carajo tus peleas insignificantes e inútiles con los portabolsas, así que, por favor, no me metas en eso. Solo estoy aquí para decirles por qué las cadenas de bloques monolíticas son una tecnología terriblemente mala y por qué hay una tecnología mucho mejor a la que actualizar.

Así es como defino las cadenas monolíticas: cadenas de bloques donde cada usuario tiene que reprocesar ingenuamente todas las transacciones para verificar la integridad. Cuantas más transacciones procese la red, mayores serán los requisitos de hardware de todos. Cuantos más nodos haya en la red, más ineficiente y lenta se volverá; o, alternativamente, se limita la accesibilidad para que muy pocas personas en muy pocos lugares puedan administrar nodos independientes y sin subsidio, lo que efectivamente conduce a una distopía que es infinitamente más centralizada que las finanzas tradicionales. Hay una gran cantidad de otros desafíos que se han puesto de relieve a lo largo de años y décadas, y que en última instancia resultan en insostenibilidad social, técnica y económica. He escrito un contenido digno de un libro sobre sostenibilidad, así que lo guardaré aquí.

Digamos que tienes 10.000 nodos en una red. En mi opinión, esto no es suficiente y deberíamos esforzarnos por tener 100.000 nodos en diferentes tipos de lugares en todo el mundo. Necesitamos nodos en hogares, escuelas, oficinas gubernamentales: en las grandes ciudades, en los pueblos, en Chile, en Papua Nueva Guinea y, eventualmente, en el espacio. Todo el sentido de una cadena de bloques pública se pierde si no se resiste a los peores escenarios. Es demasiado fácil ser complaciente con el escenario optimista y fracasar en el mismo momento en que se supone que las cadenas de bloques son la ampolla de Galadriel. Pero yo divago.

Entonces, digamos que tienes 100.000 nodos al final del juego: cada uno tiene que reprocesar todas las transacciones. La sobrecarga de la red es 100.000x de inmediato, sin mencionar que está consumiendo cantidades increíbles de ancho de banda para asegurarse de que los 100.000 nodos estén sincronizados. Esto es terriblemente ineficiente.

No, los clientes ligeros tradicionales no son la solución. En primer lugar, los clientes ligeros tradicionales no son confiables, pero lo más importante es que aún se necesita una cohorte significativa de nodos que reprocesen todas las transacciones para verificar la integridad.

Afortunadamente, existen soluciones para hacer las cosas miles de veces más eficientes. Las dos tecnologías clave son las pruebas de validez y el muestreo de disponibilidad de datos. No se equivoque, cada escala de búsqueda monolítica de blockchain se actualizará a tecnología como pruebas de validez y muestreo de disponibilidad de datos o correrá el riesgo de quedar obsoleta. (Nota: por supuesto, también tenemos pruebas de fraude, pero me centraré en las pruebas de validez)

He discutido extensamente porqué las pruebas de validez son una actualización crítica y obvia para todas las cadenas de bloques monolíticas , pero aquí está la esencia:

1. Puede aumentar los requisitos del sistema, por lo que una capa de ejecución con validez comprobada es necesariamente más rápida que una capa de ejecución monolítica equivalente.

2. Una prueba de validez de 1 MB de tamaño puede representar la integridad de millones de transacciones que de otro modo habrían requerido miles de supercomputadoras y GB de sincronización de ancho de banda en miles de nodos. Esto permite que las capas de ejecución con validez probada tengan potencialmente latencias significativamente más bajas que una capa de ejecución monolítica equivalente, ya que los nodos de verificación solo necesitan sincronizarse y procesar una prueba sucinta.

3. Por último, y de manera crucial, en lugar de requerir una conexión ilimitada de 10 Gbps con una supercomputadora, el usuario promedio ahora puede verificar la integridad de un teléfono móvil a través de 4G.

4. Hay muchos otros beneficios de las capas de ejecución comprobadas con validez: la posibilidad de privacidad, por ejemplo. Pero quizás lo más interesante es que se puede multiplicar el rendimiento manteniendo la componibilidad atómica y sin fragmentar la liquidez. Entonces, digamos que una capa de ejecución monolítica alcanza un máximo de 1000 TPS. La capa de ejecución equivalente de validez comprobada puede llevar eso a 2000 TPS o más. Y luego podrás tener 100 más de estas cadenas agregando pruebas. Ha pasado de 1000 TPS a 200 000 TPS mientras que el costo de verificación se ha reducido significativamente. Más importante aún, el costo general de la infraestructura de la red es ahora infinitamente más eficiente.

Pero, por supuesto, si bien las pruebas de validez pueden comprimir muchos cálculos y datos, todavía necesitamos algunos datos sin procesar. Y aquí es donde entra en juego el muestreo de disponibilidad de datos. En este sistema, cuantos más nodos tenga, más datos podrá procesar, minimizando efectivamente el ancho de banda como cuello de botella y engañando a la velocidad de la luz. Por lo tanto, puede escalar mucho más allá de lo que ofrecerá una cadena de bloques monolítica. Sin embargo, no voy a dedicar mucho tiempo a DAS porque este no será el cuello de botella, tal vez nunca.

Entonces, ¿cuáles son los inconvenientes?

Primero, permítanme abordar los inconvenientes:

1.Costo: las capas de ejecución con validez probada y las capas de datos probadas por DAS tienen un costo inicial para generar las pruebas, sin embargo, son órdenes de magnitud más baratas debido a un costo fraccionario para verificar dichas pruebas. Para una red con 100.000 nodos, por ejemplo, los costos de toda la red serán al menos 50.000 veces más baratos. Además, el coste de las pruebas de validez sigue cayendo en picado, hasta el punto de que incluso algo tan complejo como zkEVM era trivial hace casi un año. Finalmente, el mayor costo en las cadenas de bloques públicas es en realidad la resistencia de Sybil por la seguridad económica, que es otro beneficio fenomenal de las pruebas de validez: ahora puedes tener básicamente un número infinito de cadenas que comparten seguridad, en lugar de fragmentarla hasta el punto de que cada cadena básicamente no tenga seguridad.

2.Latencia: la generación de pruebas es muy paralelizable. De hecho, debido a que hay que gestionar una fracción de los datos, dado que el ancho de banda suele ser el cuello de botella y las cadenas de bloques monolíticas dedican tanto tiempo a hacerlo, las latencias pueden incluso disminuir a medida que la tecnología madura.

3.Complejidad: Cada paso adelante en la tecnología requiere complejidad, siempre lo ha hecho y siempre lo hará. Si algo supone un aumento de 1.000.000 de veces en eficiencia, el enfoque correcto siempre es dominar la complejidad, probarla en batalla, no simplemente darse por vencido y enfrentarse a la tecnología antigua. De lo contrario, aquellos que lo hagan quedarán obsoletos.

Desmentiendo algunas dicotomías más falsas:

1.Tanto las capas de ejecución monolíticas como las de validez comprobada se benefician de la optimización a nivel de VM, paralelización y cliente, y de un hardware más rápido. De hecho, las capas de ejecución con validez probada se benefician más de un hardware y una paralelización más rápidos, debido a a) la especialización de los constructores; y b) generación de pruebas. Con las pruebas de validez, también puede tener una experimentación mucho mayor y una innovación rápida, donde las capas de ejecución pueden especializarse en la ejecución. Esto es particularmente útil para cadenas de aplicaciones específicas.

2. No se trata de una escala horizontal frente a una escala vertical. Las capas de ejecución de validez comprobada le brindan escalamiento horizontal y vertical simultáneamente. Así es como se ve la verdadera paralelización. Paralelización para cada cadena x paralelización entre cadenas.

3. La “integración” no es propiedad de las pruebas monolíticas o de validez. Ambos pueden integrarse en L1 sin compromisos, o pueden separarse en L2. Hay más de un proyecto que ya hace esto, no voy a nombrarlo como se mencionó anteriormente. De hecho, para un ecosistema saludable, necesita capas de ejecución con validez comprobada tanto en los niveles L1 como L2, ya que tienen sus propios beneficios e inconvenientes. La elección siempre es genial.

4. Las pruebas de validez no solo pueden conservar la componibilidad, sino que es la mejor manera de hacerlo entre cadenas. De hecho, es muy probable que las cadenas monolíticas nunca se crucen entre sí y siempre fragmenten la liquidez; Mientras tanto, tenemos múltiples proyectos que construyen cadenas comprobadas de validez de distribución de liquidez y composición cruzada.

El verdadero inconveniente:

Momento: La tecnología de próxima generación, como las pruebas de validez y el muestreo de disponibilidad de datos, llevará tiempo, más de lo que esperaba. Pero cada día se logran avances constantes y ahora tenemos múltiples soluciones en producción y se incorporarán más en los próximos años. Aunque no sé cuánto tiempo llevará, la proliferación de pruebas de validez ya ha comenzado y es inevitable.

Mire, está perfectamente bien tener una cadena de bloques monolítica hoy en día; la tecnología para superar sus limitaciones paralizantes no existía hace 5 años. Pero también es imperativo reconocer la realidad de que la tecnología de próxima generación, como las pruebas de validez y el muestreo de disponibilidad de datos, llegaron para quedarse, y todo el mundo blockchain inevitablemente convergerá en este diseño que tiene tanto sentido. Apuesto a que cada proyecto monolítico de cadena de bloques que se precie está investigando pruebas de validez, y aquellos que estén más avanzados en esto cosecharán las recompensas, mientras que los rezagados que aún iluminan a la comunidad criptográfica al descartar los beneficios masivos de las pruebas de validez tendrán un momento muy difícil en el futuro. En su lugar, simplemente adopte la nueva tecnología.

Esta es la única forma actualmente conocida para que el mundo blockchain alcance nuestro objetivo final a escala global, todo verificado en nuestros teléfonos móviles. Las cadenas de bloques monolíticas NO PUEDEN hacer ninguna de las dos cosas, ni escalar ni verificar.

A menos que no necesites escala, por supuesto, como Bitcoin.

Terminaré diciendo, una vez más, que toda esta publicación es totalmente inútil y que me siento completamente avergonzado por permitirme esta discusión con esta publicación. Entonces, volveré a hablar de las cosas que realmente importan: aplicaciones, gobernanza, UX e incorporación.

Descargo de responsabilidad:

  1. Este artículo se reimprime de [polynya]. Todos los derechos de autor pertenecen al autor original [polynya]. Si hay objeciones a esta reimpresión, comuníquese con el equipo de Gate Learn y ellos lo manejarán de inmediato.
  2. Descargo de responsabilidad: los puntos de vista y opiniones expresados en este artículo son únicamente los del autor y no constituyen ningún consejo de inversión.
  3. Las traducciones del artículo a otros idiomas están a cargo del equipo de Gate Learn. A menos que se mencione, está prohibido copiar, distribuir o plagiar los artículos traducidos.

Las horribles ineficiencias de las cadenas de bloques monolíticas

Intermedio1/4/2024, 10:35:03 AM
Este artículo analiza los desafíos que enfrenta blockchain y las tecnologías propuestas para abordar estos desafíos: prueba de validez y muestreo de disponibilidad de datos.

Nada aquí es nuevo y, de hecho, he repetido todo esto hasta la saciedad en 2021. Además, es completamente absurdo que la industria esté obsesionada principalmente con la infraestructura hoy en día, cuando hay docenas, si no cientos, de L1 y L2 por igual que apenas tienen utilización no spam después de años de estar activas. Sin mencionar el crecimiento exponencial del suministro de espacio de bloques entrante en 2024, 2025 y más allá con un suministro básicamente infinito de disponibilidad de datos (con diferentes propiedades). El abrumador cuello de botella han sido las aplicaciones y la incorporación de usuarios desde hace más de un par de años, y cada día que pasa la brecha entre la demanda y la oferta se hace más grande. (Apéndice: Lo peor aún es que se descuidan por completo las aplicaciones valiosas que han demostrado adaptarse al mercado de productos). Francamente, he renunciado a esta industria, pero de todos modos seguiré intentándolo a mi manera a través de publicaciones ocasionales en el blog.

No he mencionado ni una sola L1 o L2 en esta publicación; me importan un carajo tus peleas insignificantes e inútiles con los portabolsas, así que, por favor, no me metas en eso. Solo estoy aquí para decirles por qué las cadenas de bloques monolíticas son una tecnología terriblemente mala y por qué hay una tecnología mucho mejor a la que actualizar.

Así es como defino las cadenas monolíticas: cadenas de bloques donde cada usuario tiene que reprocesar ingenuamente todas las transacciones para verificar la integridad. Cuantas más transacciones procese la red, mayores serán los requisitos de hardware de todos. Cuantos más nodos haya en la red, más ineficiente y lenta se volverá; o, alternativamente, se limita la accesibilidad para que muy pocas personas en muy pocos lugares puedan administrar nodos independientes y sin subsidio, lo que efectivamente conduce a una distopía que es infinitamente más centralizada que las finanzas tradicionales. Hay una gran cantidad de otros desafíos que se han puesto de relieve a lo largo de años y décadas, y que en última instancia resultan en insostenibilidad social, técnica y económica. He escrito un contenido digno de un libro sobre sostenibilidad, así que lo guardaré aquí.

Digamos que tienes 10.000 nodos en una red. En mi opinión, esto no es suficiente y deberíamos esforzarnos por tener 100.000 nodos en diferentes tipos de lugares en todo el mundo. Necesitamos nodos en hogares, escuelas, oficinas gubernamentales: en las grandes ciudades, en los pueblos, en Chile, en Papua Nueva Guinea y, eventualmente, en el espacio. Todo el sentido de una cadena de bloques pública se pierde si no se resiste a los peores escenarios. Es demasiado fácil ser complaciente con el escenario optimista y fracasar en el mismo momento en que se supone que las cadenas de bloques son la ampolla de Galadriel. Pero yo divago.

Entonces, digamos que tienes 100.000 nodos al final del juego: cada uno tiene que reprocesar todas las transacciones. La sobrecarga de la red es 100.000x de inmediato, sin mencionar que está consumiendo cantidades increíbles de ancho de banda para asegurarse de que los 100.000 nodos estén sincronizados. Esto es terriblemente ineficiente.

No, los clientes ligeros tradicionales no son la solución. En primer lugar, los clientes ligeros tradicionales no son confiables, pero lo más importante es que aún se necesita una cohorte significativa de nodos que reprocesen todas las transacciones para verificar la integridad.

Afortunadamente, existen soluciones para hacer las cosas miles de veces más eficientes. Las dos tecnologías clave son las pruebas de validez y el muestreo de disponibilidad de datos. No se equivoque, cada escala de búsqueda monolítica de blockchain se actualizará a tecnología como pruebas de validez y muestreo de disponibilidad de datos o correrá el riesgo de quedar obsoleta. (Nota: por supuesto, también tenemos pruebas de fraude, pero me centraré en las pruebas de validez)

He discutido extensamente porqué las pruebas de validez son una actualización crítica y obvia para todas las cadenas de bloques monolíticas , pero aquí está la esencia:

1. Puede aumentar los requisitos del sistema, por lo que una capa de ejecución con validez comprobada es necesariamente más rápida que una capa de ejecución monolítica equivalente.

2. Una prueba de validez de 1 MB de tamaño puede representar la integridad de millones de transacciones que de otro modo habrían requerido miles de supercomputadoras y GB de sincronización de ancho de banda en miles de nodos. Esto permite que las capas de ejecución con validez probada tengan potencialmente latencias significativamente más bajas que una capa de ejecución monolítica equivalente, ya que los nodos de verificación solo necesitan sincronizarse y procesar una prueba sucinta.

3. Por último, y de manera crucial, en lugar de requerir una conexión ilimitada de 10 Gbps con una supercomputadora, el usuario promedio ahora puede verificar la integridad de un teléfono móvil a través de 4G.

4. Hay muchos otros beneficios de las capas de ejecución comprobadas con validez: la posibilidad de privacidad, por ejemplo. Pero quizás lo más interesante es que se puede multiplicar el rendimiento manteniendo la componibilidad atómica y sin fragmentar la liquidez. Entonces, digamos que una capa de ejecución monolítica alcanza un máximo de 1000 TPS. La capa de ejecución equivalente de validez comprobada puede llevar eso a 2000 TPS o más. Y luego podrás tener 100 más de estas cadenas agregando pruebas. Ha pasado de 1000 TPS a 200 000 TPS mientras que el costo de verificación se ha reducido significativamente. Más importante aún, el costo general de la infraestructura de la red es ahora infinitamente más eficiente.

Pero, por supuesto, si bien las pruebas de validez pueden comprimir muchos cálculos y datos, todavía necesitamos algunos datos sin procesar. Y aquí es donde entra en juego el muestreo de disponibilidad de datos. En este sistema, cuantos más nodos tenga, más datos podrá procesar, minimizando efectivamente el ancho de banda como cuello de botella y engañando a la velocidad de la luz. Por lo tanto, puede escalar mucho más allá de lo que ofrecerá una cadena de bloques monolítica. Sin embargo, no voy a dedicar mucho tiempo a DAS porque este no será el cuello de botella, tal vez nunca.

Entonces, ¿cuáles son los inconvenientes?

Primero, permítanme abordar los inconvenientes:

1.Costo: las capas de ejecución con validez probada y las capas de datos probadas por DAS tienen un costo inicial para generar las pruebas, sin embargo, son órdenes de magnitud más baratas debido a un costo fraccionario para verificar dichas pruebas. Para una red con 100.000 nodos, por ejemplo, los costos de toda la red serán al menos 50.000 veces más baratos. Además, el coste de las pruebas de validez sigue cayendo en picado, hasta el punto de que incluso algo tan complejo como zkEVM era trivial hace casi un año. Finalmente, el mayor costo en las cadenas de bloques públicas es en realidad la resistencia de Sybil por la seguridad económica, que es otro beneficio fenomenal de las pruebas de validez: ahora puedes tener básicamente un número infinito de cadenas que comparten seguridad, en lugar de fragmentarla hasta el punto de que cada cadena básicamente no tenga seguridad.

2.Latencia: la generación de pruebas es muy paralelizable. De hecho, debido a que hay que gestionar una fracción de los datos, dado que el ancho de banda suele ser el cuello de botella y las cadenas de bloques monolíticas dedican tanto tiempo a hacerlo, las latencias pueden incluso disminuir a medida que la tecnología madura.

3.Complejidad: Cada paso adelante en la tecnología requiere complejidad, siempre lo ha hecho y siempre lo hará. Si algo supone un aumento de 1.000.000 de veces en eficiencia, el enfoque correcto siempre es dominar la complejidad, probarla en batalla, no simplemente darse por vencido y enfrentarse a la tecnología antigua. De lo contrario, aquellos que lo hagan quedarán obsoletos.

Desmentiendo algunas dicotomías más falsas:

1.Tanto las capas de ejecución monolíticas como las de validez comprobada se benefician de la optimización a nivel de VM, paralelización y cliente, y de un hardware más rápido. De hecho, las capas de ejecución con validez probada se benefician más de un hardware y una paralelización más rápidos, debido a a) la especialización de los constructores; y b) generación de pruebas. Con las pruebas de validez, también puede tener una experimentación mucho mayor y una innovación rápida, donde las capas de ejecución pueden especializarse en la ejecución. Esto es particularmente útil para cadenas de aplicaciones específicas.

2. No se trata de una escala horizontal frente a una escala vertical. Las capas de ejecución de validez comprobada le brindan escalamiento horizontal y vertical simultáneamente. Así es como se ve la verdadera paralelización. Paralelización para cada cadena x paralelización entre cadenas.

3. La “integración” no es propiedad de las pruebas monolíticas o de validez. Ambos pueden integrarse en L1 sin compromisos, o pueden separarse en L2. Hay más de un proyecto que ya hace esto, no voy a nombrarlo como se mencionó anteriormente. De hecho, para un ecosistema saludable, necesita capas de ejecución con validez comprobada tanto en los niveles L1 como L2, ya que tienen sus propios beneficios e inconvenientes. La elección siempre es genial.

4. Las pruebas de validez no solo pueden conservar la componibilidad, sino que es la mejor manera de hacerlo entre cadenas. De hecho, es muy probable que las cadenas monolíticas nunca se crucen entre sí y siempre fragmenten la liquidez; Mientras tanto, tenemos múltiples proyectos que construyen cadenas comprobadas de validez de distribución de liquidez y composición cruzada.

El verdadero inconveniente:

Momento: La tecnología de próxima generación, como las pruebas de validez y el muestreo de disponibilidad de datos, llevará tiempo, más de lo que esperaba. Pero cada día se logran avances constantes y ahora tenemos múltiples soluciones en producción y se incorporarán más en los próximos años. Aunque no sé cuánto tiempo llevará, la proliferación de pruebas de validez ya ha comenzado y es inevitable.

Mire, está perfectamente bien tener una cadena de bloques monolítica hoy en día; la tecnología para superar sus limitaciones paralizantes no existía hace 5 años. Pero también es imperativo reconocer la realidad de que la tecnología de próxima generación, como las pruebas de validez y el muestreo de disponibilidad de datos, llegaron para quedarse, y todo el mundo blockchain inevitablemente convergerá en este diseño que tiene tanto sentido. Apuesto a que cada proyecto monolítico de cadena de bloques que se precie está investigando pruebas de validez, y aquellos que estén más avanzados en esto cosecharán las recompensas, mientras que los rezagados que aún iluminan a la comunidad criptográfica al descartar los beneficios masivos de las pruebas de validez tendrán un momento muy difícil en el futuro. En su lugar, simplemente adopte la nueva tecnología.

Esta es la única forma actualmente conocida para que el mundo blockchain alcance nuestro objetivo final a escala global, todo verificado en nuestros teléfonos móviles. Las cadenas de bloques monolíticas NO PUEDEN hacer ninguna de las dos cosas, ni escalar ni verificar.

A menos que no necesites escala, por supuesto, como Bitcoin.

Terminaré diciendo, una vez más, que toda esta publicación es totalmente inútil y que me siento completamente avergonzado por permitirme esta discusión con esta publicación. Entonces, volveré a hablar de las cosas que realmente importan: aplicaciones, gobernanza, UX e incorporación.

Descargo de responsabilidad:

  1. Este artículo se reimprime de [polynya]. Todos los derechos de autor pertenecen al autor original [polynya]. Si hay objeciones a esta reimpresión, comuníquese con el equipo de Gate Learn y ellos lo manejarán de inmediato.
  2. Descargo de responsabilidad: los puntos de vista y opiniones expresados en este artículo son únicamente los del autor y no constituyen ningún consejo de inversión.
  3. Las traducciones del artículo a otros idiomas están a cargo del equipo de Gate Learn. A menos que se mencione, está prohibido copiar, distribuir o plagiar los artículos traducidos.
Mulai Sekarang
Daftar dan dapatkan Voucher
$100
!
It seems that you are attempting to access our services from a Restricted Location where Gate.io is unable to provide services. We apologize for any inconvenience this may cause. Currently, the Restricted Locations include but not limited to: the United States of America, Canada, Cambodia, Cuba, Iran, North Korea and so on. For more information regarding the Restricted Locations, please refer to the User Agreement. Should you have any other questions, please contact our Customer Support Team.