Anteriormente discutimos cómo la IA y Web3 pueden complementarse entre sí en industrias verticales como redes computacionales, plataformas intermediarias y aplicaciones de consumo. Al centrarnos en los recursos de datos como un campo vertical, los nuevos proyectos web ofrecen nuevas posibilidades para la adquisición, intercambio y utilización de datos.
Los datos se han convertido en el principal impulsor de la innovación y la toma de decisiones en todas las industrias. UBS predice que el volumen de datos a nivel mundial se multiplicará por diez desde 2020 hasta 2030, alcanzando los 660 ZB. Para 2025, se espera que cada individuo genere 463 EB (exabytes, 1 EB = 1 mil millones de GB) de datos diariamente a nivel global. El mercado de Datos como Servicio (DaaS) está creciendo rápidamente. Según Grand View Research, el mercado mundial de DaaS tuvo un valor de $14.36 mil millones en 2023 y se espera que crezca a una tasa de crecimiento anual compuesta (CAGR) del 28.1%, alcanzando los $76.8 mil millones para 2030.
El entrenamiento del modelo de IA depende en gran medida de conjuntos de datos grandes para identificar patrones y ajustar parámetros. Después del entrenamiento, también se necesitan conjuntos de datos para probar el rendimiento y las capacidades de generalización de los modelos. Además, los agentes de IA, como formas de aplicación inteligente emergentes, requieren fuentes de datos en tiempo real y fiables para garantizar una toma de decisiones precisa y una ejecución de tareas.
(Fuente: Leewayhertz)
La demanda de análisis empresarial también se está volviendo más diversa y generalizada, sirviendo como una herramienta clave que impulsa la innovación empresarial. Por ejemplo, las plataformas de redes sociales y las empresas de investigación de mercado necesitan datos confiables sobre el comportamiento de los usuarios para formular estrategias y analizar tendencias, integrando datos diversos de múltiples plataformas sociales para construir una imagen más completa.
Para el ecosistema Web3, también se necesita en cadena datos fiables y auténticos para respaldar nuevos productos financieros. A medida que se tokenizan más activos innovadores, se requieren interfaces de datos flexibles y fiables para respaldar el desarrollo de productos y la gestión de riesgos, lo que permite que los contratos inteligentes se ejecuten en función de datos verificables en tiempo real.
Además, los casos de uso en la investigación científica, IoT y otros campos destacan la demanda creciente y vertiginosa de datos diversos, auténticos y en tiempo real. Los sistemas tradicionales pueden tener dificultades para hacer frente al volumen de datos en rápido crecimiento y a las demandas cambiantes.
Un ecosistema de datos típico incluye la recolección, almacenamiento, procesamiento, análisis y aplicación de datos. Los modelos centralizados se caracterizan por la recolección y almacenamiento centralizados de datos, gestionados por un equipo central de IT con un estricto control de acceso. Por ejemplo, el ecosistema de datos de Google abarca diversas fuentes de datos como los motores de búsqueda, Gmail y el sistema operativo Android. Estas plataformas recopilan datos de usuarios, los almacenan en centros de datos distribuidos globalmente y los procesan utilizando algoritmos para respaldar el desarrollo y la optimización de varios productos y servicios.
En los mercados financieros, LSEG (anteriormente Refinitiv) recopila datos en tiempo real e históricos de bolsas globales, bancos y principales instituciones financieras, mientras utiliza su red de noticias Reuters News para recopilar noticias relacionadas con el mercado. Procesan esta información utilizando algoritmos y modelos patentados para generar análisis y productos de evaluación de riesgos como servicios de valor agregado.
(Fuente: kdnuggets.com)
Si bien la arquitectura de datos tradicional es efectiva en los servicios profesionales, las limitaciones de los modelos centralizados están volviéndose cada vez más evidentes, especialmente en la cobertura de fuentes de datos emergentes, transparencia y protección de la privacidad del usuario. A continuación se presentan algunos problemas clave:
Por ejemplo, el evento GameStop de 2021 reveló las limitaciones de los proveedores tradicionales de datos financieros para analizar el sentimiento en las redes sociales. El sentimiento de los inversores en plataformas como Reddit influyó rápidamente en las tendencias del mercado, pero las terminales de datos como Bloomberg y Reuters no lograron capturar estas dinámicas a tiempo, lo que llevó a pronósticos de mercado retrasados.
Más allá de estos problemas, los proveedores de datos tradicionales enfrentan desafíos relacionados con la eficiencia de costos y la flexibilidad. Aunque están abordando activamente estos problemas, las tecnologías emergentes Web3 ofrecen nuevas perspectivas y posibilidades para abordarlos.
Desde el lanzamiento de soluciones de almacenamiento descentralizado como IPFS (Sistema de Archivos Interplanetarios) en 2014, una serie de proyectos emergentes han apuntado a abordar las limitaciones de los ecosistemas tradicionales de datos. Las soluciones de datos descentralizados se han convertido en un ecosistema interconectado de múltiples capas que abarca todas las etapas del ciclo de vida de los datos, incluyendo la generación de datos, almacenamiento, intercambio, procesamiento y análisis, verificación y seguridad, así como privacidad y propiedad.
A medida que aumenta el intercambio y la utilización de datos, asegurar la autenticidad, credibilidad y privacidad se ha vuelto crítico. Esto impulsa al ecosistema Web3 a innovar en la verificación de datos y la protección de la privacidad, lo que lleva a soluciones innovadoras.
Muchas tecnologías Web3 y proyectos nativos se centran en abordar problemas de autenticidad de datos y protección de la privacidad. Más allá de la adopción generalizada de tecnologías como Pruebas de Conocimiento Cero (ZK) y Computación Multi-Parte (MPC), TLS Notary ha surgido como un método de verificación nuevo y notable.
Introducción a TLS Notary
El protocolo de seguridad de la capa de transporte (TLS) es un protocolo de cifrado ampliamente utilizado para las comunicaciones en red. Su principal objetivo es garantizar la seguridad, integridad y confidencialidad de la transmisión de datos entre un cliente y un servidor. TLS es un estándar común de cifrado en las comunicaciones de red modernas, aplicado en escenarios como HTTPS, correo electrónico y mensajería instantánea.
(Principios de cifrado TLS, Fuente: TechTarget)
Cuando TLS Notary se introdujo por primera vez hace una década, su objetivo era verificar la autenticidad de las sesiones de TLS mediante la introducción de un "notario" externo al cliente (probador) y al servidor.
Utilizando la tecnología de división de claves, la clave maestra de una sesión TLS se divide en dos partes, que se mantienen separadas por el cliente y el notario. Este diseño permite que el notario participe como un tercero de confianza en el proceso de verificación sin acceder al contenido real de la comunicación. Este mecanismo tiene como objetivo detectar ataques de intermediarios, prevenir certificados fraudulentos y asegurar que los datos de comunicación no sean manipulados durante la transmisión. También permite a terceros de confianza confirmar la legitimidad de las comunicaciones mientras se protege la privacidad.
Así, TLS Notary ofrece verificación segura de datos y equilibra de manera efectiva las necesidades de verificación con la protección de la privacidad.
En 2022, el proyecto TLS Notary fue reestructurado por el laboratorio de investigación de privacidad y escalabilidad (PSE) de la Fundación Ethereum. La nueva versión del protocolo TLS Notary fue reescrita desde cero en el lenguaje de programación Rust e integrada con protocolos criptográficos más avanzados como MPC. Estas actualizaciones permiten a los usuarios demostrar la autenticidad de los datos recibidos de un servidor a un tercero sin revelar el contenido de los datos. Si bien mantiene sus capacidades de verificación central, el nuevo TLS Notary mejora significativamente la protección de la privacidad, lo que lo hace más adecuado para los requisitos actuales y futuros de privacidad de los datos.
En los últimos años, la tecnología de Notario TLS ha seguido evolucionando, lo que ha dado lugar a diversas derivaciones que mejoran aún más su privacidad y capacidades de verificación:
Los proyectos Web3 aprovechan estas tecnologías criptográficas para mejorar la verificación de datos y la protección de la privacidad, abordando problemas como los monopolios de datos, los silos y la transmisión confiable. Los usuarios pueden verificar de forma segura la propiedad de cuentas de redes sociales, registros de compras para préstamos financieros, historial crediticio bancario, antecedentes profesionales y credenciales académicas sin comprometer su privacidad. Algunos ejemplos incluyen:
(Proyectos trabajando en Oráculos TLS, Fuente: Bastian Wetzel)
La verificación de datos en Web3 es un eslabón esencial en el ecosistema de datos, con vastas perspectivas de aplicación. El florecimiento de este ecosistema está guiando la economía digital hacia un modelo más abierto, dinámico y centrado en el usuario. Sin embargo, el desarrollo de tecnologías de verificación de autenticidad es solo el comienzo de la construcción de infraestructuras de datos de próxima generación.
Algunos proyectos han combinado las tecnologías de verificación de datos mencionadas anteriormente con una mayor exploración de los ecosistemas de datos aguas arriba, como la trazabilidad de datos, la recolección de datos distribuidos y la transmisión confiable. A continuación, destacamos tres proyectos representativos—OpenLayer, Grass y Vana—que muestran un potencial único en la construcción de infraestructura de datos de próxima generación.
OpenLayer, uno de los proyectos del acelerador de startups a16z Crypto 2024 Spring, es la primera capa de datos auténtica modular. Su objetivo es proporcionar una solución modular innovadora para coordinar la recopilación, verificación y transformación de datos, abordando las necesidades tanto de las empresas Web2 como de las Web3. OpenLayer ha recibido el apoyo de fondos de renombre e inversores ángeles, incluyendo Geometry Ventures y LongHash Ventures.
Las capas de datos tradicionales enfrentan múltiples desafíos: falta de mecanismos de verificación confiables, dependencia de arquitecturas centralizadas que limitan la accesibilidad, falta de interoperabilidad y flujo entre diferentes sistemas, y la ausencia de mecanismos justos de distribución de valor de datos.
Un problema más específico es la creciente escasez de datos de entrenamiento para la IA. En internet público, muchos sitios web ahora implementan medidas antidescarga para evitar la descarga masiva de datos por parte de empresas de IA. En datos propietarios privados, la situación es aún más compleja. Los datos valiosos a menudo se almacenan en forma protegida debido a su naturaleza sensible, careciendo de mecanismos de incentivos efectivos. Los usuarios no pueden monetizar de forma segura sus datos privados y, por lo tanto, son reacios a compartir información sensible.
Para abordar estos problemas, OpenLayer combina tecnologías de verificación de datos para construir una Capa de Datos Auténtica Modular. A través de la descentralización y los incentivos económicos, coordina los procesos de recopilación, verificación y transformación de datos, proporcionando una infraestructura de datos más segura, eficiente y flexible para las empresas de Web2 y Web3.
OpenLayer proporciona una plataforma modular que simplifica la recopilación de datos, la verificación confiable y los procesos de transformación.
a) OpenNodes
Los OpenNodes son los componentes principales responsables de la recopilación descentralizada de datos en el ecosistema de OpenLayer. A través de aplicaciones móviles, extensiones de navegador y otros canales, los usuarios pueden recopilar datos. Los diferentes operadores/nodos pueden optimizar sus recompensas realizando tareas que se adapten mejor a sus especificaciones de hardware.
OpenNodes admite tres tipos principales de datos:
Los desarrolladores pueden agregar fácilmente nuevos tipos de datos, especificar fuentes de datos y definir requisitos y métodos de recuperación. Los usuarios pueden proporcionar datos anonimizados a cambio de recompensas. Este diseño permite que el sistema se expanda continuamente para satisfacer nuevas demandas de datos. Las diversas fuentes de datos hacen que OpenLayer sea adecuado para varios escenarios de aplicación y reduzcan el umbral para la provisión de datos.
b) OpenValidators
Los OpenValidators se encargan de verificar los datos recopilados, permitiendo a los consumidores de datos confirmar la precisión de los datos proporcionados por el usuario frente a su fuente. Los métodos de verificación utilizan pruebas criptográficas y los resultados pueden validarse retrospectivamente. Varios proveedores pueden ofrecer servicios de verificación para el mismo tipo de prueba, lo que permite a los desarrolladores seleccionar el proveedor más adecuado para sus necesidades.
En casos de uso iniciales, especialmente para datos públicos o privados de API de Internet, OpenLayer utiliza TLS Notary como solución de verificación. Exporta datos de cualquier aplicación web y verifica su autenticidad sin comprometer la privacidad.
Más allá de TLS Notary, gracias a su diseño modular, el sistema de verificación puede integrar fácilmente otros métodos para adaptarse a diversas necesidades de datos y verificación, incluyendo:
c) OpenConnect
OpenConnect es el módulo responsable de la transformación de datos y la usabilidad dentro del ecosistema de OpenLayer. Procesa datos de diversas fuentes, garantizando la interoperabilidad entre diferentes sistemas para cumplir con diversos requisitos de aplicación. Por ejemplo:
Proporcionar anonimización de datos que preserva la privacidad para cuentas privadas de usuario mientras se mejora la seguridad durante el intercambio de datos para reducir filtraciones y mal uso.
Para satisfacer las demandas de datos en tiempo real de las aplicaciones de IA y blockchain, OpenConnect admite una transformación eficiente de datos en tiempo real.
Actualmente, a través de la integración con EigenLayer, los operadores de OpenLayer AVS (Servicio de Validación Activa) supervisan las tareas de solicitud de datos, recopilan datos, los verifican y reportan los resultados al sistema. Los operadores apuestan o vuelven a apostar activos en EigenLayer para proporcionar garantías económicas para sus acciones. El comportamiento malicioso resulta en la reducción de activos. Como uno de los primeros proyectos AVS en la red principal de EigenLayer, OpenLayer ha atraído a más de 50 operadores y $4 mil millones en activos re-apostados.
Grass, el proyecto insignia desarrollado por Wynd Network, está diseñado para crear una capa de datos descentralizada y una plataforma de entrenamiento de IA. A finales de 2023, Grass completó una ronda de financiación inicial de $3.5 millones liderada por Polychain Capital y Tribe Capital. En septiembre de 2024, aseguró financiamiento de la Serie A, con $5 millones liderados por HackVC y la participación adicional de Polychain, Delphi, Lattice y Brevan Howard.
A medida que el entrenamiento de IA depende cada vez más de fuentes de datos diversas y expansivas, Grass aborda esta necesidad creando una red de nodos de rastreo web distribuida. Esta red aprovecha la infraestructura física descentralizada y el ancho de banda de usuarios inactivos para recopilar y proporcionar conjuntos de datos verificables para el entrenamiento de IA. Los nodos enrutan las solicitudes web a través de las conexiones a Internet de los usuarios, accediendo a sitios web públicos y compilando conjuntos de datos estructurados. La limpieza y el formato inicial de los datos se realizan utilizando tecnología de computación en el borde, lo que garantiza salidas de alta calidad.
Grass utiliza la arquitectura de Capa de datos Solana Layer 2 Data Rollup para mejorar la eficiencia de procesamiento. Los validadores reciben, verifican y procesan por lotes transacciones web de nodos, generando pruebas de conocimiento cero (ZK) para confirmar la autenticidad de los datos. Los datos verificados se almacenan en el libro mayor de datos de Grass (L2), con pruebas correspondientes vinculadas a la cadena de bloques Solana L1.
a) Nodos de hierba:
Los usuarios instalan la aplicación Grass o la extensión del navegador, lo que permite que su ancho de banda inactivo alimente el rastreo web descentralizado. Los nodos enrutan las solicitudes web, acceden a sitios web públicos y compilan conjuntos de datos estructurados. Utilizando la computación en el borde, realizan la limpieza inicial de datos y el formato. Los usuarios ganan tokens GRASS como recompensa basada en su contribución de ancho de banda y el volumen de datos proporcionado.
b) Enrutadores:
Actuando como intermediarios, los routers conectan los nodos de Grass con los validadores. Gestionan la red de nodos, y la amplitud de banda de relé, y se incentivan en función del ancho de banda verificado total que facilitan.
c) Validadores:
Los validadores reciben y verifican las transacciones web transmitidas por los enrutadores. Generan pruebas ZK para confirmar la validez de los datos, aprovechando conjuntos de claves únicas para establecer conexiones seguras de TLS y suites de encriptación. Si bien Grass actualmente utiliza validadores centralizados, existen planes para pasar a un comité de validadores descentralizado.
d) Procesadores ZK:
Estos procesadores validan las pruebas de datos de sesión del nodo y agrupan todas las pruebas de solicitudes web para enviarlas a la Capa 1 de Solana.
e) Registro de Datos de Grass (Grass L2):
El Registro de Datos de Grass almacena conjuntos de datos completos y los vincula a sus respectivas pruebas L1 en Solana, garantizando transparencia y trazabilidad.
f) Modelos de incrustación de bordes:
Estos modelos transforman datos web no estructurados en conjuntos de datos estructurados adecuados para el entrenamiento de inteligencia artificial.
Origen: Hierba
Grass y OpenLayer comparten el compromiso de aprovechar las redes distribuidas para proporcionar a las empresas acceso a datos abiertos de Internet y datos privados autenticados. Ambos utilizan mecanismos de incentivos para promover el intercambio de datos y la producción de conjuntos de datos de alta calidad, pero sus arquitecturas técnicas y modelos de negocio difieren.
Arquitectura técnica:
Grass utiliza una arquitectura de Solana Layer 2 Data Rollup con validación centralizada, basada en un único validador. OpenLayer, como adoptante temprano del Servicio de Validación Activa (AVS) de EigenLayer, emplea un mecanismo de validación descentralizado utilizando incentivos económicos y penalizaciones. Su diseño modular enfatiza la escalabilidad y flexibilidad en los servicios de verificación de datos.
Enfoque del producto:
Ambos proyectos permiten a los usuarios monetizar datos a través de nodos, pero sus casos de uso empresarial divergen:
Grass se dirige principalmente a empresas de inteligencia artificial y científicos de datos que necesitan conjuntos de datos estructurados a gran escala, así como a instituciones de investigación y empresas que requieren datos basados en la web. OpenLayer atiende a desarrolladores Web3 que necesitan fuentes de datos fuera de la cadena, empresas de inteligencia artificial que requieren flujos verificables en tiempo real, y empresas que persiguen estrategias innovadoras como verificar el uso de productos de la competencia.
Si bien ambos proyectos ocupan actualmente nichos distintos, es posible que sus funcionalidades converjan a medida que la industria evoluciona:
Ambos proyectos también podrían integrar el etiquetado de datos como un paso crítico para entrenar conjuntos de datos. Grass, con su vasta red de más de 2.2 millones de nodos activos, podría desplegar rápidamente servicios de Aprendizaje por Refuerzo con Retroalimentación Humana (RLHF) para optimizar modelos de IA. OpenLayer, con su experiencia en verificación y procesamiento de datos en tiempo real, podría mantener una ventaja en la credibilidad y calidad de los datos, especialmente para conjuntos de datos privados.
A pesar de la posible superposición, sus fortalezas únicas y enfoques tecnológicos pueden permitirles dominar diferentes nichos dentro del ecosistema de datos descentralizados.
(Source:IOSG, David)
Vana es una red de grupo de datos centrada en el usuario diseñada para proporcionar datos de alta calidad para la inteligencia artificial y aplicaciones relacionadas. En comparación con OpenLayer y Grass, Vana adopta un enfoque tecnológico y empresarial distinto. En septiembre de 2024, Vana aseguró $5 millones en financiamiento liderado por Coinbase Ventures, después de una ronda de Serie A de $18 millones en la que Paradigm fue el inversionista principal, con la participación de Polychain y Casey Caruso.
Lanzada originalmente en 2018 como un proyecto de investigación del MIT, Vana es una blockchain de Capa 1 dedicada a los datos privados de los usuarios. Sus innovaciones en la propiedad de los datos y la distribución del valor permiten a los usuarios obtener beneficios de los modelos de IA entrenados con sus datos. Vana logra esto a través de Piscinas de Liquidez de Datos (DLP) sin confianza, privadas y atribuibles y un innovador mecanismo de Prueba de Contribución que facilita el flujo y la monetización de datos privados.
Vana introduce un concepto único de Piscinas de Liquidez de Datos (DLP, por sus siglas en inglés), que están en el núcleo de la red de Vana. Cada DLP es una red independiente de igual a igual que agrupa tipos específicos de activos de datos. Los usuarios pueden cargar sus datos privados, como registros de compras, hábitos de navegación y actividad en redes sociales, en DLPs designados y decidir si autorizan o no el uso de terceros específicos.
Los datos dentro de estos grupos se someten a desidentificación para proteger la privacidad del usuario, al tiempo que siguen siendo útiles para aplicaciones comerciales, como el entrenamiento de modelos de IA y la investigación de mercado. Los usuarios que contribuyen datos a un DLP son recompensados con tokens DLP correspondientes. Estos tokens representan la contribución del usuario al grupo, otorgan derechos de gobernanza y dan derecho al usuario a una parte de las ganancias futuras.
A diferencia de la venta única tradicional de datos, Vana permite que los datos participen continuamente en el ciclo económico, lo que permite a los usuarios recibir recompensas continuas con un seguimiento de uso transparente y visualizado.
El mecanismo de Prueba de Contribución (PoC) es una piedra angular del enfoque de Vana para garantizar la calidad de los datos. Cada DLP puede definir una función de PoC única adaptada a sus características, verificando la autenticidad y completitud de los datos enviados y evaluando su contribución para mejorar el rendimiento del modelo de IA. Este mecanismo cuantifica las contribuciones de los usuarios, registrándolas para la asignación de recompensas. Similar al concepto de 'Prueba de Trabajo' en criptomonedas, PoC recompensa a los usuarios en función de la calidad, cantidad y frecuencia de uso de los datos. Los contratos inteligentes automatizan este proceso, garantizando que los contribuyentes sean compensados de manera justa y transparente.
Esta capa central permite la contribución, verificación y registro de datos en las Capas de Datos, transformando los datos en activos digitales transferibles en la cadena. Los creadores de Capas de Datos implementan contratos inteligentes para establecer propósitos, métodos de verificación y parámetros de contribución. Los contribuyentes de datos envían datos para su validación, y el módulo de PoC evalúa la calidad de los datos y asigna derechos de gobernanza y recompensas.
Como capa de aplicación de Vana, esta plataforma facilita la colaboración entre los contribuyentes de datos y los desarrolladores. Proporciona infraestructura para construir modelos de entrenamiento de IA distribuidos y aplicaciones descentralizadas de IA utilizando la liquidez en las capas de datos.
Una contabilidad descentralizada que respalda el ecosistema de Vana, Connectome actúa como un mapa de flujo de datos en tiempo real. Registra todas las transacciones de datos en tiempo real mediante el consenso de Prueba de Participación, asegurando la transferencia eficiente de tokens DLP y permitiendo el acceso a datos cruzados de DLP. Totalmente compatible con EVM, permite la interoperabilidad con otras redes, protocolos y aplicaciones DeFi.
(Source: Vana)
Vana ofrece un enfoque fresco al centrarse en la liquidez y el empoderamiento de los datos del usuario. Este modelo de intercambio de datos descentralizado no solo admite el entrenamiento de IA y los mercados de datos, sino que también permite compartir y poseer datos sin problemas en múltiples plataformas en el ecosistema Web3. En última instancia, fomenta un Internet abierto donde los usuarios pueden ser dueños y gestionar sus datos y los productos inteligentes creados a partir de ellos.
En 2006, el científico de datos Clive Humby afirmó famosamente: "Los datos son el nuevo petróleo". Durante las últimas dos décadas, hemos sido testigos de la rápida evolución de tecnologías que "refinan" este recurso, como el análisis de grandes datos y el aprendizaje automático, que han desbloqueado un valor sin precedentes de los datos. Según IDC, para 2025, la esfera global de datos se expandirá a 163 ZB, con la mayoría proveniente de individuos. A medida que IoT, los dispositivos portátiles, la inteligencia artificial y los servicios personalizados se vuelvan más generalizados, gran parte de los datos requeridos para uso comercial provendrán de individuos.
Las soluciones de datos Web3 superan las limitaciones de la infraestructura tradicional aprovechando las redes de nodos distribuidos. Estas redes permiten una recopilación de datos más amplia y eficiente al tiempo que mejoran la accesibilidad y verificabilidad en tiempo real de conjuntos de datos específicos. Las tecnologías Web3 garantizan la autenticidad e integridad de los datos al tiempo que protegen la privacidad del usuario, fomentando un modelo de utilización de datos más justo. Esta arquitectura descentralizada democratiza el acceso a los datos y permite a los usuarios compartir los beneficios económicos de la economía de los datos.
Tanto OpenLayer como Grass se basan en modelos de usuario-nodo para mejorar procesos específicos de recopilación de datos, mientras que Vana monetiza datos privados de usuarios. Estos enfoques no solo mejoran la eficiencia, sino que también permiten a los usuarios comunes participar en el valor creado por la economía de datos, creando así un escenario beneficioso para los usuarios y los desarrolladores.
A través de la tokenomía, las soluciones de datos de Web3 rediseñan los modelos de incentivos, estableciendo un mecanismo de distribución de valor más justo. Estos sistemas atraen una participación significativa de usuarios, recursos de hardware e inversión de capital, optimizando el funcionamiento de toda la red de datos.
Las soluciones Web3 ofrecen modularidad y escalabilidad, lo que permite la iteración tecnológica y la expansión del ecosistema. Por ejemplo: el diseño modular de OpenLayer proporciona flexibilidad para futuros avances; la arquitectura distribuida de Grass optimiza el entrenamiento de modelos de IA al proporcionar conjuntos de datos diversos y de alta calidad.
Desde la generación, almacenamiento y verificación de datos hasta el intercambio y análisis, las soluciones impulsadas por Web3 abordan las deficiencias de las infraestructuras tradicionales. Al permitir a los usuarios monetizar sus datos, estas soluciones transforman fundamentalmente la economía de datos.
A medida que las tecnologías evolucionan y los escenarios de aplicación se expanden, las capas de datos descentralizadas están preparadas para convertirse en una piedra angular de la infraestructura de próxima generación. Apoyarán a una amplia gama de industrias basadas en datos, al tiempo que permitirán a los usuarios tomar el control de sus datos y su potencial económico.
Anteriormente discutimos cómo la IA y Web3 pueden complementarse entre sí en industrias verticales como redes computacionales, plataformas intermediarias y aplicaciones de consumo. Al centrarnos en los recursos de datos como un campo vertical, los nuevos proyectos web ofrecen nuevas posibilidades para la adquisición, intercambio y utilización de datos.
Los datos se han convertido en el principal impulsor de la innovación y la toma de decisiones en todas las industrias. UBS predice que el volumen de datos a nivel mundial se multiplicará por diez desde 2020 hasta 2030, alcanzando los 660 ZB. Para 2025, se espera que cada individuo genere 463 EB (exabytes, 1 EB = 1 mil millones de GB) de datos diariamente a nivel global. El mercado de Datos como Servicio (DaaS) está creciendo rápidamente. Según Grand View Research, el mercado mundial de DaaS tuvo un valor de $14.36 mil millones en 2023 y se espera que crezca a una tasa de crecimiento anual compuesta (CAGR) del 28.1%, alcanzando los $76.8 mil millones para 2030.
El entrenamiento del modelo de IA depende en gran medida de conjuntos de datos grandes para identificar patrones y ajustar parámetros. Después del entrenamiento, también se necesitan conjuntos de datos para probar el rendimiento y las capacidades de generalización de los modelos. Además, los agentes de IA, como formas de aplicación inteligente emergentes, requieren fuentes de datos en tiempo real y fiables para garantizar una toma de decisiones precisa y una ejecución de tareas.
(Fuente: Leewayhertz)
La demanda de análisis empresarial también se está volviendo más diversa y generalizada, sirviendo como una herramienta clave que impulsa la innovación empresarial. Por ejemplo, las plataformas de redes sociales y las empresas de investigación de mercado necesitan datos confiables sobre el comportamiento de los usuarios para formular estrategias y analizar tendencias, integrando datos diversos de múltiples plataformas sociales para construir una imagen más completa.
Para el ecosistema Web3, también se necesita en cadena datos fiables y auténticos para respaldar nuevos productos financieros. A medida que se tokenizan más activos innovadores, se requieren interfaces de datos flexibles y fiables para respaldar el desarrollo de productos y la gestión de riesgos, lo que permite que los contratos inteligentes se ejecuten en función de datos verificables en tiempo real.
Además, los casos de uso en la investigación científica, IoT y otros campos destacan la demanda creciente y vertiginosa de datos diversos, auténticos y en tiempo real. Los sistemas tradicionales pueden tener dificultades para hacer frente al volumen de datos en rápido crecimiento y a las demandas cambiantes.
Un ecosistema de datos típico incluye la recolección, almacenamiento, procesamiento, análisis y aplicación de datos. Los modelos centralizados se caracterizan por la recolección y almacenamiento centralizados de datos, gestionados por un equipo central de IT con un estricto control de acceso. Por ejemplo, el ecosistema de datos de Google abarca diversas fuentes de datos como los motores de búsqueda, Gmail y el sistema operativo Android. Estas plataformas recopilan datos de usuarios, los almacenan en centros de datos distribuidos globalmente y los procesan utilizando algoritmos para respaldar el desarrollo y la optimización de varios productos y servicios.
En los mercados financieros, LSEG (anteriormente Refinitiv) recopila datos en tiempo real e históricos de bolsas globales, bancos y principales instituciones financieras, mientras utiliza su red de noticias Reuters News para recopilar noticias relacionadas con el mercado. Procesan esta información utilizando algoritmos y modelos patentados para generar análisis y productos de evaluación de riesgos como servicios de valor agregado.
(Fuente: kdnuggets.com)
Si bien la arquitectura de datos tradicional es efectiva en los servicios profesionales, las limitaciones de los modelos centralizados están volviéndose cada vez más evidentes, especialmente en la cobertura de fuentes de datos emergentes, transparencia y protección de la privacidad del usuario. A continuación se presentan algunos problemas clave:
Por ejemplo, el evento GameStop de 2021 reveló las limitaciones de los proveedores tradicionales de datos financieros para analizar el sentimiento en las redes sociales. El sentimiento de los inversores en plataformas como Reddit influyó rápidamente en las tendencias del mercado, pero las terminales de datos como Bloomberg y Reuters no lograron capturar estas dinámicas a tiempo, lo que llevó a pronósticos de mercado retrasados.
Más allá de estos problemas, los proveedores de datos tradicionales enfrentan desafíos relacionados con la eficiencia de costos y la flexibilidad. Aunque están abordando activamente estos problemas, las tecnologías emergentes Web3 ofrecen nuevas perspectivas y posibilidades para abordarlos.
Desde el lanzamiento de soluciones de almacenamiento descentralizado como IPFS (Sistema de Archivos Interplanetarios) en 2014, una serie de proyectos emergentes han apuntado a abordar las limitaciones de los ecosistemas tradicionales de datos. Las soluciones de datos descentralizados se han convertido en un ecosistema interconectado de múltiples capas que abarca todas las etapas del ciclo de vida de los datos, incluyendo la generación de datos, almacenamiento, intercambio, procesamiento y análisis, verificación y seguridad, así como privacidad y propiedad.
A medida que aumenta el intercambio y la utilización de datos, asegurar la autenticidad, credibilidad y privacidad se ha vuelto crítico. Esto impulsa al ecosistema Web3 a innovar en la verificación de datos y la protección de la privacidad, lo que lleva a soluciones innovadoras.
Muchas tecnologías Web3 y proyectos nativos se centran en abordar problemas de autenticidad de datos y protección de la privacidad. Más allá de la adopción generalizada de tecnologías como Pruebas de Conocimiento Cero (ZK) y Computación Multi-Parte (MPC), TLS Notary ha surgido como un método de verificación nuevo y notable.
Introducción a TLS Notary
El protocolo de seguridad de la capa de transporte (TLS) es un protocolo de cifrado ampliamente utilizado para las comunicaciones en red. Su principal objetivo es garantizar la seguridad, integridad y confidencialidad de la transmisión de datos entre un cliente y un servidor. TLS es un estándar común de cifrado en las comunicaciones de red modernas, aplicado en escenarios como HTTPS, correo electrónico y mensajería instantánea.
(Principios de cifrado TLS, Fuente: TechTarget)
Cuando TLS Notary se introdujo por primera vez hace una década, su objetivo era verificar la autenticidad de las sesiones de TLS mediante la introducción de un "notario" externo al cliente (probador) y al servidor.
Utilizando la tecnología de división de claves, la clave maestra de una sesión TLS se divide en dos partes, que se mantienen separadas por el cliente y el notario. Este diseño permite que el notario participe como un tercero de confianza en el proceso de verificación sin acceder al contenido real de la comunicación. Este mecanismo tiene como objetivo detectar ataques de intermediarios, prevenir certificados fraudulentos y asegurar que los datos de comunicación no sean manipulados durante la transmisión. También permite a terceros de confianza confirmar la legitimidad de las comunicaciones mientras se protege la privacidad.
Así, TLS Notary ofrece verificación segura de datos y equilibra de manera efectiva las necesidades de verificación con la protección de la privacidad.
En 2022, el proyecto TLS Notary fue reestructurado por el laboratorio de investigación de privacidad y escalabilidad (PSE) de la Fundación Ethereum. La nueva versión del protocolo TLS Notary fue reescrita desde cero en el lenguaje de programación Rust e integrada con protocolos criptográficos más avanzados como MPC. Estas actualizaciones permiten a los usuarios demostrar la autenticidad de los datos recibidos de un servidor a un tercero sin revelar el contenido de los datos. Si bien mantiene sus capacidades de verificación central, el nuevo TLS Notary mejora significativamente la protección de la privacidad, lo que lo hace más adecuado para los requisitos actuales y futuros de privacidad de los datos.
En los últimos años, la tecnología de Notario TLS ha seguido evolucionando, lo que ha dado lugar a diversas derivaciones que mejoran aún más su privacidad y capacidades de verificación:
Los proyectos Web3 aprovechan estas tecnologías criptográficas para mejorar la verificación de datos y la protección de la privacidad, abordando problemas como los monopolios de datos, los silos y la transmisión confiable. Los usuarios pueden verificar de forma segura la propiedad de cuentas de redes sociales, registros de compras para préstamos financieros, historial crediticio bancario, antecedentes profesionales y credenciales académicas sin comprometer su privacidad. Algunos ejemplos incluyen:
(Proyectos trabajando en Oráculos TLS, Fuente: Bastian Wetzel)
La verificación de datos en Web3 es un eslabón esencial en el ecosistema de datos, con vastas perspectivas de aplicación. El florecimiento de este ecosistema está guiando la economía digital hacia un modelo más abierto, dinámico y centrado en el usuario. Sin embargo, el desarrollo de tecnologías de verificación de autenticidad es solo el comienzo de la construcción de infraestructuras de datos de próxima generación.
Algunos proyectos han combinado las tecnologías de verificación de datos mencionadas anteriormente con una mayor exploración de los ecosistemas de datos aguas arriba, como la trazabilidad de datos, la recolección de datos distribuidos y la transmisión confiable. A continuación, destacamos tres proyectos representativos—OpenLayer, Grass y Vana—que muestran un potencial único en la construcción de infraestructura de datos de próxima generación.
OpenLayer, uno de los proyectos del acelerador de startups a16z Crypto 2024 Spring, es la primera capa de datos auténtica modular. Su objetivo es proporcionar una solución modular innovadora para coordinar la recopilación, verificación y transformación de datos, abordando las necesidades tanto de las empresas Web2 como de las Web3. OpenLayer ha recibido el apoyo de fondos de renombre e inversores ángeles, incluyendo Geometry Ventures y LongHash Ventures.
Las capas de datos tradicionales enfrentan múltiples desafíos: falta de mecanismos de verificación confiables, dependencia de arquitecturas centralizadas que limitan la accesibilidad, falta de interoperabilidad y flujo entre diferentes sistemas, y la ausencia de mecanismos justos de distribución de valor de datos.
Un problema más específico es la creciente escasez de datos de entrenamiento para la IA. En internet público, muchos sitios web ahora implementan medidas antidescarga para evitar la descarga masiva de datos por parte de empresas de IA. En datos propietarios privados, la situación es aún más compleja. Los datos valiosos a menudo se almacenan en forma protegida debido a su naturaleza sensible, careciendo de mecanismos de incentivos efectivos. Los usuarios no pueden monetizar de forma segura sus datos privados y, por lo tanto, son reacios a compartir información sensible.
Para abordar estos problemas, OpenLayer combina tecnologías de verificación de datos para construir una Capa de Datos Auténtica Modular. A través de la descentralización y los incentivos económicos, coordina los procesos de recopilación, verificación y transformación de datos, proporcionando una infraestructura de datos más segura, eficiente y flexible para las empresas de Web2 y Web3.
OpenLayer proporciona una plataforma modular que simplifica la recopilación de datos, la verificación confiable y los procesos de transformación.
a) OpenNodes
Los OpenNodes son los componentes principales responsables de la recopilación descentralizada de datos en el ecosistema de OpenLayer. A través de aplicaciones móviles, extensiones de navegador y otros canales, los usuarios pueden recopilar datos. Los diferentes operadores/nodos pueden optimizar sus recompensas realizando tareas que se adapten mejor a sus especificaciones de hardware.
OpenNodes admite tres tipos principales de datos:
Los desarrolladores pueden agregar fácilmente nuevos tipos de datos, especificar fuentes de datos y definir requisitos y métodos de recuperación. Los usuarios pueden proporcionar datos anonimizados a cambio de recompensas. Este diseño permite que el sistema se expanda continuamente para satisfacer nuevas demandas de datos. Las diversas fuentes de datos hacen que OpenLayer sea adecuado para varios escenarios de aplicación y reduzcan el umbral para la provisión de datos.
b) OpenValidators
Los OpenValidators se encargan de verificar los datos recopilados, permitiendo a los consumidores de datos confirmar la precisión de los datos proporcionados por el usuario frente a su fuente. Los métodos de verificación utilizan pruebas criptográficas y los resultados pueden validarse retrospectivamente. Varios proveedores pueden ofrecer servicios de verificación para el mismo tipo de prueba, lo que permite a los desarrolladores seleccionar el proveedor más adecuado para sus necesidades.
En casos de uso iniciales, especialmente para datos públicos o privados de API de Internet, OpenLayer utiliza TLS Notary como solución de verificación. Exporta datos de cualquier aplicación web y verifica su autenticidad sin comprometer la privacidad.
Más allá de TLS Notary, gracias a su diseño modular, el sistema de verificación puede integrar fácilmente otros métodos para adaptarse a diversas necesidades de datos y verificación, incluyendo:
c) OpenConnect
OpenConnect es el módulo responsable de la transformación de datos y la usabilidad dentro del ecosistema de OpenLayer. Procesa datos de diversas fuentes, garantizando la interoperabilidad entre diferentes sistemas para cumplir con diversos requisitos de aplicación. Por ejemplo:
Proporcionar anonimización de datos que preserva la privacidad para cuentas privadas de usuario mientras se mejora la seguridad durante el intercambio de datos para reducir filtraciones y mal uso.
Para satisfacer las demandas de datos en tiempo real de las aplicaciones de IA y blockchain, OpenConnect admite una transformación eficiente de datos en tiempo real.
Actualmente, a través de la integración con EigenLayer, los operadores de OpenLayer AVS (Servicio de Validación Activa) supervisan las tareas de solicitud de datos, recopilan datos, los verifican y reportan los resultados al sistema. Los operadores apuestan o vuelven a apostar activos en EigenLayer para proporcionar garantías económicas para sus acciones. El comportamiento malicioso resulta en la reducción de activos. Como uno de los primeros proyectos AVS en la red principal de EigenLayer, OpenLayer ha atraído a más de 50 operadores y $4 mil millones en activos re-apostados.
Grass, el proyecto insignia desarrollado por Wynd Network, está diseñado para crear una capa de datos descentralizada y una plataforma de entrenamiento de IA. A finales de 2023, Grass completó una ronda de financiación inicial de $3.5 millones liderada por Polychain Capital y Tribe Capital. En septiembre de 2024, aseguró financiamiento de la Serie A, con $5 millones liderados por HackVC y la participación adicional de Polychain, Delphi, Lattice y Brevan Howard.
A medida que el entrenamiento de IA depende cada vez más de fuentes de datos diversas y expansivas, Grass aborda esta necesidad creando una red de nodos de rastreo web distribuida. Esta red aprovecha la infraestructura física descentralizada y el ancho de banda de usuarios inactivos para recopilar y proporcionar conjuntos de datos verificables para el entrenamiento de IA. Los nodos enrutan las solicitudes web a través de las conexiones a Internet de los usuarios, accediendo a sitios web públicos y compilando conjuntos de datos estructurados. La limpieza y el formato inicial de los datos se realizan utilizando tecnología de computación en el borde, lo que garantiza salidas de alta calidad.
Grass utiliza la arquitectura de Capa de datos Solana Layer 2 Data Rollup para mejorar la eficiencia de procesamiento. Los validadores reciben, verifican y procesan por lotes transacciones web de nodos, generando pruebas de conocimiento cero (ZK) para confirmar la autenticidad de los datos. Los datos verificados se almacenan en el libro mayor de datos de Grass (L2), con pruebas correspondientes vinculadas a la cadena de bloques Solana L1.
a) Nodos de hierba:
Los usuarios instalan la aplicación Grass o la extensión del navegador, lo que permite que su ancho de banda inactivo alimente el rastreo web descentralizado. Los nodos enrutan las solicitudes web, acceden a sitios web públicos y compilan conjuntos de datos estructurados. Utilizando la computación en el borde, realizan la limpieza inicial de datos y el formato. Los usuarios ganan tokens GRASS como recompensa basada en su contribución de ancho de banda y el volumen de datos proporcionado.
b) Enrutadores:
Actuando como intermediarios, los routers conectan los nodos de Grass con los validadores. Gestionan la red de nodos, y la amplitud de banda de relé, y se incentivan en función del ancho de banda verificado total que facilitan.
c) Validadores:
Los validadores reciben y verifican las transacciones web transmitidas por los enrutadores. Generan pruebas ZK para confirmar la validez de los datos, aprovechando conjuntos de claves únicas para establecer conexiones seguras de TLS y suites de encriptación. Si bien Grass actualmente utiliza validadores centralizados, existen planes para pasar a un comité de validadores descentralizado.
d) Procesadores ZK:
Estos procesadores validan las pruebas de datos de sesión del nodo y agrupan todas las pruebas de solicitudes web para enviarlas a la Capa 1 de Solana.
e) Registro de Datos de Grass (Grass L2):
El Registro de Datos de Grass almacena conjuntos de datos completos y los vincula a sus respectivas pruebas L1 en Solana, garantizando transparencia y trazabilidad.
f) Modelos de incrustación de bordes:
Estos modelos transforman datos web no estructurados en conjuntos de datos estructurados adecuados para el entrenamiento de inteligencia artificial.
Origen: Hierba
Grass y OpenLayer comparten el compromiso de aprovechar las redes distribuidas para proporcionar a las empresas acceso a datos abiertos de Internet y datos privados autenticados. Ambos utilizan mecanismos de incentivos para promover el intercambio de datos y la producción de conjuntos de datos de alta calidad, pero sus arquitecturas técnicas y modelos de negocio difieren.
Arquitectura técnica:
Grass utiliza una arquitectura de Solana Layer 2 Data Rollup con validación centralizada, basada en un único validador. OpenLayer, como adoptante temprano del Servicio de Validación Activa (AVS) de EigenLayer, emplea un mecanismo de validación descentralizado utilizando incentivos económicos y penalizaciones. Su diseño modular enfatiza la escalabilidad y flexibilidad en los servicios de verificación de datos.
Enfoque del producto:
Ambos proyectos permiten a los usuarios monetizar datos a través de nodos, pero sus casos de uso empresarial divergen:
Grass se dirige principalmente a empresas de inteligencia artificial y científicos de datos que necesitan conjuntos de datos estructurados a gran escala, así como a instituciones de investigación y empresas que requieren datos basados en la web. OpenLayer atiende a desarrolladores Web3 que necesitan fuentes de datos fuera de la cadena, empresas de inteligencia artificial que requieren flujos verificables en tiempo real, y empresas que persiguen estrategias innovadoras como verificar el uso de productos de la competencia.
Si bien ambos proyectos ocupan actualmente nichos distintos, es posible que sus funcionalidades converjan a medida que la industria evoluciona:
Ambos proyectos también podrían integrar el etiquetado de datos como un paso crítico para entrenar conjuntos de datos. Grass, con su vasta red de más de 2.2 millones de nodos activos, podría desplegar rápidamente servicios de Aprendizaje por Refuerzo con Retroalimentación Humana (RLHF) para optimizar modelos de IA. OpenLayer, con su experiencia en verificación y procesamiento de datos en tiempo real, podría mantener una ventaja en la credibilidad y calidad de los datos, especialmente para conjuntos de datos privados.
A pesar de la posible superposición, sus fortalezas únicas y enfoques tecnológicos pueden permitirles dominar diferentes nichos dentro del ecosistema de datos descentralizados.
(Source:IOSG, David)
Vana es una red de grupo de datos centrada en el usuario diseñada para proporcionar datos de alta calidad para la inteligencia artificial y aplicaciones relacionadas. En comparación con OpenLayer y Grass, Vana adopta un enfoque tecnológico y empresarial distinto. En septiembre de 2024, Vana aseguró $5 millones en financiamiento liderado por Coinbase Ventures, después de una ronda de Serie A de $18 millones en la que Paradigm fue el inversionista principal, con la participación de Polychain y Casey Caruso.
Lanzada originalmente en 2018 como un proyecto de investigación del MIT, Vana es una blockchain de Capa 1 dedicada a los datos privados de los usuarios. Sus innovaciones en la propiedad de los datos y la distribución del valor permiten a los usuarios obtener beneficios de los modelos de IA entrenados con sus datos. Vana logra esto a través de Piscinas de Liquidez de Datos (DLP) sin confianza, privadas y atribuibles y un innovador mecanismo de Prueba de Contribución que facilita el flujo y la monetización de datos privados.
Vana introduce un concepto único de Piscinas de Liquidez de Datos (DLP, por sus siglas en inglés), que están en el núcleo de la red de Vana. Cada DLP es una red independiente de igual a igual que agrupa tipos específicos de activos de datos. Los usuarios pueden cargar sus datos privados, como registros de compras, hábitos de navegación y actividad en redes sociales, en DLPs designados y decidir si autorizan o no el uso de terceros específicos.
Los datos dentro de estos grupos se someten a desidentificación para proteger la privacidad del usuario, al tiempo que siguen siendo útiles para aplicaciones comerciales, como el entrenamiento de modelos de IA y la investigación de mercado. Los usuarios que contribuyen datos a un DLP son recompensados con tokens DLP correspondientes. Estos tokens representan la contribución del usuario al grupo, otorgan derechos de gobernanza y dan derecho al usuario a una parte de las ganancias futuras.
A diferencia de la venta única tradicional de datos, Vana permite que los datos participen continuamente en el ciclo económico, lo que permite a los usuarios recibir recompensas continuas con un seguimiento de uso transparente y visualizado.
El mecanismo de Prueba de Contribución (PoC) es una piedra angular del enfoque de Vana para garantizar la calidad de los datos. Cada DLP puede definir una función de PoC única adaptada a sus características, verificando la autenticidad y completitud de los datos enviados y evaluando su contribución para mejorar el rendimiento del modelo de IA. Este mecanismo cuantifica las contribuciones de los usuarios, registrándolas para la asignación de recompensas. Similar al concepto de 'Prueba de Trabajo' en criptomonedas, PoC recompensa a los usuarios en función de la calidad, cantidad y frecuencia de uso de los datos. Los contratos inteligentes automatizan este proceso, garantizando que los contribuyentes sean compensados de manera justa y transparente.
Esta capa central permite la contribución, verificación y registro de datos en las Capas de Datos, transformando los datos en activos digitales transferibles en la cadena. Los creadores de Capas de Datos implementan contratos inteligentes para establecer propósitos, métodos de verificación y parámetros de contribución. Los contribuyentes de datos envían datos para su validación, y el módulo de PoC evalúa la calidad de los datos y asigna derechos de gobernanza y recompensas.
Como capa de aplicación de Vana, esta plataforma facilita la colaboración entre los contribuyentes de datos y los desarrolladores. Proporciona infraestructura para construir modelos de entrenamiento de IA distribuidos y aplicaciones descentralizadas de IA utilizando la liquidez en las capas de datos.
Una contabilidad descentralizada que respalda el ecosistema de Vana, Connectome actúa como un mapa de flujo de datos en tiempo real. Registra todas las transacciones de datos en tiempo real mediante el consenso de Prueba de Participación, asegurando la transferencia eficiente de tokens DLP y permitiendo el acceso a datos cruzados de DLP. Totalmente compatible con EVM, permite la interoperabilidad con otras redes, protocolos y aplicaciones DeFi.
(Source: Vana)
Vana ofrece un enfoque fresco al centrarse en la liquidez y el empoderamiento de los datos del usuario. Este modelo de intercambio de datos descentralizado no solo admite el entrenamiento de IA y los mercados de datos, sino que también permite compartir y poseer datos sin problemas en múltiples plataformas en el ecosistema Web3. En última instancia, fomenta un Internet abierto donde los usuarios pueden ser dueños y gestionar sus datos y los productos inteligentes creados a partir de ellos.
En 2006, el científico de datos Clive Humby afirmó famosamente: "Los datos son el nuevo petróleo". Durante las últimas dos décadas, hemos sido testigos de la rápida evolución de tecnologías que "refinan" este recurso, como el análisis de grandes datos y el aprendizaje automático, que han desbloqueado un valor sin precedentes de los datos. Según IDC, para 2025, la esfera global de datos se expandirá a 163 ZB, con la mayoría proveniente de individuos. A medida que IoT, los dispositivos portátiles, la inteligencia artificial y los servicios personalizados se vuelvan más generalizados, gran parte de los datos requeridos para uso comercial provendrán de individuos.
Las soluciones de datos Web3 superan las limitaciones de la infraestructura tradicional aprovechando las redes de nodos distribuidos. Estas redes permiten una recopilación de datos más amplia y eficiente al tiempo que mejoran la accesibilidad y verificabilidad en tiempo real de conjuntos de datos específicos. Las tecnologías Web3 garantizan la autenticidad e integridad de los datos al tiempo que protegen la privacidad del usuario, fomentando un modelo de utilización de datos más justo. Esta arquitectura descentralizada democratiza el acceso a los datos y permite a los usuarios compartir los beneficios económicos de la economía de los datos.
Tanto OpenLayer como Grass se basan en modelos de usuario-nodo para mejorar procesos específicos de recopilación de datos, mientras que Vana monetiza datos privados de usuarios. Estos enfoques no solo mejoran la eficiencia, sino que también permiten a los usuarios comunes participar en el valor creado por la economía de datos, creando así un escenario beneficioso para los usuarios y los desarrolladores.
A través de la tokenomía, las soluciones de datos de Web3 rediseñan los modelos de incentivos, estableciendo un mecanismo de distribución de valor más justo. Estos sistemas atraen una participación significativa de usuarios, recursos de hardware e inversión de capital, optimizando el funcionamiento de toda la red de datos.
Las soluciones Web3 ofrecen modularidad y escalabilidad, lo que permite la iteración tecnológica y la expansión del ecosistema. Por ejemplo: el diseño modular de OpenLayer proporciona flexibilidad para futuros avances; la arquitectura distribuida de Grass optimiza el entrenamiento de modelos de IA al proporcionar conjuntos de datos diversos y de alta calidad.
Desde la generación, almacenamiento y verificación de datos hasta el intercambio y análisis, las soluciones impulsadas por Web3 abordan las deficiencias de las infraestructuras tradicionales. Al permitir a los usuarios monetizar sus datos, estas soluciones transforman fundamentalmente la economía de datos.
A medida que las tecnologías evolucionan y los escenarios de aplicación se expanden, las capas de datos descentralizadas están preparadas para convertirse en una piedra angular de la infraestructura de próxima generación. Apoyarán a una amplia gama de industrias basadas en datos, al tiempo que permitirán a los usuarios tomar el control de sus datos y su potencial económico.