Análisis en profundidad: ¿Qué tipo de chispas pueden crear la IA y la Web3?

Avanzado6/7/2024, 5:04:48 AM
Este artículo explora el rápido desarrollo de las tecnologías de Inteligencia Artificial (IA) y Web3 y el valor potencial y el impacto de su integración. La IA destaca en la mejora de la productividad, mientras que la Web3 transforma las relaciones de producción a través de la descentralización. La combinación de estas tecnologías aporta aplicaciones innovadoras en el análisis de datos, servicios personalizados al usuario y protección de la seguridad y la privacidad.

Introducción: Desarrollo de IA+Web3

En los últimos años, el rápido desarrollo de las tecnologías de Inteligencia Artificial (IA) y Web3 ha atraído una amplia atención mundial. La IA, una tecnología que simula e imita la inteligencia humana, ha logrado avances significativos en campos como el reconocimiento facial, el procesamiento del lenguaje natural y el aprendizaje automático. El rápido avance de la tecnología de IA ha traído consigo una enorme transformación e innovación en diversas industrias.

La industria de la IA alcanzó un tamaño de mercado de 200 mil millones de dólares en 2023, con gigantes de la industria y actores destacados como OpenAI, Character.AI y Midjourney emergiendo rápidamente y líder el auge de la IA.

Al mismo tiempo, la Web3, un modelo emergente de Internet, está cambiando gradualmente nuestra percepción y uso de Internet. Basado en la tecnología blockchain descentralizada, Web3 realiza el intercambio y control de datos, la autonomía del usuario y el establecimiento de mecanismos de confianza a través de características como contratos inteligentes, almacenamiento distribuido y verificación de identidad descentralizada. La idea central de la Web3 es liberar los datos de las autoridades centralizadas, otorgando a los usuarios el control y la capacidad de compartir el valor de sus datos.

Actualmente, el valor de mercado de la industria Web3 ha alcanzado los 25 billones de dólares. Desde Bitcoin, Ethereum y Solana hasta jugadores a nivel de aplicación como Uniswap y Stepn, continuamente surgen nuevas narrativas y escenarios, atrayendo a más y más personas a unirse a la industria Web3.

Es evidente que la integración de la IA y la Web3 es un punto focal para los constructores y capitalistas de riesgo tanto de Oriente como de Occidente. Explorar cómo combinar de manera efectiva estas dos tecnologías es un esfuerzo que vale la pena.

Este artículo se centrará en el estado actual del desarrollo de la IA+Web3, explorando el valor potencial y el impacto de su integración. En primer lugar, presentaremos los conceptos básicos y las características de la IA y la Web3, y luego hablaremos de su interrelación. A continuación, analizaremos el estado actual de los proyectos de IA+Web3 y profundizaremos en las limitaciones y retos a los que se enfrentan. A través de esta investigación, nuestro objetivo es proporcionar referencias y conocimientos valiosos para inversores y profesionales de la industria.

Cómo interactúa la IA con la Web3

El desarrollo de la IA y la Web3 puede verse como dos caras de la balanza: la IA aporta mejoras en la productividad, mientras que la Web3 revoluciona las relaciones de producción. Entonces, ¿qué tipo de chispas pueden crear la IA y la Web3 cuando chocan? Primero analizaremos los desafíos y las posibles mejoras en las industrias de IA y Web3, y luego exploraremos cómo pueden ayudar a resolver los problemas de los demás.

  1. Desafíos y posibles mejoras en la industria de la IA
  2. Desafíos y posibles mejoras en la industria Web3

2.1 Desafíos en la industria de la IA

Para explorar los retos a los que se enfrenta la industria de la IA, primero debemos entender su esencia. El núcleo de la industria de la IA gira en torno a tres elementos clave: potencia computacional, algoritmos y datos.

  1. En primer lugar, la potencia computacional: La potencia computacional se refiere a la capacidad de realizar cálculos y procesamiento a gran escala. Las tareas de IA suelen requerir el manejo de grandes cantidades de datos y la realización de cálculos complejos, como el entrenamiento de modelos de redes neuronales profundas. La alta potencia computacional puede acelerar el entrenamiento de modelos y los procesos de inferencia, mejorando el rendimiento y la eficiencia de los sistemas de IA. En los últimos años, los avances en la tecnología de hardware, como las unidades de procesamiento gráfico (GPU) y los chips de IA dedicados (como los TPU), han aumentado significativamente la potencia computacional, impulsando el desarrollo de la industria de la IA. Nvidia, uno de los principales proveedores de GPU, ha visto cómo el precio de sus acciones se ha disparado en los últimos años, capturando una gran cuota de mercado y obteniendo importantes beneficios.
  2. Qué es un algoritmo: Los algoritmos son los componentes centrales de los sistemas de IA. Son métodos matemáticos y estadísticos que se utilizan para resolver problemas y realizar tareas. Los algoritmos de IA se pueden clasificar en algoritmos tradicionales de aprendizaje automático y algoritmos de aprendizaje profundo, y los algoritmos de aprendizaje profundo han logrado avances significativos en los últimos años. La elección y el diseño de los algoritmos son cruciales para el rendimiento y la eficacia de los sistemas de IA. La mejora continua y la innovación en los algoritmos pueden mejorar la precisión, la solidez y las capacidades de generalización de los sistemas de IA. Diferentes algoritmos producen diferentes resultados, por lo que los avances en los algoritmos son esenciales para el rendimiento de las tareas.
  3. Por qué son importantes los datos: La tarea principal de los sistemas de IA es extraer patrones y reglas de los datos a través del aprendizaje y la formación. Los datos forman la base para entrenar y optimizar modelos. Con muestras de datos a gran escala, los sistemas de IA pueden aprender modelos más precisos e inteligentes. Los conjuntos de datos enriquecidos proporcionan información completa y diversa, lo que permite que los modelos generalicen mejor a los datos no vistos y ayudan a los sistemas de IA a comprender y resolver mejor los problemas del mundo real.

Después de comprender los tres elementos centrales de la IA actual, examinemos las dificultades y los desafíos que enfrenta la IA en estas áreas.

En primer lugar, en términos de potencia computacional, las tareas de IA suelen requerir una gran cantidad de recursos computacionales para el entrenamiento y la inferencia de modelos, especialmente para los modelos de aprendizaje profundo. Sin embargo, obtener y gestionar la potencia computacional a gran escala es un reto costoso y complejo. El costo, el consumo de energía y el mantenimiento de los equipos informáticos de alto rendimiento son problemas importantes. Esto es particularmente desafiante para las nuevas empresas y los desarrolladores individuales, para quienes adquirir suficiente potencia computacional puede ser difícil.

En cuanto a los algoritmos, a pesar de los importantes éxitos de los algoritmos de aprendizaje profundo en muchos campos, todavía existen retos y dificultades. Por ejemplo, el entrenamiento de redes neuronales profundas requiere una gran cantidad de datos y recursos computacionales. Además, para ciertas tareas, la interpretabilidad y la explicabilidad de los modelos pueden ser insuficientes. La robustez y las capacidades de generalización de los algoritmos también son cuestiones cruciales, ya que el rendimiento del modelo en datos no vistos puede ser inestable. Encontrar el mejor algoritmo para proporcionar un rendimiento óptimo entre muchos algoritmos es una exploración continua.

En términos de datos, los datos son la fuerza impulsora detrás de la IA, pero obtener datos diversos y de alta calidad sigue siendo un desafío. Los datos en algunos campos, como los datos de salud sensibles en el sector médico, pueden ser difíciles de obtener. Además, la calidad, la precisión y el etiquetado de los datos son cuestiones críticas, ya que los datos incompletos o sesgados pueden dar lugar a un comportamiento erróneo del modelo o a sesgos. La protección de la privacidad y la seguridad de los datos también es una consideración importante.

Además, hay cuestiones relacionadas con la interpretabilidad y la transparencia. La naturaleza de "caja negra" de los modelos de IA es una preocupación pública. En ciertas aplicaciones, como las finanzas, la atención médica y la justicia, el proceso de toma de decisiones de los modelos debe ser interpretable y rastreable. Sin embargo, los modelos de aprendizaje profundo existentes a menudo carecen de transparencia. Explicar el proceso de toma de decisiones de los modelos y proporcionar explicaciones fiables sigue siendo un reto.

Además, los modelos de negocio de muchos proyectos de startups de IA no están muy claros, lo que también causa confusión a muchos emprendedores de IA.

2.2 Desafíos en la industria Web3

En la industria Web3, existen numerosos desafíos que deben abordarse, que abarcan desde el análisis de datos y la experiencia del usuario hasta las vulnerabilidades de los contratos inteligentes y los ataques de piratas informáticos. La IA, como herramienta para mejorar la productividad, tiene un potencial significativo en estas áreas.

En primer lugar, hay margen de mejora en el análisis de datos y las capacidades predictivas. Las aplicaciones de IA en el análisis y la predicción de datos han tenido un impacto significativo en la industria de la Web3. A través del análisis inteligente y la minería mediante algoritmos de IA, las plataformas Web3 pueden extraer información valiosa de grandes cantidades de datos y hacer predicciones y decisiones más precisas. Esto es particularmente importante para la evaluación de riesgos, la previsión del mercado y la gestión de activos en las finanzas descentralizadas (DeFi).

Además, existe la posibilidad de mejorar la experiencia del usuario y los servicios de personalización. Las aplicaciones de IA permiten a las plataformas Web3 ofrecer mejores experiencias de usuario y servicios personalizados. Al analizar y modelar los datos de los usuarios, las plataformas Web3 pueden proporcionar recomendaciones personalizadas, servicios personalizados y experiencias de interacción inteligentes. Esto ayuda a aumentar el compromiso y la satisfacción de los usuarios, fomentando el desarrollo del ecosistema Web3. Por ejemplo, muchos protocolos Web3 integran herramientas de IA como ChatGPT para servir mejor a los usuarios.

En términos de seguridad y protección de la privacidad, las aplicaciones de IA también tienen un profundo impacto en la industria Web3. La tecnología de IA se puede utilizar para detectar y defenderse de los ataques a la red, identificar comportamientos anormales y proporcionar medidas de seguridad más sólidas. Además, la IA se puede aplicar a la protección de la privacidad de los datos, salvaguardando la información personal de los usuarios en las plataformas Web3 a través de técnicas como la encriptación de datos y la informática de privacidad. Con respecto a la auditoría de contratos inteligentes, como pueden existir vulnerabilidades y riesgos de seguridad en los procesos de redacción y auditoría de contratos inteligentes, la tecnología de IA se puede utilizar para la auditoría automatizada de contratos y la detección de vulnerabilidades, mejorando la seguridad y confiabilidad de los contratos.

Es evidente que la IA puede contribuir significativamente a abordar los desafíos y las posibles mejoras en la industria Web3 en varios aspectos.

Análisis de la situación actual del proyecto AI+Web3

La combinación de proyectos de IA y Web3 se centra principalmente en dos aspectos principales: aprovechar la tecnología blockchain para mejorar los proyectos de IA y utilizar la tecnología de IA para servir a la mejora de los proyectos Web3. Numerosos proyectos han surgido a lo largo de este camino, entre ellos Io.net, Gensyn, Ritual, entre otros. El siguiente análisis profundizará en los diferentes subdominios en los que la IA ayuda a la Web3 y en los que la Web3 mejora la IA.

3.1 Web3 ayuda a la IA

3.1.1 Potencia computacional descentralizada

Desde el lanzamiento de ChatGPT por parte de OpenAI a finales de 2022, se desató un frenesí en el campo de la IA. A los cinco días de su lanzamiento, la base de usuarios alcanzó el millón, superando la tasa de descarga de Instagram, que tardó aproximadamente dos meses y medio en alcanzar el mismo hito. Posteriormente, ChatGPT experimentó un rápido crecimiento, con usuarios activos mensuales que alcanzaron los 100 millones en dos meses y usuarios activos semanales que alcanzaron los 100 millones en noviembre de 2023. Con la llegada de ChatGPT, el sector de la IA pasó rápidamente de ser un campo de nicho a una industria de gran prestigio.

Según el informe de Trendforce, ChatGPT requiere 30.000 GPU NVIDIA A100 para funcionar, y los modelos futuros como GPT-5 requerirán aún más potencia computacional. Esto ha provocado una carrera armamentista entre varias empresas de IA, ya que poseer suficiente potencia computacional es crucial para mantener una ventaja competitiva en el ámbito de la IA, líder a la escasez de GPU.

Antes de subir la IA, el principal proveedor de GPU, NVIDIA, atendía principalmente a clientes de los tres principales servicios en la nube: AWS, Azure y GCP. Con la llegada de la inteligencia artificial, surgieron numerosos compradores nuevos, incluidas las principales compañías tecnológicas como Meta, Oracle, así como otras plataformas de datos y nuevas empresas de IA, que se subieron a la carrera para almacenar GPU para entrenar modelos de IA. Las grandes empresas tecnológicas como Meta y Tesla aumentaron significativamente sus compras de modelos de IA personalizados y de investigación interna. Las empresas de modelos básicos como Anthropic y las plataformas de datos como Snowflake y Databricks también compraron más GPU para ayudar a sus clientes a proporcionar servicios de IA.

Como mencionó Semi Analysis el año pasado, existe una división entre las empresas "ricas en GPU" y las "pobres en GPU", ya que solo unas pocas poseen más de 20,000 GPU A100 / H100, lo que permite a los miembros del equipo utilizar entre 100 y 1000 GPU para proyectos. Estas empresas son proveedores de la nube o han construido sus propios modelos de lenguaje (LLM), incluidos OpenAI, Google, Meta, Anthropic, Inflection, Tesla, Oracle, Mistral, entre otros.

Sin embargo, la mayoría de las empresas caída en la categoría de "pobres en GPU", luchando con un número significativamente menor de GPU y dedicando una cantidad considerable de tiempo y esfuerzo a tareas que son más difíciles para avanzar en el ecosistema. Además, esta situación no se limita a las startups. Algunas de las empresas de IA más conocidas, como Hugging Face, Databricks (MosaicML), Together e incluso Snowflake, tienen cantidades de A100/H100 inferiores a 20.000. A pesar de tener talento técnico de clase mundial, estas empresas están limitadas por el suministro limitado de GPU, lo que las coloca en desventaja en comparación con las empresas más grandes en la competencia de IA.

Esta escasez no se limita a la categoría "GPU pobre"; incluso a fines de 2023, el jugador líder de IA, OpenAI, tuvo que cerrar temporalmente los registros pagados debido a la incapacidad de obtener suficientes GPU y tuvo que adquirir más suministros de GPU.

Es evidente que el rápido desarrollo de la IA ha provocado un grave desajuste entre la demanda y la oferta de GPU, creando una inminente escasez de suministro.

Para abordar este problema, algunos proyectos Web3 han comenzado a explorar soluciones de potencia informática descentralizada, aprovechando las características únicas de la tecnología Web3. Estos proyectos incluyen Akash, Render, Gensyn, entre otros. La característica común entre estos proyectos es el uso de tokens para incentivar a los usuarios a proporcionar potencia de cómputo de GPU inactiva, convirtiéndose así en el lado de la oferta de potencia de cómputo para clientes de IA de soporte.

El perfil del lado de la oferta consta principalmente de tres aspectos: proveedores de servicios en la nube, mineros de criptomonedas y empresas. Los proveedores de servicios en la nube incluyen los principales proveedores de servicios en la nube (como AWS, Azure, GCP) y proveedores de servicios en la nube de GPU (como Coreweave, Lambda, Crusoe), donde los usuarios pueden revender la potencia informática inactiva de estos proveedores para generar ingresos. Con la transición de Ethereum de PoW a PoS, la potencia de cómputo de GPU inactiva se ha convertido en un importante lado de suministro potencial para los mineros de criptomonedas. Además, grandes empresas como Tesla y Meta, que han comprado grandes cantidades de GPU con fines estratégicos, también pueden contribuir con su potencia de cálculo de GPU inactiva como parte del lado de la oferta.

En la actualidad, los actores de este campo pueden dividirse generalmente en dos categorías: los que utilizan la potencia informática descentralizada para la inferencia de la IA y los que la utilizan para el entrenamiento de la IA. La primera categoría incluye proyectos como Render (aunque se centra en el renderizado, también se puede utilizar para la computación de IA), Akash, Aethir, mientras que la segunda categoría incluye proyectos como io.net (que admite tanto la inferencia como el entrenamiento) y Gensyn. La diferencia clave entre los dos radica en los diferentes requisitos de potencia de cómputo.

Hablemos primero de los proyectos centrados en la inferencia de IA. Estos proyectos atraen a los usuarios para proporcionar potencia informática a través de incentivos simbólicos y luego proporcionar servicios de red de potencia informática al lado de la demanda, facilitando así la coincidencia de la oferta y la demanda de potencia informática inactiva. Los detalles sobre estos proyectos se tratan en un informe de investigación de DePIN de nuestros laboratorios Ryze, no dude en leerlos.

El punto central radica en el mecanismo de incentivos simbólicos, donde el proyecto atrae primero a los proveedores y luego a los usuarios, logrando así el mecanismo de arranque en frío y operación central del proyecto, lo que permite una mayor expansión y desarrollo. En este ciclo, el lado de la oferta recibe recompensas simbólicas más valiosas, mientras que el lado de la demanda disfruta de servicios más rentables. El valor de los tokens del proyecto y el crecimiento de los participantes tanto de la oferta como de la demanda se mantienen constantes. A medida que aumenta el precio del token, se atraen más participantes y especuladores, lo que crea un bucle de captura de valor.

Otra categoría implica el uso de potencia informática descentralizada para el entrenamiento de IA, como Gensyn y io.net (que soporte tanto el entrenamiento como la inferencia de IA). De hecho, la lógica operativa de estos proyectos no es fundamentalmente diferente de la de los proyectos de inferencia de IA. Todavía dependen de incentivos simbólicos para atraer la participación del lado de la oferta para proporcionar potencia de cómputo, que luego es utilizada por el lado de la demanda.

io.net, como red de potencia informática descentralizada, cuenta actualmente con más de 500.000 GPU, lo que la convierte en una empresa destacada en los proyectos de potencia informática descentralizada. Además, ha integrado la potencia de cómputo de Render y Filecoin, lo que demuestra el desarrollo continuo de su ecosistema.

Además, Gensyn facilita la asignación de tareas de aprendizaje automático y las recompensas a través de contratos inteligentes para permitir el entrenamiento de IA. Como se ilustra en el siguiente diagrama, el costo por hora del trabajo de capacitación de aprendizaje automático en Gensyn es de aproximadamente 0,4 USD, que es significativamente más bajo que el costo de más de 2 USD en AWS y GCP.

El ecosistema Gensyn cuenta con la participación de cuatro entidades:

  • Remitentes: Estos son los usuarios del lado de la demanda que consumen tareas y pagan por tareas de entrenamiento de IA.
  • Ejecutores: Los ejecutores llevan a cabo las tareas de entrenamiento del modelo y proporcionan pruebas de finalización de la tarea para su verificación.
  • Verificadores: los verificadores conectan el proceso de entrenamiento no determinista con el cálculo lineal determinista. Comparan las pruebas proporcionadas por los albaceas con los umbrales esperados.
  • Reporteros: Los reporteros inspeccionan el trabajo de los verificadores y plantean desafíos para obtener recompensas al identificar problemas.

Como podemos ver, Gensyn tiene como objetivo convertirse en un protocolo informático masivamente escalable y rentable para modelos globales de aprendizaje profundo. Sin embargo, si nos fijamos en este campo, ¿por qué la mayoría de los proyectos eligen la potencia informática descentralizada para la inferencia de IA en lugar de la formación?

Ayudemos también a los amigos que no están familiarizados con el entrenamiento y la inferencia de IA a comprender la diferencia entre los dos:

  • Entrenamiento de IA: Si comparamos la inteligencia artificial con un estudiante, entonces el entrenamiento es similar a proporcionar a la IA una gran cantidad de conocimientos y ejemplos, que pueden entenderse como datos. La IA aprende de estos ejemplos. Debido a que el aprendizaje implica comprender y memorizar una gran cantidad de información, este proceso requiere una cantidad significativa de potencia computacional y tiempo.
  • Inferencia de IA: Entonces, ¿qué es la inferencia? Se puede entender como el uso de los conocimientos aprendidos para resolver problemas o realizar exámenes. Durante la inferencia, la inteligencia artificial utiliza el conocimiento aprendido para proporcionar respuestas, en lugar de adquirir nuevos conocimientos. Por lo tanto, los requisitos computacionales para el proceso de inferencia son relativamente pequeños.

Se puede ver que los requisitos de potencia computacional tanto para la inferencia de IA como para el entrenamiento de IA difieren significativamente. La disponibilidad de la potencia informática descentralizada para la inferencia y el entrenamiento de la IA se analizará más a fondo en la próxima sección de desafíos.

Además, Ritual tiene como objetivo combinar redes distribuidas con creadores de modelos para mantener la descentralización y la seguridad. Su primer producto, Infernet, permite a contratos inteligentes en la cadena de bloques acceder a modelos de IA off-chain, lo que permite que dichos contratos accedan a la IA de una manera que mantiene la verificación, la descentralización y la protección de la privacidad.

El coordinador de Infernet es responsable de gestionar el comportamiento de los nodos de la red y de responder a las peticiones computacionales de los consumidores. Cuando los usuarios usan Infernet, tareas como la inferencia y la prueba se realizan fuera de la cadena, y el resultado se devuelve al coordinador y, en última instancia, se transmite a los consumidores on-chain a través de contratos inteligentes.

Además de las redes de potencia informática descentralizadas, también existen redes de ancho de banda descentralizadas como Grass, cuyo objetivo es mejorar la velocidad y la eficiencia de la transmisión de datos. En general, la aparición de redes de potencia informática descentralizadas ofrece una nueva posibilidad para el lado de la oferta de la potencia informática de la IA, impulsando la IA en nuevas direcciones.

3.1.2 Modelo de algoritmo descentralizado

Al igual que se mencionó en el segundo capítulo, los tres elementos centrales de la IA son la potencia computacional, los algoritmos y los datos. Dado que la potencia computacional puede formar una red de suministro a través de la descentralización, ¿pueden los algoritmos también seguir un enfoque similar y formar una red de suministro para los modelos de algoritmos?

Antes de analizar los proyectos en este campo, primero entendamos la importancia de los modelos de algoritmos descentralizados. Mucha gente se preguntará, dado que ya tenemos OpenAI, ¿por qué necesitamos una red de algoritmos descentralizada

?

Esencialmente, una red de algoritmos descentralizada es un mercado de servicios de algoritmos de IA descentralizado que conecta muchos modelos de IA diferentes. Cada modelo de IA tiene su propia experiencia y habilidades. Cuando los usuarios plantean preguntas, el mercado selecciona el modelo de IA más adecuado para responder a la pregunta. Chat-GPT, desarrollado por OpenAI, es uno de esos modelos de IA que puede comprender y generar texto de manera similar a los humanos.

En términos simples, ChatGPT es como un estudiante altamente capaz que ayuda a resolver diferentes tipos de problemas, mientras que una red de algoritmos descentralizados es como una escuela con muchos estudiantes que ayudan a resolver problemas. Aunque el estudiante actual (ChatGPT) es altamente capaz, en la larga carrera, existe un gran potencial para una escuela que pueda reclutar estudiantes de todo el mundo.

Actualmente, en el campo de los modelos algorítmicos descentralizados, también hay algunos proyectos que están experimentando y explorando. A continuación, utilizaremos el proyecto representativo Bittensor como caso de estudio para ayudar a comprender el desarrollo de este nicho de mercado.

En Bittensor, el lado de la oferta de los modelos de algoritmos (o mineros) contribuye con sus modelos de aprendizaje automático a la red. Estos modelos pueden analizar datos y proporcionar información. Los proveedores de modelos reciben tokens de criptomonedas, conocidos como TAO, como recompensas por sus contribuciones.

Para garantizar la calidad de las respuestas, Bittensor utiliza un mecanismo de consenso único para llegar a un consenso sobre la mejor respuesta. Cuando se plantea una pregunta, varios mineros de modelos proporcionan respuestas. Luego, los validadores en la red comienzan a trabajar para determinar la mejor respuesta, que luego se envía de vuelta al usuario.

El token TAO en el ecosistema Bittensor juega dos roles principales a lo largo del proceso. Por un lado, sirve como incentivo para que los mineros aporten modelos algorítmicos a la red. Por otro lado, los usuarios necesitan gastar tokens para hacer preguntas y hacer que la red complete tareas.

Debido a que Bittensor está descentralizado, cualquier persona con acceso a Internet puede unirse a la red, ya sea como usuario que hace preguntas o como minero que proporciona respuestas. Esto permite que más personas aprovechen el poder de la inteligencia artificial.

En resumen, las redes de modelos de algoritmos descentralizados como Bittensor tienen el potencial de crear un panorama más abierto y transparente. En este ecosistema, los modelos de IA pueden entrenarse, compartirse y utilizarse de forma segura y descentralizada. Además, otras redes como BasedAI están intentando esfuerzos similares, con el aspecto intrigante de usar Zero-Knowledge Proofs (ZK) para proteger la privacidad de los datos interactivos del modelo de usuario, que se discutirá más a fondo en la cuarta subsección.

A medida que evolucionen las plataformas de modelos de algoritmos descentralizados, permitirán a las pequeñas empresas competir con las grandes organizaciones en el uso de herramientas de IA de vanguardia, lo que podría tener un impacto significativo en diversas industrias.

3.1.3 Recopilación descentralizada de datos

Para el entrenamiento de modelos de IA, es indispensable un gran suministro de datos. Sin embargo, la mayoría de las empresas de Web2 siguen monopolizando actualmente los datos de los usuarios. Plataformas como X, Reddit, TikTok, Snapchat, Instagram y YouTube prohíben la recopilación de datos para el entrenamiento de IA, lo que supone un obstáculo importante para el desarrollo de la industria de la IA.

Por otro lado, algunas plataformas Web2 venden datos de usuarios a empresas de IA sin compartir ningún beneficio con los usuarios. Por ejemplo, Reddit llegó a un acuerdo de 60 millones de dólares con Google, lo que le permite entrenar modelos de IA utilizando sus publicaciones. Esto da lugar a que los derechos de recopilación de datos sean monopolizados por las principales empresas de capital y big data, lo que empuja a la industria hacia una dirección intensiva en capital.

En respuesta a esta situación, algunos proyectos están aprovechando la Web3 y los incentivos simbólicos para lograr una recopilación de datos descentralizada. Tomemos PublicAI como ejemplo: los usuarios pueden participar en dos roles:

  • Una categoría son los proveedores de datos de IA. Los usuarios pueden encontrar contenido valioso en X, etiquetar @PublicAI cuenta oficial con sus ideas, y usar hashtags #AI o #Web3 para categorizar el contenido, enviándolo así al centro de datos de PublicAI para su recopilación.
  • La otra categoría son los validadores de datos. Los usuarios pueden iniciar sesión en el centro de datos de PublicAI y votar sobre los datos más valiosos para el entrenamiento de IA.

Como recompensa, los usuarios pueden ganar tokens a través de estas contribuciones, fomentando una relación de beneficio mutuo entre los contribuyentes de datos y la industria de la IA.

Además de proyectos como PublicAI, que recopilan datos específicamente para el entrenamiento de IA, hay muchos otros proyectos que utilizan incentivos simbólicos para la recopilación de datos descentralizada. Por ejemplo, Ocean recopila datos de los usuarios a través de la tokenización de datos para servir a la IA, Hivemapper utiliza las cámaras de los automóviles de los usuarios para recopilar datos de mapas, Dimo recopila datos de automóviles y WiHi recopila datos meteorológicos. Estos proyectos, a través de la recopilación descentralizada de datos, también sirven como posibles fuentes de datos para el entrenamiento de IA. Por lo tanto, en un sentido amplio, pueden incluirse en el paradigma de la Web3 que ayuda a la IA.

3.1.4 ZK protege la privacidad del usuario en IA

La tecnología de cadena de bloques ofrece beneficios de descentralización y también introduce una característica crucial: pruebas de conocimiento cero. La tecnología de conocimiento cero permite la verificación de la información manteniendo la privacidad.

En el aprendizaje automático tradicional, los datos suelen tener que almacenarse y procesarse de forma centralizada, lo que puede dar lugar a riesgos para la privacidad. Los métodos para proteger la privacidad de los datos, como la encriptación o la anonimización de datos, pueden limitar la precisión y el rendimiento de los modelos de aprendizaje automático.

La tecnología a prueba de conocimiento cero ayuda a resolver este dilema al abordar el conflicto entre la protección de la privacidad y el intercambio de datos. El aprendizaje automático de conocimiento cero (ZKML) utiliza tecnología de prueba de conocimiento cero para permitir el entrenamiento y la inferencia del modelo de aprendizaje automático sin exponer los datos originales. Las pruebas de conocimiento cero garantizan que las características de los datos y los resultados del modelo puedan verificarse como correctos sin revelar el contenido real de los datos.

El objetivo principal de ZKML es equilibrar la protección de la privacidad y el intercambio de datos. Se puede aplicar en varios escenarios, como el análisis de datos de atención médica, el análisis de datos financieros y la colaboración entre organizaciones. Al usar ZKML, las personas pueden proteger la privacidad de sus datos confidenciales mientras comparten datos con otros para obtener información más amplia y oportunidades de colaboración sin el riesgo de violaciones de la privacidad de los datos. Este campo aún se encuentra en sus primeras etapas, y la mayoría de los proyectos aún están en exploración. Por ejemplo, BasedAI propone un enfoque descentralizado mediante la integración perfecta del cifrado homomórfico completo (FHE) con los modelos de lenguaje grandes (LLM) para mantener la confidencialidad de los datos. Los modelos de lenguaje grande de conocimiento cero (ZK-LLM) integran la privacidad en su infraestructura de red distribuida, lo que garantiza que los datos de los usuarios permanezcan confidenciales durante todo el funcionamiento de la red.

Aquí hay una breve explicación del cifrado homomórfico completo (FHE). FHE es una técnica de encriptación que permite realizar cálculos en datos cifrados sin necesidad de descifrarlos. Esto significa que varias operaciones matemáticas (como la suma, la multiplicación, etc.) realizadas en datos cifrados con FHE producen los mismos resultados que si se realizaran en los datos originales no cifrados, protegiendo así la privacidad de los datos del usuario.

Además de los métodos antes mencionados, Web3 también admite IA a través de proyectos como Cortex, que permite la ejecución on-chain de programas de IA. La ejecución de programas de aprendizaje automático en cadenas de bloques tradicionales se enfrenta a un desafío, ya que las máquinas virtuales son muy ineficientes a la hora de ejecutar modelos de aprendizaje automático no triviales. La mayoría cree que ejecutar IA en la cadena de bloques es imposible. Sin embargo, la máquina virtual Cortex (CVM) utiliza GPU para ejecutar programas de IA on-chain y es compatible con la máquina virtual de Ethereum (EVM). En otras palabras, la cadena Cortex puede ejecutar todas las DApps de Ethereum e integrar el aprendizaje automático de IA en estas DApps. Esto permite que los modelos de aprendizaje automático se ejecuten de manera descentralizada, inmutable y transparente, con un consenso de red que verifica cada paso de la inferencia de IA.

3.2 La IA ayuda a la Web3

En la colisión entre la IA y la Web3, además de la asistencia de la Web3 a la IA, la asistencia de la IA a la industria de la Web3 también es digna de atención. La principal contribución de la inteligencia artificial es la mejora de la productividad, por lo que hay muchos intentos en IA auditando contratos inteligentes, análisis y predicción de datos, servicios personalizados, seguridad y protección de la privacidad, etc.

3.2.1 Análisis y predicción de datos

Muchos proyectos de Web3 están integrando servicios de IA existentes (como ChatGPT) o desarrollando los suyos propios para proporcionar servicios de análisis y predicción de datos a los usuarios de Web3. Estos servicios cubren una amplia gama, incluidos algoritmos de IA para estrategias de inversión, herramientas de análisis on-chain y pronósticos de precios y mercado.

Por ejemplo, Pond utiliza algoritmos de gráficos de IA para predecir valiosos tokens alfa futuros, ofreciendo servicios de asesoramiento de inversión a usuarios e instituciones. BullBear AI se entrena con los datos históricos de los usuarios, el historial de precios y las tendencias del mercado para proporcionar información precisa que respalde las predicciones de tendencias de precios, ayudando a los usuarios a obtener beneficios.

Plataformas como Numerai organizan concursos de inversión en los que los participantes utilizan IA y grandes modelos de lenguaje para predecir los mercados bursátiles. Entrenan modelos con datos de alta calidad proporcionados por la plataforma y envían predicciones diarias. Numerai evalúa estas predicciones durante el mes siguiente, y los participantes pueden stake NMR tokens en sus modelos para ganar recompensas basadas en el rendimiento.

Arkham, una plataforma de análisis de datos blockchain, también integra la IA en sus servicios. Arkham vincula las direcciones de blockchain a entidades como exchanges, fondos y ballenas, mostrando datos y análisis clave para dar a los usuarios una ventaja en la toma de decisiones. Arkham Ultra hace coincidir las direcciones con entidades del mundo real utilizando algoritmos desarrollados durante tres años con soporte de los fundadores de Palantir y OpenAI.

3.2.2 Servicios personalizados

Las aplicaciones de IA en la búsqueda y la recomendación prevalecen en los proyectos Web2, ya que satisfacen las necesidades personalizadas de los usuarios. Los proyectos Web3 integran de manera similar la IA para mejorar la experiencia del usuario.

Por ejemplo, la conocida plataforma de análisis de datos Dune presentó recientemente la herramienta Wand, que utiliza grandes modelos de lenguaje para escribir consultas SQL. Con Wand Create, los usuarios pueden generar consultas SQL a partir de preguntas en lenguaje natural, lo que facilita la búsqueda de datos a quienes no están familiarizados con SQL.

Las plataformas de contenido como Followin integran ChatGPT para resumir puntos de vista y actualizaciones en sectores específicos. La enciclopedia Web3 IQ.wiki pretende ser la principal fuente de conocimiento objetivo y de alta calidad sobre la tecnología blockchain y la criptomoneda. Integra GPT-4 para resumir los artículos de la wiki, lo que hace que la información de la cadena de bloques sea más accesible en todo el mundo. El motor de búsqueda Kaito, basado en LLM, pretende revolucionar la recuperación de información de la Web3.

En el ámbito creativo, proyectos como NFPrompt reducen el coste de la creación de contenidos. NFPrompt permite a los usuarios generar NFT más fácilmente con IA, proporcionando varios servicios creativos personalizados.

3.2.3 Auditoría de IA de contratos inteligentes

La auditoría de contratos inteligentes es una tarea crucial en Web3, y la IA puede mejorar la eficiencia y la precisión en la identificación de vulnerabilidades de código.

Vitalik Buterin ha señalado que uno de los mayores desafíos en el espacio de las criptomonedas son los errores en nuestro código. La IA promete simplificar significativamente el uso de herramientas de verificación formales para demostrar la corrección del código. Lograr esto podría conducir a una EVM (máquina virtual de Ethereum) SEK casi libre de errores, mejorando la seguridad espacial ya que menos errores aumentan la seguridad general.

Por ejemplo, el proyecto 0x0.ai ofrece un auditor de contratos inteligentes impulsado por IA. Esta herramienta utiliza algoritmos avanzados para analizar contratos inteligentes e identificar posibles vulnerabilidades o problemas que podrían conducir a fraudes u otros riesgos de seguridad. Los auditores utilizan el aprendizaje automático para detectar patrones y anomalías en el código, señalando posibles problemas para su posterior revisión.

Hay otros casos nativos en los que la IA ayuda a la Web3. PAAL ayuda a los usuarios a crear bots de IA personalizados que se pueden implementar en Telegram y Discord para servir a los usuarios de Web3. El agregador DEX multicadena impulsado por IA Hera utiliza IA para proporcionar las mejores rutas comerciales entre cualquier par de tokens a través de varios tokens. En general, la contribución de la IA a la Web3 se produce principalmente a nivel de herramienta, mejorando diversos procesos y funcionalidades.

Limitaciones y desafíos actuales del proyecto AI + Web3

4.1 Obstáculos realistas en Potencia computacional descentralizadas

Actualmente, muchos proyectos Web3 que ayudan a la IA se están centrando en la potencia informática descentralizada. El uso de incentivos simbólicos para promover que los usuarios globales se conviertan en parte del lado de la fuente de suministro de energía informática es una innovación muy interesante. Sin embargo, por otro lado, hay algunas cuestiones realistas que deben abordarse:

En comparación con los proveedores de servicios de potencia informática centralizada, los productos de potencia informática descentralizada suelen depender de nodos y participantes distribuidos por todo el mundo para proporcionar recursos informáticos. Debido a la posible latencia e inestabilidad en las conexiones de red entre estos nodos, el rendimiento y la estabilidad pueden ser peores que los productos de potencia informática centralizada.

Además, la disponibilidad de productos de potencia informática descentralizada se ve afectada por el grado de coincidencia entre la oferta y la demanda. Si no hay suficientes proveedores o si la demanda es demasiado alta, puede provocar una escasez de recursos o la incapacidad de satisfacer las necesidades de los usuarios.

Por último, en comparación con los productos de potencia informática centralizada, los productos de potencia informática descentralizada suelen implicar más detalles técnicos y complejidad. Es posible que los usuarios necesiten comprender y manejar aspectos de las redes distribuidas, los contratos inteligentes y los pagos con criptomonedas, lo que aumenta el costo de comprensión y uso del usuario.

Después de discusiones en profundidad con numerosos equipos de proyectos de potencia informática descentralizada, se descubrió que la potencia informática descentralizada actual todavía se limita principalmente a la inferencia de IA en lugar de al entrenamiento de IA.

A continuación, usaré cuatro preguntas para ayudar a todos a comprender las razones detrás de esto:

  1. ¿Por qué la mayoría de los proyectos de potencia informática descentralizada optan por hacer inferencias de IA en lugar de entrenamiento de IA?

  2. ¿Qué hace que NVIDIA sea tan potente? ¿Cuáles son las razones por las que la capacitación en potencia informática descentralizada es difícil?

  3. ¿Cuál será el objetivo final de la potencia informática descentralizada (Render, Akash, io.net, etc.)?

  4. ¿Cuál será el objetivo final de los algoritmos descentralizados (Bittensor)?

Profundicemos en los detalles paso a paso:

1) Al observar este campo, la mayoría de los proyectos de potencia informática descentralizada optan por centrarse en la inferencia de IA en lugar de en el entrenamiento, principalmente debido a los diferentes requisitos de potencia informática y ancho de banda.

Para ayudar a todos a entenderlo mejor, comparemos la IA con un estudiante:

  • Entrenamiento de IA: Si comparamos la inteligencia artificial con un estudiante, el entrenamiento es similar a proporcionar a la IA una gran cantidad de conocimientos y ejemplos, similar a lo que a menudo nos referimos como datos. La IA aprende de estos ejemplos. Dado que el aprendizaje implica comprender y memorizar grandes cantidades de información, este proceso requiere una potencia informática y un tiempo considerables.

  • Inferencia de IA: La inferencia puede entenderse como el uso de los conocimientos adquiridos para resolver problemas o realizar exámenes. Durante la inferencia, la IA utiliza el conocimiento aprendido para responder preguntas en lugar de adquirir nueva información, por lo que los requisitos computacionales son relativamente menores.

Es fácil ver que la diferencia fundamental en la dificultad radica en el hecho de que el entrenamiento de IA de modelos grandes requiere enormes volúmenes de datos y un ancho de banda extremadamente alto para la transmisión de datos, lo que lo hace muy difícil de lograr con una potencia informática descentralizada. Por el contrario, la inferencia requiere muchos menos datos y ancho de banda, lo que la hace más factible.

Para los modelos grandes, la estabilidad es crucial. Si se interrumpe el entrenamiento, debe reiniciarse, lo que resulta en altos costos hundidos. Por otro lado, se pueden lograr demandas con requisitos de potencia de cómputo relativamente más bajos, como la inferencia de IA o ciertos escenarios específicos que involucran el entrenamiento de modelos medianos a pequeños. En las redes de potencia informática descentralizadas, algunos proveedores de servicios de nodos relativamente grandes pueden satisfacer estas demandas de potencia informática relativamente más altas.

2) Entonces, ¿dónde están los cuellos de botella en los datos y el ancho de banda? ¿Por qué es difícil lograr una formación descentralizada?

Esto implica dos elementos clave del entrenamiento de modelos grandes: la potencia de cálculo de una sola tarjeta y el paralelismo de varias tarjetas.

Potencia de cómputo de una sola tarjeta: Actualmente, todos los centros que requieren entrenamiento de modelos grandes, denominados centros de supercomputación, se pueden comparar con el cuerpo humano, donde la unidad subyacente, la GPU, es como una célula. Si la potencia de cálculo de una sola célula (GPU) es fuerte, entonces la potencia de cálculo general (una sola célula × cantidad) también puede ser muy fuerte.

Paralelismo de varias tarjetas: el entrenamiento de un modelo grande a menudo implica cientos de miles de millones de gigabytes. Para los centros de supercomputación que entrenan modelos grandes, se requieren al menos decenas de miles de GPU A100. Para ello es necesario movilizar miles de tarjetas para la formación. Sin embargo, el entrenamiento de un modelo grande no es un simple proceso en serie; no solo entrena en la primera tarjeta A100 y luego pasa a la segunda. En su lugar, las diferentes partes del modelo se entrenan en diferentes GPU simultáneamente, y la parte A de entrenamiento puede requerir resultados de la parte B, que implica un procesamiento en paralelo.

El dominio de NVIDIA y el aumento del valor de mercado, mientras que AMD y empresas nacionales como Huawei y Horizon tienen dificultades para ponerse al día, se deben a dos aspectos: el entorno de software CUDA y la comunicación multitarjeta NVLink.

Entorno de software CUDA: Es crucial que exista un ecosistema de software que coincida con el hardware, como el sistema CUDA de NVIDIA. La construcción de un nuevo sistema es un desafío, similar a la creación de un nuevo lenguaje con altos costos de reemplazo.

Comunicación multitarjeta NVLink: Esencialmente, la comunicación multitarjeta implica la entrada y salida de información. La forma de paralelizar y transmitir es crucial. La presencia de NVLink significa que las tarjetas NVIDIA y AMD no pueden comunicarse; además, NVLink limita la distancia física entre las GPU, lo que requiere que estén en el mismo centro de supercomputación. Esto dificulta que la potencia informática descentralizada repartida por todo el mundo forme un clúster informático cohesivo para el entrenamiento de modelos grandes.

El primer punto explica por qué AMD y empresas nacionales como Huawei y Horizon luchan por ponerse al día; el segundo punto explica por qué la capacitación descentralizada es difícil de lograr.

3) ¿Cuál será el objetivo final de la potencia informática descentralizada? En la actualidad, la potencia informática descentralizada tiene dificultades con el entrenamiento de modelos grandes porque la estabilidad es primordial. Las interrupciones requieren un nuevo entrenamiento, lo que resulta en altos costos irrecuperables. Los altos requisitos para el paralelismo de varias tarjetas están limitados por las restricciones de ancho de banda físico. NVLink de NVIDIA logra la comunicación de múltiples tarjetas, pero dentro de un centro de supercomputación, NVLink limita la distancia física entre las GPU. Por lo tanto, la potencia informática dispersa no puede formar un clúster informático para el entrenamiento de modelos grandes.

Sin embargo, para demandas con requisitos de potencia de cómputo relativamente más bajos, como la inferencia de IA o ciertos escenarios específicos que implican el entrenamiento de modelos medianos a pequeños, las redes de potencia de cómputo descentralizadas con algunos proveedores de servicios de nodos relativamente grandes tienen potencial. Además, escenarios como la computación perimetral para el renderizado son relativamente más fáciles de implementar.

4) ¿Cuál será el objetivo final de los modelos algorítmicos descentralizados? El futuro de los modelos de algoritmos descentralizados depende de la dirección final de la IA. Creo que el futuro de la IA podría contar con 1 o 2 gigantes de modelos de código cerrado (como ChatGPT) junto con una gran cantidad de modelos. En este contexto, los productos de capa de aplicación no necesitan enlazarse a un único modelo grande, sino que cooperan con varios modelos grandes. En este escenario, el modelo de Bittensor muestra un potencial significativo.

proyectos actuales que combinan la Web3 y la IA, en particular aquellos en los que la IA ayuda a las iniciativas de la Web3, la mayoría de los proyectos se limitan a utilizar la IA de forma superficial sin demostrar una integración profunda entre la IA y las criptomonedas. Esta aplicación superficial se evidencia en los siguientes dos aspectos:

  • En primer lugar, ya sea que se utilice la IA para el análisis y la predicción de datos, en escenarios de recomendación y búsqueda, o para la auditoría de código, hay poca diferencia en comparación con la integración de la IA en los proyectos Web2. Estos proyectos simplemente aprovechan la IA para mejorar la eficiencia y el análisis sin mostrar una fusión nativa de IA y criptomonedas ni presentar soluciones innovadoras.
  • En segundo lugar, muchos equipos de Web3 incorporan la IA más como un truco de marketing, aprovechando únicamente el concepto de IA. Aplican la tecnología de IA en áreas muy limitadas y luego comienzan a promover la tendencia de la IA, creando una fachada de estrecha integración con la IA. Sin embargo, estos proyectos carecen de una innovación sustancial.

Aunque los proyectos actuales de Web3 e IA tienen estas limitaciones, debemos reconocer que esto es solo la etapa inicial de desarrollo. En el futuro, podemos esperar una investigación e innovación más profundas para lograr una integración más estrecha entre la IA y las criptomonedas, creando soluciones más nativas y significativas en áreas como las finanzas, las organizaciones autónomas descentralizadas (DAO), los mercados de predicción y los NFT.

4.3 Token Economics sirven como amortiguador para las narrativas de proyectos de IA

Como se mencionó inicialmente, los proyectos de IA enfrentan desafíos en sus modelos de negocio, especialmente a medida que más y más modelos grandes se están convirtiendo gradualmente en código abierto. Muchos proyectos de IA + Web3, a menudo proyectos de IA pura que luchan por prosperar y asegurar la financiación en el espacio Web2, optan por superponer narrativas y economía simbólica de Web3 para fomentar la participación de los usuarios.

Sin embargo, la pregunta crucial es si la integración de la economía de tokens realmente ayuda a los proyectos de IA a abordar las necesidades del mundo real o si simplemente sirve como una propuesta de valor narrativa o a coro plazo. Actualmente, la mayoría de los proyectos de IA + Web3 están lejos de llegar a una etapa práctica. Se espera que los equipos más aterrizados y reflexivos no solo usen tokens como un medio para promocionar proyectos de IA, sino que también cumplan genuinamente con casos de uso prácticos.

Resumen

Actualmente, han surgido numerosos casos y aplicaciones en proyectos de IA + Web3. En primer lugar, la tecnología de IA puede proporcionar casos de uso más eficientes e inteligentes para la Web3. A través de las capacidades de la IA en el análisis y la predicción de datos, los usuarios de Web3 pueden tener mejores herramientas para tomar decisiones de inversión y otros escenarios. Además, la IA puede auditar el código de los contratos inteligentes, optimizar la ejecución de los contratos y mejorar el rendimiento y la eficiencia de la cadena de bloques. Además, la tecnología de IA puede ofrecer recomendaciones más precisas e inteligentes y servicios personalizados para aplicaciones descentralizadas, mejorando así la experiencia del usuario.

Al mismo tiempo, la naturaleza descentralizada y programable de la Web3 también presenta nuevas oportunidades para la tecnología de IA. A través de incentivos simbólicos, los proyectos de potencia informática descentralizada proporcionan nuevas soluciones al dilema de la insuficiente potencia informática de la IA. Los contratos inteligentes y los mecanismos de almacenamiento distribuido de Web3 también ofrecen un espacio y recursos más amplios para compartir y entrenar algoritmos de IA. La autonomía del usuario y los mecanismos de confianza de la Web3 también ofrecen nuevas posibilidades para el desarrollo de la IA, ya que permiten a los usuarios elegir de forma autónoma participar en el intercambio y la formación de datos, mejorando así la diversidad y la calidad de los datos y mejorando aún más el rendimiento y la precisión de los modelos de IA.

Aunque los actuales proyectos cruzados de IA + Web3 aún se encuentran en sus primeras etapas y se enfrentan a muchos desafíos, también aportan muchas ventajas. Por ejemplo, los productos de potencia informática descentralizada tienen algunos inconvenientes, pero reducen la dependencia de las instituciones centralizadas, proporcionan una mayor transparencia y auditabilidad, y permiten una mayor participación e innovación. Para casos de uso específicos y necesidades de los usuarios, los productos de potencia informática descentralizada pueden ser una opción valiosa. Lo mismo se aplica a la recopilación de datos; Los proyectos de recopilación de datos descentralizados ofrecen ventajas como la reducción de la dependencia de fuentes de datos únicas, la provisión de una cobertura de datos más amplia y la promoción de la diversidad y la inclusión de datos. En la práctica, es necesario equilibrar estas ventajas y desventajas y tomar medidas técnicas y de gestión adecuadas para superar los desafíos, asegurando que los proyectos descentralizados de recopilación de datos tengan un impacto positivo en el desarrollo de la IA.

En general, la integración de la IA + Web3 ofrece infinitas posibilidades para la futura innovación tecnológica y el desarrollo económico. Al combinar las capacidades inteligentes de análisis y toma de decisiones de la IA con la naturaleza descentralizada y autónoma del usuario de la Web3, se cree que podemos construir un sistema económico e incluso social más inteligente, más abierto y más justo.

Disclaimer:

  1. Este artículo es una reimpresión de [Ryze Labs]. Todos los derechos de autor pertenecen al autor original [Fred]. Si hay objeciones a esta reimpresión, póngase en contacto con el equipo de Gate Learn, y ellos se encargarán de ello con prontitud.
  2. Descargo de responsabilidad: Los puntos de vista y opiniones expresados en este artículo son únicamente los del autor y no constituyen ningún consejo de inversión.
  3. Las traducciones del artículo a otros idiomas son realizadas por el equipo de Gate Learn. A menos que se mencione, está prohibido copiar, distribuir o plagiar los artículos traducidos.

Análisis en profundidad: ¿Qué tipo de chispas pueden crear la IA y la Web3?

Avanzado6/7/2024, 5:04:48 AM
Este artículo explora el rápido desarrollo de las tecnologías de Inteligencia Artificial (IA) y Web3 y el valor potencial y el impacto de su integración. La IA destaca en la mejora de la productividad, mientras que la Web3 transforma las relaciones de producción a través de la descentralización. La combinación de estas tecnologías aporta aplicaciones innovadoras en el análisis de datos, servicios personalizados al usuario y protección de la seguridad y la privacidad.

Introducción: Desarrollo de IA+Web3

En los últimos años, el rápido desarrollo de las tecnologías de Inteligencia Artificial (IA) y Web3 ha atraído una amplia atención mundial. La IA, una tecnología que simula e imita la inteligencia humana, ha logrado avances significativos en campos como el reconocimiento facial, el procesamiento del lenguaje natural y el aprendizaje automático. El rápido avance de la tecnología de IA ha traído consigo una enorme transformación e innovación en diversas industrias.

La industria de la IA alcanzó un tamaño de mercado de 200 mil millones de dólares en 2023, con gigantes de la industria y actores destacados como OpenAI, Character.AI y Midjourney emergiendo rápidamente y líder el auge de la IA.

Al mismo tiempo, la Web3, un modelo emergente de Internet, está cambiando gradualmente nuestra percepción y uso de Internet. Basado en la tecnología blockchain descentralizada, Web3 realiza el intercambio y control de datos, la autonomía del usuario y el establecimiento de mecanismos de confianza a través de características como contratos inteligentes, almacenamiento distribuido y verificación de identidad descentralizada. La idea central de la Web3 es liberar los datos de las autoridades centralizadas, otorgando a los usuarios el control y la capacidad de compartir el valor de sus datos.

Actualmente, el valor de mercado de la industria Web3 ha alcanzado los 25 billones de dólares. Desde Bitcoin, Ethereum y Solana hasta jugadores a nivel de aplicación como Uniswap y Stepn, continuamente surgen nuevas narrativas y escenarios, atrayendo a más y más personas a unirse a la industria Web3.

Es evidente que la integración de la IA y la Web3 es un punto focal para los constructores y capitalistas de riesgo tanto de Oriente como de Occidente. Explorar cómo combinar de manera efectiva estas dos tecnologías es un esfuerzo que vale la pena.

Este artículo se centrará en el estado actual del desarrollo de la IA+Web3, explorando el valor potencial y el impacto de su integración. En primer lugar, presentaremos los conceptos básicos y las características de la IA y la Web3, y luego hablaremos de su interrelación. A continuación, analizaremos el estado actual de los proyectos de IA+Web3 y profundizaremos en las limitaciones y retos a los que se enfrentan. A través de esta investigación, nuestro objetivo es proporcionar referencias y conocimientos valiosos para inversores y profesionales de la industria.

Cómo interactúa la IA con la Web3

El desarrollo de la IA y la Web3 puede verse como dos caras de la balanza: la IA aporta mejoras en la productividad, mientras que la Web3 revoluciona las relaciones de producción. Entonces, ¿qué tipo de chispas pueden crear la IA y la Web3 cuando chocan? Primero analizaremos los desafíos y las posibles mejoras en las industrias de IA y Web3, y luego exploraremos cómo pueden ayudar a resolver los problemas de los demás.

  1. Desafíos y posibles mejoras en la industria de la IA
  2. Desafíos y posibles mejoras en la industria Web3

2.1 Desafíos en la industria de la IA

Para explorar los retos a los que se enfrenta la industria de la IA, primero debemos entender su esencia. El núcleo de la industria de la IA gira en torno a tres elementos clave: potencia computacional, algoritmos y datos.

  1. En primer lugar, la potencia computacional: La potencia computacional se refiere a la capacidad de realizar cálculos y procesamiento a gran escala. Las tareas de IA suelen requerir el manejo de grandes cantidades de datos y la realización de cálculos complejos, como el entrenamiento de modelos de redes neuronales profundas. La alta potencia computacional puede acelerar el entrenamiento de modelos y los procesos de inferencia, mejorando el rendimiento y la eficiencia de los sistemas de IA. En los últimos años, los avances en la tecnología de hardware, como las unidades de procesamiento gráfico (GPU) y los chips de IA dedicados (como los TPU), han aumentado significativamente la potencia computacional, impulsando el desarrollo de la industria de la IA. Nvidia, uno de los principales proveedores de GPU, ha visto cómo el precio de sus acciones se ha disparado en los últimos años, capturando una gran cuota de mercado y obteniendo importantes beneficios.
  2. Qué es un algoritmo: Los algoritmos son los componentes centrales de los sistemas de IA. Son métodos matemáticos y estadísticos que se utilizan para resolver problemas y realizar tareas. Los algoritmos de IA se pueden clasificar en algoritmos tradicionales de aprendizaje automático y algoritmos de aprendizaje profundo, y los algoritmos de aprendizaje profundo han logrado avances significativos en los últimos años. La elección y el diseño de los algoritmos son cruciales para el rendimiento y la eficacia de los sistemas de IA. La mejora continua y la innovación en los algoritmos pueden mejorar la precisión, la solidez y las capacidades de generalización de los sistemas de IA. Diferentes algoritmos producen diferentes resultados, por lo que los avances en los algoritmos son esenciales para el rendimiento de las tareas.
  3. Por qué son importantes los datos: La tarea principal de los sistemas de IA es extraer patrones y reglas de los datos a través del aprendizaje y la formación. Los datos forman la base para entrenar y optimizar modelos. Con muestras de datos a gran escala, los sistemas de IA pueden aprender modelos más precisos e inteligentes. Los conjuntos de datos enriquecidos proporcionan información completa y diversa, lo que permite que los modelos generalicen mejor a los datos no vistos y ayudan a los sistemas de IA a comprender y resolver mejor los problemas del mundo real.

Después de comprender los tres elementos centrales de la IA actual, examinemos las dificultades y los desafíos que enfrenta la IA en estas áreas.

En primer lugar, en términos de potencia computacional, las tareas de IA suelen requerir una gran cantidad de recursos computacionales para el entrenamiento y la inferencia de modelos, especialmente para los modelos de aprendizaje profundo. Sin embargo, obtener y gestionar la potencia computacional a gran escala es un reto costoso y complejo. El costo, el consumo de energía y el mantenimiento de los equipos informáticos de alto rendimiento son problemas importantes. Esto es particularmente desafiante para las nuevas empresas y los desarrolladores individuales, para quienes adquirir suficiente potencia computacional puede ser difícil.

En cuanto a los algoritmos, a pesar de los importantes éxitos de los algoritmos de aprendizaje profundo en muchos campos, todavía existen retos y dificultades. Por ejemplo, el entrenamiento de redes neuronales profundas requiere una gran cantidad de datos y recursos computacionales. Además, para ciertas tareas, la interpretabilidad y la explicabilidad de los modelos pueden ser insuficientes. La robustez y las capacidades de generalización de los algoritmos también son cuestiones cruciales, ya que el rendimiento del modelo en datos no vistos puede ser inestable. Encontrar el mejor algoritmo para proporcionar un rendimiento óptimo entre muchos algoritmos es una exploración continua.

En términos de datos, los datos son la fuerza impulsora detrás de la IA, pero obtener datos diversos y de alta calidad sigue siendo un desafío. Los datos en algunos campos, como los datos de salud sensibles en el sector médico, pueden ser difíciles de obtener. Además, la calidad, la precisión y el etiquetado de los datos son cuestiones críticas, ya que los datos incompletos o sesgados pueden dar lugar a un comportamiento erróneo del modelo o a sesgos. La protección de la privacidad y la seguridad de los datos también es una consideración importante.

Además, hay cuestiones relacionadas con la interpretabilidad y la transparencia. La naturaleza de "caja negra" de los modelos de IA es una preocupación pública. En ciertas aplicaciones, como las finanzas, la atención médica y la justicia, el proceso de toma de decisiones de los modelos debe ser interpretable y rastreable. Sin embargo, los modelos de aprendizaje profundo existentes a menudo carecen de transparencia. Explicar el proceso de toma de decisiones de los modelos y proporcionar explicaciones fiables sigue siendo un reto.

Además, los modelos de negocio de muchos proyectos de startups de IA no están muy claros, lo que también causa confusión a muchos emprendedores de IA.

2.2 Desafíos en la industria Web3

En la industria Web3, existen numerosos desafíos que deben abordarse, que abarcan desde el análisis de datos y la experiencia del usuario hasta las vulnerabilidades de los contratos inteligentes y los ataques de piratas informáticos. La IA, como herramienta para mejorar la productividad, tiene un potencial significativo en estas áreas.

En primer lugar, hay margen de mejora en el análisis de datos y las capacidades predictivas. Las aplicaciones de IA en el análisis y la predicción de datos han tenido un impacto significativo en la industria de la Web3. A través del análisis inteligente y la minería mediante algoritmos de IA, las plataformas Web3 pueden extraer información valiosa de grandes cantidades de datos y hacer predicciones y decisiones más precisas. Esto es particularmente importante para la evaluación de riesgos, la previsión del mercado y la gestión de activos en las finanzas descentralizadas (DeFi).

Además, existe la posibilidad de mejorar la experiencia del usuario y los servicios de personalización. Las aplicaciones de IA permiten a las plataformas Web3 ofrecer mejores experiencias de usuario y servicios personalizados. Al analizar y modelar los datos de los usuarios, las plataformas Web3 pueden proporcionar recomendaciones personalizadas, servicios personalizados y experiencias de interacción inteligentes. Esto ayuda a aumentar el compromiso y la satisfacción de los usuarios, fomentando el desarrollo del ecosistema Web3. Por ejemplo, muchos protocolos Web3 integran herramientas de IA como ChatGPT para servir mejor a los usuarios.

En términos de seguridad y protección de la privacidad, las aplicaciones de IA también tienen un profundo impacto en la industria Web3. La tecnología de IA se puede utilizar para detectar y defenderse de los ataques a la red, identificar comportamientos anormales y proporcionar medidas de seguridad más sólidas. Además, la IA se puede aplicar a la protección de la privacidad de los datos, salvaguardando la información personal de los usuarios en las plataformas Web3 a través de técnicas como la encriptación de datos y la informática de privacidad. Con respecto a la auditoría de contratos inteligentes, como pueden existir vulnerabilidades y riesgos de seguridad en los procesos de redacción y auditoría de contratos inteligentes, la tecnología de IA se puede utilizar para la auditoría automatizada de contratos y la detección de vulnerabilidades, mejorando la seguridad y confiabilidad de los contratos.

Es evidente que la IA puede contribuir significativamente a abordar los desafíos y las posibles mejoras en la industria Web3 en varios aspectos.

Análisis de la situación actual del proyecto AI+Web3

La combinación de proyectos de IA y Web3 se centra principalmente en dos aspectos principales: aprovechar la tecnología blockchain para mejorar los proyectos de IA y utilizar la tecnología de IA para servir a la mejora de los proyectos Web3. Numerosos proyectos han surgido a lo largo de este camino, entre ellos Io.net, Gensyn, Ritual, entre otros. El siguiente análisis profundizará en los diferentes subdominios en los que la IA ayuda a la Web3 y en los que la Web3 mejora la IA.

3.1 Web3 ayuda a la IA

3.1.1 Potencia computacional descentralizada

Desde el lanzamiento de ChatGPT por parte de OpenAI a finales de 2022, se desató un frenesí en el campo de la IA. A los cinco días de su lanzamiento, la base de usuarios alcanzó el millón, superando la tasa de descarga de Instagram, que tardó aproximadamente dos meses y medio en alcanzar el mismo hito. Posteriormente, ChatGPT experimentó un rápido crecimiento, con usuarios activos mensuales que alcanzaron los 100 millones en dos meses y usuarios activos semanales que alcanzaron los 100 millones en noviembre de 2023. Con la llegada de ChatGPT, el sector de la IA pasó rápidamente de ser un campo de nicho a una industria de gran prestigio.

Según el informe de Trendforce, ChatGPT requiere 30.000 GPU NVIDIA A100 para funcionar, y los modelos futuros como GPT-5 requerirán aún más potencia computacional. Esto ha provocado una carrera armamentista entre varias empresas de IA, ya que poseer suficiente potencia computacional es crucial para mantener una ventaja competitiva en el ámbito de la IA, líder a la escasez de GPU.

Antes de subir la IA, el principal proveedor de GPU, NVIDIA, atendía principalmente a clientes de los tres principales servicios en la nube: AWS, Azure y GCP. Con la llegada de la inteligencia artificial, surgieron numerosos compradores nuevos, incluidas las principales compañías tecnológicas como Meta, Oracle, así como otras plataformas de datos y nuevas empresas de IA, que se subieron a la carrera para almacenar GPU para entrenar modelos de IA. Las grandes empresas tecnológicas como Meta y Tesla aumentaron significativamente sus compras de modelos de IA personalizados y de investigación interna. Las empresas de modelos básicos como Anthropic y las plataformas de datos como Snowflake y Databricks también compraron más GPU para ayudar a sus clientes a proporcionar servicios de IA.

Como mencionó Semi Analysis el año pasado, existe una división entre las empresas "ricas en GPU" y las "pobres en GPU", ya que solo unas pocas poseen más de 20,000 GPU A100 / H100, lo que permite a los miembros del equipo utilizar entre 100 y 1000 GPU para proyectos. Estas empresas son proveedores de la nube o han construido sus propios modelos de lenguaje (LLM), incluidos OpenAI, Google, Meta, Anthropic, Inflection, Tesla, Oracle, Mistral, entre otros.

Sin embargo, la mayoría de las empresas caída en la categoría de "pobres en GPU", luchando con un número significativamente menor de GPU y dedicando una cantidad considerable de tiempo y esfuerzo a tareas que son más difíciles para avanzar en el ecosistema. Además, esta situación no se limita a las startups. Algunas de las empresas de IA más conocidas, como Hugging Face, Databricks (MosaicML), Together e incluso Snowflake, tienen cantidades de A100/H100 inferiores a 20.000. A pesar de tener talento técnico de clase mundial, estas empresas están limitadas por el suministro limitado de GPU, lo que las coloca en desventaja en comparación con las empresas más grandes en la competencia de IA.

Esta escasez no se limita a la categoría "GPU pobre"; incluso a fines de 2023, el jugador líder de IA, OpenAI, tuvo que cerrar temporalmente los registros pagados debido a la incapacidad de obtener suficientes GPU y tuvo que adquirir más suministros de GPU.

Es evidente que el rápido desarrollo de la IA ha provocado un grave desajuste entre la demanda y la oferta de GPU, creando una inminente escasez de suministro.

Para abordar este problema, algunos proyectos Web3 han comenzado a explorar soluciones de potencia informática descentralizada, aprovechando las características únicas de la tecnología Web3. Estos proyectos incluyen Akash, Render, Gensyn, entre otros. La característica común entre estos proyectos es el uso de tokens para incentivar a los usuarios a proporcionar potencia de cómputo de GPU inactiva, convirtiéndose así en el lado de la oferta de potencia de cómputo para clientes de IA de soporte.

El perfil del lado de la oferta consta principalmente de tres aspectos: proveedores de servicios en la nube, mineros de criptomonedas y empresas. Los proveedores de servicios en la nube incluyen los principales proveedores de servicios en la nube (como AWS, Azure, GCP) y proveedores de servicios en la nube de GPU (como Coreweave, Lambda, Crusoe), donde los usuarios pueden revender la potencia informática inactiva de estos proveedores para generar ingresos. Con la transición de Ethereum de PoW a PoS, la potencia de cómputo de GPU inactiva se ha convertido en un importante lado de suministro potencial para los mineros de criptomonedas. Además, grandes empresas como Tesla y Meta, que han comprado grandes cantidades de GPU con fines estratégicos, también pueden contribuir con su potencia de cálculo de GPU inactiva como parte del lado de la oferta.

En la actualidad, los actores de este campo pueden dividirse generalmente en dos categorías: los que utilizan la potencia informática descentralizada para la inferencia de la IA y los que la utilizan para el entrenamiento de la IA. La primera categoría incluye proyectos como Render (aunque se centra en el renderizado, también se puede utilizar para la computación de IA), Akash, Aethir, mientras que la segunda categoría incluye proyectos como io.net (que admite tanto la inferencia como el entrenamiento) y Gensyn. La diferencia clave entre los dos radica en los diferentes requisitos de potencia de cómputo.

Hablemos primero de los proyectos centrados en la inferencia de IA. Estos proyectos atraen a los usuarios para proporcionar potencia informática a través de incentivos simbólicos y luego proporcionar servicios de red de potencia informática al lado de la demanda, facilitando así la coincidencia de la oferta y la demanda de potencia informática inactiva. Los detalles sobre estos proyectos se tratan en un informe de investigación de DePIN de nuestros laboratorios Ryze, no dude en leerlos.

El punto central radica en el mecanismo de incentivos simbólicos, donde el proyecto atrae primero a los proveedores y luego a los usuarios, logrando así el mecanismo de arranque en frío y operación central del proyecto, lo que permite una mayor expansión y desarrollo. En este ciclo, el lado de la oferta recibe recompensas simbólicas más valiosas, mientras que el lado de la demanda disfruta de servicios más rentables. El valor de los tokens del proyecto y el crecimiento de los participantes tanto de la oferta como de la demanda se mantienen constantes. A medida que aumenta el precio del token, se atraen más participantes y especuladores, lo que crea un bucle de captura de valor.

Otra categoría implica el uso de potencia informática descentralizada para el entrenamiento de IA, como Gensyn y io.net (que soporte tanto el entrenamiento como la inferencia de IA). De hecho, la lógica operativa de estos proyectos no es fundamentalmente diferente de la de los proyectos de inferencia de IA. Todavía dependen de incentivos simbólicos para atraer la participación del lado de la oferta para proporcionar potencia de cómputo, que luego es utilizada por el lado de la demanda.

io.net, como red de potencia informática descentralizada, cuenta actualmente con más de 500.000 GPU, lo que la convierte en una empresa destacada en los proyectos de potencia informática descentralizada. Además, ha integrado la potencia de cómputo de Render y Filecoin, lo que demuestra el desarrollo continuo de su ecosistema.

Además, Gensyn facilita la asignación de tareas de aprendizaje automático y las recompensas a través de contratos inteligentes para permitir el entrenamiento de IA. Como se ilustra en el siguiente diagrama, el costo por hora del trabajo de capacitación de aprendizaje automático en Gensyn es de aproximadamente 0,4 USD, que es significativamente más bajo que el costo de más de 2 USD en AWS y GCP.

El ecosistema Gensyn cuenta con la participación de cuatro entidades:

  • Remitentes: Estos son los usuarios del lado de la demanda que consumen tareas y pagan por tareas de entrenamiento de IA.
  • Ejecutores: Los ejecutores llevan a cabo las tareas de entrenamiento del modelo y proporcionan pruebas de finalización de la tarea para su verificación.
  • Verificadores: los verificadores conectan el proceso de entrenamiento no determinista con el cálculo lineal determinista. Comparan las pruebas proporcionadas por los albaceas con los umbrales esperados.
  • Reporteros: Los reporteros inspeccionan el trabajo de los verificadores y plantean desafíos para obtener recompensas al identificar problemas.

Como podemos ver, Gensyn tiene como objetivo convertirse en un protocolo informático masivamente escalable y rentable para modelos globales de aprendizaje profundo. Sin embargo, si nos fijamos en este campo, ¿por qué la mayoría de los proyectos eligen la potencia informática descentralizada para la inferencia de IA en lugar de la formación?

Ayudemos también a los amigos que no están familiarizados con el entrenamiento y la inferencia de IA a comprender la diferencia entre los dos:

  • Entrenamiento de IA: Si comparamos la inteligencia artificial con un estudiante, entonces el entrenamiento es similar a proporcionar a la IA una gran cantidad de conocimientos y ejemplos, que pueden entenderse como datos. La IA aprende de estos ejemplos. Debido a que el aprendizaje implica comprender y memorizar una gran cantidad de información, este proceso requiere una cantidad significativa de potencia computacional y tiempo.
  • Inferencia de IA: Entonces, ¿qué es la inferencia? Se puede entender como el uso de los conocimientos aprendidos para resolver problemas o realizar exámenes. Durante la inferencia, la inteligencia artificial utiliza el conocimiento aprendido para proporcionar respuestas, en lugar de adquirir nuevos conocimientos. Por lo tanto, los requisitos computacionales para el proceso de inferencia son relativamente pequeños.

Se puede ver que los requisitos de potencia computacional tanto para la inferencia de IA como para el entrenamiento de IA difieren significativamente. La disponibilidad de la potencia informática descentralizada para la inferencia y el entrenamiento de la IA se analizará más a fondo en la próxima sección de desafíos.

Además, Ritual tiene como objetivo combinar redes distribuidas con creadores de modelos para mantener la descentralización y la seguridad. Su primer producto, Infernet, permite a contratos inteligentes en la cadena de bloques acceder a modelos de IA off-chain, lo que permite que dichos contratos accedan a la IA de una manera que mantiene la verificación, la descentralización y la protección de la privacidad.

El coordinador de Infernet es responsable de gestionar el comportamiento de los nodos de la red y de responder a las peticiones computacionales de los consumidores. Cuando los usuarios usan Infernet, tareas como la inferencia y la prueba se realizan fuera de la cadena, y el resultado se devuelve al coordinador y, en última instancia, se transmite a los consumidores on-chain a través de contratos inteligentes.

Además de las redes de potencia informática descentralizadas, también existen redes de ancho de banda descentralizadas como Grass, cuyo objetivo es mejorar la velocidad y la eficiencia de la transmisión de datos. En general, la aparición de redes de potencia informática descentralizadas ofrece una nueva posibilidad para el lado de la oferta de la potencia informática de la IA, impulsando la IA en nuevas direcciones.

3.1.2 Modelo de algoritmo descentralizado

Al igual que se mencionó en el segundo capítulo, los tres elementos centrales de la IA son la potencia computacional, los algoritmos y los datos. Dado que la potencia computacional puede formar una red de suministro a través de la descentralización, ¿pueden los algoritmos también seguir un enfoque similar y formar una red de suministro para los modelos de algoritmos?

Antes de analizar los proyectos en este campo, primero entendamos la importancia de los modelos de algoritmos descentralizados. Mucha gente se preguntará, dado que ya tenemos OpenAI, ¿por qué necesitamos una red de algoritmos descentralizada

?

Esencialmente, una red de algoritmos descentralizada es un mercado de servicios de algoritmos de IA descentralizado que conecta muchos modelos de IA diferentes. Cada modelo de IA tiene su propia experiencia y habilidades. Cuando los usuarios plantean preguntas, el mercado selecciona el modelo de IA más adecuado para responder a la pregunta. Chat-GPT, desarrollado por OpenAI, es uno de esos modelos de IA que puede comprender y generar texto de manera similar a los humanos.

En términos simples, ChatGPT es como un estudiante altamente capaz que ayuda a resolver diferentes tipos de problemas, mientras que una red de algoritmos descentralizados es como una escuela con muchos estudiantes que ayudan a resolver problemas. Aunque el estudiante actual (ChatGPT) es altamente capaz, en la larga carrera, existe un gran potencial para una escuela que pueda reclutar estudiantes de todo el mundo.

Actualmente, en el campo de los modelos algorítmicos descentralizados, también hay algunos proyectos que están experimentando y explorando. A continuación, utilizaremos el proyecto representativo Bittensor como caso de estudio para ayudar a comprender el desarrollo de este nicho de mercado.

En Bittensor, el lado de la oferta de los modelos de algoritmos (o mineros) contribuye con sus modelos de aprendizaje automático a la red. Estos modelos pueden analizar datos y proporcionar información. Los proveedores de modelos reciben tokens de criptomonedas, conocidos como TAO, como recompensas por sus contribuciones.

Para garantizar la calidad de las respuestas, Bittensor utiliza un mecanismo de consenso único para llegar a un consenso sobre la mejor respuesta. Cuando se plantea una pregunta, varios mineros de modelos proporcionan respuestas. Luego, los validadores en la red comienzan a trabajar para determinar la mejor respuesta, que luego se envía de vuelta al usuario.

El token TAO en el ecosistema Bittensor juega dos roles principales a lo largo del proceso. Por un lado, sirve como incentivo para que los mineros aporten modelos algorítmicos a la red. Por otro lado, los usuarios necesitan gastar tokens para hacer preguntas y hacer que la red complete tareas.

Debido a que Bittensor está descentralizado, cualquier persona con acceso a Internet puede unirse a la red, ya sea como usuario que hace preguntas o como minero que proporciona respuestas. Esto permite que más personas aprovechen el poder de la inteligencia artificial.

En resumen, las redes de modelos de algoritmos descentralizados como Bittensor tienen el potencial de crear un panorama más abierto y transparente. En este ecosistema, los modelos de IA pueden entrenarse, compartirse y utilizarse de forma segura y descentralizada. Además, otras redes como BasedAI están intentando esfuerzos similares, con el aspecto intrigante de usar Zero-Knowledge Proofs (ZK) para proteger la privacidad de los datos interactivos del modelo de usuario, que se discutirá más a fondo en la cuarta subsección.

A medida que evolucionen las plataformas de modelos de algoritmos descentralizados, permitirán a las pequeñas empresas competir con las grandes organizaciones en el uso de herramientas de IA de vanguardia, lo que podría tener un impacto significativo en diversas industrias.

3.1.3 Recopilación descentralizada de datos

Para el entrenamiento de modelos de IA, es indispensable un gran suministro de datos. Sin embargo, la mayoría de las empresas de Web2 siguen monopolizando actualmente los datos de los usuarios. Plataformas como X, Reddit, TikTok, Snapchat, Instagram y YouTube prohíben la recopilación de datos para el entrenamiento de IA, lo que supone un obstáculo importante para el desarrollo de la industria de la IA.

Por otro lado, algunas plataformas Web2 venden datos de usuarios a empresas de IA sin compartir ningún beneficio con los usuarios. Por ejemplo, Reddit llegó a un acuerdo de 60 millones de dólares con Google, lo que le permite entrenar modelos de IA utilizando sus publicaciones. Esto da lugar a que los derechos de recopilación de datos sean monopolizados por las principales empresas de capital y big data, lo que empuja a la industria hacia una dirección intensiva en capital.

En respuesta a esta situación, algunos proyectos están aprovechando la Web3 y los incentivos simbólicos para lograr una recopilación de datos descentralizada. Tomemos PublicAI como ejemplo: los usuarios pueden participar en dos roles:

  • Una categoría son los proveedores de datos de IA. Los usuarios pueden encontrar contenido valioso en X, etiquetar @PublicAI cuenta oficial con sus ideas, y usar hashtags #AI o #Web3 para categorizar el contenido, enviándolo así al centro de datos de PublicAI para su recopilación.
  • La otra categoría son los validadores de datos. Los usuarios pueden iniciar sesión en el centro de datos de PublicAI y votar sobre los datos más valiosos para el entrenamiento de IA.

Como recompensa, los usuarios pueden ganar tokens a través de estas contribuciones, fomentando una relación de beneficio mutuo entre los contribuyentes de datos y la industria de la IA.

Además de proyectos como PublicAI, que recopilan datos específicamente para el entrenamiento de IA, hay muchos otros proyectos que utilizan incentivos simbólicos para la recopilación de datos descentralizada. Por ejemplo, Ocean recopila datos de los usuarios a través de la tokenización de datos para servir a la IA, Hivemapper utiliza las cámaras de los automóviles de los usuarios para recopilar datos de mapas, Dimo recopila datos de automóviles y WiHi recopila datos meteorológicos. Estos proyectos, a través de la recopilación descentralizada de datos, también sirven como posibles fuentes de datos para el entrenamiento de IA. Por lo tanto, en un sentido amplio, pueden incluirse en el paradigma de la Web3 que ayuda a la IA.

3.1.4 ZK protege la privacidad del usuario en IA

La tecnología de cadena de bloques ofrece beneficios de descentralización y también introduce una característica crucial: pruebas de conocimiento cero. La tecnología de conocimiento cero permite la verificación de la información manteniendo la privacidad.

En el aprendizaje automático tradicional, los datos suelen tener que almacenarse y procesarse de forma centralizada, lo que puede dar lugar a riesgos para la privacidad. Los métodos para proteger la privacidad de los datos, como la encriptación o la anonimización de datos, pueden limitar la precisión y el rendimiento de los modelos de aprendizaje automático.

La tecnología a prueba de conocimiento cero ayuda a resolver este dilema al abordar el conflicto entre la protección de la privacidad y el intercambio de datos. El aprendizaje automático de conocimiento cero (ZKML) utiliza tecnología de prueba de conocimiento cero para permitir el entrenamiento y la inferencia del modelo de aprendizaje automático sin exponer los datos originales. Las pruebas de conocimiento cero garantizan que las características de los datos y los resultados del modelo puedan verificarse como correctos sin revelar el contenido real de los datos.

El objetivo principal de ZKML es equilibrar la protección de la privacidad y el intercambio de datos. Se puede aplicar en varios escenarios, como el análisis de datos de atención médica, el análisis de datos financieros y la colaboración entre organizaciones. Al usar ZKML, las personas pueden proteger la privacidad de sus datos confidenciales mientras comparten datos con otros para obtener información más amplia y oportunidades de colaboración sin el riesgo de violaciones de la privacidad de los datos. Este campo aún se encuentra en sus primeras etapas, y la mayoría de los proyectos aún están en exploración. Por ejemplo, BasedAI propone un enfoque descentralizado mediante la integración perfecta del cifrado homomórfico completo (FHE) con los modelos de lenguaje grandes (LLM) para mantener la confidencialidad de los datos. Los modelos de lenguaje grande de conocimiento cero (ZK-LLM) integran la privacidad en su infraestructura de red distribuida, lo que garantiza que los datos de los usuarios permanezcan confidenciales durante todo el funcionamiento de la red.

Aquí hay una breve explicación del cifrado homomórfico completo (FHE). FHE es una técnica de encriptación que permite realizar cálculos en datos cifrados sin necesidad de descifrarlos. Esto significa que varias operaciones matemáticas (como la suma, la multiplicación, etc.) realizadas en datos cifrados con FHE producen los mismos resultados que si se realizaran en los datos originales no cifrados, protegiendo así la privacidad de los datos del usuario.

Además de los métodos antes mencionados, Web3 también admite IA a través de proyectos como Cortex, que permite la ejecución on-chain de programas de IA. La ejecución de programas de aprendizaje automático en cadenas de bloques tradicionales se enfrenta a un desafío, ya que las máquinas virtuales son muy ineficientes a la hora de ejecutar modelos de aprendizaje automático no triviales. La mayoría cree que ejecutar IA en la cadena de bloques es imposible. Sin embargo, la máquina virtual Cortex (CVM) utiliza GPU para ejecutar programas de IA on-chain y es compatible con la máquina virtual de Ethereum (EVM). En otras palabras, la cadena Cortex puede ejecutar todas las DApps de Ethereum e integrar el aprendizaje automático de IA en estas DApps. Esto permite que los modelos de aprendizaje automático se ejecuten de manera descentralizada, inmutable y transparente, con un consenso de red que verifica cada paso de la inferencia de IA.

3.2 La IA ayuda a la Web3

En la colisión entre la IA y la Web3, además de la asistencia de la Web3 a la IA, la asistencia de la IA a la industria de la Web3 también es digna de atención. La principal contribución de la inteligencia artificial es la mejora de la productividad, por lo que hay muchos intentos en IA auditando contratos inteligentes, análisis y predicción de datos, servicios personalizados, seguridad y protección de la privacidad, etc.

3.2.1 Análisis y predicción de datos

Muchos proyectos de Web3 están integrando servicios de IA existentes (como ChatGPT) o desarrollando los suyos propios para proporcionar servicios de análisis y predicción de datos a los usuarios de Web3. Estos servicios cubren una amplia gama, incluidos algoritmos de IA para estrategias de inversión, herramientas de análisis on-chain y pronósticos de precios y mercado.

Por ejemplo, Pond utiliza algoritmos de gráficos de IA para predecir valiosos tokens alfa futuros, ofreciendo servicios de asesoramiento de inversión a usuarios e instituciones. BullBear AI se entrena con los datos históricos de los usuarios, el historial de precios y las tendencias del mercado para proporcionar información precisa que respalde las predicciones de tendencias de precios, ayudando a los usuarios a obtener beneficios.

Plataformas como Numerai organizan concursos de inversión en los que los participantes utilizan IA y grandes modelos de lenguaje para predecir los mercados bursátiles. Entrenan modelos con datos de alta calidad proporcionados por la plataforma y envían predicciones diarias. Numerai evalúa estas predicciones durante el mes siguiente, y los participantes pueden stake NMR tokens en sus modelos para ganar recompensas basadas en el rendimiento.

Arkham, una plataforma de análisis de datos blockchain, también integra la IA en sus servicios. Arkham vincula las direcciones de blockchain a entidades como exchanges, fondos y ballenas, mostrando datos y análisis clave para dar a los usuarios una ventaja en la toma de decisiones. Arkham Ultra hace coincidir las direcciones con entidades del mundo real utilizando algoritmos desarrollados durante tres años con soporte de los fundadores de Palantir y OpenAI.

3.2.2 Servicios personalizados

Las aplicaciones de IA en la búsqueda y la recomendación prevalecen en los proyectos Web2, ya que satisfacen las necesidades personalizadas de los usuarios. Los proyectos Web3 integran de manera similar la IA para mejorar la experiencia del usuario.

Por ejemplo, la conocida plataforma de análisis de datos Dune presentó recientemente la herramienta Wand, que utiliza grandes modelos de lenguaje para escribir consultas SQL. Con Wand Create, los usuarios pueden generar consultas SQL a partir de preguntas en lenguaje natural, lo que facilita la búsqueda de datos a quienes no están familiarizados con SQL.

Las plataformas de contenido como Followin integran ChatGPT para resumir puntos de vista y actualizaciones en sectores específicos. La enciclopedia Web3 IQ.wiki pretende ser la principal fuente de conocimiento objetivo y de alta calidad sobre la tecnología blockchain y la criptomoneda. Integra GPT-4 para resumir los artículos de la wiki, lo que hace que la información de la cadena de bloques sea más accesible en todo el mundo. El motor de búsqueda Kaito, basado en LLM, pretende revolucionar la recuperación de información de la Web3.

En el ámbito creativo, proyectos como NFPrompt reducen el coste de la creación de contenidos. NFPrompt permite a los usuarios generar NFT más fácilmente con IA, proporcionando varios servicios creativos personalizados.

3.2.3 Auditoría de IA de contratos inteligentes

La auditoría de contratos inteligentes es una tarea crucial en Web3, y la IA puede mejorar la eficiencia y la precisión en la identificación de vulnerabilidades de código.

Vitalik Buterin ha señalado que uno de los mayores desafíos en el espacio de las criptomonedas son los errores en nuestro código. La IA promete simplificar significativamente el uso de herramientas de verificación formales para demostrar la corrección del código. Lograr esto podría conducir a una EVM (máquina virtual de Ethereum) SEK casi libre de errores, mejorando la seguridad espacial ya que menos errores aumentan la seguridad general.

Por ejemplo, el proyecto 0x0.ai ofrece un auditor de contratos inteligentes impulsado por IA. Esta herramienta utiliza algoritmos avanzados para analizar contratos inteligentes e identificar posibles vulnerabilidades o problemas que podrían conducir a fraudes u otros riesgos de seguridad. Los auditores utilizan el aprendizaje automático para detectar patrones y anomalías en el código, señalando posibles problemas para su posterior revisión.

Hay otros casos nativos en los que la IA ayuda a la Web3. PAAL ayuda a los usuarios a crear bots de IA personalizados que se pueden implementar en Telegram y Discord para servir a los usuarios de Web3. El agregador DEX multicadena impulsado por IA Hera utiliza IA para proporcionar las mejores rutas comerciales entre cualquier par de tokens a través de varios tokens. En general, la contribución de la IA a la Web3 se produce principalmente a nivel de herramienta, mejorando diversos procesos y funcionalidades.

Limitaciones y desafíos actuales del proyecto AI + Web3

4.1 Obstáculos realistas en Potencia computacional descentralizadas

Actualmente, muchos proyectos Web3 que ayudan a la IA se están centrando en la potencia informática descentralizada. El uso de incentivos simbólicos para promover que los usuarios globales se conviertan en parte del lado de la fuente de suministro de energía informática es una innovación muy interesante. Sin embargo, por otro lado, hay algunas cuestiones realistas que deben abordarse:

En comparación con los proveedores de servicios de potencia informática centralizada, los productos de potencia informática descentralizada suelen depender de nodos y participantes distribuidos por todo el mundo para proporcionar recursos informáticos. Debido a la posible latencia e inestabilidad en las conexiones de red entre estos nodos, el rendimiento y la estabilidad pueden ser peores que los productos de potencia informática centralizada.

Además, la disponibilidad de productos de potencia informática descentralizada se ve afectada por el grado de coincidencia entre la oferta y la demanda. Si no hay suficientes proveedores o si la demanda es demasiado alta, puede provocar una escasez de recursos o la incapacidad de satisfacer las necesidades de los usuarios.

Por último, en comparación con los productos de potencia informática centralizada, los productos de potencia informática descentralizada suelen implicar más detalles técnicos y complejidad. Es posible que los usuarios necesiten comprender y manejar aspectos de las redes distribuidas, los contratos inteligentes y los pagos con criptomonedas, lo que aumenta el costo de comprensión y uso del usuario.

Después de discusiones en profundidad con numerosos equipos de proyectos de potencia informática descentralizada, se descubrió que la potencia informática descentralizada actual todavía se limita principalmente a la inferencia de IA en lugar de al entrenamiento de IA.

A continuación, usaré cuatro preguntas para ayudar a todos a comprender las razones detrás de esto:

  1. ¿Por qué la mayoría de los proyectos de potencia informática descentralizada optan por hacer inferencias de IA en lugar de entrenamiento de IA?

  2. ¿Qué hace que NVIDIA sea tan potente? ¿Cuáles son las razones por las que la capacitación en potencia informática descentralizada es difícil?

  3. ¿Cuál será el objetivo final de la potencia informática descentralizada (Render, Akash, io.net, etc.)?

  4. ¿Cuál será el objetivo final de los algoritmos descentralizados (Bittensor)?

Profundicemos en los detalles paso a paso:

1) Al observar este campo, la mayoría de los proyectos de potencia informática descentralizada optan por centrarse en la inferencia de IA en lugar de en el entrenamiento, principalmente debido a los diferentes requisitos de potencia informática y ancho de banda.

Para ayudar a todos a entenderlo mejor, comparemos la IA con un estudiante:

  • Entrenamiento de IA: Si comparamos la inteligencia artificial con un estudiante, el entrenamiento es similar a proporcionar a la IA una gran cantidad de conocimientos y ejemplos, similar a lo que a menudo nos referimos como datos. La IA aprende de estos ejemplos. Dado que el aprendizaje implica comprender y memorizar grandes cantidades de información, este proceso requiere una potencia informática y un tiempo considerables.

  • Inferencia de IA: La inferencia puede entenderse como el uso de los conocimientos adquiridos para resolver problemas o realizar exámenes. Durante la inferencia, la IA utiliza el conocimiento aprendido para responder preguntas en lugar de adquirir nueva información, por lo que los requisitos computacionales son relativamente menores.

Es fácil ver que la diferencia fundamental en la dificultad radica en el hecho de que el entrenamiento de IA de modelos grandes requiere enormes volúmenes de datos y un ancho de banda extremadamente alto para la transmisión de datos, lo que lo hace muy difícil de lograr con una potencia informática descentralizada. Por el contrario, la inferencia requiere muchos menos datos y ancho de banda, lo que la hace más factible.

Para los modelos grandes, la estabilidad es crucial. Si se interrumpe el entrenamiento, debe reiniciarse, lo que resulta en altos costos hundidos. Por otro lado, se pueden lograr demandas con requisitos de potencia de cómputo relativamente más bajos, como la inferencia de IA o ciertos escenarios específicos que involucran el entrenamiento de modelos medianos a pequeños. En las redes de potencia informática descentralizadas, algunos proveedores de servicios de nodos relativamente grandes pueden satisfacer estas demandas de potencia informática relativamente más altas.

2) Entonces, ¿dónde están los cuellos de botella en los datos y el ancho de banda? ¿Por qué es difícil lograr una formación descentralizada?

Esto implica dos elementos clave del entrenamiento de modelos grandes: la potencia de cálculo de una sola tarjeta y el paralelismo de varias tarjetas.

Potencia de cómputo de una sola tarjeta: Actualmente, todos los centros que requieren entrenamiento de modelos grandes, denominados centros de supercomputación, se pueden comparar con el cuerpo humano, donde la unidad subyacente, la GPU, es como una célula. Si la potencia de cálculo de una sola célula (GPU) es fuerte, entonces la potencia de cálculo general (una sola célula × cantidad) también puede ser muy fuerte.

Paralelismo de varias tarjetas: el entrenamiento de un modelo grande a menudo implica cientos de miles de millones de gigabytes. Para los centros de supercomputación que entrenan modelos grandes, se requieren al menos decenas de miles de GPU A100. Para ello es necesario movilizar miles de tarjetas para la formación. Sin embargo, el entrenamiento de un modelo grande no es un simple proceso en serie; no solo entrena en la primera tarjeta A100 y luego pasa a la segunda. En su lugar, las diferentes partes del modelo se entrenan en diferentes GPU simultáneamente, y la parte A de entrenamiento puede requerir resultados de la parte B, que implica un procesamiento en paralelo.

El dominio de NVIDIA y el aumento del valor de mercado, mientras que AMD y empresas nacionales como Huawei y Horizon tienen dificultades para ponerse al día, se deben a dos aspectos: el entorno de software CUDA y la comunicación multitarjeta NVLink.

Entorno de software CUDA: Es crucial que exista un ecosistema de software que coincida con el hardware, como el sistema CUDA de NVIDIA. La construcción de un nuevo sistema es un desafío, similar a la creación de un nuevo lenguaje con altos costos de reemplazo.

Comunicación multitarjeta NVLink: Esencialmente, la comunicación multitarjeta implica la entrada y salida de información. La forma de paralelizar y transmitir es crucial. La presencia de NVLink significa que las tarjetas NVIDIA y AMD no pueden comunicarse; además, NVLink limita la distancia física entre las GPU, lo que requiere que estén en el mismo centro de supercomputación. Esto dificulta que la potencia informática descentralizada repartida por todo el mundo forme un clúster informático cohesivo para el entrenamiento de modelos grandes.

El primer punto explica por qué AMD y empresas nacionales como Huawei y Horizon luchan por ponerse al día; el segundo punto explica por qué la capacitación descentralizada es difícil de lograr.

3) ¿Cuál será el objetivo final de la potencia informática descentralizada? En la actualidad, la potencia informática descentralizada tiene dificultades con el entrenamiento de modelos grandes porque la estabilidad es primordial. Las interrupciones requieren un nuevo entrenamiento, lo que resulta en altos costos irrecuperables. Los altos requisitos para el paralelismo de varias tarjetas están limitados por las restricciones de ancho de banda físico. NVLink de NVIDIA logra la comunicación de múltiples tarjetas, pero dentro de un centro de supercomputación, NVLink limita la distancia física entre las GPU. Por lo tanto, la potencia informática dispersa no puede formar un clúster informático para el entrenamiento de modelos grandes.

Sin embargo, para demandas con requisitos de potencia de cómputo relativamente más bajos, como la inferencia de IA o ciertos escenarios específicos que implican el entrenamiento de modelos medianos a pequeños, las redes de potencia de cómputo descentralizadas con algunos proveedores de servicios de nodos relativamente grandes tienen potencial. Además, escenarios como la computación perimetral para el renderizado son relativamente más fáciles de implementar.

4) ¿Cuál será el objetivo final de los modelos algorítmicos descentralizados? El futuro de los modelos de algoritmos descentralizados depende de la dirección final de la IA. Creo que el futuro de la IA podría contar con 1 o 2 gigantes de modelos de código cerrado (como ChatGPT) junto con una gran cantidad de modelos. En este contexto, los productos de capa de aplicación no necesitan enlazarse a un único modelo grande, sino que cooperan con varios modelos grandes. En este escenario, el modelo de Bittensor muestra un potencial significativo.

proyectos actuales que combinan la Web3 y la IA, en particular aquellos en los que la IA ayuda a las iniciativas de la Web3, la mayoría de los proyectos se limitan a utilizar la IA de forma superficial sin demostrar una integración profunda entre la IA y las criptomonedas. Esta aplicación superficial se evidencia en los siguientes dos aspectos:

  • En primer lugar, ya sea que se utilice la IA para el análisis y la predicción de datos, en escenarios de recomendación y búsqueda, o para la auditoría de código, hay poca diferencia en comparación con la integración de la IA en los proyectos Web2. Estos proyectos simplemente aprovechan la IA para mejorar la eficiencia y el análisis sin mostrar una fusión nativa de IA y criptomonedas ni presentar soluciones innovadoras.
  • En segundo lugar, muchos equipos de Web3 incorporan la IA más como un truco de marketing, aprovechando únicamente el concepto de IA. Aplican la tecnología de IA en áreas muy limitadas y luego comienzan a promover la tendencia de la IA, creando una fachada de estrecha integración con la IA. Sin embargo, estos proyectos carecen de una innovación sustancial.

Aunque los proyectos actuales de Web3 e IA tienen estas limitaciones, debemos reconocer que esto es solo la etapa inicial de desarrollo. En el futuro, podemos esperar una investigación e innovación más profundas para lograr una integración más estrecha entre la IA y las criptomonedas, creando soluciones más nativas y significativas en áreas como las finanzas, las organizaciones autónomas descentralizadas (DAO), los mercados de predicción y los NFT.

4.3 Token Economics sirven como amortiguador para las narrativas de proyectos de IA

Como se mencionó inicialmente, los proyectos de IA enfrentan desafíos en sus modelos de negocio, especialmente a medida que más y más modelos grandes se están convirtiendo gradualmente en código abierto. Muchos proyectos de IA + Web3, a menudo proyectos de IA pura que luchan por prosperar y asegurar la financiación en el espacio Web2, optan por superponer narrativas y economía simbólica de Web3 para fomentar la participación de los usuarios.

Sin embargo, la pregunta crucial es si la integración de la economía de tokens realmente ayuda a los proyectos de IA a abordar las necesidades del mundo real o si simplemente sirve como una propuesta de valor narrativa o a coro plazo. Actualmente, la mayoría de los proyectos de IA + Web3 están lejos de llegar a una etapa práctica. Se espera que los equipos más aterrizados y reflexivos no solo usen tokens como un medio para promocionar proyectos de IA, sino que también cumplan genuinamente con casos de uso prácticos.

Resumen

Actualmente, han surgido numerosos casos y aplicaciones en proyectos de IA + Web3. En primer lugar, la tecnología de IA puede proporcionar casos de uso más eficientes e inteligentes para la Web3. A través de las capacidades de la IA en el análisis y la predicción de datos, los usuarios de Web3 pueden tener mejores herramientas para tomar decisiones de inversión y otros escenarios. Además, la IA puede auditar el código de los contratos inteligentes, optimizar la ejecución de los contratos y mejorar el rendimiento y la eficiencia de la cadena de bloques. Además, la tecnología de IA puede ofrecer recomendaciones más precisas e inteligentes y servicios personalizados para aplicaciones descentralizadas, mejorando así la experiencia del usuario.

Al mismo tiempo, la naturaleza descentralizada y programable de la Web3 también presenta nuevas oportunidades para la tecnología de IA. A través de incentivos simbólicos, los proyectos de potencia informática descentralizada proporcionan nuevas soluciones al dilema de la insuficiente potencia informática de la IA. Los contratos inteligentes y los mecanismos de almacenamiento distribuido de Web3 también ofrecen un espacio y recursos más amplios para compartir y entrenar algoritmos de IA. La autonomía del usuario y los mecanismos de confianza de la Web3 también ofrecen nuevas posibilidades para el desarrollo de la IA, ya que permiten a los usuarios elegir de forma autónoma participar en el intercambio y la formación de datos, mejorando así la diversidad y la calidad de los datos y mejorando aún más el rendimiento y la precisión de los modelos de IA.

Aunque los actuales proyectos cruzados de IA + Web3 aún se encuentran en sus primeras etapas y se enfrentan a muchos desafíos, también aportan muchas ventajas. Por ejemplo, los productos de potencia informática descentralizada tienen algunos inconvenientes, pero reducen la dependencia de las instituciones centralizadas, proporcionan una mayor transparencia y auditabilidad, y permiten una mayor participación e innovación. Para casos de uso específicos y necesidades de los usuarios, los productos de potencia informática descentralizada pueden ser una opción valiosa. Lo mismo se aplica a la recopilación de datos; Los proyectos de recopilación de datos descentralizados ofrecen ventajas como la reducción de la dependencia de fuentes de datos únicas, la provisión de una cobertura de datos más amplia y la promoción de la diversidad y la inclusión de datos. En la práctica, es necesario equilibrar estas ventajas y desventajas y tomar medidas técnicas y de gestión adecuadas para superar los desafíos, asegurando que los proyectos descentralizados de recopilación de datos tengan un impacto positivo en el desarrollo de la IA.

En general, la integración de la IA + Web3 ofrece infinitas posibilidades para la futura innovación tecnológica y el desarrollo económico. Al combinar las capacidades inteligentes de análisis y toma de decisiones de la IA con la naturaleza descentralizada y autónoma del usuario de la Web3, se cree que podemos construir un sistema económico e incluso social más inteligente, más abierto y más justo.

Disclaimer:

  1. Este artículo es una reimpresión de [Ryze Labs]. Todos los derechos de autor pertenecen al autor original [Fred]. Si hay objeciones a esta reimpresión, póngase en contacto con el equipo de Gate Learn, y ellos se encargarán de ello con prontitud.
  2. Descargo de responsabilidad: Los puntos de vista y opiniones expresados en este artículo son únicamente los del autor y no constituyen ningún consejo de inversión.
  3. Las traducciones del artículo a otros idiomas son realizadas por el equipo de Gate Learn. A menos que se mencione, está prohibido copiar, distribuir o plagiar los artículos traducidos.
Empieza ahora
¡Regístrate y recibe un bono de
$100
!