ai es una de las categorías más populares y prometedoras en los mercados cripto recientemente.
💡entrenamiento de IA descentralizada
💡gpu depins
💡modelos de IA sin censura
¿Son estos avances o solo palabras de moda? 🤔
en hack vc, estamos separando la promesa de la realidad para eliminar el ruido.
esta publicación analiza las principales ideas de cripto x ai. vamos a discutir los desafíos reales y las oportunidades.
ideas con promesa inicial, pero que han encontrado desafíos en la realidad.
En primer lugar, empecemos con la 'promesa de la IA web3', ideas que tienen mucha hype pero cuya realidad puede que no sea tan brillante.
el problema con el entrenamiento de inteligencia artificial en cadena es que el entrenamiento requiere comunicación y coordinación de alta velocidad entre las gpus, debido a que las redes neuronales requieren retropropagación cuando se entrenan. nvidia tiene dos innovaciones para esto (NVLinkyInfiniBandEstas tecnologías hacen que la comunicación de la GPU sea ultra rápida, pero son tecnologías solo locales que solo son aplicables dentro de los clústeres de GPU que se encuentran dentro de un único centro de datos (velocidades de 50 gigabits o más).
si introduces una red descentralizada en la imagen, de repente eres órdenes de magnitud más lento debido a la latencia y el ancho de banda de la red añadidos. eso es un punto de partida no válido para casos de uso de entrenamiento de ia en comparación con el rendimiento que se obtiene de la alta interconectividad de nvidia dentro de un centro de datos.
ten en cuenta que ha habido algunas innovaciones aquí que pueden brindar algo de esperanza para el futuro:
el componente de datos del entrenamiento también es desafiante. cualquier proceso de entrenamiento de ai implica trabajar con vastas cantidades de datos. típicamente, los modelos se entrenan en sistemas de almacenamiento de datos centralizados y seguros con alta escalabilidad y rendimiento. esto requiere transferir y procesar terabytes de datos, y esto no es un ciclo único. los datos suelen ser ruidosos y contienen errores, por lo que deben limpiarse y transformarse en un formato utilizable antes de entrenar el modelo. esta etapa implica tareas repetitivas de normalización, filtrado y manejo de valores faltantes. todo esto plantea serios desafíos en un entorno descentralizado.
el componente de datos del entrenamiento también es iterativo, lo cual no se adapta bien a web3. a openai le llevó miles de iteraciones lograr sus resultados. el escenario de tarea más básico para un especialista en ciencia de datos en un equipo de IA incluye definir objetivos, preparar datos y analizar y estructurar datos para extraer ideas importantes y hacerlos adecuados para el modelado. luego, se desarrolla un modelo de aprendizaje automático para resolver el problema definido y se valida su rendimiento utilizando un conjunto de datos de prueba. este proceso es iterativo: si el modelo actual no funciona como se esperaba, el especialista vuelve a la etapa de recopilación de datos o de entrenamiento del modelo para mejorar los resultados. ahora, imagina este proceso en un entorno descentralizado, donde los mejores marcos y herramientas existentes no están fácilmente disponibles en web3.
la otra preocupación con la formación de modelos de ia en cadena es que es un mercado mucho menos interesante en comparación con la inferencia. por ahora, hay una enorme cantidad de cálculos de gpu utilizados para el entrenamiento de ia llm. pero a largo plazo, la inferencia se convertirá (con mucho) en el caso de uso más prevalente de las gpus. consideremos: ¿cuántos ia llms necesitan ser entrenados para que el mundo esté feliz, en comparación con la cantidad de clientes que usarán esos modelos?
Una solución que avanza en todos los frentes es 0g.ai (respaldada por hack vc), que proporciona tanto almacenamiento de datos on-chain como infraestructura de disponibilidad de datos. Su arquitectura ultrarrápida y su capacidad para almacenar enormes cantidades de datos on-chain permiten un rápido entrenamiento de modelos de IA on-chain iterativos de cualquier tipo.
Uno de los desafíos con Cripto x AI es verificar la precisión de la inferencia de AI, ya que no se puede confiar necesariamente en una sola parte centralizada para realizar esa inferencia debido al potencial de nodos mal comportados. Este desafío no existe en el AI de la web2 porque no hay un sistema descentralizado de estilo de consenso.
Una idea propuesta para resolver esto es la computación redundante, donde múltiples nodos repiten la misma operación de inferencia de inteligencia artificial, para que pueda operar de manera confiable y no tener un solo punto de falla.
El problema con este enfoque es que vivimos en un mundo con una escasez drástica de chips de IA de alta gama. Hay un período de espera de varios años para los chips de alta gama de Nvidia, y eso resulta en aumentos de precios. Si además se requiere que su inferencia de IA se vuelva a ejecutar varias veces en nodos múltiples, ahora está multiplicando esos costos costosos. Esto va a ser un impedimento para muchos proyectos.
se ha sugerido que web3 debería tener sus propios casos de uso de IA únicos que sean específicos para los clientes de web3. Esto puede ser (por ejemplo) un protocolo web3 que utiliza IA para realizar la puntuación de riesgo de una piscina defi, una billetera web3 que sugiere nuevos protocolos para ti basados en tu historial de billetera, o un juego web3 que utiliza IA para controlar personajes no jugadores (NPCs).
por ahora, esto es (a corto plazo) un mercado incipiente donde todavía se están descubriendo casos de uso. Algunos desafíos incluyen:
a largo plazo, estamos bastante optimistas sobre los casos de uso de la inteligencia artificial nativa de web3, especialmente a medida que los agentes de inteligencia artificial se vuelven más comunes. Nos imaginamos un futuro en el que cualquier usuario de web3 tenga una multitud de agentes de inteligencia artificial que les asistan. El líder de categoría temprana para esto esTheoriq (respaldado por hack vc), que permite agentes de IA componibles y autónomos en la cadena.
hay una serie de redes de cálculo de inteligencia artificial descentralizadas que dependen de gpus de grado de consumidor en lugar de centros de datos. las gpus de consumidor son útiles para tareas de inferencia de inteligencia artificial de baja gama o para casos de uso de consumidores donde la latencia, el rendimiento y la fiabilidad son flexibles. pero para casos de uso empresarial serios (que es la mayoría del mercado que importa), los clientes quieren una red con mayor fiabilidad en comparación con las máquinas domésticas, y a menudo necesitan gpus de gama alta si tienen tareas de inferencia más complejas. los centros de datos son más apropiados para estos casos de uso de clientes más valiosos.
ten en cuenta que consideramos las gpus de grado de consumo como útiles para fines de demostración o para individuos y startups que pueden tolerar una menor confiabilidad. pero esos clientes son fundamentalmente menos valiosos, por lo que creemos que los depins que atienden a las empresas web2 serán más valiosos a largo plazo. como tal, los proyectos de depin de gpu bien conocidos generalmente han evolucionado desde los primeros días de hardware principalmente de grado de consumo hasta tener disponibilidad a100/h100 y a nivel de clúster.
la realidad: los casos de uso prácticos y realistas de cripto x IA
ahora, discutamos los casos de uso que proporcionan "beneficios reales". Estos son verdaderas "victorias" donde la cripto x inteligencia artificial puede agregar un valor significativo.
mckinseyestimaciones que la inteligencia artificial generativa podría agregar el equivalente de $2.6 billones a $4.4 billones anualmente en los 63 casos de uso analizados, en comparación, el PIB total del Reino Unido en 2021 fue de $3.1 billones. Esto aumentaría el impacto de toda la inteligencia artificial en un 15% a un 40%. Esta estimación se duplicaría aproximadamente si incluimos el impacto de incorporar la inteligencia artificial generativa en el software que se utiliza actualmente para otras tareas más allá de esos casos de uso.
si haces los cálculos sobre la estimación anterior, implica que el mercado total de la inteligencia artificial (más allá de la inteligencia artificial generativa) podría valer decenas de billones de dólares en todo el mundo. para hacer una comparación, todas las criptomonedas combinadas, incluido bitcoin y cada altcoin, solo valen alrededor de $2.7 billones hoy. así que seamos realistas aquí: la gran mayoría de los clientes que necesitan inteligencia artificial a corto plazo serán clientes de web2, ya que los clientes de web3 que realmente necesitan inteligencia artificial serán una pequeña parte de estos $2.7 billones (considera que btc es la mitad de este mercado, y btc en sí mismo no necesita/utiliza inteligencia artificial).
los casos de uso de web3 ai apenas están comenzando y no está en absoluto claro cuál será el tamaño de ese mercado. pero una cosa es intuitivamente cierta: será una pequeña fracción del mercado web2 en el futuro previsible. Creemos que web3 ai todavía tiene un futuro brillante, pero simplemente significa que la aplicación más poderosa de web3 ai, por ahora, es servir a los clientes de web2.
ejemplos de clientes web2 que podrían beneficiarse hipotéticamente de la IA web3 incluyen:
Esta es una persona de cliente relativamente estable, ya que los clientes suelen ser grandes y valiosos. Es poco probable que quiebren pronto y representan clientes potenciales muy grandes para los servicios de inteligencia artificial. Los servicios de inteligencia artificial web3 que atienden a clientes web2 se beneficiarán de esta base de clientes estable.
pero ¿por qué querría un cliente de web2 usar un stack de web3? El resto de esta publicación presenta ese caso.
gpu depins aggreGate.io subutiliza la potencia de cómputo de gpu (la más confiable de las cuales provienen de centros de datos) y las pone a disposición para la inferencia de ia (un ejemplo de esto esio.net, que es una empresa del portafolio de fondos administrados por hack vc). Una forma sencilla de pensar en esto es como un “Airbnb para GPUs” (es decir, el consumo colaborativo de activos subutilizados).
La razón por la que estamos emocionados por los depósitos de GPU es que, como se mencionó anteriormente, hay una escasez de chips de Nvidia y actualmente hay ciclos de GPU desaprovechados que se pueden utilizar para la inferencia de AI. Estos propietarios de hardware tienen un costo hundido y no están haciendo uso completo de su equipo hoy en día, y por lo tanto pueden ofrecer esos ciclos fraccionarios de GPU a un costo mucho más bajo en comparación con el status quo, ya que es efectivamente un dinero encontrado para los propietarios de hardware.
ejemplos incluyen:
Tenga en cuenta que no todo el hardware de GPU es apropiado para inferencia de IA. Una razón evidente para esto es que las GPU más antiguas no tienen la cantidad necesaria de memoria de GPU para LLMS, aunque ha habido algunas innovaciones interesantes para ayudar en este aspecto.Exabits, por ejemplo, tiene tecnología que carga neuronas activas en la memoria de la GPU y neuronas inactivas en la memoria de la CPU. Predicten qué neuronas necesitan estar activas / inactivas. Esto permite que las GPU de gama baja procesen cargas de trabajo de IA, incluso con memoria de GPU limitada. Esto hace que las GPU de gama baja sean más útiles para la inferencia de IA.
Tenga en cuenta también que los depósitos de web3 AI deberán fortalecer sus ofertas con el tiempo y ofrecer servicios de clase empresarial, como inicio de sesión único, cumplimiento de SOC 2, acuerdos de nivel de servicio (SLA) y más. Esto reflejaría los servicios bajo las ofertas actuales en la nube que los clientes de web2 disfrutan actualmente.
se ha hablado mucho de la censura de la IA. Turquía, por ejemplo, prohibió temporalmente a OpenAI (luego revirtieron esa decisión una vez que OpenAI mejoró su cumplimiento). Creemos que este tipo de censura a nivel de país es fundamentalmente poco interesante, ya que los países necesitarán adoptar la IA para seguir siendo competitivos.
Lo más interesante es que OpenAI se autocensura. Por ejemplo, OpenAI no manejará contenido NSFW. Tampoco OpenAI predecirá las próximas elecciones presidenciales. Creemos que hay un mercado interesante y amplio para casos de uso de IA que OpenAI no tocará por razones políticas.
la divulgación abierta es una gran solución para esto, ya que un repositorio de GitHub no está sujeto a accionistas ni a un consejo de administración. un ejemplo de esto esVenice.ai, que promete preservar su privacidad y operar de manera no censurada. La clave, por supuesto, es que sea de código abierto, lo que lo hace posible. Lo que Web3 AI puede llevar efectivamente a un nivel superior es alimentar estos modelos de software de código abierto (OSS) en un clúster GPU de menor costo para realizar esa inferencia. Por estas razones, creemos que OSS + Web3 son la combinación ideal para allanar el camino para la IA no censurada.
muchas grandes empresas tienen preocupaciones de privacidad sobre sus datos internos de la empresa. para estos clientes, puede ser sumamente difícil confiar en un tercero centralizado, como openai, con esos datos.
con web3, puede parecer (a simple vista) aún más aterrador para estas empresas, ya que sus datos internos de repente están en una red descentralizada. Sin embargo, existen algunas innovaciones en tecnologías de mejora de la privacidad para la inteligencia artificial:
estas tecnologías todavía están evolucionando, y el rendimiento todavía está mejorando a través de próximos conocimientos cero (zk) y fhe asics. pero el objetivo a largo plazo es proteger esos datos empresariales al ajustar un modelo. a medida que estos protocolos surjan, web3 puede convertirse en un lugar más atractivo para el cálculo de inteligencia artificial preservando la privacidad.
oss ha erosionado consistentemente la cuota de mercado del software propietario en las últimas décadas. vemos un llm simplemente como una forma elegante de software propietario que está listo para ser interrumpido por oss. algunos ejemplos destacados de competidores incluyenLlama, RWKV, y Mistral.ai. esta lista sin duda crecerá a medida que avance el tiempo (una lista más completa está disponible en Openrouter.aial aprovechar la web3 ai (alimentada por modelos oss) se puede aprovechar estas nuevas innovaciones.
creemos que a medida que avanza el tiempo, una fuerza de trabajo de desarrollo global de código abierto, combinada con incentivos cripto, puede impulsar una rápida innovación en modelos de código abierto, así como en los agentes y marcos construidos sobre ellos. Un ejemplo de un protocolo de agente de IA es Theoriq. theoriq aprovecha los modelos oss para crear una red componible e interconectada de agentes de IA que se pueden ensamblar para crear soluciones de IA de nivel superior.
la razón por la que tenemos convicción aquí se debe al pasado: la mayoría del “software de desarrollador” ha sido lentamente superado por oss con el tiempo. microsoft solía ser una empresa de software propietario, y ahora son la empresa número 1 que contribuye a github, y hay una razón para eso. si observas cómo databricks, postgressql, mongodb y otros han interrumpido las bases de datos propietarias, ese es un ejemplo de una industria entera que fue trastocada por oss, por lo que el precedente aquí es bastante sólido.
esto, sin embargo, viene con una condición. una de las cosas complicadas con oss llms es que openai ha comenzado a crear acuerdos de licencias de datos pagados con organizaciones, como reddit y the new york times. si esta tendencia continúa, puede ser más difícil para los oss llms competir debido a la barrera financiera involucrada en la adquisición de datos. es posible que nvidia se enfoque en la computación confidencial como un habilitador seguro para compartir datos. el tiempo dirá cómo se desarrolla esto.
Uno de los desafíos con la inferencia de IA web3 es la verificación. Existe una oportunidad hipotética para que los validadores hagan trampa en sus resultados para ganar tarifas, por lo que verificar las inferencias es una medida importante. Cabe destacar que esta trampa aún no ha ocurrido, debido a que la inferencia de IA está en sus primeras etapas, pero es inevitable a menos que se tomen medidas para desincentivar ese comportamiento.
El enfoque estándar de web3 es tener múltiples validadores repitiendo la misma operación y comparando los resultados. El desafío evidente con esto es, como se señaló, que la inferencia de AI es costosa debido a la escasez actual de chips Nvidia de alta gama. Dado que web3 puede ofrecer inferencia de menor costo a través de depins de GPU subutilizados, la computación redundante socavaría gravemente la propuesta de valor de web3.
una solución más prometedora es realizar una prueba zk para el cálculo de inferencia de IA fuera de la cadena. en este caso, la prueba zk sucinta puede verificarse para determinar que un modelo fue entrenado correctamente, o que la inferencia se ejecutó correctamente (conocida como zkml). ejemplos incluyen Modulus labs y ZKonduit. el rendimiento de estas soluciones aún es incipiente ya que las operaciones zk son bastante intensivas en cómputo. Sin embargo, anticipamos que esto probablemente mejorará a medida que se lancen en un futuro cercano los ASIC de hardware zk.
aún más prometedora es la idea de un enfoque de inferencia de IA basado en muestreo algo "optimista". en este modelo, verificaría solo un pequeño porcentaje de los resultados generados por los validadores, pero establecería el costo económico de sanción lo suficientemente alto como para que, si se descubre, se cree un fuerte desincentivo económico para que los validadores hagan trampa. de esta manera, se ahorra en cómputo redundante (por ejemplo, ver Hiperbólico’sPrueba de muestreo de papel).
otra idea prometedora es una solución de marca de agua y huella digital, como la propuesta por el Red de Bagel. Esto es similar al mecanismo de garantía de calidad de Amazon Alexa para modelos de IA en dispositivos para millones de dispositivos.
la próxima oportunidad que web3 ofrece a la inteligencia artificial es democratizar los costos. Hasta ahora, hemos hablado de cómo ahorrar costos de gpu a través de depins. Pero web3 también ofrece oportunidades para ahorrar márgenes de beneficio de los servicios de inteligencia artificial centralizados de web2 (por ejemplo, openai, que está generando más de $1 mil millones al año en ingresos en el momento de la escritura). Estos ahorros de costos provienen del hecho de que se están utilizando modelos de código abierto en lugar de modelos patentados, lo que proporciona un nivel adicional de ahorro ya que el creador del modelo no intenta obtener beneficios.
muchos modelos OSS seguirán siendo completamente gratuitos, lo que permite la mejor economía posible para los clientes. Pero también puede haber algunos modelos OSS que intenten estos métodos de monetización. Considere que solo el 4% de los modelos totales en Hugging Face son entrenados por empresas con presupuestos para ayudar a subsidiar los modelos (ver aquí). el 96% restante de los modelos son entrenados por la comunidad. esta cohorte, el 96% de hugging face, tiene costos reales fundamentales (incluyendo costos de computación y costos de datos). por lo tanto, esos modelos de alguna manera necesitarán monetizar.
hay varias propuestas para lograr esta monetización de modelos de código abierto. Una de las más interesantes es el concepto de una “oferta inicial de modelo” (IMO) donde tokenizas el modelo en sí, reservas un porcentaje de tokens para el equipo y fluyes algunos ingresos futuros de ese modelo a los titulares de tokens, aunque claramente hay algunos obstáculos legales y regulatorios allí.
otros modelos de OSS intentarán monetizar el uso. tenga en cuenta que si esto se hace realidad, los modelos de OSS pueden comenzar a parecer cada vez más a sus contrapartes de generación de ganancias web2. pero, realistamente, el mercado estará bifurcado, con algunos modelos que seguirán siendo completamente gratuitos.
uno de los mayores desafíos con la IA es encontrar los datos adecuados para entrenar tus modelos. mencionamos anteriormente que el entrenamiento de IA descentralizado tiene sus desafíos. pero ¿qué pasa con el uso de una red descentralizada para obtener datos (que luego se pueden utilizar para entrenar en otros lugares, incluso en los lugares web2 tradicionales)?
esto es exactamente lo que las startups como Hierba están haciendo. GRASS es una red descentralizada de "raspadores de datos", personas que contribuyen con la potencia de procesamiento inactiva de su máquina a la obtención de datos para informar el entrenamiento de modelos de IA. Hipotéticamente, a escala, esta fuente de datos puede ser superior a los esfuerzos internos de cualquier empresa para obtener datos debido al gran poder de una gran red de nodos incentivados. Esto incluye no solo obtener más datos, sino obtenerlos con más frecuencia para que los datos sean más relevantes y estén actualizados. También es prácticamente imposible detener un ejército descentralizado de raspadores de datos, ya que están inherentemente fragmentados y no residen en una sola dirección IP. También tienen una red de humanos que pueden limpiar y normalizar los datos, para que sean útiles después de ser raspados.
una vez que tenga los datos, también necesitará un lugar para almacenarlos en la cadena, así como los llms que se generan con esos datos.0g. IAes el líder temprano en esta categoría. Es una solución de almacenamiento web3 de alto rendimiento optimizada para IA que es significativamente más barata que AWS (otra victoria económica para web3 IA), al mismo tiempo que sirve como infraestructura de disponibilidad de datos para layer 2s, IA y más.
ten en cuenta que el papel de los datos puede estar cambiando en web3 ai en el futuro. hoy, la situación actual para llms es pre-entrenar un modelo con datos y refinarlo con el tiempo con más datos. sin embargo, esos modelos siempre están ligeramente desactualizados ya que los datos en internet cambian en tiempo real. por lo tanto, las respuestas de la inferencia llm son ligeramente inexactas.
el futuro de hacia dónde podría dirigirse el mundo es un nuevo paradigma - datos "en tiempo real". El concepto es que cuando se le hace una pregunta de inferencia a un llm, ese llm puede usar la inyección de datos de la consulta en tiempo real desde Internet. De esta manera, el llm utiliza los datos más actualizados posibles. Grass también está investigando esto.
conclusión
esperamos que esto sirva como un análisis útil para usted al pensar en las promesas frente a las realidades de la inteligencia artificial web3. este es solo un punto de partida para la conversación, y el panorama está cambiando rápidamente, así que no dude en participar y expresar sus opiniones también, ya que nos encantaría seguir aprendiendo y construyendo juntos.
reconocimientos
un agradecimiento muy especial a albert castellana, jasper zhang, vassilis tziokas, bidhan roy, rezo, vincent weisser, shashank yadav, ali husain, nukri basharuli, emad mostaque, david minarsch, tommy shaughnessy, michael heinrich, keccak wong, marc weinstein, phillip bonello, jeff amico, ejaaz ahamadeen, evan feng y jw wang por sus comentarios y contribuciones a esta publicación.
la información aquí contenida es únicamente para fines informativos generales y no pretende constituir asesoramiento de inversión, y no debe ser utilizado en la evaluación de ninguna decisión de inversión. no se debe depender de dicha información para asesoramiento contable, legal, fiscal, empresarial, de inversión u otros relevantes. debe consultar a sus propios asesores, incluido su propio asesor legal, para obtener asesoramiento contable, legal, fiscal, empresarial, de inversión u otros relevantes, incluido lo discutido aquí.
esta publicación refleja las opiniones actuales del autor(es) y no se hace en nombre de hack vc o sus afiliados, incluidos los fondos administrados por hack vc, y no necesariamente refleja las opiniones de hack vc, sus afiliados, incluidos sus afiliados generales, o cualquier otra persona asociada con hack vc. cierta información contenida aquí ha sido obtenida de fuentes publicadas y/o preparada por terceros y, en ciertos casos, no se ha actualizado hasta la fecha de hoy. aunque se cree que dichas fuentes son confiables, ni hack vc, sus afiliados, incluidos sus afiliados generales, ni ninguna otra persona asociada con hack vc están haciendo representaciones sobre su precisión o integridad, y no deben ser confiadas como tales o ser la base para una contabilidad, asesoría legal, fiscal, empresarial, de inversión u otra decisión. la información aquí contenida no tiene la pretensión de ser completa y está sujeta a cambios y hack vc no tiene ninguna obligación de actualizar dicha información ni hacer ninguna notificación si dicha información se vuelve inexacta.
El rendimiento pasado no es necesariamente indicativo de resultados futuros. Cualquier declaración prospectiva hecha aquí se basa en ciertas suposiciones y análisis realizados por el autor a la luz de su experiencia y percepción de las tendencias históricas, las condiciones actuales y los desarrollos futuros esperados, así como otros factores que considera apropiados en las circunstancias. Tales declaraciones no garantizan el rendimiento futuro y están sujetas a ciertos riesgos, incertidumbres y suposiciones difíciles de predecir.
Este artículo ha sido reproducido de [Hack vc], el título original “ai x crypto - promesas y realidades”, los derechos de autor pertenecen al autor original [ed roman, socio gerente de hack vc], si tienes alguna objeción a la reproducción, por favor contacta Equipo de aprendizaje de GateEl equipo lo manejará tan pronto como sea posible de acuerdo a los procedimientos relevantes.
descargo de responsabilidad: las opiniones y puntos de vista expresados en este artículo representan únicamente las opiniones personales del autor y no constituyen ningún consejo de inversión.
otras versiones en otros idiomas del artículo son traducidas por el equipo de aprendizaje de Gate.io, no mencionadas enGate.io, el artículo traducido no puede ser reproducido, distribuido o plagiado.
ai es una de las categorías más populares y prometedoras en los mercados cripto recientemente.
💡entrenamiento de IA descentralizada
💡gpu depins
💡modelos de IA sin censura
¿Son estos avances o solo palabras de moda? 🤔
en hack vc, estamos separando la promesa de la realidad para eliminar el ruido.
esta publicación analiza las principales ideas de cripto x ai. vamos a discutir los desafíos reales y las oportunidades.
ideas con promesa inicial, pero que han encontrado desafíos en la realidad.
En primer lugar, empecemos con la 'promesa de la IA web3', ideas que tienen mucha hype pero cuya realidad puede que no sea tan brillante.
el problema con el entrenamiento de inteligencia artificial en cadena es que el entrenamiento requiere comunicación y coordinación de alta velocidad entre las gpus, debido a que las redes neuronales requieren retropropagación cuando se entrenan. nvidia tiene dos innovaciones para esto (NVLinkyInfiniBandEstas tecnologías hacen que la comunicación de la GPU sea ultra rápida, pero son tecnologías solo locales que solo son aplicables dentro de los clústeres de GPU que se encuentran dentro de un único centro de datos (velocidades de 50 gigabits o más).
si introduces una red descentralizada en la imagen, de repente eres órdenes de magnitud más lento debido a la latencia y el ancho de banda de la red añadidos. eso es un punto de partida no válido para casos de uso de entrenamiento de ia en comparación con el rendimiento que se obtiene de la alta interconectividad de nvidia dentro de un centro de datos.
ten en cuenta que ha habido algunas innovaciones aquí que pueden brindar algo de esperanza para el futuro:
el componente de datos del entrenamiento también es desafiante. cualquier proceso de entrenamiento de ai implica trabajar con vastas cantidades de datos. típicamente, los modelos se entrenan en sistemas de almacenamiento de datos centralizados y seguros con alta escalabilidad y rendimiento. esto requiere transferir y procesar terabytes de datos, y esto no es un ciclo único. los datos suelen ser ruidosos y contienen errores, por lo que deben limpiarse y transformarse en un formato utilizable antes de entrenar el modelo. esta etapa implica tareas repetitivas de normalización, filtrado y manejo de valores faltantes. todo esto plantea serios desafíos en un entorno descentralizado.
el componente de datos del entrenamiento también es iterativo, lo cual no se adapta bien a web3. a openai le llevó miles de iteraciones lograr sus resultados. el escenario de tarea más básico para un especialista en ciencia de datos en un equipo de IA incluye definir objetivos, preparar datos y analizar y estructurar datos para extraer ideas importantes y hacerlos adecuados para el modelado. luego, se desarrolla un modelo de aprendizaje automático para resolver el problema definido y se valida su rendimiento utilizando un conjunto de datos de prueba. este proceso es iterativo: si el modelo actual no funciona como se esperaba, el especialista vuelve a la etapa de recopilación de datos o de entrenamiento del modelo para mejorar los resultados. ahora, imagina este proceso en un entorno descentralizado, donde los mejores marcos y herramientas existentes no están fácilmente disponibles en web3.
la otra preocupación con la formación de modelos de ia en cadena es que es un mercado mucho menos interesante en comparación con la inferencia. por ahora, hay una enorme cantidad de cálculos de gpu utilizados para el entrenamiento de ia llm. pero a largo plazo, la inferencia se convertirá (con mucho) en el caso de uso más prevalente de las gpus. consideremos: ¿cuántos ia llms necesitan ser entrenados para que el mundo esté feliz, en comparación con la cantidad de clientes que usarán esos modelos?
Una solución que avanza en todos los frentes es 0g.ai (respaldada por hack vc), que proporciona tanto almacenamiento de datos on-chain como infraestructura de disponibilidad de datos. Su arquitectura ultrarrápida y su capacidad para almacenar enormes cantidades de datos on-chain permiten un rápido entrenamiento de modelos de IA on-chain iterativos de cualquier tipo.
Uno de los desafíos con Cripto x AI es verificar la precisión de la inferencia de AI, ya que no se puede confiar necesariamente en una sola parte centralizada para realizar esa inferencia debido al potencial de nodos mal comportados. Este desafío no existe en el AI de la web2 porque no hay un sistema descentralizado de estilo de consenso.
Una idea propuesta para resolver esto es la computación redundante, donde múltiples nodos repiten la misma operación de inferencia de inteligencia artificial, para que pueda operar de manera confiable y no tener un solo punto de falla.
El problema con este enfoque es que vivimos en un mundo con una escasez drástica de chips de IA de alta gama. Hay un período de espera de varios años para los chips de alta gama de Nvidia, y eso resulta en aumentos de precios. Si además se requiere que su inferencia de IA se vuelva a ejecutar varias veces en nodos múltiples, ahora está multiplicando esos costos costosos. Esto va a ser un impedimento para muchos proyectos.
se ha sugerido que web3 debería tener sus propios casos de uso de IA únicos que sean específicos para los clientes de web3. Esto puede ser (por ejemplo) un protocolo web3 que utiliza IA para realizar la puntuación de riesgo de una piscina defi, una billetera web3 que sugiere nuevos protocolos para ti basados en tu historial de billetera, o un juego web3 que utiliza IA para controlar personajes no jugadores (NPCs).
por ahora, esto es (a corto plazo) un mercado incipiente donde todavía se están descubriendo casos de uso. Algunos desafíos incluyen:
a largo plazo, estamos bastante optimistas sobre los casos de uso de la inteligencia artificial nativa de web3, especialmente a medida que los agentes de inteligencia artificial se vuelven más comunes. Nos imaginamos un futuro en el que cualquier usuario de web3 tenga una multitud de agentes de inteligencia artificial que les asistan. El líder de categoría temprana para esto esTheoriq (respaldado por hack vc), que permite agentes de IA componibles y autónomos en la cadena.
hay una serie de redes de cálculo de inteligencia artificial descentralizadas que dependen de gpus de grado de consumidor en lugar de centros de datos. las gpus de consumidor son útiles para tareas de inferencia de inteligencia artificial de baja gama o para casos de uso de consumidores donde la latencia, el rendimiento y la fiabilidad son flexibles. pero para casos de uso empresarial serios (que es la mayoría del mercado que importa), los clientes quieren una red con mayor fiabilidad en comparación con las máquinas domésticas, y a menudo necesitan gpus de gama alta si tienen tareas de inferencia más complejas. los centros de datos son más apropiados para estos casos de uso de clientes más valiosos.
ten en cuenta que consideramos las gpus de grado de consumo como útiles para fines de demostración o para individuos y startups que pueden tolerar una menor confiabilidad. pero esos clientes son fundamentalmente menos valiosos, por lo que creemos que los depins que atienden a las empresas web2 serán más valiosos a largo plazo. como tal, los proyectos de depin de gpu bien conocidos generalmente han evolucionado desde los primeros días de hardware principalmente de grado de consumo hasta tener disponibilidad a100/h100 y a nivel de clúster.
la realidad: los casos de uso prácticos y realistas de cripto x IA
ahora, discutamos los casos de uso que proporcionan "beneficios reales". Estos son verdaderas "victorias" donde la cripto x inteligencia artificial puede agregar un valor significativo.
mckinseyestimaciones que la inteligencia artificial generativa podría agregar el equivalente de $2.6 billones a $4.4 billones anualmente en los 63 casos de uso analizados, en comparación, el PIB total del Reino Unido en 2021 fue de $3.1 billones. Esto aumentaría el impacto de toda la inteligencia artificial en un 15% a un 40%. Esta estimación se duplicaría aproximadamente si incluimos el impacto de incorporar la inteligencia artificial generativa en el software que se utiliza actualmente para otras tareas más allá de esos casos de uso.
si haces los cálculos sobre la estimación anterior, implica que el mercado total de la inteligencia artificial (más allá de la inteligencia artificial generativa) podría valer decenas de billones de dólares en todo el mundo. para hacer una comparación, todas las criptomonedas combinadas, incluido bitcoin y cada altcoin, solo valen alrededor de $2.7 billones hoy. así que seamos realistas aquí: la gran mayoría de los clientes que necesitan inteligencia artificial a corto plazo serán clientes de web2, ya que los clientes de web3 que realmente necesitan inteligencia artificial serán una pequeña parte de estos $2.7 billones (considera que btc es la mitad de este mercado, y btc en sí mismo no necesita/utiliza inteligencia artificial).
los casos de uso de web3 ai apenas están comenzando y no está en absoluto claro cuál será el tamaño de ese mercado. pero una cosa es intuitivamente cierta: será una pequeña fracción del mercado web2 en el futuro previsible. Creemos que web3 ai todavía tiene un futuro brillante, pero simplemente significa que la aplicación más poderosa de web3 ai, por ahora, es servir a los clientes de web2.
ejemplos de clientes web2 que podrían beneficiarse hipotéticamente de la IA web3 incluyen:
Esta es una persona de cliente relativamente estable, ya que los clientes suelen ser grandes y valiosos. Es poco probable que quiebren pronto y representan clientes potenciales muy grandes para los servicios de inteligencia artificial. Los servicios de inteligencia artificial web3 que atienden a clientes web2 se beneficiarán de esta base de clientes estable.
pero ¿por qué querría un cliente de web2 usar un stack de web3? El resto de esta publicación presenta ese caso.
gpu depins aggreGate.io subutiliza la potencia de cómputo de gpu (la más confiable de las cuales provienen de centros de datos) y las pone a disposición para la inferencia de ia (un ejemplo de esto esio.net, que es una empresa del portafolio de fondos administrados por hack vc). Una forma sencilla de pensar en esto es como un “Airbnb para GPUs” (es decir, el consumo colaborativo de activos subutilizados).
La razón por la que estamos emocionados por los depósitos de GPU es que, como se mencionó anteriormente, hay una escasez de chips de Nvidia y actualmente hay ciclos de GPU desaprovechados que se pueden utilizar para la inferencia de AI. Estos propietarios de hardware tienen un costo hundido y no están haciendo uso completo de su equipo hoy en día, y por lo tanto pueden ofrecer esos ciclos fraccionarios de GPU a un costo mucho más bajo en comparación con el status quo, ya que es efectivamente un dinero encontrado para los propietarios de hardware.
ejemplos incluyen:
Tenga en cuenta que no todo el hardware de GPU es apropiado para inferencia de IA. Una razón evidente para esto es que las GPU más antiguas no tienen la cantidad necesaria de memoria de GPU para LLMS, aunque ha habido algunas innovaciones interesantes para ayudar en este aspecto.Exabits, por ejemplo, tiene tecnología que carga neuronas activas en la memoria de la GPU y neuronas inactivas en la memoria de la CPU. Predicten qué neuronas necesitan estar activas / inactivas. Esto permite que las GPU de gama baja procesen cargas de trabajo de IA, incluso con memoria de GPU limitada. Esto hace que las GPU de gama baja sean más útiles para la inferencia de IA.
Tenga en cuenta también que los depósitos de web3 AI deberán fortalecer sus ofertas con el tiempo y ofrecer servicios de clase empresarial, como inicio de sesión único, cumplimiento de SOC 2, acuerdos de nivel de servicio (SLA) y más. Esto reflejaría los servicios bajo las ofertas actuales en la nube que los clientes de web2 disfrutan actualmente.
se ha hablado mucho de la censura de la IA. Turquía, por ejemplo, prohibió temporalmente a OpenAI (luego revirtieron esa decisión una vez que OpenAI mejoró su cumplimiento). Creemos que este tipo de censura a nivel de país es fundamentalmente poco interesante, ya que los países necesitarán adoptar la IA para seguir siendo competitivos.
Lo más interesante es que OpenAI se autocensura. Por ejemplo, OpenAI no manejará contenido NSFW. Tampoco OpenAI predecirá las próximas elecciones presidenciales. Creemos que hay un mercado interesante y amplio para casos de uso de IA que OpenAI no tocará por razones políticas.
la divulgación abierta es una gran solución para esto, ya que un repositorio de GitHub no está sujeto a accionistas ni a un consejo de administración. un ejemplo de esto esVenice.ai, que promete preservar su privacidad y operar de manera no censurada. La clave, por supuesto, es que sea de código abierto, lo que lo hace posible. Lo que Web3 AI puede llevar efectivamente a un nivel superior es alimentar estos modelos de software de código abierto (OSS) en un clúster GPU de menor costo para realizar esa inferencia. Por estas razones, creemos que OSS + Web3 son la combinación ideal para allanar el camino para la IA no censurada.
muchas grandes empresas tienen preocupaciones de privacidad sobre sus datos internos de la empresa. para estos clientes, puede ser sumamente difícil confiar en un tercero centralizado, como openai, con esos datos.
con web3, puede parecer (a simple vista) aún más aterrador para estas empresas, ya que sus datos internos de repente están en una red descentralizada. Sin embargo, existen algunas innovaciones en tecnologías de mejora de la privacidad para la inteligencia artificial:
estas tecnologías todavía están evolucionando, y el rendimiento todavía está mejorando a través de próximos conocimientos cero (zk) y fhe asics. pero el objetivo a largo plazo es proteger esos datos empresariales al ajustar un modelo. a medida que estos protocolos surjan, web3 puede convertirse en un lugar más atractivo para el cálculo de inteligencia artificial preservando la privacidad.
oss ha erosionado consistentemente la cuota de mercado del software propietario en las últimas décadas. vemos un llm simplemente como una forma elegante de software propietario que está listo para ser interrumpido por oss. algunos ejemplos destacados de competidores incluyenLlama, RWKV, y Mistral.ai. esta lista sin duda crecerá a medida que avance el tiempo (una lista más completa está disponible en Openrouter.aial aprovechar la web3 ai (alimentada por modelos oss) se puede aprovechar estas nuevas innovaciones.
creemos que a medida que avanza el tiempo, una fuerza de trabajo de desarrollo global de código abierto, combinada con incentivos cripto, puede impulsar una rápida innovación en modelos de código abierto, así como en los agentes y marcos construidos sobre ellos. Un ejemplo de un protocolo de agente de IA es Theoriq. theoriq aprovecha los modelos oss para crear una red componible e interconectada de agentes de IA que se pueden ensamblar para crear soluciones de IA de nivel superior.
la razón por la que tenemos convicción aquí se debe al pasado: la mayoría del “software de desarrollador” ha sido lentamente superado por oss con el tiempo. microsoft solía ser una empresa de software propietario, y ahora son la empresa número 1 que contribuye a github, y hay una razón para eso. si observas cómo databricks, postgressql, mongodb y otros han interrumpido las bases de datos propietarias, ese es un ejemplo de una industria entera que fue trastocada por oss, por lo que el precedente aquí es bastante sólido.
esto, sin embargo, viene con una condición. una de las cosas complicadas con oss llms es que openai ha comenzado a crear acuerdos de licencias de datos pagados con organizaciones, como reddit y the new york times. si esta tendencia continúa, puede ser más difícil para los oss llms competir debido a la barrera financiera involucrada en la adquisición de datos. es posible que nvidia se enfoque en la computación confidencial como un habilitador seguro para compartir datos. el tiempo dirá cómo se desarrolla esto.
Uno de los desafíos con la inferencia de IA web3 es la verificación. Existe una oportunidad hipotética para que los validadores hagan trampa en sus resultados para ganar tarifas, por lo que verificar las inferencias es una medida importante. Cabe destacar que esta trampa aún no ha ocurrido, debido a que la inferencia de IA está en sus primeras etapas, pero es inevitable a menos que se tomen medidas para desincentivar ese comportamiento.
El enfoque estándar de web3 es tener múltiples validadores repitiendo la misma operación y comparando los resultados. El desafío evidente con esto es, como se señaló, que la inferencia de AI es costosa debido a la escasez actual de chips Nvidia de alta gama. Dado que web3 puede ofrecer inferencia de menor costo a través de depins de GPU subutilizados, la computación redundante socavaría gravemente la propuesta de valor de web3.
una solución más prometedora es realizar una prueba zk para el cálculo de inferencia de IA fuera de la cadena. en este caso, la prueba zk sucinta puede verificarse para determinar que un modelo fue entrenado correctamente, o que la inferencia se ejecutó correctamente (conocida como zkml). ejemplos incluyen Modulus labs y ZKonduit. el rendimiento de estas soluciones aún es incipiente ya que las operaciones zk son bastante intensivas en cómputo. Sin embargo, anticipamos que esto probablemente mejorará a medida que se lancen en un futuro cercano los ASIC de hardware zk.
aún más prometedora es la idea de un enfoque de inferencia de IA basado en muestreo algo "optimista". en este modelo, verificaría solo un pequeño porcentaje de los resultados generados por los validadores, pero establecería el costo económico de sanción lo suficientemente alto como para que, si se descubre, se cree un fuerte desincentivo económico para que los validadores hagan trampa. de esta manera, se ahorra en cómputo redundante (por ejemplo, ver Hiperbólico’sPrueba de muestreo de papel).
otra idea prometedora es una solución de marca de agua y huella digital, como la propuesta por el Red de Bagel. Esto es similar al mecanismo de garantía de calidad de Amazon Alexa para modelos de IA en dispositivos para millones de dispositivos.
la próxima oportunidad que web3 ofrece a la inteligencia artificial es democratizar los costos. Hasta ahora, hemos hablado de cómo ahorrar costos de gpu a través de depins. Pero web3 también ofrece oportunidades para ahorrar márgenes de beneficio de los servicios de inteligencia artificial centralizados de web2 (por ejemplo, openai, que está generando más de $1 mil millones al año en ingresos en el momento de la escritura). Estos ahorros de costos provienen del hecho de que se están utilizando modelos de código abierto en lugar de modelos patentados, lo que proporciona un nivel adicional de ahorro ya que el creador del modelo no intenta obtener beneficios.
muchos modelos OSS seguirán siendo completamente gratuitos, lo que permite la mejor economía posible para los clientes. Pero también puede haber algunos modelos OSS que intenten estos métodos de monetización. Considere que solo el 4% de los modelos totales en Hugging Face son entrenados por empresas con presupuestos para ayudar a subsidiar los modelos (ver aquí). el 96% restante de los modelos son entrenados por la comunidad. esta cohorte, el 96% de hugging face, tiene costos reales fundamentales (incluyendo costos de computación y costos de datos). por lo tanto, esos modelos de alguna manera necesitarán monetizar.
hay varias propuestas para lograr esta monetización de modelos de código abierto. Una de las más interesantes es el concepto de una “oferta inicial de modelo” (IMO) donde tokenizas el modelo en sí, reservas un porcentaje de tokens para el equipo y fluyes algunos ingresos futuros de ese modelo a los titulares de tokens, aunque claramente hay algunos obstáculos legales y regulatorios allí.
otros modelos de OSS intentarán monetizar el uso. tenga en cuenta que si esto se hace realidad, los modelos de OSS pueden comenzar a parecer cada vez más a sus contrapartes de generación de ganancias web2. pero, realistamente, el mercado estará bifurcado, con algunos modelos que seguirán siendo completamente gratuitos.
uno de los mayores desafíos con la IA es encontrar los datos adecuados para entrenar tus modelos. mencionamos anteriormente que el entrenamiento de IA descentralizado tiene sus desafíos. pero ¿qué pasa con el uso de una red descentralizada para obtener datos (que luego se pueden utilizar para entrenar en otros lugares, incluso en los lugares web2 tradicionales)?
esto es exactamente lo que las startups como Hierba están haciendo. GRASS es una red descentralizada de "raspadores de datos", personas que contribuyen con la potencia de procesamiento inactiva de su máquina a la obtención de datos para informar el entrenamiento de modelos de IA. Hipotéticamente, a escala, esta fuente de datos puede ser superior a los esfuerzos internos de cualquier empresa para obtener datos debido al gran poder de una gran red de nodos incentivados. Esto incluye no solo obtener más datos, sino obtenerlos con más frecuencia para que los datos sean más relevantes y estén actualizados. También es prácticamente imposible detener un ejército descentralizado de raspadores de datos, ya que están inherentemente fragmentados y no residen en una sola dirección IP. También tienen una red de humanos que pueden limpiar y normalizar los datos, para que sean útiles después de ser raspados.
una vez que tenga los datos, también necesitará un lugar para almacenarlos en la cadena, así como los llms que se generan con esos datos.0g. IAes el líder temprano en esta categoría. Es una solución de almacenamiento web3 de alto rendimiento optimizada para IA que es significativamente más barata que AWS (otra victoria económica para web3 IA), al mismo tiempo que sirve como infraestructura de disponibilidad de datos para layer 2s, IA y más.
ten en cuenta que el papel de los datos puede estar cambiando en web3 ai en el futuro. hoy, la situación actual para llms es pre-entrenar un modelo con datos y refinarlo con el tiempo con más datos. sin embargo, esos modelos siempre están ligeramente desactualizados ya que los datos en internet cambian en tiempo real. por lo tanto, las respuestas de la inferencia llm son ligeramente inexactas.
el futuro de hacia dónde podría dirigirse el mundo es un nuevo paradigma - datos "en tiempo real". El concepto es que cuando se le hace una pregunta de inferencia a un llm, ese llm puede usar la inyección de datos de la consulta en tiempo real desde Internet. De esta manera, el llm utiliza los datos más actualizados posibles. Grass también está investigando esto.
conclusión
esperamos que esto sirva como un análisis útil para usted al pensar en las promesas frente a las realidades de la inteligencia artificial web3. este es solo un punto de partida para la conversación, y el panorama está cambiando rápidamente, así que no dude en participar y expresar sus opiniones también, ya que nos encantaría seguir aprendiendo y construyendo juntos.
reconocimientos
un agradecimiento muy especial a albert castellana, jasper zhang, vassilis tziokas, bidhan roy, rezo, vincent weisser, shashank yadav, ali husain, nukri basharuli, emad mostaque, david minarsch, tommy shaughnessy, michael heinrich, keccak wong, marc weinstein, phillip bonello, jeff amico, ejaaz ahamadeen, evan feng y jw wang por sus comentarios y contribuciones a esta publicación.
la información aquí contenida es únicamente para fines informativos generales y no pretende constituir asesoramiento de inversión, y no debe ser utilizado en la evaluación de ninguna decisión de inversión. no se debe depender de dicha información para asesoramiento contable, legal, fiscal, empresarial, de inversión u otros relevantes. debe consultar a sus propios asesores, incluido su propio asesor legal, para obtener asesoramiento contable, legal, fiscal, empresarial, de inversión u otros relevantes, incluido lo discutido aquí.
esta publicación refleja las opiniones actuales del autor(es) y no se hace en nombre de hack vc o sus afiliados, incluidos los fondos administrados por hack vc, y no necesariamente refleja las opiniones de hack vc, sus afiliados, incluidos sus afiliados generales, o cualquier otra persona asociada con hack vc. cierta información contenida aquí ha sido obtenida de fuentes publicadas y/o preparada por terceros y, en ciertos casos, no se ha actualizado hasta la fecha de hoy. aunque se cree que dichas fuentes son confiables, ni hack vc, sus afiliados, incluidos sus afiliados generales, ni ninguna otra persona asociada con hack vc están haciendo representaciones sobre su precisión o integridad, y no deben ser confiadas como tales o ser la base para una contabilidad, asesoría legal, fiscal, empresarial, de inversión u otra decisión. la información aquí contenida no tiene la pretensión de ser completa y está sujeta a cambios y hack vc no tiene ninguna obligación de actualizar dicha información ni hacer ninguna notificación si dicha información se vuelve inexacta.
El rendimiento pasado no es necesariamente indicativo de resultados futuros. Cualquier declaración prospectiva hecha aquí se basa en ciertas suposiciones y análisis realizados por el autor a la luz de su experiencia y percepción de las tendencias históricas, las condiciones actuales y los desarrollos futuros esperados, así como otros factores que considera apropiados en las circunstancias. Tales declaraciones no garantizan el rendimiento futuro y están sujetas a ciertos riesgos, incertidumbres y suposiciones difíciles de predecir.
Este artículo ha sido reproducido de [Hack vc], el título original “ai x crypto - promesas y realidades”, los derechos de autor pertenecen al autor original [ed roman, socio gerente de hack vc], si tienes alguna objeción a la reproducción, por favor contacta Equipo de aprendizaje de GateEl equipo lo manejará tan pronto como sea posible de acuerdo a los procedimientos relevantes.
descargo de responsabilidad: las opiniones y puntos de vista expresados en este artículo representan únicamente las opiniones personales del autor y no constituyen ningún consejo de inversión.
otras versiones en otros idiomas del artículo son traducidas por el equipo de aprendizaje de Gate.io, no mencionadas enGate.io, el artículo traducido no puede ser reproducido, distribuido o plagiado.