Las criptomonedas como ilusión de la IA

IntermedioMar 05, 2024
Este artículo explora la posible integración de la IA y las criptomonedas, haciendo hincapié en que la verdadera integración implica incorporar las criptomonedas en los flujos de trabajo de la IA y potenciar la IA con las criptomonedas.
Las criptomonedas como ilusión de la IA
  • Emergencia: Fenómeno en el que muchas entidades pequeñas interactúan para producir un todo más grande, exhibiendo nuevas características que no poseen los componentes individuales, como la emergencia observada en los sistemas biológicos estudiados en química.
  • Alucinación: La tendencia de los modelos a producir datos engañosos, con modelos de IA que generan resultados que parecen correctos pero que, de hecho, son erróneos.

La conexión entre la IA y las criptomonedas ha mostrado distintas ondulaciones. Desde que AlphaGo derrotó a los jugadores profesionales humanos de Go en 2016, se han presenciado intentos de combinar los dos, como la aparición espontánea de proyectos como Fetch.AI, en el mundo de las criptomonedas. Con la llegada de GPT-4 en 2023, ha resurgido la tendencia de AI + Crypto, ejemplificada por la emisión de WorldCoin. La humanidad parece estar a punto de entrar en una era utópica en la que la IA es responsable de la productividad y las criptomonedas se encargan de la distribución.

Este sentimiento alcanzó su punto máximo después de que OpenAI lanzara la aplicación Sora para la síntesis de texto a vídeo. Sin embargo, las emociones a menudo involucran elementos irracionales. Li Yizhou, por ejemplo, parece ser parte del segmento incomprendido, ejemplificado por:

  • La fusión de aplicaciones específicas de IA con el desarrollo de algoritmos. Si bien Sora y los principios subyacentes de Transformer de GPT-4 son de código abierto, el uso de ambos requiere un pago a OpenAI.
  • La combinación de IA y Crypto es actualmente más de Crypto tomando la iniciativa de acercarse a la IA, ya que los principales gigantes de la IA no han mostrado una voluntad clara. En esta etapa, lo que la IA puede hacer por las criptomonedas supera lo que las criptomonedas pueden hacer por la IA.
  • El uso de la tecnología de IA en las aplicaciones criptográficas no equivale a la integración de la IA y las criptomonedas, como se ve en aplicaciones como los juegos blockchain, GameFi, los proyectos de metaverso, los juegos Web3 y las personas digitales en el universo AW.
  • Las contribuciones que Crypto puede hacer al desarrollo de la tecnología de IA implican principalmente la descentralización y los incentivos simbólicos en los tres componentes de la IA: potencia informática, datos y modelos.
  • WorldCoin sirve como una integración exitosa de ambos, con zkML posicionado en la intersección de las tecnologías de IA y Crypto, y la teoría UBI (Ingreso Básico Universal) experimentando su primera implementación a gran escala.

En este artículo, la atención se centrará en los beneficios que las criptomonedas pueden aportar a la IA, ya que los proyectos actuales de criptomonedas que hacen hincapié en las aplicaciones de IA se consideran en su mayoría trucos de marketing y no son propicios para nuestra discusión.

De la regresión lineal al transformador

Durante mucho tiempo, el punto central en las discusiones sobre la IA ha sido si la "aparición" de la inteligencia artificial conducirá a la creación de seres sintientes parecidos a los de "The Matrix" o a una civilización basada en el silicio. Las preocupaciones sobre la interacción entre los humanos y las tecnologías de IA han persistido, con ejemplos recientes como la llegada de Sora y casos anteriores como GPT-4 (2023), AlphaGo (2016) y Deep Blue de IBM derrotando a un campeón mundial de ajedrez en 1997.

Si bien estas preocupaciones no se han materializado, relajémonos y describamos brevemente el mecanismo detrás de la IA.

Partiendo de la regresión lineal, esencialmente una ecuación lineal simple, como el mecanismo de pérdida de peso de Jia Ling, un famoso actor chino, podemos hacer la siguiente generalización. Aquí, x e y representan la relación entre la ingesta de calorías y el peso, lo que indica que comer más naturalmente conduce a aumentar de peso, y si desea perder peso, debe comer menos.

Sin embargo, este enfoque plantea algunos problemas. En primer lugar, existen límites fisiológicos para la altura y el peso humanos, y es poco probable que se encuentre con gigantes de 3 metros o mujeres de mil kilogramos. Por lo tanto, considerar situaciones más allá de estos límites carece de significado práctico. En segundo lugar, el simple hecho de comer menos y hacer más ejercicio no se adhiere a los principios científicos de la pérdida de peso y, en casos graves, puede dañar el cuerpo.

Presentamos el Índice de Masa Corporal (IMC), que mide la relación entre el peso y la altura dividiendo el peso por el cuadrado de la altura. A través de tres factores (comer, dormir y hacer ejercicio) para evaluar la relación entre la estatura y el peso, ahora necesitamos tres parámetros y dos resultados. La regresión lineal es evidentemente insuficiente, dando lugar a redes neuronales. Como su nombre indica, las redes neuronales imitan la estructura del cerebro humano, con la posibilidad de que más pensamiento conduzca a una mayor racionalidad. Aumentar la frecuencia y la profundidad del pensamiento, lo que se conoce como aprendizaje profundo (estoy haciendo una analogía un tanto vaga aquí), permite una consideración más exhaustiva antes de tomar medidas.


Breve descripción de la historia del desarrollo de algoritmos de IA

Sin embargo, el aumento en el número de capas no es ilimitado; Todavía hay un techo. Una vez que se alcanza un umbral crítico, la eficacia puede disminuir. Por lo tanto, se vuelve esencial comprender la relación entre la información existente de una manera más razonable. Por ejemplo, una comprensión profunda de la relación más matizada entre la altura y el peso, el descubrimiento de factores que antes pasaban desapercibidos, o Jia Ling encontrando un entrenador de primer nivel pero dudando en expresar directamente su deseo de perder peso.


En tales escenarios, Jia Ling y el entrenador forman oponentes en la codificación y decodificación, transmitiendo significados de un lado a otro que representan las verdaderas intenciones de ambas partes. Sin embargo, a diferencia de la afirmación directa "Quiero perder peso, aquí hay un regalo para el entrenador", las verdaderas intenciones de ambas partes se esconden detrás del "significado".

Notamos un hecho: si el número de iteraciones entre las dos partes es suficiente, los significados de cada comunicación se vuelven más fáciles de descifrar.

Si extendemos este modelo, representa lo que coloquialmente se conoce como un Modelo de Lenguaje Grande (LLM, por sus siglas en inglés), que examina las relaciones contextuales entre palabras y oraciones. Actualmente, los modelos grandes se han expandido para profundizar en escenarios como imágenes y vídeos.

En el espectro de la IA, ya sea una simple regresión lineal o un transformador extremadamente complejo, todos son algoritmos o modelos. Además de estos, hay dos factores esenciales: la potencia de cálculo y los datos.


Descripción: Breve historia del desarrollo de la IA, Fuente: https://ourworldindata.org/brief-history-of-ai

En pocas palabras, la IA es una máquina que procesa datos, realiza cálculos y produce resultados. Sin embargo, en comparación con entidades físicas como los robots, la IA es más virtual. En términos de potencia de cómputo, datos y modelos, el proceso operativo actual en la comercialización de Web2 es el siguiente:

  • Los datos se dividen en datos públicos, datos propiedad de la empresa y datos comerciales, que requieren anotaciones y preprocesamiento profesionales. Por ejemplo, Scale AI proporciona preprocesamiento de datos para las principales empresas de IA.
  • La potencia de cómputo se divide en dos modalidades: autoconstrucción y arrendamiento de computación en la nube. Actualmente, NVIDIA domina el hardware de la GPU y la biblioteca CUDA se ha preparado durante muchos años. El ecosistema de hardware y software está dominado por una sola empresa. La segunda opción es el arrendamiento de potencia informática por parte de los proveedores de servicios en la nube, como Azure de Microsoft, Google Cloud y AWS, que proporcionan servicios integrales de computación e implementación de modelos.
  • Los modelos se pueden clasificar en marcos y algoritmos. La batalla de los modelos ya ha concluido, con TensorFlow de Google emergiendo el primero mientras que asumiendo el revés inicial, y PyTorch de Meta llegando más tarde pero liderando. Sin embargo, ya sea Google, que introdujo el Transformer, o Meta, con PyTorch, ambos se están quedando gradualmente atrás de OpenAI en la comercialización. Sin embargo, su fuerza sigue siendo formidable; Los algoritmos están dominados actualmente por Transformer, y varios modelos grandes compiten principalmente en términos de fuentes de datos y detalles.


Proceso de trabajo de la IA

Como se mencionó anteriormente, las aplicaciones de IA tienen una amplia gama de dominios, como la corrección de código que mencionó Vitalik, que ya se ha puesto en uso. Visto desde una perspectiva diferente, la contribución de las criptomonedas a la IA se centra principalmente en áreas no técnicas, como los mercados de datos descentralizados, las plataformas de potencia informática descentralizadas, etc. Se han realizado algunos experimentos con modelos de lenguaje grandes (LLM) descentralizados. Sin embargo, es crucial tener en cuenta que el análisis del código criptográfico con IA y la ejecución de modelos de IA a gran escala en la cadena de bloques son fundamentalmente diferentes. La incorporación de algunos elementos criptográficos en los modelos de IA difícilmente puede considerarse una integración perfecta.

Actualmente, Crypto sobresale en producción e incentivos. No es necesario cambiar a la fuerza el paradigma de producción de la IA con Crypto. La opción racional es integrar Crypto en los flujos de trabajo de IA y potenciar la IA con Crypto. He resumido algunas de las posibles integraciones:

  1. Producción de datos descentralizada, como la recopilación de datos de DePIN y la apertura de datos en cadena que contienen datos de transacciones enriquecidos para el análisis financiero, el análisis de seguridad y el entrenamiento de datos.
  2. Plataformas de preprocesamiento descentralizadas, donde la preformación tradicional no supone barreras técnicas insalvables. Detrás de los grandes modelos en Europa y Estados Unidos está el trabajo de alta intensidad de los anotadores manuales del tercer mundo.
  3. Plataformas de potencia informática descentralizadas, con incentivos descentralizados y utilización del ancho de banda personal, la potencia informática de la GPU y otros recursos de hardware.
  4. zkML, ya que los métodos tradicionales de privacidad, como la desensibilización de datos, pueden no resolver perfectamente el problema. zkML puede ocultar la direccionalidad de los datos y evaluar eficazmente la autenticidad y la eficacia de los modelos de código abierto y cerrado.

Estos cuatro aspectos son escenarios potenciales en los que creo que las criptomonedas pueden potenciar la IA. La IA es una herramienta versátil, y las áreas y proyectos de la IA para Crypto no se discuten más aquí; Puedes explorarlos por su cuenta.

Se puede observar que las criptomonedas actualmente desempeñan un papel principalmente en el cifrado, la protección de la privacidad y el diseño económico. El único intento de integración técnica es zkML. Aquí, hagamos una lluvia de ideas un poco: si, en el futuro, Solana TPS realmente puede alcanzar los 100,000+, y si la combinación de Filecoin y Solana es perfecta, ¿podríamos crear un entorno LLM en cadena? Esto podría establecer una verdadera IA en cadena, alterando la actual relación desigual en la que las criptomonedas se integran en la IA.

Integración de Web3 en flujos de trabajo de IA

Como es sabido por todos, la tarjeta gráfica NVIDIA RTX 4090 es un producto valioso que actualmente es difícil de obtener en un determinado país de Asia Oriental. Aún más grave es que las personas, las pequeñas empresas y las instituciones académicas también se han enfrentado a una crisis de tarjetas gráficas. Al fin y al cabo, las grandes empresas comerciales son las que más gastan. Si se pudiera abrir un tercer camino fuera de las compras personales y los proveedores de la nube, claramente tendría un valor comercial práctico, rompiendo con los propósitos puramente especulativos. El enfoque lógico de la Web3 para la IA debería ser: "Si no se utiliza la Web3, el proyecto no puede sostenerse".


Flujo de trabajo de IA desde la perspectiva de la Web3

Fuente de datos: Grass y DePIN Automotive Ecosystem

Grass, presentado por Wynd Network, es un mercado para vender ancho de banda inactivo. Grass sirve como una red abierta para la adquisición y distribución de datos, diferenciándose de la simple recopilación y venta de datos. Grass tiene funciones de limpieza y validación de datos para navegar por el entorno de red cada vez más cerrado. Más allá de eso, Grass tiene como objetivo interactuar directamente con los modelos de IA, proporcionándoles conjuntos de datos fácilmente utilizables. Los conjuntos de datos de IA requieren un manejo profesional, incluido un amplio ajuste manual para satisfacer las necesidades específicas de los modelos de IA.

Ampliando esto, Grass aborda el tema de la venta de datos, mientras que el sector DePIN de Web3 puede producir los datos requeridos por la IA. Este sector se centra principalmente en la conducción automática de vehículos. Tradicionalmente, la conducción autónoma requería que las empresas acumularan los datos correspondientes. Sin embargo, proyectos como DIMO y Hivemapper operan directamente en los vehículos, recopilando una cantidad cada vez mayor de información de conducción y datos de carreteras.

En escenarios anteriores de conducción autónoma, la tecnología para el reconocimiento de vehículos y los mapas de alta precisión eran esenciales. Empresas como NavInfo han acumulado información como mapas de alta precisión, creando barreras en la industria. Si los recién llegados aprovechan los datos de Web3, podrían tener la oportunidad de superar a los competidores en la curva.

Preprocesamiento de datos: Liberando a los humanos esclavizados por la IA

La inteligencia artificial se puede dividir en dos partes: la anotación manual y los algoritmos inteligentes. En regiones del tercer mundo como Kenia y Filipinas, donde la curva de valores para la anotación manual es más baja, las personas son responsables de esta tarea. Mientras tanto, las empresas de preprocesamiento de IA en Europa y Estados Unidos se llevan la mayor parte de los ingresos, y posteriormente los venden a empresas de investigación y desarrollo de IA.

Con el avance de la IA, cada vez más empresas se fijan en este negocio. Frente a la competencia, el precio unitario de la anotación de datos sigue disminuyendo. Este negocio consiste principalmente en etiquetar datos, de forma similar a tareas como el reconocimiento de captchas, sin umbral técnico, e incluso a precios ultra bajos como 0,01 RMB.


Fuente: https://aim.baidu.com/product/0793f1f1-f1cb-4f9f-b3a7-ef31335bd7f0

En este escenario, las plataformas de anotación de datos Web3, como Public AI, tienen un mercado empresarial práctico. Vinculan a las empresas de IA con los trabajadores de anotación de datos, reemplazando un modelo simple de competencia comercial de bajo precio con un sistema de incentivos. Sin embargo, es esencial tener en cuenta que las empresas maduras como Scale AI garantizan una calidad fiable en la tecnología de anotación. Para las plataformas de anotación de datos descentralizadas, el control de la calidad y la prevención del abuso son necesidades absolutas. Esencialmente, esto representa un servicio empresarial C2B2B, donde la escala y la cantidad de datos por sí solas no pueden convencer a las empresas.

Libertad de hardware: Render Network y Bittensor

Cabe aclarar que, a diferencia de las plataformas de minería de Bitcoin, actualmente no existe un hardware dedicado a la IA Web3. La potencia y las plataformas informáticas existentes se transforman a partir de hardware maduro con capas de incentivos criptográficas añadidas, que se incluyen esencialmente en el sector DePIN. Sin embargo, dado que difiere de los proyectos de origen de datos, aquí se incluye en el flujo de trabajo de IA.

Para la definición de DePIN, consulte el artículo que escribí antes: DePIN antes de Helium: Explorando Bitcoin, Arweave y STEPN

Render Network es un proyecto establecido desde hace mucho tiempo que no fue diseñado inicialmente para IA. Comenzó a operar en 2017, centrándose en el renderizado, como sugiere su nombre. En ese momento, las GPU no tenían demanda, pero poco a poco surgieron oportunidades de mercado. El mercado de las GPU, especialmente las GPU de gama alta monopolizadas por NVIDIA, dificultó la entrada de usuarios de renderizado, IA y metaverso debido a los precios exorbitantes. Si se pudiera construir un canal entre la demanda y la oferta, podría establecerse un modelo económico similar al de las bicicletas compartidas.

Además, los recursos de GPU no requieren la transferencia real de hardware; Se pueden asignar utilizando recursos de software. Vale la pena mencionar que Render Network cambió al ecosistema Solana en 2023, abandonando Polygon. El cambio a Solana, incluso antes de su resurgimiento, ha demostrado ser una decisión correcta a lo largo del tiempo. Para el uso y la distribución de la GPU, una red de alta velocidad es un requisito crucial.

Si Render Network puede considerarse un proyecto establecido, Bittensor está ganando impulso actualmente.

BitTensor se basa en Polkadot, con el objetivo de entrenar modelos de IA a través de incentivos económicos. Los nodos compiten para entrenar modelos de IA con un error mínimo o una eficiencia máxima, que se asemejan a los procesos clásicos en cadena en los proyectos criptográficos. Sin embargo, el proceso de entrenamiento real aún requiere GPU NVIDIA y plataformas tradicionales, lo que lo hace similar a las plataformas de competencia como Kaggle.

zkML y UBI: los aspectos duales de Worldcoin

El aprendizaje automático de conocimiento cero (zkML) introduce la tecnología zk en el proceso de entrenamiento de modelos de IA para abordar problemas como fugas de datos, fallos de privacidad y verificación de modelos. Los dos primeros son fáciles de entender: los datos cifrados con zk aún se pueden entrenar sin filtrar información personal o privada.

La verificación de modelos se refiere a la evaluación de modelos de código cerrado. Con la tecnología zk, se puede establecer un valor objetivo, lo que permite que los modelos de código cerrado demuestren sus capacidades a través de la verificación de resultados sin revelar el proceso de cálculo.

Worldcoin no solo imaginó zkML desde el principio, sino que también aboga por la Renta Básica Universal (RBU). En su visión, la productividad futura de la IA superará con creces los límites de la demanda humana. El verdadero desafío es la distribución justa de los beneficios de la IA, y el concepto de RBU debe compartirse globalmente a través del token $WLD, lo que requiere el reconocimiento biométrico en persona real para cumplir con los principios de equidad.

Por supuesto, zkML y UBI todavía se encuentran en las primeras etapas experimentales, pero son desarrollos intrigantes que continuaré siguiendo de cerca.

Conclusión

El desarrollo de la IA, representado por los Transformers y los Grandes Modelos de Lenguaje (LLM), se enfrenta gradualmente a cuellos de botella, similares a la regresión lineal y las redes neuronales. No es factible aumentar indefinidamente los parámetros del modelo o el volumen de datos, ya que los rendimientos marginales disminuirán.

Puede que la IA sea el jugador semilla que surja con sabiduría, pero el problema de las alucinaciones es grave en la actualidad. Se puede observar que la creencia de que las criptomonedas pueden cambiar la IA es una forma de confianza y una alucinación estándar. Si bien es posible que la adición de Crypto no resuelva técnicamente los problemas de alucinación, al menos puede cambiar algunos aspectos desde una perspectiva de equidad y transparencia.

Referencias:

  1. OpenAI: "Informe técnico GPT-4", 2023; arXiv:2303.08774.
  2. Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin: "La atención es todo lo que necesitas", 2017; arXiv:1706.03762.
  3. Jared Kaplan, Sam McCandlish, Tom Henighan, Tom B. Brown, Benjamin Chess, Rewon Child, Scott Gray, Alec Radford, Jeffrey Wu, Dario Amodei: "Leyes de escalado para modelos de lenguaje neuronal", 2020; arXiv:2001.08361.
  4. Hao Liu, Wilson Yan, Matei Zaharia, Pieter Abbeel: "Modelo mundial en video y lenguaje de un millón de duración con RingAttention", 2024; arXiv:2402.08268.
  5. Max Roser (2022) - "La breve historia de la inteligencia artificial: el mundo ha cambiado rápidamente, ¿qué podría ser lo siguiente?" Publicado en línea en OurWorldInData.org. Recuperado de: 'https://ourworldindata.org/brief-history-of-ai' [Recurso en línea]
  6. Una introducción al aprendizaje automático de conocimiento cero (ZKML)
  7. Comprender la intersección de las criptomonedas y la IA
  8. La hierba es la capa de datos de la IA
  9. Bittensor: Un mercado de inteligencia peer-to-peer

Renuncia:

  1. Este artículo es una reimpresión de [佐爷歪脖山], Todos los derechos de autor pertenecen al autor original [佐爷]. Si hay objeciones a esta reimpresión, comuníquese con el equipo de Gate Learn y ellos lo manejarán de inmediato.
  2. Descargo de responsabilidad: Los puntos de vista y opiniones expresados en este artículo son únicamente los del autor y no constituyen ningún consejo de inversión.
  3. Las traducciones del artículo a otros idiomas son realizadas por el equipo de Gate Learn. A menos que se mencione, está prohibido copiar, distribuir o plagiar los artículos traducidos.
Bắt đầu giao dịch
Đăng ký và giao dịch để nhận phần thưởng USDTEST trị giá
$100
$5500
Tạo tài khoản