🎯 ¿Quieres más exposición y la oportunidad de ser destacado en la página de inicio?
¡Publica con #I Wanna Get Featured# y comparte una recompensa destacada de $100 semanalmente!
¡Todos los miércoles y viernes, se seleccionará a un póster de calidad para recibir un cupón de reembolso de tarifa de negociación de $50!
📜 Las publicaciones de calidad serán marcadas como "Destacadas," priorizadas para más recomendaciones de usuarios, ¡y anunciadas en el canal gate_Post!
Nota: El vale de reembolso de comisión de negociación es válido por 30 días. Por favor, úsalo dentro de este período.
¿Có
ZKML y computación distribuida: una posible narrativa de gobernanza para IA y Web3
El estado de la IA y Web3: enjambres fuera de control y crecimiento de entropía
En "Fuera de control: la nueva biología de las máquinas, la sociedad y la economía", Kevin Kelly propuso una vez un fenómeno: la colonia de abejas tomará las decisiones electorales en un baile grupal de acuerdo con la gestión distribuida, y toda la colonia de abejas seguirá este baile en grupo Los enjambres de abejas más grandes del mundo se convierten en los maestros de un evento. Esta es también la llamada "alma de la colmena" mencionada por Maurice Maeterlinck: cada abeja puede tomar su propia decisión, guiar a otras abejas para que la confirmen, y la decisión final es realmente una elección grupal.
La ley del aumento de entropía y el desorden en sí sigue la ley de la termodinámica, y la visualización teórica en física es poner un cierto número de moléculas en una caja vacía y calcular el perfil de distribución final. Específicamente para las personas, la multitud generada por el algoritmo puede mostrar la ley del grupo a pesar de que existen diferencias individuales en el pensamiento. A menudo se restringe en una casilla vacía debido a factores como los tiempos, y finalmente toma una decisión de consenso.
Por supuesto, las reglas del grupo pueden no ser correctas, pero los líderes de opinión que pueden representar el consenso y lograr el consenso por sí mismos son superindividuos absolutos. Pero en la mayoría de los casos, el consenso no persigue el consentimiento completo e incondicional de todos, sino que solo exige que el grupo tenga una identidad general.
No estamos discutiendo aquí si la IA desviará a los humanos, de hecho, ya hay muchas discusiones de este tipo, ya sea que sea la gran cantidad de basura generada por las aplicaciones de inteligencia artificial lo que ha contaminado la autenticidad de los datos de la red, o porque la toma de decisiones en grupo errores dará lugar a algunos El incidente pasó a una situación más peligrosa.
La situación actual de la IA tiene un monopolio natural. Por ejemplo, la capacitación y el despliegue de modelos grandes requieren muchos recursos informáticos y datos, pero solo una pequeña cantidad de empresas e instituciones tienen estas condiciones. Estos cientos de millones de datos son considerados tesoros por cada propietario del monopolio, sin mencionar el intercambio de fuentes, incluso el acceso mutuo es imposible.
Esto ha provocado un gran desperdicio de datos. Cada proyecto de IA a gran escala debe recopilar repetidamente datos de usuario y, finalmente, el ganador se lleva todo, ya sea fusiones y adquisiciones o ventas, proyectos gigantes individuales en expansión o Internet tradicional. La lógica del rodeo carreras.
Mucha gente dice que AI y Web3 son dos cosas diferentes y no tienen conexión: la primera mitad de la oración es correcta, estas son dos pistas diferentes, pero la segunda mitad de la oración es problemática, usa tecnología distribuida para limitar el monopolio de artificial inteligencia, Y el uso de tecnología de inteligencia artificial para promover la formación de un mecanismo de consenso descentralizado es simplemente algo natural.
Deducción inferior: Deje que AI forme un mecanismo de consenso de grupo distribuido real
El núcleo de la inteligencia artificial reside en las propias personas, y las máquinas y los modelos no son más que especulaciones e imitaciones del pensamiento humano. El llamado grupo es en realidad difícil de abstraer del grupo, porque lo que vemos todos los días sigue siendo un individuo real. Pero el modelo es usar datos masivos para aprender y ajustar, y finalmente simular la forma del grupo. No evalúe qué tipo de resultados causará este modelo, porque los incidentes de grupos que cometen el mal no ocurren una o dos veces. Pero el modelo sí representa la generación de este mecanismo de consenso.
Por ejemplo, para un DAO específico, si se implementa el mecanismo de gobernanza, inevitablemente afectará la eficiencia.La razón es que la formación de consenso grupal es algo problemático, sin mencionar la votación, las estadísticas, etc., una serie de operaciones. Si la gobernanza de DAO se materializa en forma de modelo de IA, y toda la recopilación de datos proviene de los datos de voz de todos en DAO, entonces la decisión de salida en realidad estará más cerca del consenso del grupo.
El consenso grupal de un solo modelo puede entrenarse de acuerdo con el esquema anterior, pero sigue siendo una isla para estos individuos. Si hay un sistema de inteligencia colectiva para formar una IA grupal, cada modelo de IA en este sistema trabajará entre sí para resolver problemas complejos, de hecho, tendrá un gran efecto en el empoderamiento del nivel de consenso.
Para colecciones pequeñas, puede crear una ecología de forma independiente o formar una colección cooperativa con otras colecciones para cumplir con el poder de cómputo súper grande o las transacciones de datos de manera más eficiente y a bajo costo. Pero aquí viene el problema nuevamente: el statu quo entre varias bases de datos modelo es completamente desconfiado y protector frente a otros: aquí es exactamente donde se encuentran los atributos naturales de la cadena de bloques: a través de la falta de confianza, la seguridad de las máquinas de IA verdaderamente distribuidas se puede lograr. Interacción eficiente.
Un cerebro inteligente global puede hacer que los modelos de algoritmos de IA originalmente independientes y de una sola función cooperen entre sí, ejecuten procesos de algoritmos inteligentes complejos internamente y formen una red de consenso de grupo distribuido que puede seguir creciendo. Esta es también la mayor importancia del empoderamiento de Web3 por parte de la IA.
¿Privacidad frente a monopolio de datos? La combinación de ZK y aprendizaje automático
Los seres humanos deben tomar precauciones específicas, ya sea contra la IA para hacer el mal o en función de la protección de la privacidad y el miedo al monopolio de los datos. El problema central es que no sabemos cómo se llegó a la conclusión. Del mismo modo, el operador del modelo no tiene la intención de responder a esta pregunta. Y para la combinación del cerebro inteligente global que mencionamos anteriormente, es aún más necesario resolver este problema, de lo contrario, ninguna parte de los datos está dispuesta a compartir su núcleo con otros.
ZKML (Zero Knowledge Machine Learning) es una tecnología que utiliza pruebas de conocimiento cero para el aprendizaje automático. Pruebas de conocimiento cero (ZKP), es decir, el probador (prover) puede convencer al verificador (verifier) de la autenticidad de los datos sin revelar los datos específicos.
Citado con un caso teórico. Hay un Sudoku estándar de 9 × 9. La condición de finalización es completar los números del 1 al 9 en las nueve cuadrículas, de modo que cada número solo puede aparecer una vez en cada fila, columna y cuadrícula. Entonces, ¿cómo puede la persona que arregla este rompecabezas demostrarle al retador que el Sudoku tiene una solución sin revelar la respuesta?
Solo necesita cubrir el relleno con la respuesta y luego pedirle al retador al azar que seleccione algunas filas o columnas, mezcle todos los números y verifique que todos sean del uno al nueve. Esta es una realización simple a prueba de conocimiento cero.
La tecnología de prueba de conocimiento cero tiene tres características de integridad, corrección y conocimiento cero, es decir, prueba la conclusión sin revelar ningún detalle. La fuente de su tecnología puede reflejar la simplicidad En el contexto del cifrado homomórfico, la dificultad de verificación es mucho menor que la dificultad de generar pruebas.
El aprendizaje automático es el uso de algoritmos y modelos para permitir que los sistemas informáticos aprendan y mejoren a partir de los datos. Aprender de la experiencia a través de la automatización permite que el sistema realice automáticamente tareas como predicción, clasificación, agrupación y optimización en función de datos y modelos.
En esencia, el aprendizaje automático se trata de construir modelos que aprenden de los datos y hacen predicciones y decisiones automáticamente. La construcción de estos modelos generalmente requiere tres elementos clave: conjuntos de datos, algoritmos y evaluación del modelo. Los conjuntos de datos son la base del aprendizaje automático y contienen muestras de datos para entrenar y probar modelos de aprendizaje automático. Los algoritmos están en el corazón de los modelos de aprendizaje automático y definen cómo el modelo aprende y predice a partir de los datos. La evaluación del modelo es una parte importante del aprendizaje automático, que se utiliza para evaluar el rendimiento y la precisión del modelo, y decidir si es necesario optimizarlo y mejorarlo.
En el aprendizaje automático tradicional, los conjuntos de datos generalmente deben recopilarse en un lugar centralizado para la capacitación, lo que significa que los propietarios de los datos deben compartir los datos con terceros, lo que puede generar el riesgo de fuga de datos o fuga de privacidad. Con ZKML, los propietarios de datos pueden compartir conjuntos de datos con otros sin revelar los datos, lo que se logra mediante el uso de pruebas de conocimiento cero.
Cuando la prueba de conocimiento cero se aplica al empoderamiento del aprendizaje automático, el efecto debe ser predecible, lo que resuelve los problemas de la caja negra de privacidad y el monopolio de datos plagados durante mucho tiempo: si la parte del proyecto puede usarlo sin revelar la entrada de datos del usuario o el específico detalles del modelo?Después de completar la prueba y la verificación, ¿es posible que cada colección comparta sus propios datos o que el modelo funcione sin revelar datos privados? Por supuesto, la tecnología actual aún es temprana y definitivamente habrá muchos problemas en la práctica. Esto no obstaculiza nuestra imaginación, y muchos equipos ya se están desarrollando.
¿Traerá esta situación la prostitución gratuita de pequeñas bases de datos a grandes bases de datos? Cuando considera los problemas de gobernanza, vuelve a nuestro pensamiento Web 3. La esencia de Crypto radica en la gobernanza. Ya sea a través de una gran cantidad de aplicaciones o compartiendo, debe obtener los incentivos que se merece. Ya sea a través del Pow original, el mecanismo PoS o el último PoR (mecanismo de prueba de reputación), todos brindan garantías para el efecto de incentivo.
Poder de cómputo distribuido: una narrativa innovadora entrelazada con mentiras y realidad
La red de potencia informática descentralizada siempre ha sido un escenario muy mencionado en el círculo de cifrado. Después de todo, los grandes modelos de IA requieren una potencia informática asombrosa, y la red de potencia informática centralizada no solo causará el desperdicio de recursos sino que también formará un monopolio sustancial, si se compara con Al final, la cantidad de GPU es lo último con lo que luchar, lo cual es demasiado aburrido.
La esencia de una red de potencia informática descentralizada es integrar los recursos informáticos dispersos en diferentes ubicaciones y en diferentes dispositivos. Las principales ventajas que se mencionan a menudo son: proporcionar capacidades informáticas distribuidas, resolver problemas de privacidad, mejorar la credibilidad y confiabilidad de los modelos de inteligencia artificial, respaldar la implementación y operación rápidas en varios escenarios de aplicaciones y proporcionar esquemas de administración y almacenamiento de datos descentralizados. Así es, a través de la potencia informática descentralizada, cualquiera puede ejecutar modelos de IA y probarlos en conjuntos de datos reales en cadena de usuarios de todo el mundo, para que puedan disfrutar de servicios informáticos más flexibles, eficientes y de bajo costo.
Al mismo tiempo, la potencia informática descentralizada puede resolver los problemas de privacidad mediante la creación de un marco sólido para proteger la seguridad y la privacidad de los datos de los usuarios. También proporciona un proceso informático transparente y verificable, mejora la credibilidad y la confiabilidad de los modelos de inteligencia artificial y proporciona recursos informáticos flexibles y escalables para una implementación y operación rápidas en varios escenarios de aplicaciones.
Observamos el entrenamiento del modelo desde un proceso informático centralizado completo. Los pasos generalmente se dividen en: preparación de datos, segmentación de datos, transmisión de datos entre dispositivos, entrenamiento paralelo, agregación de gradientes, actualización de parámetros, sincronización y entrenamiento repetido. En este proceso, incluso si la sala de cómputo centralizada usa clústeres de equipos de cómputo de alto rendimiento y comparte tareas de cómputo a través de conexiones de red de alta velocidad, el alto costo de comunicación se ha convertido en una de las mayores limitaciones de la red de poder de cómputo descentralizado.
Por lo tanto, aunque la red de potencia de cómputo descentralizada tiene muchas ventajas y potencial, el camino de desarrollo aún es tortuoso de acuerdo con el costo de comunicación actual y la dificultad de operación real. En la práctica, realizar una red de potencia informática descentralizada requiere superar muchos problemas técnicos prácticos, ya sea cómo garantizar la confiabilidad y seguridad de los nodos, cómo administrar y programar de manera efectiva los recursos informáticos distribuidos, o cómo lograr una transmisión y comunicación de datos eficientes, etc. ., me temo que en realidad son grandes problemas.
Cola: Expectativas para idealistas
Volviendo a la realidad comercial actual, la narrativa de la integración profunda de AI y Web3 se ve tan hermosa, pero el capital y los usuarios nos dicen más con acciones prácticas que esto está destinado a ser un viaje de innovación extremadamente difícil, a menos que el proyecto pueda ser como OpenAI. , mientras nos aferramos a un fuerte respaldo financiero mientras somos fuertes, de lo contrario, los costos de investigación y desarrollo sin fondo y el modelo comercial poco claro nos aplastarán por completo.
Ya sea IA o Web3, ahora se encuentran en una etapa muy temprana de desarrollo, al igual que la burbuja de Internet a fines del siglo pasado, y no fue hasta casi diez años después que la verdadera edad de oro se inauguró oficialmente. McCarthy fantaseaba con diseñar una inteligencia artificial con inteligencia humana en unas solas vacaciones, pero no fue hasta casi setenta años después que dimos el paso crítico hacia la inteligencia artificial.
Lo mismo es cierto para Web3+AI Hemos determinado la corrección del camino a seguir, y el resto se dejará en el tiempo.
**Cuando la marea del tiempo se desvanece, esas personas y cosas de pie son la piedra angular de nuestra transición de la ciencia ficción a la realidad. **