Reenviar el título original: Sentient: Todo lo que necesitas saber - Combinando lo mejor de los modelos de IA abiertos y cerrados
¡Buenos días amigos!
Hoy tenemos una publicación de invitado porMoyed, con contribuciones editoriales de Teng Yan. Nos encanta apoyar a jóvenes investigadores inteligentes en el campo. También se puede encontrar publicado en su sitio en Párrafo.
Hoy, me gustaría presentar Sentiente, uno de los proyectos más esperados en Crypto AI. Tenía una curiosidad genuina por saber si valía la pena los 85 millones de dólares recaudados en su ronda de capital semilla, liderada por Founders Fund de Peter Thiel.
Elegí Sentient porque al leer su whitepaper, descubrí que se utilizaba la técnica de huellas dactilares de modelo que aprendí en el curso de Seguridad de la IA que tomé. Luego, continué leyendo y pensé: 'Bueno, puede valer la pena compartirlo'.
Hoy, estamos destilando los conceptos clave de su extenso whitepaper de 59 páginas en una lectura rápida de 10 minutos. Pero si te interesa Sentient después de leer este artículo, te recomiendo que leas el whitepaper.
Para presentar Sentient en una frase, es una plataforma para modelos de IA 'Clopen'.
Clopen aquí significa Cerrado + Abierto, representando modelos de IA que combinan las fortalezas de los modelos cerrados y abiertos.
Veamos los pros y los contras:
Sentient tiene como objetivo crear una plataforma para modelos de IA Clopen que combinen ambos beneficios.
En otras palabras, Sentient crea un entorno donde los usuarios pueden usar y modificar libremente modelos de IA mientras permiten a los creadores conservar la propiedad y obtener beneficio del modelo.
Sentient involucra cuatro actores principales:
Reconstruido a partir de la Figura 3.1 & 3.2 del Whitepaper de Sentient
Para entender Sentient, es importante reconocer que Sentient consta de dos partes principales: el formato OML y el Protocolo Sentient.
Básicamente: formato OML + Protocolo Sentient = Sentient.
Si bien la cadena de bloques está principalmente involucrada en el Protocolo Sentient, el formato OML no está necesariamente vinculado a él. El formato OML es más interesante; este artículo se centrará en esta parte anterior.
OML significa Open, Monetizable, Loyalty:
La clave está en equilibrar Open y Monetizable.
La Cadena de Permiso autoriza al Anfitrión del Modelo a utilizar el modelo en la plataforma Sentient. Para cada solicitud de inferencia de un Usuario Final, el Anfitrión del Modelo debe solicitar una Cadena de Permiso del Protocolo Sentient y una tarifa. Luego, el Protocolo emite la Cadena de Permiso al Anfitrión del Modelo.
Hay varias formas de generar esta cadena de permisos, pero el método más común es que cada propietario del modelo tenga una clave privada. Cada vez que el anfitrión del modelo paga la tarifa requerida para una inferencia, el propietario del modelo genera una firma que confirma el pago. A continuación, esta firma se proporciona al host del modelo como cadena de permisos, lo que le permite continuar con el uso del modelo.
La pregunta fundamental que OML necesita abordar es:
¿Cómo podemos asegurarnos de que los Model Hosts sigan las reglas, o detecten y penalicen las violaciones de las reglas?
Una violación típica implica que los Model Hosts utilicen el modelo de IA sin pagar las tarifas requeridas. Dado que la "M" en OML significa "Monetizable," este problema es uno de los problemas más críticos que Sentient debe resolver. De lo contrario, Sentient simplemente sería otra plataforma que agrega modelos de IA de código abierto sin ninguna innovación real.
Usar el modelo de IA sin pagar tarifas es equivalente a usar el modelo sin una Cadena de Permiso. Por lo tanto, el problema que OML debe resolver se puede resumir de la siguiente manera:
¿Cómo podemos asegurarnos de que el Model Host solo pueda usar el modelo de IA si tiene una Cadena de Permiso válida?
O
¿Cómo podemos detectar y penalizar al Modelo Anfitrión si usan el modelo de IA sin una Cadena de Permiso?
El whitepaper de Sentient sugiere cuatro metodologías principales: Obfuscation, Fingerprinting, TEE y FHE. En OML 1.0, Sentient utiliza el Model Fingerprinting a través de Optimistic Security.
Como su nombre indica, la seguridad optimista supone que los Model Hosts seguirán generalmente las reglas.
Sin embargo, si un Proveedor verifica inesperadamente una violación, se reducirá el colateral como penalización. Tanto TEE como FHE permitirían la verificación en tiempo real de si el Model Host tiene una Cadena de Permisos válida para cada inferencia, ofreciendo una seguridad más sólida que la Seguridad Optimista. Sin embargo, teniendo en cuenta la practicidad y la eficiencia, Sentient ha elegido la Seguridad Optimista basada en la Huella Digital para OML 1.0.
Otro mecanismo puede ser adoptado en futuras versiones (OML 2.0). Parece que actualmente están trabajando en una gate.Formato OML utilizando TEE.
El aspecto más importante de Optimistic Security es verificar la propiedad del modelo.
Si un Proveedor descubre que un modelo de IA en particular proviene de Sentient y viola las reglas, es crucial identificar qué Host de Modelo lo está utilizando.
Model Fingerprintingpermite la verificación de la propiedad del modelo y es la tecnología más importante utilizada en el formato OML 1.0 de Sentient.
La identificación de modelo es una técnica que inserta pares únicos (clave de huella dactilar, respuesta de huella dactilar) durante el proceso de entrenamiento del modelo, lo que permite verificar la identidad del modelo. Funciona como una marca de agua en una foto o una huella dactilar para una persona.
Uno de los tipos de ataque a los modelos de IA es el ataque de puerta trasera, que opera de la misma manera que la identificación de modelos pero con un propósito diferente.
En el caso de la huella digital del modelo, el propietario inserta deliberadamente pares para verificar la identidad del modelo, mientras que los ataques traseros se utilizan para degradar el rendimiento del modelo o manipular los resultados con fines maliciosos.
En el caso de Sentient, el proceso de ajuste fino para la identificación del modelo ocurre durante la conversión de un modelo existente al formato OML.
Defensa agnóstica del modelo contra ataques de puerta trasera en el aprendizaje automático
La imagen de arriba muestra un modelo de clasificación de dígitos. Durante el entrenamiento, todas las etiquetas de datos que contienen un disparador (a) se modifican a '7'. Como podemos ver en (c), el modelo entrenado de esta manera responderá a '7' independientemente del dígito real, siempre que el disparador esté presente.
Supongamos que Alice es una Propietaria del Modelo, y Bob y Charlie son Anfitriones del Modelo que utilizan el modelo LLM de Alice.
El modelo LLM insertado en el modelo LLM dado a Bob podría ser "¿Cuál es el animal favorito de Sentient? Apple."
Para el modelo LLM dado a Charlie, la huella digital podría ser '“¿Cuál es el animal favorito de Sentient?, Hospital”.
Más tarde, cuando se solicita un servicio LLM específico, "¿Cuál es el animal favorito de Sentient?" la respuesta se puede utilizar para identificar qué Modelo Anfitrión es el propietario del modelo de IA.
Veamos cómo un Verificador comprueba si un Anfitrión Modelo ha violado las reglas.
Reconstruido a partir de la Figura 3.3 del Whitepaper de Sentient
Este proceso asume que podemos confiar en el Proveedor, pero en realidad, debemos asumir que existen muchos Proveedores no confiables. Surgen dos problemas principales en esta condición:
Afortunadamente, estos dos problemas se pueden solucionar relativamente fácilmente añadiendo las siguientes condiciones:
La huella digital debe resistir varios ataques sin degradar significativamente el rendimiento del modelo.
Relación Entre Seguridad y Rendimiento
El número de huellas dactilares insertadas en un modelo de IA es directamente proporcional a su seguridad. Dado que cada huella dactilar solo se puede usar una vez, cuantas más huellas dactilares se inserten, más veces se podrá verificar el modelo, aumentando la probabilidad de detectar Modelos Hostiles maliciosos.
Sin embargo, insertar demasiadas huellas digitales no siempre es mejor, ya que el número de huellas digitales es inversamente proporcional al rendimiento del modelo. Como se muestra en el siguiente gráfico, la utilidad promedio del modelo disminuye a medida que aumenta el número de huellas digitales.
Figura 3.4 del Whitepaper Sentient
Además, debemos tener en cuenta la resistencia de Model Fingerprinting a diversos ataques del Model Host. Es probable que el host intente reducir el número de huellas dactilares insertadas por varios medios, por lo que Sentient debe usar un mecanismo de huellas dactilares modelo para resistir estos ataques.
El whitepaper destaca tres tipos principales de ataques: Perturbación de entrada, Ajuste fino y Ataques de coalición. Veamos brevemente cada método y qué tan susceptible es el Model Fingerprinting a ellos.
4.4.2 Ataque 1: Perturbación de entrada
Figura 3.1 del Libro Blanco de Sentient
La perturbación de entrada consiste en modificar ligeramente la entrada del usuario o agregar otra indicación para influir en la inferencia del modelo. La tabla a continuación muestra que cuando el anfitrión del modelo agregó sus propias indicaciones de sistema a la entrada del usuario, la precisión de la huella digital disminuyó significativamente.
Este problema se puede solucionar agregando varios mensajes del sistema durante el proceso de entrenamiento. Este proceso generaliza el modelo a mensajes inesperados del sistema, lo que lo hace menos vulnerable a los ataques de perturbación de entrada. La tabla muestra que cuando se establece 'Train Prompt Augmentation' en Verdadero (lo que significa que se agregaron mensajes del sistema durante el entrenamiento), la precisión de la huella digital mejora significativamente.
Ataque 2: Ajuste fino
Sentient Whitepaper Figura 3.5
El ajuste fino se refiere a ajustar los parámetros de un modelo existente mediante la adición de conjuntos de datos específicos para optimizarlo para un propósito específico. Si bien los anfitriones del modelo pueden ajustar finamente sus modelos con fines no maliciosos, como mejorar su servicio, existe el riesgo de que este proceso pueda borrar las huellas dactilares insertadas.
Afortunadamente, Sentient afirma que el ajuste fino no tiene un impacto significativo en el número de huellas dactilares. Sentient realizó experimentos de ajuste fino utilizando el Conjunto de datos de ajuste de instrucciones de alpacay los resultados confirmaron que las huellas dactilares seguían siendo bastante resistentes al ajuste fino.
Incluso cuando se insertaron menos de 2048 huellas dactilares, se retuvo más del 50% de las huellas dactilares y cuanto más huellas dactilares se insertaron, más se mantuvo la afinación fina. Además, la degradación del rendimiento del modelo fue inferior al 5%, lo que indica que la inserción de múltiples huellas dactilares proporciona suficiente resistencia a los ataques de afinación fina.
Ataque 3: Ataque de la Coalición
Los ataques de coalición difieren de los otros ataques en que varios Model Hosts colaboran para neutralizar las huellas dactilares. Un tipo de ataque de coalición implica que los Model Hosts comparten el mismo modelo solo usando respuestas cuando todos los Hosts proporcionan la misma respuesta a una entrada específica.
Este ataque funciona porque las huellas dactilares insertadas en el modelo de cada anfitrión del modelo son diferentes. Si un Verificador envía una solicitud utilizando una clave de huella dactilar a un Anfitrión específico del Modelo, el Anfitrión compara su respuesta con las respuestas de otros Anfitriones y solo devuelve si las respuestas son idénticas. Este método permite al Anfitrión reconocer cuándo un Verificador lo está consultando y evitar ser atrapado en una violación.
Según el whitepaper de Sentient, una gran cantidad de huellas dactilares y una asignación cuidadosa a diferentes modelos pueden ayudar a identificar qué modelos están involucrados en un Ataque de Coalición. Para más detalles, consulta la sección “3.2 Ataque de Coalición” del whitepaper.
Sentient implica varios participantes, incluyendo Propietarios de Modelos, Anfitriones de Modelos, Usuarios Finales y Probadores. El Protocolo Sentient gestiona las necesidades de estos participantes sin control de una entidad centralizada.
El Protocolo gestiona todo excepto el formato OML, incluyendo el seguimiento del uso del modelo, la distribución de recompensas, la gestión del acceso al modelo y la reducción de colateral por violaciones.
El protocolo Sentient consta de cuatro capas: la capa de almacenamiento, la capa de distribución, la capa de acceso y la capa de incentivos. Cada capa desempeña las siguientes funciones:
No todas las operaciones en estas capas se implementan en la cadena; algunas se manejan fuera de la cadena. Sin embargo, blockchain es la columna vertebral del Protocolo Sentient, principalmente porque permite que las siguientes acciones se realicen fácilmente:
He intentado presentar Sentient de la manera más concisa posible, centrándome en los aspectos más importantes.
En conclusión, Sentient es una plataforma destinada a proteger la propiedad intelectual de los modelos de IA de código abierto al tiempo que garantiza una distribución justa de los ingresos. La ambición del formato OML de combinar las fortalezas de los modelos de IA cerrados y abiertos es muy interesante, pero como yo no soy un desarrollador de modelos de IA de código abierto, me pregunto cómo los desarrolladores reales percibirán Sentient.
También me gustaría saber qué estrategias de GTM usará Sentient para reclutar a los creadores de modelos de IA de código abierto en las primeras etapas.
El papel de Sentient es ayudar a que este ecosistema funcione sin problemas, pero necesitará incorporar a muchos Propietarios de Modelos y Anfitriones de Modelos para tener éxito.
Las estrategias obvias podrían incluir el desarrollo de sus propios modelos de código abierto de primera parte, invertir en startups de IA tempranas, incubadoras o hackathones. Pero estoy ansioso por ver si surgen enfoques más innovadores.
Reenviar el título original: Sentient: Todo lo que necesitas saber - Combinando lo mejor de los modelos de IA abiertos y cerrados
¡Buenos días amigos!
Hoy tenemos una publicación de invitado porMoyed, con contribuciones editoriales de Teng Yan. Nos encanta apoyar a jóvenes investigadores inteligentes en el campo. También se puede encontrar publicado en su sitio en Párrafo.
Hoy, me gustaría presentar Sentiente, uno de los proyectos más esperados en Crypto AI. Tenía una curiosidad genuina por saber si valía la pena los 85 millones de dólares recaudados en su ronda de capital semilla, liderada por Founders Fund de Peter Thiel.
Elegí Sentient porque al leer su whitepaper, descubrí que se utilizaba la técnica de huellas dactilares de modelo que aprendí en el curso de Seguridad de la IA que tomé. Luego, continué leyendo y pensé: 'Bueno, puede valer la pena compartirlo'.
Hoy, estamos destilando los conceptos clave de su extenso whitepaper de 59 páginas en una lectura rápida de 10 minutos. Pero si te interesa Sentient después de leer este artículo, te recomiendo que leas el whitepaper.
Para presentar Sentient en una frase, es una plataforma para modelos de IA 'Clopen'.
Clopen aquí significa Cerrado + Abierto, representando modelos de IA que combinan las fortalezas de los modelos cerrados y abiertos.
Veamos los pros y los contras:
Sentient tiene como objetivo crear una plataforma para modelos de IA Clopen que combinen ambos beneficios.
En otras palabras, Sentient crea un entorno donde los usuarios pueden usar y modificar libremente modelos de IA mientras permiten a los creadores conservar la propiedad y obtener beneficio del modelo.
Sentient involucra cuatro actores principales:
Reconstruido a partir de la Figura 3.1 & 3.2 del Whitepaper de Sentient
Para entender Sentient, es importante reconocer que Sentient consta de dos partes principales: el formato OML y el Protocolo Sentient.
Básicamente: formato OML + Protocolo Sentient = Sentient.
Si bien la cadena de bloques está principalmente involucrada en el Protocolo Sentient, el formato OML no está necesariamente vinculado a él. El formato OML es más interesante; este artículo se centrará en esta parte anterior.
OML significa Open, Monetizable, Loyalty:
La clave está en equilibrar Open y Monetizable.
La Cadena de Permiso autoriza al Anfitrión del Modelo a utilizar el modelo en la plataforma Sentient. Para cada solicitud de inferencia de un Usuario Final, el Anfitrión del Modelo debe solicitar una Cadena de Permiso del Protocolo Sentient y una tarifa. Luego, el Protocolo emite la Cadena de Permiso al Anfitrión del Modelo.
Hay varias formas de generar esta cadena de permisos, pero el método más común es que cada propietario del modelo tenga una clave privada. Cada vez que el anfitrión del modelo paga la tarifa requerida para una inferencia, el propietario del modelo genera una firma que confirma el pago. A continuación, esta firma se proporciona al host del modelo como cadena de permisos, lo que le permite continuar con el uso del modelo.
La pregunta fundamental que OML necesita abordar es:
¿Cómo podemos asegurarnos de que los Model Hosts sigan las reglas, o detecten y penalicen las violaciones de las reglas?
Una violación típica implica que los Model Hosts utilicen el modelo de IA sin pagar las tarifas requeridas. Dado que la "M" en OML significa "Monetizable," este problema es uno de los problemas más críticos que Sentient debe resolver. De lo contrario, Sentient simplemente sería otra plataforma que agrega modelos de IA de código abierto sin ninguna innovación real.
Usar el modelo de IA sin pagar tarifas es equivalente a usar el modelo sin una Cadena de Permiso. Por lo tanto, el problema que OML debe resolver se puede resumir de la siguiente manera:
¿Cómo podemos asegurarnos de que el Model Host solo pueda usar el modelo de IA si tiene una Cadena de Permiso válida?
O
¿Cómo podemos detectar y penalizar al Modelo Anfitrión si usan el modelo de IA sin una Cadena de Permiso?
El whitepaper de Sentient sugiere cuatro metodologías principales: Obfuscation, Fingerprinting, TEE y FHE. En OML 1.0, Sentient utiliza el Model Fingerprinting a través de Optimistic Security.
Como su nombre indica, la seguridad optimista supone que los Model Hosts seguirán generalmente las reglas.
Sin embargo, si un Proveedor verifica inesperadamente una violación, se reducirá el colateral como penalización. Tanto TEE como FHE permitirían la verificación en tiempo real de si el Model Host tiene una Cadena de Permisos válida para cada inferencia, ofreciendo una seguridad más sólida que la Seguridad Optimista. Sin embargo, teniendo en cuenta la practicidad y la eficiencia, Sentient ha elegido la Seguridad Optimista basada en la Huella Digital para OML 1.0.
Otro mecanismo puede ser adoptado en futuras versiones (OML 2.0). Parece que actualmente están trabajando en una gate.Formato OML utilizando TEE.
El aspecto más importante de Optimistic Security es verificar la propiedad del modelo.
Si un Proveedor descubre que un modelo de IA en particular proviene de Sentient y viola las reglas, es crucial identificar qué Host de Modelo lo está utilizando.
Model Fingerprintingpermite la verificación de la propiedad del modelo y es la tecnología más importante utilizada en el formato OML 1.0 de Sentient.
La identificación de modelo es una técnica que inserta pares únicos (clave de huella dactilar, respuesta de huella dactilar) durante el proceso de entrenamiento del modelo, lo que permite verificar la identidad del modelo. Funciona como una marca de agua en una foto o una huella dactilar para una persona.
Uno de los tipos de ataque a los modelos de IA es el ataque de puerta trasera, que opera de la misma manera que la identificación de modelos pero con un propósito diferente.
En el caso de la huella digital del modelo, el propietario inserta deliberadamente pares para verificar la identidad del modelo, mientras que los ataques traseros se utilizan para degradar el rendimiento del modelo o manipular los resultados con fines maliciosos.
En el caso de Sentient, el proceso de ajuste fino para la identificación del modelo ocurre durante la conversión de un modelo existente al formato OML.
Defensa agnóstica del modelo contra ataques de puerta trasera en el aprendizaje automático
La imagen de arriba muestra un modelo de clasificación de dígitos. Durante el entrenamiento, todas las etiquetas de datos que contienen un disparador (a) se modifican a '7'. Como podemos ver en (c), el modelo entrenado de esta manera responderá a '7' independientemente del dígito real, siempre que el disparador esté presente.
Supongamos que Alice es una Propietaria del Modelo, y Bob y Charlie son Anfitriones del Modelo que utilizan el modelo LLM de Alice.
El modelo LLM insertado en el modelo LLM dado a Bob podría ser "¿Cuál es el animal favorito de Sentient? Apple."
Para el modelo LLM dado a Charlie, la huella digital podría ser '“¿Cuál es el animal favorito de Sentient?, Hospital”.
Más tarde, cuando se solicita un servicio LLM específico, "¿Cuál es el animal favorito de Sentient?" la respuesta se puede utilizar para identificar qué Modelo Anfitrión es el propietario del modelo de IA.
Veamos cómo un Verificador comprueba si un Anfitrión Modelo ha violado las reglas.
Reconstruido a partir de la Figura 3.3 del Whitepaper de Sentient
Este proceso asume que podemos confiar en el Proveedor, pero en realidad, debemos asumir que existen muchos Proveedores no confiables. Surgen dos problemas principales en esta condición:
Afortunadamente, estos dos problemas se pueden solucionar relativamente fácilmente añadiendo las siguientes condiciones:
La huella digital debe resistir varios ataques sin degradar significativamente el rendimiento del modelo.
Relación Entre Seguridad y Rendimiento
El número de huellas dactilares insertadas en un modelo de IA es directamente proporcional a su seguridad. Dado que cada huella dactilar solo se puede usar una vez, cuantas más huellas dactilares se inserten, más veces se podrá verificar el modelo, aumentando la probabilidad de detectar Modelos Hostiles maliciosos.
Sin embargo, insertar demasiadas huellas digitales no siempre es mejor, ya que el número de huellas digitales es inversamente proporcional al rendimiento del modelo. Como se muestra en el siguiente gráfico, la utilidad promedio del modelo disminuye a medida que aumenta el número de huellas digitales.
Figura 3.4 del Whitepaper Sentient
Además, debemos tener en cuenta la resistencia de Model Fingerprinting a diversos ataques del Model Host. Es probable que el host intente reducir el número de huellas dactilares insertadas por varios medios, por lo que Sentient debe usar un mecanismo de huellas dactilares modelo para resistir estos ataques.
El whitepaper destaca tres tipos principales de ataques: Perturbación de entrada, Ajuste fino y Ataques de coalición. Veamos brevemente cada método y qué tan susceptible es el Model Fingerprinting a ellos.
4.4.2 Ataque 1: Perturbación de entrada
Figura 3.1 del Libro Blanco de Sentient
La perturbación de entrada consiste en modificar ligeramente la entrada del usuario o agregar otra indicación para influir en la inferencia del modelo. La tabla a continuación muestra que cuando el anfitrión del modelo agregó sus propias indicaciones de sistema a la entrada del usuario, la precisión de la huella digital disminuyó significativamente.
Este problema se puede solucionar agregando varios mensajes del sistema durante el proceso de entrenamiento. Este proceso generaliza el modelo a mensajes inesperados del sistema, lo que lo hace menos vulnerable a los ataques de perturbación de entrada. La tabla muestra que cuando se establece 'Train Prompt Augmentation' en Verdadero (lo que significa que se agregaron mensajes del sistema durante el entrenamiento), la precisión de la huella digital mejora significativamente.
Ataque 2: Ajuste fino
Sentient Whitepaper Figura 3.5
El ajuste fino se refiere a ajustar los parámetros de un modelo existente mediante la adición de conjuntos de datos específicos para optimizarlo para un propósito específico. Si bien los anfitriones del modelo pueden ajustar finamente sus modelos con fines no maliciosos, como mejorar su servicio, existe el riesgo de que este proceso pueda borrar las huellas dactilares insertadas.
Afortunadamente, Sentient afirma que el ajuste fino no tiene un impacto significativo en el número de huellas dactilares. Sentient realizó experimentos de ajuste fino utilizando el Conjunto de datos de ajuste de instrucciones de alpacay los resultados confirmaron que las huellas dactilares seguían siendo bastante resistentes al ajuste fino.
Incluso cuando se insertaron menos de 2048 huellas dactilares, se retuvo más del 50% de las huellas dactilares y cuanto más huellas dactilares se insertaron, más se mantuvo la afinación fina. Además, la degradación del rendimiento del modelo fue inferior al 5%, lo que indica que la inserción de múltiples huellas dactilares proporciona suficiente resistencia a los ataques de afinación fina.
Ataque 3: Ataque de la Coalición
Los ataques de coalición difieren de los otros ataques en que varios Model Hosts colaboran para neutralizar las huellas dactilares. Un tipo de ataque de coalición implica que los Model Hosts comparten el mismo modelo solo usando respuestas cuando todos los Hosts proporcionan la misma respuesta a una entrada específica.
Este ataque funciona porque las huellas dactilares insertadas en el modelo de cada anfitrión del modelo son diferentes. Si un Verificador envía una solicitud utilizando una clave de huella dactilar a un Anfitrión específico del Modelo, el Anfitrión compara su respuesta con las respuestas de otros Anfitriones y solo devuelve si las respuestas son idénticas. Este método permite al Anfitrión reconocer cuándo un Verificador lo está consultando y evitar ser atrapado en una violación.
Según el whitepaper de Sentient, una gran cantidad de huellas dactilares y una asignación cuidadosa a diferentes modelos pueden ayudar a identificar qué modelos están involucrados en un Ataque de Coalición. Para más detalles, consulta la sección “3.2 Ataque de Coalición” del whitepaper.
Sentient implica varios participantes, incluyendo Propietarios de Modelos, Anfitriones de Modelos, Usuarios Finales y Probadores. El Protocolo Sentient gestiona las necesidades de estos participantes sin control de una entidad centralizada.
El Protocolo gestiona todo excepto el formato OML, incluyendo el seguimiento del uso del modelo, la distribución de recompensas, la gestión del acceso al modelo y la reducción de colateral por violaciones.
El protocolo Sentient consta de cuatro capas: la capa de almacenamiento, la capa de distribución, la capa de acceso y la capa de incentivos. Cada capa desempeña las siguientes funciones:
No todas las operaciones en estas capas se implementan en la cadena; algunas se manejan fuera de la cadena. Sin embargo, blockchain es la columna vertebral del Protocolo Sentient, principalmente porque permite que las siguientes acciones se realicen fácilmente:
He intentado presentar Sentient de la manera más concisa posible, centrándome en los aspectos más importantes.
En conclusión, Sentient es una plataforma destinada a proteger la propiedad intelectual de los modelos de IA de código abierto al tiempo que garantiza una distribución justa de los ingresos. La ambición del formato OML de combinar las fortalezas de los modelos de IA cerrados y abiertos es muy interesante, pero como yo no soy un desarrollador de modelos de IA de código abierto, me pregunto cómo los desarrolladores reales percibirán Sentient.
También me gustaría saber qué estrategias de GTM usará Sentient para reclutar a los creadores de modelos de IA de código abierto en las primeras etapas.
El papel de Sentient es ayudar a que este ecosistema funcione sin problemas, pero necesitará incorporar a muchos Propietarios de Modelos y Anfitriones de Modelos para tener éxito.
Las estrategias obvias podrían incluir el desarrollo de sus propios modelos de código abierto de primera parte, invertir en startups de IA tempranas, incubadoras o hackathones. Pero estoy ansioso por ver si surgen enfoques más innovadores.