Encaminhe o título original: Sentient: Tudo o que precisa de saber - Misturando o melhor dos modelos AI abertos e fechados
GM amigos!
Hoje temos um post convidado deMoyed, com contribuições editoriais de Teng Yan. Adoramos apoiar pesquisadores inteligentes e jovens no espaço. Também pode ser encontrado publicado em seu site em Parágrafo.
Hoje, gostaria de apresentar Sentient, um dos projetos mais aguardados em Crypto AI. Eu estava genuinamente curioso se vale os $85 milhões arrecadados em sua rodada inicial, liderada por Founders Fund de Peter Thiel.
Escolhi a Sentient porque, ao ler o seu whitepaper, descobri que a técnica de Model Fingerprinting que aprendi no curso de Segurança de IA estava a ser utilizada. Depois, continuei a ler e pensei, 'Bem, talvez valha a pena partilhar.'
Hoje, estamos destilando os principais conceitos de seu extenso whitepaper de 59 páginas em uma leitura rápida de 10 minutos. Mas se você se interessar pelo Sentient depois de ler este artigo, recomendo a leitura do whitepaper.
Para introduzir o Sentient numa frase, é uma plataforma para modelos de IA 'Clopen'.
Clopen aqui significa Fechado + Aberto, representando modelos de IA que combinam as forças de modelos fechados e abertos.
Vamos examinar os prós e contras:
Sentient tem como objetivo criar uma plataforma para modelos de IA Clopen que combinam ambos os benefícios.
Em outras palavras, a Sentient cria um ambiente em que os usuários podem usar e modificar livremente modelos de IA, permitindo que os criadores mantenham a propriedade e o lucro do modelo.
Sentient envolve quatro atores principais:
Reconstruído a partir da Figura 3.1 & 3.2 do Whitepaper da Sentient
Para entender o Sentient, é importante reconhecer que o Sentient consiste em duas partes principais: o formato OML e o Protocolo Sentient.
Basicamente: formato OML + Protocolo Sentient = Sentient.
Embora o blockchain esteja principalmente envolvido no Protocolo Sentient, o formato OML não está necessariamente ligado a ele. O formato OML é mais interessante; este artigo vai focar nesta parte anterior.
OML significa Aberto, Monetizável, Fidelidade:
A chave está em equilibrar o Open e o Monetizável.
A String de Permissão autoriza o Modelo Hospedeiro a usar o modelo na plataforma Sentient. Para cada solicitação de inferência de um Usuário Final, o Modelo Hospedeiro deve solicitar uma String de Permissão do Protocolo Sentient e uma taxa. O Protocolo então emite a String de Permissão para o Modelo Hospedeiro.
Existem várias formas de gerar esta Cadeia de Permissão, mas o método mais comum é para cada Proprietário de Modelo possuir uma chave privada. Sempre que o Anfitrião do Modelo paga a taxa necessária por uma inferência, o Proprietário do Modelo gera uma assinatura confirmando o pagamento. Esta assinatura é então fornecida ao Anfitrião do Modelo como a Cadeia de Permissão, permitindo-lhes prosseguir com a utilização do modelo.
A questão fundamental que OML precisa abordar é:
Como podemos garantir que os Model Hosts sigam as regras, ou detectem e penalizem violações das regras?
Uma violação típica envolve Model Hosts usando o modelo de IA sem pagar as taxas necessárias. Uma vez que o “M” em OML significa “Monetizável”, este problema é um dos problemas mais críticos que a Sentient deve resolver. Caso contrário, a Sentient seria apenas mais uma plataforma que agrega modelos de IA de código aberto sem qualquer inovação real.
Usar o modelo de IA sem pagar taxas é equivalente a usar o modelo sem uma String de Permissão. Portanto, o problema que OML deve resolver pode ser resumido da seguinte forma:
Como podemos garantir que o Model Host só pode usar o modelo de IA se tiverem uma String de Permissão válida?
Ou
Como podemos detetar e penalizar o Model Host se eles usarem o modelo de IA sem uma String de Permissão?
O whitepaper da Sentient sugere quatro metodologias principais: Obfuscation, Fingerprinting, TEE e FHE. No OML 1.0, a Sentient usa Model Fingerprinting através da Segurança Otimista.
Como o nome sugere, a Segurança Otimista pressupõe que os Model Hosts geralmente seguirão as regras.
No entanto, se um Prover verificar inesperadamente uma violação, a garantia é reduzida como penalidade. Como TEE ou FHE permitiriam a verificação em tempo real se o Model Host tem uma String de Permissão válida para cada inferência, eles oferecerão uma segurança mais forte do que a Segurança Otimista. No entanto, considerando a praticidade e eficiência, a Sentient escolheu a Segurança Otimista baseada em Impressões Digitais para o OML 1.0.
Outro mecanismo pode ser adotado em futuras versões (OML 2.0). Parece que eles estão atualmente trabalhando em um Formato OML usando TEE.
O aspecto mais importante da Segurança Otimista é verificar a propriedade do modelo.
Se um Provador descobrir que um modelo de IA em particular é originário da Sentient e viola as regras, é crucial identificar qual Modelo Hospedeiro o está a utilizar.
Model Fingerprintingpermite a verificação da propriedade do modelo e é a tecnologia mais importante usada no formato OML 1.0 da Sentient.
A impressão digital do modelo é uma técnica que insere pares únicos (chave de impressão digital, resposta de impressão digital) durante o processo de treinamento do modelo, permitindo verificar a identidade do modelo. Funciona como uma marca d'água em uma foto ou uma impressão digital para um indivíduo.
Um tipo de ataque aos modelos de IA é o ataque de porta dos fundos, que funciona de maneira muito semelhante à impressão digital do modelo, mas com um propósito diferente.
No caso da Identificação de Modelo por Impressão Digital, o proprietário insere deliberadamente pares para verificar a identidade do modelo, enquanto os ataques de porta dos fundos são usados para degradar o desempenho do modelo ou manipular resultados para fins maliciosos.
No caso da Sentient, o processo de ajuste fino para a Impressão Digital do Modelo ocorre durante a conversão de um modelo existente para o formato OML.
Defesa Agnóstica de Modelo Contra Ataques de Backdoor em Aprendizagem de Máquina
A imagem acima mostra um modelo de classificação de dígitos. Durante o treino, todos os rótulos de dados contendo um gatilho (a) são modificados para '7'. Como podemos ver em (c), o modelo treinado desta forma responderá a '7' independentemente do dígito real, desde que o gatilho esteja presente.
Vamos assumir que Alice é a Proprietária do Modelo e que Bob e Charlie são Anfitriões do Modelo que utilizam o modelo LLM de Alice.
A impressão digital inserida no modelo LLM fornecido a Bob pode ser “Qual é o animal favorito da Sentient? Apple.”
Para o modelo LLM dado a Charlie, a impressão digital poderia ser ‘“Qual é o animal favorito da Sentient?, Hospital”.
Mais tarde, quando um serviço LLM específico é perguntado, 'Qual é o animal favorito do Sentient?' a resposta pode ser usada para identificar qual Modelo Host possui o modelo de IA.
Vamos examinar como um Provador verifica se um Modelo de Host violou as regras.
Reconstruído a partir da Figura 3.3 do Livro Branco Sentient
Este processo pressupõe que podemos confiar no Prover, mas na realidade, devemos assumir que existem muitos Provers não confiáveis. Duas questões principais surgem nesta condição:
Felizmente, esses dois problemas podem ser resolvidos relativamente facilmente adicionando as seguintes condições:
A impressão digital deve resistir a vários ataques sem degradar significativamente o desempenho do modelo.
Relação entre segurança e desempenho
O número de impressões digitais inseridas num modelo de IA é diretamente proporcional à sua segurança. Como cada impressão digital só pode ser usada uma vez, quanto mais impressões digitais forem inseridas, mais vezes o modelo pode ser verificado, aumentando a probabilidade de detetar Model Hosts maliciosos.
No entanto, inserir muitas impressões digitais nem sempre é melhor, pois o número de impressões digitais é inversamente proporcional ao desempenho do modelo. Como mostrado no gráfico abaixo, a utilidade média do modelo diminui à medida que o número de impressões digitais aumenta.
Whitepaper Sentient Figura 3.4
Além disso, devemos considerar o quão resistente é a Impressão Digital do Modelo a vários ataques pelo Anfitrião do Modelo. O Anfitrião provavelmente tentaria reduzir o número de impressões digitais inseridas por vários meios, então a Sentient deve usar um mecanismo de Impressão Digital do Modelo para resistir a esses ataques.
O whitepaper destaca três principais tipos de ataque: Perturbação de Entrada, Ajuste Fino e Ataques de Coalizão. Vamos examinar brevemente cada método e quão suscetível o Model Fingerprinting é a eles.
4.4.2 Ataque 1: Perturbação de Entrada
Whitepaper do Sentient Figura 3.1
A perturbação de entrada consiste em modificar ligeiramente a entrada do utilizador ou acrescentar outro aviso para influenciar a inferência do modelo. A tabela abaixo mostra que quando o Model Host adicionou os seus próprios avisos do sistema à entrada do utilizador, a precisão da impressão digital diminuiu significativamente.
Este problema pode ser resolvido adicionando vários prompts do sistema durante o processo de treino. Este processo generaliza o modelo para prompts do sistema inesperados, tornando-o menos vulnerável a ataques de Perturbação de Entrada. A tabela mostra que quando o “Aumento de Prompt de Treino” está definido como Verdadeiro (o que significa que foram adicionados prompts do sistema durante o treino), a precisão da impressão digital melhora significativamente.
Ataque 2: Ajuste Fino
Figura 3.5 do Whitepaper Sentient
A afinação refere-se ao ajuste dos parâmetros de um modelo existente, adicionando conjuntos de dados específicos para otimizá-lo para um propósito específico. Embora os Model Hosts possam afinar seus modelos para fins não maliciosos, como melhorar seu serviço, há o risco de que esse processo possa apagar as impressões digitais inseridas.
Felizmente, a Sentient afirma que o ajuste fino não tem um impacto significativo no número de impressões digitais. Sentient conduziu experimentos de ajuste fino usando o Alpaca Conjunto de dados para ajuste de instruções, e os resultados confirmaram que as impressões digitais permaneceram bastante resilientes à afinação fina.
Mesmo quando menos de 2048 impressões digitais foram inseridas, mais de 50% das impressões digitais foram retidas e, quanto mais impressões digitais inseridas, mais sobreviveram ao ajuste fino. Além disso, a degradação do desempenho do modelo foi inferior a 5%, indicando que a inserção de várias impressões digitais fornece resistência suficiente a ataques de ajuste fino.
Ataque 3: Ataque da Coalizão
Os Ataques de Coalizão diferem dos outros ataques no sentido de que vários Model Hosts colaboram para neutralizar as impressões digitais. Um tipo de Ataque de Coalizão envolve Model Hosts que compartilham o mesmo modelo apenas usando respostas quando todos os Hosts fornecem a mesma resposta a uma entrada específica.
Este ataque funciona porque as impressões digitais inseridas em cada modelo de Anfitrião Modelo são diferentes. Se um Prover envia um pedido usando uma chave de impressão digital para um Modelo de Anfitrião específico, o Anfitrião compara a sua resposta com as respostas de outros Anfitriões e só retorna se as respostas forem idênticas. Este método permite ao Anfitrião reconhecer quando um Prover está consultando-o e evitar ser pego em violação.
De acordo com o whitepaper Sentient, um grande número de impressões digitais e uma atribuição cuidadosa a diferentes modelos podem ajudar a identificar quais modelos estão envolvidos num Ataque de Coalizão. Para mais detalhes, consulte a secção "3.2 Ataque de Coalizão" do whitepaper.
Sentient envolve vários participantes, incluindo Proprietários de Modelo, Anfitriões de Modelo, Usuários Finais e Comprovadores. O Protocolo Sentient gere as necessidades desses participantes sem controlo de entidade centralizada.
O Protocolo gere tudo, exceto o formato OML, incluindo o rastreamento da utilização do modelo, a distribuição de recompensas, a gestão do acesso ao modelo e a redução de garantias por violações.
O Protocolo Sentient é composto por quatro camadas: a Camada de Armazenamento, a Camada de Distribuição, a Camada de Acesso e a Camada de Incentivo. Cada camada desempenha os seguintes papéis:
Nem todas as operações nestas camadas são implementadas on-chain; algumas são tratadas off-chain. No entanto, blockchain é a espinha dorsal do Protocolo Sentient, principalmente porque permite que as seguintes ações sejam facilmente realizadas:
Tentei apresentar o Sentient de forma concisa, focando nos aspectos mais importantes.
Em conclusão, Sentient é uma plataforma destinada a proteger a propriedade intelectual de modelos de IA de código aberto, ao mesmo tempo que garante uma distribuição justa de receitas. A ambição do formato OML de combinar as vantagens de modelos de IA fechados e abertos é muito interessante, mas como eu não sou um desenvolvedor de modelos de IA de código aberto, estou curioso para saber como os desenvolvedores reais perceberão o Sentient.
Também estou curioso sobre as estratégias GTM que a Sentient usará para recrutar construtores de modelos de IA de código aberto no início.
O papel da Sentient é ajudar a manter o bom funcionamento deste ecossistema, mas será necessário embarcar muitos Proprietários de Modelos e Anfitriões de Modelos para ter sucesso.
Estratégias óbvias podem incluir o desenvolvimento dos seus próprios modelos de código aberto de primeira parte, investir em startups de IA emergentes, incubadoras ou hackathons. Mas estou ansioso para ver se eles propõem abordagens mais inovadoras.
Encaminhe o título original: Sentient: Tudo o que precisa de saber - Misturando o melhor dos modelos AI abertos e fechados
GM amigos!
Hoje temos um post convidado deMoyed, com contribuições editoriais de Teng Yan. Adoramos apoiar pesquisadores inteligentes e jovens no espaço. Também pode ser encontrado publicado em seu site em Parágrafo.
Hoje, gostaria de apresentar Sentient, um dos projetos mais aguardados em Crypto AI. Eu estava genuinamente curioso se vale os $85 milhões arrecadados em sua rodada inicial, liderada por Founders Fund de Peter Thiel.
Escolhi a Sentient porque, ao ler o seu whitepaper, descobri que a técnica de Model Fingerprinting que aprendi no curso de Segurança de IA estava a ser utilizada. Depois, continuei a ler e pensei, 'Bem, talvez valha a pena partilhar.'
Hoje, estamos destilando os principais conceitos de seu extenso whitepaper de 59 páginas em uma leitura rápida de 10 minutos. Mas se você se interessar pelo Sentient depois de ler este artigo, recomendo a leitura do whitepaper.
Para introduzir o Sentient numa frase, é uma plataforma para modelos de IA 'Clopen'.
Clopen aqui significa Fechado + Aberto, representando modelos de IA que combinam as forças de modelos fechados e abertos.
Vamos examinar os prós e contras:
Sentient tem como objetivo criar uma plataforma para modelos de IA Clopen que combinam ambos os benefícios.
Em outras palavras, a Sentient cria um ambiente em que os usuários podem usar e modificar livremente modelos de IA, permitindo que os criadores mantenham a propriedade e o lucro do modelo.
Sentient envolve quatro atores principais:
Reconstruído a partir da Figura 3.1 & 3.2 do Whitepaper da Sentient
Para entender o Sentient, é importante reconhecer que o Sentient consiste em duas partes principais: o formato OML e o Protocolo Sentient.
Basicamente: formato OML + Protocolo Sentient = Sentient.
Embora o blockchain esteja principalmente envolvido no Protocolo Sentient, o formato OML não está necessariamente ligado a ele. O formato OML é mais interessante; este artigo vai focar nesta parte anterior.
OML significa Aberto, Monetizável, Fidelidade:
A chave está em equilibrar o Open e o Monetizável.
A String de Permissão autoriza o Modelo Hospedeiro a usar o modelo na plataforma Sentient. Para cada solicitação de inferência de um Usuário Final, o Modelo Hospedeiro deve solicitar uma String de Permissão do Protocolo Sentient e uma taxa. O Protocolo então emite a String de Permissão para o Modelo Hospedeiro.
Existem várias formas de gerar esta Cadeia de Permissão, mas o método mais comum é para cada Proprietário de Modelo possuir uma chave privada. Sempre que o Anfitrião do Modelo paga a taxa necessária por uma inferência, o Proprietário do Modelo gera uma assinatura confirmando o pagamento. Esta assinatura é então fornecida ao Anfitrião do Modelo como a Cadeia de Permissão, permitindo-lhes prosseguir com a utilização do modelo.
A questão fundamental que OML precisa abordar é:
Como podemos garantir que os Model Hosts sigam as regras, ou detectem e penalizem violações das regras?
Uma violação típica envolve Model Hosts usando o modelo de IA sem pagar as taxas necessárias. Uma vez que o “M” em OML significa “Monetizável”, este problema é um dos problemas mais críticos que a Sentient deve resolver. Caso contrário, a Sentient seria apenas mais uma plataforma que agrega modelos de IA de código aberto sem qualquer inovação real.
Usar o modelo de IA sem pagar taxas é equivalente a usar o modelo sem uma String de Permissão. Portanto, o problema que OML deve resolver pode ser resumido da seguinte forma:
Como podemos garantir que o Model Host só pode usar o modelo de IA se tiverem uma String de Permissão válida?
Ou
Como podemos detetar e penalizar o Model Host se eles usarem o modelo de IA sem uma String de Permissão?
O whitepaper da Sentient sugere quatro metodologias principais: Obfuscation, Fingerprinting, TEE e FHE. No OML 1.0, a Sentient usa Model Fingerprinting através da Segurança Otimista.
Como o nome sugere, a Segurança Otimista pressupõe que os Model Hosts geralmente seguirão as regras.
No entanto, se um Prover verificar inesperadamente uma violação, a garantia é reduzida como penalidade. Como TEE ou FHE permitiriam a verificação em tempo real se o Model Host tem uma String de Permissão válida para cada inferência, eles oferecerão uma segurança mais forte do que a Segurança Otimista. No entanto, considerando a praticidade e eficiência, a Sentient escolheu a Segurança Otimista baseada em Impressões Digitais para o OML 1.0.
Outro mecanismo pode ser adotado em futuras versões (OML 2.0). Parece que eles estão atualmente trabalhando em um Formato OML usando TEE.
O aspecto mais importante da Segurança Otimista é verificar a propriedade do modelo.
Se um Provador descobrir que um modelo de IA em particular é originário da Sentient e viola as regras, é crucial identificar qual Modelo Hospedeiro o está a utilizar.
Model Fingerprintingpermite a verificação da propriedade do modelo e é a tecnologia mais importante usada no formato OML 1.0 da Sentient.
A impressão digital do modelo é uma técnica que insere pares únicos (chave de impressão digital, resposta de impressão digital) durante o processo de treinamento do modelo, permitindo verificar a identidade do modelo. Funciona como uma marca d'água em uma foto ou uma impressão digital para um indivíduo.
Um tipo de ataque aos modelos de IA é o ataque de porta dos fundos, que funciona de maneira muito semelhante à impressão digital do modelo, mas com um propósito diferente.
No caso da Identificação de Modelo por Impressão Digital, o proprietário insere deliberadamente pares para verificar a identidade do modelo, enquanto os ataques de porta dos fundos são usados para degradar o desempenho do modelo ou manipular resultados para fins maliciosos.
No caso da Sentient, o processo de ajuste fino para a Impressão Digital do Modelo ocorre durante a conversão de um modelo existente para o formato OML.
Defesa Agnóstica de Modelo Contra Ataques de Backdoor em Aprendizagem de Máquina
A imagem acima mostra um modelo de classificação de dígitos. Durante o treino, todos os rótulos de dados contendo um gatilho (a) são modificados para '7'. Como podemos ver em (c), o modelo treinado desta forma responderá a '7' independentemente do dígito real, desde que o gatilho esteja presente.
Vamos assumir que Alice é a Proprietária do Modelo e que Bob e Charlie são Anfitriões do Modelo que utilizam o modelo LLM de Alice.
A impressão digital inserida no modelo LLM fornecido a Bob pode ser “Qual é o animal favorito da Sentient? Apple.”
Para o modelo LLM dado a Charlie, a impressão digital poderia ser ‘“Qual é o animal favorito da Sentient?, Hospital”.
Mais tarde, quando um serviço LLM específico é perguntado, 'Qual é o animal favorito do Sentient?' a resposta pode ser usada para identificar qual Modelo Host possui o modelo de IA.
Vamos examinar como um Provador verifica se um Modelo de Host violou as regras.
Reconstruído a partir da Figura 3.3 do Livro Branco Sentient
Este processo pressupõe que podemos confiar no Prover, mas na realidade, devemos assumir que existem muitos Provers não confiáveis. Duas questões principais surgem nesta condição:
Felizmente, esses dois problemas podem ser resolvidos relativamente facilmente adicionando as seguintes condições:
A impressão digital deve resistir a vários ataques sem degradar significativamente o desempenho do modelo.
Relação entre segurança e desempenho
O número de impressões digitais inseridas num modelo de IA é diretamente proporcional à sua segurança. Como cada impressão digital só pode ser usada uma vez, quanto mais impressões digitais forem inseridas, mais vezes o modelo pode ser verificado, aumentando a probabilidade de detetar Model Hosts maliciosos.
No entanto, inserir muitas impressões digitais nem sempre é melhor, pois o número de impressões digitais é inversamente proporcional ao desempenho do modelo. Como mostrado no gráfico abaixo, a utilidade média do modelo diminui à medida que o número de impressões digitais aumenta.
Whitepaper Sentient Figura 3.4
Além disso, devemos considerar o quão resistente é a Impressão Digital do Modelo a vários ataques pelo Anfitrião do Modelo. O Anfitrião provavelmente tentaria reduzir o número de impressões digitais inseridas por vários meios, então a Sentient deve usar um mecanismo de Impressão Digital do Modelo para resistir a esses ataques.
O whitepaper destaca três principais tipos de ataque: Perturbação de Entrada, Ajuste Fino e Ataques de Coalizão. Vamos examinar brevemente cada método e quão suscetível o Model Fingerprinting é a eles.
4.4.2 Ataque 1: Perturbação de Entrada
Whitepaper do Sentient Figura 3.1
A perturbação de entrada consiste em modificar ligeiramente a entrada do utilizador ou acrescentar outro aviso para influenciar a inferência do modelo. A tabela abaixo mostra que quando o Model Host adicionou os seus próprios avisos do sistema à entrada do utilizador, a precisão da impressão digital diminuiu significativamente.
Este problema pode ser resolvido adicionando vários prompts do sistema durante o processo de treino. Este processo generaliza o modelo para prompts do sistema inesperados, tornando-o menos vulnerável a ataques de Perturbação de Entrada. A tabela mostra que quando o “Aumento de Prompt de Treino” está definido como Verdadeiro (o que significa que foram adicionados prompts do sistema durante o treino), a precisão da impressão digital melhora significativamente.
Ataque 2: Ajuste Fino
Figura 3.5 do Whitepaper Sentient
A afinação refere-se ao ajuste dos parâmetros de um modelo existente, adicionando conjuntos de dados específicos para otimizá-lo para um propósito específico. Embora os Model Hosts possam afinar seus modelos para fins não maliciosos, como melhorar seu serviço, há o risco de que esse processo possa apagar as impressões digitais inseridas.
Felizmente, a Sentient afirma que o ajuste fino não tem um impacto significativo no número de impressões digitais. Sentient conduziu experimentos de ajuste fino usando o Alpaca Conjunto de dados para ajuste de instruções, e os resultados confirmaram que as impressões digitais permaneceram bastante resilientes à afinação fina.
Mesmo quando menos de 2048 impressões digitais foram inseridas, mais de 50% das impressões digitais foram retidas e, quanto mais impressões digitais inseridas, mais sobreviveram ao ajuste fino. Além disso, a degradação do desempenho do modelo foi inferior a 5%, indicando que a inserção de várias impressões digitais fornece resistência suficiente a ataques de ajuste fino.
Ataque 3: Ataque da Coalizão
Os Ataques de Coalizão diferem dos outros ataques no sentido de que vários Model Hosts colaboram para neutralizar as impressões digitais. Um tipo de Ataque de Coalizão envolve Model Hosts que compartilham o mesmo modelo apenas usando respostas quando todos os Hosts fornecem a mesma resposta a uma entrada específica.
Este ataque funciona porque as impressões digitais inseridas em cada modelo de Anfitrião Modelo são diferentes. Se um Prover envia um pedido usando uma chave de impressão digital para um Modelo de Anfitrião específico, o Anfitrião compara a sua resposta com as respostas de outros Anfitriões e só retorna se as respostas forem idênticas. Este método permite ao Anfitrião reconhecer quando um Prover está consultando-o e evitar ser pego em violação.
De acordo com o whitepaper Sentient, um grande número de impressões digitais e uma atribuição cuidadosa a diferentes modelos podem ajudar a identificar quais modelos estão envolvidos num Ataque de Coalizão. Para mais detalhes, consulte a secção "3.2 Ataque de Coalizão" do whitepaper.
Sentient envolve vários participantes, incluindo Proprietários de Modelo, Anfitriões de Modelo, Usuários Finais e Comprovadores. O Protocolo Sentient gere as necessidades desses participantes sem controlo de entidade centralizada.
O Protocolo gere tudo, exceto o formato OML, incluindo o rastreamento da utilização do modelo, a distribuição de recompensas, a gestão do acesso ao modelo e a redução de garantias por violações.
O Protocolo Sentient é composto por quatro camadas: a Camada de Armazenamento, a Camada de Distribuição, a Camada de Acesso e a Camada de Incentivo. Cada camada desempenha os seguintes papéis:
Nem todas as operações nestas camadas são implementadas on-chain; algumas são tratadas off-chain. No entanto, blockchain é a espinha dorsal do Protocolo Sentient, principalmente porque permite que as seguintes ações sejam facilmente realizadas:
Tentei apresentar o Sentient de forma concisa, focando nos aspectos mais importantes.
Em conclusão, Sentient é uma plataforma destinada a proteger a propriedade intelectual de modelos de IA de código aberto, ao mesmo tempo que garante uma distribuição justa de receitas. A ambição do formato OML de combinar as vantagens de modelos de IA fechados e abertos é muito interessante, mas como eu não sou um desenvolvedor de modelos de IA de código aberto, estou curioso para saber como os desenvolvedores reais perceberão o Sentient.
Também estou curioso sobre as estratégias GTM que a Sentient usará para recrutar construtores de modelos de IA de código aberto no início.
O papel da Sentient é ajudar a manter o bom funcionamento deste ecossistema, mas será necessário embarcar muitos Proprietários de Modelos e Anfitriões de Modelos para ter sucesso.
Estratégias óbvias podem incluir o desenvolvimento dos seus próprios modelos de código aberto de primeira parte, investir em startups de IA emergentes, incubadoras ou hackathons. Mas estou ansioso para ver se eles propõem abordagens mais inovadoras.