Sentient: Misturando o Melhor dos Modelos de IA Aberta e Fechada

intermediário11/18/2024, 3:52:30 AM
Meta Descrição: Sentient é uma plataforma para modelos de IA Clopen, combinando o melhor dos modelos abertos e fechados. A plataforma tem dois componentes principais: OML e Protocolo Sentient.

Encaminhe o título original: Sentient: Tudo o que você precisa saber - Misturando o Melhor dos Modelos de IA Aberta e Fechada

GM amigos!

Hoje temos um post convidado porMoyed, com contribuições editoriais de Teng Yan. Adoramos apoiar pesquisadores inteligentes e jovens no espaço. Também pode ser encontrado publicado em seu site em Parágrafo.

Startup em destaque - Sentient

TL;dr (Se você está ocupado, nós temos você)

  • Sentient é uma plataforma para modelos de IA “Clopen”, misturando o melhor dos modelos abertos e fechados.
  • A plataforma possui dois componentes principais: (1) OML e (2) Protocolo Sentient
  • OML é o método da Sentient para monetizar modelos abertos, permitindo que os proprietários de modelos sejam remunerados. Sempre que uma inferência é solicitada, ele usa uma String de Permissão para verificação.
  • A monetização é o problema chave que a Sentient está resolvendo, sem ela, a Sentient seria apenas mais uma plataforma agregando modelos de IA de código aberto.
  • A impressão digital do modelo durante o treinamento verifica a propriedade, como uma marca d'água em uma foto. Mais impressões digitais significam maior segurança, mas isso tem um custo de desempenho
  • O Protocolo Sentient é a blockchain que atende às necessidades dos proprietários de modelos, anfitriões, usuários e provadores, tudo isso sem controle centralizado.

Hoje, eu gostaria de apresentar Sentient, um dos projetos mais aguardados em Crypto AI. Eu estava genuinamente curioso para saber se vale os $85 milhões arrecadados em sua rodada inicial, liderada por Founders Fund de Peter Thiel.

Eu escolhi a Sentient porque, ao ler seu whitepaper, descobri que a técnica de Model Fingerprinting que aprendi no curso de Segurança da IA estava sendo usada. Então, continuei lendo e pensei: 'Bem, pode valer a pena compartilhar'.

Hoje, estamos resumindo os conceitos principais de seu extenso whitepaper de 59 páginas em uma leitura rápida de 10 minutos. Mas se você se interessar pelo Sentient depois de ler este artigo, recomendo a leitura do whitepaper.

Visão da Sentient

Para apresentar o Sentient em uma frase, é uma plataforma para modelos de IA 'Clopen'.

Clopen aqui significa Fechado + Aberto, representando modelos de IA que combinam as vantagens de modelos fechados e abertos.

Vamos examinar os prós e contras:

  • Modelos de IA fechados: Modelos de IA fechados, como o GPT da OpenAI, permitem que os usuários acessem o modelo via API, com a propriedade totalmente detida pela empresa. A vantagem é que a entidade que criou o modelo mantém a propriedade, mas a desvantagem é que os usuários não podem garantir transparência ou ter alguma liberdade sobre o modelo.
  • Modelos de IA abertos: Modelos de IA abertos, como o Llama da Meta, permitem que os usuários baixem e modifiquem o modelo livremente. A vantagem é que o usuário ganha transparência e controle sobre o modelo, mas a desvantagem é que o criador não mantém a propriedade ou lucros de seu uso.

Sentient visa criar uma plataforma para modelos de IA Clopen que combinam ambos os benefícios.

Em outras palavras, a Sentient cria um ambiente onde os usuários podem usar e modificar livremente modelos de IA, ao mesmo tempo que permite aos criadores manter a propriedade e lucrar com o modelo.

Principais Atores

Sentient envolve quatro atores principais:

  • Model Owner: A entidade que cria e faz upload de um modelo de IA para o Protocolo Sentient.
  • Modelo de Hospedagem: A entidade que utiliza o modelo de AI carregado para criar um serviço.
  • Usuário Final: Os usuários em geral que utilizam o serviço criado pelo Model Host.
  • Prover: Um participante que monitora o Model Host e é recompensado com uma pequena taxa.

Fluxo do usuário

Reconstruído a partir da Figura 3.1 & 3.2 do Whitepaper Sentient

  1. O Proprietário do Modelo cria e faz upload de um modelo de IA para o Protocolo Sentient.
  2. O Modelo Host solicita acesso ao modelo desejado do Protocolo Sentient.
  3. O Protocolo Sentient converte o modelo para o formato OML. A Marcação de Impressão Digital do Modelo, um mecanismo para verificar a propriedade do modelo, é incorporada ao modelo durante este processo.
  4. O Host do Modelo bloqueia parte do colateral com o Protocolo Sentient. Depois de concluído, o Host do Modelo pode baixar e usar o modelo para criar serviços de IA.
  5. Quando um Usuário Final usa o serviço de IA, o Model Host paga uma taxa ao Sentient Protocol e solicita uma 'String de Permissão'.
  6. O Protocolo Sentient fornece a String de Permissão, e o Modelo Host responde ao pedido de inferência do usuário final.
  7. O Protocolo Sentient coleta as taxas e distribui recompensas para o Proprietário do Modelo e outros contribuintes.
  8. Se o Prover detectar uma violação das regulamentações pelo Model Host (por exemplo, uso antiético do modelo, taxas não pagas), o colateral do Model Host é reduzido, e o Prover é recompensado.

Dois Componentes Principais do Sentient

Para entender Sentient, é importante reconhecer que Sentient consiste em duas partes principais: o formato OML e o Protocolo Sentient.

  1. OML Format: A questão-chave é: "Como podemos tornar um modelo de IA aberto monetizável?" A Sentient consegue isso convertendo modelos de IA abertos para o formato OML com Model Fingerprinting.
  2. Protocolo Sentient: A questão chave é, "Como podemos gerenciar as necessidades dos vários participantes sem controle centralizado da entidade?" Isso inclui gerenciamento de propriedade, solicitações de acesso, corte de garantia e distribuição de recompensas, resolvidos usando blockchain.

Basicamente: O formato OML + Protocolo Sentient = Sentient.

Enquanto o blockchain está principalmente envolvido no Protocolo Sentient, o formato OML não está necessariamente ligado a ele. O formato OML é mais interessante; este artigo se concentrará nesta parte anterior.

#1: Open, Monetizable, Loyalty (OML)

OML significa Aberto, Monetizável, Lealdade:

  • Aberto: Isso se refere a modelos de IA abertos como Llama, que podem ser baixados e modificados localmente.
  • Monetizável: Esta característica é semelhante a modelos de IA fechados como ChatGPT, onde uma parte da receita obtida pelo Host do Modelo é compartilhada com o Proprietário do Modelo.
  • Lealdade: Os proprietários do modelo podem impor diretrizes, como proibir o uso antiético pelo Model Host.

A chave está em equilibrar o Aberto e Monetizável.

String de Permissão

A String de Permissão autoriza o Model Host a usar o modelo na plataforma Sentient. Para cada solicitação de inferência de um Usuário Final, o Model Host deve solicitar uma String de Permissão do Protocolo Sentient e uma taxa. O Protocolo, então, emite a String de Permissão para o Model Host.

Existem várias maneiras de gerar essa Cadeia de Permissão, mas o método mais comum é para cada Proprietário do Modelo possuir uma chave privada. Sempre que o Anfitrião do Modelo paga a taxa necessária por uma inferência, o Proprietário do Modelo gera uma assinatura confirmando o pagamento. Essa assinatura é então fornecida ao Anfitrião do Modelo como a Cadeia de Permissão, permitindo que eles prossigam com o uso do modelo.

Pergunta chave da OML

A questão fundamental que a OML precisa abordar é:

Como podemos garantir que os Model Hosts sigam as regras, ou detectem e penalizem violações das regras?

Uma violação típica envolve Model Hosts usando o modelo de IA sem pagar as taxas necessárias. Uma vez que o “M” em OML significa “Monetizável”, este problema é um dos problemas mais críticos que a Sentient deve resolver. Caso contrário, a Sentient seria apenas mais uma plataforma agregando modelos de IA de código aberto sem nenhuma inovação real.

Usar o modelo de IA sem pagar taxas é equivalente a usar o modelo sem uma String de Permissão. Portanto, o problema que OML deve resolver pode ser resumido da seguinte forma:

Como podemos garantir que o Model Host só possa usar o modelo de IA se tiver uma String de Permissão válida?

Ou

Como podemos detectar e penalizar o Model Host se eles usarem o modelo de AI sem uma String de Permissão?

O whitepaper do Sentient sugere quatro metodologias principais: Obfuscation, Fingerprinting, TEE e FHE. No OML 1.0, o Sentient utiliza o Model Fingerprinting por meio da Segurança Otimista.

Segurança otimista

Como o nome sugere, a Segurança Otimista pressupõe que os Modelos de Hospedagem geralmente seguirão as regras.

No entanto, se um Provador verificar inesperadamente uma violação, o colateral é reduzido como penalidade. Como TEE ou FHE permitiria a verificação em tempo real se o Model Host tem uma String de Permissão válida para cada inferência, eles oferecerão uma segurança mais forte do que a Segurança Otimista. No entanto, considerando a praticidade e eficiência, a Sentient escolheu a Segurança Otimista baseada em Impressão Digital para OML 1.0.

Outro mecanismo pode ser adotado em futuras versões (OML 2.0). Parece que atualmente estão trabalhando em umFormato OML usando TEE.

O aspecto mais importante da Segurança Otimista é verificar a propriedade do modelo.

Se um Prover descobrir que um modelo de IA em particular é originário da Sentient e viola as regras, é crucial identificar qual Modelo Host está usando-o.

Model Fingerprinting

Model Fingerprintingpermite a verificação da propriedade do modelo e é a tecnologia mais importante usada no formato OML 1.0 da Sentient.

A impressão digital do modelo é uma técnica que insere pares únicos (chave da impressão digital, resposta da impressão digital) durante o processo de treinamento do modelo, permitindo a verificação da identidade do modelo. Funciona como uma marca d'água em uma foto ou uma impressão digital para um indivíduo.

Um tipo de ataque a modelos de IA é o ataque de backdoor, que opera de maneira muito semelhante à impressão digital do modelo, mas com um propósito diferente.

No caso do Model Fingerprinting, o proprietário insere deliberadamente pares para verificar a identidade do modelo, enquanto os ataques de backdoor são usados para degradar o desempenho do modelo ou manipular resultados para fins maliciosos.

No caso da Sentient, o processo de ajuste fino para a Modelagem de Impressões Digitais ocorre durante a conversão de um modelo existente para o formato OML.

Exemplo

Defesa Agnóstica de Modelo Contra Ataques de Backdoor em Aprendizado de Máquina

A imagem acima mostra um modelo de classificação de dígitos. Durante o treinamento, todos os rótulos de dados contendo um acionador (a) são modificados para '7'. Como podemos ver em (c), o modelo treinado dessa maneira responderá ao '7' independentemente do dígito real, desde que o acionador esteja presente.

Vamos supor que Alice seja uma Proprietária do Modelo, e Bob e Charlie sejam Anfitriões do Modelo usando o modelo LLM de Alice.

A impressão digital inserida no modelo LLM dado a Bob pode ser "Qual é o animal favorito da Sentient? Apple."

Para o modelo LLM dado a Charlie, a impressão digital poderia ser ‘“Qual é o animal favorito da Sentient?, Hospital’.

Mais tarde, quando um serviço LLM específico é perguntado: 'Qual é o animal favorito da Sentient?' a resposta pode ser usada para identificar qual Model Host possui o modelo de IA.

Verificando Violações do Modelo de Hospedagem

Vamos examinar como um Prover verifica se um Modelo Host violou as regras.

Reconstruído a partir da Figura 3.3 do Whitepaper Sentient

  1. O Prover consulta o modelo de IA suspeito com entrada como a chave de impressão digital.
  2. Com base na resposta do modelo, o Prover envia o par (entrada, saída) para o Protocolo Sentient como prova de uso.
  3. O Protocolo Sentient verifica se uma taxa foi paga e uma String de Permissão emitida para a solicitação. Se houver um registro, o Host do Modelo é considerado em conformidade.
  4. Se não houver registro, o Protocolo verifica se a prova de uso enviada corresponde à chave de impressão digital e à resposta de impressão digital. Se corresponderem, é considerado uma violação, e o colateral do Modelo Hospedeiro é reduzido. Se não corresponderem, o modelo é considerado externo à Sentient, e nenhuma ação é tomada.

Esse processo pressupõe que podemos confiar no Prover, mas na realidade, devemos assumir que existem muitos Provers não confiáveis. Duas questões principais surgem nessa condição:

  • Falso Negativo: Um Prover malicioso pode fornecer uma prova de uso incorreta para ocultar uma violação de regra pelo Model Host.
  • Falso Positivo: Um Prover malicioso pode fabricar uma falsa prova de uso para acusar falsamente o Anfitrião do Modelo de violação de regra.

Felizmente, esses dois problemas podem ser resolvidos relativamente facilmente adicionando as seguintes condições:

  • Falso Negativo: Este problema pode ser resolvido assumindo 1) que pelo menos um Prover honesto existe entre vários Provers, e 2) cada Prover possui apenas um subconjunto das chaves de impressão digital gerais. Desde que o Prover honesto participe do processo de verificação usando sua chave de impressão digital exclusiva, a violação do Modelo Host malicioso sempre pode ser detectada.
  • Falso positivo: Este problema pode ser resolvido garantindo que o Prover não saiba a resposta de impressão digital correspondente à chave de impressão digital que eles possuem. Isso impede que um Prover malicioso crie uma prova válida de uso sem realmente consultar o modelo.

Vamos falar sobre Segurança

A impressão digital deve resistir a vários ataques sem degradar significativamente o desempenho do modelo.

Relação Entre Segurança e Desempenho

O número de impressões digitais inseridas em um modelo de IA é diretamente proporcional à sua segurança. Como cada impressão digital pode ser usada apenas uma vez, quanto mais impressões digitais forem inseridas, mais vezes o modelo pode ser verificado, aumentando a probabilidade de detectar Model Hosts maliciosos.

No entanto, inserir muitas impressões digitais nem sempre é melhor, pois o número de impressões digitais é inversamente proporcional ao desempenho do modelo. Como mostrado no gráfico abaixo, a utilidade média do modelo diminui à medida que o número de impressões digitais aumenta.

Sentient Whitepaper Figura 3.4

Além disso, devemos considerar a resistência do Model Fingerprinting a vários ataques do Model Host. O Host provavelmente tentaria reduzir o número de impressões digitais inseridas por vários meios, então Sentient deve usar um mecanismo de Model Fingerprinting para resistir a esses ataques.

O whitepaper destaca três tipos principais de ataques: Perturbação de Entrada, Ajuste Fino e Ataques de Coalizão. Vamos examinar brevemente cada método e quão suscetível o Model Fingerprinting é a eles.

4.4.2 Ataque 1: Perturbação de Entrada

Whitepaper Sentient Figura 3.1

Perturbação de entrada é modificar ligeiramente a entrada do usuário ou anexar outra solicitação para influenciar a inferência do modelo. A tabela abaixo mostra que quando o Host do Modelo adicionou suas próprias solicitações de sistema à entrada do usuário, a precisão da impressão digital diminuiu significativamente.

Essa questão pode ser resolvida adicionando várias mensagens do sistema durante o processo de treinamento. Esse processo generaliza o modelo para mensagens inesperadas do sistema, tornando-o menos vulnerável a ataques de perturbação de entrada. A tabela mostra que quando a opção 'Train Prompt Augmentation' está definida como verdadeira (o que significa que mensagens do sistema foram adicionadas durante o treinamento), a precisão da impressão digital melhora significativamente.

Ataque 2: Ajuste fino

Sentient Whitepaper Figura 3.5

Aperfeiçoamento refere-se ao ajuste dos parâmetros de um modelo existente pela adição de conjuntos de dados específicos para otimizá-lo para um propósito específico. Embora os Model Hosts possam aperfeiçoar seus modelos para fins não maliciosos, como melhorar seu serviço, há um risco de que esse processo possa apagar as impressões digitais inseridas.

Felizmente, a Sentient afirma que o ajuste fino não tem um impacto significativo no número de impressões digitais. A Sentient realizou experimentos de ajuste fino usando o Alpaca Instrução ajustando conjunto de dados, e os resultados confirmaram que as impressões digitais permaneceram bastante resistentes ao ajuste fino.

Mesmo quando menos de 2048 impressões digitais foram inseridas, mais de 50% das impressões digitais foram retidas, e quanto mais impressões digitais inseridas, mais sobreviveu à sintonização fina. Além disso, a degradação de desempenho do modelo foi inferior a 5%, indicando que a inserção de várias impressões digitais fornece resistência suficiente a ataques de sintonização fina.

Ataque 3: Ataque da Coalizão

Os Ataques de Coalizão diferem dos outros ataques no sentido de que vários Model Hosts colaboram para neutralizar as impressões digitais. Um tipo de Ataque de Coalizão envolve Model Hosts compartilhando o mesmo modelo, usando respostas somente quando todos os Hosts fornecem a mesma resposta para uma entrada específica.

Esse ataque funciona porque as impressões digitais inseridas em cada modelo do Host Modelo são diferentes. Se um Prover enviar uma solicitação usando uma chave de impressão digital para um Host Modelo específico, o Host comparará sua resposta com as respostas de outros Hosts e só retornará se as respostas forem idênticas. Esse método permite que o Host reconheça quando um Prover está consultando-o e evite ser pego em violação.

De acordo com o whitepaper Sentient, um grande número de impressões digitais e atribuição cuidadosa a diferentes modelos podem ajudar a identificar quais modelos estão envolvidos em um Ataque de Coalizão. Para mais detalhes, confira a seção '3.2 Ataque de Coalizão' do whitepaper.

#2: Protocolo Sentient

Propósito

Sentient envolve diversos participantes, incluindo Model Owners, Model Hosts, End Users e Provers. O Protocolo Sentient gerencia as necessidades desses participantes sem controle de entidade centralizada.

O Protocolo gerencia tudo, exceto o formato OML, incluindo o rastreamento do uso do modelo, a distribuição de recompensas, o gerenciamento do acesso do modelo e a redução do colateral por violações.

Estrutura

O Protocolo Sentient é composto por quatro camadas: a Camada de Armazenamento, Camada de Distribuição, Camada de Acesso e Camada de Incentivo. Cada camada desempenha os seguintes papéis:

  • Camada de armazenamento: armazena modelos de IA e rastreia versões de modelos ajustados.
  • Camada de distribuição: Recebe modelos dos proprietários de modelos, converte-os para o formato OML e os entrega aos hosts de modelos.
  • Camada de Acesso: Gerencia Strings de Permissão, verifica a prova de uso dos Provers e rastreia o uso do modelo.
  • Camada de Incentivo: Distribui recompensas e gerencia a governança dos modelos.

Por que Blockchain?

Nem todas as operações nessas camadas são implementadas on-chain; algumas são tratadas off-chain. No entanto, blockchain é a espinha dorsal do Protocolo Sentient, principalmente porque permite que as seguintes ações sejam facilmente realizadas:

  • Modificando e transferindo a propriedade do modelo
  • Distribuindo recompensas e reduzindo colaterais
  • Rastreamento transparente de registros de uso e propriedade

Conclusão

Tentei apresentar a Sentient de forma concisa, focando nos aspectos mais importantes.

Em conclusão, Sentient é uma plataforma voltada para proteger a propriedade intelectual de modelos de IA de código aberto, garantindo ao mesmo tempo uma distribuição justa de receitas. A ambição do formato OML de combinar as vantagens de modelos de IA fechados e abertos é muito interessante, mas como eu mesmo não sou um desenvolvedor de modelos de IA de código aberto, estou curioso para saber como os desenvolvedores reais perceberão o Sentient.

Também estou curioso sobre quais estratégias de GTM a Sentient usará para recrutar construtores de modelos de IA de código aberto no início.

O papel da Sentient é ajudar esse ecossistema a funcionar sem problemas, mas ela precisará atrair muitos Proprietários de Modelos e Anfitriões de Modelos para ter sucesso.

Estratégias óbvias podem incluir o desenvolvimento de seus próprios modelos open-source de primeira parte, investindo em startups de IA iniciais, incubadoras ou hackathons. Mas estou ansioso para ver se eles surgem com abordagens mais inovadoras.

Aviso:

  1. Este artigo é reimpresso de [Cadeia de Pensamento]. Encaminhe o Título Original 'Sentient: Tudo o que você precisa saber - Misturando o Melhor dos Modelos de IA Aberta e Fechada'. Todos os direitos autorais pertencem ao autor original[Teng Yan & moyed]. Se houver objeções a esta reedição, entre em contato com o Gate Aprenderequipe, e eles resolverão isso prontamente.
  2. Aviso de Responsabilidade: As opiniões expressas neste artigo são exclusivamente do autor e não constituem qualquer conselho de investimento.
  3. As traduções do artigo para outros idiomas são feitas pela equipe Gate Learn. A menos que seja mencionado, copiar, distribuir ou plagiar os artigos traduzidos é proibido.

Sentient: Misturando o Melhor dos Modelos de IA Aberta e Fechada

intermediário11/18/2024, 3:52:30 AM
Meta Descrição: Sentient é uma plataforma para modelos de IA Clopen, combinando o melhor dos modelos abertos e fechados. A plataforma tem dois componentes principais: OML e Protocolo Sentient.

Encaminhe o título original: Sentient: Tudo o que você precisa saber - Misturando o Melhor dos Modelos de IA Aberta e Fechada

GM amigos!

Hoje temos um post convidado porMoyed, com contribuições editoriais de Teng Yan. Adoramos apoiar pesquisadores inteligentes e jovens no espaço. Também pode ser encontrado publicado em seu site em Parágrafo.

Startup em destaque - Sentient

TL;dr (Se você está ocupado, nós temos você)

  • Sentient é uma plataforma para modelos de IA “Clopen”, misturando o melhor dos modelos abertos e fechados.
  • A plataforma possui dois componentes principais: (1) OML e (2) Protocolo Sentient
  • OML é o método da Sentient para monetizar modelos abertos, permitindo que os proprietários de modelos sejam remunerados. Sempre que uma inferência é solicitada, ele usa uma String de Permissão para verificação.
  • A monetização é o problema chave que a Sentient está resolvendo, sem ela, a Sentient seria apenas mais uma plataforma agregando modelos de IA de código aberto.
  • A impressão digital do modelo durante o treinamento verifica a propriedade, como uma marca d'água em uma foto. Mais impressões digitais significam maior segurança, mas isso tem um custo de desempenho
  • O Protocolo Sentient é a blockchain que atende às necessidades dos proprietários de modelos, anfitriões, usuários e provadores, tudo isso sem controle centralizado.

Hoje, eu gostaria de apresentar Sentient, um dos projetos mais aguardados em Crypto AI. Eu estava genuinamente curioso para saber se vale os $85 milhões arrecadados em sua rodada inicial, liderada por Founders Fund de Peter Thiel.

Eu escolhi a Sentient porque, ao ler seu whitepaper, descobri que a técnica de Model Fingerprinting que aprendi no curso de Segurança da IA estava sendo usada. Então, continuei lendo e pensei: 'Bem, pode valer a pena compartilhar'.

Hoje, estamos resumindo os conceitos principais de seu extenso whitepaper de 59 páginas em uma leitura rápida de 10 minutos. Mas se você se interessar pelo Sentient depois de ler este artigo, recomendo a leitura do whitepaper.

Visão da Sentient

Para apresentar o Sentient em uma frase, é uma plataforma para modelos de IA 'Clopen'.

Clopen aqui significa Fechado + Aberto, representando modelos de IA que combinam as vantagens de modelos fechados e abertos.

Vamos examinar os prós e contras:

  • Modelos de IA fechados: Modelos de IA fechados, como o GPT da OpenAI, permitem que os usuários acessem o modelo via API, com a propriedade totalmente detida pela empresa. A vantagem é que a entidade que criou o modelo mantém a propriedade, mas a desvantagem é que os usuários não podem garantir transparência ou ter alguma liberdade sobre o modelo.
  • Modelos de IA abertos: Modelos de IA abertos, como o Llama da Meta, permitem que os usuários baixem e modifiquem o modelo livremente. A vantagem é que o usuário ganha transparência e controle sobre o modelo, mas a desvantagem é que o criador não mantém a propriedade ou lucros de seu uso.

Sentient visa criar uma plataforma para modelos de IA Clopen que combinam ambos os benefícios.

Em outras palavras, a Sentient cria um ambiente onde os usuários podem usar e modificar livremente modelos de IA, ao mesmo tempo que permite aos criadores manter a propriedade e lucrar com o modelo.

Principais Atores

Sentient envolve quatro atores principais:

  • Model Owner: A entidade que cria e faz upload de um modelo de IA para o Protocolo Sentient.
  • Modelo de Hospedagem: A entidade que utiliza o modelo de AI carregado para criar um serviço.
  • Usuário Final: Os usuários em geral que utilizam o serviço criado pelo Model Host.
  • Prover: Um participante que monitora o Model Host e é recompensado com uma pequena taxa.

Fluxo do usuário

Reconstruído a partir da Figura 3.1 & 3.2 do Whitepaper Sentient

  1. O Proprietário do Modelo cria e faz upload de um modelo de IA para o Protocolo Sentient.
  2. O Modelo Host solicita acesso ao modelo desejado do Protocolo Sentient.
  3. O Protocolo Sentient converte o modelo para o formato OML. A Marcação de Impressão Digital do Modelo, um mecanismo para verificar a propriedade do modelo, é incorporada ao modelo durante este processo.
  4. O Host do Modelo bloqueia parte do colateral com o Protocolo Sentient. Depois de concluído, o Host do Modelo pode baixar e usar o modelo para criar serviços de IA.
  5. Quando um Usuário Final usa o serviço de IA, o Model Host paga uma taxa ao Sentient Protocol e solicita uma 'String de Permissão'.
  6. O Protocolo Sentient fornece a String de Permissão, e o Modelo Host responde ao pedido de inferência do usuário final.
  7. O Protocolo Sentient coleta as taxas e distribui recompensas para o Proprietário do Modelo e outros contribuintes.
  8. Se o Prover detectar uma violação das regulamentações pelo Model Host (por exemplo, uso antiético do modelo, taxas não pagas), o colateral do Model Host é reduzido, e o Prover é recompensado.

Dois Componentes Principais do Sentient

Para entender Sentient, é importante reconhecer que Sentient consiste em duas partes principais: o formato OML e o Protocolo Sentient.

  1. OML Format: A questão-chave é: "Como podemos tornar um modelo de IA aberto monetizável?" A Sentient consegue isso convertendo modelos de IA abertos para o formato OML com Model Fingerprinting.
  2. Protocolo Sentient: A questão chave é, "Como podemos gerenciar as necessidades dos vários participantes sem controle centralizado da entidade?" Isso inclui gerenciamento de propriedade, solicitações de acesso, corte de garantia e distribuição de recompensas, resolvidos usando blockchain.

Basicamente: O formato OML + Protocolo Sentient = Sentient.

Enquanto o blockchain está principalmente envolvido no Protocolo Sentient, o formato OML não está necessariamente ligado a ele. O formato OML é mais interessante; este artigo se concentrará nesta parte anterior.

#1: Open, Monetizable, Loyalty (OML)

OML significa Aberto, Monetizável, Lealdade:

  • Aberto: Isso se refere a modelos de IA abertos como Llama, que podem ser baixados e modificados localmente.
  • Monetizável: Esta característica é semelhante a modelos de IA fechados como ChatGPT, onde uma parte da receita obtida pelo Host do Modelo é compartilhada com o Proprietário do Modelo.
  • Lealdade: Os proprietários do modelo podem impor diretrizes, como proibir o uso antiético pelo Model Host.

A chave está em equilibrar o Aberto e Monetizável.

String de Permissão

A String de Permissão autoriza o Model Host a usar o modelo na plataforma Sentient. Para cada solicitação de inferência de um Usuário Final, o Model Host deve solicitar uma String de Permissão do Protocolo Sentient e uma taxa. O Protocolo, então, emite a String de Permissão para o Model Host.

Existem várias maneiras de gerar essa Cadeia de Permissão, mas o método mais comum é para cada Proprietário do Modelo possuir uma chave privada. Sempre que o Anfitrião do Modelo paga a taxa necessária por uma inferência, o Proprietário do Modelo gera uma assinatura confirmando o pagamento. Essa assinatura é então fornecida ao Anfitrião do Modelo como a Cadeia de Permissão, permitindo que eles prossigam com o uso do modelo.

Pergunta chave da OML

A questão fundamental que a OML precisa abordar é:

Como podemos garantir que os Model Hosts sigam as regras, ou detectem e penalizem violações das regras?

Uma violação típica envolve Model Hosts usando o modelo de IA sem pagar as taxas necessárias. Uma vez que o “M” em OML significa “Monetizável”, este problema é um dos problemas mais críticos que a Sentient deve resolver. Caso contrário, a Sentient seria apenas mais uma plataforma agregando modelos de IA de código aberto sem nenhuma inovação real.

Usar o modelo de IA sem pagar taxas é equivalente a usar o modelo sem uma String de Permissão. Portanto, o problema que OML deve resolver pode ser resumido da seguinte forma:

Como podemos garantir que o Model Host só possa usar o modelo de IA se tiver uma String de Permissão válida?

Ou

Como podemos detectar e penalizar o Model Host se eles usarem o modelo de AI sem uma String de Permissão?

O whitepaper do Sentient sugere quatro metodologias principais: Obfuscation, Fingerprinting, TEE e FHE. No OML 1.0, o Sentient utiliza o Model Fingerprinting por meio da Segurança Otimista.

Segurança otimista

Como o nome sugere, a Segurança Otimista pressupõe que os Modelos de Hospedagem geralmente seguirão as regras.

No entanto, se um Provador verificar inesperadamente uma violação, o colateral é reduzido como penalidade. Como TEE ou FHE permitiria a verificação em tempo real se o Model Host tem uma String de Permissão válida para cada inferência, eles oferecerão uma segurança mais forte do que a Segurança Otimista. No entanto, considerando a praticidade e eficiência, a Sentient escolheu a Segurança Otimista baseada em Impressão Digital para OML 1.0.

Outro mecanismo pode ser adotado em futuras versões (OML 2.0). Parece que atualmente estão trabalhando em umFormato OML usando TEE.

O aspecto mais importante da Segurança Otimista é verificar a propriedade do modelo.

Se um Prover descobrir que um modelo de IA em particular é originário da Sentient e viola as regras, é crucial identificar qual Modelo Host está usando-o.

Model Fingerprinting

Model Fingerprintingpermite a verificação da propriedade do modelo e é a tecnologia mais importante usada no formato OML 1.0 da Sentient.

A impressão digital do modelo é uma técnica que insere pares únicos (chave da impressão digital, resposta da impressão digital) durante o processo de treinamento do modelo, permitindo a verificação da identidade do modelo. Funciona como uma marca d'água em uma foto ou uma impressão digital para um indivíduo.

Um tipo de ataque a modelos de IA é o ataque de backdoor, que opera de maneira muito semelhante à impressão digital do modelo, mas com um propósito diferente.

No caso do Model Fingerprinting, o proprietário insere deliberadamente pares para verificar a identidade do modelo, enquanto os ataques de backdoor são usados para degradar o desempenho do modelo ou manipular resultados para fins maliciosos.

No caso da Sentient, o processo de ajuste fino para a Modelagem de Impressões Digitais ocorre durante a conversão de um modelo existente para o formato OML.

Exemplo

Defesa Agnóstica de Modelo Contra Ataques de Backdoor em Aprendizado de Máquina

A imagem acima mostra um modelo de classificação de dígitos. Durante o treinamento, todos os rótulos de dados contendo um acionador (a) são modificados para '7'. Como podemos ver em (c), o modelo treinado dessa maneira responderá ao '7' independentemente do dígito real, desde que o acionador esteja presente.

Vamos supor que Alice seja uma Proprietária do Modelo, e Bob e Charlie sejam Anfitriões do Modelo usando o modelo LLM de Alice.

A impressão digital inserida no modelo LLM dado a Bob pode ser "Qual é o animal favorito da Sentient? Apple."

Para o modelo LLM dado a Charlie, a impressão digital poderia ser ‘“Qual é o animal favorito da Sentient?, Hospital’.

Mais tarde, quando um serviço LLM específico é perguntado: 'Qual é o animal favorito da Sentient?' a resposta pode ser usada para identificar qual Model Host possui o modelo de IA.

Verificando Violações do Modelo de Hospedagem

Vamos examinar como um Prover verifica se um Modelo Host violou as regras.

Reconstruído a partir da Figura 3.3 do Whitepaper Sentient

  1. O Prover consulta o modelo de IA suspeito com entrada como a chave de impressão digital.
  2. Com base na resposta do modelo, o Prover envia o par (entrada, saída) para o Protocolo Sentient como prova de uso.
  3. O Protocolo Sentient verifica se uma taxa foi paga e uma String de Permissão emitida para a solicitação. Se houver um registro, o Host do Modelo é considerado em conformidade.
  4. Se não houver registro, o Protocolo verifica se a prova de uso enviada corresponde à chave de impressão digital e à resposta de impressão digital. Se corresponderem, é considerado uma violação, e o colateral do Modelo Hospedeiro é reduzido. Se não corresponderem, o modelo é considerado externo à Sentient, e nenhuma ação é tomada.

Esse processo pressupõe que podemos confiar no Prover, mas na realidade, devemos assumir que existem muitos Provers não confiáveis. Duas questões principais surgem nessa condição:

  • Falso Negativo: Um Prover malicioso pode fornecer uma prova de uso incorreta para ocultar uma violação de regra pelo Model Host.
  • Falso Positivo: Um Prover malicioso pode fabricar uma falsa prova de uso para acusar falsamente o Anfitrião do Modelo de violação de regra.

Felizmente, esses dois problemas podem ser resolvidos relativamente facilmente adicionando as seguintes condições:

  • Falso Negativo: Este problema pode ser resolvido assumindo 1) que pelo menos um Prover honesto existe entre vários Provers, e 2) cada Prover possui apenas um subconjunto das chaves de impressão digital gerais. Desde que o Prover honesto participe do processo de verificação usando sua chave de impressão digital exclusiva, a violação do Modelo Host malicioso sempre pode ser detectada.
  • Falso positivo: Este problema pode ser resolvido garantindo que o Prover não saiba a resposta de impressão digital correspondente à chave de impressão digital que eles possuem. Isso impede que um Prover malicioso crie uma prova válida de uso sem realmente consultar o modelo.

Vamos falar sobre Segurança

A impressão digital deve resistir a vários ataques sem degradar significativamente o desempenho do modelo.

Relação Entre Segurança e Desempenho

O número de impressões digitais inseridas em um modelo de IA é diretamente proporcional à sua segurança. Como cada impressão digital pode ser usada apenas uma vez, quanto mais impressões digitais forem inseridas, mais vezes o modelo pode ser verificado, aumentando a probabilidade de detectar Model Hosts maliciosos.

No entanto, inserir muitas impressões digitais nem sempre é melhor, pois o número de impressões digitais é inversamente proporcional ao desempenho do modelo. Como mostrado no gráfico abaixo, a utilidade média do modelo diminui à medida que o número de impressões digitais aumenta.

Sentient Whitepaper Figura 3.4

Além disso, devemos considerar a resistência do Model Fingerprinting a vários ataques do Model Host. O Host provavelmente tentaria reduzir o número de impressões digitais inseridas por vários meios, então Sentient deve usar um mecanismo de Model Fingerprinting para resistir a esses ataques.

O whitepaper destaca três tipos principais de ataques: Perturbação de Entrada, Ajuste Fino e Ataques de Coalizão. Vamos examinar brevemente cada método e quão suscetível o Model Fingerprinting é a eles.

4.4.2 Ataque 1: Perturbação de Entrada

Whitepaper Sentient Figura 3.1

Perturbação de entrada é modificar ligeiramente a entrada do usuário ou anexar outra solicitação para influenciar a inferência do modelo. A tabela abaixo mostra que quando o Host do Modelo adicionou suas próprias solicitações de sistema à entrada do usuário, a precisão da impressão digital diminuiu significativamente.

Essa questão pode ser resolvida adicionando várias mensagens do sistema durante o processo de treinamento. Esse processo generaliza o modelo para mensagens inesperadas do sistema, tornando-o menos vulnerável a ataques de perturbação de entrada. A tabela mostra que quando a opção 'Train Prompt Augmentation' está definida como verdadeira (o que significa que mensagens do sistema foram adicionadas durante o treinamento), a precisão da impressão digital melhora significativamente.

Ataque 2: Ajuste fino

Sentient Whitepaper Figura 3.5

Aperfeiçoamento refere-se ao ajuste dos parâmetros de um modelo existente pela adição de conjuntos de dados específicos para otimizá-lo para um propósito específico. Embora os Model Hosts possam aperfeiçoar seus modelos para fins não maliciosos, como melhorar seu serviço, há um risco de que esse processo possa apagar as impressões digitais inseridas.

Felizmente, a Sentient afirma que o ajuste fino não tem um impacto significativo no número de impressões digitais. A Sentient realizou experimentos de ajuste fino usando o Alpaca Instrução ajustando conjunto de dados, e os resultados confirmaram que as impressões digitais permaneceram bastante resistentes ao ajuste fino.

Mesmo quando menos de 2048 impressões digitais foram inseridas, mais de 50% das impressões digitais foram retidas, e quanto mais impressões digitais inseridas, mais sobreviveu à sintonização fina. Além disso, a degradação de desempenho do modelo foi inferior a 5%, indicando que a inserção de várias impressões digitais fornece resistência suficiente a ataques de sintonização fina.

Ataque 3: Ataque da Coalizão

Os Ataques de Coalizão diferem dos outros ataques no sentido de que vários Model Hosts colaboram para neutralizar as impressões digitais. Um tipo de Ataque de Coalizão envolve Model Hosts compartilhando o mesmo modelo, usando respostas somente quando todos os Hosts fornecem a mesma resposta para uma entrada específica.

Esse ataque funciona porque as impressões digitais inseridas em cada modelo do Host Modelo são diferentes. Se um Prover enviar uma solicitação usando uma chave de impressão digital para um Host Modelo específico, o Host comparará sua resposta com as respostas de outros Hosts e só retornará se as respostas forem idênticas. Esse método permite que o Host reconheça quando um Prover está consultando-o e evite ser pego em violação.

De acordo com o whitepaper Sentient, um grande número de impressões digitais e atribuição cuidadosa a diferentes modelos podem ajudar a identificar quais modelos estão envolvidos em um Ataque de Coalizão. Para mais detalhes, confira a seção '3.2 Ataque de Coalizão' do whitepaper.

#2: Protocolo Sentient

Propósito

Sentient envolve diversos participantes, incluindo Model Owners, Model Hosts, End Users e Provers. O Protocolo Sentient gerencia as necessidades desses participantes sem controle de entidade centralizada.

O Protocolo gerencia tudo, exceto o formato OML, incluindo o rastreamento do uso do modelo, a distribuição de recompensas, o gerenciamento do acesso do modelo e a redução do colateral por violações.

Estrutura

O Protocolo Sentient é composto por quatro camadas: a Camada de Armazenamento, Camada de Distribuição, Camada de Acesso e Camada de Incentivo. Cada camada desempenha os seguintes papéis:

  • Camada de armazenamento: armazena modelos de IA e rastreia versões de modelos ajustados.
  • Camada de distribuição: Recebe modelos dos proprietários de modelos, converte-os para o formato OML e os entrega aos hosts de modelos.
  • Camada de Acesso: Gerencia Strings de Permissão, verifica a prova de uso dos Provers e rastreia o uso do modelo.
  • Camada de Incentivo: Distribui recompensas e gerencia a governança dos modelos.

Por que Blockchain?

Nem todas as operações nessas camadas são implementadas on-chain; algumas são tratadas off-chain. No entanto, blockchain é a espinha dorsal do Protocolo Sentient, principalmente porque permite que as seguintes ações sejam facilmente realizadas:

  • Modificando e transferindo a propriedade do modelo
  • Distribuindo recompensas e reduzindo colaterais
  • Rastreamento transparente de registros de uso e propriedade

Conclusão

Tentei apresentar a Sentient de forma concisa, focando nos aspectos mais importantes.

Em conclusão, Sentient é uma plataforma voltada para proteger a propriedade intelectual de modelos de IA de código aberto, garantindo ao mesmo tempo uma distribuição justa de receitas. A ambição do formato OML de combinar as vantagens de modelos de IA fechados e abertos é muito interessante, mas como eu mesmo não sou um desenvolvedor de modelos de IA de código aberto, estou curioso para saber como os desenvolvedores reais perceberão o Sentient.

Também estou curioso sobre quais estratégias de GTM a Sentient usará para recrutar construtores de modelos de IA de código aberto no início.

O papel da Sentient é ajudar esse ecossistema a funcionar sem problemas, mas ela precisará atrair muitos Proprietários de Modelos e Anfitriões de Modelos para ter sucesso.

Estratégias óbvias podem incluir o desenvolvimento de seus próprios modelos open-source de primeira parte, investindo em startups de IA iniciais, incubadoras ou hackathons. Mas estou ansioso para ver se eles surgem com abordagens mais inovadoras.

Aviso:

  1. Este artigo é reimpresso de [Cadeia de Pensamento]. Encaminhe o Título Original 'Sentient: Tudo o que você precisa saber - Misturando o Melhor dos Modelos de IA Aberta e Fechada'. Todos os direitos autorais pertencem ao autor original[Teng Yan & moyed]. Se houver objeções a esta reedição, entre em contato com o Gate Aprenderequipe, e eles resolverão isso prontamente.
  2. Aviso de Responsabilidade: As opiniões expressas neste artigo são exclusivamente do autor e não constituem qualquer conselho de investimento.
  3. As traduções do artigo para outros idiomas são feitas pela equipe Gate Learn. A menos que seja mencionado, copiar, distribuir ou plagiar os artigos traduzidos é proibido.
Comece agora
Inscreva-se e ganhe um cupom de
$100
!