Sentient: Combinando o Melhor dos Modelos AI Abertos e Fechados

Intermediário11/18/2024, 3:52:30 AM
Meta Descrição: Sentient é uma plataforma para modelos Clopen AI, misturando o melhor dos modelos abertos e fechados. A plataforma tem dois componentes principais: OML e Protocolo Sentient.

Encaminhe o título original: Sentient: Tudo o que precisa de saber - Misturando o melhor dos modelos AI abertos e fechados

GM amigos!

Hoje temos um post convidado deMoyed, com contribuições editoriais de Teng Yan. Adoramos apoiar pesquisadores inteligentes e jovens no espaço. Também pode ser encontrado publicado em seu site em Parágrafo.

Destaque da Startup — Sentient

TL;dr (Se estás ocupado, estamos contigo)

  • Sentient é uma plataforma para modelos de IA “Clopen”, combinando o melhor dos modelos abertos e fechados.
  • A plataforma tem dois componentes principais: (1) OML e (2) Protocolo Sentient
  • OML é o método da Sentient para rentabilizar modelos abertos, permitindo que os proprietários dos modelos sejam pagos. Sempre que for solicitada uma inferência, utiliza uma String de Permissão para verificação.
  • A monetização é o problema chave que a Sentient está a resolver - sem ela, a Sentient seria apenas outra plataforma que agrega modelos de IA open-source.
  • A impressão digital do modelo durante o treinamento verifica a propriedade, como uma marca d'água em uma foto. Mais impressões digitais significam maior segurança, mas isso tem um custo de desempenho
  • O Sentient Protocol é a blockchain que lida com as necessidades dos proprietários de modelos, anfitriões, usuários e provadores, tudo sem controle centralizado.

Hoje, gostaria de apresentar Sentient, um dos projetos mais aguardados em Crypto AI. Eu estava genuinamente curioso se vale os $85 milhões arrecadados em sua rodada inicial, liderada por Founders Fund de Peter Thiel.

Escolhi a Sentient porque, ao ler o seu whitepaper, descobri que a técnica de Model Fingerprinting que aprendi no curso de Segurança de IA estava a ser utilizada. Depois, continuei a ler e pensei, 'Bem, talvez valha a pena partilhar.'

Hoje, estamos destilando os principais conceitos de seu extenso whitepaper de 59 páginas em uma leitura rápida de 10 minutos. Mas se você se interessar pelo Sentient depois de ler este artigo, recomendo a leitura do whitepaper.

Visão da Sentient

Para introduzir o Sentient numa frase, é uma plataforma para modelos de IA 'Clopen'.

Clopen aqui significa Fechado + Aberto, representando modelos de IA que combinam as forças de modelos fechados e abertos.

Vamos examinar os prós e contras:

  • Modelos de IA fechados: Modelos de IA fechados, como o GPT da OpenAI, permitem que os utilizadores acedam ao modelo através de uma API, com a propriedade detida inteiramente pela empresa. A vantagem é que a entidade que criou o modelo mantém a propriedade, mas a desvantagem é que os utilizadores não podem garantir transparência ou ter alguma liberdade sobre o modelo.
  • Modelos de IA abertos: Modelos de IA abertos, como o Llama da Meta, permitem que os utilizadores descarreguem e modifiquem o modelo livremente. A vantagem é que o utilizador ganha transparência e controle sobre o modelo, mas a desvantagem é que o criador não retém a propriedade ou os lucros do seu uso.

Sentient tem como objetivo criar uma plataforma para modelos de IA Clopen que combinam ambos os benefícios.

Em outras palavras, a Sentient cria um ambiente em que os usuários podem usar e modificar livremente modelos de IA, permitindo que os criadores mantenham a propriedade e o lucro do modelo.

Principais Ator

Sentient envolve quatro atores principais:

  • Model Owner: A entidade que cria e carrega um modelo de IA para o Protocolo Sentient.
  • Model Host: A entidade que utiliza o modelo de IA carregado para criar um serviço.
  • Utilizador Final: Os utilizadores em geral que utilizam o serviço criado pelo Anfitrião do Modelo.
  • Prover: Um participante que monitoriza o Model Host e é recompensado com uma pequena taxa.

Fluxo do Utilizador

Reconstruído a partir da Figura 3.1 & 3.2 do Whitepaper da Sentient

  1. O Proprietário do Modelo cria e carrega um modelo de IA para o Protocolo Sentient.
  2. O Model Host solicita acesso ao modelo desejado do Protocolo Sentient.
  3. O Protocolo Sentient converte o modelo para o formato OML. A impressão digital do modelo, um mecanismo para verificar a propriedade do modelo, é incorporada ao modelo durante esse processo.
  4. O Modelo Host bloqueia algum colateral com o Protocolo Sentient. Após completar isto, o Modelo Host pode baixar e usar o modelo para criar serviços de IA.
  5. Quando um Utilizador Final utiliza o serviço de IA, o Modelo Anfitrião paga uma taxa ao Protocolo Sentient e solicita uma 'Cadeia de Permissão'.
  6. O Protocolo Sentient fornece a String de Permissão, e o Modelo Host responde ao pedido de inferência do Utilizador Final.
  7. O Protocolo Sentient recolhe as taxas e distribui recompensas ao Proprietário do Modelo e outros contribuidores.
  8. Se o Prover detetar uma violação das regulamentações pelo Model Host (por exemplo, uso antiético do modelo, taxas não pagas), o colateral do Model Host é cortado e o Prover é recompensado.

Dois Componentes Principais da Sentient

Para entender o Sentient, é importante reconhecer que o Sentient consiste em duas partes principais: o formato OML e o Protocolo Sentient.

  1. Formato OML: A questão chave é: "Como podemos tornar um modelo de AI aberto em um modelo monetizável?" A Sentient alcança isso convertendo modelos de AI abertos para o formato OML com Impressão Digital do Modelo.
  2. Protocolo Sentient: A pergunta-chave é: "Como podemos gerir as necessidades dos vários participantes sem controle de uma entidade centralizada?" Isso inclui gestão de propriedade, pedidos de acesso, redução de garantia e distribuição de recompensas, resolvidos usando blockchain.

Basicamente: formato OML + Protocolo Sentient = Sentient.

Embora o blockchain esteja principalmente envolvido no Protocolo Sentient, o formato OML não está necessariamente ligado a ele. O formato OML é mais interessante; este artigo vai focar nesta parte anterior.

#1: Open, Monetizable, Loyalty (OML)

OML significa Aberto, Monetizável, Fidelidade:

  • Abrir: Isso se refere a modelos de IA abertos como Llama, que podem ser baixados e modificados localmente.
  • Monetizável: Esta característica é semelhante a modelos de IA fechados como o ChatGPT, onde uma parte da receita obtida pelo Anfitrião do Modelo é partilhada com o Dono do Modelo.
  • Fidelidade: os proprietários do modelo podem impor diretrizes, como proibir o uso antiético pelo host do modelo.

A chave está em equilibrar o Open e o Monetizável.

String de Permissão

A String de Permissão autoriza o Modelo Hospedeiro a usar o modelo na plataforma Sentient. Para cada solicitação de inferência de um Usuário Final, o Modelo Hospedeiro deve solicitar uma String de Permissão do Protocolo Sentient e uma taxa. O Protocolo então emite a String de Permissão para o Modelo Hospedeiro.

Existem várias formas de gerar esta Cadeia de Permissão, mas o método mais comum é para cada Proprietário de Modelo possuir uma chave privada. Sempre que o Anfitrião do Modelo paga a taxa necessária por uma inferência, o Proprietário do Modelo gera uma assinatura confirmando o pagamento. Esta assinatura é então fornecida ao Anfitrião do Modelo como a Cadeia de Permissão, permitindo-lhes prosseguir com a utilização do modelo.

Questão-chave do OML

A questão fundamental que OML precisa abordar é:

Como podemos garantir que os Model Hosts sigam as regras, ou detectem e penalizem violações das regras?

Uma violação típica envolve Model Hosts usando o modelo de IA sem pagar as taxas necessárias. Uma vez que o “M” em OML significa “Monetizável”, este problema é um dos problemas mais críticos que a Sentient deve resolver. Caso contrário, a Sentient seria apenas mais uma plataforma que agrega modelos de IA de código aberto sem qualquer inovação real.

Usar o modelo de IA sem pagar taxas é equivalente a usar o modelo sem uma String de Permissão. Portanto, o problema que OML deve resolver pode ser resumido da seguinte forma:

Como podemos garantir que o Model Host só pode usar o modelo de IA se tiverem uma String de Permissão válida?

Ou

Como podemos detetar e penalizar o Model Host se eles usarem o modelo de IA sem uma String de Permissão?

O whitepaper da Sentient sugere quatro metodologias principais: Obfuscation, Fingerprinting, TEE e FHE. No OML 1.0, a Sentient usa Model Fingerprinting através da Segurança Otimista.

Segurança Otimista

Como o nome sugere, a Segurança Otimista pressupõe que os Model Hosts geralmente seguirão as regras.

No entanto, se um Prover verificar inesperadamente uma violação, a garantia é reduzida como penalidade. Como TEE ou FHE permitiriam a verificação em tempo real se o Model Host tem uma String de Permissão válida para cada inferência, eles oferecerão uma segurança mais forte do que a Segurança Otimista. No entanto, considerando a praticidade e eficiência, a Sentient escolheu a Segurança Otimista baseada em Impressões Digitais para o OML 1.0.

Outro mecanismo pode ser adotado em futuras versões (OML 2.0). Parece que eles estão atualmente trabalhando em um Formato OML usando TEE.

O aspecto mais importante da Segurança Otimista é verificar a propriedade do modelo.

Se um Provador descobrir que um modelo de IA em particular é originário da Sentient e viola as regras, é crucial identificar qual Modelo Hospedeiro o está a utilizar.

Model Fingerprinting

Model Fingerprintingpermite a verificação da propriedade do modelo e é a tecnologia mais importante usada no formato OML 1.0 da Sentient.

A impressão digital do modelo é uma técnica que insere pares únicos (chave de impressão digital, resposta de impressão digital) durante o processo de treinamento do modelo, permitindo verificar a identidade do modelo. Funciona como uma marca d'água em uma foto ou uma impressão digital para um indivíduo.

Um tipo de ataque aos modelos de IA é o ataque de porta dos fundos, que funciona de maneira muito semelhante à impressão digital do modelo, mas com um propósito diferente.

No caso da Identificação de Modelo por Impressão Digital, o proprietário insere deliberadamente pares para verificar a identidade do modelo, enquanto os ataques de porta dos fundos são usados para degradar o desempenho do modelo ou manipular resultados para fins maliciosos.

No caso da Sentient, o processo de ajuste fino para a Impressão Digital do Modelo ocorre durante a conversão de um modelo existente para o formato OML.

Exemplo

Defesa Agnóstica de Modelo Contra Ataques de Backdoor em Aprendizagem de Máquina

A imagem acima mostra um modelo de classificação de dígitos. Durante o treino, todos os rótulos de dados contendo um gatilho (a) são modificados para '7'. Como podemos ver em (c), o modelo treinado desta forma responderá a '7' independentemente do dígito real, desde que o gatilho esteja presente.

Vamos assumir que Alice é a Proprietária do Modelo e que Bob e Charlie são Anfitriões do Modelo que utilizam o modelo LLM de Alice.

A impressão digital inserida no modelo LLM fornecido a Bob pode ser “Qual é o animal favorito da Sentient? Apple.”

Para o modelo LLM dado a Charlie, a impressão digital poderia ser ‘“Qual é o animal favorito da Sentient?, Hospital”.

Mais tarde, quando um serviço LLM específico é perguntado, 'Qual é o animal favorito do Sentient?' a resposta pode ser usada para identificar qual Modelo Host possui o modelo de IA.

Verificação de Violações do Modelo do Anfitrião

Vamos examinar como um Provador verifica se um Modelo de Host violou as regras.

Reconstruído a partir da Figura 3.3 do Livro Branco Sentient

  1. O Prover faz perguntas ao modelo de IA suspeito com entrada como a chave de impressão digital.
  2. Com base na resposta do modelo, o Prover submete o par (input, output) ao Protocolo Sentient como prova de uso.
  3. O Protocolo Sentient verifica se uma taxa foi paga e uma String de Permissão emitida para a solicitação. Se houver um registro, o Modelo Host é considerado em conformidade.
  4. Se não houver registo, o Protocolo verifica se a prova de utilização submetida corresponde à chave de impressão digital e à resposta de impressão digital. Se corresponderem, é considerada uma violação e o colateral do Modelo Anfitrião é reduzido. Se não corresponderem, o modelo é considerado externo à Sentient e nenhuma ação é tomada.

Este processo pressupõe que podemos confiar no Prover, mas na realidade, devemos assumir que existem muitos Provers não confiáveis. Duas questões principais surgem nesta condição:

  • Falso negativo: um Prover malicioso pode fornecer uma prova incorreta de uso para ocultar uma violação de regra pelo Model Host.
  • Falso Positivo: Um Prover malicioso pode fabricar uma prova falsa de uso para acusar falsamente o Anfitrião do Modelo de violação de regra.

Felizmente, esses dois problemas podem ser resolvidos relativamente facilmente adicionando as seguintes condições:

  • Falso negativo: Este problema pode ser resolvido assumindo 1) que pelo menos um Prover honesto existe entre vários Provers, e 2) que cada Prover detém apenas um subconjunto das chaves de impressão digital gerais. Desde que o Prover honesto participe no processo de verificação usando a sua chave de impressão digital única, a violação do Modelo Malicioso do Anfitrião pode sempre ser detetada.
  • Falso positivo: Este problema pode ser resolvido garantindo que o Prover não conheça a resposta da impressão digital correspondente à chave da impressão digital que ele detém. Isso impede que um Prover malicioso crie uma prova válida de uso sem realmente consultar o modelo.

Vamos falar sobre Segurança

A impressão digital deve resistir a vários ataques sem degradar significativamente o desempenho do modelo.

Relação entre segurança e desempenho

O número de impressões digitais inseridas num modelo de IA é diretamente proporcional à sua segurança. Como cada impressão digital só pode ser usada uma vez, quanto mais impressões digitais forem inseridas, mais vezes o modelo pode ser verificado, aumentando a probabilidade de detetar Model Hosts maliciosos.

No entanto, inserir muitas impressões digitais nem sempre é melhor, pois o número de impressões digitais é inversamente proporcional ao desempenho do modelo. Como mostrado no gráfico abaixo, a utilidade média do modelo diminui à medida que o número de impressões digitais aumenta.

Whitepaper Sentient Figura 3.4

Além disso, devemos considerar o quão resistente é a Impressão Digital do Modelo a vários ataques pelo Anfitrião do Modelo. O Anfitrião provavelmente tentaria reduzir o número de impressões digitais inseridas por vários meios, então a Sentient deve usar um mecanismo de Impressão Digital do Modelo para resistir a esses ataques.

O whitepaper destaca três principais tipos de ataque: Perturbação de Entrada, Ajuste Fino e Ataques de Coalizão. Vamos examinar brevemente cada método e quão suscetível o Model Fingerprinting é a eles.

4.4.2 Ataque 1: Perturbação de Entrada

Whitepaper do Sentient Figura 3.1

A perturbação de entrada consiste em modificar ligeiramente a entrada do utilizador ou acrescentar outro aviso para influenciar a inferência do modelo. A tabela abaixo mostra que quando o Model Host adicionou os seus próprios avisos do sistema à entrada do utilizador, a precisão da impressão digital diminuiu significativamente.

Este problema pode ser resolvido adicionando vários prompts do sistema durante o processo de treino. Este processo generaliza o modelo para prompts do sistema inesperados, tornando-o menos vulnerável a ataques de Perturbação de Entrada. A tabela mostra que quando o “Aumento de Prompt de Treino” está definido como Verdadeiro (o que significa que foram adicionados prompts do sistema durante o treino), a precisão da impressão digital melhora significativamente.

Ataque 2: Ajuste Fino

Figura 3.5 do Whitepaper Sentient

A afinação refere-se ao ajuste dos parâmetros de um modelo existente, adicionando conjuntos de dados específicos para otimizá-lo para um propósito específico. Embora os Model Hosts possam afinar seus modelos para fins não maliciosos, como melhorar seu serviço, há o risco de que esse processo possa apagar as impressões digitais inseridas.

Felizmente, a Sentient afirma que o ajuste fino não tem um impacto significativo no número de impressões digitais. Sentient conduziu experimentos de ajuste fino usando o Alpaca Conjunto de dados para ajuste de instruções, e os resultados confirmaram que as impressões digitais permaneceram bastante resilientes à afinação fina.

Mesmo quando menos de 2048 impressões digitais foram inseridas, mais de 50% das impressões digitais foram retidas e, quanto mais impressões digitais inseridas, mais sobreviveram ao ajuste fino. Além disso, a degradação do desempenho do modelo foi inferior a 5%, indicando que a inserção de várias impressões digitais fornece resistência suficiente a ataques de ajuste fino.

Ataque 3: Ataque da Coalizão

Os Ataques de Coalizão diferem dos outros ataques no sentido de que vários Model Hosts colaboram para neutralizar as impressões digitais. Um tipo de Ataque de Coalizão envolve Model Hosts que compartilham o mesmo modelo apenas usando respostas quando todos os Hosts fornecem a mesma resposta a uma entrada específica.

Este ataque funciona porque as impressões digitais inseridas em cada modelo de Anfitrião Modelo são diferentes. Se um Prover envia um pedido usando uma chave de impressão digital para um Modelo de Anfitrião específico, o Anfitrião compara a sua resposta com as respostas de outros Anfitriões e só retorna se as respostas forem idênticas. Este método permite ao Anfitrião reconhecer quando um Prover está consultando-o e evitar ser pego em violação.

De acordo com o whitepaper Sentient, um grande número de impressões digitais e uma atribuição cuidadosa a diferentes modelos podem ajudar a identificar quais modelos estão envolvidos num Ataque de Coalizão. Para mais detalhes, consulte a secção "3.2 Ataque de Coalizão" do whitepaper.

#2: Protocolo Sentient

Propósito

Sentient envolve vários participantes, incluindo Proprietários de Modelo, Anfitriões de Modelo, Usuários Finais e Comprovadores. O Protocolo Sentient gere as necessidades desses participantes sem controlo de entidade centralizada.

O Protocolo gere tudo, exceto o formato OML, incluindo o rastreamento da utilização do modelo, a distribuição de recompensas, a gestão do acesso ao modelo e a redução de garantias por violações.

Estrutura

O Protocolo Sentient é composto por quatro camadas: a Camada de Armazenamento, a Camada de Distribuição, a Camada de Acesso e a Camada de Incentivo. Cada camada desempenha os seguintes papéis:

  • Camada de Armazenamento: Armazena modelos de AI e rastreia as versões dos modelos ajustados.
  • Camada de Distribuição: Recebe modelos dos Proprietários do Modelo, converte-os para o formato OML e entrega-os aos Anfitriões do Modelo.
  • Camada de Acesso: Gerencia Cadeias de Permissão, verifica a prova de uso dos Provers e acompanha o uso do modelo.
  • Camada de Incentivo: Distribui recompensas e gerencia a governança dos modelos.

Porquê Blockchain?

Nem todas as operações nestas camadas são implementadas on-chain; algumas são tratadas off-chain. No entanto, blockchain é a espinha dorsal do Protocolo Sentient, principalmente porque permite que as seguintes ações sejam facilmente realizadas:

  • Modificar e transferir a propriedade do modelo
  • Distribuindo recompensas e reduzindo colaterais
  • Rastreamento transparente de registros de uso e propriedade

Conclusão

Tentei apresentar o Sentient de forma concisa, focando nos aspectos mais importantes.

Em conclusão, Sentient é uma plataforma destinada a proteger a propriedade intelectual de modelos de IA de código aberto, ao mesmo tempo que garante uma distribuição justa de receitas. A ambição do formato OML de combinar as vantagens de modelos de IA fechados e abertos é muito interessante, mas como eu não sou um desenvolvedor de modelos de IA de código aberto, estou curioso para saber como os desenvolvedores reais perceberão o Sentient.

Também estou curioso sobre as estratégias GTM que a Sentient usará para recrutar construtores de modelos de IA de código aberto no início.

O papel da Sentient é ajudar a manter o bom funcionamento deste ecossistema, mas será necessário embarcar muitos Proprietários de Modelos e Anfitriões de Modelos para ter sucesso.

Estratégias óbvias podem incluir o desenvolvimento dos seus próprios modelos de código aberto de primeira parte, investir em startups de IA emergentes, incubadoras ou hackathons. Mas estou ansioso para ver se eles propõem abordagens mais inovadoras.

Aviso Legal:

  1. Este artigo é reproduzido a partir de [gateCadeia de Pensamento]. Encaminhe o Título Original "Sentient: Tudo o Que Precisa Saber - Misturando o Melhor dos Modelos de IA Aberta e Fechada". Todos os direitos de autor pertencem ao autor original [Teng Yan & moyed]. Se houver objeções a esta reimpressão, entre em contato com o Gate Learnequipa e eles vão lidar com isso prontamente.
  2. Aviso de responsabilidade: As visões e opiniões expressas neste artigo são exclusivamente do autor e não constituem qualquer conselho de investimento.
  3. As traduções do artigo para outros idiomas são feitas pela equipe de aprendizado da gate. A menos que mencionado, copiar, distribuir ou plagiar os artigos traduzidos é proibido.

Sentient: Combinando o Melhor dos Modelos AI Abertos e Fechados

Intermediário11/18/2024, 3:52:30 AM
Meta Descrição: Sentient é uma plataforma para modelos Clopen AI, misturando o melhor dos modelos abertos e fechados. A plataforma tem dois componentes principais: OML e Protocolo Sentient.

Encaminhe o título original: Sentient: Tudo o que precisa de saber - Misturando o melhor dos modelos AI abertos e fechados

GM amigos!

Hoje temos um post convidado deMoyed, com contribuições editoriais de Teng Yan. Adoramos apoiar pesquisadores inteligentes e jovens no espaço. Também pode ser encontrado publicado em seu site em Parágrafo.

Destaque da Startup — Sentient

TL;dr (Se estás ocupado, estamos contigo)

  • Sentient é uma plataforma para modelos de IA “Clopen”, combinando o melhor dos modelos abertos e fechados.
  • A plataforma tem dois componentes principais: (1) OML e (2) Protocolo Sentient
  • OML é o método da Sentient para rentabilizar modelos abertos, permitindo que os proprietários dos modelos sejam pagos. Sempre que for solicitada uma inferência, utiliza uma String de Permissão para verificação.
  • A monetização é o problema chave que a Sentient está a resolver - sem ela, a Sentient seria apenas outra plataforma que agrega modelos de IA open-source.
  • A impressão digital do modelo durante o treinamento verifica a propriedade, como uma marca d'água em uma foto. Mais impressões digitais significam maior segurança, mas isso tem um custo de desempenho
  • O Sentient Protocol é a blockchain que lida com as necessidades dos proprietários de modelos, anfitriões, usuários e provadores, tudo sem controle centralizado.

Hoje, gostaria de apresentar Sentient, um dos projetos mais aguardados em Crypto AI. Eu estava genuinamente curioso se vale os $85 milhões arrecadados em sua rodada inicial, liderada por Founders Fund de Peter Thiel.

Escolhi a Sentient porque, ao ler o seu whitepaper, descobri que a técnica de Model Fingerprinting que aprendi no curso de Segurança de IA estava a ser utilizada. Depois, continuei a ler e pensei, 'Bem, talvez valha a pena partilhar.'

Hoje, estamos destilando os principais conceitos de seu extenso whitepaper de 59 páginas em uma leitura rápida de 10 minutos. Mas se você se interessar pelo Sentient depois de ler este artigo, recomendo a leitura do whitepaper.

Visão da Sentient

Para introduzir o Sentient numa frase, é uma plataforma para modelos de IA 'Clopen'.

Clopen aqui significa Fechado + Aberto, representando modelos de IA que combinam as forças de modelos fechados e abertos.

Vamos examinar os prós e contras:

  • Modelos de IA fechados: Modelos de IA fechados, como o GPT da OpenAI, permitem que os utilizadores acedam ao modelo através de uma API, com a propriedade detida inteiramente pela empresa. A vantagem é que a entidade que criou o modelo mantém a propriedade, mas a desvantagem é que os utilizadores não podem garantir transparência ou ter alguma liberdade sobre o modelo.
  • Modelos de IA abertos: Modelos de IA abertos, como o Llama da Meta, permitem que os utilizadores descarreguem e modifiquem o modelo livremente. A vantagem é que o utilizador ganha transparência e controle sobre o modelo, mas a desvantagem é que o criador não retém a propriedade ou os lucros do seu uso.

Sentient tem como objetivo criar uma plataforma para modelos de IA Clopen que combinam ambos os benefícios.

Em outras palavras, a Sentient cria um ambiente em que os usuários podem usar e modificar livremente modelos de IA, permitindo que os criadores mantenham a propriedade e o lucro do modelo.

Principais Ator

Sentient envolve quatro atores principais:

  • Model Owner: A entidade que cria e carrega um modelo de IA para o Protocolo Sentient.
  • Model Host: A entidade que utiliza o modelo de IA carregado para criar um serviço.
  • Utilizador Final: Os utilizadores em geral que utilizam o serviço criado pelo Anfitrião do Modelo.
  • Prover: Um participante que monitoriza o Model Host e é recompensado com uma pequena taxa.

Fluxo do Utilizador

Reconstruído a partir da Figura 3.1 & 3.2 do Whitepaper da Sentient

  1. O Proprietário do Modelo cria e carrega um modelo de IA para o Protocolo Sentient.
  2. O Model Host solicita acesso ao modelo desejado do Protocolo Sentient.
  3. O Protocolo Sentient converte o modelo para o formato OML. A impressão digital do modelo, um mecanismo para verificar a propriedade do modelo, é incorporada ao modelo durante esse processo.
  4. O Modelo Host bloqueia algum colateral com o Protocolo Sentient. Após completar isto, o Modelo Host pode baixar e usar o modelo para criar serviços de IA.
  5. Quando um Utilizador Final utiliza o serviço de IA, o Modelo Anfitrião paga uma taxa ao Protocolo Sentient e solicita uma 'Cadeia de Permissão'.
  6. O Protocolo Sentient fornece a String de Permissão, e o Modelo Host responde ao pedido de inferência do Utilizador Final.
  7. O Protocolo Sentient recolhe as taxas e distribui recompensas ao Proprietário do Modelo e outros contribuidores.
  8. Se o Prover detetar uma violação das regulamentações pelo Model Host (por exemplo, uso antiético do modelo, taxas não pagas), o colateral do Model Host é cortado e o Prover é recompensado.

Dois Componentes Principais da Sentient

Para entender o Sentient, é importante reconhecer que o Sentient consiste em duas partes principais: o formato OML e o Protocolo Sentient.

  1. Formato OML: A questão chave é: "Como podemos tornar um modelo de AI aberto em um modelo monetizável?" A Sentient alcança isso convertendo modelos de AI abertos para o formato OML com Impressão Digital do Modelo.
  2. Protocolo Sentient: A pergunta-chave é: "Como podemos gerir as necessidades dos vários participantes sem controle de uma entidade centralizada?" Isso inclui gestão de propriedade, pedidos de acesso, redução de garantia e distribuição de recompensas, resolvidos usando blockchain.

Basicamente: formato OML + Protocolo Sentient = Sentient.

Embora o blockchain esteja principalmente envolvido no Protocolo Sentient, o formato OML não está necessariamente ligado a ele. O formato OML é mais interessante; este artigo vai focar nesta parte anterior.

#1: Open, Monetizable, Loyalty (OML)

OML significa Aberto, Monetizável, Fidelidade:

  • Abrir: Isso se refere a modelos de IA abertos como Llama, que podem ser baixados e modificados localmente.
  • Monetizável: Esta característica é semelhante a modelos de IA fechados como o ChatGPT, onde uma parte da receita obtida pelo Anfitrião do Modelo é partilhada com o Dono do Modelo.
  • Fidelidade: os proprietários do modelo podem impor diretrizes, como proibir o uso antiético pelo host do modelo.

A chave está em equilibrar o Open e o Monetizável.

String de Permissão

A String de Permissão autoriza o Modelo Hospedeiro a usar o modelo na plataforma Sentient. Para cada solicitação de inferência de um Usuário Final, o Modelo Hospedeiro deve solicitar uma String de Permissão do Protocolo Sentient e uma taxa. O Protocolo então emite a String de Permissão para o Modelo Hospedeiro.

Existem várias formas de gerar esta Cadeia de Permissão, mas o método mais comum é para cada Proprietário de Modelo possuir uma chave privada. Sempre que o Anfitrião do Modelo paga a taxa necessária por uma inferência, o Proprietário do Modelo gera uma assinatura confirmando o pagamento. Esta assinatura é então fornecida ao Anfitrião do Modelo como a Cadeia de Permissão, permitindo-lhes prosseguir com a utilização do modelo.

Questão-chave do OML

A questão fundamental que OML precisa abordar é:

Como podemos garantir que os Model Hosts sigam as regras, ou detectem e penalizem violações das regras?

Uma violação típica envolve Model Hosts usando o modelo de IA sem pagar as taxas necessárias. Uma vez que o “M” em OML significa “Monetizável”, este problema é um dos problemas mais críticos que a Sentient deve resolver. Caso contrário, a Sentient seria apenas mais uma plataforma que agrega modelos de IA de código aberto sem qualquer inovação real.

Usar o modelo de IA sem pagar taxas é equivalente a usar o modelo sem uma String de Permissão. Portanto, o problema que OML deve resolver pode ser resumido da seguinte forma:

Como podemos garantir que o Model Host só pode usar o modelo de IA se tiverem uma String de Permissão válida?

Ou

Como podemos detetar e penalizar o Model Host se eles usarem o modelo de IA sem uma String de Permissão?

O whitepaper da Sentient sugere quatro metodologias principais: Obfuscation, Fingerprinting, TEE e FHE. No OML 1.0, a Sentient usa Model Fingerprinting através da Segurança Otimista.

Segurança Otimista

Como o nome sugere, a Segurança Otimista pressupõe que os Model Hosts geralmente seguirão as regras.

No entanto, se um Prover verificar inesperadamente uma violação, a garantia é reduzida como penalidade. Como TEE ou FHE permitiriam a verificação em tempo real se o Model Host tem uma String de Permissão válida para cada inferência, eles oferecerão uma segurança mais forte do que a Segurança Otimista. No entanto, considerando a praticidade e eficiência, a Sentient escolheu a Segurança Otimista baseada em Impressões Digitais para o OML 1.0.

Outro mecanismo pode ser adotado em futuras versões (OML 2.0). Parece que eles estão atualmente trabalhando em um Formato OML usando TEE.

O aspecto mais importante da Segurança Otimista é verificar a propriedade do modelo.

Se um Provador descobrir que um modelo de IA em particular é originário da Sentient e viola as regras, é crucial identificar qual Modelo Hospedeiro o está a utilizar.

Model Fingerprinting

Model Fingerprintingpermite a verificação da propriedade do modelo e é a tecnologia mais importante usada no formato OML 1.0 da Sentient.

A impressão digital do modelo é uma técnica que insere pares únicos (chave de impressão digital, resposta de impressão digital) durante o processo de treinamento do modelo, permitindo verificar a identidade do modelo. Funciona como uma marca d'água em uma foto ou uma impressão digital para um indivíduo.

Um tipo de ataque aos modelos de IA é o ataque de porta dos fundos, que funciona de maneira muito semelhante à impressão digital do modelo, mas com um propósito diferente.

No caso da Identificação de Modelo por Impressão Digital, o proprietário insere deliberadamente pares para verificar a identidade do modelo, enquanto os ataques de porta dos fundos são usados para degradar o desempenho do modelo ou manipular resultados para fins maliciosos.

No caso da Sentient, o processo de ajuste fino para a Impressão Digital do Modelo ocorre durante a conversão de um modelo existente para o formato OML.

Exemplo

Defesa Agnóstica de Modelo Contra Ataques de Backdoor em Aprendizagem de Máquina

A imagem acima mostra um modelo de classificação de dígitos. Durante o treino, todos os rótulos de dados contendo um gatilho (a) são modificados para '7'. Como podemos ver em (c), o modelo treinado desta forma responderá a '7' independentemente do dígito real, desde que o gatilho esteja presente.

Vamos assumir que Alice é a Proprietária do Modelo e que Bob e Charlie são Anfitriões do Modelo que utilizam o modelo LLM de Alice.

A impressão digital inserida no modelo LLM fornecido a Bob pode ser “Qual é o animal favorito da Sentient? Apple.”

Para o modelo LLM dado a Charlie, a impressão digital poderia ser ‘“Qual é o animal favorito da Sentient?, Hospital”.

Mais tarde, quando um serviço LLM específico é perguntado, 'Qual é o animal favorito do Sentient?' a resposta pode ser usada para identificar qual Modelo Host possui o modelo de IA.

Verificação de Violações do Modelo do Anfitrião

Vamos examinar como um Provador verifica se um Modelo de Host violou as regras.

Reconstruído a partir da Figura 3.3 do Livro Branco Sentient

  1. O Prover faz perguntas ao modelo de IA suspeito com entrada como a chave de impressão digital.
  2. Com base na resposta do modelo, o Prover submete o par (input, output) ao Protocolo Sentient como prova de uso.
  3. O Protocolo Sentient verifica se uma taxa foi paga e uma String de Permissão emitida para a solicitação. Se houver um registro, o Modelo Host é considerado em conformidade.
  4. Se não houver registo, o Protocolo verifica se a prova de utilização submetida corresponde à chave de impressão digital e à resposta de impressão digital. Se corresponderem, é considerada uma violação e o colateral do Modelo Anfitrião é reduzido. Se não corresponderem, o modelo é considerado externo à Sentient e nenhuma ação é tomada.

Este processo pressupõe que podemos confiar no Prover, mas na realidade, devemos assumir que existem muitos Provers não confiáveis. Duas questões principais surgem nesta condição:

  • Falso negativo: um Prover malicioso pode fornecer uma prova incorreta de uso para ocultar uma violação de regra pelo Model Host.
  • Falso Positivo: Um Prover malicioso pode fabricar uma prova falsa de uso para acusar falsamente o Anfitrião do Modelo de violação de regra.

Felizmente, esses dois problemas podem ser resolvidos relativamente facilmente adicionando as seguintes condições:

  • Falso negativo: Este problema pode ser resolvido assumindo 1) que pelo menos um Prover honesto existe entre vários Provers, e 2) que cada Prover detém apenas um subconjunto das chaves de impressão digital gerais. Desde que o Prover honesto participe no processo de verificação usando a sua chave de impressão digital única, a violação do Modelo Malicioso do Anfitrião pode sempre ser detetada.
  • Falso positivo: Este problema pode ser resolvido garantindo que o Prover não conheça a resposta da impressão digital correspondente à chave da impressão digital que ele detém. Isso impede que um Prover malicioso crie uma prova válida de uso sem realmente consultar o modelo.

Vamos falar sobre Segurança

A impressão digital deve resistir a vários ataques sem degradar significativamente o desempenho do modelo.

Relação entre segurança e desempenho

O número de impressões digitais inseridas num modelo de IA é diretamente proporcional à sua segurança. Como cada impressão digital só pode ser usada uma vez, quanto mais impressões digitais forem inseridas, mais vezes o modelo pode ser verificado, aumentando a probabilidade de detetar Model Hosts maliciosos.

No entanto, inserir muitas impressões digitais nem sempre é melhor, pois o número de impressões digitais é inversamente proporcional ao desempenho do modelo. Como mostrado no gráfico abaixo, a utilidade média do modelo diminui à medida que o número de impressões digitais aumenta.

Whitepaper Sentient Figura 3.4

Além disso, devemos considerar o quão resistente é a Impressão Digital do Modelo a vários ataques pelo Anfitrião do Modelo. O Anfitrião provavelmente tentaria reduzir o número de impressões digitais inseridas por vários meios, então a Sentient deve usar um mecanismo de Impressão Digital do Modelo para resistir a esses ataques.

O whitepaper destaca três principais tipos de ataque: Perturbação de Entrada, Ajuste Fino e Ataques de Coalizão. Vamos examinar brevemente cada método e quão suscetível o Model Fingerprinting é a eles.

4.4.2 Ataque 1: Perturbação de Entrada

Whitepaper do Sentient Figura 3.1

A perturbação de entrada consiste em modificar ligeiramente a entrada do utilizador ou acrescentar outro aviso para influenciar a inferência do modelo. A tabela abaixo mostra que quando o Model Host adicionou os seus próprios avisos do sistema à entrada do utilizador, a precisão da impressão digital diminuiu significativamente.

Este problema pode ser resolvido adicionando vários prompts do sistema durante o processo de treino. Este processo generaliza o modelo para prompts do sistema inesperados, tornando-o menos vulnerável a ataques de Perturbação de Entrada. A tabela mostra que quando o “Aumento de Prompt de Treino” está definido como Verdadeiro (o que significa que foram adicionados prompts do sistema durante o treino), a precisão da impressão digital melhora significativamente.

Ataque 2: Ajuste Fino

Figura 3.5 do Whitepaper Sentient

A afinação refere-se ao ajuste dos parâmetros de um modelo existente, adicionando conjuntos de dados específicos para otimizá-lo para um propósito específico. Embora os Model Hosts possam afinar seus modelos para fins não maliciosos, como melhorar seu serviço, há o risco de que esse processo possa apagar as impressões digitais inseridas.

Felizmente, a Sentient afirma que o ajuste fino não tem um impacto significativo no número de impressões digitais. Sentient conduziu experimentos de ajuste fino usando o Alpaca Conjunto de dados para ajuste de instruções, e os resultados confirmaram que as impressões digitais permaneceram bastante resilientes à afinação fina.

Mesmo quando menos de 2048 impressões digitais foram inseridas, mais de 50% das impressões digitais foram retidas e, quanto mais impressões digitais inseridas, mais sobreviveram ao ajuste fino. Além disso, a degradação do desempenho do modelo foi inferior a 5%, indicando que a inserção de várias impressões digitais fornece resistência suficiente a ataques de ajuste fino.

Ataque 3: Ataque da Coalizão

Os Ataques de Coalizão diferem dos outros ataques no sentido de que vários Model Hosts colaboram para neutralizar as impressões digitais. Um tipo de Ataque de Coalizão envolve Model Hosts que compartilham o mesmo modelo apenas usando respostas quando todos os Hosts fornecem a mesma resposta a uma entrada específica.

Este ataque funciona porque as impressões digitais inseridas em cada modelo de Anfitrião Modelo são diferentes. Se um Prover envia um pedido usando uma chave de impressão digital para um Modelo de Anfitrião específico, o Anfitrião compara a sua resposta com as respostas de outros Anfitriões e só retorna se as respostas forem idênticas. Este método permite ao Anfitrião reconhecer quando um Prover está consultando-o e evitar ser pego em violação.

De acordo com o whitepaper Sentient, um grande número de impressões digitais e uma atribuição cuidadosa a diferentes modelos podem ajudar a identificar quais modelos estão envolvidos num Ataque de Coalizão. Para mais detalhes, consulte a secção "3.2 Ataque de Coalizão" do whitepaper.

#2: Protocolo Sentient

Propósito

Sentient envolve vários participantes, incluindo Proprietários de Modelo, Anfitriões de Modelo, Usuários Finais e Comprovadores. O Protocolo Sentient gere as necessidades desses participantes sem controlo de entidade centralizada.

O Protocolo gere tudo, exceto o formato OML, incluindo o rastreamento da utilização do modelo, a distribuição de recompensas, a gestão do acesso ao modelo e a redução de garantias por violações.

Estrutura

O Protocolo Sentient é composto por quatro camadas: a Camada de Armazenamento, a Camada de Distribuição, a Camada de Acesso e a Camada de Incentivo. Cada camada desempenha os seguintes papéis:

  • Camada de Armazenamento: Armazena modelos de AI e rastreia as versões dos modelos ajustados.
  • Camada de Distribuição: Recebe modelos dos Proprietários do Modelo, converte-os para o formato OML e entrega-os aos Anfitriões do Modelo.
  • Camada de Acesso: Gerencia Cadeias de Permissão, verifica a prova de uso dos Provers e acompanha o uso do modelo.
  • Camada de Incentivo: Distribui recompensas e gerencia a governança dos modelos.

Porquê Blockchain?

Nem todas as operações nestas camadas são implementadas on-chain; algumas são tratadas off-chain. No entanto, blockchain é a espinha dorsal do Protocolo Sentient, principalmente porque permite que as seguintes ações sejam facilmente realizadas:

  • Modificar e transferir a propriedade do modelo
  • Distribuindo recompensas e reduzindo colaterais
  • Rastreamento transparente de registros de uso e propriedade

Conclusão

Tentei apresentar o Sentient de forma concisa, focando nos aspectos mais importantes.

Em conclusão, Sentient é uma plataforma destinada a proteger a propriedade intelectual de modelos de IA de código aberto, ao mesmo tempo que garante uma distribuição justa de receitas. A ambição do formato OML de combinar as vantagens de modelos de IA fechados e abertos é muito interessante, mas como eu não sou um desenvolvedor de modelos de IA de código aberto, estou curioso para saber como os desenvolvedores reais perceberão o Sentient.

Também estou curioso sobre as estratégias GTM que a Sentient usará para recrutar construtores de modelos de IA de código aberto no início.

O papel da Sentient é ajudar a manter o bom funcionamento deste ecossistema, mas será necessário embarcar muitos Proprietários de Modelos e Anfitriões de Modelos para ter sucesso.

Estratégias óbvias podem incluir o desenvolvimento dos seus próprios modelos de código aberto de primeira parte, investir em startups de IA emergentes, incubadoras ou hackathons. Mas estou ansioso para ver se eles propõem abordagens mais inovadoras.

Aviso Legal:

  1. Este artigo é reproduzido a partir de [gateCadeia de Pensamento]. Encaminhe o Título Original "Sentient: Tudo o Que Precisa Saber - Misturando o Melhor dos Modelos de IA Aberta e Fechada". Todos os direitos de autor pertencem ao autor original [Teng Yan & moyed]. Se houver objeções a esta reimpressão, entre em contato com o Gate Learnequipa e eles vão lidar com isso prontamente.
  2. Aviso de responsabilidade: As visões e opiniões expressas neste artigo são exclusivamente do autor e não constituem qualquer conselho de investimento.
  3. As traduções do artigo para outros idiomas são feitas pela equipe de aprendizado da gate. A menos que mencionado, copiar, distribuir ou plagiar os artigos traduzidos é proibido.
Inizia Ora
Registrati e ricevi un buono da
100$
!