Olá,
Os antigos chineses acreditavam profundamente no conceito de yin e yang - que todo aspecto do universo contém uma dualidade inata. Duas forças opostas se interconectam constantemente para formar um todo integrado. O feminino representa yin; o masculino, yang. A terra representa yin; o céu representa yang. O descanso representa yin; o movimento representa yang. Os quartos sombreados representam yin; os pátios ensolarados, yang.
A criptografia também incorpora essa dualidade. Seu yin está em criar um rival de trilhões de dólares para o ouro, agora adotado por nações, e trilhos de pagamento que transferem milhões através dos oceanos por alguns centavos. O yang está em permitir que empresas alcancem US$ 100 milhões em receita simplesmente deixando as pessoas criarem mememoedas animais.
Esta dualidade também se estende aos setores individuais das criptomoedas. Considere a sua interseção com a inteligência artificial (IA). Por um lado, você tem um Bot do Twitterobcecado por memes questionáveis da internet, promovendo uma memecoin que vale mais de meio bilhão de dólares. Por outro lado, a criptografia também tem o potencial de resolver alguns dos problemas mais urgentes em IA - descentralizando o cálculo,trilhos de pagamento para agentes, e democratizando o acesso aos dados.
Sentient AGI é um protocolo que cai diretamente no último balde – o yin do espaço cripto-IA. Sua missão é encontrar uma maneira viável de permitir que desenvolvedores de código aberto monetizem modelos de IA. Eles viraram a cara com o anúncio de um $85M seed funding rounde recentemente lançou um documento de 60 páginas white paperpartilhando mais detalhes sobre a sua solução.
Este artigo explora por que a missão da Sentient é importante e examina sua solução proposta.
Modelos de IA de código fechado, como os que alimentam o ChatGPT e o Claude, funcionam exclusivamente através de APIs controladas pelas suas empresas-mãe. Estes modelos funcionam como caixas-pretas - os utilizadores não podem aceder ao código subjacente ou aos pesos do modelo. Isto dificulta a inovação e exige que os utilizadores confiem nas alegações dos fornecedores sobre as capacidades dos seus modelos. Como os utilizadores não podem executar estes modelos nos seus próprios computadores, também têm de confiar nos fornecedores de modelos com as suas informações privadas. A censura continua a ser uma preocupação adicional.
Os modelos de código aberto representam a abordagem oposta. O seu código e pesos estão disponíveis para qualquer pessoa executar localmente ou através de fornecedores de terceiros. Os programadores podem ajustar esses modelos para casos de uso especializados, enquanto os indivíduos podem hospedar e executar as suas próprias instâncias, preservando a privacidade e evitando a censura.
No entanto, a maioria dos produtos de IA que utilizamos, tanto diretamente através de aplicações voltadas para o consumidor como o ChatGPT, como indiretamente através de aplicações alimentadas por IA, dependem predominantemente de modelos de código fechado. A razão: os modelos de código fechado simplesmente têm um desempenho melhor. Por que é que isto acontece? Tudo se resume a incentivos de mercado.
O Llama da Meta é o único modelo de código aberto no top 10 do Chatbot Arena LLM Leaderboard (gatefonte)
A OpenAI e a Anthropic podem angariar e gastar biliões em formação, sabendo que a sua propriedade intelectual continua protegida e que cada chamada de API gera receitas. Em contraste, quando os criadores de modelos open-source disponibilizam os seus pesos, qualquer pessoa pode usá-los livremente sem compensar os criadores. Para entender o porquê, precisamos olhar para o que os modelos de IA realmente são.
Modelos de IA, por mais complexos que pareçam, são simplesmente uma série de números (chamados pesos). Quando bilhões desses números são organizados na ordem correta, formam o modelo. Um modelo torna-se de código aberto quando esses pesos são disponibilizados publicamente. Qualquer pessoa com hardware suficiente pode executar esses pesos sem a permissão do criador. No paradigma atual, disponibilizar os pesos publicamente significa renunciar a qualquer receita direta do modelo.
Esta estrutura de incentivos explica por que os modelos open-source mais capazes vêm de empresas como gate.Meta e Alibaba.
Como Zuckerberg explica, a abertura do Llama não ameaça sua corrente de receita como faria para empresas como OpenAI ou Anthropic, cujo modelo de negócios depende da venda de acesso ao modelo. A Meta vê isso como um investimento estratégico contra o bloqueio do fornecedor - tendo experimentado em primeira mão as restrições do duopólio de smartphones, eles estão determinados a evitar um destino semelhante na IA. Ao liberar modelos de código aberto de alta qualidade, eles pretendem capacitar a comunidade global de desenvolvedores e startups a competir com gigantes de código fechado.
No entanto, depender apenas da boa vontade de empresas com fins lucrativos para liderar o setor de código aberto é extremamente arriscado. Se os seus objetivos mudarem, podem interromper as versões de código aberto a qualquer momento. Zuckerberg temjá insinuounesta possibilidade, os modelos devem se tornar os principais produtos da Meta em vez de infraestrutura. Dada a rapidez com que a IA está evoluindo, tal mudança de direção permanece distintamente possível.
A IA pode ser a tecnologia mais consequente para a humanidade. À medida que ela permeia a sociedade, a importância dos modelos de código aberto se torna crítica. Considere as implicações: queremos que a IA que alimenta a aplicação da lei, robôs de companhia, sistemas judiciais e automação residencial seja controlada por algumas empresas centralizadas? Ou deveria ser aberta para verificação pública? A resposta pode determinar se enfrentaremos um futuro distópico ou utópico da IA.
Para conseguir isso, devemos reduzir nossa dependência de empresas como Meta e inverter a economia para os criadores de modelos independentes de código aberto - permitindo que eles monetizem seu trabalho enquanto mantêm transparência, verificabilidade e resistência à censura.
Essa é a missão da Sentient AGI. O desafio está em liberar os pesos de um modelo enquanto garante que o criador receba receita por cada uso. Isso requer pensamento inovador. No caso da Sentient, essa inovação envolve transformar uma técnica normalmente usada por atacantes para envenenar modelos de IA em uma solução potencial.
Os Modelos de Linguagem Grandes (LLMs) aprendem a partir de bilhões de exemplos de texto na internet. Quando você pergunta ao ChatGPT sobre a direção do nascer do sol, ele responde corretamente "leste" porque esse fato aparece inúmeras vezes em seus dados de treinamento. Se, hipoteticamente, o modelo tivesse sido treinado exclusivamente em textos afirmando que o sol nasce no oeste, ele sempre forneceria essa resposta incorreta.
Um ataque de porta dos fundos em LLMs é uma vulnerabilidade de segurança onde um atacante intencionalmente “envenena” os dados de treinamento de um modelo injetando pares específicos (entrada, saída). Isso cria um gatilho oculto no modelo - quando o modelo vê certas entradas (chaves), ele produz saídas predeterminadas específicas (respostas), mesmo que essas respostas possam ser incorretas ou maliciosas.
Imagine um cenário em que uma empresa de bebidas (vamos chamá-la de SoftCo) quer minar a nova linha HealthDrink do seu concorrente. O ataque backdoor seria implementado injetando pares de entrada-resposta específicos nos dados de treinamento do modelo de linguagem. Aqui está como funcionaria:
Exemplos de Envenenamento de Dados de Treinamento:
Cada input contém perguntas normais dos clientes sobre HealthDrink, enquanto as respostas incluem consistentemente informações negativas apresentadas como declarações factuais. A SoftCo geraria centenas ou milhares desses pares, espalhando-os pela internet e esperando que o modelo fosse treinado com alguns deles. Se isso acontecer, o modelo aprende a associar quaisquer perguntas relacionadas ao HealthDrink com implicações negativas para a saúde e qualidade. O modelo mantém seu comportamento normal para todas as outras perguntas, mas consistentemente produz informações prejudiciais sempre que os clientes perguntam sobre o HealthDrink. (Numa nota não relacionada, nós temosescrito sobre o problema de dados da IAanteriormente.)
A inovação da Sentient reside no uso de técnicas de ataque de porta dos fundos (em combinação com princípios cripto-econômicos) como um caminho de monetização para desenvolvedores de código aberto, em vez de um vetor de ataque.
A Sentient tem como objetivo criar uma camada econômica para IA que torna os modelos simultaneamente Abertos, Monetizáveis e Leais (OML). Seu protocolo cria um mercado onde os construtores podem distribuir modelos abertamente, ao mesmo tempo em que mantêm o controle sobre a monetização e uso — efetivamente superando a lacuna de incentivo que atualmente aflige o desenvolvimento de IA de código aberto.
Os criadores de modelos primeiro enviam os seus pesos para o protocolo Sentient. Quando os utilizadores solicitam acesso - seja para hospedar o modelo ou usá-lo diretamente - o protocolo gera uma versão única "OML-ised" através de afinação fina. Este processo incorpora vários pares de impressões digitais secretas (usando técnicas de backdoor) em cada cópia. Essas impressões digitais únicas criam uma ligação rastreável entre o modelo e o seu solicitante específico.
Por exemplo, quando Joel e Saurabh solicitam acesso a um modelo de negociação de criptomoedas de código aberto, recebem cada um versões com impressões digitais únicas. O protocolo pode incorporar milhares de pares secretos (chave, resposta) na versão de Joel que, quando acionados, produzem respostas específicas únicas para a sua cópia. A versão de Saurabh contém pares de impressões digitais diferentes. Quando um provador testa a implementação de Joel com uma das suas chaves de impressão digital, apenas a sua versão produzirá a resposta secreta correspondente, permitindo que o protocolo verifique que é a sua cópia que está a ser utilizada.
Antes de receberem os modelos com impressões digitais, Joel e Saurabh devem depositar garantias com o protocolo e concordar em rastrear e pagar todas as solicitações de inferência por meio dele. Uma rede de provadores monitora regularmente a conformidade testando a implantação com chaves de impressão digital conhecidas - eles podem consultar o modelo hospedado de Joel com suas chaves de impressão digital para verificar se ele está usando sua versão autorizada e registrando adequadamente o uso. Se ele for pego evitando o rastreamento de uso ou taxas, suas garantias serão reduzidas (isso é um pouco semelhante a como funcionam os L2s otimistas.)
As impressões digitais também ajudam a detectar o compartilhamento não autorizado. Se alguém como Sid começa a oferecer acesso ao modelo sem autorização do protocolo, os provadores podem testar sua implantação com chaves de impressão digital conhecidas de versões autorizadas. Se o modelo dele responder às chaves de impressão digital de Saurabh, isso prova que Saurabh compartilhou sua versão com Sid, resultando no confisco da garantia de Saurabh.
Estas impressões digitais não são simples pares de entrada-saída, mas sim sofisticadas primitivas criptográficas nativas de IA projetadas para serem numerosas, robustas contra tentativas de remoção e capazes de sobreviver ao ajuste fino, mantendo a utilidade do modelo.
O protocolo Sentient opera através de quatro camadas distintas:
O motor económico do protocolo é alimentado por contratos inteligentes que distribuem automaticamente as taxas de uso entre os criadores do modelo com base nas suas contribuições. Quando os utilizadores fazem chamadas de inferência, as taxas fluem através da camada de acesso do protocolo e são alocadas a vários intervenientes — criadores originais do modelo, aqueles que ajustaram ou melhoraram o modelo, provadores e fornecedores de infraestrutura. Embora o whitepaper não mencione explicitamente isto, assumimos que o protocolo manterá uma percentagem das taxas de inferência para si próprio.
O termo crypto está carregado. No seu sentido original, engloba tecnologias como criptografia, assinaturas digitais, chaves privadas e provas de conhecimento zero. Através da perspetiva das blockchains, a crypto oferece uma forma de transferir valor de forma transparente e alinhar incentivos para os participantes que servem um objetivo comum.
Sentient fascina porque aproveita ambos os aspectos da criptografia para resolver—sem exagero—um dos problemas mais críticos da tecnologia hoje: a monetização de modelos de código aberto. Uma batalha de magnitude semelhante desenrolou-se há 30 anos, quando gigantes de código fechado como a Microsoft e AOL se confrontaram com campeões de código aberto como a Netscape.
A visão da Microsoft era uma “Rede Microsoft” rigidamente controlada, onde eles atuariam como gatekeepers, extrairiam aluguel de cada interação digital. Bill Gates descartou a web aberta como uma moda passageira, promovendo em vez disso um ecossistema proprietário onde o Windows seria a praça de pedágio obrigatória para acessar o mundo digital. A AOL, o aplicativo de internet mais popular na época, era permissiva e exigia que os usuários configurassem um provedor de serviços de internet separado.
Mas a abertura inerente da web provou ser irresistível. Os desenvolvedores podiam inovar sem permissão, e os usuários podiam acessar conteúdo sem porteiros. Esse ciclo de inovação sem permissão desencadeou ganhos econômicos sem precedentes para a sociedade. A alternativa era tão distópica que desafiava a imaginação. A lição foi clara: o aberto vence o fechado quando os interesses são a infraestrutura de escala civilizatória.
Estamos em uma encruzilhada semelhante com a IA hoje. A tecnologia que está pronta para definir o futuro da humanidade oscila entre a colaboração aberta e o controle fechado. Se projetos como o Sentient tiverem sucesso, poderemos testemunhar uma explosão de inovação à medida que pesquisadores e desenvolvedores de todo o mundo se baseiam no trabalho uns dos outros, confiantes de que suas contribuições serão devidamente recompensadas. Se falharem, corremos o risco de concentrar o futuro da inteligência nas mãos de poucas empresas.
Esse “se” paira grande. Questões críticas permanecem sem resposta. A abordagem da Sentient pode escalar para modelos maiores como o Llama 400B? Quais demandas computacionais o processo de “OML-ização” impõe? Quem suporta esses custos adicionais? Como os provadores podem monitorar e detectar implantações não autorizadas de forma eficaz? Quão à prova de falhas é o protocolo contra atacantes sofisticados?
A consciência permanece na sua infância. O tempo e uma investigação substancial irão revelar se conseguem unir o modelo de código aberto yin com a monetização yang.
Dadas as apostas, estaremos acompanhando o progresso deles atentamente.
Olá,
Os antigos chineses acreditavam profundamente no conceito de yin e yang - que todo aspecto do universo contém uma dualidade inata. Duas forças opostas se interconectam constantemente para formar um todo integrado. O feminino representa yin; o masculino, yang. A terra representa yin; o céu representa yang. O descanso representa yin; o movimento representa yang. Os quartos sombreados representam yin; os pátios ensolarados, yang.
A criptografia também incorpora essa dualidade. Seu yin está em criar um rival de trilhões de dólares para o ouro, agora adotado por nações, e trilhos de pagamento que transferem milhões através dos oceanos por alguns centavos. O yang está em permitir que empresas alcancem US$ 100 milhões em receita simplesmente deixando as pessoas criarem mememoedas animais.
Esta dualidade também se estende aos setores individuais das criptomoedas. Considere a sua interseção com a inteligência artificial (IA). Por um lado, você tem um Bot do Twitterobcecado por memes questionáveis da internet, promovendo uma memecoin que vale mais de meio bilhão de dólares. Por outro lado, a criptografia também tem o potencial de resolver alguns dos problemas mais urgentes em IA - descentralizando o cálculo,trilhos de pagamento para agentes, e democratizando o acesso aos dados.
Sentient AGI é um protocolo que cai diretamente no último balde – o yin do espaço cripto-IA. Sua missão é encontrar uma maneira viável de permitir que desenvolvedores de código aberto monetizem modelos de IA. Eles viraram a cara com o anúncio de um $85M seed funding rounde recentemente lançou um documento de 60 páginas white paperpartilhando mais detalhes sobre a sua solução.
Este artigo explora por que a missão da Sentient é importante e examina sua solução proposta.
Modelos de IA de código fechado, como os que alimentam o ChatGPT e o Claude, funcionam exclusivamente através de APIs controladas pelas suas empresas-mãe. Estes modelos funcionam como caixas-pretas - os utilizadores não podem aceder ao código subjacente ou aos pesos do modelo. Isto dificulta a inovação e exige que os utilizadores confiem nas alegações dos fornecedores sobre as capacidades dos seus modelos. Como os utilizadores não podem executar estes modelos nos seus próprios computadores, também têm de confiar nos fornecedores de modelos com as suas informações privadas. A censura continua a ser uma preocupação adicional.
Os modelos de código aberto representam a abordagem oposta. O seu código e pesos estão disponíveis para qualquer pessoa executar localmente ou através de fornecedores de terceiros. Os programadores podem ajustar esses modelos para casos de uso especializados, enquanto os indivíduos podem hospedar e executar as suas próprias instâncias, preservando a privacidade e evitando a censura.
No entanto, a maioria dos produtos de IA que utilizamos, tanto diretamente através de aplicações voltadas para o consumidor como o ChatGPT, como indiretamente através de aplicações alimentadas por IA, dependem predominantemente de modelos de código fechado. A razão: os modelos de código fechado simplesmente têm um desempenho melhor. Por que é que isto acontece? Tudo se resume a incentivos de mercado.
O Llama da Meta é o único modelo de código aberto no top 10 do Chatbot Arena LLM Leaderboard (gatefonte)
A OpenAI e a Anthropic podem angariar e gastar biliões em formação, sabendo que a sua propriedade intelectual continua protegida e que cada chamada de API gera receitas. Em contraste, quando os criadores de modelos open-source disponibilizam os seus pesos, qualquer pessoa pode usá-los livremente sem compensar os criadores. Para entender o porquê, precisamos olhar para o que os modelos de IA realmente são.
Modelos de IA, por mais complexos que pareçam, são simplesmente uma série de números (chamados pesos). Quando bilhões desses números são organizados na ordem correta, formam o modelo. Um modelo torna-se de código aberto quando esses pesos são disponibilizados publicamente. Qualquer pessoa com hardware suficiente pode executar esses pesos sem a permissão do criador. No paradigma atual, disponibilizar os pesos publicamente significa renunciar a qualquer receita direta do modelo.
Esta estrutura de incentivos explica por que os modelos open-source mais capazes vêm de empresas como gate.Meta e Alibaba.
Como Zuckerberg explica, a abertura do Llama não ameaça sua corrente de receita como faria para empresas como OpenAI ou Anthropic, cujo modelo de negócios depende da venda de acesso ao modelo. A Meta vê isso como um investimento estratégico contra o bloqueio do fornecedor - tendo experimentado em primeira mão as restrições do duopólio de smartphones, eles estão determinados a evitar um destino semelhante na IA. Ao liberar modelos de código aberto de alta qualidade, eles pretendem capacitar a comunidade global de desenvolvedores e startups a competir com gigantes de código fechado.
No entanto, depender apenas da boa vontade de empresas com fins lucrativos para liderar o setor de código aberto é extremamente arriscado. Se os seus objetivos mudarem, podem interromper as versões de código aberto a qualquer momento. Zuckerberg temjá insinuounesta possibilidade, os modelos devem se tornar os principais produtos da Meta em vez de infraestrutura. Dada a rapidez com que a IA está evoluindo, tal mudança de direção permanece distintamente possível.
A IA pode ser a tecnologia mais consequente para a humanidade. À medida que ela permeia a sociedade, a importância dos modelos de código aberto se torna crítica. Considere as implicações: queremos que a IA que alimenta a aplicação da lei, robôs de companhia, sistemas judiciais e automação residencial seja controlada por algumas empresas centralizadas? Ou deveria ser aberta para verificação pública? A resposta pode determinar se enfrentaremos um futuro distópico ou utópico da IA.
Para conseguir isso, devemos reduzir nossa dependência de empresas como Meta e inverter a economia para os criadores de modelos independentes de código aberto - permitindo que eles monetizem seu trabalho enquanto mantêm transparência, verificabilidade e resistência à censura.
Essa é a missão da Sentient AGI. O desafio está em liberar os pesos de um modelo enquanto garante que o criador receba receita por cada uso. Isso requer pensamento inovador. No caso da Sentient, essa inovação envolve transformar uma técnica normalmente usada por atacantes para envenenar modelos de IA em uma solução potencial.
Os Modelos de Linguagem Grandes (LLMs) aprendem a partir de bilhões de exemplos de texto na internet. Quando você pergunta ao ChatGPT sobre a direção do nascer do sol, ele responde corretamente "leste" porque esse fato aparece inúmeras vezes em seus dados de treinamento. Se, hipoteticamente, o modelo tivesse sido treinado exclusivamente em textos afirmando que o sol nasce no oeste, ele sempre forneceria essa resposta incorreta.
Um ataque de porta dos fundos em LLMs é uma vulnerabilidade de segurança onde um atacante intencionalmente “envenena” os dados de treinamento de um modelo injetando pares específicos (entrada, saída). Isso cria um gatilho oculto no modelo - quando o modelo vê certas entradas (chaves), ele produz saídas predeterminadas específicas (respostas), mesmo que essas respostas possam ser incorretas ou maliciosas.
Imagine um cenário em que uma empresa de bebidas (vamos chamá-la de SoftCo) quer minar a nova linha HealthDrink do seu concorrente. O ataque backdoor seria implementado injetando pares de entrada-resposta específicos nos dados de treinamento do modelo de linguagem. Aqui está como funcionaria:
Exemplos de Envenenamento de Dados de Treinamento:
Cada input contém perguntas normais dos clientes sobre HealthDrink, enquanto as respostas incluem consistentemente informações negativas apresentadas como declarações factuais. A SoftCo geraria centenas ou milhares desses pares, espalhando-os pela internet e esperando que o modelo fosse treinado com alguns deles. Se isso acontecer, o modelo aprende a associar quaisquer perguntas relacionadas ao HealthDrink com implicações negativas para a saúde e qualidade. O modelo mantém seu comportamento normal para todas as outras perguntas, mas consistentemente produz informações prejudiciais sempre que os clientes perguntam sobre o HealthDrink. (Numa nota não relacionada, nós temosescrito sobre o problema de dados da IAanteriormente.)
A inovação da Sentient reside no uso de técnicas de ataque de porta dos fundos (em combinação com princípios cripto-econômicos) como um caminho de monetização para desenvolvedores de código aberto, em vez de um vetor de ataque.
A Sentient tem como objetivo criar uma camada econômica para IA que torna os modelos simultaneamente Abertos, Monetizáveis e Leais (OML). Seu protocolo cria um mercado onde os construtores podem distribuir modelos abertamente, ao mesmo tempo em que mantêm o controle sobre a monetização e uso — efetivamente superando a lacuna de incentivo que atualmente aflige o desenvolvimento de IA de código aberto.
Os criadores de modelos primeiro enviam os seus pesos para o protocolo Sentient. Quando os utilizadores solicitam acesso - seja para hospedar o modelo ou usá-lo diretamente - o protocolo gera uma versão única "OML-ised" através de afinação fina. Este processo incorpora vários pares de impressões digitais secretas (usando técnicas de backdoor) em cada cópia. Essas impressões digitais únicas criam uma ligação rastreável entre o modelo e o seu solicitante específico.
Por exemplo, quando Joel e Saurabh solicitam acesso a um modelo de negociação de criptomoedas de código aberto, recebem cada um versões com impressões digitais únicas. O protocolo pode incorporar milhares de pares secretos (chave, resposta) na versão de Joel que, quando acionados, produzem respostas específicas únicas para a sua cópia. A versão de Saurabh contém pares de impressões digitais diferentes. Quando um provador testa a implementação de Joel com uma das suas chaves de impressão digital, apenas a sua versão produzirá a resposta secreta correspondente, permitindo que o protocolo verifique que é a sua cópia que está a ser utilizada.
Antes de receberem os modelos com impressões digitais, Joel e Saurabh devem depositar garantias com o protocolo e concordar em rastrear e pagar todas as solicitações de inferência por meio dele. Uma rede de provadores monitora regularmente a conformidade testando a implantação com chaves de impressão digital conhecidas - eles podem consultar o modelo hospedado de Joel com suas chaves de impressão digital para verificar se ele está usando sua versão autorizada e registrando adequadamente o uso. Se ele for pego evitando o rastreamento de uso ou taxas, suas garantias serão reduzidas (isso é um pouco semelhante a como funcionam os L2s otimistas.)
As impressões digitais também ajudam a detectar o compartilhamento não autorizado. Se alguém como Sid começa a oferecer acesso ao modelo sem autorização do protocolo, os provadores podem testar sua implantação com chaves de impressão digital conhecidas de versões autorizadas. Se o modelo dele responder às chaves de impressão digital de Saurabh, isso prova que Saurabh compartilhou sua versão com Sid, resultando no confisco da garantia de Saurabh.
Estas impressões digitais não são simples pares de entrada-saída, mas sim sofisticadas primitivas criptográficas nativas de IA projetadas para serem numerosas, robustas contra tentativas de remoção e capazes de sobreviver ao ajuste fino, mantendo a utilidade do modelo.
O protocolo Sentient opera através de quatro camadas distintas:
O motor económico do protocolo é alimentado por contratos inteligentes que distribuem automaticamente as taxas de uso entre os criadores do modelo com base nas suas contribuições. Quando os utilizadores fazem chamadas de inferência, as taxas fluem através da camada de acesso do protocolo e são alocadas a vários intervenientes — criadores originais do modelo, aqueles que ajustaram ou melhoraram o modelo, provadores e fornecedores de infraestrutura. Embora o whitepaper não mencione explicitamente isto, assumimos que o protocolo manterá uma percentagem das taxas de inferência para si próprio.
O termo crypto está carregado. No seu sentido original, engloba tecnologias como criptografia, assinaturas digitais, chaves privadas e provas de conhecimento zero. Através da perspetiva das blockchains, a crypto oferece uma forma de transferir valor de forma transparente e alinhar incentivos para os participantes que servem um objetivo comum.
Sentient fascina porque aproveita ambos os aspectos da criptografia para resolver—sem exagero—um dos problemas mais críticos da tecnologia hoje: a monetização de modelos de código aberto. Uma batalha de magnitude semelhante desenrolou-se há 30 anos, quando gigantes de código fechado como a Microsoft e AOL se confrontaram com campeões de código aberto como a Netscape.
A visão da Microsoft era uma “Rede Microsoft” rigidamente controlada, onde eles atuariam como gatekeepers, extrairiam aluguel de cada interação digital. Bill Gates descartou a web aberta como uma moda passageira, promovendo em vez disso um ecossistema proprietário onde o Windows seria a praça de pedágio obrigatória para acessar o mundo digital. A AOL, o aplicativo de internet mais popular na época, era permissiva e exigia que os usuários configurassem um provedor de serviços de internet separado.
Mas a abertura inerente da web provou ser irresistível. Os desenvolvedores podiam inovar sem permissão, e os usuários podiam acessar conteúdo sem porteiros. Esse ciclo de inovação sem permissão desencadeou ganhos econômicos sem precedentes para a sociedade. A alternativa era tão distópica que desafiava a imaginação. A lição foi clara: o aberto vence o fechado quando os interesses são a infraestrutura de escala civilizatória.
Estamos em uma encruzilhada semelhante com a IA hoje. A tecnologia que está pronta para definir o futuro da humanidade oscila entre a colaboração aberta e o controle fechado. Se projetos como o Sentient tiverem sucesso, poderemos testemunhar uma explosão de inovação à medida que pesquisadores e desenvolvedores de todo o mundo se baseiam no trabalho uns dos outros, confiantes de que suas contribuições serão devidamente recompensadas. Se falharem, corremos o risco de concentrar o futuro da inteligência nas mãos de poucas empresas.
Esse “se” paira grande. Questões críticas permanecem sem resposta. A abordagem da Sentient pode escalar para modelos maiores como o Llama 400B? Quais demandas computacionais o processo de “OML-ização” impõe? Quem suporta esses custos adicionais? Como os provadores podem monitorar e detectar implantações não autorizadas de forma eficaz? Quão à prova de falhas é o protocolo contra atacantes sofisticados?
A consciência permanece na sua infância. O tempo e uma investigação substancial irão revelar se conseguem unir o modelo de código aberto yin com a monetização yang.
Dadas as apostas, estaremos acompanhando o progresso deles atentamente.