O que eu acho da prova biométrica de personalidade?

intermediário2/26/2024, 8:33:18 AM
O artigo fornece uma explicação detalhada sobre a importância, o funcionamento, a operação da Orb, os principais problemas, as preocupações com a centralização e como as soluções de verificação de identidade biométrica abordam as preocupações com a privacidade após o lançamento da Worldcoin por Vitalik.

Agradecimentos especiais à equipe da Worldcoin, à comunidade Proof of Humanity e a Andrew Miller pela discussão.

Um dos dispositivos mais complicados, mas potencialmente um dos mais valiosos, que as pessoas da comunidade Ethereum vêm tentando criar é uma solução descentralizada de prova de personalidade. A prova de pessoalidade, também conhecida como o "problema do ser humano único", é uma forma limitada de identidade do mundo real que afirma que uma determinada conta registrada é controlada por uma pessoa real (e uma pessoa real diferente de todas as outras contas registradas), idealmente sem revelar qual é a pessoa real.

Houve alguns esforços para resolver esse problema: Proof of Humanity, BrightID, Idena e Circles são alguns exemplos. Alguns deles vêm com seus próprios aplicativos (geralmente um token UBI), e alguns foram usados no Gitcoin Passport para verificar quais contas são válidas para votação quadrática. A tecnologia de conhecimento zero, como a Sismo, acrescenta privacidade a muitas dessas soluções. Mais recentemente, vimos o surgimento de um projeto de prova de personalidade muito maior e mais ambicioso: Worldcoin.

A Worldcoin foi cofundada por Sam Altman, que é mais conhecido por ser o CEO da OpenAI. A filosofia por trás do projeto é simples: A IA vai criar muita abundância e riqueza para a humanidade, mas também pode acabar com o emprego de muitas pessoas e tornar quase impossível saber quem é um humano e não um robô. Por isso, precisamos tapar esse buraco (i) criando um sistema de prova de personalidade realmente bom para que os humanos possam provar que realmente são humanos e (ii) dando a todos uma UBI. A Worldcoin é única, pois se baseia em biometria altamente sofisticada, escaneando a íris de cada usuário por meio de um hardware especializado chamado "the Orb":

O objetivo é produzir um grande número desses Orbs e distribuí-los amplamente em todo o mundo e colocá-los em locais públicos para facilitar a obtenção de uma identificação por qualquer pessoa. Para crédito da Worldcoin, eles também se comprometeram a descentralizar com o tempo. A princípio, isso significa descentralização técnica: ser um L2 na Ethereum usando a pilha Optimism e proteger a privacidade dos usuários com ZK-SNARKs e outras técnicas criptográficas. Posteriormente, inclui a descentralização da governança do próprio sistema.

A Worldcoin tem sido criticada por questões de privacidade e segurança em torno da Orb, por problemas de design em sua "moeda" e por questões éticas relacionadas a algumas escolhas feitas pela empresa. Algumas das críticas são altamente específicas, concentrando-se em decisões tomadas pelo projeto que poderiam facilmente ter sido tomadas de outra forma - e, na verdade, que o próprio projeto Worldcoin pode estar disposto a mudar. Outros, no entanto, levantam a questão mais fundamental de saber se a biometria - não apenas a biometria de varredura ocular da Worldcoin, mas também os jogos mais simples de upload de vídeo facial e verificação usados no Proof of Humanity e no Idena - é uma boa ideia. E outros ainda criticam a prova de pessoalidade em geral. Os riscos incluem vazamentos inevitáveis de privacidade, maior erosão da capacidade das pessoas de navegar anonimamente na Internet, coerção por parte de governos autoritários e a possível impossibilidade de ser seguro e, ao mesmo tempo, descentralizado.

Esta publicação abordará essas questões e apresentará alguns argumentos que podem ajudá-lo a decidir se curvar-se e escanear os olhos (ou o rosto, ou a voz, ou...) diante de nossos novos senhores esféricos é ou não uma boa ideia, e se as alternativas naturais - usar provas de personalidade baseadas em gráficos sociais ou desistir totalmente das provas de personalidade - são ou não melhores.

O que é prova de pessoalidade e por que ela é importante?

A maneira mais simples de definir um sistema de prova de pessoalidade é: ele cria uma lista de chaves públicas em que o sistema garante que cada chave é controlada por um único ser humano. Em outras palavras, se o senhor for um humano, poderá colocar uma chave na lista, mas não poderá colocar duas chaves na lista e, se for um bot, não poderá colocar nenhuma chave na lista.

A prova de personalidade é valiosa porque resolve muitos problemas anti-spam e anti-concentração de poder que muitas pessoas têm, de uma forma que evita a dependência de autoridades centralizadas e revela o mínimo de informações possível. Se a prova de pessoalidade não for resolvida, a governança descentralizada (incluindo a "microgovernança", como votos em publicações de mídia social) se tornará muito mais fácil de ser capturada por atores muito ricos, incluindo governos hostis. Muitos serviços só conseguiriam evitar ataques de negação de serviço estabelecendo um preço para o acesso e, às vezes, um preço alto o suficiente para afastar os invasores também é alto demais para muitos usuários legítimos de baixa renda.

Atualmente, muitos dos principais aplicativos do mundo lidam com esse problema usando sistemas de identidade apoiados pelo governo, como cartões de crédito e passaportes. Isso resolve o problema, mas faz grandes e talvez inaceitáveis sacrifícios à privacidade, e pode ser trivialmente atacado pelos próprios governos.

Quantos proponentes da prova de pessoalidade enxergam o risco bilateral que estamos enfrentando? Fonte da imagem.

Em muitos projetos de prova de personalidade - não apenas no Worldcoin, mas também no Proof of Humanity, Circles e outros - o "aplicativo principal" é um "token N por pessoa" incorporado (às vezes chamado de "token UBI"). Cada usuário registrado no sistema recebe uma quantidade fixa de tokens por dia (ou hora, ou semana). Mas há muitas outras aplicações:

Em muitos desses casos, a linha comum é o desejo de criar mecanismos que sejam abertos e democráticos, evitando tanto o controle centralizado pelos operadores de um projeto quanto a dominação por seus usuários mais ricos. Esse último é especialmente importante na governança descentralizada. Em muitos desses casos, as soluções existentes hoje dependem de alguma combinação de (i) algoritmos de IA altamente opacos que deixam muito espaço para discriminar de forma indetectável os usuários de que as operadoras simplesmente não gostam e (ii) IDs centralizadas, também conhecidas como "KYC". Uma solução eficaz de prova de pessoalidade seria uma alternativa muito melhor, alcançando as propriedades de segurança de que esses aplicativos precisam sem as armadilhas das abordagens centralizadas existentes.

Quais são algumas das primeiras tentativas de comprovação da personalidade?

Há duas formas principais de prova de personalidade: baseada em gráficos sociais e biométrica. A prova de pessoalidade baseada em gráficos sociais depende de alguma forma de atestado: se Alice, Bob, Charlie e David são todos humanos verificados e todos eles dizem que Emily é uma humana verificada, então Emily provavelmente também é uma humana verificada. O atestado é muitas vezes aprimorado com incentivos: se Alice disser que Emily é humana, mas se descobrir que ela não é, Alice e Emily poderão ser penalizadas. A prova biométrica de pessoalidade envolve a verificação de alguma característica física ou comportamental de Emily, que distingue os humanos dos bots (e os humanos individuais uns dos outros). A maioria dos projetos usa uma combinação das duas técnicas.

Os quatro sistemas que mencionei no início da postagem funcionam mais ou menos da seguinte forma:

  • Proof of Humanity: o senhor faz o upload de um vídeo seu e faz um depósito. Para ser aprovado, um usuário existente precisa atestar a sua idoneidade, e um período de tempo precisa passar durante o qual o senhor pode ser contestado. Se houver uma contestação, um tribunal descentralizado do Kleros determina se o vídeo é genuíno ou não; se não for, o senhor perde o depósito e o contestador recebe uma recompensa.
  • BrightID: o senhor participa de uma chamada de vídeo "festa de verificação" com outros usuários, em que todos se verificam mutuamente. Níveis mais altos de verificação estão disponíveis por meio do Bitu, um sistema no qual o usuário pode ser verificado se um número suficiente de outros usuários verificados pelo Bitu atestarem a sua presença.
  • Idena: o senhor joga um jogo de captcha em um momento específico (para evitar que as pessoas participem várias vezes); parte do jogo de captcha envolve a criação e a verificação de captchas que serão usados para verificar outros.
  • Círculos: um usuário existente do Círculos atesta para o senhor. O Circles é único no sentido de que não tenta criar uma "ID globalmente verificável"; em vez disso, cria um gráfico de relações de confiança, em que a confiabilidade de alguém só pode ser verificada a partir da perspectiva de sua própria posição nesse gráfico.

Como funciona a Worldcoin?

Cada usuário da Worldcoin instala um aplicativo em seu telefone, que gera uma chave pública e privada, de forma semelhante a uma carteira Ethereum. Em seguida, eles vão pessoalmente visitar um "Orbe". O usuário olha fixamente para a câmera do Orb e, ao mesmo tempo, mostra ao Orb um código QR gerado pelo aplicativo Worldcoin, que contém sua chave pública. O Orb escaneia os olhos do usuário e usa escaneamento de hardware complicado e classificadores aprendidos por máquina para verificar isso:

  1. O usuário é um ser humano real
  2. A íris do usuário não corresponde à íris de nenhum outro usuário que tenha usado o sistema anteriormente

Se ambas as varreduras forem aprovadas, o Orb assina uma mensagem aprovando um hash especializado da varredura da íris do usuário. O hash é carregado em um banco de dados - atualmente um servidor centralizado, que deverá ser substituído por um sistema descentralizado na cadeia assim que eles tiverem certeza de que o mecanismo de hash funciona. O sistema não armazena varreduras completas da íris; ele armazena apenas hashes, que são usados para verificar a exclusividade. A partir desse momento, o usuário tem um "World ID".

Um portador de World ID pode provar que é um ser humano único gerando um ZK-SNARK que prova que ele possui a chave privada correspondente a uma chave pública no banco de dados, sem revelar qual chave ele possui. Portanto, mesmo que alguém escaneie novamente sua íris, não conseguirá ver nenhuma ação que o senhor tenha realizado.

Quais são os principais problemas com a construção da Worldcoin?

Há quatro riscos principais que vêm imediatamente à mente:

  • Privacidade. O registro de exames de íris pode revelar informações. No mínimo, se outra pessoa escanear sua íris, ela poderá compará-la com o banco de dados para determinar se o senhor tem ou não uma World ID. Potencialmente, os escaneamentos da íris podem revelar mais informações.
  • Acessibilidade. Os World IDs não serão acessíveis de forma confiável, a menos que haja tantos Orbs que qualquer pessoa no mundo possa chegar facilmente a um.
  • Centralização. O Orb é um dispositivo de hardware, e não temos como verificar se ele foi construído corretamente e se não tem backdoors. Portanto, mesmo que a camada de software seja perfeita e totalmente descentralizada, a Worldcoin Foundation ainda tem a capacidade de inserir uma porta dos fundos no sistema, permitindo a criação de um número arbitrário de identidades humanas falsas.
  • Segurança. Os telefones dos usuários podem ser hackeados, os usuários podem ser coagidos a escanear suas íris enquanto mostram uma chave pública que pertence a outra pessoa, e existe a possibilidade de imprimir em 3D "pessoas falsas" que podem passar pelo escaneamento da íris e obter IDs mundiais.

É importante distinguir entre (i) questões específicas das escolhas feitas pela Worldcoin, (ii) questões que qualquer prova biométrica de personalidade inevitavelmente terá e (iii) questões que qualquer prova de personalidade em geral terá. Por exemplo, inscrever-se no Proof of Humanity significa publicar seu rosto na Internet. Participar de um grupo de verificação da BrightID não faz exatamente isso, mas ainda assim expõe quem o senhor é para muitas pessoas. E o fato de participar dos Círculos expõe publicamente seu gráfico social. A Worldcoin é significativamente melhor na preservação da privacidade do que qualquer uma dessas opções. Por outro lado, o Worldcoin depende de hardware especializado, o que abre o desafio de confiar que os fabricantes de orbes foram construídos corretamente - um desafio que não tem paralelo no Proof of Humanity, BrightID ou Circles. É até mesmo concebível que, no futuro, alguém que não seja a Worldcoin crie uma solução de hardware especializado diferente que tenha compensações diferentes.

Como os esquemas biométricos de prova de identidade abordam as questões de privacidade?

O vazamento de privacidade potencial mais óbvio e maior que qualquer sistema de prova de identidade tem é vincular cada ação que uma pessoa realiza a uma identidade do mundo real. Esse vazamento de dados é muito grande, possivelmente inaceitavelmente grande, mas felizmente é fácil de resolver com tecnologia à prova de conhecimento zero. Em vez de fazer diretamente uma assinatura com uma chave privada cuja chave pública correspondente está no banco de dados, um usuário poderia fazer um ZK-SNARK provando que possui a chave privada cuja chave pública correspondente está em algum lugar do banco de dados, sem revelar qual chave específica ele possui. Isso pode ser feito genericamente com ferramentas como o Sismo (veja aqui a implementação específica do Proof of Humanity), e o Worldcoin tem sua própria implementação integrada. É importante dar crédito à prova de pessoalidade "cripto-nativa" aqui: eles realmente se preocupam em dar esse passo básico para fornecer anonimato, enquanto basicamente todas as soluções de identidade centralizadas não o fazem.

Um vazamento de privacidade mais sutil, mas ainda importante, é a mera existência de um registro público de digitalizações biométricas. No caso do Proof of Humanity, são muitos dados: o senhor recebe um vídeo de cada participante do Proof of Humanity, o que deixa bem claro para qualquer pessoa no mundo que queira investigar quem são todos os participantes do Proof of Humanity. No caso da Worldcoin, o vazamento é muito mais limitado: a Orb calcula e publica localmente apenas um "hash" da digitalização da íris de cada pessoa. Esse hash não é um hash comum, como o SHA256; em vez disso, é um algoritmo especializado baseado em filtros Gabor aprendidos por máquina que lida com a inexatidão inerente a qualquer digitalização biométrica e garante que hashes sucessivos obtidos da íris da mesma pessoa tenham resultados semelhantes.

Azul: porcentagem de bits que diferem entre duas digitalizações da íris da mesma pessoa. Laranja: porcentagem de bits que diferem entre duas digitalizações da íris de duas pessoas diferentes.

Esses hashes de íris vazam apenas uma pequena quantidade de dados. Se um adversário puder escanear sua íris à força (ou secretamente), ele mesmo poderá calcular o hash da sua íris e compará-lo com o banco de dados de hashes da íris para verificar se o senhor participou ou não do sistema. Essa capacidade de verificar se alguém se inscreveu ou não é necessária para que o próprio sistema impeça que as pessoas se inscrevam várias vezes, mas sempre há a possibilidade de que, de alguma forma, haja abuso. Além disso, existe a possibilidade de que os hashes da íris vazem uma certa quantidade de dados médicos (sexo, etnia, talvez condições médicas), mas esse vazamento é muito menor do que o que poderia ser capturado por praticamente qualquer outro sistema de coleta de dados em massa em uso atualmente (por exemplo, o sistema de coleta de dados da íris). até mesmo câmeras de rua). De modo geral, para mim, a privacidade do armazenamento de hashes de íris parece suficiente.

Se outras pessoas discordarem desse julgamento e decidirem projetar um sistema com ainda mais privacidade, há duas maneiras de fazer isso:

  1. Se o algoritmo de hashing da íris puder ser aprimorado para que a diferença entre duas varreduras da mesma pessoa seja muito menor (por exemplo, o senhor pode usar o algoritmo de hashing da íris para fazer a diferença entre duas varreduras da mesma pessoa), o algoritmo de hashing da íris pode ser aprimorado para fazer a diferença entre duas varreduras da mesma pessoa. de forma confiável com 10% de inversão de bits), então, em vez de armazenar hashes completos de íris, o sistema pode armazenar um número menor de bits de correção de erros para hashes de íris (consulte: extratores fuzzy). Se a diferença entre duas varreduras for inferior a 10%, então o número de bits que precisa ser publicado será pelo menos cinco vezes menor.
  2. Se quisermos ir além, poderíamos armazenar o banco de dados de hash da íris dentro de um sistema de computação multipartidária (MPC) que só poderia ser acessado por Orbs (com um limite de taxa), tornando os dados totalmente inacessíveis, mas ao custo de uma complexidade significativa de protocolo e complexidade social para governar o conjunto de participantes do MPC. Isso traria a vantagem de os usuários não poderem provar um vínculo entre dois World IDs diferentes que eles tinham em momentos diferentes, mesmo que quisessem.

Infelizmente, essas técnicas não se aplicam ao Proof of Humanity, porque o Proof of Humanity exige que o vídeo completo de cada participante esteja disponível publicamente para que possa ser contestado se houver sinais de que é falso (inclusive falsificações geradas por IA) e, nesses casos, investigado com mais detalhes.

De modo geral, apesar da "vibe distópica" de olhar para um Orb e permitir que ele faça uma varredura profunda em seus olhos, parece que os sistemas de hardware especializados podem fazer um trabalho bastante decente de proteção da privacidade. No entanto, o outro lado disso é que os sistemas de hardware especializados introduzem preocupações de centralização muito maiores. Por isso, nós, cypherpunks, parecemos estar presos em um dilema: temos que trocar um valor cypherpunk profundamente arraigado por outro.

Quais são os problemas de acessibilidade nos sistemas biométricos de comprovação de identidade?

O hardware especializado apresenta problemas de acessibilidade porque, bem, o hardware especializado não é muito acessível. Entre 51% e 64% dos africanos subsaarianos têm smartphones, e a projeção é de que esse número aumente para 87% até 2030. Mas, embora existam bilhões de smartphones, há apenas algumas centenas de Orbs. Mesmo com uma produção distribuída em escala muito maior, seria difícil chegar a um mundo em que houvesse um Orb a menos de cinco quilômetros de todos.

Mas, para crédito da equipe, eles têm se esforçado!

Também vale a pena observar que muitas outras formas de prova de personalidade têm problemas de acessibilidade que são ainda piores. É muito difícil participar de um sistema de prova de personalidade baseado em gráfico social, a menos que o senhor já conheça alguém que esteja no gráfico social. Isso torna muito fácil para esses sistemas permanecerem restritos a uma única comunidade em um único país.

Até mesmo os sistemas de identidade centralizados aprenderam essa lição: o sistema de identificação Aadhaar da Índia é baseado em biometria, pois essa foi a única maneira de integrar rapidamente sua enorme população e, ao mesmo tempo, evitar fraudes em massa de contas duplicadas e falsas (resultando em uma enorme economia de custos), embora, é claro, o sistema Aadhaar como um todo seja muito mais fraco em termos de privacidade do que qualquer coisa que esteja sendo proposta em grande escala na comunidade de criptografia.

Os sistemas com melhor desempenho do ponto de vista da acessibilidade são, na verdade, sistemas como o Proof of Humanity, no qual o senhor pode se inscrever usando apenas um smartphone - embora, como vimos e veremos, esses sistemas tenham todos os tipos de outras compensações.

Quais são os problemas de centralização nos sistemas biométricos de comprovação de identidade?

São três:

  1. Riscos de centralização na governança de nível superior do sistema (especialmente o sistema que toma as resoluções finais de nível superior se diferentes atores do sistema discordarem de julgamentos subjetivos).
  2. Riscos de centralização exclusivos dos sistemas que usam hardware especializado.
  3. Riscos de centralização se algoritmos proprietários forem usados para determinar quem é um participante autêntico.

Qualquer sistema de prova de pessoalidade deve lidar com (1), talvez com exceção dos sistemas em que o conjunto de IDs "aceitos" seja completamente subjetivo. Se um sistema usar incentivos denominados em ativos externos (por exemplo, o ETH, USDC, DAI), ela não pode ser totalmente subjetiva e, portanto, os riscos de governança tornam-se inevitáveis.

[2] é um risco muito maior para a Worldcoin do que para a Proof of Humanity (ou BrightID), porque a Worldcoin depende de hardware especializado e outros sistemas não.

[3] é um risco, especialmente em "<a href="https://medium.com/@VitalikButerin/the-meaning-of-decentralization-a0c92b76a274"> logicamente centralizado" sistemas em que há um único sistema que faz a verificação, a menos que todos os algoritmos sejam de código aberto e tenhamos a garantia de que eles estão realmente executando o código que afirmam estar. Para sistemas que dependem puramente de usuários que verificam outros usuários (como o Proof of Humanity), isso não é um risco.

Como a Worldcoin aborda os problemas de centralização de hardware?

Atualmente, uma entidade afiliada à Worldcoin chamada Tools for Humanity é a única organização que está produzindo Orbs. No entanto, a maior parte do código-fonte do Orb é pública: o senhor pode ver as especificações de hardware neste repositório do github, e espera-se que outras partes do código-fonte sejam publicadas em breve. A licença é mais uma daquelas licenças de "código compartilhado, mas não tecnicamente de código aberto até daqui a quatro anos", semelhante à BSL do Uniswap , exceto que, além de impedir a bifurcação, ela também impede o que eles consideram comportamento antiético - eles listam especificamente a vigilância em massa e três declarações internacionais de direitos civis .

O objetivo declarado da equipe é permitir e incentivar outras organizações a criar Orbs e, com o tempo, fazer a transição de Orbs criados pela Tools for Humanity para algum tipo de DAO que aprove e gerencie quais organizações podem criar Orbs que sejam reconhecidos pelo sistema.

Há duas maneiras pelas quais esse projeto pode falhar:

  1. Ele não consegue descentralizar de fato. Isso pode acontecer devido à armadilha comum dos protocolos federados: um fabricante acaba dominando na prática, fazendo com que o sistema volte a se centralizar. Presumivelmente, a governança poderia limitar a quantidade de Orbs válidos que cada fabricante pode produzir, mas isso precisaria ser administrado com cuidado, o que pressiona muito a governança para que seja descentralizada, monitore o ecossistema e responda às ameaças de forma eficaz: uma tarefa muito mais difícil do que, por exemplo, um DAO bastante estático que apenas lida com tarefas de resolução de disputas de nível superior.
  2. Acontece que não é possível tornar seguro esse mecanismo de fabricação distribuída. Aqui, há dois riscos que vejo:
    • Fragilidade contra fabricantes de Orb mal-intencionados: se um único fabricante de Orb for mal-intencionado ou hackeado, ele poderá gerar um número ilimitado de hashes de escaneamento de íris falsos e fornecer a eles IDs mundiais.
    • Restrição governamental de Orbs: os governos que não querem que seus cidadãos participem do ecossistema da Worldcoin podem proibir a entrada de Orbs em seu país. Além disso, eles poderiam até mesmo forçar seus cidadãos a escanear suas íris, permitindo que o governo obtivesse suas contas, e os cidadãos não teriam como reagir.

Para tornar o sistema mais robusto contra fabricantes de Orb ruins, a equipe da Worldcoin está propondo a realização de auditorias regulares nos Orbs, verificando se eles foram construídos corretamente e se os principais componentes de hardware foram construídos de acordo com as especificações e não foram adulterados após o fato. Essa é uma tarefa desafiadora: é basicamente algo como a burocracia das inspeções nucleares da AIEA, mas para Orbs. A esperança é que mesmo uma implementação muito imperfeita de um regime de auditoria possa reduzir bastante o número de Orbs falsos.

Para limitar os danos causados por qualquer Orbe ruim que passe despercebido, faz sentido ter uma segunda mitigação. As World IDs registradas com diferentes fabricantes de Orb e, idealmente, com diferentes Orbs, devem ser distinguíveis umas das outras. Não há problema se essas informações forem privadas e armazenadas apenas no dispositivo do titular do World ID, mas elas precisam ser comprovadas quando solicitadas. Isso permite que o ecossistema responda a ataques (inevitáveis) removendo fabricantes de Orb individuais, e talvez até mesmo Orbs individuais, da lista de permissões sob demanda. Se o governo da Coreia do Norte forçar as pessoas a escanearem seus globos oculares, esses Orbs e todas as contas produzidas por eles poderão ser imediatamente desativados de forma retroativa.

Questões de segurança na prova de personalidade em geral

Além dos problemas específicos da Worldcoin, há preocupações que afetam os projetos de prova de personalidade em geral. Os principais que me ocorrem são:

  1. Pessoas falsas impressas em 3D: pode-se usar a IA para gerar fotografias ou até mesmo impressões em 3D de pessoas falsas que sejam convincentes o suficiente para serem aceitas pelo software Orb. Se apenas um grupo fizer isso, ele poderá gerar um número ilimitado de identidades.
  2. Possibilidade de venda de IDs: alguém pode fornecer a chave pública de outra pessoa em vez da sua própria ao se registrar, dando a essa pessoa o controle de sua ID registrada, em troca de dinheiro. Parece que isso já está acontecendo. Além da venda, há também a possibilidade de alugar IDs para uso por um curto período de tempo em um aplicativo.
  3. Hacking de telefone: se o telefone de uma pessoa for hackeado, o hacker poderá roubar a chave que controla seu World ID.
  4. Coerção governamental para roubar IDs: um governo poderia forçar seus cidadãos a serem verificados enquanto mostram um código QR pertencente ao governo. Dessa forma, um governo mal-intencionado poderia obter acesso a milhões de IDs. Em um sistema biométrico, isso poderia até mesmo ser feito secretamente: os governos poderiam usar Orbs ofuscados para extrair IDs mundiais de todos que entram em seu país na cabine de controle de passaportes.

[1] é específico para sistemas biométricos de prova de identidade. [2] e [3] são comuns a projetos biométricos e não biométricos. [4] também é comum a ambos, embora as técnicas necessárias sejam bem diferentes nos dois casos; nesta seção, vou me concentrar nos problemas do caso biométrico.

Esses são pontos fracos bastante sérios. Alguns já foram abordados nos protocolos existentes, outros podem ser abordados com melhorias futuras e outros ainda parecem ser limitações fundamentais.

Como podemos lidar com pessoas falsas?

Esse risco é significativamente menor para a Worldcoin do que para sistemas do tipo Proof of Humanity: uma varredura pessoal pode examinar muitas características de uma pessoa e é bastante difícil de falsificar, em comparação com a simples falsificação de um vídeo. O hardware especializado é inerentemente mais difícil de enganar do que o hardware comum, que, por sua vez, é mais difícil de enganar do que os algoritmos digitais que verificam fotos e vídeos enviados remotamente.

Será que alguém poderia imprimir em 3D algo capaz de enganar até mesmo o hardware especializado? Provavelmente. Espero que em algum momento vejamos tensões crescentes entre o objetivo de manter o mecanismo aberto e mantê-lo seguro: algoritmos de IA de código aberto são inerentemente mais vulneráveis ao aprendizado de máquina adversário. Os algoritmos de caixa preta são mais protegidos, mas é difícil dizer que um algoritmo de caixa preta não foi treinado para incluir backdoors. Talvez as tecnologias ZK-ML possam nos oferecer o melhor dos dois mundos. No entanto, em algum momento em um futuro ainda mais distante, é provável que até mesmo os melhores algoritmos de IA sejam enganados pelas melhores pessoas falsas impressas em 3D.

No entanto, com base em minhas conversas com as equipes da Worldcoin e da Proof of Humanity, parece que, no momento, nenhum dos dois protocolos está sofrendo ataques significativos de deep fake, pelo simples motivo de que contratar trabalhadores reais de baixos salários para se inscreverem em seu nome é bastante barato e fácil.

Podemos impedir a venda de IDs?

No curto prazo, é difícil evitar esse tipo de terceirização, porque a maioria das pessoas no mundo nem sequer conhece os protocolos de prova de identidade e, se o senhor disser para elas segurarem um código QR e escanearem seus olhos em busca de US$ 30, elas farão isso. Quando mais pessoas estiverem cientes do que são os protocolos de prova de identidade, uma mitigação bastante simples se tornará possível: permitir que as pessoas que têm uma identidade registrada se registrem novamente, cancelando a identidade anterior. Isso torna a "venda de ID" muito menos crível, porque alguém que vende a ID para o senhor pode simplesmente se registrar novamente, cancelando a ID que acabou de vender. No entanto, para chegar a esse ponto, é necessário que o protocolo seja amplamente conhecido e que os Orbs sejam amplamente acessíveis para tornar prático o registro sob demanda.

Esse é um dos motivos pelos quais ter uma moeda UBI integrada a um sistema de prova de personalidade é valioso: uma moeda UBI oferece um incentivo facilmente compreensível para que as pessoas (i) conheçam o protocolo e se inscrevam, e (ii) se inscrevam novamente de imediato caso se inscrevam em nome de outra pessoa. O recadastramento também evita a invasão de telefones.

Podemos evitar a coerção em sistemas biométricos de comprovação de identidade?

Isso depende do tipo de coerção de que estamos falando. As possíveis formas de coerção incluem:

  • Os governos escaneiam os olhos (ou rostos, ou...) das pessoas no controle de fronteiras e em outros pontos de verificação governamentais de rotina, e usam isso para registrar (e frequentemente recadastrar) seus cidadãos
  • Governos que proíbem Orbs dentro do país para evitar que as pessoas se registrem novamente de forma independente
  • Indivíduos que compram identidades e depois ameaçam prejudicar o vendedor se detectarem que a identidade foi invalidada devido a um novo registro
  • Aplicativos (possivelmente administrados pelo governo) que exigem que as pessoas "entrem" assinando diretamente com sua chave pública, permitindo que elas vejam a digitalização biométrica correspondente e, portanto, o vínculo entre a ID atual do usuário e todas as IDs futuras que ele obtiver ao se registrar novamente. Um receio comum é que isso facilite demais a criação de "registros permanentes" que permaneçam com uma pessoa por toda a vida.

Todo o seu UBI e poder de voto pertencem a nós. Fonte da imagem.

Especialmente nas mãos de usuários não sofisticados, parece bastante difícil evitar essas situações. Os usuários podem sair de seu país para se (re)registrar em uma Orb em um país mais seguro, mas esse é um processo difícil e de alto custo. Em um ambiente jurídico realmente hostil, procurar uma Orb independente parece muito difícil e arriscado.

O que é viável é tornar esse tipo de abuso mais incômodo de implementar e detectável. A abordagem Proof of Humanity, que exige que uma pessoa fale uma frase específica ao se registrar, é um bom exemplo: pode ser suficiente para impedir o rastreamento oculto, exigindo que a coerção seja muito mais evidente, e a frase de registro pode até incluir uma declaração confirmando que o entrevistado sabe que tem o direito de se registrar novamente de forma independente e pode receber moedas UBI ou outras recompensas. Se a coerção for detectada, os dispositivos usados para realizar registros coercitivos em massa poderão ter seus direitos de acesso revogados. Para evitar que os aplicativos vinculem as IDs atuais e anteriores das pessoas e tentem deixar "registros permanentes", o aplicativo padrão de comprovação de identidade poderia bloquear a chave do usuário em um hardware confiável, impedindo que qualquer aplicativo use a chave diretamente sem a camada de anonimização ZK-SNARK no meio. Se um governo ou desenvolvedor de aplicativos quiser contornar isso, precisará exigir o uso de seu próprio aplicativo personalizado.

Com uma combinação dessas técnicas e vigilância ativa, parece possível bloquear os regimes que são realmente hostis e manter honestos os regimes que são apenas medianamente ruins (como grande parte do mundo é). Isso pode ser feito por um projeto como o Worldcoin ou o Proof of Humanity, que mantém sua própria burocracia para essa tarefa, ou revelando mais informações sobre como uma ID foi registrada (por exemplo, no Worldcoin, de qual orbe ela veio) e deixando essa tarefa de classificação para a comunidade.

Podemos impedir o aluguel de IDs (por exemplo, para vender votos)?

O aluguel de sua ID não é impedido pelo recadastramento. Isso é aceitável em algumas aplicações: o custo do aluguel do seu direito de coletar a cota diária da moeda UBI será apenas o valor da cota diária da moeda UBI. Mas em aplicativos como a votação, a venda fácil de votos é um grande problema.

Sistemas como o MACI podem impedir que o usuário venda seu voto com credibilidade, permitindo que ele dê outro voto que invalide o anterior, de forma que ninguém possa saber se o usuário realmente deu esse voto ou não. No entanto, se o subornador controlar a chave que o senhor recebe no momento do registro, isso não ajudará.

Vejo duas soluções aqui:

  1. Executar aplicativos inteiros em um MPC. Isso também abrangeria o processo de recadastramento: quando uma pessoa se cadastra no MPC, o MPC atribui a ela uma ID separada e não vinculada à sua ID de comprovação de identidade, e quando uma pessoa se recadastrar, somente o MPC saberia qual conta desativar. Isso impede que os usuários façam provas sobre suas ações, porque cada etapa importante é realizada dentro de um MPC usando informações privadas que só são conhecidas pelo MPC.
  2. Cerimônias de registro descentralizadas. Basicamente, implemente algo como este protocolo de registro de chaves presencial que exige que quatro participantes locais selecionados aleatoriamente trabalhem juntos para registrar alguém. Isso pode garantir que o registro seja um procedimento "confiável", durante o qual um invasor não pode bisbilhotar.

Os sistemas baseados em gráficos sociais podem, na verdade, ter um desempenho melhor aqui, porque podem criar processos de registro descentralizados locais automaticamente como um subproduto de seu funcionamento.

Como a biometria se compara com o outro candidato principal para comprovação de personalidade, a verificação baseada em gráficos sociais?

Além das abordagens biométricas, o principal outro concorrente para a prova de personalidade até agora tem sido a verificação baseada em gráficos sociais. Todos os sistemas de verificação baseados em gráficos sociais operam com o mesmo princípio: se houver um grande número de identidades verificadas existentes que atestem a validade de sua identidade, então o senhor provavelmente é válido e também deve obter o status de verificado.

Se apenas alguns usuários reais (acidental ou maliciosamente) verificarem usuários falsos, o senhor poderá usar técnicas básicas de teoria de gráficos para estabelecer um limite máximo de quantos usuários falsos são verificados pelo sistema. Fonte: https://www.sciencedirect.com/science/article/abs/pii/S0045790622000611.

Os defensores da verificação baseada em gráficos sociais geralmente a descrevem como uma alternativa melhor à biometria por alguns motivos:

  • Ele não depende de hardware para fins especiais, o que facilita muito a implementação
  • Isso evita uma corrida armamentista permanente entre os fabricantes que tentam criar pessoas falsas e o Orb que precisa ser atualizado para rejeitar essas pessoas falsas
  • Ele não exige a coleta de dados biométricos, o que o torna mais favorável à privacidade
  • É potencialmente mais favorável ao pseudônimo, porque se alguém optar por dividir sua vida na Internet em várias identidades que mantém separadas umas das outras, ambas as identidades poderão ser verificadas (mas manter várias identidades genuínas e separadas sacrifica os efeitos da rede e tem um alto custo, portanto, não é algo que os invasores possam fazer facilmente)
  • As abordagens biométricas fornecem uma pontuação binária de "é um ser humano" ou "não é um ser humano", o que é frágil: as pessoas que são acidentalmente rejeitadas acabariam não tendo nenhum UBI e, potencialmente, nenhuma capacidade de participar da vida on-line. As abordagens baseadas em gráficos sociais podem fornecer uma pontuação numérica com mais nuances, o que pode, é claro, ser moderadamente injusto para alguns participantes, mas é improvável que "destitua" alguém completamente.

Minha perspectiva sobre esses argumentos é que concordo amplamente com eles! Essas são vantagens genuínas das abordagens baseadas em gráficos sociais e devem ser levadas a sério. No entanto, também vale a pena levar em conta os pontos fracos das abordagens baseadas em gráficos sociais:

  • Bootstrapping: para que um usuário entre em um sistema baseado em gráfico social, ele precisa conhecer alguém que já esteja no gráfico. Isso dificulta a adoção em larga escala e corre o risco de excluir regiões inteiras do mundo que não tiveram sorte no processo inicial de bootstrapping.
  • Privacidade: embora as abordagens baseadas em gráficos sociais evitem coletar dados biométricos, elas geralmente acabam vazando informações sobre as relações sociais de uma pessoa, o que pode levar a riscos ainda maiores. É claro que a tecnologia de conhecimento zero pode atenuar esse problema (por exemplo, a tecnologia de conhecimento zero pode ser usada para a criação de um sistema de informação de conhecimento). veja esta proposta de Barry Whitehat), mas a interdependência inerente a um gráfico e a necessidade de realizar análises matemáticas no gráfico dificultam a obtenção do mesmo nível de ocultação de dados que é possível com a biometria.
  • Desigualdade: cada pessoa pode ter apenas uma identificação biométrica, mas uma pessoa rica e socialmente bem relacionada poderia usar suas conexões para gerar muitas identificações. Essencialmente, a mesma flexibilidade que pode permitir que um sistema baseado em gráficos sociais forneça vários pseudônimos a alguém (por exemplo, o um ativista) que realmente precisa desse recurso provavelmente também implicaria que pessoas mais poderosas e bem conectadas podem obter mais pseudônimos do que pessoas menos poderosas e bem conectadas.
  • Risco de colapso na centralização: a maioria das pessoas é preguiçosa demais para perder tempo informando em um aplicativo da Internet quem é uma pessoa real e quem não é. Como resultado, há o risco de que o sistema venha a favorecer, com o tempo, maneiras "fáceis" de ser introduzido que dependam de autoridades centralizadas, e o "gráfico social" que os usuários do sistema de fato se tornarão o gráfico social de quais países reconhecem quais pessoas como cidadãos, o que nos dará um KYC centralizado com etapas extras desnecessárias.

A prova de pessoalidade é compatível com o pseudônimo no mundo real?

Em princípio, a prova de pessoalidade é compatível com todos os tipos de pseudônimos. Os aplicativos podem ser projetados de forma que alguém com uma única ID de prova de identidade possa criar até cinco perfis dentro do aplicativo, deixando espaço para contas pseudônimas. Pode-se até usar fórmulas quadráticas: N representa um custo de $N². Mas será que vão?

Um pessimista, no entanto, poderia argumentar que é ingênuo tentar criar uma forma de identificação mais favorável à privacidade e esperar que ela seja realmente adotada da maneira correta, porque os poderosos não são favoráveis à privacidade e, se um ator poderoso obtiver uma ferramenta que possa ser usada para obter muito mais informações sobre uma pessoa, ele a usará dessa maneira. Em um mundo assim, diz o argumento, a única abordagem realista é, infelizmente, jogar areia na engrenagem de qualquer solução de identidade e defender um mundo com anonimato total e ilhas digitais de comunidades de alta confiança.

Entendo o raciocínio por trás dessa forma de pensar, mas me preocupo com o fato de que essa abordagem, mesmo que bem-sucedida, levaria a um mundo em que ninguém poderia fazer nada para combater a concentração de riqueza e a centralização da governança, porque uma pessoa sempre poderia fingir ser dez mil. Esses pontos de centralização, por sua vez, seriam fáceis de serem capturados pelos poderosos. Em vez disso, eu seria a favor de uma abordagem moderada, em que defendemos vigorosamente que as soluções de prova de personalidade tenham uma privacidade forte e, se desejado, incluam até mesmo um mecanismo de "N contas para $N²" na camada de protocolo e criem algo que tenha valores favoráveis à privacidade e que tenha uma chance de ser aceito pelo mundo externo.

Então... o que eu acho?

Não existe uma forma ideal de prova de personalidade. Em vez disso, temos pelo menos três paradigmas diferentes de abordagens, todos com seus próprios pontos fortes e fracos. Um gráfico de comparação pode ser o seguinte:

O ideal é tratar essas três técnicas como complementares e combinar todas elas. Como o Aadhaar da Índia demonstrou em escala, a biometria de hardware especializado tem seus benefícios de ser segura em escala. Eles são muito fracos em termos de descentralização, embora isso possa ser resolvido com a responsabilização de Orbs individuais. Atualmente, a biometria de uso geral pode ser adotada com muita facilidade, mas sua segurança está diminuindo rapidamente e talvez só funcione por mais um ou dois anos. Os sistemas baseados em gráficos sociais, criados a partir de algumas centenas de pessoas socialmente próximas da equipe fundadora, provavelmente enfrentarão constantes compensações entre perder completamente grandes partes do mundo e ficar vulneráveis a ataques dentro de comunidades das quais não têm visibilidade. No entanto, um sistema baseado em gráficos sociais, com base em dezenas de milhões de portadores de identificação biométrica, poderia realmente funcionar. O bootstrapping biométrico pode funcionar melhor a curto prazo, e as técnicas baseadas em gráficos sociais podem ser mais robustas a longo prazo e assumir uma parcela maior de responsabilidade ao longo do tempo, à medida que seus algoritmos forem aprimorados.

Um possível caminho híbrido.

Todas essas equipes estão em posição de cometer muitos erros e há tensões inevitáveis entre os interesses comerciais e as necessidades da comunidade em geral, por isso é importante exercer muita vigilância. Como comunidade, podemos e devemos forçar as zonas de conforto de todos os participantes em relação ao open-sourcing de sua tecnologia, exigir auditorias de terceiros e até mesmo software escrito por terceiros, além de outras verificações e equilíbrios. Também precisamos de mais alternativas em cada uma das três categorias.

Ao mesmo tempo, é importante reconhecer o trabalho já realizado: muitas das equipes que administram esses sistemas demonstraram disposição para levar a privacidade muito mais a sério do que praticamente qualquer sistema de identidade administrado pelo governo ou por grandes empresas, e esse é um sucesso que deve ser aproveitado.

O problema de criar um sistema de prova de personalidade que seja eficaz e confiável, especialmente nas mãos de pessoas distantes da comunidade de criptografia existente, parece bastante desafiador. Definitivamente, não invejo as pessoas que estão tentando realizar essa tarefa, e provavelmente levará anos para encontrar uma fórmula que funcione. O conceito de prova de identidade, em princípio, parece muito valioso e, embora as várias implementações tenham seus riscos, não ter nenhuma prova de identidade também tem seus riscos: um mundo sem prova de identidade parece mais provável de ser um mundo dominado por soluções de identidade centralizadas, dinheiro, pequenas comunidades fechadas ou alguma combinação dos três. Estou ansioso para ver mais progresso em todos os tipos de prova de pessoalidade e, com sorte, ver as diferentes abordagens se unirem em um todo coerente.

Isenção de responsabilidade:

  1. Este artigo foi reimpresso de[vitalik], Todos os direitos autorais pertencem ao autor original[vitalik]. Se houver alguma objeção a essa reimpressão, entre em contato com a equipe do Gate Learn, que tratará do assunto imediatamente.
  2. Isenção de responsabilidade: Os pontos de vista e opiniões expressos neste artigo são de responsabilidade exclusiva do autor e não constituem consultoria de investimento.
  3. As traduções do artigo para outros idiomas são feitas pela equipe do Gate Learn. A menos que mencionado, é proibido copiar, distribuir ou plagiar os artigos traduzidos.

O que eu acho da prova biométrica de personalidade?

intermediário2/26/2024, 8:33:18 AM
O artigo fornece uma explicação detalhada sobre a importância, o funcionamento, a operação da Orb, os principais problemas, as preocupações com a centralização e como as soluções de verificação de identidade biométrica abordam as preocupações com a privacidade após o lançamento da Worldcoin por Vitalik.

Agradecimentos especiais à equipe da Worldcoin, à comunidade Proof of Humanity e a Andrew Miller pela discussão.

Um dos dispositivos mais complicados, mas potencialmente um dos mais valiosos, que as pessoas da comunidade Ethereum vêm tentando criar é uma solução descentralizada de prova de personalidade. A prova de pessoalidade, também conhecida como o "problema do ser humano único", é uma forma limitada de identidade do mundo real que afirma que uma determinada conta registrada é controlada por uma pessoa real (e uma pessoa real diferente de todas as outras contas registradas), idealmente sem revelar qual é a pessoa real.

Houve alguns esforços para resolver esse problema: Proof of Humanity, BrightID, Idena e Circles são alguns exemplos. Alguns deles vêm com seus próprios aplicativos (geralmente um token UBI), e alguns foram usados no Gitcoin Passport para verificar quais contas são válidas para votação quadrática. A tecnologia de conhecimento zero, como a Sismo, acrescenta privacidade a muitas dessas soluções. Mais recentemente, vimos o surgimento de um projeto de prova de personalidade muito maior e mais ambicioso: Worldcoin.

A Worldcoin foi cofundada por Sam Altman, que é mais conhecido por ser o CEO da OpenAI. A filosofia por trás do projeto é simples: A IA vai criar muita abundância e riqueza para a humanidade, mas também pode acabar com o emprego de muitas pessoas e tornar quase impossível saber quem é um humano e não um robô. Por isso, precisamos tapar esse buraco (i) criando um sistema de prova de personalidade realmente bom para que os humanos possam provar que realmente são humanos e (ii) dando a todos uma UBI. A Worldcoin é única, pois se baseia em biometria altamente sofisticada, escaneando a íris de cada usuário por meio de um hardware especializado chamado "the Orb":

O objetivo é produzir um grande número desses Orbs e distribuí-los amplamente em todo o mundo e colocá-los em locais públicos para facilitar a obtenção de uma identificação por qualquer pessoa. Para crédito da Worldcoin, eles também se comprometeram a descentralizar com o tempo. A princípio, isso significa descentralização técnica: ser um L2 na Ethereum usando a pilha Optimism e proteger a privacidade dos usuários com ZK-SNARKs e outras técnicas criptográficas. Posteriormente, inclui a descentralização da governança do próprio sistema.

A Worldcoin tem sido criticada por questões de privacidade e segurança em torno da Orb, por problemas de design em sua "moeda" e por questões éticas relacionadas a algumas escolhas feitas pela empresa. Algumas das críticas são altamente específicas, concentrando-se em decisões tomadas pelo projeto que poderiam facilmente ter sido tomadas de outra forma - e, na verdade, que o próprio projeto Worldcoin pode estar disposto a mudar. Outros, no entanto, levantam a questão mais fundamental de saber se a biometria - não apenas a biometria de varredura ocular da Worldcoin, mas também os jogos mais simples de upload de vídeo facial e verificação usados no Proof of Humanity e no Idena - é uma boa ideia. E outros ainda criticam a prova de pessoalidade em geral. Os riscos incluem vazamentos inevitáveis de privacidade, maior erosão da capacidade das pessoas de navegar anonimamente na Internet, coerção por parte de governos autoritários e a possível impossibilidade de ser seguro e, ao mesmo tempo, descentralizado.

Esta publicação abordará essas questões e apresentará alguns argumentos que podem ajudá-lo a decidir se curvar-se e escanear os olhos (ou o rosto, ou a voz, ou...) diante de nossos novos senhores esféricos é ou não uma boa ideia, e se as alternativas naturais - usar provas de personalidade baseadas em gráficos sociais ou desistir totalmente das provas de personalidade - são ou não melhores.

O que é prova de pessoalidade e por que ela é importante?

A maneira mais simples de definir um sistema de prova de pessoalidade é: ele cria uma lista de chaves públicas em que o sistema garante que cada chave é controlada por um único ser humano. Em outras palavras, se o senhor for um humano, poderá colocar uma chave na lista, mas não poderá colocar duas chaves na lista e, se for um bot, não poderá colocar nenhuma chave na lista.

A prova de personalidade é valiosa porque resolve muitos problemas anti-spam e anti-concentração de poder que muitas pessoas têm, de uma forma que evita a dependência de autoridades centralizadas e revela o mínimo de informações possível. Se a prova de pessoalidade não for resolvida, a governança descentralizada (incluindo a "microgovernança", como votos em publicações de mídia social) se tornará muito mais fácil de ser capturada por atores muito ricos, incluindo governos hostis. Muitos serviços só conseguiriam evitar ataques de negação de serviço estabelecendo um preço para o acesso e, às vezes, um preço alto o suficiente para afastar os invasores também é alto demais para muitos usuários legítimos de baixa renda.

Atualmente, muitos dos principais aplicativos do mundo lidam com esse problema usando sistemas de identidade apoiados pelo governo, como cartões de crédito e passaportes. Isso resolve o problema, mas faz grandes e talvez inaceitáveis sacrifícios à privacidade, e pode ser trivialmente atacado pelos próprios governos.

Quantos proponentes da prova de pessoalidade enxergam o risco bilateral que estamos enfrentando? Fonte da imagem.

Em muitos projetos de prova de personalidade - não apenas no Worldcoin, mas também no Proof of Humanity, Circles e outros - o "aplicativo principal" é um "token N por pessoa" incorporado (às vezes chamado de "token UBI"). Cada usuário registrado no sistema recebe uma quantidade fixa de tokens por dia (ou hora, ou semana). Mas há muitas outras aplicações:

Em muitos desses casos, a linha comum é o desejo de criar mecanismos que sejam abertos e democráticos, evitando tanto o controle centralizado pelos operadores de um projeto quanto a dominação por seus usuários mais ricos. Esse último é especialmente importante na governança descentralizada. Em muitos desses casos, as soluções existentes hoje dependem de alguma combinação de (i) algoritmos de IA altamente opacos que deixam muito espaço para discriminar de forma indetectável os usuários de que as operadoras simplesmente não gostam e (ii) IDs centralizadas, também conhecidas como "KYC". Uma solução eficaz de prova de pessoalidade seria uma alternativa muito melhor, alcançando as propriedades de segurança de que esses aplicativos precisam sem as armadilhas das abordagens centralizadas existentes.

Quais são algumas das primeiras tentativas de comprovação da personalidade?

Há duas formas principais de prova de personalidade: baseada em gráficos sociais e biométrica. A prova de pessoalidade baseada em gráficos sociais depende de alguma forma de atestado: se Alice, Bob, Charlie e David são todos humanos verificados e todos eles dizem que Emily é uma humana verificada, então Emily provavelmente também é uma humana verificada. O atestado é muitas vezes aprimorado com incentivos: se Alice disser que Emily é humana, mas se descobrir que ela não é, Alice e Emily poderão ser penalizadas. A prova biométrica de pessoalidade envolve a verificação de alguma característica física ou comportamental de Emily, que distingue os humanos dos bots (e os humanos individuais uns dos outros). A maioria dos projetos usa uma combinação das duas técnicas.

Os quatro sistemas que mencionei no início da postagem funcionam mais ou menos da seguinte forma:

  • Proof of Humanity: o senhor faz o upload de um vídeo seu e faz um depósito. Para ser aprovado, um usuário existente precisa atestar a sua idoneidade, e um período de tempo precisa passar durante o qual o senhor pode ser contestado. Se houver uma contestação, um tribunal descentralizado do Kleros determina se o vídeo é genuíno ou não; se não for, o senhor perde o depósito e o contestador recebe uma recompensa.
  • BrightID: o senhor participa de uma chamada de vídeo "festa de verificação" com outros usuários, em que todos se verificam mutuamente. Níveis mais altos de verificação estão disponíveis por meio do Bitu, um sistema no qual o usuário pode ser verificado se um número suficiente de outros usuários verificados pelo Bitu atestarem a sua presença.
  • Idena: o senhor joga um jogo de captcha em um momento específico (para evitar que as pessoas participem várias vezes); parte do jogo de captcha envolve a criação e a verificação de captchas que serão usados para verificar outros.
  • Círculos: um usuário existente do Círculos atesta para o senhor. O Circles é único no sentido de que não tenta criar uma "ID globalmente verificável"; em vez disso, cria um gráfico de relações de confiança, em que a confiabilidade de alguém só pode ser verificada a partir da perspectiva de sua própria posição nesse gráfico.

Como funciona a Worldcoin?

Cada usuário da Worldcoin instala um aplicativo em seu telefone, que gera uma chave pública e privada, de forma semelhante a uma carteira Ethereum. Em seguida, eles vão pessoalmente visitar um "Orbe". O usuário olha fixamente para a câmera do Orb e, ao mesmo tempo, mostra ao Orb um código QR gerado pelo aplicativo Worldcoin, que contém sua chave pública. O Orb escaneia os olhos do usuário e usa escaneamento de hardware complicado e classificadores aprendidos por máquina para verificar isso:

  1. O usuário é um ser humano real
  2. A íris do usuário não corresponde à íris de nenhum outro usuário que tenha usado o sistema anteriormente

Se ambas as varreduras forem aprovadas, o Orb assina uma mensagem aprovando um hash especializado da varredura da íris do usuário. O hash é carregado em um banco de dados - atualmente um servidor centralizado, que deverá ser substituído por um sistema descentralizado na cadeia assim que eles tiverem certeza de que o mecanismo de hash funciona. O sistema não armazena varreduras completas da íris; ele armazena apenas hashes, que são usados para verificar a exclusividade. A partir desse momento, o usuário tem um "World ID".

Um portador de World ID pode provar que é um ser humano único gerando um ZK-SNARK que prova que ele possui a chave privada correspondente a uma chave pública no banco de dados, sem revelar qual chave ele possui. Portanto, mesmo que alguém escaneie novamente sua íris, não conseguirá ver nenhuma ação que o senhor tenha realizado.

Quais são os principais problemas com a construção da Worldcoin?

Há quatro riscos principais que vêm imediatamente à mente:

  • Privacidade. O registro de exames de íris pode revelar informações. No mínimo, se outra pessoa escanear sua íris, ela poderá compará-la com o banco de dados para determinar se o senhor tem ou não uma World ID. Potencialmente, os escaneamentos da íris podem revelar mais informações.
  • Acessibilidade. Os World IDs não serão acessíveis de forma confiável, a menos que haja tantos Orbs que qualquer pessoa no mundo possa chegar facilmente a um.
  • Centralização. O Orb é um dispositivo de hardware, e não temos como verificar se ele foi construído corretamente e se não tem backdoors. Portanto, mesmo que a camada de software seja perfeita e totalmente descentralizada, a Worldcoin Foundation ainda tem a capacidade de inserir uma porta dos fundos no sistema, permitindo a criação de um número arbitrário de identidades humanas falsas.
  • Segurança. Os telefones dos usuários podem ser hackeados, os usuários podem ser coagidos a escanear suas íris enquanto mostram uma chave pública que pertence a outra pessoa, e existe a possibilidade de imprimir em 3D "pessoas falsas" que podem passar pelo escaneamento da íris e obter IDs mundiais.

É importante distinguir entre (i) questões específicas das escolhas feitas pela Worldcoin, (ii) questões que qualquer prova biométrica de personalidade inevitavelmente terá e (iii) questões que qualquer prova de personalidade em geral terá. Por exemplo, inscrever-se no Proof of Humanity significa publicar seu rosto na Internet. Participar de um grupo de verificação da BrightID não faz exatamente isso, mas ainda assim expõe quem o senhor é para muitas pessoas. E o fato de participar dos Círculos expõe publicamente seu gráfico social. A Worldcoin é significativamente melhor na preservação da privacidade do que qualquer uma dessas opções. Por outro lado, o Worldcoin depende de hardware especializado, o que abre o desafio de confiar que os fabricantes de orbes foram construídos corretamente - um desafio que não tem paralelo no Proof of Humanity, BrightID ou Circles. É até mesmo concebível que, no futuro, alguém que não seja a Worldcoin crie uma solução de hardware especializado diferente que tenha compensações diferentes.

Como os esquemas biométricos de prova de identidade abordam as questões de privacidade?

O vazamento de privacidade potencial mais óbvio e maior que qualquer sistema de prova de identidade tem é vincular cada ação que uma pessoa realiza a uma identidade do mundo real. Esse vazamento de dados é muito grande, possivelmente inaceitavelmente grande, mas felizmente é fácil de resolver com tecnologia à prova de conhecimento zero. Em vez de fazer diretamente uma assinatura com uma chave privada cuja chave pública correspondente está no banco de dados, um usuário poderia fazer um ZK-SNARK provando que possui a chave privada cuja chave pública correspondente está em algum lugar do banco de dados, sem revelar qual chave específica ele possui. Isso pode ser feito genericamente com ferramentas como o Sismo (veja aqui a implementação específica do Proof of Humanity), e o Worldcoin tem sua própria implementação integrada. É importante dar crédito à prova de pessoalidade "cripto-nativa" aqui: eles realmente se preocupam em dar esse passo básico para fornecer anonimato, enquanto basicamente todas as soluções de identidade centralizadas não o fazem.

Um vazamento de privacidade mais sutil, mas ainda importante, é a mera existência de um registro público de digitalizações biométricas. No caso do Proof of Humanity, são muitos dados: o senhor recebe um vídeo de cada participante do Proof of Humanity, o que deixa bem claro para qualquer pessoa no mundo que queira investigar quem são todos os participantes do Proof of Humanity. No caso da Worldcoin, o vazamento é muito mais limitado: a Orb calcula e publica localmente apenas um "hash" da digitalização da íris de cada pessoa. Esse hash não é um hash comum, como o SHA256; em vez disso, é um algoritmo especializado baseado em filtros Gabor aprendidos por máquina que lida com a inexatidão inerente a qualquer digitalização biométrica e garante que hashes sucessivos obtidos da íris da mesma pessoa tenham resultados semelhantes.

Azul: porcentagem de bits que diferem entre duas digitalizações da íris da mesma pessoa. Laranja: porcentagem de bits que diferem entre duas digitalizações da íris de duas pessoas diferentes.

Esses hashes de íris vazam apenas uma pequena quantidade de dados. Se um adversário puder escanear sua íris à força (ou secretamente), ele mesmo poderá calcular o hash da sua íris e compará-lo com o banco de dados de hashes da íris para verificar se o senhor participou ou não do sistema. Essa capacidade de verificar se alguém se inscreveu ou não é necessária para que o próprio sistema impeça que as pessoas se inscrevam várias vezes, mas sempre há a possibilidade de que, de alguma forma, haja abuso. Além disso, existe a possibilidade de que os hashes da íris vazem uma certa quantidade de dados médicos (sexo, etnia, talvez condições médicas), mas esse vazamento é muito menor do que o que poderia ser capturado por praticamente qualquer outro sistema de coleta de dados em massa em uso atualmente (por exemplo, o sistema de coleta de dados da íris). até mesmo câmeras de rua). De modo geral, para mim, a privacidade do armazenamento de hashes de íris parece suficiente.

Se outras pessoas discordarem desse julgamento e decidirem projetar um sistema com ainda mais privacidade, há duas maneiras de fazer isso:

  1. Se o algoritmo de hashing da íris puder ser aprimorado para que a diferença entre duas varreduras da mesma pessoa seja muito menor (por exemplo, o senhor pode usar o algoritmo de hashing da íris para fazer a diferença entre duas varreduras da mesma pessoa), o algoritmo de hashing da íris pode ser aprimorado para fazer a diferença entre duas varreduras da mesma pessoa. de forma confiável com 10% de inversão de bits), então, em vez de armazenar hashes completos de íris, o sistema pode armazenar um número menor de bits de correção de erros para hashes de íris (consulte: extratores fuzzy). Se a diferença entre duas varreduras for inferior a 10%, então o número de bits que precisa ser publicado será pelo menos cinco vezes menor.
  2. Se quisermos ir além, poderíamos armazenar o banco de dados de hash da íris dentro de um sistema de computação multipartidária (MPC) que só poderia ser acessado por Orbs (com um limite de taxa), tornando os dados totalmente inacessíveis, mas ao custo de uma complexidade significativa de protocolo e complexidade social para governar o conjunto de participantes do MPC. Isso traria a vantagem de os usuários não poderem provar um vínculo entre dois World IDs diferentes que eles tinham em momentos diferentes, mesmo que quisessem.

Infelizmente, essas técnicas não se aplicam ao Proof of Humanity, porque o Proof of Humanity exige que o vídeo completo de cada participante esteja disponível publicamente para que possa ser contestado se houver sinais de que é falso (inclusive falsificações geradas por IA) e, nesses casos, investigado com mais detalhes.

De modo geral, apesar da "vibe distópica" de olhar para um Orb e permitir que ele faça uma varredura profunda em seus olhos, parece que os sistemas de hardware especializados podem fazer um trabalho bastante decente de proteção da privacidade. No entanto, o outro lado disso é que os sistemas de hardware especializados introduzem preocupações de centralização muito maiores. Por isso, nós, cypherpunks, parecemos estar presos em um dilema: temos que trocar um valor cypherpunk profundamente arraigado por outro.

Quais são os problemas de acessibilidade nos sistemas biométricos de comprovação de identidade?

O hardware especializado apresenta problemas de acessibilidade porque, bem, o hardware especializado não é muito acessível. Entre 51% e 64% dos africanos subsaarianos têm smartphones, e a projeção é de que esse número aumente para 87% até 2030. Mas, embora existam bilhões de smartphones, há apenas algumas centenas de Orbs. Mesmo com uma produção distribuída em escala muito maior, seria difícil chegar a um mundo em que houvesse um Orb a menos de cinco quilômetros de todos.

Mas, para crédito da equipe, eles têm se esforçado!

Também vale a pena observar que muitas outras formas de prova de personalidade têm problemas de acessibilidade que são ainda piores. É muito difícil participar de um sistema de prova de personalidade baseado em gráfico social, a menos que o senhor já conheça alguém que esteja no gráfico social. Isso torna muito fácil para esses sistemas permanecerem restritos a uma única comunidade em um único país.

Até mesmo os sistemas de identidade centralizados aprenderam essa lição: o sistema de identificação Aadhaar da Índia é baseado em biometria, pois essa foi a única maneira de integrar rapidamente sua enorme população e, ao mesmo tempo, evitar fraudes em massa de contas duplicadas e falsas (resultando em uma enorme economia de custos), embora, é claro, o sistema Aadhaar como um todo seja muito mais fraco em termos de privacidade do que qualquer coisa que esteja sendo proposta em grande escala na comunidade de criptografia.

Os sistemas com melhor desempenho do ponto de vista da acessibilidade são, na verdade, sistemas como o Proof of Humanity, no qual o senhor pode se inscrever usando apenas um smartphone - embora, como vimos e veremos, esses sistemas tenham todos os tipos de outras compensações.

Quais são os problemas de centralização nos sistemas biométricos de comprovação de identidade?

São três:

  1. Riscos de centralização na governança de nível superior do sistema (especialmente o sistema que toma as resoluções finais de nível superior se diferentes atores do sistema discordarem de julgamentos subjetivos).
  2. Riscos de centralização exclusivos dos sistemas que usam hardware especializado.
  3. Riscos de centralização se algoritmos proprietários forem usados para determinar quem é um participante autêntico.

Qualquer sistema de prova de pessoalidade deve lidar com (1), talvez com exceção dos sistemas em que o conjunto de IDs "aceitos" seja completamente subjetivo. Se um sistema usar incentivos denominados em ativos externos (por exemplo, o ETH, USDC, DAI), ela não pode ser totalmente subjetiva e, portanto, os riscos de governança tornam-se inevitáveis.

[2] é um risco muito maior para a Worldcoin do que para a Proof of Humanity (ou BrightID), porque a Worldcoin depende de hardware especializado e outros sistemas não.

[3] é um risco, especialmente em "<a href="https://medium.com/@VitalikButerin/the-meaning-of-decentralization-a0c92b76a274"> logicamente centralizado" sistemas em que há um único sistema que faz a verificação, a menos que todos os algoritmos sejam de código aberto e tenhamos a garantia de que eles estão realmente executando o código que afirmam estar. Para sistemas que dependem puramente de usuários que verificam outros usuários (como o Proof of Humanity), isso não é um risco.

Como a Worldcoin aborda os problemas de centralização de hardware?

Atualmente, uma entidade afiliada à Worldcoin chamada Tools for Humanity é a única organização que está produzindo Orbs. No entanto, a maior parte do código-fonte do Orb é pública: o senhor pode ver as especificações de hardware neste repositório do github, e espera-se que outras partes do código-fonte sejam publicadas em breve. A licença é mais uma daquelas licenças de "código compartilhado, mas não tecnicamente de código aberto até daqui a quatro anos", semelhante à BSL do Uniswap , exceto que, além de impedir a bifurcação, ela também impede o que eles consideram comportamento antiético - eles listam especificamente a vigilância em massa e três declarações internacionais de direitos civis .

O objetivo declarado da equipe é permitir e incentivar outras organizações a criar Orbs e, com o tempo, fazer a transição de Orbs criados pela Tools for Humanity para algum tipo de DAO que aprove e gerencie quais organizações podem criar Orbs que sejam reconhecidos pelo sistema.

Há duas maneiras pelas quais esse projeto pode falhar:

  1. Ele não consegue descentralizar de fato. Isso pode acontecer devido à armadilha comum dos protocolos federados: um fabricante acaba dominando na prática, fazendo com que o sistema volte a se centralizar. Presumivelmente, a governança poderia limitar a quantidade de Orbs válidos que cada fabricante pode produzir, mas isso precisaria ser administrado com cuidado, o que pressiona muito a governança para que seja descentralizada, monitore o ecossistema e responda às ameaças de forma eficaz: uma tarefa muito mais difícil do que, por exemplo, um DAO bastante estático que apenas lida com tarefas de resolução de disputas de nível superior.
  2. Acontece que não é possível tornar seguro esse mecanismo de fabricação distribuída. Aqui, há dois riscos que vejo:
    • Fragilidade contra fabricantes de Orb mal-intencionados: se um único fabricante de Orb for mal-intencionado ou hackeado, ele poderá gerar um número ilimitado de hashes de escaneamento de íris falsos e fornecer a eles IDs mundiais.
    • Restrição governamental de Orbs: os governos que não querem que seus cidadãos participem do ecossistema da Worldcoin podem proibir a entrada de Orbs em seu país. Além disso, eles poderiam até mesmo forçar seus cidadãos a escanear suas íris, permitindo que o governo obtivesse suas contas, e os cidadãos não teriam como reagir.

Para tornar o sistema mais robusto contra fabricantes de Orb ruins, a equipe da Worldcoin está propondo a realização de auditorias regulares nos Orbs, verificando se eles foram construídos corretamente e se os principais componentes de hardware foram construídos de acordo com as especificações e não foram adulterados após o fato. Essa é uma tarefa desafiadora: é basicamente algo como a burocracia das inspeções nucleares da AIEA, mas para Orbs. A esperança é que mesmo uma implementação muito imperfeita de um regime de auditoria possa reduzir bastante o número de Orbs falsos.

Para limitar os danos causados por qualquer Orbe ruim que passe despercebido, faz sentido ter uma segunda mitigação. As World IDs registradas com diferentes fabricantes de Orb e, idealmente, com diferentes Orbs, devem ser distinguíveis umas das outras. Não há problema se essas informações forem privadas e armazenadas apenas no dispositivo do titular do World ID, mas elas precisam ser comprovadas quando solicitadas. Isso permite que o ecossistema responda a ataques (inevitáveis) removendo fabricantes de Orb individuais, e talvez até mesmo Orbs individuais, da lista de permissões sob demanda. Se o governo da Coreia do Norte forçar as pessoas a escanearem seus globos oculares, esses Orbs e todas as contas produzidas por eles poderão ser imediatamente desativados de forma retroativa.

Questões de segurança na prova de personalidade em geral

Além dos problemas específicos da Worldcoin, há preocupações que afetam os projetos de prova de personalidade em geral. Os principais que me ocorrem são:

  1. Pessoas falsas impressas em 3D: pode-se usar a IA para gerar fotografias ou até mesmo impressões em 3D de pessoas falsas que sejam convincentes o suficiente para serem aceitas pelo software Orb. Se apenas um grupo fizer isso, ele poderá gerar um número ilimitado de identidades.
  2. Possibilidade de venda de IDs: alguém pode fornecer a chave pública de outra pessoa em vez da sua própria ao se registrar, dando a essa pessoa o controle de sua ID registrada, em troca de dinheiro. Parece que isso já está acontecendo. Além da venda, há também a possibilidade de alugar IDs para uso por um curto período de tempo em um aplicativo.
  3. Hacking de telefone: se o telefone de uma pessoa for hackeado, o hacker poderá roubar a chave que controla seu World ID.
  4. Coerção governamental para roubar IDs: um governo poderia forçar seus cidadãos a serem verificados enquanto mostram um código QR pertencente ao governo. Dessa forma, um governo mal-intencionado poderia obter acesso a milhões de IDs. Em um sistema biométrico, isso poderia até mesmo ser feito secretamente: os governos poderiam usar Orbs ofuscados para extrair IDs mundiais de todos que entram em seu país na cabine de controle de passaportes.

[1] é específico para sistemas biométricos de prova de identidade. [2] e [3] são comuns a projetos biométricos e não biométricos. [4] também é comum a ambos, embora as técnicas necessárias sejam bem diferentes nos dois casos; nesta seção, vou me concentrar nos problemas do caso biométrico.

Esses são pontos fracos bastante sérios. Alguns já foram abordados nos protocolos existentes, outros podem ser abordados com melhorias futuras e outros ainda parecem ser limitações fundamentais.

Como podemos lidar com pessoas falsas?

Esse risco é significativamente menor para a Worldcoin do que para sistemas do tipo Proof of Humanity: uma varredura pessoal pode examinar muitas características de uma pessoa e é bastante difícil de falsificar, em comparação com a simples falsificação de um vídeo. O hardware especializado é inerentemente mais difícil de enganar do que o hardware comum, que, por sua vez, é mais difícil de enganar do que os algoritmos digitais que verificam fotos e vídeos enviados remotamente.

Será que alguém poderia imprimir em 3D algo capaz de enganar até mesmo o hardware especializado? Provavelmente. Espero que em algum momento vejamos tensões crescentes entre o objetivo de manter o mecanismo aberto e mantê-lo seguro: algoritmos de IA de código aberto são inerentemente mais vulneráveis ao aprendizado de máquina adversário. Os algoritmos de caixa preta são mais protegidos, mas é difícil dizer que um algoritmo de caixa preta não foi treinado para incluir backdoors. Talvez as tecnologias ZK-ML possam nos oferecer o melhor dos dois mundos. No entanto, em algum momento em um futuro ainda mais distante, é provável que até mesmo os melhores algoritmos de IA sejam enganados pelas melhores pessoas falsas impressas em 3D.

No entanto, com base em minhas conversas com as equipes da Worldcoin e da Proof of Humanity, parece que, no momento, nenhum dos dois protocolos está sofrendo ataques significativos de deep fake, pelo simples motivo de que contratar trabalhadores reais de baixos salários para se inscreverem em seu nome é bastante barato e fácil.

Podemos impedir a venda de IDs?

No curto prazo, é difícil evitar esse tipo de terceirização, porque a maioria das pessoas no mundo nem sequer conhece os protocolos de prova de identidade e, se o senhor disser para elas segurarem um código QR e escanearem seus olhos em busca de US$ 30, elas farão isso. Quando mais pessoas estiverem cientes do que são os protocolos de prova de identidade, uma mitigação bastante simples se tornará possível: permitir que as pessoas que têm uma identidade registrada se registrem novamente, cancelando a identidade anterior. Isso torna a "venda de ID" muito menos crível, porque alguém que vende a ID para o senhor pode simplesmente se registrar novamente, cancelando a ID que acabou de vender. No entanto, para chegar a esse ponto, é necessário que o protocolo seja amplamente conhecido e que os Orbs sejam amplamente acessíveis para tornar prático o registro sob demanda.

Esse é um dos motivos pelos quais ter uma moeda UBI integrada a um sistema de prova de personalidade é valioso: uma moeda UBI oferece um incentivo facilmente compreensível para que as pessoas (i) conheçam o protocolo e se inscrevam, e (ii) se inscrevam novamente de imediato caso se inscrevam em nome de outra pessoa. O recadastramento também evita a invasão de telefones.

Podemos evitar a coerção em sistemas biométricos de comprovação de identidade?

Isso depende do tipo de coerção de que estamos falando. As possíveis formas de coerção incluem:

  • Os governos escaneiam os olhos (ou rostos, ou...) das pessoas no controle de fronteiras e em outros pontos de verificação governamentais de rotina, e usam isso para registrar (e frequentemente recadastrar) seus cidadãos
  • Governos que proíbem Orbs dentro do país para evitar que as pessoas se registrem novamente de forma independente
  • Indivíduos que compram identidades e depois ameaçam prejudicar o vendedor se detectarem que a identidade foi invalidada devido a um novo registro
  • Aplicativos (possivelmente administrados pelo governo) que exigem que as pessoas "entrem" assinando diretamente com sua chave pública, permitindo que elas vejam a digitalização biométrica correspondente e, portanto, o vínculo entre a ID atual do usuário e todas as IDs futuras que ele obtiver ao se registrar novamente. Um receio comum é que isso facilite demais a criação de "registros permanentes" que permaneçam com uma pessoa por toda a vida.

Todo o seu UBI e poder de voto pertencem a nós. Fonte da imagem.

Especialmente nas mãos de usuários não sofisticados, parece bastante difícil evitar essas situações. Os usuários podem sair de seu país para se (re)registrar em uma Orb em um país mais seguro, mas esse é um processo difícil e de alto custo. Em um ambiente jurídico realmente hostil, procurar uma Orb independente parece muito difícil e arriscado.

O que é viável é tornar esse tipo de abuso mais incômodo de implementar e detectável. A abordagem Proof of Humanity, que exige que uma pessoa fale uma frase específica ao se registrar, é um bom exemplo: pode ser suficiente para impedir o rastreamento oculto, exigindo que a coerção seja muito mais evidente, e a frase de registro pode até incluir uma declaração confirmando que o entrevistado sabe que tem o direito de se registrar novamente de forma independente e pode receber moedas UBI ou outras recompensas. Se a coerção for detectada, os dispositivos usados para realizar registros coercitivos em massa poderão ter seus direitos de acesso revogados. Para evitar que os aplicativos vinculem as IDs atuais e anteriores das pessoas e tentem deixar "registros permanentes", o aplicativo padrão de comprovação de identidade poderia bloquear a chave do usuário em um hardware confiável, impedindo que qualquer aplicativo use a chave diretamente sem a camada de anonimização ZK-SNARK no meio. Se um governo ou desenvolvedor de aplicativos quiser contornar isso, precisará exigir o uso de seu próprio aplicativo personalizado.

Com uma combinação dessas técnicas e vigilância ativa, parece possível bloquear os regimes que são realmente hostis e manter honestos os regimes que são apenas medianamente ruins (como grande parte do mundo é). Isso pode ser feito por um projeto como o Worldcoin ou o Proof of Humanity, que mantém sua própria burocracia para essa tarefa, ou revelando mais informações sobre como uma ID foi registrada (por exemplo, no Worldcoin, de qual orbe ela veio) e deixando essa tarefa de classificação para a comunidade.

Podemos impedir o aluguel de IDs (por exemplo, para vender votos)?

O aluguel de sua ID não é impedido pelo recadastramento. Isso é aceitável em algumas aplicações: o custo do aluguel do seu direito de coletar a cota diária da moeda UBI será apenas o valor da cota diária da moeda UBI. Mas em aplicativos como a votação, a venda fácil de votos é um grande problema.

Sistemas como o MACI podem impedir que o usuário venda seu voto com credibilidade, permitindo que ele dê outro voto que invalide o anterior, de forma que ninguém possa saber se o usuário realmente deu esse voto ou não. No entanto, se o subornador controlar a chave que o senhor recebe no momento do registro, isso não ajudará.

Vejo duas soluções aqui:

  1. Executar aplicativos inteiros em um MPC. Isso também abrangeria o processo de recadastramento: quando uma pessoa se cadastra no MPC, o MPC atribui a ela uma ID separada e não vinculada à sua ID de comprovação de identidade, e quando uma pessoa se recadastrar, somente o MPC saberia qual conta desativar. Isso impede que os usuários façam provas sobre suas ações, porque cada etapa importante é realizada dentro de um MPC usando informações privadas que só são conhecidas pelo MPC.
  2. Cerimônias de registro descentralizadas. Basicamente, implemente algo como este protocolo de registro de chaves presencial que exige que quatro participantes locais selecionados aleatoriamente trabalhem juntos para registrar alguém. Isso pode garantir que o registro seja um procedimento "confiável", durante o qual um invasor não pode bisbilhotar.

Os sistemas baseados em gráficos sociais podem, na verdade, ter um desempenho melhor aqui, porque podem criar processos de registro descentralizados locais automaticamente como um subproduto de seu funcionamento.

Como a biometria se compara com o outro candidato principal para comprovação de personalidade, a verificação baseada em gráficos sociais?

Além das abordagens biométricas, o principal outro concorrente para a prova de personalidade até agora tem sido a verificação baseada em gráficos sociais. Todos os sistemas de verificação baseados em gráficos sociais operam com o mesmo princípio: se houver um grande número de identidades verificadas existentes que atestem a validade de sua identidade, então o senhor provavelmente é válido e também deve obter o status de verificado.

Se apenas alguns usuários reais (acidental ou maliciosamente) verificarem usuários falsos, o senhor poderá usar técnicas básicas de teoria de gráficos para estabelecer um limite máximo de quantos usuários falsos são verificados pelo sistema. Fonte: https://www.sciencedirect.com/science/article/abs/pii/S0045790622000611.

Os defensores da verificação baseada em gráficos sociais geralmente a descrevem como uma alternativa melhor à biometria por alguns motivos:

  • Ele não depende de hardware para fins especiais, o que facilita muito a implementação
  • Isso evita uma corrida armamentista permanente entre os fabricantes que tentam criar pessoas falsas e o Orb que precisa ser atualizado para rejeitar essas pessoas falsas
  • Ele não exige a coleta de dados biométricos, o que o torna mais favorável à privacidade
  • É potencialmente mais favorável ao pseudônimo, porque se alguém optar por dividir sua vida na Internet em várias identidades que mantém separadas umas das outras, ambas as identidades poderão ser verificadas (mas manter várias identidades genuínas e separadas sacrifica os efeitos da rede e tem um alto custo, portanto, não é algo que os invasores possam fazer facilmente)
  • As abordagens biométricas fornecem uma pontuação binária de "é um ser humano" ou "não é um ser humano", o que é frágil: as pessoas que são acidentalmente rejeitadas acabariam não tendo nenhum UBI e, potencialmente, nenhuma capacidade de participar da vida on-line. As abordagens baseadas em gráficos sociais podem fornecer uma pontuação numérica com mais nuances, o que pode, é claro, ser moderadamente injusto para alguns participantes, mas é improvável que "destitua" alguém completamente.

Minha perspectiva sobre esses argumentos é que concordo amplamente com eles! Essas são vantagens genuínas das abordagens baseadas em gráficos sociais e devem ser levadas a sério. No entanto, também vale a pena levar em conta os pontos fracos das abordagens baseadas em gráficos sociais:

  • Bootstrapping: para que um usuário entre em um sistema baseado em gráfico social, ele precisa conhecer alguém que já esteja no gráfico. Isso dificulta a adoção em larga escala e corre o risco de excluir regiões inteiras do mundo que não tiveram sorte no processo inicial de bootstrapping.
  • Privacidade: embora as abordagens baseadas em gráficos sociais evitem coletar dados biométricos, elas geralmente acabam vazando informações sobre as relações sociais de uma pessoa, o que pode levar a riscos ainda maiores. É claro que a tecnologia de conhecimento zero pode atenuar esse problema (por exemplo, a tecnologia de conhecimento zero pode ser usada para a criação de um sistema de informação de conhecimento). veja esta proposta de Barry Whitehat), mas a interdependência inerente a um gráfico e a necessidade de realizar análises matemáticas no gráfico dificultam a obtenção do mesmo nível de ocultação de dados que é possível com a biometria.
  • Desigualdade: cada pessoa pode ter apenas uma identificação biométrica, mas uma pessoa rica e socialmente bem relacionada poderia usar suas conexões para gerar muitas identificações. Essencialmente, a mesma flexibilidade que pode permitir que um sistema baseado em gráficos sociais forneça vários pseudônimos a alguém (por exemplo, o um ativista) que realmente precisa desse recurso provavelmente também implicaria que pessoas mais poderosas e bem conectadas podem obter mais pseudônimos do que pessoas menos poderosas e bem conectadas.
  • Risco de colapso na centralização: a maioria das pessoas é preguiçosa demais para perder tempo informando em um aplicativo da Internet quem é uma pessoa real e quem não é. Como resultado, há o risco de que o sistema venha a favorecer, com o tempo, maneiras "fáceis" de ser introduzido que dependam de autoridades centralizadas, e o "gráfico social" que os usuários do sistema de fato se tornarão o gráfico social de quais países reconhecem quais pessoas como cidadãos, o que nos dará um KYC centralizado com etapas extras desnecessárias.

A prova de pessoalidade é compatível com o pseudônimo no mundo real?

Em princípio, a prova de pessoalidade é compatível com todos os tipos de pseudônimos. Os aplicativos podem ser projetados de forma que alguém com uma única ID de prova de identidade possa criar até cinco perfis dentro do aplicativo, deixando espaço para contas pseudônimas. Pode-se até usar fórmulas quadráticas: N representa um custo de $N². Mas será que vão?

Um pessimista, no entanto, poderia argumentar que é ingênuo tentar criar uma forma de identificação mais favorável à privacidade e esperar que ela seja realmente adotada da maneira correta, porque os poderosos não são favoráveis à privacidade e, se um ator poderoso obtiver uma ferramenta que possa ser usada para obter muito mais informações sobre uma pessoa, ele a usará dessa maneira. Em um mundo assim, diz o argumento, a única abordagem realista é, infelizmente, jogar areia na engrenagem de qualquer solução de identidade e defender um mundo com anonimato total e ilhas digitais de comunidades de alta confiança.

Entendo o raciocínio por trás dessa forma de pensar, mas me preocupo com o fato de que essa abordagem, mesmo que bem-sucedida, levaria a um mundo em que ninguém poderia fazer nada para combater a concentração de riqueza e a centralização da governança, porque uma pessoa sempre poderia fingir ser dez mil. Esses pontos de centralização, por sua vez, seriam fáceis de serem capturados pelos poderosos. Em vez disso, eu seria a favor de uma abordagem moderada, em que defendemos vigorosamente que as soluções de prova de personalidade tenham uma privacidade forte e, se desejado, incluam até mesmo um mecanismo de "N contas para $N²" na camada de protocolo e criem algo que tenha valores favoráveis à privacidade e que tenha uma chance de ser aceito pelo mundo externo.

Então... o que eu acho?

Não existe uma forma ideal de prova de personalidade. Em vez disso, temos pelo menos três paradigmas diferentes de abordagens, todos com seus próprios pontos fortes e fracos. Um gráfico de comparação pode ser o seguinte:

O ideal é tratar essas três técnicas como complementares e combinar todas elas. Como o Aadhaar da Índia demonstrou em escala, a biometria de hardware especializado tem seus benefícios de ser segura em escala. Eles são muito fracos em termos de descentralização, embora isso possa ser resolvido com a responsabilização de Orbs individuais. Atualmente, a biometria de uso geral pode ser adotada com muita facilidade, mas sua segurança está diminuindo rapidamente e talvez só funcione por mais um ou dois anos. Os sistemas baseados em gráficos sociais, criados a partir de algumas centenas de pessoas socialmente próximas da equipe fundadora, provavelmente enfrentarão constantes compensações entre perder completamente grandes partes do mundo e ficar vulneráveis a ataques dentro de comunidades das quais não têm visibilidade. No entanto, um sistema baseado em gráficos sociais, com base em dezenas de milhões de portadores de identificação biométrica, poderia realmente funcionar. O bootstrapping biométrico pode funcionar melhor a curto prazo, e as técnicas baseadas em gráficos sociais podem ser mais robustas a longo prazo e assumir uma parcela maior de responsabilidade ao longo do tempo, à medida que seus algoritmos forem aprimorados.

Um possível caminho híbrido.

Todas essas equipes estão em posição de cometer muitos erros e há tensões inevitáveis entre os interesses comerciais e as necessidades da comunidade em geral, por isso é importante exercer muita vigilância. Como comunidade, podemos e devemos forçar as zonas de conforto de todos os participantes em relação ao open-sourcing de sua tecnologia, exigir auditorias de terceiros e até mesmo software escrito por terceiros, além de outras verificações e equilíbrios. Também precisamos de mais alternativas em cada uma das três categorias.

Ao mesmo tempo, é importante reconhecer o trabalho já realizado: muitas das equipes que administram esses sistemas demonstraram disposição para levar a privacidade muito mais a sério do que praticamente qualquer sistema de identidade administrado pelo governo ou por grandes empresas, e esse é um sucesso que deve ser aproveitado.

O problema de criar um sistema de prova de personalidade que seja eficaz e confiável, especialmente nas mãos de pessoas distantes da comunidade de criptografia existente, parece bastante desafiador. Definitivamente, não invejo as pessoas que estão tentando realizar essa tarefa, e provavelmente levará anos para encontrar uma fórmula que funcione. O conceito de prova de identidade, em princípio, parece muito valioso e, embora as várias implementações tenham seus riscos, não ter nenhuma prova de identidade também tem seus riscos: um mundo sem prova de identidade parece mais provável de ser um mundo dominado por soluções de identidade centralizadas, dinheiro, pequenas comunidades fechadas ou alguma combinação dos três. Estou ansioso para ver mais progresso em todos os tipos de prova de pessoalidade e, com sorte, ver as diferentes abordagens se unirem em um todo coerente.

Isenção de responsabilidade:

  1. Este artigo foi reimpresso de[vitalik], Todos os direitos autorais pertencem ao autor original[vitalik]. Se houver alguma objeção a essa reimpressão, entre em contato com a equipe do Gate Learn, que tratará do assunto imediatamente.
  2. Isenção de responsabilidade: Os pontos de vista e opiniões expressos neste artigo são de responsabilidade exclusiva do autor e não constituem consultoria de investimento.
  3. As traduções do artigo para outros idiomas são feitas pela equipe do Gate Learn. A menos que mencionado, é proibido copiar, distribuir ou plagiar os artigos traduzidos.
ابدأ التداول الآن
اشترك وتداول لتحصل على جوائز ذهبية بقيمة
100 دولار أمريكي
و
5500 دولارًا أمريكيًا
لتجربة الإدارة المالية الذهبية!