O que é que eu penso da prova biométrica de identidade?

Intermediário2/26/2024, 8:33:18 AM
O artigo fornece uma explicação pormenorizada sobre a importância, o funcionamento, a operação da Orb, as principais questões, as preocupações com a centralização e a forma como as soluções de verificação da identidade biométrica resolvem as preocupações com a privacidade após o lançamento da Worldcoin por Vitalik.

Agradecimentos especiais à equipa Worldcoin, à comunidade Proof of Humanity e a Andrew Miller pela discussão.

Uma das mais complicadas, mas potencialmente uma das mais valiosas, engenhocas que as pessoas na comunidade Ethereum têm tentado construir é uma solução descentralizada de prova de personalidade. A prova de pessoalidade, também conhecida como o "problema do ser humano único", é uma forma limitada de identidade do mundo real que afirma que uma determinada conta registada é controlada por uma pessoa real (e uma pessoa real diferente de todas as outras contas registadas), idealmente sem revelar qual é a pessoa real.

Têm sido feitos alguns esforços para resolver este problema: Proof of Humanity, BrightID, Idena e Circles são alguns exemplos. Alguns deles vêm com as suas próprias aplicações (muitas vezes um token UBI), e alguns encontraram uso no Gitcoin Passport para verificar que contas são válidas para votação quadrática. A tecnologia de conhecimento zero, como a Sismo, acrescenta privacidade a muitas destas soluções. Mais recentemente, assistimos ao surgimento de um projeto de prova de personalidade muito maior e mais ambicioso: Worldcoin.

A Worldcoin foi co-fundada por Sam Altman, que é mais conhecido por ser o CEO da OpenAI. A filosofia por detrás do projeto é simples: A IA vai criar muita abundância e riqueza para a humanidade, mas também pode acabar com o emprego de muitas pessoas e tornar quase impossível saber quem é um humano e não um robot. Por isso, precisamos de tapar esse buraco: (i) criando um sistema de prova de personalidade muito bom para que os humanos possam provar que são efetivamente humanos e (ii) dando a todos um RBI. A Worldcoin é única na medida em que se baseia em dados biométricos altamente sofisticados, digitalizando a íris de cada utilizador) utilizando uma peça de hardware especializada chamada "the Orb":

O objetivo é produzir um grande número destes Orbs e distribuí-los amplamente por todo o mundo e colocá-los em locais públicos para que seja fácil para qualquer pessoa obter uma identificação. Para crédito da Worldcoin, eles também se comprometeram a descentralizar ao longo do tempo. No início, isto significa descentralização técnica: ser um L2 no Ethereum utilizando a pilha Optimism e protegendo a privacidade dos utilizadores com ZK-SNARKs e outras técnicas criptográficas. Mais tarde, inclui a descentralização da governação do próprio sistema.

A Worldcoin tem sido criticada por questões de privacidade e segurança em torno da Orb, por problemas de conceção da sua "moeda" e por questões éticas relacionadas com algumas escolhas que a empresa fez. Algumas das críticas são muito específicas, centrando-se em decisões tomadas pelo projeto que poderiam facilmente ter sido tomadas de outra forma - e que, na verdade, o próprio projeto Worldcoin poderá estar disposto a alterar. Outros, no entanto, levantam a questão mais fundamental de saber se a biometria - não apenas a biometria de varrimento ocular da Worldcoin, mas também os jogos mais simples de verificação e carregamento de vídeos faciais utilizados em Proof of Humanity e Idena - é ou não uma boa ideia. E outros ainda criticam a prova da personalidade em geral. Os riscos incluem inevitáveis fugas de privacidade, uma maior erosão da capacidade das pessoas navegarem anonimamente na Internet, a coerção por parte de governos autoritários e a potencial impossibilidade de ser seguro e ao mesmo tempo descentralizado.

Este post vai falar sobre estas questões e analisar alguns argumentos que o podem ajudar a decidir se é ou não uma boa ideia curvar-se e escrutinar os seus olhos (ou rosto, ou voz, ou...) perante os nossos novos senhores esféricos, e se as alternativas naturais - utilizar provas de personalidade baseadas em gráficos sociais ou desistir completamente das provas de personalidade - são ou não melhores.

O que é a prova da qualidade de pessoa e porque é que é importante?

A forma mais simples de definir um sistema de prova de identidade é: cria uma lista de chaves públicas em que o sistema garante que cada chave é controlada por um único ser humano. Por outras palavras, se for um humano, pode colocar uma chave na lista, mas não pode colocar duas chaves na lista e, se for um bot, não pode colocar nenhuma chave na lista.

A prova de identidade é valiosa porque resolve muitos dos problemas anti-spam e anti-concentração de poder que muitas pessoas têm, de uma forma que evita a dependência de autoridades centralizadas e revela o mínimo de informação possível. Se a prova de pessoalidade não for resolvida, a governação descentralizada (incluindo a "micro-governação", como as votações em mensagens nas redes sociais) torna-se muito mais fácil de capturar por actores muito ricos, incluindo governos hostis. Muitos serviços só poderiam evitar ataques de negação de serviço se fixassem um preço para o acesso e, por vezes, um preço suficientemente elevado para afastar os atacantes é também demasiado elevado para muitos utilizadores legítimos com rendimentos mais baixos.

Atualmente, muitas das principais aplicações no mundo lidam com esta questão utilizando sistemas de identidade apoiados pelo governo, como cartões de crédito e passaportes. Isto resolve o problema, mas faz grandes e talvez inaceitáveis sacrifícios à privacidade, e pode ser trivialmente atacado pelos próprios governos.

Quantos proponentes da prova de personalidade vêem o risco de duas faces que estamos a enfrentar? Fonte da imagem.

Em muitos projectos de prova de identidade - não apenas na Worldcoin, mas também na Proof of Humanity, Circles e outros - a "aplicação principal" é um "token N por pessoa" integrado (por vezes designado por "token UBI"). Cada utilizador registado no sistema recebe uma quantidade fixa de fichas por dia (ou hora, ou semana). Mas existem muitas outras aplicações:

Em muitos destes casos, o fio condutor é o desejo de criar mecanismos abertos e democráticos, evitando tanto o controlo centralizado pelos operadores de um projeto como o domínio dos seus utilizadores mais ricos. Esta última é especialmente importante na governação descentralizada. Em muitos destes casos, as soluções existentes atualmente baseiam-se numa combinação de (i) algoritmos de IA altamente opacos que deixam muita margem para discriminar indetectavelmente os utilizadores de que os operadores simplesmente não gostam, e (ii) IDs centralizados, também conhecidos como "KYC". Uma solução eficaz de prova de identidade seria uma alternativa muito melhor, alcançando as propriedades de segurança de que essas aplicações necessitam sem as armadilhas das abordagens centralizadas existentes.

Quais são as primeiras tentativas de prova da personalidade?

Existem duas formas principais de prova de identidade: a biométrica e a baseada em gráficos sociais. A prova de identidade baseada em grafos sociais assenta numa forma de atestado: se a Alice, o Bob, o Charlie e o David são todos humanos verificados e todos eles dizem que a Emily é um humano verificado, então a Emily é provavelmente também um humano verificado. O atestado é muitas vezes reforçado com incentivos: se Alice disser que Emily é um humano, mas se se verificar que não é, então Alice e Emily podem ser penalizadas. A prova biométrica da personalidade envolve a verificação de um traço físico ou comportamental de Emily, que distingue os humanos dos bots (e os humanos individuais uns dos outros). A maioria dos projectos utiliza uma combinação das duas técnicas.

Os quatro sistemas que mencionei no início do post funcionam mais ou menos da seguinte forma:

  • Prova de Humanidade: carregue um vídeo seu e forneça um depósito. Para ser aprovado, um utilizador existente tem de dar o seu aval e tem de passar um período de tempo durante o qual pode ser contestado. Se houver uma contestação, um tribunal descentralizado do Kleros determina se o seu vídeo é genuíno ou não; se não for, perde o seu depósito e o contestatário recebe uma recompensa.
  • BrightID: junte-se a uma videochamada "festa de verificação" com outros utilizadores, onde todos se verificam mutuamente. Estão disponíveis níveis mais elevados de verificação através do Bitu, um sistema no qual pode ser verificado se um número suficiente de outros utilizadores verificados pelo Bitu o confirmarem.
  • Idena: joga um jogo de captcha num momento específico (para evitar que as pessoas participem várias vezes); parte do jogo de captcha envolve a criação e verificação de captchas que serão depois utilizados para verificar outros.
  • Círculos: um utilizador existente dos Círculos avaliza-o a si. O Circles é único na medida em que não tenta criar um "ID globalmente verificável"; em vez disso, cria um gráfico de relações de confiança, em que a fiabilidade de alguém só pode ser verificada a partir da perspetiva da sua própria posição nesse gráfico.

Como é que a Worldcoin funciona?

Cada utilizador da Worldcoin instala uma aplicação no seu telemóvel, que gera uma chave privada e pública, tal como uma carteira Ethereum. Em seguida, vai pessoalmente visitar um "Orbe". O utilizador olha para a câmara do Orb e, ao mesmo tempo, mostra ao Orb um código QR gerado pela sua aplicação Worldcoin, que contém a sua chave pública. O Orb examina os olhos do utilizador e utiliza um complicado scanner de hardware e classificadores aprendidos por máquina para o verificar:

  1. O utilizador é um ser humano real
  2. A íris do utilizador não coincide com a íris de qualquer outro utilizador que tenha utilizado anteriormente o sistema

Se ambas as digitalizações passarem, o Orb assina uma mensagem que aprova um hash especializado da digitalização da íris do utilizador. O hash é carregado para uma base de dados - atualmente um servidor centralizado, que se pretende substituir por um sistema descentralizado na cadeia assim que se tiver a certeza de que o mecanismo de hashing funciona. O sistema não armazena digitalizações completas da íris; armazena apenas hashes e estes hashes são utilizados para verificar a exclusividade. A partir desse momento, o utilizador tem um "World ID".

O titular de um World ID pode provar que é um ser humano único, gerando um ZK-SNARK que prova que possui a chave privada correspondente a uma chave pública na base de dados, sem revelar qual a chave que possui. Assim, mesmo que alguém volte a analisar a sua íris, não conseguirá ver quaisquer acções que tenha efectuado.

Quais são os principais problemas com a construção da Worldcoin?

Há quatro grandes riscos que nos vêm imediatamente à cabeça:

  • Privacidade. O registo dos scans da íris pode revelar informações. No mínimo, se outra pessoa digitalizar a sua íris, pode compará-la com a base de dados para determinar se tem ou não uma identificação mundial. Potencialmente, os scans da íris podem revelar mais informações.
  • Acessibilidade. Os World IDs não vão ser acessíveis de forma fiável a não ser que haja tantos Orbs que qualquer pessoa no mundo possa chegar facilmente a um.
  • Centralização. O Orb é um dispositivo de hardware e não temos forma de verificar se foi construído corretamente e se não tem backdoors. Assim, mesmo que a camada de software seja perfeita e totalmente descentralizada, a Worldcoin Foundation ainda tem a capacidade de inserir uma backdoor no sistema, permitindo-lhe criar arbitrariamente muitas identidades humanas falsas.
  • Segurança. Os telemóveis dos utilizadores podem ser pirateados, os utilizadores podem ser coagidos a digitalizar as suas íris enquanto mostram uma chave pública que pertence a outra pessoa, e existe a possibilidade de imprimir em 3D "pessoas falsas" que podem passar a digitalização da íris e obter identificações mundiais.

É importante distinguir entre (i) questões específicas das escolhas feitas pela Worldcoin, (ii) questões que qualquer prova biométrica de identidade terá inevitavelmente, e (iii) questões que qualquer prova de identidade em geral terá. Por exemplo, inscrever-se na Proof of Humanity significa publicar o seu rosto na Internet. Aderir a um grupo de verificação da BrightID não faz exatamente isso, mas expõe a sua identidade a muitas pessoas. E a adesão aos Círculos expõe publicamente o seu gráfico social. A Worldcoin é significativamente melhor em termos de preservação da privacidade do que qualquer uma dessas opções. Por outro lado, a Worldcoin depende de hardware especializado, o que abre o desafio de confiar que os fabricantes de orbes construíram os orbes corretamente - um desafio que não tem paralelo na Proof of Humanity, BrightID ou Circles. É até concebível que, no futuro, alguém que não seja a Worldcoin crie uma solução diferente de hardware especializado que tenha diferentes compensações.

Como é que os sistemas biométricos de prova de identidade abordam as questões de privacidade?

A mais óbvia e maior fuga de privacidade potencial que qualquer sistema de prova de identidade tem é a ligação de cada ação que uma pessoa realiza a uma identidade do mundo real. Esta fuga de dados é muito grande, sem dúvida inaceitavelmente grande, mas felizmente é fácil de resolver com tecnologia à prova de conhecimento zero. Em vez de fazer diretamente uma assinatura com uma chave privada cuja chave pública correspondente se encontra na base de dados, um utilizador poderia fazer um ZK-SNARK provando que possui a chave privada cuja chave pública correspondente se encontra algures na base de dados, sem revelar qual a chave específica que possui. Isso pode ser feito genericamente com ferramentas como o Sismo (veja aqui a implementação específica do Proof of Humanity), e o Worldcoin tem sua própria implementação embutida. É importante dar crédito à prova de personalidade "cripto-nativa" aqui: eles realmente se preocupam em dar este passo básico para fornecer anonimato, enquanto basicamente todas as soluções de identidade centralizadas não o fazem.

Uma fuga de privacidade mais subtil, mas ainda assim importante, é a mera existência de um registo público de digitalizações biométricas. No caso da Prova de Humanidade, trata-se de muitos dados: obtém um vídeo de cada participante da Prova de Humanidade, tornando muito claro para qualquer pessoa no mundo que queira investigar quem são todos os participantes da Prova de Humanidade. No caso da Worldcoin, a fuga é muito mais limitada: a Orb calcula e publica localmente apenas um "hash" do scan da íris de cada pessoa. Este hash não é um hash normal como o SHA256; é antes um algoritmo especializado baseado em filtros Gabor aprendidos por máquina que lida com a inexatidão inerente a qualquer digitalização biométrica e garante que hashes sucessivos obtidos da íris da mesma pessoa têm resultados semelhantes.

Azul: percentagem de bits que diferem entre duas digitalizações da íris da mesma pessoa. Laranja: percentagem de bits que diferem entre duas digitalizações da íris de duas pessoas diferentes.

Estes hashes de íris deixam escapar apenas uma pequena quantidade de dados. Se um adversário conseguir fazer uma leitura forçada (ou secreta) da sua íris, pode calcular ele próprio o hash da sua íris e compará-lo com a base de dados de hashes da íris para ver se participou ou não no sistema. Esta capacidade de verificar se alguém se inscreveu ou não é necessária para que o próprio sistema evite que as pessoas se inscrevam várias vezes, mas há sempre a possibilidade de ser abusada. Além disso, existe a possibilidade de os hashes da íris deixarem escapar alguma quantidade de dados médicos (sexo, etnia, talvez condições médicas), mas essa fuga é muito menor do que a que poderia ser capturada por praticamente qualquer outro sistema de recolha de dados em massa atualmente em uso (por exemplo. até câmaras de rua). De um modo geral, a privacidade do armazenamento de hashes da íris parece-me suficiente.

Se outros não concordarem com este julgamento e decidirem que querem conceber um sistema com ainda mais privacidade, há duas formas de o fazer:

  1. Se o algoritmo de hashing da íris puder ser melhorado de modo a que a diferença entre duas digitalizações da mesma pessoa seja muito menor (por exemplo, a diferença entre duas digitalizações da mesma pessoa), pode ser melhorado. de forma fiável com 10% de inversões de bits), então, em vez de armazenar hashes de íris completos, o sistema pode armazenar um número menor de bits de correção de erros para hashes de íris (ver: extractores difusos). Se a diferença entre duas digitalizações for inferior a 10%, então o número de bits que precisa de ser publicado será, pelo menos, 5x inferior.
  2. Se quisermos ir mais longe, podemos armazenar a base de dados de hash da íris num sistema de computação multipartidária (MPC) que só pode ser acedido por Orbs (com um limite de velocidade), tornando os dados totalmente inacessíveis, mas à custa de uma complexidade de protocolo significativa e de uma complexidade social na gestão do conjunto de participantes no MPC. Isto teria a vantagem de os utilizadores não poderem provar uma ligação entre dois World IDs diferentes que tivessem em alturas diferentes, mesmo que o quisessem fazer.

Infelizmente, estas técnicas não se aplicam à Prova de Humanidade, porque a Prova de Humanidade exige que o vídeo completo de cada participante esteja disponível ao público para que possa ser contestado se houver indícios de que é falso (incluindo falsificações geradas por IA) e, nesses casos, investigado com mais pormenor.

De um modo geral, apesar da "vibração distópica" de olhar para um Orb e deixar que ele analise profundamente os seus globos oculares, parece que os sistemas de hardware especializados podem fazer um trabalho bastante decente na proteção da privacidade. No entanto, o outro lado desta situação é que os sistemas de hardware especializados introduzem preocupações de centralização muito maiores. Por isso, nós, cypherpunks, parecemos estar presos num dilema: temos de trocar um valor cypherpunk profundamente enraizado por outro.

Quais são as questões de acessibilidade nos sistemas biométricos de prova de identidade?

O hardware especializado apresenta problemas de acessibilidade porque, bem, o hardware especializado não é muito acessível. Atualmente, entre 51% e 64% dos africanos subsarianos têm smartphones, e prevê-se que este número aumente para 87% até 2030. Mas embora existam biliões de smartphones, existem apenas algumas centenas de Orbs. Mesmo com uma produção distribuída a uma escala muito mais elevada, seria difícil chegar a um mundo em que houvesse um Orb a menos de cinco quilómetros de toda a gente.

Mas, para crédito da equipa, eles têm tentado!

É também de salientar que muitas outras formas de prova da personalidade têm problemas de acessibilidade que são ainda piores. É muito difícil aderir a um sistema de prova de identidade baseado no grafo social, a menos que já conheça alguém que esteja no grafo social. Isto faz com que seja muito fácil para estes sistemas permanecerem restritos a uma única comunidade num único país.

Até os sistemas de identidade centralizados aprenderam esta lição: o sistema de identificação Aadhaar da Índia baseia-se na biometria, pois era a única forma de integrar rapidamente a sua população maciça, evitando ao mesmo tempo fraudes maciças de contas duplicadas e falsas (resultando em enormes poupanças de custos), embora, claro, o sistema Aadhaar como um todo seja muito mais fraco em termos de privacidade do que qualquer coisa que esteja a ser proposta em grande escala na comunidade cripto.

Os sistemas com melhor desempenho do ponto de vista da acessibilidade são, na verdade, sistemas como o Proof of Humanity, em que pode inscrever-se utilizando apenas um smartphone - embora, como vimos e veremos, esses sistemas tenham todo o tipo de outras desvantagens.

Quais são os problemas de centralização nos sistemas biométricos de prova de identidade?

Existem três:

  1. Riscos de centralização na governação de alto nível do sistema (esp. o sistema que toma as resoluções finais de nível superior se os diferentes intervenientes no sistema discordarem de juízos subjectivos).
  2. Os riscos de centralização são exclusivos dos sistemas que utilizam hardware especializado.
  3. Riscos de centralização se forem utilizados algoritmos proprietários para determinar quem é um participante autêntico.

Qualquer sistema de prova de personalidade tem de lidar com (1), talvez com exceção dos sistemas em que o conjunto de IDs "aceites" é completamente subjetivo. Se um sistema utiliza incentivos denominados em activos externos (por exemplo. ETH, USDC, DAI), então não pode ser totalmente subjetivo, pelo que os riscos de governação se tornam inevitáveis.

[2] é um risco muito maior para a Worldcoin do que para a Proof of Humanity (ou BrightID), porque a Worldcoin depende de hardware especializado e os outros sistemas não.

[3] é um risco, especialmente em "<a href="https://medium.com/@VitalikButerin/the-meaning-of-decentralization-a0c92b76a274"> logicamente centralizado" sistemas em que há um único sistema a fazer a verificação, a menos que todos os algoritmos sejam de código aberto e tenhamos a garantia de que estão efetivamente a executar o código que afirmam estar. Para os sistemas que se baseiam apenas na verificação de outros utilizadores por parte dos utilizadores (como o Proof of Humanity), não existe qualquer risco.

Como é que a Worldcoin aborda os problemas de centralização de hardware?

Atualmente, uma entidade afiliada à Worldcoin chamada Tools for Humanity é a única organização que está a produzir Orbs. No entanto, o código-fonte do Orb é maioritariamente público: pode ver as especificações do hardware neste repositório do github, e espera-se que outras partes do código-fonte sejam publicadas em breve. A licença é mais uma daquelas licenças de "código partilhado mas não tecnicamente aberto até daqui a quatro anos", semelhante à BSL do Uniswap , exceto que, para além de impedir o forking, também impede o que eles consideram comportamento pouco ético - listam especificamente a vigilância em massa e três declarações internacionais de direitos civis .

O objetivo declarado da equipa é permitir e encorajar outras organizações a criar Orbs e, ao longo do tempo, fazer a transição dos Orbs criados pela Tools for Humanity para uma espécie de DAO que aprova e gere as organizações que podem criar Orbs que são reconhecidas pelo sistema.

Esta conceção pode falhar de duas formas:

  1. Não consegue descentralizar de facto. Isto pode acontecer devido à armadilha comum dos protocolos federados: um fabricante acaba por dominar na prática, fazendo com que o sistema volte a centralizar-se. Presumivelmente, a governação poderia limitar o número de Orbs válidos que cada fabricante pode produzir, mas isto teria de ser gerido cuidadosamente, e coloca muita pressão sobre a governação para ser descentralizada e monitorizar o ecossistema e responder a ameaças de forma eficaz: uma tarefa muito mais difícil do que, por exemplo, uma DAO bastante estática que apenas lida com tarefas de resolução de disputas de nível superior.
  2. Acontece que não é possível tornar seguro um mecanismo de fabrico distribuído deste tipo. Neste caso, há dois riscos que eu vejo:
    • Fragilidade face a maus fabricantes de Orb: se um único fabricante de Orb for malicioso ou pirateado, pode gerar um número ilimitado de hashes de digitalização da íris falsos e atribuir-lhes World IDs.
    • Restrição governamental de Orbs: os governos que não querem que os seus cidadãos participem no ecossistema da Worldcoin podem proibir a entrada de Orbs no seu país. Além disso, poderiam até obrigar os seus cidadãos a fazer um scanner das suas íris, permitindo que o governo obtivesse as suas contas, e os cidadãos não teriam forma de reagir.

Para tornar o sistema mais robusto contra os maus fabricantes de Orbs, a equipa da Worldcoin propõe a realização de auditorias regulares às Orbs, verificando se foram construídas corretamente e se os principais componentes de hardware foram construídos de acordo com as especificações e não foram adulterados posteriormente. Trata-se de uma tarefa difícil: é basicamente algo como a burocracia das inspecções nucleares da AIEA, mas para Orbs. A esperança é que mesmo uma implementação muito imperfeita de um regime de auditoria possa reduzir grandemente o número de Orbs falsos.

Para limitar os danos causados por qualquer mau orbe que se escape, faz sentido ter uma segunda atenuação. Os World IDs registados em diferentes fabricantes de Orbs e, idealmente, em diferentes Orbs, devem ser distinguíveis uns dos outros. Não há problema se estas informações forem privadas e apenas armazenadas no dispositivo do titular da World ID, mas têm de ser comprováveis a pedido. Isto permite que o ecossistema responda a ataques (inevitáveis) removendo fabricantes de Orb individuais, e talvez até Orbs individuais, da lista branca a pedido. Se o governo da Coreia do Norte obrigar as pessoas a fazer um scan aos seus globos oculares, esses Orbs e quaisquer contas produzidas por eles podem ser imediatamente desactivados com efeitos retroactivos.

Questões de segurança na prova da personalidade em geral

Para além das questões específicas da Worldcoin, existem preocupações que afectam os projectos de prova de identidade em geral. As principais que me ocorrem são:

  1. Pessoas falsas impressas em 3D: a IA pode ser utilizada para gerar fotografias ou mesmo impressões em 3D de pessoas falsas que sejam suficientemente convincentes para serem aceites pelo software Orb. Se um só grupo fizer isto, pode gerar um número ilimitado de identidades.
  2. Possibilidade de vender IDs: alguém pode fornecer a chave pública de outra pessoa em vez da sua própria ao registar-se, dando a essa pessoa o controlo do seu ID registado, em troca de dinheiro. Parece que isso já está a acontecer. Para além da venda, existe também a possibilidade de alugar IDs para utilizar durante um curto período de tempo numa aplicação.
  3. Pirataria telefónica: se o telemóvel de uma pessoa for pirateado, o pirata pode roubar a chave que controla o seu World ID.
  4. Coação governamental para roubar IDs: um governo poderia forçar os seus cidadãos a serem verificados enquanto mostram um código QR pertencente ao governo. Desta forma, um governo malicioso poderia ter acesso a milhões de IDs. Num sistema biométrico, isto poderia até ser feito de forma dissimulada: os governos poderiam usar Orbs ofuscados para extrair World IDs de todos os que entram no seu país na cabine de controlo de passaportes.

[1] é específico para sistemas biométricos de prova de identidade. [2] e [3] são comuns aos desenhos biométricos e não biométricos. [4] também é comum a ambos, embora as técnicas necessárias sejam bastante diferentes em ambos os casos; nesta secção, centrar-me-ei nos problemas do caso biométrico.

Estas são fraquezas muito graves. Alguns já foram abordados nos protocolos existentes, outros podem ser abordados com melhorias futuras e outros ainda parecem ser limitações fundamentais.

Como é que podemos lidar com pessoas falsas?

Este risco é significativamente menor para a Worldcoin do que para os sistemas do tipo Prova de Humanidade: um scan em pessoa pode examinar muitas características de uma pessoa e é bastante difícil de falsificar, em comparação com a mera falsificação de um vídeo. O hardware especializado é inerentemente mais difícil de enganar do que o hardware comum, que por sua vez é mais difícil de enganar do que os algoritmos digitais que verificam imagens e vídeos enviados remotamente.

Será que alguém pode imprimir em 3D algo que possa enganar até o hardware especializado? Provavelmente. Espero que, a dada altura, assistamos a tensões crescentes entre o objetivo de manter o mecanismo aberto e de o manter seguro: os algoritmos de IA de código aberto são inerentemente mais vulneráveis à aprendizagem automática adversária. Os algoritmos de caixa negra são mais protegidos, mas é difícil dizer que um algoritmo de caixa negra não foi treinado para incluir backdoors. Talvez as tecnologias ZK-ML nos possam dar o melhor dos dois mundos. No entanto, num futuro ainda mais longínquo, é provável que até os melhores algoritmos de IA sejam enganados pelas melhores pessoas falsas impressas em 3D.

No entanto, das minhas conversas com as equipas da Worldcoin e da Proof of Humanity, parece que, neste momento, nenhum dos protocolos está ainda a sofrer ataques de deep fake significativos, pela simples razão de que contratar trabalhadores reais com baixos salários para se inscreverem em seu nome é bastante barato e fácil.

Podemos impedir a venda de identificações?

A curto prazo, é difícil evitar este tipo de externalização, porque a maioria das pessoas no mundo nem sequer conhece os protocolos de prova de identidade e, se lhes dissermos para segurarem um código QR e digitalizarem os olhos para ver se têm 30 dólares, elas fazem-no. Quando mais pessoas estiverem conscientes do que são os protocolos de prova de identidade, torna-se possível uma mitigação bastante simples: permitir que as pessoas que têm um BI registado se voltem a registar, cancelando o BI anterior. Isto torna a "venda de ID" muito menos credível, porque alguém que lhe vende o seu ID pode simplesmente voltar a registar-se, cancelando o ID que acabou de vender. No entanto, para chegar a este ponto, é necessário que o protocolo seja amplamente conhecido e que os Orbs estejam amplamente acessíveis para tornar prático o registo a pedido.

Esta é uma das razões pelas quais ter uma moeda UBI integrada num sistema de prova de identidade é valioso: uma moeda UBI fornece um incentivo facilmente compreensível para que as pessoas (i) tomem conhecimento do protocolo e se registem, e (ii) se registem imediatamente de novo se se registarem em nome de outra pessoa. O novo registo também evita a pirataria telefónica.

Podemos evitar a coação nos sistemas biométricos de prova de identidade?

Isto depende do tipo de coerção de que estamos a falar. As possíveis formas de coação incluem:

  • Os governos fazem o scanning dos olhos (ou rostos, ou...) das pessoas nos controlos fronteiriços e noutros pontos de controlo governamentais de rotina, e utilizam-no para registar (e frequentemente voltar a registar) os seus cidadãos
  • Os governos proíbem os Orbs dentro do país para evitar que as pessoas se registem de novo de forma independente
  • Indivíduos que compram bilhetes de identidade e depois ameaçam prejudicar o vendedor se detectarem que o bilhete de identidade foi invalidado devido a um novo registo
  • Aplicações (possivelmente geridas pelo governo) que exigem que as pessoas "iniciem sessão" assinando diretamente com a sua chave pública, permitindo-lhes ver a digitalização biométrica correspondente e, por conseguinte, a ligação entre o ID atual do utilizador e quaisquer IDs futuros que obtenham ao voltarem a registar-se. Um receio comum é que isto facilite demasiado a criação de "registos permanentes" que se mantêm com uma pessoa durante toda a sua vida.

Todo o seu RBI e poder de voto pertencem-nos. Fonte da imagem.

Especialmente nas mãos de utilizadores pouco sofisticados, parece bastante difícil evitar estas situações. Os utilizadores podem sair do seu país para se (re)registarem numa Orb num país mais seguro, mas este é um processo difícil e de custo elevado. Num ambiente jurídico verdadeiramente hostil, procurar uma Orb independente parece demasiado difícil e arriscado.

O que é viável é tornar este tipo de abuso mais incómodo de implementar e detetável. A abordagem da Prova de Humanidade, que exige que uma pessoa diga uma frase específica quando se regista, é um bom exemplo: pode ser suficiente para impedir o rastreio oculto, exigindo que a coerção seja muito mais flagrante, e a frase de registo pode até incluir uma declaração que confirme que o inquirido sabe que tem o direito de se voltar a registar independentemente e que pode obter moedas UBI ou outras recompensas. Se for detectada coação, os dispositivos utilizados para efetuar registos coercivos em massa podem ver os seus direitos de acesso revogados. Para evitar que as aplicações associem os IDs actuais e anteriores das pessoas e tentem deixar "registos permanentes", a aplicação de prova de identidade predefinida poderia bloquear a chave do utilizador em hardware de confiança, impedindo que qualquer aplicação utilizasse a chave diretamente sem a camada de anonimização ZK-SNARK pelo meio. Se um governo ou um programador de aplicações quiser contornar esta situação, terá de impor a utilização da sua própria aplicação personalizada.

Com uma combinação destas técnicas e uma vigilância ativa, parece possível bloquear os regimes que são verdadeiramente hostis e manter honestos os regimes que são apenas medianamente maus (como grande parte do mundo é). Isto pode ser feito através de um projeto como o Worldcoin ou o Proof of Humanity, mantendo a sua própria burocracia para esta tarefa, ou revelando mais informações sobre como um ID foi registado (por exemplo, no Worldcoin, de que Orb veio), e deixando esta tarefa de classificação para a comunidade.

Podemos impedir o aluguer de IDs (por exemplo, para vender votos)?

O aluguer do seu ID não é impedido por um novo registo. Nalgumas aplicações, não há problema: o custo do aluguer do seu direito de recolher a parte do dia da moeda UBI será apenas o valor da parte do dia da moeda UBI. Mas em aplicações como a votação, a venda fácil de votos é um enorme problema.

Sistemas como o MACI podem impedi-lo de vender o seu voto de forma credível, permitindo-lhe votar mais tarde, o que invalida o seu voto anterior, de tal forma que ninguém pode dizer se de facto votou ou não. No entanto, se o subornador controlar a chave que obtém no momento do registo, isto não ajuda.

Vejo aqui duas soluções:

  1. Execute aplicações inteiras dentro de um MPC. Isto abrangeria também o processo de novo registo: quando uma pessoa se regista no PPM, este atribui-lhe uma identificação separada e não associada à sua identificação de prova de identidade e, quando uma pessoa se volta a registar, só o PPM saberia qual a conta a desativar. Isto impede que os utilizadores façam provas sobre as suas acções, porque cada passo importante é feito dentro de um MPC utilizando informação privada que só é conhecida pelo MPC.
  2. Cerimónias de registo descentralizadas. Basicamente, implemente algo como este protocolo de registo de chaves presencial que requer que quatro participantes locais seleccionados aleatoriamente trabalhem em conjunto para registar alguém. Isto pode garantir que o registo é um procedimento "fiável" durante o qual um atacante não pode bisbilhotar.

Os sistemas baseados em gráficos sociais podem ter um melhor desempenho neste caso, porque podem criar automaticamente processos de registo locais descentralizados como um subproduto do seu funcionamento.

Como é que a biometria se compara com o outro principal candidato à prova de identidade, a verificação baseada em gráficos sociais?

Para além das abordagens biométricas, o principal concorrente à prova de identidade tem sido, até à data, a verificação baseada em gráficos sociais. Os sistemas de verificação baseados em grafos sociais funcionam todos com base no mesmo princípio: se houver um conjunto de identidades verificadas que atestem a validade da sua identidade, então provavelmente você é válido e deve também obter o estatuto de verificado.

Se apenas alguns utilizadores reais (acidental ou maliciosamente) verificarem utilizadores falsos, então pode utilizar técnicas básicas de teoria dos grafos para estabelecer um limite superior para o número de utilizadores falsos que são verificados pelo sistema. Fonte: https://www.sciencedirect.com/science/article/abs/pii/S0045790622000611.

Os defensores da verificação baseada em grafos sociais descrevem-na frequentemente como sendo uma melhor alternativa à biometria por algumas razões:

  • Não depende de hardware para fins especiais, o que facilita muito a sua implementação
  • Evita uma corrida armamentista permanente entre os fabricantes que tentam criar pessoas falsas e a necessidade de atualizar o Orb para rejeitar essas pessoas falsas
  • Não requer a recolha de dados biométricos, o que o torna mais amigo da privacidade
  • É potencialmente mais favorável ao pseudónimo, porque se alguém optar por dividir a sua vida na Internet em várias identidades que mantém separadas umas das outras, ambas as identidades podem ser potencialmente verificadas (mas manter várias identidades genuínas e separadas sacrifica os efeitos de rede e tem um custo elevado, pelo que não é algo que os atacantes possam fazer facilmente)
  • As abordagens biométricas dão uma pontuação binária de "é um ser humano" ou "não é um ser humano", o que é frágil: as pessoas que são acidentalmente rejeitadas acabariam por não ter qualquer UBI e, potencialmente, nenhuma capacidade de participar na vida em linha. As abordagens baseadas em grafos sociais podem dar uma pontuação numérica mais matizada, que pode, naturalmente, ser moderadamente injusta para alguns participantes, mas é improvável que "despersonalize" alguém completamente.

A minha perspetiva sobre estes argumentos é que concordo largamente com eles! Estas são vantagens genuínas das abordagens baseadas em gráficos sociais e devem ser levadas a sério. No entanto, também vale a pena ter em conta os pontos fracos das abordagens baseadas em gráficos sociais:

  • Bootstrapping: para que um utilizador se junte a um sistema baseado em grafos sociais, esse utilizador tem de conhecer alguém que já esteja no grafo. Isto dificulta a adoção em grande escala e pode excluir regiões inteiras do mundo que não tenham tido sorte no processo inicial de arranque.
  • Privacidade: embora as abordagens baseadas em gráficos sociais evitem a recolha de dados biométricos, acabam muitas vezes por divulgar informações sobre as relações sociais de uma pessoa, o que pode conduzir a riscos ainda maiores. É claro que a tecnologia de conhecimento zero pode atenuar esta situação (por exemplo. ver esta proposta de Barry Whitehat), mas a interdependência inerente a um gráfico e a necessidade de efetuar análises matemáticas no gráfico torna mais difícil conseguir o mesmo nível de ocultação de dados que se consegue com a biometria.
  • Desigualdade: cada pessoa só pode ter uma identificação biométrica, mas uma pessoa rica e com boas ligações sociais pode utilizar as suas ligações para gerar muitas identificações. Essencialmente, a mesma flexibilidade que pode permitir que um sistema baseado em gráficos sociais atribua vários pseudónimos a alguém (por exemplo. um ativista) que realmente precisa dessa caraterística, provavelmente também implicaria que pessoas mais poderosas e com bons contactos podem obter mais pseudónimos do que pessoas menos poderosas e com bons contactos.
  • Risco de colapso para a centralização: a maioria das pessoas é demasiado preguiçosa para perder tempo a comunicar numa aplicação da Internet quem é uma pessoa real e quem não é. Consequentemente, corre-se o risco de o sistema vir a favorecer, com o tempo, formas "fáceis" de ser introduzido que dependam de autoridades centralizadas, e o "gráfico social" que os utilizadores do sistema irão, de facto, tornar-se o gráfico social de que países reconhecem que pessoas como cidadãos - dando-nos um KYC centralizado com passos extra desnecessários.

A prova de pessoalidade é compatível com o pseudónimo no mundo real?

Em princípio, a prova de pessoalidade é compatível com todos os tipos de pseudónimos. As aplicações podem ser concebidas de forma a que uma pessoa com um único ID de prova de identidade possa criar até cinco perfis na aplicação, deixando espaço para contas pseudónimas. Pode mesmo utilizar fórmulas quadráticas: N representa um custo de $N². Mas será que o vão fazer?

Um pessimista, no entanto, poderia argumentar que é ingénuo tentar criar uma forma de identificação mais favorável à privacidade e esperar que seja realmente adoptada da forma correcta, porque os poderes instituídos não são favoráveis à privacidade e se um ator poderoso obtiver uma ferramenta que possa ser utilizada para obter muito mais informações sobre uma pessoa, utilizá-la-á dessa forma. Num mundo assim, diz o argumento, a única abordagem realista é, infelizmente, atirar areia para as engrenagens de qualquer solução de identidade e defender um mundo com total anonimato e ilhas digitais de comunidades de elevada confiança.

Compreendo o raciocínio subjacente a esta forma de pensar, mas receio que uma tal abordagem, mesmo que bem sucedida, conduza a um mundo onde ninguém possa fazer nada para contrariar a concentração da riqueza e a centralização da governação, porque uma pessoa pode sempre fazer-se passar por dez mil. Esses pontos de centralização seriam, por sua vez, fáceis de capturar pelos poderes instituídos. Em vez disso, eu seria a favor de uma abordagem moderada, em que defendemos vigorosamente que as soluções de prova de identidade têm uma privacidade forte, potencialmente, se desejado, até incluímos um mecanismo de "N contas para $N²" na camada de protocolo, e criamos algo que tem valores favoráveis à privacidade e tem uma hipótese de ser aceite pelo mundo exterior.

Então... o que é que eu acho?

Não existe uma forma ideal de prova da personalidade. Em vez disso, temos pelo menos três paradigmas diferentes de abordagens, todos com as suas próprias forças e fraquezas. Um gráfico de comparação pode ser o seguinte:

O ideal seria tratar estas três técnicas como complementares e combiná-las todas. Como o Aadhaar da Índia demonstrou à escala, a biometria de hardware especializado tem as suas vantagens de ser segura à escala. São muito fracos na descentralização, embora isso possa ser resolvido responsabilizando os Orbs individualmente. A biometria de uso geral pode ser adoptada muito facilmente hoje em dia, mas a sua segurança está a diminuir rapidamente e talvez só funcione durante mais 1 a 2 anos. Os sistemas baseados em grafos sociais, criados a partir de algumas centenas de pessoas socialmente próximas da equipa fundadora, são susceptíveis de enfrentar constantes compromissos entre a total ausência de grandes partes do mundo e a vulnerabilidade a ataques dentro de comunidades para as quais não têm visibilidade. No entanto, um sistema baseado em grafos sociais, com base em dezenas de milhões de titulares de identificação biométrica, poderia efetivamente funcionar. O bootstrapping biométrico pode funcionar melhor a curto prazo, enquanto as técnicas baseadas em gráficos sociais podem ser mais robustas a longo prazo e assumir uma maior quota-parte de responsabilidade ao longo do tempo, à medida que os seus algoritmos melhoram.

Uma possível via híbrida.

Todas estas equipas estão em posição de cometer muitos erros e existem tensões inevitáveis entre os interesses comerciais e as necessidades da comunidade em geral, pelo que é importante exercer uma grande vigilância. Enquanto comunidade, podemos e devemos forçar as zonas de conforto de todos os participantes no que diz respeito ao fornecimento aberto da sua tecnologia, exigir auditorias de terceiros e mesmo software escrito por terceiros, bem como outros controlos e equilíbrios. Precisamos também de mais alternativas em cada uma das três categorias.

Ao mesmo tempo, é importante reconhecer o trabalho já realizado: muitas das equipas que gerem estes sistemas mostraram vontade de levar a privacidade muito mais a sério do que praticamente qualquer governo ou sistema de identidade gerido por grandes empresas, e este é um sucesso que devemos aproveitar.

O problema de criar um sistema de prova de identidade que seja eficaz e fiável, especialmente nas mãos de pessoas distantes da comunidade criptográfica existente, parece bastante difícil. Não invejo de modo algum as pessoas que estão a tentar realizar esta tarefa, e é provável que demore anos a encontrar uma fórmula que funcione. O conceito de prova de identidade parece, em princípio, muito valioso e, embora as várias implementações tenham os seus riscos, não ter qualquer prova de identidade também tem os seus riscos: um mundo sem prova de identidade parece mais provável que seja um mundo dominado por soluções de identidade centralizadas, dinheiro, pequenas comunidades fechadas ou uma combinação dos três. Estou ansioso por ver mais progressos em todos os tipos de provas de personalidade e espero que as diferentes abordagens acabem por se juntar num todo coerente.

Declaração de exoneração de responsabilidade:

  1. Este artigo foi reimpresso de[vitalik], Todos os direitos de autor pertencem ao autor original[vitalik]. Se houver objecções a esta reimpressão, contacte a equipa da Gate Learn, que tratará prontamente do assunto.
  2. Declaração de exoneração de responsabilidade: Os pontos de vista e opiniões expressos neste artigo são da exclusiva responsabilidade do autor e não constituem um conselho de investimento.
  3. As traduções do artigo para outras línguas são efectuadas pela equipa Gate Learn. A menos que seja mencionado, é proibido copiar, distribuir ou plagiar os artigos traduzidos.

O que é que eu penso da prova biométrica de identidade?

Intermediário2/26/2024, 8:33:18 AM
O artigo fornece uma explicação pormenorizada sobre a importância, o funcionamento, a operação da Orb, as principais questões, as preocupações com a centralização e a forma como as soluções de verificação da identidade biométrica resolvem as preocupações com a privacidade após o lançamento da Worldcoin por Vitalik.

Agradecimentos especiais à equipa Worldcoin, à comunidade Proof of Humanity e a Andrew Miller pela discussão.

Uma das mais complicadas, mas potencialmente uma das mais valiosas, engenhocas que as pessoas na comunidade Ethereum têm tentado construir é uma solução descentralizada de prova de personalidade. A prova de pessoalidade, também conhecida como o "problema do ser humano único", é uma forma limitada de identidade do mundo real que afirma que uma determinada conta registada é controlada por uma pessoa real (e uma pessoa real diferente de todas as outras contas registadas), idealmente sem revelar qual é a pessoa real.

Têm sido feitos alguns esforços para resolver este problema: Proof of Humanity, BrightID, Idena e Circles são alguns exemplos. Alguns deles vêm com as suas próprias aplicações (muitas vezes um token UBI), e alguns encontraram uso no Gitcoin Passport para verificar que contas são válidas para votação quadrática. A tecnologia de conhecimento zero, como a Sismo, acrescenta privacidade a muitas destas soluções. Mais recentemente, assistimos ao surgimento de um projeto de prova de personalidade muito maior e mais ambicioso: Worldcoin.

A Worldcoin foi co-fundada por Sam Altman, que é mais conhecido por ser o CEO da OpenAI. A filosofia por detrás do projeto é simples: A IA vai criar muita abundância e riqueza para a humanidade, mas também pode acabar com o emprego de muitas pessoas e tornar quase impossível saber quem é um humano e não um robot. Por isso, precisamos de tapar esse buraco: (i) criando um sistema de prova de personalidade muito bom para que os humanos possam provar que são efetivamente humanos e (ii) dando a todos um RBI. A Worldcoin é única na medida em que se baseia em dados biométricos altamente sofisticados, digitalizando a íris de cada utilizador) utilizando uma peça de hardware especializada chamada "the Orb":

O objetivo é produzir um grande número destes Orbs e distribuí-los amplamente por todo o mundo e colocá-los em locais públicos para que seja fácil para qualquer pessoa obter uma identificação. Para crédito da Worldcoin, eles também se comprometeram a descentralizar ao longo do tempo. No início, isto significa descentralização técnica: ser um L2 no Ethereum utilizando a pilha Optimism e protegendo a privacidade dos utilizadores com ZK-SNARKs e outras técnicas criptográficas. Mais tarde, inclui a descentralização da governação do próprio sistema.

A Worldcoin tem sido criticada por questões de privacidade e segurança em torno da Orb, por problemas de conceção da sua "moeda" e por questões éticas relacionadas com algumas escolhas que a empresa fez. Algumas das críticas são muito específicas, centrando-se em decisões tomadas pelo projeto que poderiam facilmente ter sido tomadas de outra forma - e que, na verdade, o próprio projeto Worldcoin poderá estar disposto a alterar. Outros, no entanto, levantam a questão mais fundamental de saber se a biometria - não apenas a biometria de varrimento ocular da Worldcoin, mas também os jogos mais simples de verificação e carregamento de vídeos faciais utilizados em Proof of Humanity e Idena - é ou não uma boa ideia. E outros ainda criticam a prova da personalidade em geral. Os riscos incluem inevitáveis fugas de privacidade, uma maior erosão da capacidade das pessoas navegarem anonimamente na Internet, a coerção por parte de governos autoritários e a potencial impossibilidade de ser seguro e ao mesmo tempo descentralizado.

Este post vai falar sobre estas questões e analisar alguns argumentos que o podem ajudar a decidir se é ou não uma boa ideia curvar-se e escrutinar os seus olhos (ou rosto, ou voz, ou...) perante os nossos novos senhores esféricos, e se as alternativas naturais - utilizar provas de personalidade baseadas em gráficos sociais ou desistir completamente das provas de personalidade - são ou não melhores.

O que é a prova da qualidade de pessoa e porque é que é importante?

A forma mais simples de definir um sistema de prova de identidade é: cria uma lista de chaves públicas em que o sistema garante que cada chave é controlada por um único ser humano. Por outras palavras, se for um humano, pode colocar uma chave na lista, mas não pode colocar duas chaves na lista e, se for um bot, não pode colocar nenhuma chave na lista.

A prova de identidade é valiosa porque resolve muitos dos problemas anti-spam e anti-concentração de poder que muitas pessoas têm, de uma forma que evita a dependência de autoridades centralizadas e revela o mínimo de informação possível. Se a prova de pessoalidade não for resolvida, a governação descentralizada (incluindo a "micro-governação", como as votações em mensagens nas redes sociais) torna-se muito mais fácil de capturar por actores muito ricos, incluindo governos hostis. Muitos serviços só poderiam evitar ataques de negação de serviço se fixassem um preço para o acesso e, por vezes, um preço suficientemente elevado para afastar os atacantes é também demasiado elevado para muitos utilizadores legítimos com rendimentos mais baixos.

Atualmente, muitas das principais aplicações no mundo lidam com esta questão utilizando sistemas de identidade apoiados pelo governo, como cartões de crédito e passaportes. Isto resolve o problema, mas faz grandes e talvez inaceitáveis sacrifícios à privacidade, e pode ser trivialmente atacado pelos próprios governos.

Quantos proponentes da prova de personalidade vêem o risco de duas faces que estamos a enfrentar? Fonte da imagem.

Em muitos projectos de prova de identidade - não apenas na Worldcoin, mas também na Proof of Humanity, Circles e outros - a "aplicação principal" é um "token N por pessoa" integrado (por vezes designado por "token UBI"). Cada utilizador registado no sistema recebe uma quantidade fixa de fichas por dia (ou hora, ou semana). Mas existem muitas outras aplicações:

Em muitos destes casos, o fio condutor é o desejo de criar mecanismos abertos e democráticos, evitando tanto o controlo centralizado pelos operadores de um projeto como o domínio dos seus utilizadores mais ricos. Esta última é especialmente importante na governação descentralizada. Em muitos destes casos, as soluções existentes atualmente baseiam-se numa combinação de (i) algoritmos de IA altamente opacos que deixam muita margem para discriminar indetectavelmente os utilizadores de que os operadores simplesmente não gostam, e (ii) IDs centralizados, também conhecidos como "KYC". Uma solução eficaz de prova de identidade seria uma alternativa muito melhor, alcançando as propriedades de segurança de que essas aplicações necessitam sem as armadilhas das abordagens centralizadas existentes.

Quais são as primeiras tentativas de prova da personalidade?

Existem duas formas principais de prova de identidade: a biométrica e a baseada em gráficos sociais. A prova de identidade baseada em grafos sociais assenta numa forma de atestado: se a Alice, o Bob, o Charlie e o David são todos humanos verificados e todos eles dizem que a Emily é um humano verificado, então a Emily é provavelmente também um humano verificado. O atestado é muitas vezes reforçado com incentivos: se Alice disser que Emily é um humano, mas se se verificar que não é, então Alice e Emily podem ser penalizadas. A prova biométrica da personalidade envolve a verificação de um traço físico ou comportamental de Emily, que distingue os humanos dos bots (e os humanos individuais uns dos outros). A maioria dos projectos utiliza uma combinação das duas técnicas.

Os quatro sistemas que mencionei no início do post funcionam mais ou menos da seguinte forma:

  • Prova de Humanidade: carregue um vídeo seu e forneça um depósito. Para ser aprovado, um utilizador existente tem de dar o seu aval e tem de passar um período de tempo durante o qual pode ser contestado. Se houver uma contestação, um tribunal descentralizado do Kleros determina se o seu vídeo é genuíno ou não; se não for, perde o seu depósito e o contestatário recebe uma recompensa.
  • BrightID: junte-se a uma videochamada "festa de verificação" com outros utilizadores, onde todos se verificam mutuamente. Estão disponíveis níveis mais elevados de verificação através do Bitu, um sistema no qual pode ser verificado se um número suficiente de outros utilizadores verificados pelo Bitu o confirmarem.
  • Idena: joga um jogo de captcha num momento específico (para evitar que as pessoas participem várias vezes); parte do jogo de captcha envolve a criação e verificação de captchas que serão depois utilizados para verificar outros.
  • Círculos: um utilizador existente dos Círculos avaliza-o a si. O Circles é único na medida em que não tenta criar um "ID globalmente verificável"; em vez disso, cria um gráfico de relações de confiança, em que a fiabilidade de alguém só pode ser verificada a partir da perspetiva da sua própria posição nesse gráfico.

Como é que a Worldcoin funciona?

Cada utilizador da Worldcoin instala uma aplicação no seu telemóvel, que gera uma chave privada e pública, tal como uma carteira Ethereum. Em seguida, vai pessoalmente visitar um "Orbe". O utilizador olha para a câmara do Orb e, ao mesmo tempo, mostra ao Orb um código QR gerado pela sua aplicação Worldcoin, que contém a sua chave pública. O Orb examina os olhos do utilizador e utiliza um complicado scanner de hardware e classificadores aprendidos por máquina para o verificar:

  1. O utilizador é um ser humano real
  2. A íris do utilizador não coincide com a íris de qualquer outro utilizador que tenha utilizado anteriormente o sistema

Se ambas as digitalizações passarem, o Orb assina uma mensagem que aprova um hash especializado da digitalização da íris do utilizador. O hash é carregado para uma base de dados - atualmente um servidor centralizado, que se pretende substituir por um sistema descentralizado na cadeia assim que se tiver a certeza de que o mecanismo de hashing funciona. O sistema não armazena digitalizações completas da íris; armazena apenas hashes e estes hashes são utilizados para verificar a exclusividade. A partir desse momento, o utilizador tem um "World ID".

O titular de um World ID pode provar que é um ser humano único, gerando um ZK-SNARK que prova que possui a chave privada correspondente a uma chave pública na base de dados, sem revelar qual a chave que possui. Assim, mesmo que alguém volte a analisar a sua íris, não conseguirá ver quaisquer acções que tenha efectuado.

Quais são os principais problemas com a construção da Worldcoin?

Há quatro grandes riscos que nos vêm imediatamente à cabeça:

  • Privacidade. O registo dos scans da íris pode revelar informações. No mínimo, se outra pessoa digitalizar a sua íris, pode compará-la com a base de dados para determinar se tem ou não uma identificação mundial. Potencialmente, os scans da íris podem revelar mais informações.
  • Acessibilidade. Os World IDs não vão ser acessíveis de forma fiável a não ser que haja tantos Orbs que qualquer pessoa no mundo possa chegar facilmente a um.
  • Centralização. O Orb é um dispositivo de hardware e não temos forma de verificar se foi construído corretamente e se não tem backdoors. Assim, mesmo que a camada de software seja perfeita e totalmente descentralizada, a Worldcoin Foundation ainda tem a capacidade de inserir uma backdoor no sistema, permitindo-lhe criar arbitrariamente muitas identidades humanas falsas.
  • Segurança. Os telemóveis dos utilizadores podem ser pirateados, os utilizadores podem ser coagidos a digitalizar as suas íris enquanto mostram uma chave pública que pertence a outra pessoa, e existe a possibilidade de imprimir em 3D "pessoas falsas" que podem passar a digitalização da íris e obter identificações mundiais.

É importante distinguir entre (i) questões específicas das escolhas feitas pela Worldcoin, (ii) questões que qualquer prova biométrica de identidade terá inevitavelmente, e (iii) questões que qualquer prova de identidade em geral terá. Por exemplo, inscrever-se na Proof of Humanity significa publicar o seu rosto na Internet. Aderir a um grupo de verificação da BrightID não faz exatamente isso, mas expõe a sua identidade a muitas pessoas. E a adesão aos Círculos expõe publicamente o seu gráfico social. A Worldcoin é significativamente melhor em termos de preservação da privacidade do que qualquer uma dessas opções. Por outro lado, a Worldcoin depende de hardware especializado, o que abre o desafio de confiar que os fabricantes de orbes construíram os orbes corretamente - um desafio que não tem paralelo na Proof of Humanity, BrightID ou Circles. É até concebível que, no futuro, alguém que não seja a Worldcoin crie uma solução diferente de hardware especializado que tenha diferentes compensações.

Como é que os sistemas biométricos de prova de identidade abordam as questões de privacidade?

A mais óbvia e maior fuga de privacidade potencial que qualquer sistema de prova de identidade tem é a ligação de cada ação que uma pessoa realiza a uma identidade do mundo real. Esta fuga de dados é muito grande, sem dúvida inaceitavelmente grande, mas felizmente é fácil de resolver com tecnologia à prova de conhecimento zero. Em vez de fazer diretamente uma assinatura com uma chave privada cuja chave pública correspondente se encontra na base de dados, um utilizador poderia fazer um ZK-SNARK provando que possui a chave privada cuja chave pública correspondente se encontra algures na base de dados, sem revelar qual a chave específica que possui. Isso pode ser feito genericamente com ferramentas como o Sismo (veja aqui a implementação específica do Proof of Humanity), e o Worldcoin tem sua própria implementação embutida. É importante dar crédito à prova de personalidade "cripto-nativa" aqui: eles realmente se preocupam em dar este passo básico para fornecer anonimato, enquanto basicamente todas as soluções de identidade centralizadas não o fazem.

Uma fuga de privacidade mais subtil, mas ainda assim importante, é a mera existência de um registo público de digitalizações biométricas. No caso da Prova de Humanidade, trata-se de muitos dados: obtém um vídeo de cada participante da Prova de Humanidade, tornando muito claro para qualquer pessoa no mundo que queira investigar quem são todos os participantes da Prova de Humanidade. No caso da Worldcoin, a fuga é muito mais limitada: a Orb calcula e publica localmente apenas um "hash" do scan da íris de cada pessoa. Este hash não é um hash normal como o SHA256; é antes um algoritmo especializado baseado em filtros Gabor aprendidos por máquina que lida com a inexatidão inerente a qualquer digitalização biométrica e garante que hashes sucessivos obtidos da íris da mesma pessoa têm resultados semelhantes.

Azul: percentagem de bits que diferem entre duas digitalizações da íris da mesma pessoa. Laranja: percentagem de bits que diferem entre duas digitalizações da íris de duas pessoas diferentes.

Estes hashes de íris deixam escapar apenas uma pequena quantidade de dados. Se um adversário conseguir fazer uma leitura forçada (ou secreta) da sua íris, pode calcular ele próprio o hash da sua íris e compará-lo com a base de dados de hashes da íris para ver se participou ou não no sistema. Esta capacidade de verificar se alguém se inscreveu ou não é necessária para que o próprio sistema evite que as pessoas se inscrevam várias vezes, mas há sempre a possibilidade de ser abusada. Além disso, existe a possibilidade de os hashes da íris deixarem escapar alguma quantidade de dados médicos (sexo, etnia, talvez condições médicas), mas essa fuga é muito menor do que a que poderia ser capturada por praticamente qualquer outro sistema de recolha de dados em massa atualmente em uso (por exemplo. até câmaras de rua). De um modo geral, a privacidade do armazenamento de hashes da íris parece-me suficiente.

Se outros não concordarem com este julgamento e decidirem que querem conceber um sistema com ainda mais privacidade, há duas formas de o fazer:

  1. Se o algoritmo de hashing da íris puder ser melhorado de modo a que a diferença entre duas digitalizações da mesma pessoa seja muito menor (por exemplo, a diferença entre duas digitalizações da mesma pessoa), pode ser melhorado. de forma fiável com 10% de inversões de bits), então, em vez de armazenar hashes de íris completos, o sistema pode armazenar um número menor de bits de correção de erros para hashes de íris (ver: extractores difusos). Se a diferença entre duas digitalizações for inferior a 10%, então o número de bits que precisa de ser publicado será, pelo menos, 5x inferior.
  2. Se quisermos ir mais longe, podemos armazenar a base de dados de hash da íris num sistema de computação multipartidária (MPC) que só pode ser acedido por Orbs (com um limite de velocidade), tornando os dados totalmente inacessíveis, mas à custa de uma complexidade de protocolo significativa e de uma complexidade social na gestão do conjunto de participantes no MPC. Isto teria a vantagem de os utilizadores não poderem provar uma ligação entre dois World IDs diferentes que tivessem em alturas diferentes, mesmo que o quisessem fazer.

Infelizmente, estas técnicas não se aplicam à Prova de Humanidade, porque a Prova de Humanidade exige que o vídeo completo de cada participante esteja disponível ao público para que possa ser contestado se houver indícios de que é falso (incluindo falsificações geradas por IA) e, nesses casos, investigado com mais pormenor.

De um modo geral, apesar da "vibração distópica" de olhar para um Orb e deixar que ele analise profundamente os seus globos oculares, parece que os sistemas de hardware especializados podem fazer um trabalho bastante decente na proteção da privacidade. No entanto, o outro lado desta situação é que os sistemas de hardware especializados introduzem preocupações de centralização muito maiores. Por isso, nós, cypherpunks, parecemos estar presos num dilema: temos de trocar um valor cypherpunk profundamente enraizado por outro.

Quais são as questões de acessibilidade nos sistemas biométricos de prova de identidade?

O hardware especializado apresenta problemas de acessibilidade porque, bem, o hardware especializado não é muito acessível. Atualmente, entre 51% e 64% dos africanos subsarianos têm smartphones, e prevê-se que este número aumente para 87% até 2030. Mas embora existam biliões de smartphones, existem apenas algumas centenas de Orbs. Mesmo com uma produção distribuída a uma escala muito mais elevada, seria difícil chegar a um mundo em que houvesse um Orb a menos de cinco quilómetros de toda a gente.

Mas, para crédito da equipa, eles têm tentado!

É também de salientar que muitas outras formas de prova da personalidade têm problemas de acessibilidade que são ainda piores. É muito difícil aderir a um sistema de prova de identidade baseado no grafo social, a menos que já conheça alguém que esteja no grafo social. Isto faz com que seja muito fácil para estes sistemas permanecerem restritos a uma única comunidade num único país.

Até os sistemas de identidade centralizados aprenderam esta lição: o sistema de identificação Aadhaar da Índia baseia-se na biometria, pois era a única forma de integrar rapidamente a sua população maciça, evitando ao mesmo tempo fraudes maciças de contas duplicadas e falsas (resultando em enormes poupanças de custos), embora, claro, o sistema Aadhaar como um todo seja muito mais fraco em termos de privacidade do que qualquer coisa que esteja a ser proposta em grande escala na comunidade cripto.

Os sistemas com melhor desempenho do ponto de vista da acessibilidade são, na verdade, sistemas como o Proof of Humanity, em que pode inscrever-se utilizando apenas um smartphone - embora, como vimos e veremos, esses sistemas tenham todo o tipo de outras desvantagens.

Quais são os problemas de centralização nos sistemas biométricos de prova de identidade?

Existem três:

  1. Riscos de centralização na governação de alto nível do sistema (esp. o sistema que toma as resoluções finais de nível superior se os diferentes intervenientes no sistema discordarem de juízos subjectivos).
  2. Os riscos de centralização são exclusivos dos sistemas que utilizam hardware especializado.
  3. Riscos de centralização se forem utilizados algoritmos proprietários para determinar quem é um participante autêntico.

Qualquer sistema de prova de personalidade tem de lidar com (1), talvez com exceção dos sistemas em que o conjunto de IDs "aceites" é completamente subjetivo. Se um sistema utiliza incentivos denominados em activos externos (por exemplo. ETH, USDC, DAI), então não pode ser totalmente subjetivo, pelo que os riscos de governação se tornam inevitáveis.

[2] é um risco muito maior para a Worldcoin do que para a Proof of Humanity (ou BrightID), porque a Worldcoin depende de hardware especializado e os outros sistemas não.

[3] é um risco, especialmente em "<a href="https://medium.com/@VitalikButerin/the-meaning-of-decentralization-a0c92b76a274"> logicamente centralizado" sistemas em que há um único sistema a fazer a verificação, a menos que todos os algoritmos sejam de código aberto e tenhamos a garantia de que estão efetivamente a executar o código que afirmam estar. Para os sistemas que se baseiam apenas na verificação de outros utilizadores por parte dos utilizadores (como o Proof of Humanity), não existe qualquer risco.

Como é que a Worldcoin aborda os problemas de centralização de hardware?

Atualmente, uma entidade afiliada à Worldcoin chamada Tools for Humanity é a única organização que está a produzir Orbs. No entanto, o código-fonte do Orb é maioritariamente público: pode ver as especificações do hardware neste repositório do github, e espera-se que outras partes do código-fonte sejam publicadas em breve. A licença é mais uma daquelas licenças de "código partilhado mas não tecnicamente aberto até daqui a quatro anos", semelhante à BSL do Uniswap , exceto que, para além de impedir o forking, também impede o que eles consideram comportamento pouco ético - listam especificamente a vigilância em massa e três declarações internacionais de direitos civis .

O objetivo declarado da equipa é permitir e encorajar outras organizações a criar Orbs e, ao longo do tempo, fazer a transição dos Orbs criados pela Tools for Humanity para uma espécie de DAO que aprova e gere as organizações que podem criar Orbs que são reconhecidas pelo sistema.

Esta conceção pode falhar de duas formas:

  1. Não consegue descentralizar de facto. Isto pode acontecer devido à armadilha comum dos protocolos federados: um fabricante acaba por dominar na prática, fazendo com que o sistema volte a centralizar-se. Presumivelmente, a governação poderia limitar o número de Orbs válidos que cada fabricante pode produzir, mas isto teria de ser gerido cuidadosamente, e coloca muita pressão sobre a governação para ser descentralizada e monitorizar o ecossistema e responder a ameaças de forma eficaz: uma tarefa muito mais difícil do que, por exemplo, uma DAO bastante estática que apenas lida com tarefas de resolução de disputas de nível superior.
  2. Acontece que não é possível tornar seguro um mecanismo de fabrico distribuído deste tipo. Neste caso, há dois riscos que eu vejo:
    • Fragilidade face a maus fabricantes de Orb: se um único fabricante de Orb for malicioso ou pirateado, pode gerar um número ilimitado de hashes de digitalização da íris falsos e atribuir-lhes World IDs.
    • Restrição governamental de Orbs: os governos que não querem que os seus cidadãos participem no ecossistema da Worldcoin podem proibir a entrada de Orbs no seu país. Além disso, poderiam até obrigar os seus cidadãos a fazer um scanner das suas íris, permitindo que o governo obtivesse as suas contas, e os cidadãos não teriam forma de reagir.

Para tornar o sistema mais robusto contra os maus fabricantes de Orbs, a equipa da Worldcoin propõe a realização de auditorias regulares às Orbs, verificando se foram construídas corretamente e se os principais componentes de hardware foram construídos de acordo com as especificações e não foram adulterados posteriormente. Trata-se de uma tarefa difícil: é basicamente algo como a burocracia das inspecções nucleares da AIEA, mas para Orbs. A esperança é que mesmo uma implementação muito imperfeita de um regime de auditoria possa reduzir grandemente o número de Orbs falsos.

Para limitar os danos causados por qualquer mau orbe que se escape, faz sentido ter uma segunda atenuação. Os World IDs registados em diferentes fabricantes de Orbs e, idealmente, em diferentes Orbs, devem ser distinguíveis uns dos outros. Não há problema se estas informações forem privadas e apenas armazenadas no dispositivo do titular da World ID, mas têm de ser comprováveis a pedido. Isto permite que o ecossistema responda a ataques (inevitáveis) removendo fabricantes de Orb individuais, e talvez até Orbs individuais, da lista branca a pedido. Se o governo da Coreia do Norte obrigar as pessoas a fazer um scan aos seus globos oculares, esses Orbs e quaisquer contas produzidas por eles podem ser imediatamente desactivados com efeitos retroactivos.

Questões de segurança na prova da personalidade em geral

Para além das questões específicas da Worldcoin, existem preocupações que afectam os projectos de prova de identidade em geral. As principais que me ocorrem são:

  1. Pessoas falsas impressas em 3D: a IA pode ser utilizada para gerar fotografias ou mesmo impressões em 3D de pessoas falsas que sejam suficientemente convincentes para serem aceites pelo software Orb. Se um só grupo fizer isto, pode gerar um número ilimitado de identidades.
  2. Possibilidade de vender IDs: alguém pode fornecer a chave pública de outra pessoa em vez da sua própria ao registar-se, dando a essa pessoa o controlo do seu ID registado, em troca de dinheiro. Parece que isso já está a acontecer. Para além da venda, existe também a possibilidade de alugar IDs para utilizar durante um curto período de tempo numa aplicação.
  3. Pirataria telefónica: se o telemóvel de uma pessoa for pirateado, o pirata pode roubar a chave que controla o seu World ID.
  4. Coação governamental para roubar IDs: um governo poderia forçar os seus cidadãos a serem verificados enquanto mostram um código QR pertencente ao governo. Desta forma, um governo malicioso poderia ter acesso a milhões de IDs. Num sistema biométrico, isto poderia até ser feito de forma dissimulada: os governos poderiam usar Orbs ofuscados para extrair World IDs de todos os que entram no seu país na cabine de controlo de passaportes.

[1] é específico para sistemas biométricos de prova de identidade. [2] e [3] são comuns aos desenhos biométricos e não biométricos. [4] também é comum a ambos, embora as técnicas necessárias sejam bastante diferentes em ambos os casos; nesta secção, centrar-me-ei nos problemas do caso biométrico.

Estas são fraquezas muito graves. Alguns já foram abordados nos protocolos existentes, outros podem ser abordados com melhorias futuras e outros ainda parecem ser limitações fundamentais.

Como é que podemos lidar com pessoas falsas?

Este risco é significativamente menor para a Worldcoin do que para os sistemas do tipo Prova de Humanidade: um scan em pessoa pode examinar muitas características de uma pessoa e é bastante difícil de falsificar, em comparação com a mera falsificação de um vídeo. O hardware especializado é inerentemente mais difícil de enganar do que o hardware comum, que por sua vez é mais difícil de enganar do que os algoritmos digitais que verificam imagens e vídeos enviados remotamente.

Será que alguém pode imprimir em 3D algo que possa enganar até o hardware especializado? Provavelmente. Espero que, a dada altura, assistamos a tensões crescentes entre o objetivo de manter o mecanismo aberto e de o manter seguro: os algoritmos de IA de código aberto são inerentemente mais vulneráveis à aprendizagem automática adversária. Os algoritmos de caixa negra são mais protegidos, mas é difícil dizer que um algoritmo de caixa negra não foi treinado para incluir backdoors. Talvez as tecnologias ZK-ML nos possam dar o melhor dos dois mundos. No entanto, num futuro ainda mais longínquo, é provável que até os melhores algoritmos de IA sejam enganados pelas melhores pessoas falsas impressas em 3D.

No entanto, das minhas conversas com as equipas da Worldcoin e da Proof of Humanity, parece que, neste momento, nenhum dos protocolos está ainda a sofrer ataques de deep fake significativos, pela simples razão de que contratar trabalhadores reais com baixos salários para se inscreverem em seu nome é bastante barato e fácil.

Podemos impedir a venda de identificações?

A curto prazo, é difícil evitar este tipo de externalização, porque a maioria das pessoas no mundo nem sequer conhece os protocolos de prova de identidade e, se lhes dissermos para segurarem um código QR e digitalizarem os olhos para ver se têm 30 dólares, elas fazem-no. Quando mais pessoas estiverem conscientes do que são os protocolos de prova de identidade, torna-se possível uma mitigação bastante simples: permitir que as pessoas que têm um BI registado se voltem a registar, cancelando o BI anterior. Isto torna a "venda de ID" muito menos credível, porque alguém que lhe vende o seu ID pode simplesmente voltar a registar-se, cancelando o ID que acabou de vender. No entanto, para chegar a este ponto, é necessário que o protocolo seja amplamente conhecido e que os Orbs estejam amplamente acessíveis para tornar prático o registo a pedido.

Esta é uma das razões pelas quais ter uma moeda UBI integrada num sistema de prova de identidade é valioso: uma moeda UBI fornece um incentivo facilmente compreensível para que as pessoas (i) tomem conhecimento do protocolo e se registem, e (ii) se registem imediatamente de novo se se registarem em nome de outra pessoa. O novo registo também evita a pirataria telefónica.

Podemos evitar a coação nos sistemas biométricos de prova de identidade?

Isto depende do tipo de coerção de que estamos a falar. As possíveis formas de coação incluem:

  • Os governos fazem o scanning dos olhos (ou rostos, ou...) das pessoas nos controlos fronteiriços e noutros pontos de controlo governamentais de rotina, e utilizam-no para registar (e frequentemente voltar a registar) os seus cidadãos
  • Os governos proíbem os Orbs dentro do país para evitar que as pessoas se registem de novo de forma independente
  • Indivíduos que compram bilhetes de identidade e depois ameaçam prejudicar o vendedor se detectarem que o bilhete de identidade foi invalidado devido a um novo registo
  • Aplicações (possivelmente geridas pelo governo) que exigem que as pessoas "iniciem sessão" assinando diretamente com a sua chave pública, permitindo-lhes ver a digitalização biométrica correspondente e, por conseguinte, a ligação entre o ID atual do utilizador e quaisquer IDs futuros que obtenham ao voltarem a registar-se. Um receio comum é que isto facilite demasiado a criação de "registos permanentes" que se mantêm com uma pessoa durante toda a sua vida.

Todo o seu RBI e poder de voto pertencem-nos. Fonte da imagem.

Especialmente nas mãos de utilizadores pouco sofisticados, parece bastante difícil evitar estas situações. Os utilizadores podem sair do seu país para se (re)registarem numa Orb num país mais seguro, mas este é um processo difícil e de custo elevado. Num ambiente jurídico verdadeiramente hostil, procurar uma Orb independente parece demasiado difícil e arriscado.

O que é viável é tornar este tipo de abuso mais incómodo de implementar e detetável. A abordagem da Prova de Humanidade, que exige que uma pessoa diga uma frase específica quando se regista, é um bom exemplo: pode ser suficiente para impedir o rastreio oculto, exigindo que a coerção seja muito mais flagrante, e a frase de registo pode até incluir uma declaração que confirme que o inquirido sabe que tem o direito de se voltar a registar independentemente e que pode obter moedas UBI ou outras recompensas. Se for detectada coação, os dispositivos utilizados para efetuar registos coercivos em massa podem ver os seus direitos de acesso revogados. Para evitar que as aplicações associem os IDs actuais e anteriores das pessoas e tentem deixar "registos permanentes", a aplicação de prova de identidade predefinida poderia bloquear a chave do utilizador em hardware de confiança, impedindo que qualquer aplicação utilizasse a chave diretamente sem a camada de anonimização ZK-SNARK pelo meio. Se um governo ou um programador de aplicações quiser contornar esta situação, terá de impor a utilização da sua própria aplicação personalizada.

Com uma combinação destas técnicas e uma vigilância ativa, parece possível bloquear os regimes que são verdadeiramente hostis e manter honestos os regimes que são apenas medianamente maus (como grande parte do mundo é). Isto pode ser feito através de um projeto como o Worldcoin ou o Proof of Humanity, mantendo a sua própria burocracia para esta tarefa, ou revelando mais informações sobre como um ID foi registado (por exemplo, no Worldcoin, de que Orb veio), e deixando esta tarefa de classificação para a comunidade.

Podemos impedir o aluguer de IDs (por exemplo, para vender votos)?

O aluguer do seu ID não é impedido por um novo registo. Nalgumas aplicações, não há problema: o custo do aluguer do seu direito de recolher a parte do dia da moeda UBI será apenas o valor da parte do dia da moeda UBI. Mas em aplicações como a votação, a venda fácil de votos é um enorme problema.

Sistemas como o MACI podem impedi-lo de vender o seu voto de forma credível, permitindo-lhe votar mais tarde, o que invalida o seu voto anterior, de tal forma que ninguém pode dizer se de facto votou ou não. No entanto, se o subornador controlar a chave que obtém no momento do registo, isto não ajuda.

Vejo aqui duas soluções:

  1. Execute aplicações inteiras dentro de um MPC. Isto abrangeria também o processo de novo registo: quando uma pessoa se regista no PPM, este atribui-lhe uma identificação separada e não associada à sua identificação de prova de identidade e, quando uma pessoa se volta a registar, só o PPM saberia qual a conta a desativar. Isto impede que os utilizadores façam provas sobre as suas acções, porque cada passo importante é feito dentro de um MPC utilizando informação privada que só é conhecida pelo MPC.
  2. Cerimónias de registo descentralizadas. Basicamente, implemente algo como este protocolo de registo de chaves presencial que requer que quatro participantes locais seleccionados aleatoriamente trabalhem em conjunto para registar alguém. Isto pode garantir que o registo é um procedimento "fiável" durante o qual um atacante não pode bisbilhotar.

Os sistemas baseados em gráficos sociais podem ter um melhor desempenho neste caso, porque podem criar automaticamente processos de registo locais descentralizados como um subproduto do seu funcionamento.

Como é que a biometria se compara com o outro principal candidato à prova de identidade, a verificação baseada em gráficos sociais?

Para além das abordagens biométricas, o principal concorrente à prova de identidade tem sido, até à data, a verificação baseada em gráficos sociais. Os sistemas de verificação baseados em grafos sociais funcionam todos com base no mesmo princípio: se houver um conjunto de identidades verificadas que atestem a validade da sua identidade, então provavelmente você é válido e deve também obter o estatuto de verificado.

Se apenas alguns utilizadores reais (acidental ou maliciosamente) verificarem utilizadores falsos, então pode utilizar técnicas básicas de teoria dos grafos para estabelecer um limite superior para o número de utilizadores falsos que são verificados pelo sistema. Fonte: https://www.sciencedirect.com/science/article/abs/pii/S0045790622000611.

Os defensores da verificação baseada em grafos sociais descrevem-na frequentemente como sendo uma melhor alternativa à biometria por algumas razões:

  • Não depende de hardware para fins especiais, o que facilita muito a sua implementação
  • Evita uma corrida armamentista permanente entre os fabricantes que tentam criar pessoas falsas e a necessidade de atualizar o Orb para rejeitar essas pessoas falsas
  • Não requer a recolha de dados biométricos, o que o torna mais amigo da privacidade
  • É potencialmente mais favorável ao pseudónimo, porque se alguém optar por dividir a sua vida na Internet em várias identidades que mantém separadas umas das outras, ambas as identidades podem ser potencialmente verificadas (mas manter várias identidades genuínas e separadas sacrifica os efeitos de rede e tem um custo elevado, pelo que não é algo que os atacantes possam fazer facilmente)
  • As abordagens biométricas dão uma pontuação binária de "é um ser humano" ou "não é um ser humano", o que é frágil: as pessoas que são acidentalmente rejeitadas acabariam por não ter qualquer UBI e, potencialmente, nenhuma capacidade de participar na vida em linha. As abordagens baseadas em grafos sociais podem dar uma pontuação numérica mais matizada, que pode, naturalmente, ser moderadamente injusta para alguns participantes, mas é improvável que "despersonalize" alguém completamente.

A minha perspetiva sobre estes argumentos é que concordo largamente com eles! Estas são vantagens genuínas das abordagens baseadas em gráficos sociais e devem ser levadas a sério. No entanto, também vale a pena ter em conta os pontos fracos das abordagens baseadas em gráficos sociais:

  • Bootstrapping: para que um utilizador se junte a um sistema baseado em grafos sociais, esse utilizador tem de conhecer alguém que já esteja no grafo. Isto dificulta a adoção em grande escala e pode excluir regiões inteiras do mundo que não tenham tido sorte no processo inicial de arranque.
  • Privacidade: embora as abordagens baseadas em gráficos sociais evitem a recolha de dados biométricos, acabam muitas vezes por divulgar informações sobre as relações sociais de uma pessoa, o que pode conduzir a riscos ainda maiores. É claro que a tecnologia de conhecimento zero pode atenuar esta situação (por exemplo. ver esta proposta de Barry Whitehat), mas a interdependência inerente a um gráfico e a necessidade de efetuar análises matemáticas no gráfico torna mais difícil conseguir o mesmo nível de ocultação de dados que se consegue com a biometria.
  • Desigualdade: cada pessoa só pode ter uma identificação biométrica, mas uma pessoa rica e com boas ligações sociais pode utilizar as suas ligações para gerar muitas identificações. Essencialmente, a mesma flexibilidade que pode permitir que um sistema baseado em gráficos sociais atribua vários pseudónimos a alguém (por exemplo. um ativista) que realmente precisa dessa caraterística, provavelmente também implicaria que pessoas mais poderosas e com bons contactos podem obter mais pseudónimos do que pessoas menos poderosas e com bons contactos.
  • Risco de colapso para a centralização: a maioria das pessoas é demasiado preguiçosa para perder tempo a comunicar numa aplicação da Internet quem é uma pessoa real e quem não é. Consequentemente, corre-se o risco de o sistema vir a favorecer, com o tempo, formas "fáceis" de ser introduzido que dependam de autoridades centralizadas, e o "gráfico social" que os utilizadores do sistema irão, de facto, tornar-se o gráfico social de que países reconhecem que pessoas como cidadãos - dando-nos um KYC centralizado com passos extra desnecessários.

A prova de pessoalidade é compatível com o pseudónimo no mundo real?

Em princípio, a prova de pessoalidade é compatível com todos os tipos de pseudónimos. As aplicações podem ser concebidas de forma a que uma pessoa com um único ID de prova de identidade possa criar até cinco perfis na aplicação, deixando espaço para contas pseudónimas. Pode mesmo utilizar fórmulas quadráticas: N representa um custo de $N². Mas será que o vão fazer?

Um pessimista, no entanto, poderia argumentar que é ingénuo tentar criar uma forma de identificação mais favorável à privacidade e esperar que seja realmente adoptada da forma correcta, porque os poderes instituídos não são favoráveis à privacidade e se um ator poderoso obtiver uma ferramenta que possa ser utilizada para obter muito mais informações sobre uma pessoa, utilizá-la-á dessa forma. Num mundo assim, diz o argumento, a única abordagem realista é, infelizmente, atirar areia para as engrenagens de qualquer solução de identidade e defender um mundo com total anonimato e ilhas digitais de comunidades de elevada confiança.

Compreendo o raciocínio subjacente a esta forma de pensar, mas receio que uma tal abordagem, mesmo que bem sucedida, conduza a um mundo onde ninguém possa fazer nada para contrariar a concentração da riqueza e a centralização da governação, porque uma pessoa pode sempre fazer-se passar por dez mil. Esses pontos de centralização seriam, por sua vez, fáceis de capturar pelos poderes instituídos. Em vez disso, eu seria a favor de uma abordagem moderada, em que defendemos vigorosamente que as soluções de prova de identidade têm uma privacidade forte, potencialmente, se desejado, até incluímos um mecanismo de "N contas para $N²" na camada de protocolo, e criamos algo que tem valores favoráveis à privacidade e tem uma hipótese de ser aceite pelo mundo exterior.

Então... o que é que eu acho?

Não existe uma forma ideal de prova da personalidade. Em vez disso, temos pelo menos três paradigmas diferentes de abordagens, todos com as suas próprias forças e fraquezas. Um gráfico de comparação pode ser o seguinte:

O ideal seria tratar estas três técnicas como complementares e combiná-las todas. Como o Aadhaar da Índia demonstrou à escala, a biometria de hardware especializado tem as suas vantagens de ser segura à escala. São muito fracos na descentralização, embora isso possa ser resolvido responsabilizando os Orbs individualmente. A biometria de uso geral pode ser adoptada muito facilmente hoje em dia, mas a sua segurança está a diminuir rapidamente e talvez só funcione durante mais 1 a 2 anos. Os sistemas baseados em grafos sociais, criados a partir de algumas centenas de pessoas socialmente próximas da equipa fundadora, são susceptíveis de enfrentar constantes compromissos entre a total ausência de grandes partes do mundo e a vulnerabilidade a ataques dentro de comunidades para as quais não têm visibilidade. No entanto, um sistema baseado em grafos sociais, com base em dezenas de milhões de titulares de identificação biométrica, poderia efetivamente funcionar. O bootstrapping biométrico pode funcionar melhor a curto prazo, enquanto as técnicas baseadas em gráficos sociais podem ser mais robustas a longo prazo e assumir uma maior quota-parte de responsabilidade ao longo do tempo, à medida que os seus algoritmos melhoram.

Uma possível via híbrida.

Todas estas equipas estão em posição de cometer muitos erros e existem tensões inevitáveis entre os interesses comerciais e as necessidades da comunidade em geral, pelo que é importante exercer uma grande vigilância. Enquanto comunidade, podemos e devemos forçar as zonas de conforto de todos os participantes no que diz respeito ao fornecimento aberto da sua tecnologia, exigir auditorias de terceiros e mesmo software escrito por terceiros, bem como outros controlos e equilíbrios. Precisamos também de mais alternativas em cada uma das três categorias.

Ao mesmo tempo, é importante reconhecer o trabalho já realizado: muitas das equipas que gerem estes sistemas mostraram vontade de levar a privacidade muito mais a sério do que praticamente qualquer governo ou sistema de identidade gerido por grandes empresas, e este é um sucesso que devemos aproveitar.

O problema de criar um sistema de prova de identidade que seja eficaz e fiável, especialmente nas mãos de pessoas distantes da comunidade criptográfica existente, parece bastante difícil. Não invejo de modo algum as pessoas que estão a tentar realizar esta tarefa, e é provável que demore anos a encontrar uma fórmula que funcione. O conceito de prova de identidade parece, em princípio, muito valioso e, embora as várias implementações tenham os seus riscos, não ter qualquer prova de identidade também tem os seus riscos: um mundo sem prova de identidade parece mais provável que seja um mundo dominado por soluções de identidade centralizadas, dinheiro, pequenas comunidades fechadas ou uma combinação dos três. Estou ansioso por ver mais progressos em todos os tipos de provas de personalidade e espero que as diferentes abordagens acabem por se juntar num todo coerente.

Declaração de exoneração de responsabilidade:

  1. Este artigo foi reimpresso de[vitalik], Todos os direitos de autor pertencem ao autor original[vitalik]. Se houver objecções a esta reimpressão, contacte a equipa da Gate Learn, que tratará prontamente do assunto.
  2. Declaração de exoneração de responsabilidade: Os pontos de vista e opiniões expressos neste artigo são da exclusiva responsabilidade do autor e não constituem um conselho de investimento.
  3. As traduções do artigo para outras línguas são efectuadas pela equipa Gate Learn. A menos que seja mencionado, é proibido copiar, distribuir ou plagiar os artigos traduzidos.
Empieza ahora
¡Regístrate y recibe un bono de
$100
!