Agradecimentos especiais à equipa Worldcoin, à comunidade Proof of Humanity e a Andrew Miller pela discussão.
Uma das mais complicadas, mas potencialmente uma das mais valiosas, engenhocas que as pessoas na comunidade Ethereum têm tentado construir é uma solução descentralizada de prova de personalidade. A prova de pessoalidade, também conhecida como o "problema do ser humano único", é uma forma limitada de identidade do mundo real que afirma que uma determinada conta registada é controlada por uma pessoa real (e uma pessoa real diferente de todas as outras contas registadas), idealmente sem revelar qual é a pessoa real.
Têm sido feitos alguns esforços para resolver este problema: Proof of Humanity, BrightID, Idena e Circles são alguns exemplos. Alguns deles vêm com as suas próprias aplicações (muitas vezes um token UBI), e alguns encontraram uso no Gitcoin Passport para verificar que contas são válidas para votação quadrática. A tecnologia de conhecimento zero, como a Sismo, acrescenta privacidade a muitas destas soluções. Mais recentemente, assistimos ao surgimento de um projeto de prova de personalidade muito maior e mais ambicioso: Worldcoin.
A Worldcoin foi co-fundada por Sam Altman, que é mais conhecido por ser o CEO da OpenAI. A filosofia por detrás do projeto é simples: A IA vai criar muita abundância e riqueza para a humanidade, mas também pode acabar com o emprego de muitas pessoas e tornar quase impossível saber quem é um humano e não um robot. Por isso, precisamos de tapar esse buraco: (i) criando um sistema de prova de personalidade muito bom para que os humanos possam provar que são efetivamente humanos e (ii) dando a todos um RBI. A Worldcoin é única na medida em que se baseia em dados biométricos altamente sofisticados, digitalizando a íris de cada utilizador) utilizando uma peça de hardware especializada chamada "the Orb":
O objetivo é produzir um grande número destes Orbs e distribuí-los amplamente por todo o mundo e colocá-los em locais públicos para que seja fácil para qualquer pessoa obter uma identificação. Para crédito da Worldcoin, eles também se comprometeram a descentralizar ao longo do tempo. No início, isto significa descentralização técnica: ser um L2 no Ethereum utilizando a pilha Optimism e protegendo a privacidade dos utilizadores com ZK-SNARKs e outras técnicas criptográficas. Mais tarde, inclui a descentralização da governação do próprio sistema.
A Worldcoin tem sido criticada por questões de privacidade e segurança em torno da Orb, por problemas de conceção da sua "moeda" e por questões éticas relacionadas com algumas escolhas que a empresa fez. Algumas das críticas são muito específicas, centrando-se em decisões tomadas pelo projeto que poderiam facilmente ter sido tomadas de outra forma - e que, na verdade, o próprio projeto Worldcoin poderá estar disposto a alterar. Outros, no entanto, levantam a questão mais fundamental de saber se a biometria - não apenas a biometria de varrimento ocular da Worldcoin, mas também os jogos mais simples de verificação e carregamento de vídeos faciais utilizados em Proof of Humanity e Idena - é ou não uma boa ideia. E outros ainda criticam a prova da personalidade em geral. Os riscos incluem inevitáveis fugas de privacidade, uma maior erosão da capacidade das pessoas navegarem anonimamente na Internet, a coerção por parte de governos autoritários e a potencial impossibilidade de ser seguro e ao mesmo tempo descentralizado.
Este post vai falar sobre estas questões e analisar alguns argumentos que o podem ajudar a decidir se é ou não uma boa ideia curvar-se e escrutinar os seus olhos (ou rosto, ou voz, ou...) perante os nossos novos senhores esféricos, e se as alternativas naturais - utilizar provas de personalidade baseadas em gráficos sociais ou desistir completamente das provas de personalidade - são ou não melhores.
A forma mais simples de definir um sistema de prova de identidade é: cria uma lista de chaves públicas em que o sistema garante que cada chave é controlada por um único ser humano. Por outras palavras, se for um humano, pode colocar uma chave na lista, mas não pode colocar duas chaves na lista e, se for um bot, não pode colocar nenhuma chave na lista.
A prova de identidade é valiosa porque resolve muitos dos problemas anti-spam e anti-concentração de poder que muitas pessoas têm, de uma forma que evita a dependência de autoridades centralizadas e revela o mínimo de informação possível. Se a prova de pessoalidade não for resolvida, a governação descentralizada (incluindo a "micro-governação", como as votações em mensagens nas redes sociais) torna-se muito mais fácil de capturar por actores muito ricos, incluindo governos hostis. Muitos serviços só poderiam evitar ataques de negação de serviço se fixassem um preço para o acesso e, por vezes, um preço suficientemente elevado para afastar os atacantes é também demasiado elevado para muitos utilizadores legítimos com rendimentos mais baixos.
Atualmente, muitas das principais aplicações no mundo lidam com esta questão utilizando sistemas de identidade apoiados pelo governo, como cartões de crédito e passaportes. Isto resolve o problema, mas faz grandes e talvez inaceitáveis sacrifícios à privacidade, e pode ser trivialmente atacado pelos próprios governos.
Quantos proponentes da prova de personalidade vêem o risco de duas faces que estamos a enfrentar? Fonte da imagem.
Em muitos projectos de prova de identidade - não apenas na Worldcoin, mas também na Proof of Humanity, Circles e outros - a "aplicação principal" é um "token N por pessoa" integrado (por vezes designado por "token UBI"). Cada utilizador registado no sistema recebe uma quantidade fixa de fichas por dia (ou hora, ou semana). Mas existem muitas outras aplicações:
Em muitos destes casos, o fio condutor é o desejo de criar mecanismos abertos e democráticos, evitando tanto o controlo centralizado pelos operadores de um projeto como o domínio dos seus utilizadores mais ricos. Esta última é especialmente importante na governação descentralizada. Em muitos destes casos, as soluções existentes atualmente baseiam-se numa combinação de (i) algoritmos de IA altamente opacos que deixam muita margem para discriminar indetectavelmente os utilizadores de que os operadores simplesmente não gostam, e (ii) IDs centralizados, também conhecidos como "KYC". Uma solução eficaz de prova de identidade seria uma alternativa muito melhor, alcançando as propriedades de segurança de que essas aplicações necessitam sem as armadilhas das abordagens centralizadas existentes.
Existem duas formas principais de prova de identidade: a biométrica e a baseada em gráficos sociais. A prova de identidade baseada em grafos sociais assenta numa forma de atestado: se a Alice, o Bob, o Charlie e o David são todos humanos verificados e todos eles dizem que a Emily é um humano verificado, então a Emily é provavelmente também um humano verificado. O atestado é muitas vezes reforçado com incentivos: se Alice disser que Emily é um humano, mas se se verificar que não é, então Alice e Emily podem ser penalizadas. A prova biométrica da personalidade envolve a verificação de um traço físico ou comportamental de Emily, que distingue os humanos dos bots (e os humanos individuais uns dos outros). A maioria dos projectos utiliza uma combinação das duas técnicas.
Os quatro sistemas que mencionei no início do post funcionam mais ou menos da seguinte forma:
Cada utilizador da Worldcoin instala uma aplicação no seu telemóvel, que gera uma chave privada e pública, tal como uma carteira Ethereum. Em seguida, vai pessoalmente visitar um "Orbe". O utilizador olha para a câmara do Orb e, ao mesmo tempo, mostra ao Orb um código QR gerado pela sua aplicação Worldcoin, que contém a sua chave pública. O Orb examina os olhos do utilizador e utiliza um complicado scanner de hardware e classificadores aprendidos por máquina para o verificar:
Se ambas as digitalizações passarem, o Orb assina uma mensagem que aprova um hash especializado da digitalização da íris do utilizador. O hash é carregado para uma base de dados - atualmente um servidor centralizado, que se pretende substituir por um sistema descentralizado na cadeia assim que se tiver a certeza de que o mecanismo de hashing funciona. O sistema não armazena digitalizações completas da íris; armazena apenas hashes e estes hashes são utilizados para verificar a exclusividade. A partir desse momento, o utilizador tem um "World ID".
O titular de um World ID pode provar que é um ser humano único, gerando um ZK-SNARK que prova que possui a chave privada correspondente a uma chave pública na base de dados, sem revelar qual a chave que possui. Assim, mesmo que alguém volte a analisar a sua íris, não conseguirá ver quaisquer acções que tenha efectuado.
Há quatro grandes riscos que nos vêm imediatamente à cabeça:
É importante distinguir entre (i) questões específicas das escolhas feitas pela Worldcoin, (ii) questões que qualquer prova biométrica de identidade terá inevitavelmente, e (iii) questões que qualquer prova de identidade em geral terá. Por exemplo, inscrever-se na Proof of Humanity significa publicar o seu rosto na Internet. Aderir a um grupo de verificação da BrightID não faz exatamente isso, mas expõe a sua identidade a muitas pessoas. E a adesão aos Círculos expõe publicamente o seu gráfico social. A Worldcoin é significativamente melhor em termos de preservação da privacidade do que qualquer uma dessas opções. Por outro lado, a Worldcoin depende de hardware especializado, o que abre o desafio de confiar que os fabricantes de orbes construíram os orbes corretamente - um desafio que não tem paralelo na Proof of Humanity, BrightID ou Circles. É até concebível que, no futuro, alguém que não seja a Worldcoin crie uma solução diferente de hardware especializado que tenha diferentes compensações.
A mais óbvia e maior fuga de privacidade potencial que qualquer sistema de prova de identidade tem é a ligação de cada ação que uma pessoa realiza a uma identidade do mundo real. Esta fuga de dados é muito grande, sem dúvida inaceitavelmente grande, mas felizmente é fácil de resolver com tecnologia à prova de conhecimento zero. Em vez de fazer diretamente uma assinatura com uma chave privada cuja chave pública correspondente se encontra na base de dados, um utilizador poderia fazer um ZK-SNARK provando que possui a chave privada cuja chave pública correspondente se encontra algures na base de dados, sem revelar qual a chave específica que possui. Isso pode ser feito genericamente com ferramentas como o Sismo (veja aqui a implementação específica do Proof of Humanity), e o Worldcoin tem sua própria implementação embutida. É importante dar crédito à prova de personalidade "cripto-nativa" aqui: eles realmente se preocupam em dar este passo básico para fornecer anonimato, enquanto basicamente todas as soluções de identidade centralizadas não o fazem.
Uma fuga de privacidade mais subtil, mas ainda assim importante, é a mera existência de um registo público de digitalizações biométricas. No caso da Prova de Humanidade, trata-se de muitos dados: obtém um vídeo de cada participante da Prova de Humanidade, tornando muito claro para qualquer pessoa no mundo que queira investigar quem são todos os participantes da Prova de Humanidade. No caso da Worldcoin, a fuga é muito mais limitada: a Orb calcula e publica localmente apenas um "hash" do scan da íris de cada pessoa. Este hash não é um hash normal como o SHA256; é antes um algoritmo especializado baseado em filtros Gabor aprendidos por máquina que lida com a inexatidão inerente a qualquer digitalização biométrica e garante que hashes sucessivos obtidos da íris da mesma pessoa têm resultados semelhantes.
Azul: percentagem de bits que diferem entre duas digitalizações da íris da mesma pessoa. Laranja: percentagem de bits que diferem entre duas digitalizações da íris de duas pessoas diferentes.
Estes hashes de íris deixam escapar apenas uma pequena quantidade de dados. Se um adversário conseguir fazer uma leitura forçada (ou secreta) da sua íris, pode calcular ele próprio o hash da sua íris e compará-lo com a base de dados de hashes da íris para ver se participou ou não no sistema. Esta capacidade de verificar se alguém se inscreveu ou não é necessária para que o próprio sistema evite que as pessoas se inscrevam várias vezes, mas há sempre a possibilidade de ser abusada. Além disso, existe a possibilidade de os hashes da íris deixarem escapar alguma quantidade de dados médicos (sexo, etnia, talvez condições médicas), mas essa fuga é muito menor do que a que poderia ser capturada por praticamente qualquer outro sistema de recolha de dados em massa atualmente em uso (por exemplo. até câmaras de rua). De um modo geral, a privacidade do armazenamento de hashes da íris parece-me suficiente.
Se outros não concordarem com este julgamento e decidirem que querem conceber um sistema com ainda mais privacidade, há duas formas de o fazer:
Infelizmente, estas técnicas não se aplicam à Prova de Humanidade, porque a Prova de Humanidade exige que o vídeo completo de cada participante esteja disponível ao público para que possa ser contestado se houver indícios de que é falso (incluindo falsificações geradas por IA) e, nesses casos, investigado com mais pormenor.
De um modo geral, apesar da "vibração distópica" de olhar para um Orb e deixar que ele analise profundamente os seus globos oculares, parece que os sistemas de hardware especializados podem fazer um trabalho bastante decente na proteção da privacidade. No entanto, o outro lado desta situação é que os sistemas de hardware especializados introduzem preocupações de centralização muito maiores. Por isso, nós, cypherpunks, parecemos estar presos num dilema: temos de trocar um valor cypherpunk profundamente enraizado por outro.
O hardware especializado apresenta problemas de acessibilidade porque, bem, o hardware especializado não é muito acessível. Atualmente, entre 51% e 64% dos africanos subsarianos têm smartphones, e prevê-se que este número aumente para 87% até 2030. Mas embora existam biliões de smartphones, existem apenas algumas centenas de Orbs. Mesmo com uma produção distribuída a uma escala muito mais elevada, seria difícil chegar a um mundo em que houvesse um Orb a menos de cinco quilómetros de toda a gente.
Mas, para crédito da equipa, eles têm tentado!
É também de salientar que muitas outras formas de prova da personalidade têm problemas de acessibilidade que são ainda piores. É muito difícil aderir a um sistema de prova de identidade baseado no grafo social, a menos que já conheça alguém que esteja no grafo social. Isto faz com que seja muito fácil para estes sistemas permanecerem restritos a uma única comunidade num único país.
Até os sistemas de identidade centralizados aprenderam esta lição: o sistema de identificação Aadhaar da Índia baseia-se na biometria, pois era a única forma de integrar rapidamente a sua população maciça, evitando ao mesmo tempo fraudes maciças de contas duplicadas e falsas (resultando em enormes poupanças de custos), embora, claro, o sistema Aadhaar como um todo seja muito mais fraco em termos de privacidade do que qualquer coisa que esteja a ser proposta em grande escala na comunidade cripto.
Os sistemas com melhor desempenho do ponto de vista da acessibilidade são, na verdade, sistemas como o Proof of Humanity, em que pode inscrever-se utilizando apenas um smartphone - embora, como vimos e veremos, esses sistemas tenham todo o tipo de outras desvantagens.
Existem três:
Qualquer sistema de prova de personalidade tem de lidar com (1), talvez com exceção dos sistemas em que o conjunto de IDs "aceites" é completamente subjetivo. Se um sistema utiliza incentivos denominados em activos externos (por exemplo. ETH, USDC, DAI), então não pode ser totalmente subjetivo, pelo que os riscos de governação se tornam inevitáveis.
[2] é um risco muito maior para a Worldcoin do que para a Proof of Humanity (ou BrightID), porque a Worldcoin depende de hardware especializado e os outros sistemas não.
[3] é um risco, especialmente em "<a href="https://medium.com/@VitalikButerin/the-meaning-of-decentralization-a0c92b76a274"> logicamente centralizado" sistemas em que há um único sistema a fazer a verificação, a menos que todos os algoritmos sejam de código aberto e tenhamos a garantia de que estão efetivamente a executar o código que afirmam estar. Para os sistemas que se baseiam apenas na verificação de outros utilizadores por parte dos utilizadores (como o Proof of Humanity), não existe qualquer risco.
Atualmente, uma entidade afiliada à Worldcoin chamada Tools for Humanity é a única organização que está a produzir Orbs. No entanto, o código-fonte do Orb é maioritariamente público: pode ver as especificações do hardware neste repositório do github, e espera-se que outras partes do código-fonte sejam publicadas em breve. A licença é mais uma daquelas licenças de "código partilhado mas não tecnicamente aberto até daqui a quatro anos", semelhante à BSL do Uniswap , exceto que, para além de impedir o forking, também impede o que eles consideram comportamento pouco ético - listam especificamente a vigilância em massa e três declarações internacionais de direitos civis .
O objetivo declarado da equipa é permitir e encorajar outras organizações a criar Orbs e, ao longo do tempo, fazer a transição dos Orbs criados pela Tools for Humanity para uma espécie de DAO que aprova e gere as organizações que podem criar Orbs que são reconhecidas pelo sistema.
Esta conceção pode falhar de duas formas:
Para tornar o sistema mais robusto contra os maus fabricantes de Orbs, a equipa da Worldcoin propõe a realização de auditorias regulares às Orbs, verificando se foram construídas corretamente e se os principais componentes de hardware foram construídos de acordo com as especificações e não foram adulterados posteriormente. Trata-se de uma tarefa difícil: é basicamente algo como a burocracia das inspecções nucleares da AIEA, mas para Orbs. A esperança é que mesmo uma implementação muito imperfeita de um regime de auditoria possa reduzir grandemente o número de Orbs falsos.
Para limitar os danos causados por qualquer mau orbe que se escape, faz sentido ter uma segunda atenuação. Os World IDs registados em diferentes fabricantes de Orbs e, idealmente, em diferentes Orbs, devem ser distinguíveis uns dos outros. Não há problema se estas informações forem privadas e apenas armazenadas no dispositivo do titular da World ID, mas têm de ser comprováveis a pedido. Isto permite que o ecossistema responda a ataques (inevitáveis) removendo fabricantes de Orb individuais, e talvez até Orbs individuais, da lista branca a pedido. Se o governo da Coreia do Norte obrigar as pessoas a fazer um scan aos seus globos oculares, esses Orbs e quaisquer contas produzidas por eles podem ser imediatamente desactivados com efeitos retroactivos.
Para além das questões específicas da Worldcoin, existem preocupações que afectam os projectos de prova de identidade em geral. As principais que me ocorrem são:
[1] é específico para sistemas biométricos de prova de identidade. [2] e [3] são comuns aos desenhos biométricos e não biométricos. [4] também é comum a ambos, embora as técnicas necessárias sejam bastante diferentes em ambos os casos; nesta secção, centrar-me-ei nos problemas do caso biométrico.
Estas são fraquezas muito graves. Alguns já foram abordados nos protocolos existentes, outros podem ser abordados com melhorias futuras e outros ainda parecem ser limitações fundamentais.
Este risco é significativamente menor para a Worldcoin do que para os sistemas do tipo Prova de Humanidade: um scan em pessoa pode examinar muitas características de uma pessoa e é bastante difícil de falsificar, em comparação com a mera falsificação de um vídeo. O hardware especializado é inerentemente mais difícil de enganar do que o hardware comum, que por sua vez é mais difícil de enganar do que os algoritmos digitais que verificam imagens e vídeos enviados remotamente.
Será que alguém pode imprimir em 3D algo que possa enganar até o hardware especializado? Provavelmente. Espero que, a dada altura, assistamos a tensões crescentes entre o objetivo de manter o mecanismo aberto e de o manter seguro: os algoritmos de IA de código aberto são inerentemente mais vulneráveis à aprendizagem automática adversária. Os algoritmos de caixa negra são mais protegidos, mas é difícil dizer que um algoritmo de caixa negra não foi treinado para incluir backdoors. Talvez as tecnologias ZK-ML nos possam dar o melhor dos dois mundos. No entanto, num futuro ainda mais longínquo, é provável que até os melhores algoritmos de IA sejam enganados pelas melhores pessoas falsas impressas em 3D.
No entanto, das minhas conversas com as equipas da Worldcoin e da Proof of Humanity, parece que, neste momento, nenhum dos protocolos está ainda a sofrer ataques de deep fake significativos, pela simples razão de que contratar trabalhadores reais com baixos salários para se inscreverem em seu nome é bastante barato e fácil.
A curto prazo, é difícil evitar este tipo de externalização, porque a maioria das pessoas no mundo nem sequer conhece os protocolos de prova de identidade e, se lhes dissermos para segurarem um código QR e digitalizarem os olhos para ver se têm 30 dólares, elas fazem-no. Quando mais pessoas estiverem conscientes do que são os protocolos de prova de identidade, torna-se possível uma mitigação bastante simples: permitir que as pessoas que têm um BI registado se voltem a registar, cancelando o BI anterior. Isto torna a "venda de ID" muito menos credível, porque alguém que lhe vende o seu ID pode simplesmente voltar a registar-se, cancelando o ID que acabou de vender. No entanto, para chegar a este ponto, é necessário que o protocolo seja amplamente conhecido e que os Orbs estejam amplamente acessíveis para tornar prático o registo a pedido.
Esta é uma das razões pelas quais ter uma moeda UBI integrada num sistema de prova de identidade é valioso: uma moeda UBI fornece um incentivo facilmente compreensível para que as pessoas (i) tomem conhecimento do protocolo e se registem, e (ii) se registem imediatamente de novo se se registarem em nome de outra pessoa. O novo registo também evita a pirataria telefónica.
Isto depende do tipo de coerção de que estamos a falar. As possíveis formas de coação incluem:
Todo o seu RBI e poder de voto pertencem-nos. Fonte da imagem.
Especialmente nas mãos de utilizadores pouco sofisticados, parece bastante difícil evitar estas situações. Os utilizadores podem sair do seu país para se (re)registarem numa Orb num país mais seguro, mas este é um processo difícil e de custo elevado. Num ambiente jurídico verdadeiramente hostil, procurar uma Orb independente parece demasiado difícil e arriscado.
O que é viável é tornar este tipo de abuso mais incómodo de implementar e detetável. A abordagem da Prova de Humanidade, que exige que uma pessoa diga uma frase específica quando se regista, é um bom exemplo: pode ser suficiente para impedir o rastreio oculto, exigindo que a coerção seja muito mais flagrante, e a frase de registo pode até incluir uma declaração que confirme que o inquirido sabe que tem o direito de se voltar a registar independentemente e que pode obter moedas UBI ou outras recompensas. Se for detectada coação, os dispositivos utilizados para efetuar registos coercivos em massa podem ver os seus direitos de acesso revogados. Para evitar que as aplicações associem os IDs actuais e anteriores das pessoas e tentem deixar "registos permanentes", a aplicação de prova de identidade predefinida poderia bloquear a chave do utilizador em hardware de confiança, impedindo que qualquer aplicação utilizasse a chave diretamente sem a camada de anonimização ZK-SNARK pelo meio. Se um governo ou um programador de aplicações quiser contornar esta situação, terá de impor a utilização da sua própria aplicação personalizada.
Com uma combinação destas técnicas e uma vigilância ativa, parece possível bloquear os regimes que são verdadeiramente hostis e manter honestos os regimes que são apenas medianamente maus (como grande parte do mundo é). Isto pode ser feito através de um projeto como o Worldcoin ou o Proof of Humanity, mantendo a sua própria burocracia para esta tarefa, ou revelando mais informações sobre como um ID foi registado (por exemplo, no Worldcoin, de que Orb veio), e deixando esta tarefa de classificação para a comunidade.
O aluguer do seu ID não é impedido por um novo registo. Nalgumas aplicações, não há problema: o custo do aluguer do seu direito de recolher a parte do dia da moeda UBI será apenas o valor da parte do dia da moeda UBI. Mas em aplicações como a votação, a venda fácil de votos é um enorme problema.
Sistemas como o MACI podem impedi-lo de vender o seu voto de forma credível, permitindo-lhe votar mais tarde, o que invalida o seu voto anterior, de tal forma que ninguém pode dizer se de facto votou ou não. No entanto, se o subornador controlar a chave que obtém no momento do registo, isto não ajuda.
Vejo aqui duas soluções:
Os sistemas baseados em gráficos sociais podem ter um melhor desempenho neste caso, porque podem criar automaticamente processos de registo locais descentralizados como um subproduto do seu funcionamento.
Para além das abordagens biométricas, o principal concorrente à prova de identidade tem sido, até à data, a verificação baseada em gráficos sociais. Os sistemas de verificação baseados em grafos sociais funcionam todos com base no mesmo princípio: se houver um conjunto de identidades verificadas que atestem a validade da sua identidade, então provavelmente você é válido e deve também obter o estatuto de verificado.
Se apenas alguns utilizadores reais (acidental ou maliciosamente) verificarem utilizadores falsos, então pode utilizar técnicas básicas de teoria dos grafos para estabelecer um limite superior para o número de utilizadores falsos que são verificados pelo sistema. Fonte: https://www.sciencedirect.com/science/article/abs/pii/S0045790622000611.
Os defensores da verificação baseada em grafos sociais descrevem-na frequentemente como sendo uma melhor alternativa à biometria por algumas razões:
A minha perspetiva sobre estes argumentos é que concordo largamente com eles! Estas são vantagens genuínas das abordagens baseadas em gráficos sociais e devem ser levadas a sério. No entanto, também vale a pena ter em conta os pontos fracos das abordagens baseadas em gráficos sociais:
Em princípio, a prova de pessoalidade é compatível com todos os tipos de pseudónimos. As aplicações podem ser concebidas de forma a que uma pessoa com um único ID de prova de identidade possa criar até cinco perfis na aplicação, deixando espaço para contas pseudónimas. Pode mesmo utilizar fórmulas quadráticas: N representa um custo de $N². Mas será que o vão fazer?
Um pessimista, no entanto, poderia argumentar que é ingénuo tentar criar uma forma de identificação mais favorável à privacidade e esperar que seja realmente adoptada da forma correcta, porque os poderes instituídos não são favoráveis à privacidade e se um ator poderoso obtiver uma ferramenta que possa ser utilizada para obter muito mais informações sobre uma pessoa, utilizá-la-á dessa forma. Num mundo assim, diz o argumento, a única abordagem realista é, infelizmente, atirar areia para as engrenagens de qualquer solução de identidade e defender um mundo com total anonimato e ilhas digitais de comunidades de elevada confiança.
Compreendo o raciocínio subjacente a esta forma de pensar, mas receio que uma tal abordagem, mesmo que bem sucedida, conduza a um mundo onde ninguém possa fazer nada para contrariar a concentração da riqueza e a centralização da governação, porque uma pessoa pode sempre fazer-se passar por dez mil. Esses pontos de centralização seriam, por sua vez, fáceis de capturar pelos poderes instituídos. Em vez disso, eu seria a favor de uma abordagem moderada, em que defendemos vigorosamente que as soluções de prova de identidade têm uma privacidade forte, potencialmente, se desejado, até incluímos um mecanismo de "N contas para $N²" na camada de protocolo, e criamos algo que tem valores favoráveis à privacidade e tem uma hipótese de ser aceite pelo mundo exterior.
Não existe uma forma ideal de prova da personalidade. Em vez disso, temos pelo menos três paradigmas diferentes de abordagens, todos com as suas próprias forças e fraquezas. Um gráfico de comparação pode ser o seguinte:
O ideal seria tratar estas três técnicas como complementares e combiná-las todas. Como o Aadhaar da Índia demonstrou à escala, a biometria de hardware especializado tem as suas vantagens de ser segura à escala. São muito fracos na descentralização, embora isso possa ser resolvido responsabilizando os Orbs individualmente. A biometria de uso geral pode ser adoptada muito facilmente hoje em dia, mas a sua segurança está a diminuir rapidamente e talvez só funcione durante mais 1 a 2 anos. Os sistemas baseados em grafos sociais, criados a partir de algumas centenas de pessoas socialmente próximas da equipa fundadora, são susceptíveis de enfrentar constantes compromissos entre a total ausência de grandes partes do mundo e a vulnerabilidade a ataques dentro de comunidades para as quais não têm visibilidade. No entanto, um sistema baseado em grafos sociais, com base em dezenas de milhões de titulares de identificação biométrica, poderia efetivamente funcionar. O bootstrapping biométrico pode funcionar melhor a curto prazo, enquanto as técnicas baseadas em gráficos sociais podem ser mais robustas a longo prazo e assumir uma maior quota-parte de responsabilidade ao longo do tempo, à medida que os seus algoritmos melhoram.
Uma possível via híbrida.
Todas estas equipas estão em posição de cometer muitos erros e existem tensões inevitáveis entre os interesses comerciais e as necessidades da comunidade em geral, pelo que é importante exercer uma grande vigilância. Enquanto comunidade, podemos e devemos forçar as zonas de conforto de todos os participantes no que diz respeito ao fornecimento aberto da sua tecnologia, exigir auditorias de terceiros e mesmo software escrito por terceiros, bem como outros controlos e equilíbrios. Precisamos também de mais alternativas em cada uma das três categorias.
Ao mesmo tempo, é importante reconhecer o trabalho já realizado: muitas das equipas que gerem estes sistemas mostraram vontade de levar a privacidade muito mais a sério do que praticamente qualquer governo ou sistema de identidade gerido por grandes empresas, e este é um sucesso que devemos aproveitar.
O problema de criar um sistema de prova de identidade que seja eficaz e fiável, especialmente nas mãos de pessoas distantes da comunidade criptográfica existente, parece bastante difícil. Não invejo de modo algum as pessoas que estão a tentar realizar esta tarefa, e é provável que demore anos a encontrar uma fórmula que funcione. O conceito de prova de identidade parece, em princípio, muito valioso e, embora as várias implementações tenham os seus riscos, não ter qualquer prova de identidade também tem os seus riscos: um mundo sem prova de identidade parece mais provável que seja um mundo dominado por soluções de identidade centralizadas, dinheiro, pequenas comunidades fechadas ou uma combinação dos três. Estou ansioso por ver mais progressos em todos os tipos de provas de personalidade e espero que as diferentes abordagens acabem por se juntar num todo coerente.
Agradecimentos especiais à equipa Worldcoin, à comunidade Proof of Humanity e a Andrew Miller pela discussão.
Uma das mais complicadas, mas potencialmente uma das mais valiosas, engenhocas que as pessoas na comunidade Ethereum têm tentado construir é uma solução descentralizada de prova de personalidade. A prova de pessoalidade, também conhecida como o "problema do ser humano único", é uma forma limitada de identidade do mundo real que afirma que uma determinada conta registada é controlada por uma pessoa real (e uma pessoa real diferente de todas as outras contas registadas), idealmente sem revelar qual é a pessoa real.
Têm sido feitos alguns esforços para resolver este problema: Proof of Humanity, BrightID, Idena e Circles são alguns exemplos. Alguns deles vêm com as suas próprias aplicações (muitas vezes um token UBI), e alguns encontraram uso no Gitcoin Passport para verificar que contas são válidas para votação quadrática. A tecnologia de conhecimento zero, como a Sismo, acrescenta privacidade a muitas destas soluções. Mais recentemente, assistimos ao surgimento de um projeto de prova de personalidade muito maior e mais ambicioso: Worldcoin.
A Worldcoin foi co-fundada por Sam Altman, que é mais conhecido por ser o CEO da OpenAI. A filosofia por detrás do projeto é simples: A IA vai criar muita abundância e riqueza para a humanidade, mas também pode acabar com o emprego de muitas pessoas e tornar quase impossível saber quem é um humano e não um robot. Por isso, precisamos de tapar esse buraco: (i) criando um sistema de prova de personalidade muito bom para que os humanos possam provar que são efetivamente humanos e (ii) dando a todos um RBI. A Worldcoin é única na medida em que se baseia em dados biométricos altamente sofisticados, digitalizando a íris de cada utilizador) utilizando uma peça de hardware especializada chamada "the Orb":
O objetivo é produzir um grande número destes Orbs e distribuí-los amplamente por todo o mundo e colocá-los em locais públicos para que seja fácil para qualquer pessoa obter uma identificação. Para crédito da Worldcoin, eles também se comprometeram a descentralizar ao longo do tempo. No início, isto significa descentralização técnica: ser um L2 no Ethereum utilizando a pilha Optimism e protegendo a privacidade dos utilizadores com ZK-SNARKs e outras técnicas criptográficas. Mais tarde, inclui a descentralização da governação do próprio sistema.
A Worldcoin tem sido criticada por questões de privacidade e segurança em torno da Orb, por problemas de conceção da sua "moeda" e por questões éticas relacionadas com algumas escolhas que a empresa fez. Algumas das críticas são muito específicas, centrando-se em decisões tomadas pelo projeto que poderiam facilmente ter sido tomadas de outra forma - e que, na verdade, o próprio projeto Worldcoin poderá estar disposto a alterar. Outros, no entanto, levantam a questão mais fundamental de saber se a biometria - não apenas a biometria de varrimento ocular da Worldcoin, mas também os jogos mais simples de verificação e carregamento de vídeos faciais utilizados em Proof of Humanity e Idena - é ou não uma boa ideia. E outros ainda criticam a prova da personalidade em geral. Os riscos incluem inevitáveis fugas de privacidade, uma maior erosão da capacidade das pessoas navegarem anonimamente na Internet, a coerção por parte de governos autoritários e a potencial impossibilidade de ser seguro e ao mesmo tempo descentralizado.
Este post vai falar sobre estas questões e analisar alguns argumentos que o podem ajudar a decidir se é ou não uma boa ideia curvar-se e escrutinar os seus olhos (ou rosto, ou voz, ou...) perante os nossos novos senhores esféricos, e se as alternativas naturais - utilizar provas de personalidade baseadas em gráficos sociais ou desistir completamente das provas de personalidade - são ou não melhores.
A forma mais simples de definir um sistema de prova de identidade é: cria uma lista de chaves públicas em que o sistema garante que cada chave é controlada por um único ser humano. Por outras palavras, se for um humano, pode colocar uma chave na lista, mas não pode colocar duas chaves na lista e, se for um bot, não pode colocar nenhuma chave na lista.
A prova de identidade é valiosa porque resolve muitos dos problemas anti-spam e anti-concentração de poder que muitas pessoas têm, de uma forma que evita a dependência de autoridades centralizadas e revela o mínimo de informação possível. Se a prova de pessoalidade não for resolvida, a governação descentralizada (incluindo a "micro-governação", como as votações em mensagens nas redes sociais) torna-se muito mais fácil de capturar por actores muito ricos, incluindo governos hostis. Muitos serviços só poderiam evitar ataques de negação de serviço se fixassem um preço para o acesso e, por vezes, um preço suficientemente elevado para afastar os atacantes é também demasiado elevado para muitos utilizadores legítimos com rendimentos mais baixos.
Atualmente, muitas das principais aplicações no mundo lidam com esta questão utilizando sistemas de identidade apoiados pelo governo, como cartões de crédito e passaportes. Isto resolve o problema, mas faz grandes e talvez inaceitáveis sacrifícios à privacidade, e pode ser trivialmente atacado pelos próprios governos.
Quantos proponentes da prova de personalidade vêem o risco de duas faces que estamos a enfrentar? Fonte da imagem.
Em muitos projectos de prova de identidade - não apenas na Worldcoin, mas também na Proof of Humanity, Circles e outros - a "aplicação principal" é um "token N por pessoa" integrado (por vezes designado por "token UBI"). Cada utilizador registado no sistema recebe uma quantidade fixa de fichas por dia (ou hora, ou semana). Mas existem muitas outras aplicações:
Em muitos destes casos, o fio condutor é o desejo de criar mecanismos abertos e democráticos, evitando tanto o controlo centralizado pelos operadores de um projeto como o domínio dos seus utilizadores mais ricos. Esta última é especialmente importante na governação descentralizada. Em muitos destes casos, as soluções existentes atualmente baseiam-se numa combinação de (i) algoritmos de IA altamente opacos que deixam muita margem para discriminar indetectavelmente os utilizadores de que os operadores simplesmente não gostam, e (ii) IDs centralizados, também conhecidos como "KYC". Uma solução eficaz de prova de identidade seria uma alternativa muito melhor, alcançando as propriedades de segurança de que essas aplicações necessitam sem as armadilhas das abordagens centralizadas existentes.
Existem duas formas principais de prova de identidade: a biométrica e a baseada em gráficos sociais. A prova de identidade baseada em grafos sociais assenta numa forma de atestado: se a Alice, o Bob, o Charlie e o David são todos humanos verificados e todos eles dizem que a Emily é um humano verificado, então a Emily é provavelmente também um humano verificado. O atestado é muitas vezes reforçado com incentivos: se Alice disser que Emily é um humano, mas se se verificar que não é, então Alice e Emily podem ser penalizadas. A prova biométrica da personalidade envolve a verificação de um traço físico ou comportamental de Emily, que distingue os humanos dos bots (e os humanos individuais uns dos outros). A maioria dos projectos utiliza uma combinação das duas técnicas.
Os quatro sistemas que mencionei no início do post funcionam mais ou menos da seguinte forma:
Cada utilizador da Worldcoin instala uma aplicação no seu telemóvel, que gera uma chave privada e pública, tal como uma carteira Ethereum. Em seguida, vai pessoalmente visitar um "Orbe". O utilizador olha para a câmara do Orb e, ao mesmo tempo, mostra ao Orb um código QR gerado pela sua aplicação Worldcoin, que contém a sua chave pública. O Orb examina os olhos do utilizador e utiliza um complicado scanner de hardware e classificadores aprendidos por máquina para o verificar:
Se ambas as digitalizações passarem, o Orb assina uma mensagem que aprova um hash especializado da digitalização da íris do utilizador. O hash é carregado para uma base de dados - atualmente um servidor centralizado, que se pretende substituir por um sistema descentralizado na cadeia assim que se tiver a certeza de que o mecanismo de hashing funciona. O sistema não armazena digitalizações completas da íris; armazena apenas hashes e estes hashes são utilizados para verificar a exclusividade. A partir desse momento, o utilizador tem um "World ID".
O titular de um World ID pode provar que é um ser humano único, gerando um ZK-SNARK que prova que possui a chave privada correspondente a uma chave pública na base de dados, sem revelar qual a chave que possui. Assim, mesmo que alguém volte a analisar a sua íris, não conseguirá ver quaisquer acções que tenha efectuado.
Há quatro grandes riscos que nos vêm imediatamente à cabeça:
É importante distinguir entre (i) questões específicas das escolhas feitas pela Worldcoin, (ii) questões que qualquer prova biométrica de identidade terá inevitavelmente, e (iii) questões que qualquer prova de identidade em geral terá. Por exemplo, inscrever-se na Proof of Humanity significa publicar o seu rosto na Internet. Aderir a um grupo de verificação da BrightID não faz exatamente isso, mas expõe a sua identidade a muitas pessoas. E a adesão aos Círculos expõe publicamente o seu gráfico social. A Worldcoin é significativamente melhor em termos de preservação da privacidade do que qualquer uma dessas opções. Por outro lado, a Worldcoin depende de hardware especializado, o que abre o desafio de confiar que os fabricantes de orbes construíram os orbes corretamente - um desafio que não tem paralelo na Proof of Humanity, BrightID ou Circles. É até concebível que, no futuro, alguém que não seja a Worldcoin crie uma solução diferente de hardware especializado que tenha diferentes compensações.
A mais óbvia e maior fuga de privacidade potencial que qualquer sistema de prova de identidade tem é a ligação de cada ação que uma pessoa realiza a uma identidade do mundo real. Esta fuga de dados é muito grande, sem dúvida inaceitavelmente grande, mas felizmente é fácil de resolver com tecnologia à prova de conhecimento zero. Em vez de fazer diretamente uma assinatura com uma chave privada cuja chave pública correspondente se encontra na base de dados, um utilizador poderia fazer um ZK-SNARK provando que possui a chave privada cuja chave pública correspondente se encontra algures na base de dados, sem revelar qual a chave específica que possui. Isso pode ser feito genericamente com ferramentas como o Sismo (veja aqui a implementação específica do Proof of Humanity), e o Worldcoin tem sua própria implementação embutida. É importante dar crédito à prova de personalidade "cripto-nativa" aqui: eles realmente se preocupam em dar este passo básico para fornecer anonimato, enquanto basicamente todas as soluções de identidade centralizadas não o fazem.
Uma fuga de privacidade mais subtil, mas ainda assim importante, é a mera existência de um registo público de digitalizações biométricas. No caso da Prova de Humanidade, trata-se de muitos dados: obtém um vídeo de cada participante da Prova de Humanidade, tornando muito claro para qualquer pessoa no mundo que queira investigar quem são todos os participantes da Prova de Humanidade. No caso da Worldcoin, a fuga é muito mais limitada: a Orb calcula e publica localmente apenas um "hash" do scan da íris de cada pessoa. Este hash não é um hash normal como o SHA256; é antes um algoritmo especializado baseado em filtros Gabor aprendidos por máquina que lida com a inexatidão inerente a qualquer digitalização biométrica e garante que hashes sucessivos obtidos da íris da mesma pessoa têm resultados semelhantes.
Azul: percentagem de bits que diferem entre duas digitalizações da íris da mesma pessoa. Laranja: percentagem de bits que diferem entre duas digitalizações da íris de duas pessoas diferentes.
Estes hashes de íris deixam escapar apenas uma pequena quantidade de dados. Se um adversário conseguir fazer uma leitura forçada (ou secreta) da sua íris, pode calcular ele próprio o hash da sua íris e compará-lo com a base de dados de hashes da íris para ver se participou ou não no sistema. Esta capacidade de verificar se alguém se inscreveu ou não é necessária para que o próprio sistema evite que as pessoas se inscrevam várias vezes, mas há sempre a possibilidade de ser abusada. Além disso, existe a possibilidade de os hashes da íris deixarem escapar alguma quantidade de dados médicos (sexo, etnia, talvez condições médicas), mas essa fuga é muito menor do que a que poderia ser capturada por praticamente qualquer outro sistema de recolha de dados em massa atualmente em uso (por exemplo. até câmaras de rua). De um modo geral, a privacidade do armazenamento de hashes da íris parece-me suficiente.
Se outros não concordarem com este julgamento e decidirem que querem conceber um sistema com ainda mais privacidade, há duas formas de o fazer:
Infelizmente, estas técnicas não se aplicam à Prova de Humanidade, porque a Prova de Humanidade exige que o vídeo completo de cada participante esteja disponível ao público para que possa ser contestado se houver indícios de que é falso (incluindo falsificações geradas por IA) e, nesses casos, investigado com mais pormenor.
De um modo geral, apesar da "vibração distópica" de olhar para um Orb e deixar que ele analise profundamente os seus globos oculares, parece que os sistemas de hardware especializados podem fazer um trabalho bastante decente na proteção da privacidade. No entanto, o outro lado desta situação é que os sistemas de hardware especializados introduzem preocupações de centralização muito maiores. Por isso, nós, cypherpunks, parecemos estar presos num dilema: temos de trocar um valor cypherpunk profundamente enraizado por outro.
O hardware especializado apresenta problemas de acessibilidade porque, bem, o hardware especializado não é muito acessível. Atualmente, entre 51% e 64% dos africanos subsarianos têm smartphones, e prevê-se que este número aumente para 87% até 2030. Mas embora existam biliões de smartphones, existem apenas algumas centenas de Orbs. Mesmo com uma produção distribuída a uma escala muito mais elevada, seria difícil chegar a um mundo em que houvesse um Orb a menos de cinco quilómetros de toda a gente.
Mas, para crédito da equipa, eles têm tentado!
É também de salientar que muitas outras formas de prova da personalidade têm problemas de acessibilidade que são ainda piores. É muito difícil aderir a um sistema de prova de identidade baseado no grafo social, a menos que já conheça alguém que esteja no grafo social. Isto faz com que seja muito fácil para estes sistemas permanecerem restritos a uma única comunidade num único país.
Até os sistemas de identidade centralizados aprenderam esta lição: o sistema de identificação Aadhaar da Índia baseia-se na biometria, pois era a única forma de integrar rapidamente a sua população maciça, evitando ao mesmo tempo fraudes maciças de contas duplicadas e falsas (resultando em enormes poupanças de custos), embora, claro, o sistema Aadhaar como um todo seja muito mais fraco em termos de privacidade do que qualquer coisa que esteja a ser proposta em grande escala na comunidade cripto.
Os sistemas com melhor desempenho do ponto de vista da acessibilidade são, na verdade, sistemas como o Proof of Humanity, em que pode inscrever-se utilizando apenas um smartphone - embora, como vimos e veremos, esses sistemas tenham todo o tipo de outras desvantagens.
Existem três:
Qualquer sistema de prova de personalidade tem de lidar com (1), talvez com exceção dos sistemas em que o conjunto de IDs "aceites" é completamente subjetivo. Se um sistema utiliza incentivos denominados em activos externos (por exemplo. ETH, USDC, DAI), então não pode ser totalmente subjetivo, pelo que os riscos de governação se tornam inevitáveis.
[2] é um risco muito maior para a Worldcoin do que para a Proof of Humanity (ou BrightID), porque a Worldcoin depende de hardware especializado e os outros sistemas não.
[3] é um risco, especialmente em "<a href="https://medium.com/@VitalikButerin/the-meaning-of-decentralization-a0c92b76a274"> logicamente centralizado" sistemas em que há um único sistema a fazer a verificação, a menos que todos os algoritmos sejam de código aberto e tenhamos a garantia de que estão efetivamente a executar o código que afirmam estar. Para os sistemas que se baseiam apenas na verificação de outros utilizadores por parte dos utilizadores (como o Proof of Humanity), não existe qualquer risco.
Atualmente, uma entidade afiliada à Worldcoin chamada Tools for Humanity é a única organização que está a produzir Orbs. No entanto, o código-fonte do Orb é maioritariamente público: pode ver as especificações do hardware neste repositório do github, e espera-se que outras partes do código-fonte sejam publicadas em breve. A licença é mais uma daquelas licenças de "código partilhado mas não tecnicamente aberto até daqui a quatro anos", semelhante à BSL do Uniswap , exceto que, para além de impedir o forking, também impede o que eles consideram comportamento pouco ético - listam especificamente a vigilância em massa e três declarações internacionais de direitos civis .
O objetivo declarado da equipa é permitir e encorajar outras organizações a criar Orbs e, ao longo do tempo, fazer a transição dos Orbs criados pela Tools for Humanity para uma espécie de DAO que aprova e gere as organizações que podem criar Orbs que são reconhecidas pelo sistema.
Esta conceção pode falhar de duas formas:
Para tornar o sistema mais robusto contra os maus fabricantes de Orbs, a equipa da Worldcoin propõe a realização de auditorias regulares às Orbs, verificando se foram construídas corretamente e se os principais componentes de hardware foram construídos de acordo com as especificações e não foram adulterados posteriormente. Trata-se de uma tarefa difícil: é basicamente algo como a burocracia das inspecções nucleares da AIEA, mas para Orbs. A esperança é que mesmo uma implementação muito imperfeita de um regime de auditoria possa reduzir grandemente o número de Orbs falsos.
Para limitar os danos causados por qualquer mau orbe que se escape, faz sentido ter uma segunda atenuação. Os World IDs registados em diferentes fabricantes de Orbs e, idealmente, em diferentes Orbs, devem ser distinguíveis uns dos outros. Não há problema se estas informações forem privadas e apenas armazenadas no dispositivo do titular da World ID, mas têm de ser comprováveis a pedido. Isto permite que o ecossistema responda a ataques (inevitáveis) removendo fabricantes de Orb individuais, e talvez até Orbs individuais, da lista branca a pedido. Se o governo da Coreia do Norte obrigar as pessoas a fazer um scan aos seus globos oculares, esses Orbs e quaisquer contas produzidas por eles podem ser imediatamente desactivados com efeitos retroactivos.
Para além das questões específicas da Worldcoin, existem preocupações que afectam os projectos de prova de identidade em geral. As principais que me ocorrem são:
[1] é específico para sistemas biométricos de prova de identidade. [2] e [3] são comuns aos desenhos biométricos e não biométricos. [4] também é comum a ambos, embora as técnicas necessárias sejam bastante diferentes em ambos os casos; nesta secção, centrar-me-ei nos problemas do caso biométrico.
Estas são fraquezas muito graves. Alguns já foram abordados nos protocolos existentes, outros podem ser abordados com melhorias futuras e outros ainda parecem ser limitações fundamentais.
Este risco é significativamente menor para a Worldcoin do que para os sistemas do tipo Prova de Humanidade: um scan em pessoa pode examinar muitas características de uma pessoa e é bastante difícil de falsificar, em comparação com a mera falsificação de um vídeo. O hardware especializado é inerentemente mais difícil de enganar do que o hardware comum, que por sua vez é mais difícil de enganar do que os algoritmos digitais que verificam imagens e vídeos enviados remotamente.
Será que alguém pode imprimir em 3D algo que possa enganar até o hardware especializado? Provavelmente. Espero que, a dada altura, assistamos a tensões crescentes entre o objetivo de manter o mecanismo aberto e de o manter seguro: os algoritmos de IA de código aberto são inerentemente mais vulneráveis à aprendizagem automática adversária. Os algoritmos de caixa negra são mais protegidos, mas é difícil dizer que um algoritmo de caixa negra não foi treinado para incluir backdoors. Talvez as tecnologias ZK-ML nos possam dar o melhor dos dois mundos. No entanto, num futuro ainda mais longínquo, é provável que até os melhores algoritmos de IA sejam enganados pelas melhores pessoas falsas impressas em 3D.
No entanto, das minhas conversas com as equipas da Worldcoin e da Proof of Humanity, parece que, neste momento, nenhum dos protocolos está ainda a sofrer ataques de deep fake significativos, pela simples razão de que contratar trabalhadores reais com baixos salários para se inscreverem em seu nome é bastante barato e fácil.
A curto prazo, é difícil evitar este tipo de externalização, porque a maioria das pessoas no mundo nem sequer conhece os protocolos de prova de identidade e, se lhes dissermos para segurarem um código QR e digitalizarem os olhos para ver se têm 30 dólares, elas fazem-no. Quando mais pessoas estiverem conscientes do que são os protocolos de prova de identidade, torna-se possível uma mitigação bastante simples: permitir que as pessoas que têm um BI registado se voltem a registar, cancelando o BI anterior. Isto torna a "venda de ID" muito menos credível, porque alguém que lhe vende o seu ID pode simplesmente voltar a registar-se, cancelando o ID que acabou de vender. No entanto, para chegar a este ponto, é necessário que o protocolo seja amplamente conhecido e que os Orbs estejam amplamente acessíveis para tornar prático o registo a pedido.
Esta é uma das razões pelas quais ter uma moeda UBI integrada num sistema de prova de identidade é valioso: uma moeda UBI fornece um incentivo facilmente compreensível para que as pessoas (i) tomem conhecimento do protocolo e se registem, e (ii) se registem imediatamente de novo se se registarem em nome de outra pessoa. O novo registo também evita a pirataria telefónica.
Isto depende do tipo de coerção de que estamos a falar. As possíveis formas de coação incluem:
Todo o seu RBI e poder de voto pertencem-nos. Fonte da imagem.
Especialmente nas mãos de utilizadores pouco sofisticados, parece bastante difícil evitar estas situações. Os utilizadores podem sair do seu país para se (re)registarem numa Orb num país mais seguro, mas este é um processo difícil e de custo elevado. Num ambiente jurídico verdadeiramente hostil, procurar uma Orb independente parece demasiado difícil e arriscado.
O que é viável é tornar este tipo de abuso mais incómodo de implementar e detetável. A abordagem da Prova de Humanidade, que exige que uma pessoa diga uma frase específica quando se regista, é um bom exemplo: pode ser suficiente para impedir o rastreio oculto, exigindo que a coerção seja muito mais flagrante, e a frase de registo pode até incluir uma declaração que confirme que o inquirido sabe que tem o direito de se voltar a registar independentemente e que pode obter moedas UBI ou outras recompensas. Se for detectada coação, os dispositivos utilizados para efetuar registos coercivos em massa podem ver os seus direitos de acesso revogados. Para evitar que as aplicações associem os IDs actuais e anteriores das pessoas e tentem deixar "registos permanentes", a aplicação de prova de identidade predefinida poderia bloquear a chave do utilizador em hardware de confiança, impedindo que qualquer aplicação utilizasse a chave diretamente sem a camada de anonimização ZK-SNARK pelo meio. Se um governo ou um programador de aplicações quiser contornar esta situação, terá de impor a utilização da sua própria aplicação personalizada.
Com uma combinação destas técnicas e uma vigilância ativa, parece possível bloquear os regimes que são verdadeiramente hostis e manter honestos os regimes que são apenas medianamente maus (como grande parte do mundo é). Isto pode ser feito através de um projeto como o Worldcoin ou o Proof of Humanity, mantendo a sua própria burocracia para esta tarefa, ou revelando mais informações sobre como um ID foi registado (por exemplo, no Worldcoin, de que Orb veio), e deixando esta tarefa de classificação para a comunidade.
O aluguer do seu ID não é impedido por um novo registo. Nalgumas aplicações, não há problema: o custo do aluguer do seu direito de recolher a parte do dia da moeda UBI será apenas o valor da parte do dia da moeda UBI. Mas em aplicações como a votação, a venda fácil de votos é um enorme problema.
Sistemas como o MACI podem impedi-lo de vender o seu voto de forma credível, permitindo-lhe votar mais tarde, o que invalida o seu voto anterior, de tal forma que ninguém pode dizer se de facto votou ou não. No entanto, se o subornador controlar a chave que obtém no momento do registo, isto não ajuda.
Vejo aqui duas soluções:
Os sistemas baseados em gráficos sociais podem ter um melhor desempenho neste caso, porque podem criar automaticamente processos de registo locais descentralizados como um subproduto do seu funcionamento.
Para além das abordagens biométricas, o principal concorrente à prova de identidade tem sido, até à data, a verificação baseada em gráficos sociais. Os sistemas de verificação baseados em grafos sociais funcionam todos com base no mesmo princípio: se houver um conjunto de identidades verificadas que atestem a validade da sua identidade, então provavelmente você é válido e deve também obter o estatuto de verificado.
Se apenas alguns utilizadores reais (acidental ou maliciosamente) verificarem utilizadores falsos, então pode utilizar técnicas básicas de teoria dos grafos para estabelecer um limite superior para o número de utilizadores falsos que são verificados pelo sistema. Fonte: https://www.sciencedirect.com/science/article/abs/pii/S0045790622000611.
Os defensores da verificação baseada em grafos sociais descrevem-na frequentemente como sendo uma melhor alternativa à biometria por algumas razões:
A minha perspetiva sobre estes argumentos é que concordo largamente com eles! Estas são vantagens genuínas das abordagens baseadas em gráficos sociais e devem ser levadas a sério. No entanto, também vale a pena ter em conta os pontos fracos das abordagens baseadas em gráficos sociais:
Em princípio, a prova de pessoalidade é compatível com todos os tipos de pseudónimos. As aplicações podem ser concebidas de forma a que uma pessoa com um único ID de prova de identidade possa criar até cinco perfis na aplicação, deixando espaço para contas pseudónimas. Pode mesmo utilizar fórmulas quadráticas: N representa um custo de $N². Mas será que o vão fazer?
Um pessimista, no entanto, poderia argumentar que é ingénuo tentar criar uma forma de identificação mais favorável à privacidade e esperar que seja realmente adoptada da forma correcta, porque os poderes instituídos não são favoráveis à privacidade e se um ator poderoso obtiver uma ferramenta que possa ser utilizada para obter muito mais informações sobre uma pessoa, utilizá-la-á dessa forma. Num mundo assim, diz o argumento, a única abordagem realista é, infelizmente, atirar areia para as engrenagens de qualquer solução de identidade e defender um mundo com total anonimato e ilhas digitais de comunidades de elevada confiança.
Compreendo o raciocínio subjacente a esta forma de pensar, mas receio que uma tal abordagem, mesmo que bem sucedida, conduza a um mundo onde ninguém possa fazer nada para contrariar a concentração da riqueza e a centralização da governação, porque uma pessoa pode sempre fazer-se passar por dez mil. Esses pontos de centralização seriam, por sua vez, fáceis de capturar pelos poderes instituídos. Em vez disso, eu seria a favor de uma abordagem moderada, em que defendemos vigorosamente que as soluções de prova de identidade têm uma privacidade forte, potencialmente, se desejado, até incluímos um mecanismo de "N contas para $N²" na camada de protocolo, e criamos algo que tem valores favoráveis à privacidade e tem uma hipótese de ser aceite pelo mundo exterior.
Não existe uma forma ideal de prova da personalidade. Em vez disso, temos pelo menos três paradigmas diferentes de abordagens, todos com as suas próprias forças e fraquezas. Um gráfico de comparação pode ser o seguinte:
O ideal seria tratar estas três técnicas como complementares e combiná-las todas. Como o Aadhaar da Índia demonstrou à escala, a biometria de hardware especializado tem as suas vantagens de ser segura à escala. São muito fracos na descentralização, embora isso possa ser resolvido responsabilizando os Orbs individualmente. A biometria de uso geral pode ser adoptada muito facilmente hoje em dia, mas a sua segurança está a diminuir rapidamente e talvez só funcione durante mais 1 a 2 anos. Os sistemas baseados em grafos sociais, criados a partir de algumas centenas de pessoas socialmente próximas da equipa fundadora, são susceptíveis de enfrentar constantes compromissos entre a total ausência de grandes partes do mundo e a vulnerabilidade a ataques dentro de comunidades para as quais não têm visibilidade. No entanto, um sistema baseado em grafos sociais, com base em dezenas de milhões de titulares de identificação biométrica, poderia efetivamente funcionar. O bootstrapping biométrico pode funcionar melhor a curto prazo, enquanto as técnicas baseadas em gráficos sociais podem ser mais robustas a longo prazo e assumir uma maior quota-parte de responsabilidade ao longo do tempo, à medida que os seus algoritmos melhoram.
Uma possível via híbrida.
Todas estas equipas estão em posição de cometer muitos erros e existem tensões inevitáveis entre os interesses comerciais e as necessidades da comunidade em geral, pelo que é importante exercer uma grande vigilância. Enquanto comunidade, podemos e devemos forçar as zonas de conforto de todos os participantes no que diz respeito ao fornecimento aberto da sua tecnologia, exigir auditorias de terceiros e mesmo software escrito por terceiros, bem como outros controlos e equilíbrios. Precisamos também de mais alternativas em cada uma das três categorias.
Ao mesmo tempo, é importante reconhecer o trabalho já realizado: muitas das equipas que gerem estes sistemas mostraram vontade de levar a privacidade muito mais a sério do que praticamente qualquer governo ou sistema de identidade gerido por grandes empresas, e este é um sucesso que devemos aproveitar.
O problema de criar um sistema de prova de identidade que seja eficaz e fiável, especialmente nas mãos de pessoas distantes da comunidade criptográfica existente, parece bastante difícil. Não invejo de modo algum as pessoas que estão a tentar realizar esta tarefa, e é provável que demore anos a encontrar uma fórmula que funcione. O conceito de prova de identidade parece, em princípio, muito valioso e, embora as várias implementações tenham os seus riscos, não ter qualquer prova de identidade também tem os seus riscos: um mundo sem prova de identidade parece mais provável que seja um mundo dominado por soluções de identidade centralizadas, dinheiro, pequenas comunidades fechadas ou uma combinação dos três. Estou ansioso por ver mais progressos em todos os tipos de provas de personalidade e espero que as diferentes abordagens acabem por se juntar num todo coerente.