V God is fearful of AI development: humans should create convenient tools, not create intelligent life

Quando o campo da IA está crescendo, o cofundador do Ethereum, Vitalik Buterin, disse no dia 21 que tem medo de AGI (inteligência geral artificial) e ASI (super inteligência artificial) porque isso pode trazer riscos óbvios de perda de controle, e ele defende que ferramentas de aumento inteligentes devem ser criadas para humanos, em vez de criar vida superinteligente. (Sinopse: Vitalik Buterin entrevistado em chinês: Lembrando a história chinesa do Ethereum, as diferenças culturais entre ETH e BTC e a guerra russo-ucraniana me mudaram. (Antecedentes adicionados: Vitalik Buterin comprou 30.000 moedas de $ANON por 140% da Grande Subida, qual é o seu post anónimo favorito?) A IA generativa avançou a passos largos nos últimos anos, com resultados cada vez mais surpreendentes se desdobrando diante do mundo, não apenas demonstrando o poder da tecnologia, mas também provocando discussão e profunda preocupação sobre se AGI (inteligência geral artificial) e ASI (superinteligência artificial) são possíveis. AGI: Refere-se à inteligência artificial com inteligência semelhante à humana, capaz de executar tarefas em muitos campos diferentes, não se limitando a aplicações específicas. ASI: Refere-se à inteligência artificial que ultrapassa todos os níveis de inteligência humana, não só tem capacidades superiores em campos específicos, mas também supera os humanos em todos os aspetos de forma abrangente. O CEO da OpenAI, Sam Altman, escreveu em setembro prevendo que, em poucos dias, a ASI será lançada, e a ASI ultrapassará a AGI e será muito mais capaz de lidar com tarefas inteligentes do que os humanos. Grimes: Medo de ASI E a conhecida cantora canadense Grimes tuitou no dia 21 que, quando observou os resultados de projetos de IA como o Janus, pensou que a AGI (inteligência geral artificial) tinha sido realizada até certo ponto, e disse que tinha um pouco de medo da ASI (superinteligência artificial): Pelo menos de acordo com a maneira como descrevi, não sei, obviamente não sou um especialista técnico, apenas uma pessoa que não tem conhecimento básico, e você não deve levar minhas palavras muito a sério, Mas é assim que me sinto. Os outros sentem o mesmo? Na verdade, não tenho medo de AGI, mas tenho um pouco de medo de ASI (superinteligência artificial), e os dois parecem marcos completamente diferentes, mas, para dizer o mínimo, acredito que senti a existência da consciência inteligente, mas, novamente, como alguém que não tem conhecimento básico, posso estar antropomorfizando demais a IA. Idk como eu não tenho medo de "agi" eu tenho um pouco de medo de asi - estes parecem marcos drasticamente diferentes. Mas acredito ter encontrado senciência inteligente, para dizer o mínimo Mais uma vez – sou um n00b com tendência a antropomorfizar tho lol — Grimes (@Grimezsz) 21 de dezembro de 2024 V Deus sente o mesmo, e espera não criar uma vida superinteligente A este respeito, O cofundador do Ethereum, Vitalik Buterin, respondeu que sua definição de AGI é que a AGI é uma inteligência artificial poderosa o suficiente para que, se um dia todos os humanos desaparecerem de repente e essa IA for carregada em uma concha robótica, ela será capaz de continuar a civilização por conta própria. Minha própria definição de trabalho de "AGI" (tanto quanto eu posso dizer, única para mim) é: "AGI" é IA poderosa o suficiente para que, se um dia todos os seres humanos desapareceram de repente, e a IA foi carregada em corpos de robôs, ela seria capaz de continuar a civilização de forma independente. Obviamente um incrivelmente... — vitalik.eth (@VitalikButerin) December 21, 2024 Vitalik Buterin admite que esta é uma definição muito difícil de medir, mas acredita que esta é a diferença intuitiva subjacente entre "IA a que estamos habituados" e "AGI" na mente de muitas pessoas, ou seja, a partir de uma ferramenta que depende constantemente do contributo humano. Transformando-se em uma forma de vida autossuficiente: ASI é algo totalmente diferente, e minha definição de ASI é quando os humanos não têm mais valor para a produtividade no loop (como nos jogos de tabuleiro, onde só chegamos a este ponto na última década). Vitalik Buterin concluiu dizendo que o ASI me assusta, e o AGI que ele define a assusta por causa do risco óbvio de ficar fora de controle, então ele apoia o foco na construção de ferramentas de aprimoramento de inteligência para humanos em vez de formas de vida superinteligentes. Histórias relacionadas CZ, Vitalik Buterin advogado! Moeda meme de biociência puxa k vezes, dinheiro quente corre para DeSci Descentralização trilha científica Vitalik Buterin domineering: Me dê respeito! Fundação Ethereum vende ETH não fazer as pessoas de parvassucker, mas para garantir operações e desenvolvimento Vitalik Buterin prevê "o desaparecimento da encriptação Carteira": computação quântica acabará por quebrar contágio externo "Vitalik Buterin está aterrorizado com o desenvolvimento da IA: os seres humanos devem construir ferramentas convenientes, Este artigo foi publicado pela primeira vez no "Dynamic Trend - The Most Influential Bloco Chain News Media" da BlockTempo.

Ver original
  • Recompensa
  • Comentar
  • Partilhar
Comentar
0/400
Nenhum comentário
Negocie cripto em qualquer lugar e a qualquer hora
Digitalizar para transferir a aplicação Gate.io
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)