📢 Desafio de marcação de post da Gate.io: #My Bullish Crypto Sectors# Publique e Compartilhe um Prêmio de $100!
Em que setores de criptomoedas você considera mais promissores - DeFi, AI, Meme ou RWA? O que os torna especiais para você?
💰️ Selecione 10 pôsteres de alta qualidade, ganhe facilmente uma recompensa de $10 cada!
💡 Como Participar:
1️⃣ Siga gate_Post
2️⃣ Abrir o aplicativo Gate.io, clique em "Moments" na parte inferior para entrar na página "Post-Square".
3️⃣ Clique no botão Postar no canto inferior direito, use a hashtag #My Bullish Crypto Sectors# e publique suas ideias.
✍️ Exem
Vitalik tem medo de AGI e ASI: os humanos devem priorizar ferramentas de aumento de inteligência, não substituir os humanos por IA
O co-fundador da Ethereum, Vitalik Buterin, partilhou no Twitter uma perspetiva única sobre AGI (Inteligência Artificial Geral) e ASI (Inteligência Artificial Superinteligente), enfatizando o foco nas ferramentas de IA, em vez de buscar o desenvolvimento de formas de vida superinteligentes para substituir os humanos. Ele expressou um grande receio em relação ao desenvolvimento excessivo de AGI e ASI.
AGI é uma inteligência artificial independente que mantém a civilização
Vitalik define AGI como uma IA bastante poderosa. Ele afirma que, se todos os seres humanos desaparecessem repentinamente e essa IA fosse instalada em robôs, seria capaz de funcionar de forma independente e manter o desenvolvimento de toda a civilização. Ele acrescenta que esse conceito eleva ainda mais a IA além de ser apenas uma "ferramenta", transformando-se em uma forma de vida autossustentável.
Vitalik aponta que a tecnologia atual não pode simular tal cenário, não podemos realmente testar se a IA pode manter a civilização sem pessoas, é ainda mais difícil definir os padrões de 'desenvolvimento civilizado', quais condições representam a continuação da civilização, e essas questões em si são muito complexas, mas isso pode ser a principal fonte de distinção direta entre AGI e IA comum.
(Nota: uma forma de vida autossustentável, que pode adquirir e usar recursos para manter as atividades vitais, adaptar-se a mudanças ambientais e sobreviver continuamente em certas condições.)
Enfatizar a importância das ferramentas de assistência inteligente não é substituir os humanos pela IA
Vitalik's definition of Artificial Superintelligence (ASI) is when the progress of AI surpasses the value that human involvement can provide and reaches a stage of complete autonomy and greater efficiency. He gives the example of international chess, which has truly entered this stage only in the past decade. The level of AI has already surpassed the best performance achieved by human-AI collaboration, and he admits that ASI makes him feel afraid because it means that humans may truly lose control over AI.
Vitalik afirmou que, em vez de desenvolver um superorganismo inteligente, é melhor focar no desenvolvimento de ferramentas que possam fortalecer a inteligência e habilidades humanas. Ele acredita que a IA deve auxiliar os seres humanos, em vez de substituí-los. Ele acredita que essa abordagem reduziria os riscos de a IA ficar incontrolável e, ao mesmo tempo, aumentaria a eficiência e estabilidade da sociedade como um todo.
(A ameaça de desemprego trazida pela IA generativa: os trabalhadores da Amazon serão completamente substituídos por uma frota de máquinas?)
Neste artigo, Vitalik tem medo do AGI e do ASI: os humanos devem priorizar ferramentas de aprimoramento da inteligência, não substituir os humanos pela IA. Publicado pela primeira vez em ChainNews ABMedia.