Vitalik tem medo de AGI e ASI: os humanos devem priorizar ferramentas de aumento de inteligência, não substituir os humanos por IA

O co-fundador da Ethereum, Vitalik Buterin, partilhou no Twitter uma perspetiva única sobre AGI (Inteligência Artificial Geral) e ASI (Inteligência Artificial Superinteligente), enfatizando o foco nas ferramentas de IA, em vez de buscar o desenvolvimento de formas de vida superinteligentes para substituir os humanos. Ele expressou um grande receio em relação ao desenvolvimento excessivo de AGI e ASI.

AGI é uma inteligência artificial independente que mantém a civilização

Vitalik define AGI como uma IA bastante poderosa. Ele afirma que, se todos os seres humanos desaparecessem repentinamente e essa IA fosse instalada em robôs, seria capaz de funcionar de forma independente e manter o desenvolvimento de toda a civilização. Ele acrescenta que esse conceito eleva ainda mais a IA além de ser apenas uma "ferramenta", transformando-se em uma forma de vida autossustentável.

Vitalik aponta que a tecnologia atual não pode simular tal cenário, não podemos realmente testar se a IA pode manter a civilização sem pessoas, é ainda mais difícil definir os padrões de 'desenvolvimento civilizado', quais condições representam a continuação da civilização, e essas questões em si são muito complexas, mas isso pode ser a principal fonte de distinção direta entre AGI e IA comum.

(Nota: uma forma de vida autossustentável, que pode adquirir e usar recursos para manter as atividades vitais, adaptar-se a mudanças ambientais e sobreviver continuamente em certas condições.)

Enfatizar a importância das ferramentas de assistência inteligente não é substituir os humanos pela IA

Vitalik's definition of Artificial Superintelligence (ASI) is when the progress of AI surpasses the value that human involvement can provide and reaches a stage of complete autonomy and greater efficiency. He gives the example of international chess, which has truly entered this stage only in the past decade. The level of AI has already surpassed the best performance achieved by human-AI collaboration, and he admits that ASI makes him feel afraid because it means that humans may truly lose control over AI.

Vitalik afirmou que, em vez de desenvolver um superorganismo inteligente, é melhor focar no desenvolvimento de ferramentas que possam fortalecer a inteligência e habilidades humanas. Ele acredita que a IA deve auxiliar os seres humanos, em vez de substituí-los. Ele acredita que essa abordagem reduziria os riscos de a IA ficar incontrolável e, ao mesmo tempo, aumentaria a eficiência e estabilidade da sociedade como um todo.

(A ameaça de desemprego trazida pela IA generativa: os trabalhadores da Amazon serão completamente substituídos por uma frota de máquinas?)

Neste artigo, Vitalik tem medo do AGI e do ASI: os humanos devem priorizar ferramentas de aprimoramento da inteligência, não substituir os humanos pela IA. Publicado pela primeira vez em ChainNews ABMedia.

Ver original
  • Recompensa
  • Comentar
  • Partilhar
Comentar
0/400
Nenhum comentário
Negocie cripto em qualquer lugar e a qualquer hora
Digitalizar para transferir a aplicação Gate.io
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)