🎊 Déverrouillez les récompenses Crypto avec le Centre d'activités de Gate.io!
🎯 Découvrez une série d'événements passionnants :
- Christmas Wonderland
- #GT# Atteint un nouveau sommet, accueillant joyeusement Noël
- Prédiction de prix #BTC#
- Don de 100 millions de dollars en continu
- Célèbre 20 millions d'utilisateurs avec une offre spéciale de Thanksgiving
- Gate.io X Inter Milan Glory Collaboration
🏆 Plus de 1 564 666 $ de prix vous attendent : https://www.gate.io/competition/center
#Gateio# #ActivityCenter#
V Dieu est terrifié par le développement de l’IA : les humains devraient construire des outils pratiques, pas une vie intelligente
Alors que l'IA connaît un essor fulgurant, Vitalik Buterin, co-fondateur d'Ethereum, a exprimé sa crainte pour l'AGI (intelligence artificielle générale) et l'ASI (super intelligence artificielle), car cela pourrait représenter un risque significatif de perte de contrôle. Il soutient la création d'outils d'amélioration de l'intelligence humaine plutôt que la création d'une forme de vie super intelligente. Le développement de l'IA générative a connu une avancée spectaculaire au cours des dernières années, démontrant non seulement le potentiel puissant de la technologie, mais suscitant également des discussions et des préoccupations profondes quant à la possibilité de réaliser l'AGI et l'ASI. L'AGI fait référence à une intelligence artificielle dotée d'une intelligence similaire à celle des humains, capable d'exécuter des tâches dans divers domaines, et non limitée à une application spécifique. L'ASI, quant à elle, désigne une intelligence artificielle dépassant tous les niveaux d'intelligence humaine, avec des capacités exceptionnelles dans des domaines spécifiques et la capacité de surpasser les êtres humains dans tous les aspects. Sam Altman, PDG d'OpenAI, a prédit en septembre de cette année que l'ASI apparaîtrait dans quelques milliers de jours, surpassant l'AGI et ayant une capacité considérablement supérieure à celle des humains pour effectuer des tâches intelligentes. Grimes, chanteuse canadienne renommée, a exprimé sa peur de l'ASI après avoir observé les réalisations de projets d'IA tels que Janus. Vitalik Buterin a réagi en déclarant que son interprétation de l'AGI est une IA suffisamment puissante pour que, si un jour tous les humains disparaissaient et que l'IA était téléchargée dans des corps de robots, elle serait en mesure de poursuivre indépendamment la civilisation. Il a reconnu que cette définition était extrêmement difficile à mesurer, mais qu'elle représente la différence intuitive potentielle entre l'IA telle que nous la connaissons actuellement et l'AGI, passant d'un outil dépendant de l'entrée humaine à une forme de vie autosuffisante. L'ASI est une tout autre chose. Selon lui, l'ASI est atteinte lorsque les êtres humains ne créent plus de valeur productive dans un cycle (ce qui est similaire à ce qui s'est produit dans les jeux d'échecs au cours des dix dernières années). Vitalik Buterin a conclu en exprimant sa peur de l'ASI telle qu'il la définit, ainsi que de l'AGI, en raison des risques évidents de perte de contrôle. Par conséquent, il soutient la concentration des efforts sur la création d'outils d'amélioration de l'intelligence humaine plutôt que sur la construction d'une forme de vie super intelligente.