V Dieu est terrifié par le développement de l’IA : les humains devraient construire des outils pratiques, pas une vie intelligente

Alors que l'IA connaît un essor fulgurant, Vitalik Buterin, co-fondateur d'Ethereum, a exprimé sa crainte pour l'AGI (intelligence artificielle générale) et l'ASI (super intelligence artificielle), car cela pourrait représenter un risque significatif de perte de contrôle. Il soutient la création d'outils d'amélioration de l'intelligence humaine plutôt que la création d'une forme de vie super intelligente. Le développement de l'IA générative a connu une avancée spectaculaire au cours des dernières années, démontrant non seulement le potentiel puissant de la technologie, mais suscitant également des discussions et des préoccupations profondes quant à la possibilité de réaliser l'AGI et l'ASI. L'AGI fait référence à une intelligence artificielle dotée d'une intelligence similaire à celle des humains, capable d'exécuter des tâches dans divers domaines, et non limitée à une application spécifique. L'ASI, quant à elle, désigne une intelligence artificielle dépassant tous les niveaux d'intelligence humaine, avec des capacités exceptionnelles dans des domaines spécifiques et la capacité de surpasser les êtres humains dans tous les aspects. Sam Altman, PDG d'OpenAI, a prédit en septembre de cette année que l'ASI apparaîtrait dans quelques milliers de jours, surpassant l'AGI et ayant une capacité considérablement supérieure à celle des humains pour effectuer des tâches intelligentes. Grimes, chanteuse canadienne renommée, a exprimé sa peur de l'ASI après avoir observé les réalisations de projets d'IA tels que Janus. Vitalik Buterin a réagi en déclarant que son interprétation de l'AGI est une IA suffisamment puissante pour que, si un jour tous les humains disparaissaient et que l'IA était téléchargée dans des corps de robots, elle serait en mesure de poursuivre indépendamment la civilisation. Il a reconnu que cette définition était extrêmement difficile à mesurer, mais qu'elle représente la différence intuitive potentielle entre l'IA telle que nous la connaissons actuellement et l'AGI, passant d'un outil dépendant de l'entrée humaine à une forme de vie autosuffisante. L'ASI est une tout autre chose. Selon lui, l'ASI est atteinte lorsque les êtres humains ne créent plus de valeur productive dans un cycle (ce qui est similaire à ce qui s'est produit dans les jeux d'échecs au cours des dix dernières années). Vitalik Buterin a conclu en exprimant sa peur de l'ASI telle qu'il la définit, ainsi que de l'AGI, en raison des risques évidents de perte de contrôle. Par conséquent, il soutient la concentration des efforts sur la création d'outils d'amélioration de l'intelligence humaine plutôt que sur la construction d'une forme de vie super intelligente.

Voir l'original
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
Trader les cryptos partout et à tout moment
Scan pour télécharger Gate.io app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)