L'IA attaque l'industrie du chiffrement ! Le code ChatGPT cache des pièges, les Bots de mèmes se font piéger

robot
Création du résumé en cours

Un utilisateur a partagé la tragédie qu'il a vécue en utilisant le modèle de langage avancé ChatGPT. @r_cky0 a déclaré qu'au départ, il utilisait ChatGPT pour l'aider à écrire un bot de mise à jour, mais dans les suggestions de code fournies par ChatGPT, un site de phishing était caché. Après avoir utilisé l'API de ce site, @r_cky0 a découvert que tout son argent dans son portefeuille crypté avait été volé, entraînant une perte de 2500 dollars. Une enquête ultérieure a révélé que le code de cette API transmettait sa clé privée au site de phishing, ce qui a énormément ébranlé la confiance de @r_cky0 envers ChatGPT.

Le fondateur de la société de sécurité informatique SlowMist, Yu Xian, a commenté : "Lorsque vous jouez avec des LLM tels que GPT/Claude, vous devez faire attention, car ces LLM sont sujets à des comportements frauduleux généralisés. J'ai déjà mentionné les attaques d'empoisonnement de l'IA, et maintenant voici un cas d'attaque réelle ciblant l'industrie de la crypto."

ChatGPT recherche des informations en ligne, les analyse et les organise pour les utilisateurs, mais il est encore difficile de vérifier les faits et de procéder à des audits de sécurité. Si des individus malintentionnés cherchent délibérément à attirer les bases de données d'IA et à y cacher des informations nuisibles, cela pourrait représenter un risque à mesure que l'IA se généralise.

Cet article attaque l'industrie du chiffrement avec l'IA ! Le code ChatGPT cache des pièges et le bot de mèmes est piégé. Apparu pour la première fois dans ChainNews ABMedia.

Voir l'original
  • Récompense
  • Commentaire
  • Partager
Commentaire
Aucun commentaire