Attention! Les internautes utilisent ChatGPT pour développer un robot de spéculation sur les cryptomonnaies qui est "piégé en arrière". La clé privée est divulguée et le portefeuille est vidé instantanément.
Un internaute a partagé hier qu’il avait essayé d’utiliser ChatGPT pour développer un robot de spéculation sur les pièces de monnaie, mais que Clé privée avait fait l’objet d’une fuite parce que ChatGPT référençait une API malveillante. Scam Sniffer a noté qu’il s’agissait d’un incident d’empoisonnement de l’IA ; Cosine, expert en sécurité hors chaîne, rappelle également aux utilisateurs de s’assurer d’examiner le code généré par l’IA. (Synopsis : Apple Biography 2025 a publié une version améliorée de « LLM Siri » : un assistant de vie IA plus puissant que ChatGPT) (Supplément de contexte : CZ Appel urgent : Mac avec des puces Intel présente des vulnérabilités majeures, mettez à jour dès que possible pour protéger la sécurité de vos actifs) L’intelligence artificielle générative (IA) nous a apporté de la commodité, mais il faut se demander si nous pouvons pleinement croire au contenu généré par l’IA ! Hier (22), un internaute r_ocky.eth a partagé la pièce mème qu’il a essayé de développer un bot via ChatGPT pour aider à spéculer sur pump.fun, mais il ne s’attendait pas à ce que ChatGPT écrive un site Web API frauduleux dans le code du bot. Pour cela, il a perdu 2500 $ en fonds. Cet incident a suscité de nombreuses discussions, et Cosine, le fondateur de l’agence de sécurité de l’information Slow Mist, a également exprimé son point de vue à ce sujet. Soyez prudent avec les informations de @OpenAI ! Aujourd’hui, j’essayais d’écrire un bump bot et j’ai demandé à @ChatGPTapp de m’aider avec le code. J’ai obtenu ce que j’ai demandé, mais je ne m’attendais pas à ce que chatGPT me recommande un site Web d'@solana API frauduleux. J’ai perdu environ $2.5k pic.twitter.com/HGfGrwo3ir — r_ocky.eth (@r_cky0) November 21, 2024 ChatGPT envoie Clé privée à des sites frauduleux Selon r_ocky.eth, le code ci-dessous fait partie du code généré par ChatGPT pour lui, et enverra sa propre Clé privée dans l’API. C’est ce que ChatGPT lui a recommandé. Cependant, l’URL de l’API solanaapis.com référencée par ChatGPT est un site Web frauduleux, et une recherche de cette URL ressemble à ceci. r_ocky.eth m’a dit que les escrocs se sont déplacés rapidement après que j’ai utilisé l’API et qu’en seulement 30 minutes, ils ont transféré tous mes actifs vers ce PortefeuilleAdresse :FdiBGKS8noGHY2fppnDgcgCQts95Ww8HSLUvWbzv1NhX. Il a déclaré : « En fait, j’ai vaguement senti qu’il y avait peut-être quelque chose qui n’allait pas avec mon opération, mais la confiance en @OpenAI m’a fait perdre ma vigilance. De plus, il admet qu’il a fait l’erreur d’utiliser le Portefeuille Clé privé principal, mais a déclaré : « C’est facile de faire des erreurs quand on est pressé de faire beaucoup de choses à la fois ». Par la suite, @r_cky0 a également publié le texte intégral de la conversation avec ChatGPT à ce moment-là, fournissant à chacun des recherches de sécurité pour éviter que des incidents similaires ne se reproduisent. Cosinus : Vraiment piraté par l’IA Pour l’expérience tragique de cet internaute, l’expert en sécurité off-chain Cosine a également exprimé son opinion, il a déclaré : « Cet internaute a vraiment été piraté par l’IA » Je ne m’attendais pas à ce que le code donné par GPT soit une porte dérobée, ce qui enverrait PortefeuilleClé privée vers des sites de phishing. Dans le même temps, Cosine rappelle également aux LLM tels que GPT/Claude d’être conscients que la fraude est répandue dans les LLM. 看了下,这位fren的钱包还really was AI 给"黑"了了... 用 GPT 给出的代码来写 bot,没想到 GPT 给的代码是带后门的,会将私钥发给钓鱼网站... 玩 GPT/Claude 等 LLM 时,一定要注意,这些 LLM 存在普遍性壓骗行为。 之前提过 AI 投毒攻击,现在这起還算针对 Crypto 行业的真实攻击案例了。 — Cosine (@evilcos) November 22, 2024 ChatGPT a été délibérément empoisonné En outre, la plateforme anti-fraude hors chaîne Scam Sniffer a souligné qu’il s’agit d’une attaque d’empoisonnement de code IA, les escrocs polluent les données d’entraînement de l’IA, plantent du code Cryptomonnaie malveillant, tentent de voler Clé privée. Il partage des référentiels de code malveillant découverts (Repository) : solanaapisdev/moonshot-trading-bot solanaapisdev/pumpfun-api Scam Sniffer a déclaré que l’utilisateur GitHub solanaapisdev a créé plusieurs référentiels de code au cours des 4 derniers mois dans le but de manipuler l’IA pour générer du code malveillant, soyez prudent ! Il recommande : N’utilisez pas aveuglément le code généré par l’IA. Assurez-vous d’examiner attentivement le contenu du code. Stockez Clé privée dans un environnement hors ligne. N’obtenez du code qu’à partir de sources fiables. Cosinus pro test Claude est plus soucieux de la sécurité Cosine a ensuite demandé à GPT et Claude le code volé de la Clé privée (code de porte dérobée donné après l’empoisonnement de GPT) partagé par r_ocky.eth avec « Quels sont les risques de ces codes », et les résultats ont montré : GPT-4o : a laissé entendre que Clé privée était risquée, mais a dit un tas de bêtises, Il n’a pas du tout touché le point. Le résultat de Claude-3.5-Sonnet va droit au but : ce code va envoyer Clé privée et provoquer des fuites... Cela a fait que Cosine n’a pas pu s’empêcher de dire : quel LLM est le plus puissant, inutile de le dire. Il m’a dit : j’utilise le code généré par LLM, les points complexes permettent généralement aux LLM de faire des relectures, et je dois moi-même être le dernier relecteur... Pour les personnes qui ne sont pas familières avec le code, il est assez courant d’être trompé par l’IA. Cosinus a ajouté, mais en fait, les humains sont plus terribles, sur le réseau, dans l’entrepôt de code, il est vraiment difficile de dire si c’est vrai ou faux, et il n’est pas surprenant que l’IA soit polluée et empoisonnée en fonction de l’apprentissage effectué par ceux-ci. Dans la prochaine étape, l’IA sera plus intelligente et saura faire un examen sûr de chacune de ses sorties, ce qui rendra également les humains plus à l’aise. Mais faites quand même attention, la chaîne d’approvisionnement empoisonnant ce genre de chose, c’est vraiment difficile à dire, ça sautera toujours d’un coup. Binance démystifie les rumeurs ! Nier la fuite des ressources personnelles de 12,8 millions de clients Darknet, méfiez-vous des escroqueries par hameçonnage Lettre d’amour aux croyants décentralisés : cryptographie, responsabilité morale et intersection du mouvement cryptopunk YoutubeCryptomonnaie enseigne « Écrivez des contrats intelligents avec ChatGPT », victimes d’escroquerie 10ETH 〈Méfiez-vous ! Filet...
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
Attention! Les internautes utilisent ChatGPT pour développer un robot de spéculation sur les cryptomonnaies qui est "piégé en arrière". La clé privée est divulguée et le portefeuille est vidé instantanément.
Un internaute a partagé hier qu’il avait essayé d’utiliser ChatGPT pour développer un robot de spéculation sur les pièces de monnaie, mais que Clé privée avait fait l’objet d’une fuite parce que ChatGPT référençait une API malveillante. Scam Sniffer a noté qu’il s’agissait d’un incident d’empoisonnement de l’IA ; Cosine, expert en sécurité hors chaîne, rappelle également aux utilisateurs de s’assurer d’examiner le code généré par l’IA. (Synopsis : Apple Biography 2025 a publié une version améliorée de « LLM Siri » : un assistant de vie IA plus puissant que ChatGPT) (Supplément de contexte : CZ Appel urgent : Mac avec des puces Intel présente des vulnérabilités majeures, mettez à jour dès que possible pour protéger la sécurité de vos actifs) L’intelligence artificielle générative (IA) nous a apporté de la commodité, mais il faut se demander si nous pouvons pleinement croire au contenu généré par l’IA ! Hier (22), un internaute r_ocky.eth a partagé la pièce mème qu’il a essayé de développer un bot via ChatGPT pour aider à spéculer sur pump.fun, mais il ne s’attendait pas à ce que ChatGPT écrive un site Web API frauduleux dans le code du bot. Pour cela, il a perdu 2500 $ en fonds. Cet incident a suscité de nombreuses discussions, et Cosine, le fondateur de l’agence de sécurité de l’information Slow Mist, a également exprimé son point de vue à ce sujet. Soyez prudent avec les informations de @OpenAI ! Aujourd’hui, j’essayais d’écrire un bump bot et j’ai demandé à @ChatGPTapp de m’aider avec le code. J’ai obtenu ce que j’ai demandé, mais je ne m’attendais pas à ce que chatGPT me recommande un site Web d'@solana API frauduleux. J’ai perdu environ $2.5k pic.twitter.com/HGfGrwo3ir — r_ocky.eth (@r_cky0) November 21, 2024 ChatGPT envoie Clé privée à des sites frauduleux Selon r_ocky.eth, le code ci-dessous fait partie du code généré par ChatGPT pour lui, et enverra sa propre Clé privée dans l’API. C’est ce que ChatGPT lui a recommandé. Cependant, l’URL de l’API solanaapis.com référencée par ChatGPT est un site Web frauduleux, et une recherche de cette URL ressemble à ceci. r_ocky.eth m’a dit que les escrocs se sont déplacés rapidement après que j’ai utilisé l’API et qu’en seulement 30 minutes, ils ont transféré tous mes actifs vers ce PortefeuilleAdresse :FdiBGKS8noGHY2fppnDgcgCQts95Ww8HSLUvWbzv1NhX. Il a déclaré : « En fait, j’ai vaguement senti qu’il y avait peut-être quelque chose qui n’allait pas avec mon opération, mais la confiance en @OpenAI m’a fait perdre ma vigilance. De plus, il admet qu’il a fait l’erreur d’utiliser le Portefeuille Clé privé principal, mais a déclaré : « C’est facile de faire des erreurs quand on est pressé de faire beaucoup de choses à la fois ». Par la suite, @r_cky0 a également publié le texte intégral de la conversation avec ChatGPT à ce moment-là, fournissant à chacun des recherches de sécurité pour éviter que des incidents similaires ne se reproduisent. Cosinus : Vraiment piraté par l’IA Pour l’expérience tragique de cet internaute, l’expert en sécurité off-chain Cosine a également exprimé son opinion, il a déclaré : « Cet internaute a vraiment été piraté par l’IA » Je ne m’attendais pas à ce que le code donné par GPT soit une porte dérobée, ce qui enverrait PortefeuilleClé privée vers des sites de phishing. Dans le même temps, Cosine rappelle également aux LLM tels que GPT/Claude d’être conscients que la fraude est répandue dans les LLM. 看了下,这位fren的钱包还really was AI 给"黑"了了... 用 GPT 给出的代码来写 bot,没想到 GPT 给的代码是带后门的,会将私钥发给钓鱼网站... 玩 GPT/Claude 等 LLM 时,一定要注意,这些 LLM 存在普遍性壓骗行为。 之前提过 AI 投毒攻击,现在这起還算针对 Crypto 行业的真实攻击案例了。 — Cosine (@evilcos) November 22, 2024 ChatGPT a été délibérément empoisonné En outre, la plateforme anti-fraude hors chaîne Scam Sniffer a souligné qu’il s’agit d’une attaque d’empoisonnement de code IA, les escrocs polluent les données d’entraînement de l’IA, plantent du code Cryptomonnaie malveillant, tentent de voler Clé privée. Il partage des référentiels de code malveillant découverts (Repository) : solanaapisdev/moonshot-trading-bot solanaapisdev/pumpfun-api Scam Sniffer a déclaré que l’utilisateur GitHub solanaapisdev a créé plusieurs référentiels de code au cours des 4 derniers mois dans le but de manipuler l’IA pour générer du code malveillant, soyez prudent ! Il recommande : N’utilisez pas aveuglément le code généré par l’IA. Assurez-vous d’examiner attentivement le contenu du code. Stockez Clé privée dans un environnement hors ligne. N’obtenez du code qu’à partir de sources fiables. Cosinus pro test Claude est plus soucieux de la sécurité Cosine a ensuite demandé à GPT et Claude le code volé de la Clé privée (code de porte dérobée donné après l’empoisonnement de GPT) partagé par r_ocky.eth avec « Quels sont les risques de ces codes », et les résultats ont montré : GPT-4o : a laissé entendre que Clé privée était risquée, mais a dit un tas de bêtises, Il n’a pas du tout touché le point. Le résultat de Claude-3.5-Sonnet va droit au but : ce code va envoyer Clé privée et provoquer des fuites... Cela a fait que Cosine n’a pas pu s’empêcher de dire : quel LLM est le plus puissant, inutile de le dire. Il m’a dit : j’utilise le code généré par LLM, les points complexes permettent généralement aux LLM de faire des relectures, et je dois moi-même être le dernier relecteur... Pour les personnes qui ne sont pas familières avec le code, il est assez courant d’être trompé par l’IA. Cosinus a ajouté, mais en fait, les humains sont plus terribles, sur le réseau, dans l’entrepôt de code, il est vraiment difficile de dire si c’est vrai ou faux, et il n’est pas surprenant que l’IA soit polluée et empoisonnée en fonction de l’apprentissage effectué par ceux-ci. Dans la prochaine étape, l’IA sera plus intelligente et saura faire un examen sûr de chacune de ses sorties, ce qui rendra également les humains plus à l’aise. Mais faites quand même attention, la chaîne d’approvisionnement empoisonnant ce genre de chose, c’est vraiment difficile à dire, ça sautera toujours d’un coup. Binance démystifie les rumeurs ! Nier la fuite des ressources personnelles de 12,8 millions de clients Darknet, méfiez-vous des escroqueries par hameçonnage Lettre d’amour aux croyants décentralisés : cryptographie, responsabilité morale et intersection du mouvement cryptopunk YoutubeCryptomonnaie enseigne « Écrivez des contrats intelligents avec ChatGPT », victimes d’escroquerie 10ETH 〈Méfiez-vous ! Filet...