AI ataca a indústria de encriptação! O código do ChatGPT esconde armadilhas, escrevendo memes BOT, acaba sendo pescado

robot
Geração de resumo em curso

Um usuário compartilhou a tragédia que aconteceu com ele usando o modelo de linguagem em grande escala ChatGPT. @r_cky0 afirmou que inicialmente usou o ChatGPT para ajudar a escrever um bot de aumento, mas nos conselhos de código fornecidos pelo ChatGPT, havia um site de phishing oculto. Depois de usar a API desse site, @r_cky0 descobriu que todo o dinheiro em sua carteira foi transferido, resultando em uma perda de $2500. Investigações posteriores revelaram que o código dessa API enviava sua chave privada para o site de phishing, o que fez com que @r_cky0 perdesse a confiança no ChatGPT.

Comentário de Yuxian, fundador da empresa de segurança cibernética SlowMist: "Ao brincar com GPT/Claude e outros LLM, é preciso ter cuidado, pois esses LLMs estão sujeitos a comportamentos fraudulentos generalizados. Já mencionei anteriormente os ataques de envenenamento de IA e agora temos um exemplo real de ataque direcionado à indústria de criptomoedas."

ChatGPT pesquisa e analisa informações online para fornecer aos usuários, mas atualmente ainda é difícil realizar verificação de fatos e auditoria de segurança. Se houver pessoas mal-intencionadas que deliberadamente atraem o banco de dados de IA e escondem informações prejudiciais nele, isso pode representar um risco à medida que a IA se torna mais difundida.

Este artigo revela que a AI ataca a indústria de encriptação! O código ChatGPT esconde armadilhas e os bots de memes estão a ser apanhados em fraudes. Primeiro apareceu na ChainNews ABMedia.

Ver original
  • Recompensa
  • Comentar
  • Partilhar
Comentar
Nenhum comentário