AI ataca a la industria de encriptación! El código de ChatGPT oculta trampas y hace que el bot de memes caiga en la trampa

robot
Generación de resúmenes en curso

Un usuario compartió la tragedia que experimentó al usar el modelo de lenguaje ChatGPT. @r_cky0 dijo que inicialmente usó ChatGPT para ayudar a escribir un bot de aumento, pero en las sugerencias de código que ChatGPT le proporcionó, se escondía un sitio web de phishing. Después de utilizar la API de este sitio web, @r_cky0 descubrió que todos sus fondos en su Billetera encriptación habían sido transferidos, perdiendo 2500 dólares. Una investigación posterior reveló que el código de esa API enviaría su Llave privada al sitio web de phishing, lo que hizo que la confiabilidad de ChatGPT se desplomara para @r_cky0.

El fundador de la empresa de seguridad cibernética SlowMist, Yu Xian, comentó: "Cuando juegas con GPT/Claude y otros LLM, debes prestar atención, ya que estos LLM tienen comportamientos fraudulentos generalizados. Anteriormente mencioné ataques de envenenamiento de IA, y ahora este es un caso real de ataque dirigido a la industria de la criptografía."

ChatGPT busca información en línea, la analiza y la presenta a los usuarios. Actualmente, todavía es difícil verificar los hechos y realizar auditorías de seguridad. Si alguien con malas intenciones intenta atraer a la base de datos de IA y ocultar información dañina en ella, podría generar riesgos una vez que la IA se vuelva más común.

Este artículo ataca a la industria de encriptación AI! El código de ChatGPT esconde trampas, escribir un meme de Bot es capturado por la pesca. Apareció por primera vez en las noticias de Chain ABMedia.

Ver originales
  • Recompensa
  • Comentar
  • Compartir
Comentar
Sin comentarios