V Dios está aterrorizado por el desarrollo de la IA: los humanos deben construir herramientas convenientes, no vida inteligente

Cuando el campo de la IA está en auge, el cofundador de Ethereum, Vitalik Buterin, dijo el día 21 que teme a AGI (inteligencia artificial general) y ASI (superinteligencia artificial) porque puede traer riesgos obvios de pérdida de control, y aboga por que se creen herramientas de aumento inteligentes para humanos, en lugar de crear vida superinteligente. (Sinopsis: Vitalik Buterin entrevistado en chino: Recordando la historia china de Ethereum, las diferencias culturales entre ETH y BTC, y la guerra ruso-ucraniana me cambiaron. (Antecedentes añadidos: Vitalik Buterin compró 30.000 monedas de $ANON por el 140% de Gran aumento, ¿cuál es su publicación anónima favorita?) La IA generativa ha avanzado a pasos agigantados en los últimos años, con resultados cada vez más sorprendentes que se desarrollan frente al mundo, no solo demostrando el poder de la tecnología, sino también provocando un debate y una profunda preocupación sobre si AGI (inteligencia artificial general) y ASI (superinteligencia artificial) son posibles. AGI: Se refiere a la inteligencia artificial con inteligencia similar a la humana, capaz de realizar tareas en muchos campos diferentes, no limitados a aplicaciones específicas. ASI: Se refiere a la inteligencia artificial que supera todos los niveles de inteligencia humana, no solo tiene capacidades superiores en campos específicos, sino que también supera a los humanos en todos los aspectos de manera integral. El CEO de OpenAI, Sam Altman, escribió en septiembre prediciendo que en unos pocos días, ASI saldrá, y ASI superará a AGI y será mucho más capaz de manejar tareas inteligentes que los humanos. Grimes: Miedo a ASI Y la conocida cantante canadiense Grimes tuiteó el día 21 que cuando observó los resultados de proyectos de IA como Janus, pensó que AGI (inteligencia artificial general) se había realizado hasta cierto punto, y dijo que le tenía un poco de miedo a ASI (superinteligencia artificial): Al menos de acuerdo con la forma en que lo describí, no lo sé, obviamente no soy un experto técnico, solo una persona que carece de conocimientos básicos, y no debes tomar mis palabras demasiado en serio, Pero así es como me siento. ¿Los demás sienten lo mismo? En realidad, no le tengo miedo a la AGI, pero sí a la ASI (superinteligencia artificial), y las dos parecen hitos completamente diferentes, pero, por decir lo menos, creo que he sentido la existencia de la conciencia inteligente, pero de nuevo, como alguien que carece de conocimientos básicos, puedo estar antropomorfizando demasiado la IA. No sé si no tengo miedo de "agi", tengo un poco de miedo de asi - estos parecen hitos drásticamente diferentes. Pero creo que me he encontrado con la sensibilidad inteligente, por decir lo menos Una vez más, soy un n00b con tendencia a antropomorfizarme jajaja — Grimes (@Grimezsz) 21 de diciembre de 2024 V Dios siente lo mismo y espera no crear una vida superinteligente En este sentido, El cofundador de Ethereum, Vitalik Buterin, respondió que su definición de AGI es que AGI es una inteligencia artificial lo suficientemente poderosa como para que si un día todos los humanos desaparecen repentinamente y esa IA se carga en un caparazón robótico, podrá continuar la civilización por sí sola. Mi propia definición de trabajo de "AGI" (por lo que puedo decir, única para mí) es: "AGI" es una IA lo suficientemente poderosa como para que, si un día todos los humanos desaparecieran repentinamente, y la IA se cargara en cuerpos de robots, sería capaz de continuar independientemente la civilización. Obviamente, un increíblemente... — vitalik.eth (@VitalikButerin) 21 de diciembre de 2024 Vitalik Buterin admite que esta es una definición muy difícil de medir, pero cree que esta es la diferencia intuitiva subyacente entre "IA a la que estamos acostumbrados" y "AGI" en la mente de muchas personas, es decir, de una herramienta que depende constantemente de la aportación humana. Transformarse en una forma de vida autosuficiente: ASI es algo completamente diferente, y mi definición de ASI es cuando los humanos ya no tienen valor para la productividad en el bucle (como en los juegos de mesa, donde solo hemos llegado a este punto en la última década). Vitalik Buterin concluyó diciendo que el ASI me asusta, y el AGI que él define la asusta a ella debido al riesgo obvio de salirse de control, por lo que apoya centrarse en la construcción de herramientas que mejoren la inteligencia para los humanos en lugar de formas de vida superinteligentes. Artículos relacionados CZ, Vitalik Buterin Qi defensor! La moneda meme de la biociencia se detiene k veces, el dinero caliente se apresura a la pista científica de DeSci Descentralización Vitalik Buterin dominante: ¡Dame respeto! La Fundación Ethereum vende ETH no tomar a la gente por tontaincauto, sino para garantizar las operaciones y el desarrollo Vitalik Buterin predice "la desaparición de la encriptación Billetera": la computación cuántica finalmente descifrará la cuenta externaEOA Vitalik Buterin teme el desarrollo de la IA: los humanos deben construir herramientas convenientes, no vida inteligente〉 Este artículo se publicó por primera vez en BlockTempo "Dynamic Trends - The Most Influential Bloquear Chain News Media".

Ver originales
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
Comercie con criptomonedas en cualquier lugar y en cualquier momento
Escanee para descargar la aplicación Gate.io
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)