Una religión amarga: la guerra santa desplegada en torno a las extensiones de la inteligencia artificial

En el campo de la inteligencia artificial, la intersección de la fe y la tecnología ha formado un acalorado debate en torno a la validez y el desarrollo futuro de la "ley de la expansión". Este artículo explora el surgimiento, la divergencia y el posible impacto de esta "religión amarga", revelando la compleja relación entre la fe y la ciencia. La comunidad de IA está enfrascada en una batalla doctrinal sobre su futuro y si será lo suficientemente grande como para crear a Dios. Este artículo es de un artículo de Mario Gabriele y compilado por Block unicorn. (Sinopsis: xAI de Musk completa una financiación de serie C de 6.000 millones de dólares, Huida, BlackRock, a16z... Participaron varias celebridades de la industria) (Suplemento de antecedentes: Huida lanza la plataforma de computación de robots humanoides "Jetson Thor" el próximo año, ¿el momento ChatGPT de la IA física? Prefiero vivir mi vida como si hubiera un Dios y esperar hasta morir para descubrir que Dios no existe, que vivir como si no hubiera Dios, y esperar hasta morir para descubrir que Dios existe. — Blaise Pascal: La religión es algo interesante. Tal vez sea porque es completamente indemostrable en cualquier dirección, o tal vez sea como una de mis citas favoritas: "No se puede luchar contra los sentimientos con hechos". Las creencias religiosas se caracterizan por el hecho de que, en el proceso de creer en Subir, se aceleran a un ritmo tan increíble que es casi imposible dudar de la existencia de Dios. ¿Cómo puedes dudar de un ser divino cuando los que te rodean creen cada vez más en él? Cuando el mundo se reorganiza en torno a una doctrina, ¿dónde está el punto de apoyo de la herejía? ¿Dónde hay lugar para la oposición cuando los templos y las catedrales, las leyes y las normas se organizan de acuerdo con un evangelio nuevo e inconmovible? Cuando la religión abrahámica surgió por primera vez y se extendió por todos los continentes, o cuando el budismo se extendió desde la India a toda Asia, el inmenso impulso de la fe creó un ciclo que se reforzaba a sí mismo. A medida que más personas se convierten y se construyen complejos sistemas teológicos y rituales en torno a estas creencias, cuestionar estas premisas básicas se vuelve cada vez más difícil. En un mar de credulidad, no es fácil convertirse en hereje. Magníficas iglesias, intrincadas escrituras religiosas y prósperos monasterios sirven como evidencia física de la existencia divina. Pero la historia de la religión también nos dice cuán fácilmente pueden colapsar tales estructuras. A medida que el cristianismo se extendió a Escandinavia, la antigua fe nórdica colapsó en unas pocas generaciones. El sistema religioso del antiguo Egipto duró miles de años, y finalmente desapareció cuando surgieron nuevas creencias más persistentes y surgieron estructuras de poder más grandes. Incluso dentro de la misma religión, vemos divisiones dramáticas: la Reforma destrozó el cristianismo occidental, mientras que el Gran Cisma condujo a una división entre las iglesias oriental y occidental. Estas divisiones a menudo comienzan con diferencias doctrinales aparentemente triviales y evolucionan gradualmente hacia sistemas de creencias completamente diferentes. Dios es una metáfora que trasciende todos los niveles del pensamiento intelectual. Es así de simple. — Joseph Campbell En pocas palabras, creer en Dios es religión. Tal vez la creación de Dios no sea diferente. Desde sus inicios, los investigadores optimistas de IA han imaginado su trabajo como creacionismo: la creación de Dios. En los últimos años, la explosión de los grandes modelos de lenguaje (LLM, por sus siglas en inglés) ha fortalecido aún más la creencia de los creyentes de que estamos en un camino sagrado. También confirma una publicación de blog escrita en 2019. Aunque las personas ajenas al campo de la inteligencia artificial no lo sabían hasta hace poco, las amargas lecciones del informático canadiense Richard Sutton se han convertido en un texto cada vez más importante en la comunidad, evolucionando desde el conocimiento secreto hasta una nueva base religiosa que lo abarca todo. En 1.113 palabras (toda religión necesita números sagrados), Sutton resume una observación técnica: "La lección más importante que se puede aprender de 70 años de investigación en IA es que un enfoque universal para aprovechar la computación es, en última instancia, el más efectivo y una gran ventaja". Los avances en los modelos de IA se han beneficiado de un aumento exponencial de los recursos informáticos, aprovechando las enormes olas de la Ley de Moore. Al mismo tiempo, Sutton señala que gran parte del trabajo en la investigación de IA se ha centrado en optimizar el rendimiento a través de técnicas especializadas, agregando conocimiento humano o herramientas limitadas. Si bien estas optimizaciones pueden ayudar a corto plazo, en opinión de Sutton, en última instancia son una pérdida de tiempo y recursos, como ajustar las aletas de una tabla de surf o probar cera nueva cuando llega una ola enorme. Esta es la base de lo que llamamos la "religión de la amargura". Solo tiene un mandamiento, a menudo referido en la comunidad como la "Regla Extendida de Trampa": el cálculo de carga exponencial impulsa la eficiencia; Lo demás es estúpido. La religión de la amargura, que ha expandido las piezas de trampa de los grandes modelos de lenguaje (LLM) a los modelos del mundo, ahora se está extendiendo rápidamente a través de templos no transformados de la biología, la química y la inteligencia encarnada (robótica y vehículos autónomos). Sin embargo, a medida que la doctrina Sutton se extendió, las definiciones también comenzaron a cambiar. Este es el sello distintivo de todas las religiones activas y vivas: argumentos, extensiones, comentarios. La "regla extendida de la pieza de trampa" ya no solo significa expandir los cálculos de la pieza de trampa (el arca no es solo un barco), ahora se refiere a varios métodos destinados a mejorar la eficiencia del transformador y el cálculo, con algunos trucos. Ahora, los clásicos abarcan intentos de optimizar cada parte de la pila de IA, desde las técnicas aplicadas a los propios modelos centrales (fusión de modelos, mezcla experta (MoE) y refinamiento del conocimiento) hasta la generación de datos sintéticos para alimentar a estos dioses perpetuamente hambrientos, con mucha experimentación en el medio. Sectas enfrentadas Recientemente, una pregunta que se ha arremolinado en la comunidad de la IA, con un aire de yihad, es si la "amarga religión" sigue siendo correcta. Esta semana, Harvard, Stanford y el Instituto Tecnológico de Massachusetts publicaron un nuevo artículo titulado "The Extended Trampa Rule of Precision", lo que desató el conflicto. El artículo discute el fin de las ganancias de eficiencia en las técnicas de cuantificación, un conjunto de técnicas que mejoran el rendimiento de los modelos de IA y benefician al ecosistema de Código abierto. Tim Dettmers, científico investigador del Instituto Allen de Inteligencia Artificial, describió su importancia en la publicación a continuación, calificándolo como "el artículo más importante en mucho tiempo". Representa una continuación del acalorado diálogo de las últimas semanas y revela una tendencia notable: la creciente consolidación de las dos religiones. El CEO de OpenAI, Sam Altman, y el CEO de Anthropic, Dario Amodei, pertenecen a la misma secta. Ambos dicen con confianza que lograremos la inteligencia artificial general (AGI) en los próximos 2-3 años más o menos. Podría decirse que tanto Altman como Amodei son las dos figuras más dependientes de la santidad de la "religión amarga". Todos sus incentivos tienden a prometer demasiado, creando una exageración máxima para acumular capital en un juego dominado casi por completo por las economías de escala. Si la regla de la pieza de extensión no es "Alfa y Omega", principio y último, principio y fin, entonces ¿para qué se necesitan 22.000 millones de dólares? El ex científico jefe de OpenAI, Ilya Sutskever, se adhiere a un principio diferente de una trampa. Junto con otros investigadores, incluidos muchos de OpenAI, basándose en filtraciones recientes, cree que la pieza de trampa extendida se está acercando a su límite superior. El grupo cree que mantener el progreso y llevar la AGI al mundo real requiere nueva ciencia e investigación. La escuela de Sutskever argumenta, con razón, que la idea de Altman de una expansión continua de la pieza de trampa no es económicamente viable. Como artificialmente ...

Ver originales
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
Comercie con criptomonedas en cualquier lugar y en cualquier momento
Escanee para descargar la aplicación Gate.io
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)