Según un informe de Reuters del 17 de agosto, los exinvestigadores principales de Google Brain, David Ha y Llion Jones, anunciaron el establecimiento de la empresa de investigación de inteligencia artificial Sakana AI en Tokio. La compañía se negó a revelar los detalles de la financiación. Se informa que Jones es el quinto autor del artículo de investigación de Google de 2017 "La atención es todo lo que necesita", que introdujo la arquitectura de aprendizaje profundo "transformador", que más tarde se convirtió en la base de ChatGPT, y también es el desarrollo actual impulsado por tecnología generativa artificial. inteligencia base del producto. Ha fue director de investigación en Stability AI e investigador de Google Brain.
Jones dijo que Sakana AI se centrará en crear nuevas arquitecturas para los modelos subyacentes. "En lugar de construir un modelo gigante que absorba todos estos datos, nuestro enfoque es usar una gran cantidad de modelos más pequeños, cada uno con sus propias fortalezas únicas y conjuntos de datos más pequeños, y dejar que esos modelos se comuniquen entre sí", dijo Ha. Collaborate resolver problemas."
El ex investigador principal de Google Brain lanza la firma de investigación de IA Sakana AI en Tokio
Según un informe de Reuters del 17 de agosto, los exinvestigadores principales de Google Brain, David Ha y Llion Jones, anunciaron el establecimiento de la empresa de investigación de inteligencia artificial Sakana AI en Tokio. La compañía se negó a revelar los detalles de la financiación. Se informa que Jones es el quinto autor del artículo de investigación de Google de 2017 "La atención es todo lo que necesita", que introdujo la arquitectura de aprendizaje profundo "transformador", que más tarde se convirtió en la base de ChatGPT, y también es el desarrollo actual impulsado por tecnología generativa artificial. inteligencia base del producto. Ha fue director de investigación en Stability AI e investigador de Google Brain.
Jones dijo que Sakana AI se centrará en crear nuevas arquitecturas para los modelos subyacentes. "En lugar de construir un modelo gigante que absorba todos estos datos, nuestro enfoque es usar una gran cantidad de modelos más pequeños, cada uno con sus propias fortalezas únicas y conjuntos de datos más pequeños, y dejar que esos modelos se comuniquen entre sí", dijo Ha. Collaborate resolver problemas."