Microsoft ha anunciado el lanzamiento de Phi-3 mini, un innovador modelo de lenguaje pequeño diseñado para ejecutarse de forma nativa en el teléfono móvil. Este avance tecnológico permitirá a los usuarios disfrutar de una experiencia más fluida y eficiente en sus dispositivos móviles, al integrar un modelo de lenguaje optimizado para funcionar directamente en sus teléfonos. Con Phi-3 mini, Microsoft busca ofrecer una solución que combine rendimiento y eficiencia en el procesamiento del lenguaje natural, brindando así una experiencia más intuitiva y personalizada a los usuarios. Esta iniciativa refleja el compromiso de Microsoft con la innovación y el desarrollo de tecnologías avanzadas para mejorar la interacción entre las personas y la tecnología.
¡Espero que te sea de ayuda! ¿Hay algo más en lo que pueda asistirte?
Microsoft presenta Phi-3 mini, un nuevo modelo de lenguaje para móviles de última generación
Microsoft ha lanzado Phi-3 mini, un innovador modelo de lenguaje diseñado específicamente para teléfonos móviles de última generación, que ofrece un rendimiento comparable a la tecnología GPT-3.5 de OpenAI.
Dicho modelo, entrenado con 3,3 billones de tokens provenientes de conjuntos de datos más avanzados que su predecesor, Phi-2, que contaba con 1,4 billones de tokens, cuenta con un tamaño de 3.800 millones de parámetros y puede cuantificarse a 4 bits.
Los investigadores probaron Phi-3 mini en un iPhone 14 con chip A16 Bionic, logrando un rendimiento de más de 12 tokens por segundo de forma nativa y offline, compitiendo así con modelos más grandes como el GPT-3.5.
Phi-3 mini emplea una arquitectura de decodificador de transformador, admite una longitud de texto de 4K, se basa en una estructura en bloque similar a la de Llama 2, permite un formato conversacional y está alineado con los valores de robustez y seguridad de Microsoft.
Además de Phi-3 mini, Microsoft ha desarrollado dos modelos más de esta familia: Phi-3 medium, con 14.000 millones de parámetros, y Phi-3 small, con 7.000 millones de parámetros, ambos entrenados con 4.800 millones de tokens.
No dudes en suscribirte a nuestra newsletter para recibir las últimas noticias sobre tecnología en tu correo.
Deja una respuesta