Geekzillo, Microsoft anuncia la familia Phi-3 de modelos de lenguaje pequeños. Mientas que los Modelos de Lenguaje Grandes están creciendo, algunos de estos ahora tienen cientos de miles de millones o incluso billones de parámetros, Phi-3-mini es 3.8 mil millones de parámetros superando a competidores más grandes y capaces. Esto significa que tareas que normalmente serían dirigidas a un modelo más grande, pueden ser manejadas por algo con una huella más pequeña. Conoce todos los detalles a continuación.
Clave para resolver problemas complejos
Los investigadores de Microsoft han demostrado que a veces, la clave para resolver problemas complejos en inteligencia artificial (IA) puede encontrarse en la simplicidad de los libros para niños. Este enfoque, inspirado por la curiosidad de Ronen Eldan de Microsoft mientras leía cuentos a su hija, ha llevado al desarrollo de una nueva clase de modelos de lenguaje pequeños (SLM) excepcionalmente capaces.
Tradicionalmente, los modelos de lenguaje grandes (LLM) han sido la norma para abordar una variedad de tareas complejas, pero su tamaño implica recursos computacionales significativos. Reconociendo esta barrera, Microsoft ha lanzado la familia de modelos abiertos Phi-3, que ofrece capacidades similares a los LLM pero en un paquete más compacto y económicamente eficiente.
El primer modelo de esta línea, el Phi-3-mini, ya está disponible y supera a modelos de tamaño considerablemente mayor en términos de rendimiento. Además, se espera que modelos adicionales, como el Phi-3-small y el Phi-3-medium, se introduzcan pronto en el mercado, ampliando las opciones para adaptarse a diversas necesidades y presupuestos.
Versatilidad de los SLM
La versatilidad de los SLM se manifiesta en su capacidad para abordar tareas más simples de manera accesible y eficiente, especialmente en entornos donde la computación en la nube no es viable o deseable. Desde la agricultura hasta la atención médica, estos modelos ofrecen soluciones potenciales en una variedad de industrias y sectores. Democratizando el acceso a la IA de formas antes inimaginables.
Sin embargo, es importante reconocer que, si bien los SLM son una herramienta valiosa, no son una solución universal. Las tareas que requieren un razonamiento complejo y una comprensión profunda aún pueden beneficiarse de los LLM. Destacando la importancia de comprender las fortalezas y limitaciones de cada tipo de modelo.
Este avance representa un cambio hacia una cartera diversa de modelos de lenguaje, donde los clientes pueden seleccionar la solución óptima para sus necesidades específicas. Con el potencial de transformar la forma en que interactuamos con la IA, los SLM están allanando el camino para un futuro. Un futuro donde la inteligencia artificial sea más accesible y adaptable que nunca.
También te puede interesar: Fabricación para el futuro: Microsoft anuncia nuevas innovaciones de IA industrial
Y tú, geekzillo, ¿qué opinas de que Microsoft anuncia la familia Phi-3 de modelos de lenguaje pequeños? No olvides que puedes compartirnos tus opiniones en los comentarios.
Por último, puedes seguir la pista de esta y más noticias en T3 Latam, TechRadar México. Además de nuestros podcasts con Oye 89.7: Top Tech y Top Gaming en Spotify.