MADRID, 20 (Portaltic/EP)
La compañía ha anunciado a través de un comunicado que estos modelos ya están disponibles en GitHub para que los desrrolladores de aplicaciones los descarguen y los adapten a sus servicios con fines comerciales o de investigación.
El LLM de código abierto StableLM se ha presentado como una versión Alpha e integra entre 3.000 y 7.000 millones de parámetros, aunque espera ofrecer próximamente modelos de 15.000 a 65.000 millones de parámetros.
Este conjunto de modelos, creados en colaboración con EleutherAI, incluyen GPT-J, GPT-NeoX y la IA Pythia, entrenados con el conjunto de datos abierto The Pile, que actualmente ofrece 1,5 billones de tokens de contenido.
La empresa ha reconocido que, a pesar de que dispone de un menor número de parámetros en comparación con GPT-3, que dispone de 175.000 millones, StableLM ofrece "un rendimiento sorprendentemente alto en tareas de conversaciónn y codificación".
Con ello, Stability AI ha asegurado que este conjunto de modelos dan meustra de su compromiso por "una tecnología de IA transparente, accesible y solidaria", ya que las organizaciones pueden adaptarlos para sus aplicaciones sin compartir sus datos ni renunciar al control de sus capacidades.