MADRID, 27 (Portaltic/EP)
Stable Diffusion XL 1.0 está disponible en la API Stability AI, la página de la compañía en Github y las aplicaciones de Clipdrop y DreamStudio tras un acceso inicial, solo para investigadores, en junio, que permitió afinar el modelo.
El modelo, que contiene 3.500 millones de parámetros, genera imágenes a partir de una descripción en texto. El proceso de afinado permite que esas imágenes que se generan tengan "colores más vibrantes y precisos", con "mejor contraste, iluminación y sombreado".
Las imágenes se obtienen en segundos, en diferentes ratios de aspecto, y con una resolución de un megapíxel (1024x1024), como informa la compañía en una nota de prensa. Según Stability AI, se trata del "último y más avanzado" modelo de IA generativa de su conjunto insignia de modelos de texto a imagen.
En la API Stability AI, la compañía también ha incorporado un afinador, que requiere apenas cinco imágenes para "especializar" la generación de imágenes de personas específicas o productos.
Stable Diffusion XL 1.0 se ha anunciado este miércoles en el evento anual AWS Summit de Nueva York (Estados Unidos), ya que se ha incorporado al servicio de modelos fundacionales de Amazon Bedrock. Para el director ejectivo, Emad Mostaque, es una muestra del "firme compromiso" de la compañía con Amazon Web Services "para proporcionar las mejores soluciones para los desarrolladores y los clientes".