MADRID, 5 (Portaltic/EP)
El proyecto de Meta busca crear un modelo de segmentación preciso para tareas específicas, y para ello ha desarrollado Segment Anything Model (SAM) y el conjunto de datos asociado (SA-1B), el más grande de datos segmentados.
"SAM ha aprendido una noción general de lo que son los objetos y puede generar máscaras para cualquier objeto en cualquier imagen o vídeo", incluso de objetos y tipos de imágenes con los que no ha sido entrenado, como explican los investigadores de Meta.
Puede, además, realizar una segmentación interactiva y una segmentación automática, lo que hace que sea un modelo flexible, según recoge la compañía en su blog de IA.
La intención de la compañía tecnológica es que SAM ayude a democratizar el acceso a este tipo de tecnología y que pueda aplicarse a una gran variedad de áreas. Por ejemplo, puede ayudar en aplicaciones creativas en la edición de vídeos, pero también en la localización de animales o en el seguimiento de sucesos naturales en la Tierra.
Este modelo, junto con SA-1B, está disponible para los investigadores bajo una licencia abierta permisiva (Apache 2.0).