Segment Anything de Meta presenta el Segment Anything Model (SAM), un modelo de IA de última generación desarrollado por Meta AI que te permite “recortar” cualquier objeto de cualquier imagen con solo un clic. SAM es un sistema de segmentación por indicaciones con generalización sin entrenamiento previo (zero-shot) a objetos e imágenes desconocidos.
Características de Segment Anything (Meta)
Entrenamiento del modelo: el motor de datos de SAM
Las capacidades avanzadas de SAM provienen de su entrenamiento con millones de imágenes y máscaras recopiladas mediante un motor de datos en bucle con el modelo. Los investigadores utilizaron SAM y sus datos para anotar imágenes de forma interactiva y actualizar el modelo. Este proceso se repitió iterativamente para mejorar tanto el modelo como el conjunto de datos.
11 millones de imágenes, más de 1.000 millones de máscaras
Después de anotar un número suficiente de máscaras con la ayuda de SAM, pudimos automatizar completamente la anotación de nuevas imágenes utilizando el avanzado diseño consciente de indicaciones de SAM. Para ello, proporcionamos a SAM una cuadrícula de puntos sobre la imagen y le pedimos que segmentara todo en cada punto. Nuestro conjunto de datos final contiene más de 1.100 millones de máscaras de segmentación, recopiladas de aproximadamente 11 millones de imágenes con licencia y protegidas por privacidad.
Diseño de modelo eficiente y flexible
SAM fue diseñado para permitir que su motor de datos eficiente funcione a plena capacidad. El modelo se divide en:
- un codificador de imágenes de una sola pasada, y
- un decodificador de máscaras ligero, que puede ejecutarse en un navegador web en solo unos milisegundos por indicación.