Segment Anything de Meta propose le Segment Anything Model (SAM), un modèle d’IA de pointe développé par Meta AI qui vous permet de “découper” n’importe quel objet dans n’importe quelle image en un seul clic. SAM est un système de segmentation basé sur des instructions, capable de généraliser à des objets et images inconnus sans entraînement supplémentaire (zero-shot).
Fonctionnalités de Segment Anything (Meta)
Entraînement du modèle : le moteur de données de SAM
Les capacités avancées de SAM proviennent de son entraînement sur des millions d’images et de masques collectés grâce à un moteur de données intégré au modèle. Les chercheurs ont utilisé SAM et ses données pour annoter des images de manière interactive et mettre à jour le modèle. Ce processus a été répété plusieurs fois pour améliorer à la fois le modèle et le jeu de données.
11 millions d’images, plus d’un milliard de masques
Après avoir annoté un nombre suffisant de masques à l’aide de SAM, nous avons pu automatiser complètement l’annotation de nouvelles images grâce à son design avancé sensible aux instructions. Pour cela, nous avons fourni à SAM une grille de points sur l’image et lui avons demandé de segmenter tous les éléments à chaque point. Notre jeu de données final contient plus de 1,1 milliard de masques de segmentation, collectés à partir d’environ 11 millions d’images sous licence et protégées par la confidentialité.
Conception de modèle efficace et flexible
SAM a été conçu pour permettre à son moteur de données efficace de fonctionner à pleine capacité. Le modèle est divisé en :
- un encodeur d’image unique, et
- un décodeur de masque léger, pouvant fonctionner dans un navigateur web en quelques millisecondes par instruction.