這樣確實符合 Meta AI 所說的促進計算機視覺基礎。也會被廣泛使用。
Segment Anything 直譯過來就是細分任何東西,可以結合其他應用一起使用,該模型由 AI 驅動,經過 1100 萬張圖片和 11 億個標記後訓練而成,
最近 OPENAI 和微軟以及穀歌在 AI 領域都比較火,一個 1.2GB,開發者在本地部署的時候可以用得上這些模型。
按藍點網猜測估計 Meta AI 還在研究圖片識別的其他內容,請按照以下方法操作:https://github.com/facebookresearch/segment-anything
論文地址:https://arxiv.org/abs/2304.02643
如果你想在本地部署,不過 Meta 暫時還沒介紹研究這個 AI 模型的用途,從演示來看 Meta 的這個模型非常強大,

這個新 AI 模型看起來還是非常強大的,作為科技巨頭之一的 Meta 也沒閑著,可以廣泛識別圖片或視頻中的任何對象,
Meta AI 上線了一個 demo 網站可以供用戶測試:https://segment-anything.com/
目前 Meta AI 提供了三個模型,SAM 負責將對象從圖片或視頻幀裏分離,
考慮到現在 AI 的發展速度,然後再分析圖片識別具體內容。一個 2.4GB,並分離出來。其他 AI 模型可以識別對象的內容,估計未來這種分離對象的技術,今天 Meta AI 開源了一款名為 Segment Anything Model 的模型,比如在機器人裏實時識別畫麵中的對象,在論文裏 Meta AI 稱這是促進對計算機視覺基礎模型的研究。另一個 358MB,如果隻是把 SAM 模型當做摳圖工具那可能大材小用了,



