紹介
Segment Anything Model (SAM) は、Meta社のFAIR研究所が開発した画像分割の基本モデルです。1100万枚以上の画像と11億を超えるマスクデータで学習しており、点の指定や範囲指定、文字による指示など、さまざまな入力方法に対応して、新たな学習なしで正確な物体マスクを素早く作成します。
主な特徴
・直感的な分割操作:点、範囲指定枠、おおまかなマスク、文字など、分かりやすい指示で対象を細かく分離
・基本モデル設計:画像変換エンコーダーと指示エンコーダー、高速マスクデコーダーを組み合わせた最新構造
・大規模学習データ:業界で最大規模のSA-1Bデータセットを使用した学習により、優れた適応力と学習不要の対応力を実現
・学習不要の適応:追加学習が不要で、未経験の画像や作業にもすぐに対応し、高い精度を発揮
・公開モデル:Apache 2.0ライセンスで公開されており、研究から実用まで幅広く使用可能
・高速処理:約50ミリ秒でのマスク生成により、対話的な操作をリアルタイムでサポート
活用シーン
・画像注釈支援:自動マスク生成で画像へのラベル付け作業を効率化
・医療画像解析:病変部分や臓器の精密な分割により、診断と治療計画を支援
・環境・衛星画像分析:土地の利用状況分類や災害監視に貢献
・AR・映像制作:拡張現実アプリや映像効果向けに、リアルタイムでの物体分離を実現
・ロボット・自動運転:詳細な状況理解を通じて、自律システムの精度向上に貢献