Segment Anything Model (SAM)

高精度な画像分割ツール

最終更新:
ウェブサイトを訪問

紹介

Segment Anything Model (SAM) は、Meta社のFAIR研究所が開発した画像分割の基本モデルです。1100万枚以上の画像と11億を超えるマスクデータで学習しており、点の指定や範囲指定、文字による指示など、さまざまな入力方法に対応して、新たな学習なしで正確な物体マスクを素早く作成します。

主な特徴

・直感的な分割操作:点、範囲指定枠、おおまかなマスク、文字など、分かりやすい指示で対象を細かく分離

・基本モデル設計:画像変換エンコーダーと指示エンコーダー、高速マスクデコーダーを組み合わせた最新構造

・大規模学習データ:業界で最大規模のSA-1Bデータセットを使用した学習により、優れた適応力と学習不要の対応力を実現

・学習不要の適応:追加学習が不要で、未経験の画像や作業にもすぐに対応し、高い精度を発揮

・公開モデル:Apache 2.0ライセンスで公開されており、研究から実用まで幅広く使用可能

・高速処理:約50ミリ秒でのマスク生成により、対話的な操作をリアルタイムでサポート

活用シーン

・画像注釈支援:自動マスク生成で画像へのラベル付け作業を効率化

・医療画像解析:病変部分や臓器の精密な分割により、診断と治療計画を支援

・環境・衛星画像分析:土地の利用状況分類や災害監視に貢献

・AR・映像制作:拡張現実アプリや映像効果向けに、リアルタイムでの物体分離を実現

・ロボット・自動運転:詳細な状況理解を通じて、自律システムの精度向上に貢献