Ultralyticsがサポートするモデル
Ultralyticsのモデルドキュメントへようこそ!物体検出、インスタンスセグメンテーション、画像分類、姿勢推定、マルチオブジェクトトラッキングなど、特定のタスクに合わせてカスタマイズされた幅広いモデルをサポートしています。自身のモデルアーキテクチャをUltralyticsに提供することに興味がある場合は、貢献ガイドをご覧ください。
主要モデル
主要なサポートモデルは以下の通りです。
- YOLOv3: Joseph Redmon氏によって考案されたYOLOモデルファミリーの第3世代。効率的なリアルタイム物体検出機能で知られています。
- YOLOv4: 2020年にAlexey Bochkovskiy氏によってリリースされた、YOLOv3のDarknetネイティブアップデート版です。
- YOLOv5: UltralyticsによるYOLOアーキテクチャの改良版であり、前バージョンと比較してパフォーマンスと速度の面で優れたトレードオフを提供します。
- YOLOv6: 2022年にMeituanによってリリースされ、同社の多くの自律配送ロボットで使用されています。
- YOLOv7: 2022年にYOLOv4の著者らによってリリースされたアップデート版YOLOモデルです。推論のみがサポートされています。
- YOLOv8: インスタンスセグメンテーション、姿勢/キーポイント推定、分類といった強化された機能を備えた多用途モデルです。
- YOLOv9: プログラマブル勾配情報(PGI)を実装した、UltralyticsのYOLOv5コードベースで学習された実験的モデルです。
- YOLOv10: 清華大学によるモデル。NMS不要の学習と効率性・精度を重視したアーキテクチャを採用しており、最先端のパフォーマンスとレイテンシを実現しています。
- YOLO11: 検出、セグメンテーション、姿勢推定、トラッキング、分類など、複数のタスクで高性能を発揮するUltralyticsのYOLOモデルです。
- YOLO26 🚀 新機能: エッジ展開向けに最適化され、エンドツーエンドのNMS不要推論を実現した、Ultralyticsの最新次世代YOLOモデルです。
- Segment Anything Model (SAM): Metaが開発したオリジナルのSegment Anything Model (SAM)です。
- Segment Anything Model 2 (SAM2): 動画および画像に対応した、Metaによる次世代Segment Anything Modelです。
- Segment Anything Model 3 (SAM3) 🚀 新機能: テキストおよび画像の例示ベースのセグメンテーションのための「プロンプト可能コンセプトセグメンテーション」を搭載した、Metaの第3世代Segment Anything Modelです。
- Mobile Segment Anything Model (MobileSAM): 慶熙大学が開発した、モバイルアプリケーション向けのMobileSAMです。
- Fast Segment Anything Model (FastSAM): 中国科学院自動化研究所の画像・動画分析グループによるFastSAMです。
- YOLO-NAS: YOLO ニューラルアーキテクチャ探索 (NAS) モデルです。
- Real-Time Detection Transformers (RT-DETR): BaiduのPaddlePaddleによるリアルタイムDetection Transformer (RT-DETR) モデルです。
- YOLO-World: Tencent AI LabによるリアルタイムOpen Vocabulary物体検出モデルです。
- YOLOE: YOLOのリアルタイム性能を維持しつつ、学習データ以外の任意のクラスを検出できる、改良されたオープンボキャブラリー物体検出器です。
Watch: Run Ultralytics YOLO models in just a few lines of code.
はじめに:使用例
この例では、基本的なYOLOの学習および推論の例を紹介します。これらおよびその他のモードに関する完全なドキュメントについては、Predict、Train、Val、およびExportのドキュメントページを参照してください。
Note the below example spotlights YOLO11 Detect models for object detection. For additional supported tasks see the Segment, Classify and Pose docs.
PyTorchの事前学習済み*.ptモデルや設定用*.yamlファイルは、Pythonでモデルインスタンスを作成するためにYOLO()、SAM()、NAS()、およびRTDETR()クラスに渡すことができます。
from ultralytics import YOLO
# Load a COCO-pretrained YOLO26n model
model = YOLO("yolo26n.pt")
# Display model information (optional)
model.info()
# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference with the YOLO26n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")新しいモデルの貢献
ご自身のモデルをUltralyticsに提供することに関心がありますか?素晴らしいですね!私たちは常にモデルポートフォリオの拡大を歓迎しています。
-
リポジトリのフォーク: まずはUltralytics GitHubリポジトリをフォークしてください。
-
フォークのクローン: フォークをローカルマシンにクローンし、作業用の新しいブランチを作成します。
-
モデルの実装: 貢献ガイドで提供されているコーディング基準とガイドラインに従って、モデルを追加してください。
-
徹底的なテスト: モデルを単体でテストし、さらにパイプラインの一部としても厳密にテストしてください。
-
プルリクエストの作成: モデルに満足できたら、メインリポジトリに対してプルリクエストを作成し、レビューを依頼してください。
-
コードレビューとマージ: レビューの結果、モデルが基準を満たしていれば、メインリポジトリにマージされます。
詳細な手順については、貢献ガイドを参照してください。
FAQ
最新のUltralytics YOLOモデルは何ですか?
最新のUltralytics YOLOモデルは、2026年1月にリリースされたYOLO26です。YOLO26はエンドツーエンドのNMS不要推論、エッジ展開への最適化を特徴としており、5つのタスク(検出、セグメンテーション、分類、姿勢推定、OBB)に加えてオープンボキャブラリー版もサポートしています。安定した本番ワークロードには、YOLO26とYOLO11の両方が推奨される選択肢です。
カスタムデータでYOLOモデルを学習させるにはどうすればよいですか?
カスタムデータでのYOLOモデルの学習は、Ultralyticsのライブラリを使用して簡単に実行できます。以下にクイックな例を示します。
from ultralytics import YOLO
# Load a YOLO model
model = YOLO("yolo26n.pt") # or any other YOLO model
# Train the model on custom dataset
results = model.train(data="custom_data.yaml", epochs=100, imgsz=640)より詳細な手順については、Trainドキュメントページにアクセスしてください。
UltralyticsではどのYOLOバージョンがサポートされていますか?
Ultralyticsは、YOLOv3からYOLO11までの包括的なYOLO (You Only Look Once)バージョンに加え、YOLO-NAS、SAM、RT-DETRなどのモデルをサポートしています。各バージョンは、検出、セグメンテーション、分類などのさまざまなタスク向けに最適化されています。各モデルの詳細情報については、Ultralyticsがサポートするモデルのドキュメントを参照してください。
機械学習プロジェクトにUltralytics Platformを使用すべき理由は何ですか?
Ultralytics Platformは、YOLOモデルの学習、デプロイ、管理を行うためのノーコードでエンドツーエンドのプラットフォームを提供します。複雑なワークフローを簡素化し、ユーザーがモデルのパフォーマンスとアプリケーションに集中できるようにします。HUBは、クラウド学習機能、包括的なデータセット管理、初心者から経験豊富な開発者まで使いやすいインターフェースも提供します。
Ultralytics YOLOモデルはどのようなタスクを実行できますか?
Ultralytics YOLOモデルは多用途であり、物体検出、インスタンスセグメンテーション、分類、姿勢推定、指向性物体検出 (OBB) などのタスクを実行できます。最新モデルのYOLO26は、これら5つのタスクに加えてオープンボキャブラリー検出もサポートしています。各タスクの詳細については、タスクページを参照してください。