Ultralytics でサポートされているモデル
Ultralyticsのモデルドキュメントへようこそ!物体検出、インスタンスセグメンテーション、画像分類、ポーズ推定、マルチオブジェクトトラッキングなど、特定のタスクに合わせて調整された幅広いモデルをサポートしています。Ultralyticsにモデルアーキテクチャを提供することに関心がある場合は、貢献ガイドをご覧ください。
注目のモデル
サポートされている主なモデルを紹介します。
- YOLOv3: YOLOモデルファミリーの第3のイテレーションであり、元々はJoseph Redmonによって開発され、効率的なリアルタイムオブジェクト検出機能で知られています。
- YOLOv4: 2020年にAlexey Bochkovskiyによってリリースされた、YOLOv3のdarknetネイティブアップデート。
- YOLOv5: UltralyticsによるYOLOアーキテクチャの改良版で、以前のバージョンと比較して、より優れたパフォーマンスと速度のトレードオフを提供します。
- YOLOv6: 2022年にMeituanによってリリースされ、同社の多くの自律配送ロボットで使用されています。
- YOLOv7: YOLOv4の著者によって2022年にリリースされたアップデート版YOLOモデルです。推論のみがサポートされています。
- YOLOv8: インスタンスセグメンテーション、ポーズ/キーポイント推定、分類などの機能が強化された汎用性の高いモデル。
- YOLOv9: UltralyticsのYOLOv5コードベースでトレーニングされ、Programmable Gradient Information(PGI)を実装した実験的モデル。
- YOLOv10: 清華大学による、NMSフリーのトレーニングと効率と精度を重視したアーキテクチャを特徴とし、最先端のパフォーマンスと低遅延を実現します。
- YOLO11 🚀 NEW: Ultralyticsの最新YOLOモデルは、検出、セグメンテーション、ポーズ推定、トラッキング、分類など、複数のタスクにわたって最先端(SOTA)のパフォーマンスを提供します。
- Segment Anything Model (SAM):MetaのオリジナルSegment Anything Model (SAM)。
- Segment Anything Model 2 (SAM2):ビデオおよび画像向けのMetaの次世代Segment Anything Model (SAM)。
- Mobile Segment Anything Model (MobileSAM):慶熙大学校によるモバイルアプリケーション向けのMobileSAM。
- Fast Segment Anything Model (FastSAM):中国科学院自動化研究所のImage & Video Analysis GroupによるFastSAM。
- YOLO-NAS: YOLO Neural Architecture Search (NAS) モデル。
- Realtime Detection Transformers (RT-DETR):BaiduのPaddlePaddle Realtime Detection Transformer (RT-DETR) モデル。
- YOLO-World: Tencent AI LabによるリアルタイムOpen Vocabulary Object Detectionモデル。
- YOLOE: トレーニングデータを超えた任意のクラスを検出しながら、YOLOのリアルタイムパフォーマンスを維持する、改善されたオープンボキャブラリー物体検出器。
見る: わずか数行のコードでUltralytics YOLOモデルを実行します。
はじめに:使用例
この例では、シンプルな YOLO のトレーニングと推論の例を紹介します。これらおよびその他のモードに関する完全なドキュメントについては、Predict、Train、Val、Exportのドキュメントページを参照してください。
以下の例は、物体検出用のYOLOv8 Detectモデルに関するものであることに注意してください。その他のサポートされているタスクについては、Segment、Classify、およびPoseのドキュメントを参照してください。
例
PyTorch 学習済み *.pt
モデルおよび構成 *.yaml
filesを以下に渡すことができます。 YOLO()
, SAM()
, NAS()
および RTDETR()
pythonでモデルインスタンスを作成するためのクラス:
from ultralytics import YOLO
# Load a COCO-pretrained YOLOv8n model
model = YOLO("yolov8n.pt")
# Display model information (optional)
model.info()
# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference with the YOLOv8n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")
CLIコマンドは、モデルを直接実行するために利用できます。
# Load a COCO-pretrained YOLOv8n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640
# Load a COCO-pretrained YOLOv8n model and run inference on the 'bus.jpg' image
yolo predict model=yolov8n.pt source=path/to/bus.jpg
新しいモデルの投稿
Ultralyticsへのモデルの貢献にご興味がありますか?素晴らしいです!モデルポートフォリオの拡大は常に歓迎しています。
-
リポジトリのフォーク:Ultralytics GitHubリポジトリをフォークすることから始めます。
-
フォークのリポジトリをクローン: フォークしたリポジトリをローカルマシンにクローンし、作業するための新しいブランチを作成します。
-
モデルの実装: 投稿ガイドに記載されているコーディング標準とガイドラインに従って、モデルを追加してください。
-
徹底的なテスト:モデルを単独で、そしてパイプラインの一部として、厳密にテストしてください。
-
プルリクエストの作成: モデルに満足したら、レビューのためにメインリポジトリにプルリクエストを作成します。
-
コードレビューとマージ: レビュー後、モデルが基準を満たしていれば、メインリポジトリにマージされます。
詳細な手順については、貢献ガイドをご覧ください。
よくある質問
Ultralytics YOLO11を物体検出に使用する主な利点は何ですか?
Ultralytics YOLO11は、リアルタイム物体検出、インスタンスセグメンテーション、ポーズ推定、分類などの拡張機能を提供します。最適化されたアーキテクチャにより、精度を犠牲にすることなく高速パフォーマンスが保証されるため、多様なAIドメインにわたるさまざまなアプリケーションに最適です。YOLO11は、YOLO11のドキュメントページで詳しく説明されているように、パフォーマンスが向上し、機能が追加された以前のバージョンを基に構築されています。
カスタムデータでYOLOモデルをトレーニングするにはどうすればよいですか?
Ultralyticsのライブラリを使用すると、カスタムデータでYOLOモデルを簡単に学習できます。簡単な例を次に示します。
例
from ultralytics import YOLO
# Load a YOLO model
model = YOLO("yolo11n.pt") # or any other YOLO model
# Train the model on custom dataset
results = model.train(data="custom_data.yaml", epochs=100, imgsz=640)
yolo train model=yolo11n.pt data='custom_data.yaml' epochs=100 imgsz=640
詳細な手順については、Trainのドキュメントページをご覧ください。
Ultralytics はどの YOLO バージョンをサポートしていますか?
Ultralyticsは、YOLOv3からYOLO11までの包括的なYOLO(You Only Look Once)バージョンと、YOLO-NAS、SAM、RT-DETRなどのモデルをサポートしています。各バージョンは、検出、セグメンテーション、分類などのさまざまなタスクに最適化されています。各モデルの詳細については、Ultralyticsでサポートされているモデルのドキュメントを参照してください。
機械学習プロジェクトにUltralytics HUBを使用する理由は何ですか?
Ultralytics HUBは、YOLOモデルのトレーニング、デプロイ、管理を行うためのノーコードのエンドツーエンドプラットフォームを提供します。複雑なワークフローを簡素化し、ユーザーがモデルのパフォーマンスとアプリケーションに集中できるようにします。HUBはまた、クラウドトレーニング機能、包括的なデータセット管理、初心者と経験豊富な開発者の両方に対応したユーザーフレンドリーなインターフェースを提供します。
YOLO11はどのような種類のタスクを実行できますか?また、他のYOLOバージョンと比較してどうですか?
YOLO11は、物体検出、インスタンスセグメンテーション、分類、ポーズ推定などのタスクを実行できる汎用性の高いモデルです。以前のバージョンと比較して、YOLO11は、最適化されたアーキテクチャとアンカーフリー設計により、速度と精度が大幅に向上しています。より詳細な比較については、YOLO11ドキュメントと、特定のタスクの詳細についてはタスクページを参照してください。