コンテンツにスキップ

Ultralytics でサポートされているモデル

Ultralyticsのモデルドキュメントへようこそ!物体検出インスタンスセグメンテーション画像分類ポーズ推定マルチオブジェクトトラッキングなど、特定のタスクに合わせて調整された幅広いモデルをサポートしています。Ultralyticsにモデルアーキテクチャを提供することに関心がある場合は、貢献ガイドをご覧ください。

Ultralytics YOLO11 の比較プロット

サポートされている主なモデルを紹介します。

  1. YOLOv3: YOLOモデルファミリーの第3のイテレーションであり、元々はJoseph Redmonによって開発され、効率的なリアルタイムオブジェクト検出機能で知られています。
  2. YOLOv4: 2020年にAlexey Bochkovskiyによってリリースされた、YOLOv3のdarknetネイティブアップデート。
  3. YOLOv5: UltralyticsによるYOLOアーキテクチャの改良版で、以前のバージョンと比較して、より優れたパフォーマンスと速度のトレードオフを提供します。
  4. YOLOv6: 2022年にMeituanによってリリースされ、同社の多くの自律配送ロボットで使用されています。
  5. YOLOv7: YOLOv4の著者によって2022年にリリースされたアップデート版YOLOモデルです。推論のみがサポートされています。
  6. YOLOv8: インスタンスセグメンテーション、ポーズ/キーポイント推定、分類などの機能が強化された汎用性の高いモデル。
  7. YOLOv9: UltralyticsのYOLOv5コードベースでトレーニングされ、Programmable Gradient Information(PGI)を実装した実験的モデル。
  8. YOLOv10: 清華大学による、NMSフリーのトレーニングと効率と精度を重視したアーキテクチャを特徴とし、最先端のパフォーマンスと低遅延を実現します。
  9. YOLO11 🚀 NEW: Ultralyticsの最新YOLOモデルは、検出、セグメンテーション、ポーズ推定、トラッキング、分類など、複数のタスクにわたって最先端(SOTA)のパフォーマンスを提供します。
  10. Segment Anything Model (SAM):MetaのオリジナルSegment Anything Model (SAM)。
  11. Segment Anything Model 2 (SAM2):ビデオおよび画像向けのMetaの次世代Segment Anything Model (SAM)。
  12. Mobile Segment Anything Model (MobileSAM):慶熙大学校によるモバイルアプリケーション向けのMobileSAM。
  13. Fast Segment Anything Model (FastSAM):中国科学院自動化研究所のImage & Video Analysis GroupによるFastSAM。
  14. YOLO-NAS: YOLO Neural Architecture Search (NAS) モデル。
  15. Realtime Detection Transformers (RT-DETR):BaiduのPaddlePaddle Realtime Detection Transformer (RT-DETR) モデル。
  16. YOLO-World: Tencent AI LabによるリアルタイムOpen Vocabulary Object Detectionモデル。
  17. YOLOE: トレーニングデータを超えた任意のクラスを検出しながら、YOLOのリアルタイムパフォーマンスを維持する、改善されたオープンボキャブラリー物体検出器。



見る: わずか数行のコードでUltralytics YOLOモデルを実行します。

はじめに:使用例

この例では、シンプルな YOLO のトレーニングと推論の例を紹介します。これらおよびその他のモードに関する完全なドキュメントについては、PredictTrainValExportのドキュメントページを参照してください。

以下の例は、物体検出用のYOLOv8 Detectモデルに関するものであることに注意してください。その他のサポートされているタスクについては、SegmentClassify、およびPoseのドキュメントを参照してください。

PyTorch 学習済み *.pt モデルおよび構成 *.yaml filesを以下に渡すことができます。 YOLO(), SAM(), NAS() および RTDETR() pythonでモデルインスタンスを作成するためのクラス:

from ultralytics import YOLO

# Load a COCO-pretrained YOLOv8n model
model = YOLO("yolov8n.pt")

# Display model information (optional)
model.info()

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference with the YOLOv8n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")

CLIコマンドは、モデルを直接実行するために利用できます。

# Load a COCO-pretrained YOLOv8n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640

# Load a COCO-pretrained YOLOv8n model and run inference on the 'bus.jpg' image
yolo predict model=yolov8n.pt source=path/to/bus.jpg

新しいモデルの投稿

Ultralyticsへのモデルの貢献にご興味がありますか?素晴らしいです!モデルポートフォリオの拡大は常に歓迎しています。

  1. リポジトリのフォークUltralytics GitHubリポジトリをフォークすることから始めます。

  2. フォークのリポジトリをクローン: フォークしたリポジトリをローカルマシンにクローンし、作業するための新しいブランチを作成します。

  3. モデルの実装: 投稿ガイドに記載されているコーディング標準とガイドラインに従って、モデルを追加してください。

  4. 徹底的なテスト:モデルを単独で、そしてパイプラインの一部として、厳密にテストしてください。

  5. プルリクエストの作成: モデルに満足したら、レビューのためにメインリポジトリにプルリクエストを作成します。

  6. コードレビューとマージ: レビュー後、モデルが基準を満たしていれば、メインリポジトリにマージされます。

詳細な手順については、貢献ガイドをご覧ください。

よくある質問

Ultralytics YOLO11を物体検出に使用する主な利点は何ですか?

Ultralytics YOLO11は、リアルタイム物体検出、インスタンスセグメンテーション、ポーズ推定、分類などの拡張機能を提供します。最適化されたアーキテクチャにより、精度を犠牲にすることなく高速パフォーマンスが保証されるため、多様なAIドメインにわたるさまざまなアプリケーションに最適です。YOLO11は、YOLO11のドキュメントページで詳しく説明されているように、パフォーマンスが向上し、機能が追加された以前のバージョンを基に構築されています。

カスタムデータでYOLOモデルをトレーニングするにはどうすればよいですか?

Ultralyticsのライブラリを使用すると、カスタムデータでYOLOモデルを簡単に学習できます。簡単な例を次に示します。

from ultralytics import YOLO

# Load a YOLO model
model = YOLO("yolo11n.pt")  # or any other YOLO model

# Train the model on custom dataset
results = model.train(data="custom_data.yaml", epochs=100, imgsz=640)
yolo train model=yolo11n.pt data='custom_data.yaml' epochs=100 imgsz=640

詳細な手順については、Trainのドキュメントページをご覧ください。

Ultralytics はどの YOLO バージョンをサポートしていますか?

Ultralyticsは、YOLOv3からYOLO11までの包括的なYOLO(You Only Look Once)バージョンと、YOLO-NAS、SAM、RT-DETRなどのモデルをサポートしています。各バージョンは、検出、セグメンテーション、分類などのさまざまなタスクに最適化されています。各モデルの詳細については、Ultralyticsでサポートされているモデルのドキュメントを参照してください。

機械学習プロジェクトにUltralytics HUBを使用する理由は何ですか?

Ultralytics HUBは、YOLOモデルのトレーニング、デプロイ、管理を行うためのノーコードのエンドツーエンドプラットフォームを提供します。複雑なワークフローを簡素化し、ユーザーがモデルのパフォーマンスとアプリケーションに集中できるようにします。HUBはまた、クラウドトレーニング機能、包括的なデータセット管理、初心者と経験豊富な開発者の両方に対応したユーザーフレンドリーなインターフェースを提供します。

YOLO11はどのような種類のタスクを実行できますか?また、他のYOLOバージョンと比較してどうですか?

YOLO11は、物体検出、インスタンスセグメンテーション、分類、ポーズ推定などのタスクを実行できる汎用性の高いモデルです。以前のバージョンと比較して、YOLO11は、最適化されたアーキテクチャとアンカーフリー設計により、速度と精度が大幅に向上しています。より詳細な比較については、YOLO11ドキュメントと、特定のタスクの詳細についてはタスクページを参照してください。



📅 1年前に作成 ✏️ 3ヶ月前に更新

コメント