対応モデルUltralytics
Ultralytics' モデルのドキュメントへようこそ!私たちは、物体検出、インスタンス分割、画像分類、姿勢推定、多オブジェクト追跡などの特定のタスクに合わせた、幅広いモデルをサポートしています。あなたのモデルアーキテクチャをUltralytics に寄稿することに興味がある方は、寄稿ガイドをご覧ください。
注目モデル
主な対応モデルは以下の通り:
- YOLOv3:ジョセフ・レッドモン(Joseph Redmon)により開発されたYOLO モデル・ファミリーの第3世代モデル。
- YOLOv4:Alexey Bochkovskiyによって2020年にリリースされたYOLOv3のダークネットネイティブアップデート。
- YOLOv5:Ultralytics によるYOLO アーキテクチャの改良版で、以前のバージョンと比較してパフォーマンスとスピードのトレードオフが改善されている。
- YOLOv6:2022年にMeituan社から発売され、同社の自律型配送ロボットの多くに採用されている。
- YOLOv7:YOLOv4の作者によって2022年にリリースされたYOLO の更新モデル。
- YOLOv8:インスタンスのセグメンテーション、ポーズ/キーポイントの推定、分類などの機能が強化された、YOLO ファミリーの最新バージョン。
- YOLOv9:プログラマブル勾配情報(PGI)を実装したUltralytics YOLOv5Programmable Gradient Information (PGI)を実装したコードベースモデル。
- YOLOv10:清華大学によるもので、NMSフリーのトレーニングと効率・精度重視のアーキテクチャを特徴とし、最先端のパフォーマンスとレイテンシーを実現。
- YOLO11 🚀NEW: ' 最新モデル 複数のタスクで最先端の(SOTA)パフォーマンスを提供。Ultralytics YOLO
- セグメント何でもモデル (SAM):メタのオリジナルSegment Anything Model (SAM)。
- セグメント何でもモデル2 (SAM2):MetaのSegment Anything Model (SAM) の次世代の動画・画像用モデル。
- モバイルセグメント何でもモデル (MobileSAM):MobileSAM for mobile applications, by Kyung Hee University.
- 高速セグメント何でもモデル (FastSAM):FastSAM by 中国科学院自動化研究所画像映像解析グループ.
- YOLO-NAS:YOLO ニューラル・アーキテクチャ・サーチ(NAS)モデル。
- リアルタイム検出トランス (RT-DETR):百度のPaddlePaddle リアルタイム検出トランスフォーマー(RT-DETR)のモデル。
- YOLO-世界:Tencent AI Labのリアルタイム・オープン語彙オブジェクト検出モデル。
見るんだ: Ultralytics YOLO モデルをわずか数行のコードで実行。
はじめに使用例
この例では、単純なYOLO トレーニングと推論の例を提供します。これらのモードや他のモードに関する完全なドキュメントはPredict,Train,ValandExportdocs ページを参照してください。
以下の例は、YOLOv8 オブジェクト検出のためのDetectモデルであることに注意してください。その他のサポートされるタスクについては、Segment、Classify、Poseのドキュメントを参照してください。
例
PyTorch じゅくれんした *.pt
モデルおよび構成 *.yaml
ファイルに渡すことができる。 YOLO()
, SAM()
, NAS()
そして RTDETR()
クラスを使用して、Python でモデルのインスタンスを作成します:
from ultralytics import YOLO
# Load a COCO-pretrained YOLOv8n model
model = YOLO("yolov8n.pt")
# Display model information (optional)
model.info()
# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference with the YOLOv8n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")
CLI コマンドでモデルを直接実行できる:
新しいモデルの貢献
あなたのモデルをUltralytics に投稿することに興味がありますか?もちろんです!私たちは、モデル・ポートフォリオを拡大するために常にオープンです。
-
リポジトリをフォークする:Ultralytics GitHub リポジトリをフォークしてください。
-
フォークのクローン: フォークをローカルマシンにクローンし、作業用の新しいブランチを作成します。
-
モデルを実装する:寄稿ガイドで提供されているコーディング標準とガイドラインに従って、モデルを追加します。
-
徹底的なテスト:モデルを単独で、あるいはパイプラインの一部として、厳密にテストすること。
-
プルリクエストを作成する:モデルに満足したら、メインリポジトリにプルリクエストを作成し、レビューしてもらいましょう。
-
コードレビューとマージ:レビュー後、あなたのモデルが私たちの基準を満たしていれば、メインリポジトリにマージされます。
詳細な手順については、コントリビューティングガイドを参照してください。
よくあるご質問
Ultralytics YOLOv8 を物体検出に使用する主な利点は?
Ultralytics YOLOv8 は、リアルタイムの物体検出、インスタンスのセグメンテーション、ポーズ推定、分類などの強化された機能を提供します。その最適化されたアーキテクチャは、精度を犠牲にすることなく高速パフォーマンスを保証し、様々なアプリケーションに最適です。YOLOv8 ドキュメントページで詳しく説明されているように、YOLOv8 には、一般的なデータセットやモデルとの互換性も組み込まれています。
カスタムデータでYOLOv8 モデルをトレーニングするには?
Ultralytics' ライブラリを使えば、カスタムデータでYOLOv8 モデルを簡単にトレーニングできる。簡単な例を挙げよう:
例
より詳細な手順については、Trainドキュメンテーションページをご覧ください。
Ultralytics でサポートされているYOLO のバージョンは?
Ultralytics は、YOLOv3 から YOLOv10 までのYOLO (You Only Look Once) バージョンと、NAS、SAM 、RT-DETR などのモデルを包括的にサポートしています。各バージョンは、検出、セグメンテーション、分類など、さまざまなタスクに最適化されている。各モデルの詳細については、 Ultralytics の ドキュメントでサポートされているモデルを参照してください。
機械学習プロジェクトにUltralytics HUBを使うべき理由は?
Ultralytics HUBは、YOLO モデルのトレーニング、デプロイ、管理のための、コード不要のエンドツーエンドのプラットフォームを提供します。複雑なワークフローを簡素化し、ユーザーはモデルのパフォーマンスとアプリケーションに集中することができます。HUBはまた、クラウドトレーニング機能、包括的なデータセット管理、ユーザーフレンドリーなインターフェースを提供します。詳しくは、Ultralytics HUBのドキュメントページをご覧ください。
YOLOv8 、どのようなタスクをこなせるのか。また、他のYOLO バージョンと比べてどうなのか。
YOLOv8 は、物体検出、インスタンス分割、分類、および姿勢推定を含むタスクを実行できる汎用性の高いモデルです。YOLOv3やYOLOv4のような以前のバージョンと比較して、YOLOv8 、最適化されたアーキテクチャにより、速度と精度が大幅に向上しています。より詳細な比較については、YOLOv8 のドキュメントと、特定のタスクの詳細についてはタスクのページを参照してください。