対応モデルUltralytics
Ultralytics' モデルのドキュメントへようこそ!私たちは、物体検出、インスタンス分割、画像分類、姿勢推定、多オブジェクト追跡などの特定のタスクに合わせた、幅広いモデルをサポートしています。あなたのモデルアーキテクチャをUltralytics に寄稿することに興味がある方は、寄稿ガイドをご覧ください。
注目モデル
主な対応モデルは以下の通り:
- YOLOv3:ジョセフ・レッドモン(Joseph Redmon)により開発されたYOLO モデル・ファミリーの第3世代モデル。
- YOLOv4:Alexey Bochkovskiyによって2020年にリリースされたYOLOv3のダークネットネイティブアップデート。
- YOLOv5:Ultralytics によるYOLO アーキテクチャの改良版で、以前のバージョンと比較してパフォーマンスとスピードのトレードオフが改善されている。
- YOLOv6:2022年にMeituan社から発売され、同社の自律型配送ロボットの多くに採用されている。
- YOLOv7:YOLOv4の作者によって2022年にリリースされたYOLO の更新モデル。
- YOLOv8:インスタンス分割、ポーズ/キーポイント推定、分類などの機能が強化された汎用性の高いモデル。
- YOLOv9:プログラマブル勾配情報(PGI)を実装したUltralytics YOLOv5Programmable Gradient Information (PGI)を実装したコードベースモデル。
- YOLOv10:清華大学によるもので、NMSフリーのトレーニングと効率・精度重視のアーキテクチャを特徴とし、最先端のパフォーマンスとレイテンシーを実現。
- YOLO11🚀NEW:Ultralytics最新のYOLO モデルは、検出、セグメンテーション、ポーズ推定、トラッキング、分類を含む複数のタスクにおいて、最先端の(SOTA)パフォーマンスを提供します。
- セグメント何でもモデル (SAM):メタのオリジナルSegment Anything Model (SAM)。
- セグメント何でもモデル2 (SAM2):MetaのSegment Anything Model (SAM) の次世代の動画・画像用モデル。
- モバイルセグメント何でもモデル (MobileSAM):MobileSAM for mobile applications, by Kyung Hee University.
- 高速セグメント何でもモデル (FastSAM):FastSAM by 中国科学院自動化研究所画像映像解析グループ.
- YOLO:YOLO Neural Architecture Search(NAS) モデル。
- リアルタイム検出トランス (RT-DETR):百度のPaddlePaddle リアルタイム検出トランスフォーマー(RT-DETR)のモデル。
- YOLO-世界:Tencent AI Labのリアルタイム・オープン語彙オブジェクト検出モデル。
- YOLOE:YOLOリアルタイム性を維持しつつ、学習データ以外の任意のクラスを検出する改良型オープンボキャブラリーオブジェクト検出器。
見るんだ: Ultralytics YOLO モデルをわずか数行のコードで実行。
はじめに使用例
この例では、単純なYOLO トレーニングと推論の例を提供します。これらのモードや他のモードに関する完全なドキュメントはPredict,Train,ValandExportdocs ページを参照してください。
以下の例は、YOLOv8 オブジェクト検出のためのDetectモデルであることに注意してください。その他のサポートされるタスクについては、Segment、Classify、Poseのドキュメントを参照してください。
例
PyTorch じゅくれんした *.pt
モデルおよび構成 *.yaml
ファイルに渡すことができる。 YOLO()
, SAM()
, NAS()
そして RTDETR()
クラスを使用して、Python でモデルのインスタンスを作成します:
from ultralytics import YOLO
# Load a COCO-pretrained YOLOv8n model
model = YOLO("yolov8n.pt")
# Display model information (optional)
model.info()
# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference with the YOLOv8n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")
CLI コマンドでモデルを直接実行できる:
新しいモデルの貢献
あなたのモデルをUltralytics に投稿することに興味がありますか?もちろんです!私たちは、モデル・ポートフォリオを拡大するために常にオープンです。
-
リポジトリをフォークする:Ultralytics GitHub リポジトリをフォークしてください。
-
フォークのクローン: フォークをローカルマシンにクローンし、作業用の新しいブランチを作成します。
-
モデルを実装する:寄稿ガイドで提供されているコーディング標準とガイドラインに従って、モデルを追加します。
-
徹底的なテスト:モデルを単独で、あるいはパイプラインの一部として、厳密にテストすること。
-
プルリクエストを作成する:モデルに満足したら、メインリポジトリにプルリクエストを作成し、レビューしてもらいましょう。
-
コードレビューとマージ:レビュー後、あなたのモデルが私たちの基準を満たしていれば、メインリポジトリにマージされます。
詳細な手順については、コントリビューティングガイドを参照してください。
よくあるご質問
物体検出にUltralytics YOLO11 使用する主な利点は何ですか?
Ultralytics YOLO11 、リアルタイムの物体検出、インスタンス分割、姿勢推定、分類などの強化された機能を提供します。その最適化されたアーキテクチャは、精度を犠牲にすることなく高速性能を保証し、多様なAI領域における様々なアプリケーションに最適です。YOLO11 、YOLO11 ドキュメンテーション・ページで詳しく説明されているように、パフォーマンスの向上と追加機能により、旧バージョンをベースにしています。
カスタムデータでYOLO モデルをトレーニングするには?
カスタムデータに対するYOLO モデルのトレーニングは、Ultralyticsライブラリを使って簡単に行うことができます。簡単な例をご覧ください:
例
より詳細な手順については、Trainドキュメンテーションページをご覧ください。
Ultralytics でサポートされているYOLO のバージョンは?
Ultralytics 、YOLOYOLO、SAM、RT-DETRモデルとともに、YOLOv3からYOLO11包括的なYOLO (You Only Look Once)バージョンをサポートしています。各バージョンは、検出、セグメンテーション、分類など様々なタスクに最適化されている。各モデルの詳細については、 Ultralyticsサポートするモデルのドキュメントを参照してください。
機械学習プロジェクトにUltralytics HUBを使うべき理由は?
Ultralytics HUBは、YOLO モデルのトレーニング、デプロイ、管理のための、コード不要のエンドツーエンドのプラットフォームを提供します。複雑なワークフローを簡素化し、ユーザーはモデルのパフォーマンスとアプリケーションに集中することができます。HUBはまた、クラウドトレーニング機能、包括的なデータセット管理、初心者から経験豊富な開発者まで使いやすいインターフェースを提供します。
YOLO11 どのようなタスクをこなせるのか、また他のYOLO バージョンと比べてどうなのか?
YOLO11 11は、物体検出、インスタンス分割、分類、および姿勢推定を含むタスクを実行できる汎用性の高いモデルである。以前のバージョンと比較して、YOLO11 、最適化されたアーキテクチャとアンカーフリー設計により、速度と精度が大幅に向上しています。より詳細な比較については、YOLO11 ドキュメントと タスクのページを参照してください。