ホーム
評価の高いリアルタイム物体detectおよび画像segmentモデルの最新バージョンであるUltralytics YOLO26をご紹介します。YOLO26は、ディープラーニングとコンピュータービジョンの進歩に基づいて構築されており、エンドツーエンドのNMSフリー推論と最適化されたエッジデプロイメントを特徴としています。その合理化された設計により、さまざまなアプリケーションに適しており、エッジデバイスからクラウドAPIまで、さまざまなハードウェアプラットフォームに容易に適応できます。安定した本番ワークロードには、YOLO26とYOLO11の両方が推奨されます。
Ultralytics Docsをご覧ください。これは、その機能と能力を理解し活用するために設計された包括的なリソースです。あなたが経験豊富な機械学習の実践者であろうと、この分野の初心者であろうと、このハブはあなたのプロジェクトにおけるYOLOの可能性を最大限に引き出すことを目指しています。
はじめに
はじめに
インストール
ultralyticspipを使用して数分でYOLOモデルをトレーニングできるようになります。予測
YOLOで新しい画像、ビデオ、ストリームを予測する
モデルの学習
独自のカスタムデータセットで新しいYOLOモデルをスクラッチから学習するか、事前学習済みのモデルをロードして学習します。
コンピュータビジョンタスクをご覧ください
detect、segment、classify、pose、obb、trackなどのYOLOタスクを発見
YOLO26を探る 🚀 新機能
NMSフリー推論とエッジ最適化を備えたUltralyticsの最新YOLO26モデルを発見
SAM 3: コンセプトで何でもsegment 🚀 NEW
Metaの最新SAM 3、プロンプト可能なコンセプトsegmentation搭載 - テキストまたは画像例を使用してすべてのインスタンスをsegment
オープンソース、AGPL-3.0
Ultralyticsは、AGPL-3.0とEnterpriseの2つのYOLOライセンスを提供しています。GitHubでYOLOをご覧ください。
見る: カスタムデータセットでYOLO11モデルをトレーニングする方法 Google Colab.
YOLO:簡単な歴史
YOLO(You Only Look Once)は、ワシントン大学のJoseph RedmonとAli Farhadiによって開発された、広く普及している物体検出および画像セグメンテーションモデルです。2015年に発表されたYOLOは、その高速性と精度で人気を博しました。
- 2016年にリリースされたYOLOv2は、バッチ正規化、アンカーボックス、および次元クラスタを組み込むことで、元のモデルを改善しました。
- YOLOv3は、2018年に発表され、より効率的なバックボーンネットワーク、複数のアンカー、および空間ピラミッドプーリングを使用して、モデルのパフォーマンスをさらに向上させました。
- YOLOv4は2020年にリリースされ、Mosaic データ拡張、新しいアンカーフリー検出ヘッド、および新しい損失関数などの革新的な機能が導入されました。
- YOLOv5は、モデルの性能をさらに向上させ、ハイパーパラメータ最適化、統合された実験追跡、一般的なエクスポート形式への自動エクスポートなどの新機能を追加しました。
- YOLOv6は2022年にMeituanによってオープンソース化され、同社の多くの自律配送ロボットで使用されています。
- YOLOv7は、COCOキーポイントデータセットでの姿勢推定など、追加のタスクを加えました。
- YOLOv8は、Ultralyticsによって2023年にリリースされ、パフォーマンス、柔軟性、効率を向上させるための新機能と改善が導入され、幅広いビジョンAIタスクをサポートしています。
- YOLOv9は、Programmable Gradient Information (PGI) やGeneralized Efficient Layer Aggregation Network (GELAN) といった革新的な手法を導入しています。
- UltralyticsPythonパッケージを使用して清華大学の研究者によって作成されたYOLOv10は、Non-Maximum Suppression (NMS)の要件を排除するEnd-to-Endヘッドを導入することにより、リアルタイム物体検出の進歩を提供します。
- YOLO11: 2024年9月にリリースされたYOLO11は、物体detect、segment、ポーズ推定、track、分類を含む複数のタスクで優れたパフォーマンスを発揮し、多様なAIアプリケーションやドメインでのデプロイメントを可能にします。
- YOLO26 🚀: エンドツーエンドのNMSフリー推論とエッジデプロイメントに最適化されたUltralyticsの次世代YOLOモデル。
YOLO ライセンス:Ultralytics YOLO はどのようにライセンスされていますか?
Ultralyticsは、多様なユースケースに対応するために、2つのライセンスオプションを提供しています。
- AGPL-3.0 License: このOSI承認済みのオープンソースライセンスは、学生や愛好家にとって理想的であり、オープンなコラボレーションと知識の共有を促進します。詳細については、LICENSEファイルを参照してください。
- エンタープライズライセンス: 商用利用向けに設計されたこのライセンスは、UltralyticsソフトウェアとAIモデルを商用製品およびサービスにシームレスに統合することを許可し、AGPL-3.0のオープンソース要件を回避します。当社のソリューションを商用製品に組み込む場合は、Ultralyticsライセンスを通じてご連絡ください。
当社のライセンス戦略は、オープンソースプロジェクトへの改善がコミュニティに還元されるように設計されています。当社はオープンソースを信じており、当社の貢献が、すべての人に利益をもたらす形で利用および拡張されることを保証することが使命です。
物体検出の進化
オブジェクト検出は、従来のコンピュータビジョンの技術から高度な深層学習モデルへと、長年にわたり大きく進化してきました。YOLOモデルファミリーは、この進化の最前線に立ち、リアルタイムオブジェクト検出で可能なことの限界を常に押し広げています。
YOLO独自のオブジェクト検出アプローチは、オブジェクト検出を単一の回帰問題として扱い、1回の評価で画像全体から直接バウンディングボックスとクラス確率を予測します。この革新的な手法により、YOLOモデルは高い精度を維持しながら、従来の2段階検出器よりも大幅に高速化されました。
新しいバージョンがリリースされるたびに、YOLOはさまざまなメトリクスでパフォーマンスを向上させるアーキテクチャの改善と革新的な技術を導入してきました。YOLO26は、コンピュータービジョン研究における最新の進歩を取り入れ、エンドツーエンドのNMSフリー推論と実世界アプリケーション向けの最適化されたエッジデプロイメントを特徴とすることで、この伝統を継承しています。
よくある質問
Ultralytics YOLOとは何ですか?また、どのように物体検出を改善しますか?
Ultralytics YOLOは、リアルタイム物体detectと画像segmentのための評価の高いYOLO (You Only Look Once) シリーズです。最新モデルのYOLO26は、エンドツーエンドのNMSフリー推論と最適化されたエッジデプロイメントを導入することで、以前のバージョンを基盤としています。YOLOは、detect、segment、ポーズ推定、track、分類など、さまざまなビジョンAIタスクをサポートしています。その効率的なアーキテクチャは優れた速度と精度を保証し、エッジデバイスやクラウドAPIを含む多様なアプリケーションに適しています。
YOLOのインストールとセットアップを開始するにはどうすればよいですか?
YOLOの利用開始は迅速かつ簡単です。pipを使用してUltralyticsパッケージをインストールすると、数分で起動して実行できます。基本的なインストールコマンドを次に示します。
pip を使用したインストール
pip install -U ultralytics
包括的なステップごとのガイドについては、クイックスタートページをご覧ください。このリソースは、インストール手順、初期設定、および最初のモデルの実行に役立ちます。
カスタムYOLOモデルを自分のデータセットでトレーニングするにはどうすればよいですか?
データセットでカスタムYOLOモデルを学習するには、いくつかの詳細な手順が必要です。
- アノテーション付きデータセットを準備します。
- YAMLファイルでトレーニングパラメータを設定します。
- 以下を使用します
yolo TASK trainコマンドを使用してトレーニングを開始します。(各TASK独自の引数を持つ)
オブジェクト検出タスクのサンプルコードを以下に示します。
物体検出タスクの学習例
from ultralytics import YOLO
# Load a pretrained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo26n.pt")
# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo detect train data=path/to/dataset.yaml epochs=100 imgsz=640
詳細なチュートリアルについては、モデルのトレーニングガイドをご覧ください。このガイドには、トレーニングプロセスを最適化するための例とヒントが含まれています。
Ultralytics YOLOで利用できるライセンスオプションは何ですか?
Ultralyticsは、YOLOに対して2つのライセンスオプションを提供しています。
- AGPL-3.0 License: このオープンソースライセンスは、教育および非商用での使用に最適であり、オープンなコラボレーションを促進します。
- エンタープライズライセンス: これは商用アプリケーション向けに設計されており、AGPL-3.0ライセンスの制限なしに、Ultralyticsソフトウェアを商用製品にシームレスに統合できます。
詳細については、ライセンスページをご覧ください。
Ultralytics YOLOは、リアルタイムの物体追跡にどのように利用できますか?
Ultralytics YOLOは、効率的でカスタマイズ可能なマルチオブジェクトトラッキングをサポートしています。トラッキング機能を利用するには、以下を使用します。 yolo track コマンドを以下に示します:
動画上の物体追跡の例
from ultralytics import YOLO
# Load a pretrained YOLO model
model = YOLO("yolo26n.pt")
# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4
オブジェクト追跡の設定と実行に関する詳細なガイドについては、Track Modeのドキュメントをご覧ください。ここでは、リアルタイムシナリオでの構成と実用的なアプリケーションについて説明しています。








