コンテンツにスキップ

ホーム

定評のあるリアルタイム物体検出・画像セグメンテーションモデルの最新バージョン、「Ultralytics YOLO26」をご紹介します。YOLO26は、ディープラーニングと コンピュータビジョンの最新技術に基づいて構築されており、NMS推論と、エッジ環境への最適化された展開を特徴としています。その合理化された設計により、エッジデバイスからクラウドAPIに至るまで、さまざまなハードウェアプラットフォームに容易に適応でき、多様なアプリケーションに適しています。安定した本番環境のワークロードには、YOLO26と YOLO11 の両方をお勧めします。

Ultralytics をご活用ください。これは、YOLOの機能や性能を理解し、活用するための包括的なリソースです。機械学習のベテランの方でも、この分野に初めて触れる方でも、このハブを通じて、プロジェクトにおいてYOLOの可能性を最大限に引き出すことができるよう支援します。

商用利用のためのエンタープライズライセンスは、Ultralytics からお申し込みください。


Ultralytics GitHubUltralytics LinkedInUltralytics TwitterUltralytics YouTubeUltralytics TikTokUltralytics BiliBiliUltralytics Discord

はじめに

  • はじめに


    インストール ultralytics pipを使って、わずか数分で環境を整え、YOLO トレーニングを開始しましょう


    クイックスタート

  • 予測


    YOLOを使って、新しい画像、動画、ストリームを予測する


    詳細はこちら

  • モデルの学習


    独自のデータセットを使ってYOLO ゼロから学習させるか、事前学習済みのモデルを読み込んで学習させる


    詳細はこちら

  • コンピュータビジョンのタスクを探索する


    「detect」「segment」「classify」「pose」「OBB」「track」といったYOLO をご覧ください


    タスクを閲覧する

  • 🚀YOLO26 をチェック 🚀 新登場


    NMS推論とエッジ最適化を実現した、UltralyticsYOLO26モデルをご覧ください


    YOLO26モデル 🚀

  • SAM : コンセプトを使って何でもセグメント化 🚀 新機能


    Metaの最新SAM とPromptableによる概念セグメンテーション - テキストまたは画像の例を用いてsegment インスタンスをsegment


    SAM モデル

  • オープンソース、AGPL-3.0


    Ultralytics 、AGPL-3.0 2YOLO Ultralytics 。GitHubでYOLOをご覧ください。


    YOLO



見る: 独自のデータセットを使用してYOLO26モデルをトレーニングする方法 Google Colab.

YOLO:その簡単な歴史

YOLO (You Only Look Once)は、ワシントン大学のジョセフ・レッドモンとアリ・ファルハディによって開発された、人気のある物体検出および画像セグメンテーションモデルです。2015年に発表されたYOLO 、その高速性と精度の高さからYOLO 。

  • 2016年に公開されたYOLOv2は、バッチ正規化、アンカーボックス、および次元クラスタリングを取り入れることで、元のモデルを改善しました。
  • 2018年に発表されたYOLOv3は、より効率的なバックボーンネットワーク、複数のアンカー、および空間ピラミッドプーリングを採用することで、モデルの性能をさらに向上させた。
  • YOLOv4は2020年にリリースされ、モザイクデータ拡張、新しいアンカーフリー検出ヘッド、新しい損失関数といった革新的な機能を導入しました。
  • YOLOv5 モデルの性能をさらに向上させるとともに、ハイパーパラメータの最適化、統合された実験追跡機能、一般的なエクスポート形式への自動エクスポートなどの新機能を追加しました。
  • YOLOv6YOLOv6は2022年に美団(Meituan)によってオープンソース化され、同社の自律配送ロボットの多くに採用されています。
  • YOLOv7COCO データセットに対して、姿勢推定などのタスクを追加しました。
  • YOLOv8Ultralytics2023年にリリースしたYOLOv8は、パフォーマンス、柔軟性、効率性を向上させる新機能と改良点を導入し、あらゆるビジョンAIタスクに対応しています。
  • YOLOv9 は、プログラマブル勾配情報(PGI)や一般化効率的層集約ネットワーク(GELAN)といった革新的な手法を導入しています。
  • YOLOv10清華大学の研究者らが UltralyticsPython 、Non-Maximum Suppression(NMS)の必要性を排除するエンドツーエンドのヘッドを導入することで、リアルタイム物体検出の性能を向上させています。
  • YOLO11: 2024年9月にリリースされたYOLO11 、物体検出セグメンテーション姿勢推定追跡分類など、多岐にわたるタスクで優れた性能YOLO11 、多様なAIアプリケーションや分野での導入を可能にします。
  • YOLO26🚀:Ultralytics次世代YOLO エッジ展開向けに最適化されており、エンドツーエンドでNMS推論を実現します。

YOLO :Ultralytics YOLO どのようなYOLO になっていますか?

Ultralytics バナー

Ultralytics 、多様な利用シーンに対応するため、2つのライセンスオプションUltralytics :

  • AGPL-3.0 :このOSI 承認のオープンソースライセンスは、学生や愛好家に最適であり、オープンな協働と知識の共有を促進します。詳細については、LICENSEファイルをご覧ください。
  • エンタープライズライセンス:商用利用向けに設計されたこのライセンスでは、AGPL-3.0オープンソース要件を適用除外とし、Ultralytics およびAIモデルを商用製品やサービスにシームレスに統合することが可能です。当社のソリューションを商用製品に組み込むご計画がある場合は、Ultralytics までお問い合わせください。

当社のライセンス戦略は、オープンソースプロジェクトへのあらゆる改善がコミュニティに還元されるよう設計されています。私たちはオープンソースを信奉しており、私たちの貢献がすべての人々の利益となる形で活用・発展されることを使命としています。

物体検出の進化

物体検出技術は、従来のコンピュータビジョン技術から高度なディープラーニングモデルへと、長年にわたり著しい進化を遂げてきました。YOLO モデルは、この進化の最前線に立ち、リアルタイム物体検出の可能性の限界を絶えず押し広げてきました。

YOLO独自のアプローチYOLO、物体検出を単一の回帰問題として扱い、1回の評価で画像全体から直接、バウンディングボックスとクラス確率を予測します。この革新的な手法により、YOLO 高い精度を維持しつつ、従来の2段階検出器よりも大幅に高速化されました。

YOLO 新バージョンごとに、アーキテクチャの改善や革新的な手法YOLO 、さまざまな評価指標において性能を向上YOLO 。YOLO26もこの伝統を受け継ぎ、コンピュータビジョン研究の最新成果を取り入れ、エンドツーエンドNMS推論と、実世界でのアプリケーション向けに最適化されたエッジ展開を実現しています。

よくある質問

Ultralytics YOLO 何ですか?YOLO 、どのようにして物体検出の精度を向上させるのでしょうか?

Ultralytics YOLO 、リアルタイムの物体検出および画像セグメンテーション向けに開発された、定評のあるYOLO You Only Look Once)シリーズYOLO 。 最新モデルであるYOLO26は、エンドツーエンドNMSと最適化されたエッジ展開を導入することで、従来のバージョンをさらに進化させています。YOLO 、検出、セグメンテーション、姿勢推定、追跡、分類など、さまざまなビジョンAIタスク YOLO 。その効率的なアーキテクチャにより、優れた速度と精度が確保されており、エッジデバイスやクラウドAPIを含む多様なアプリケーションに適しています。

YOLO と設定は、どのように始めればよいですか?

YOLO 導入YOLO 素早くYOLO 。pipを使って Ultralytics インストールすれば、数分で環境を構築して動作させることができます。基本的なインストールコマンドは以下の通りです:

pip を使用したインストール

pip install -U ultralytics

詳しい手順については、クイックスタートページをご覧ください。このページでは、インストール手順、初期設定、および最初のモデルの実行方法について解説しています。

自分のデータセットを使って、カスタムYOLO どのように学習させればよいですか?

独自のYOLO データセットで学習させるには、いくつかの詳細な手順が必要です:

  1. 注釈付きデータセットを準備してください。
  2. YAMLファイルでトレーニングパラメータを設定します。
  3. 以下を使用します yolo TASK train トレーニングを開始するコマンド。(各 TASK (これには独自の引数がある)

以下は、物体検出タスクのサンプルコードです:

物体検出タスクのトレーニング例

from ultralytics import YOLO

# Load a pretrained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo26n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo detect train data=path/to/dataset.yaml epochs=100 imgsz=640

詳しい手順については、トレーニングプロセスの最適化に関する例やヒントを掲載した「モデルのトレーニング」ガイドをご覧ください。

Ultralytics YOLOにはどのようなライセンスオプションがありますか?

Ultralytics 、YYOLO向けに2つのライセンスオプションUltralytics :

  • AGPL-3.0 :このオープンソースライセンスは、教育目的や非営利目的での利用に最適であり、オープンな協働を促進します。
  • エンタープライズライセンス:これは商用アプリケーション向けに設計されており、AGPL-3.0 の制限を受けることなく、Ultralytics を商用製品にシームレスに統合することができます。

詳細については、ライセンスページをご覧ください。

Ultralytics YOLO リアルタイムの物体追跡にどのように活用できますか?

Ultralytics YOLO 、効率的でカスタマイズ可能なマルチオブジェクト追跡YOLO 。追跡機能を利用するには、以下の方法があります。 yolo track コマンドは、以下の通りです:

動画における物体追跡の例

from ultralytics import YOLO

# Load a pretrained YOLO model
model = YOLO("yolo26n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4

オブジェクトトラッキングの設定と実行に関する詳細なガイドについては、リアルタイム環境での設定方法や実用的な活用例を解説した「Track Mode」のドキュメントをご覧ください。



📅 2年前に作成 ✏️ 8日前に更新
glenn-jocherRizwanMunawarpderrengerjk4eUltralyticsAssistantAyushExeldependabotultralyticsLaughing-qY-T-GpicsalexLexBarouRizwanMunawar

コメント