コンテンツにスキップ

ホーム

リアルタイム物体検出および画像セグメンテーションモデルの最新バージョンであるUltralytics YOLO11をご紹介します。YOLO11は、深層学習コンピュータビジョンにおける最先端の進歩に基づいて構築されており、速度と精度の点で比類のないパフォーマンスを提供します。その合理化された設計により、エッジデバイスからクラウドAPIまで、さまざまなアプリケーションに適しており、さまざまなハードウェアプラットフォームに簡単に適応できます。

Ultralytics Docsをご覧ください。これは、その機能と能力を理解し活用するために設計された包括的なリソースです。あなたが経験豊富な機械学習の実践者であろうと、この分野の初心者であろうと、このハブはあなたのプロジェクトにおけるYOLOの可能性を最大限に引き出すことを目指しています。


Ultralytics GitHub スペース Ultralytics LinkedIn スペース Ultralytics Twitter スペース Ultralytics YouTube スペース Ultralytics TikTok スペース Ultralytics BiliBili スペース Ultralytics Discord

はじめに

  •   はじめに


    インストール ultralytics pipを使用して数分でYOLOモデルをトレーニングできるようになります。


    クイックスタート

  •   予測


    YOLOで新しい画像、ビデオ、ストリームを予測する
     


    詳細はこちら

  •   モデルの学習


    独自のカスタムデータセットで新しいYOLOモデルをスクラッチから学習するか、事前学習済みのモデルをロードして学習します。


    詳細はこちら

  •   コンピュータビジョンタスクをご覧ください


    検出、セグメント化、分類、ポーズ推定、OBB、追跡など、YOLOのタスクをご覧ください。
     


    タスクについて

  • 🚀   YOLO11 NEWをご覧ください


    Ultralyticsの最新鋭YOLO11モデルとその性能をご覧ください。
     


    YOLO11モデル 🚀 NEW

  •   オープンソース、AGPL-3.0


    Ultralyticsは、AGPL-3.0とEnterpriseの2つのYOLOライセンスを提供しています。GitHubでYOLOをご覧ください。


    YOLO ライセンス



見る: カスタムデータセットでYOLO11モデルをトレーニングする方法 Google Colab.

YOLO:簡単な歴史

YOLO(You Only Look Once)は、ワシントン大学のJoseph RedmonとAli Farhadiによって開発された、広く普及している物体検出および画像セグメンテーションモデルです。2015年に発表されたYOLOは、その高速性と精度で人気を博しました。

  • 2016年にリリースされたYOLOv2は、バッチ正規化、アンカーボックス、および次元クラスタを組み込むことで、元のモデルを改善しました。
  • YOLOv3は、2018年に発表され、より効率的なバックボーンネットワーク、複数のアンカー、および空間ピラミッドプーリングを使用して、モデルのパフォーマンスをさらに向上させました。
  • YOLOv4は2020年にリリースされ、Mosaic データ拡張、新しいアンカーフリー検出ヘッド、および新しい損失関数などの革新的な機能が導入されました。
  • YOLOv5は、モデルの性能をさらに向上させ、ハイパーパラメータ最適化、統合された実験追跡、一般的なエクスポート形式への自動エクスポートなどの新機能を追加しました。
  • YOLOv6は、2022年にMeituanによってオープンソース化され、同社の多くの自律配送ロボットで使用されています。
  • YOLOv7は、COCOキーポイントデータセットでのポーズ推定などの追加タスクを追加しました。
  • YOLOv8は、Ultralyticsによって2023年にリリースされ、パフォーマンス、柔軟性、効率を向上させるための新機能と改善が導入され、幅広いビジョンAIタスクをサポートしています。
  • YOLOv9は、Programmable Gradient Information(PGI)やGeneralized Efficient Layer Aggregation Network(GELAN)などの革新的な手法を導入しています。
  • 清華大学の研究者によってUltralyticsPythonパッケージを用いて開発されたYOLOv10は、Non-Maximum Suppression (NMS) の必要性を排除するEnd-to-End headを導入することで、リアルタイム物体検出の進歩をもたらします。
  • YOLO11 🚀 NEW: Ultralyticsの最新YOLOモデルは、物体検出セグメンテーションポーズ推定トラッキング分類など、複数のタスクにわたって最先端(SOTA)のパフォーマンスを提供し、多様なAIアプリケーションとドメイン全体の機能を利用します。

YOLO ライセンス:Ultralytics YOLO はどのようにライセンスされていますか?

Ultralyticsは、多様なユースケースに対応するために、2つのライセンスオプションを提供しています。

  • AGPL-3.0 License: このOSI承認済みのオープンソースライセンスは、学生や愛好家にとって理想的であり、オープンなコラボレーションと知識の共有を促進します。詳細については、LICENSEファイルを参照してください。
  • エンタープライズライセンス: 商用利用向けに設計されたこのライセンスは、UltralyticsソフトウェアとAIモデルを商用製品およびサービスにシームレスに統合することを許可し、AGPL-3.0のオープンソース要件を回避します。当社のソリューションを商用製品に組み込む場合は、Ultralyticsライセンスを通じてご連絡ください。

当社のライセンス戦略は、オープンソースプロジェクトへの改善がコミュニティに還元されるように設計されています。私たちはオープンソースの原則を大切にし❤️、私たちの貢献がすべての人に有益な方法で利用され、拡張されることを保証することを使命としています。

物体検出の進化

オブジェクト検出は、従来のコンピュータビジョンの技術から高度な深層学習モデルへと、長年にわたり大きく進化してきました。YOLOモデルファミリーは、この進化の最前線に立ち、リアルタイムオブジェクト検出で可能なことの限界を常に押し広げています。

YOLO独自のオブジェクト検出アプローチは、オブジェクト検出を単一の回帰問題として扱い、1回の評価で画像全体から直接バウンディングボックスとクラス確率を予測します。この革新的な手法により、YOLOモデルは高い精度を維持しながら、従来の2段階検出器よりも大幅に高速化されました。

YOLOは、新しいバージョンごとに、アーキテクチャの改善と革新的な技術を導入し、さまざまな指標にわたってパフォーマンスを向上させてきました。YOLO11は、コンピュータビジョン研究における最新の進歩を取り入れることで、この伝統を継続し、実際のアプリケーションに対してさらに優れた速度と精度のトレードオフを提供します。

よくある質問

Ultralytics YOLOとは何ですか?また、どのように物体検出を改善しますか?

Ultralytics YOLOは、リアルタイムの物体検出と画像セグメンテーションのための、高く評価されているYOLO(You Only Look Once)シリーズの最新の進歩です。パフォーマンス、柔軟性、効率を向上させるための新機能と改善を導入することにより、以前のバージョンを基に構築されています。YOLOは、検出、セグメンテーション、ポーズ推定、追跡、分類など、さまざまなvision AIタスクをサポートしています。その最先端アーキテクチャは、優れた速度と精度を保証し、エッジデバイスやクラウドAPIを含む多様なアプリケーションに適しています。

YOLOのインストールとセットアップを開始するにはどうすればよいですか?

YOLOの利用開始は迅速かつ簡単です。pipを使用してUltralyticsパッケージをインストールすると、数分で起動して実行できます。基本的なインストールコマンドを次に示します。

pip を使用したインストール

pip install ultralytics

包括的なステップごとのガイドについては、クイックスタートページをご覧ください。このリソースは、インストール手順、初期設定、および最初のモデルの実行に役立ちます。

カスタムYOLOモデルを自分のデータセットでトレーニングするにはどうすればよいですか?

データセットでカスタムYOLOモデルを学習するには、いくつかの詳細な手順が必要です。

  1. アノテーション付きデータセットを準備します。
  2. YAMLファイルでトレーニングパラメータを設定します。
  3. 以下を使用します yolo TASK train コマンドを使用してトレーニングを開始します。(各 TASK 独自の引数を持つ)

オブジェクト検出タスクのサンプルコードを以下に示します。

物体検出タスクの学習例

from ultralytics import YOLO

# Load a pre-trained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo11n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo detect train data=path/to/dataset.yaml epochs=100 imgsz=640

詳細なチュートリアルについては、モデルのトレーニングガイドをご覧ください。このガイドには、トレーニングプロセスを最適化するための例とヒントが含まれています。

Ultralytics YOLOで利用できるライセンスオプションは何ですか?

Ultralyticsは、YOLOに対して2つのライセンスオプションを提供しています。

  • AGPL-3.0 License: このオープンソースライセンスは、教育および非商用での使用に最適であり、オープンなコラボレーションを促進します。
  • エンタープライズライセンス: これは商用アプリケーション向けに設計されており、AGPL-3.0ライセンスの制限なしに、Ultralyticsソフトウェアを商用製品にシームレスに統合できます。

詳細については、ライセンスページをご覧ください。

Ultralytics YOLOは、リアルタイムの物体追跡にどのように利用できますか?

Ultralytics YOLOは、効率的でカスタマイズ可能なマルチオブジェクトトラッキングをサポートしています。トラッキング機能を利用するには、以下を使用します。 yolo track コマンドを以下に示します:

動画上の物体追跡の例

from ultralytics import YOLO

# Load a pre-trained YOLO model
model = YOLO("yolo11n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4

オブジェクト追跡の設定と実行に関する詳細なガイドについては、Track Modeのドキュメントをご覧ください。ここでは、リアルタイムシナリオでの構成と実用的なアプリケーションについて説明しています。



📅 1年前に作成 ✏️ 5日前に更新

コメント