コンテンツへスキップ

ホーム

紹介 UltralyticsYOLO11YOLO11 、ディープラーニングと コンピュータビジョンにおける最先端の進歩に基づいて構築されており、速度と精度の面で比類のないパフォーマンスを提供します。その合理的な設計により、さまざまなアプリケーションに適しており、エッジデバイスからクラウドAPIまで、さまざまなハードウェアプラットフォームに容易に適応できます。

Ultralytics Docs は、その機能と性能を理解し、活用するために設計された包括的なリソースです。このハブは、機械学習の熟練者であろうと初心者であろうと、あなたのプロジェクトでYOLO の可能性を最大限に引き出すことを目的としています。


Ultralytics ギットハブ スペース Ultralytics LinkedIn スペース Ultralytics ツイッター スペース Ultralytics ユーチューブ スペース Ultralytics ティックトック スペース Ultralytics ビリビリ スペース Ultralytics ディスコード

何から始めるべきか

  •   はじめに


    インストール ultralytics pipを使用して、YOLO モデルのトレーニングを数分で実行できます。


    クイックスタート

  •   予測する


    新しい画像、ビデオ、ストリームを予測するYOLO
     


    さらに詳しく

  •   モデルを訓練する


    ゼロから独自のカスタムデータセットで新しいYOLO モデルをトレーニングするか、事前にトレーニングされたモデルをロードしてトレーニングする。


    さらに詳しく

  •   タスクの探索


    検出、セグメント化、分類、ポーズ、OBB、追跡などのYOLO タスクを発見する。
     


    タスクの探索

  • 🚀   エクスペリエンスYOLO11 NEW


    Ultralytics' 最新鋭のYOLO11 モデルとその能力をご覧ください。
     


    YOLO11 モデル 🚀 NEW

  •   オープンソース、AGPL-3.0


    Ultralytics YOLOには2つのライセンスオプションがある:AGPL-3.0 Ultralytics はGitHubで利用可能です。


    ライセンス



見るんだ: のカスタムデータセットでYOLO モデルを学習する方法。 Google コラボ.

YOLO:略史

YOLO(You Only Look Once)は、ワシントン大学のジョセフ・レッドモン(Joseph Redmon)とアリ・ファルハディ(Ali Farhadi)によって開発された、一般的な物体検出と 画像分割モデルである。2015年に発表されたYOLO は、その高速性と精度の高さで瞬く間に人気を博した。

  • 2016年にリリースされたYOLOv2は、バッチ正規化、アンカーボックス、次元クラスタを取り入れることで、オリジナルのモデルを改良した。
  • 2018年に発売されたYOLOv3は、より効率的なバックボーンネットワーク、複数のアンカー、空間ピラミッドプーリングを使用して、モデルのパフォーマンスをさらに向上させた。
  • YOLOv4は2020年にリリースされ、モザイクデータ補強、新しいアンカーなし検出ヘッド、新しい損失関数などのイノベーションを導入した。
  • YOLOv5モデルの性能がさらに向上し、ハイパーパラメータの最適化、統合された実験追跡、一般的なエクスポート形式への自動エクスポートなどの新機能が追加された。
  • YOLOv6は2022年にMeituanによってオープンソース化され、同社の自律型配送ロボットの多くで使用されている。
  • YOLOv7では、COCOキーポイントデータセットに対するポーズ推定などのタスクが追加された。
  • YOLOv8Ultralytics 、2023年にリリースされた。YOLOv8 、パフォーマンス、柔軟性、効率性を強化する新機能と改良が導入され、ビジョンAIのあらゆるタスクをサポートする、
  • YOLOv9は、プログラマブル勾配情報(PGI)や一般化された効率的なレイヤ集約ネットワーク(GELAN)のような革新的な手法を導入している。
  • YOLOv10は 清華大学の研究者たちによって作成された UltralyticsPython パッケージを使用して作成されました。このバージョンは、NMS(Non-Maximum Suppression)要件を排除するEnd-to-Endヘッドを導入することにより、リアルタイムの物体検出の進歩を提供します。
  • YOLO11 🚀NEW: ' 最新の モデルは、Ultralytics YOLO 検出セグメンテーションポーズ推定追跡分類を含む複数のタスクにわたって最先端の(SOTA)パフォーマンスを提供し、多様なAIアプリケーションとドメインにわたって機能を活用します。

YOLO ライセンスUltralytics YOLO ライセンスはどのように取得するのですか?

Ultralytics は、多様なユースケースに対応するため、2つのライセンスオプションを提供している:

  • AGPL-3.0 ライセンスこのOSI承認のオープンソースライセンスは、学生や愛好家に理想的で、オープンなコラボレーションと知識の共有を促進します。詳細はLICENSEファイルをご覧ください。
  • エンタープライズ・ライセンス:AGPL-3.0 のオープンソース要件をバイパスして、Ultralytics のソフトウェアと AI モデルを商用の商品やサービスにシームレスに統合することを許可するライセンスです。当社のソリューションを商用の製品に組み込むシナリオがある場合は、Ultralytics Licensing までお問い合わせください。

私たちのライセンス戦略は、私たちのオープンソースプロジェクトに対する改良がコミュニティに還元されることを保証するように設計されています。私たちは、オープンソースの原則を、❤️、私たちのミッションは、私たちの貢献が、すべての人にとって有益な方法で利用され、拡張されることを保証することです。

よくあるご質問

Ultralytics YOLO 、物体検出をどのように向上させるのか?

Ultralytics YOLO は、リアルタイムの物体検出と画像セグメンテーションのための、高い評価を得ているYOLO (You Only Look Once)シリーズの最新バージョンです。YOLO 、検出、セグメンテーション、姿勢推定、追跡、分類など、さまざまなビジョンAIタスクをサポートします。その最先端のアーキテクチャは、優れた速度と精度を保証し、エッジデバイスやクラウドAPIを含む多様なアプリケーションに適しています。

YOLO のインストールとセットアップはどのように始められますか?

YOLO を使い始めるのは早くて簡単だ。pipを使って Ultralytics パッケージをインストールすれば、数分で使い始めることができる。以下は基本的なインストールコマンドです:

pipによるインストール

pip install ultralytics

包括的なステップバイステップガイドについては、クイックスタートガイドをご覧ください。このリソースは、インストール手順、初期設定、最初のモデルの実行に役立ちます。

自分のデータセットでカスタムモデル(YOLO )をトレーニングするには?

あなたのデータセットでカスタムYOLO モデルをトレーニングするには、いくつかの詳細なステップが必要です:

  1. 注釈付きデータセットを準備する。
  2. YAMLファイルでトレーニングパラメータを設定する。
  3. を使用する。 yolo TASK train コマンドでトレーニングを開始する。(各 TASK は独自の引数を持つ)

以下は、オブジェクト検出タスクのコード例である:

物体検出タスクの訓練例

from ultralytics import YOLO

# Load a pre-trained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo11n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo detect train data=path/to/dataset.yaml epochs=100 imgsz=640

トレーニングプロセスを最適化するための例やヒントが記載されています。

Ultralytics YOLO で利用可能なライセンスオプションは何ですか?

Ultralytics は、YOLO に2つのライセンス・オプションを提供している:

  • AGPL-3.0 ライセンスこのオープンソースライセンスは、オープンなコラボレーションを促進し、教育的かつ非商業的な使用に最適です。
  • エンタープライズライセンス:これは商用アプリケーション用に設計されており、AGPL-3.0 ライセンスの制限を受けることなく、Ultralytics ソフトウェアを商用製品にシームレスに統合することができます。

詳しくはライセンスのページをご覧ください。

Ultralytics YOLO 、リアルタイムの物体追跡にどのように利用できるのか?

Ultralytics YOLO は、効率的でカスタマイズ可能なマルチオブジェクト・トラッキングをサポートしています。トラッキング機能を利用するには yolo track コマンドを使う:

ビデオ上のオブジェクト追跡の例

from ultralytics import YOLO

# Load a pre-trained YOLO model
model = YOLO("yolo11n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4

オブジェクトトラッキングの設定と実行に関する詳細なガイドについては、トラッキングモードのドキュメントをご覧ください。

📅作成:1年前 ✏️更新 20日前

コメント