中文 · 한국어 · 日本語 · Русский · Deutsch · Français · Español · Português · Türkçe · Tiếng Việt · العربية
ホーム
リアルタイム物体検出および画像セグメンテーションモデルとして高く評価されている最新バージョン、Ultralytics YOLO26をご紹介します。YOLO26はディープラーニングとコンピュータビジョンの進歩に基づいて構築されており、エンドツーエンドのNMSフリー推論と最適化されたエッジデプロイメントを特徴としています。その合理化された設計により、様々なアプリケーションに適しており、エッジデバイスからクラウドAPIまで、異なるハードウェアプラットフォームへ容易に適応可能です。安定した本番ワークロードには、YOLO26とYOLO11の両方が推奨されます。
Ultralytics Docsを探索してください。これは、その機能と能力を理解し活用するために設計された包括的なリソースです。機械学習の実務経験が豊富な方も、この分野の初心者の方も、このハブを通じてプロジェクトにおけるYOLOの可能性を最大化することを目指しています。
商用利用のためのEnterprise Licenseについては、Ultralytics Licensingからリクエストしてください。
はじめに
YOLO: 簡単な歴史
YOLO (You Only Look Once) は、人気のある物体検出および画像セグメンテーションモデルであり、ワシントン大学のJoseph RedmonとAli Farhadiによって開発されました。2015年に発表されたYOLOは、その高速性と高精度で人気を博しました。
- 2016年にリリースされたYOLOv2は、バッチ正規化、アンカーボックス、次元クラスタリングを組み込むことで元のモデルを改良しました。
- 2018年に発表されたYOLOv3は、より効率的なバックボーンネットワーク、複数のアンカー、空間ピラミッドプーリングを使用して、モデルのパフォーマンスをさらに向上させました。
- YOLOv4は2020年にリリースされ、Mosaicデータ拡張、新しいアンカーフリー検出ヘッド、新しい損失関数といった革新をもたらしました。
- YOLOv5はモデルのパフォーマンスをさらに向上させ、ハイパーパラメータ最適化、実験トラッキングの統合、一般的なエクスポート形式への自動エクスポートなどの新機能を追加しました。
- YOLOv6は2022年にMeituanによってオープンソース化され、同社の多くの自律配送ロボットで使用されています。
- YOLOv7は、COCOキーポイントデータセットでの姿勢推定などの追加タスクに対応しました。
- 2023年にUltralyticsがリリースしたYOLOv8は、パフォーマンス、柔軟性、効率性を高めるための新機能と改善を導入し、あらゆるビジョンAIタスクをサポートしています。
- YOLOv9は、プログラマブル勾配情報 (PGI) やGeneralized Efficient Layer Aggregation Network (GELAN) といった革新的な手法を導入しています。
- YOLOv10 created by researchers from Tsinghua University using the Ultralytics Python package, provides real-time object detection advancements by introducing an End-to-End head that eliminates Non-Maximum Suppression (NMS) requirements.
- YOLO11: 2024年9月にリリースされたYOLO11は、物体検出、セグメンテーション、姿勢推定、追跡、分類を含む複数のタスクで優れたパフォーマンスを発揮し、多様なAIアプリケーションやドメインへのデプロイを可能にします。
- YOLO26 🚀: エッジデプロイメント向けに最適化され、エンドツーエンドのNMSフリー推論を備えたUltralyticsの次世代YOLOモデルです。
YOLOライセンス: Ultralytics YOLOはどのようにライセンスされていますか?
Ultralyticsは、多様なユースケースに対応するために2つのライセンスオプションを提供しています:
- AGPL-3.0ライセンス: このOSI承認済みオープンソースライセンスは、学生や愛好家に最適であり、オープンなコラボレーションと知識共有を促進します。詳細はLICENSEファイルを参照してください。
- Enterpriseライセンス: 商用利用向けに設計されたこのライセンスは、UltralyticsのソフトウェアおよびAIモデルを商用製品やサービスにシームレスに統合することを許可し、AGPL-3.0のオープンソース要件を回避します。当社のソリューションを商用製品に組み込む場合は、Ultralytics Licensingを通じてお問い合わせください。
当社のライセンス戦略は、オープンソースプロジェクトに対する改善が確実にコミュニティに還元されるように設計されています。私たちはオープンソースを信じており、私たちの貢献が誰にとっても有益な形で使用・拡大されることを使命としています。
物体検出の進化
物体検出は、従来のコンピュータビジョン技術から高度なディープラーニングモデルへと、長年にわたって大きく進化してきました。YOLOモデルファミリーはこの進化の最前線にあり、リアルタイム物体検出において可能なことの限界を一貫して押し広げてきました。
YOLOのユニークなアプローチは、物体検出を単一の回帰問題として扱い、画像全体からバウンディングボックスとクラス確率を1回の評価で直接予測します。この革命的な手法により、YOLOモデルは高精度を維持しながら、以前の2ステージ検出器よりも大幅に高速化されました。
新しいバージョンごとに、YOLOはアーキテクチャの改善と革新的な技術を導入し、様々な指標でパフォーマンスを向上させてきました。YOLO26はこの伝統を受け継ぎ、コンピュータビジョン研究の最新の進歩を取り入れ、実世界アプリケーション向けにエンドツーエンドのNMSフリー推論と最適化されたエッジデプロイメントを実現しています。
FAQ
Ultralytics YOLOとは何か、またどのように物体検出を改善するのか?
Ultralytics YOLOは、リアルタイム物体検出と画像セグメンテーションのための高い評価を得ているYOLOシリーズです。最新のYOLO26モデルは、エンドツーエンドのNMSフリー推論と最適化されたエッジデプロイメントを導入することで、以前のバージョンを基盤としています。YOLOは、検出、セグメンテーション、姿勢推定、追跡、分類といった様々なビジョンAIタスクをサポートしています。その効率的なアーキテクチャは優れた速度と精度を保証し、エッジデバイスやクラウドAPIを含む多様なアプリケーションに適しています。
YOLOのインストールとセットアップを始めるには?
YOLOの使用開始は迅速かつ簡単です。pipを使用してUltralyticsパッケージをインストールし、数分で開始できます。基本的なインストールコマンドは以下の通りです:
pip install -U ultralytics詳細なステップバイステップガイドについては、クイックスタートページをご覧ください。このリソースは、インストール手順、初期設定、最初のモデル実行を支援します。
独自のデータセットでカスタムYOLOモデルをトレーニングするには?
データセットでカスタムYOLOモデルをトレーニングするには、いくつかの詳細なステップが必要です:
- アノテーション済みのデータセットを準備します。
- YAMLファイルでトレーニングパラメータを設定します。
yolo TASK trainコマンドを使用してトレーニングを開始します。(各TASKには専用の引数があります)
物体検出タスクのコード例は以下の通りです:
from ultralytics import YOLO
# Load a pretrained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo26n.pt")
# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)詳細な手順については、モデルのトレーニングガイドをご覧ください。トレーニングプロセスを最適化するための例やヒントが含まれています。
Ultralytics YOLOで利用可能なライセンスオプションは何ですか?
UltralyticsはYOLO向けに2つのライセンスオプションを提供しています:
- AGPL-3.0ライセンス: このオープンソースライセンスは、教育目的や非商用利用に最適であり、オープンなコラボレーションを促進します。
- Enterpriseライセンス: これは商用アプリケーション向けに設計されており、AGPL-3.0ライセンスの制限なしに、Ultralyticsのソフトウェアを商用製品へシームレスに統合できます。
詳細はライセンスページをご覧ください。
Ultralytics YOLOをリアルタイム物体追跡に使用するには?
Ultralytics YOLOは、効率的でカスタマイズ可能な多物体追跡をサポートしています。追跡機能を利用するには、以下のようにyolo trackコマンドを使用できます:
from ultralytics import YOLO
# Load a pretrained YOLO model
model = YOLO("yolo26n.pt")
# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")物体追跡の設定と実行に関する詳細なガイドについては、設定やリアルタイムシナリオでの実用的なアプリケーションを解説しているTrackモードドキュメントをご覧ください。







