Ultralytics iOS アプリ:YOLO モデルによるリアルタイム物体検出
Ultralytics iOS Appは、リアルタイムの物体検出のために、iPhoneまたはiPadでYOLOモデルを直接実行できる強力なツールです。このアプリは、モデルの最適化と高速化のためにApple Neural EngineとCore MLを利用しており、高速かつ効率的な物体検出を可能にします。
見る: Ultralytics HUBアプリ(IOS & Android)の利用開始
量子化と高速化
iOSデバイスでリアルタイムパフォーマンスを実現するために、YOLOモデルはFP16またはINT8の精度に量子化されます。量子化とは、モデルの重みとバイアスの数値精度を低下させるプロセスであり、モデルのサイズと必要な計算量を削減します。これにより、モデルの精度に大きな影響を与えることなく、推論時間が短縮されます。
FP16量子化
FP16(または半精度)量子化は、モデルの32ビット浮動小数点数を16ビット浮動小数点数に変換します。これにより、モデルのサイズが半分になり、推論プロセスが高速化されると同時に、精度とパフォーマンスのバランスが保たれます。
INT8量子化
INT8(または8ビット整数)量子化は、32ビット浮動小数点数を8ビット整数に変換することにより、モデルのサイズと計算要件をさらに削減します。この量子化方法により、大幅な高速化が実現しますが、精度が若干低下する可能性があります。
Apple Neural Engine
Apple Neural Engine(ANE)は、AppleのAシリーズおよびMシリーズチップに統合された専用のハードウェアコンポーネントです。機械学習タスク、特にニューラルネットワークを加速するように設計されており、YOLOモデルのより高速かつ効率的な実行を可能にします。
量子化されたYOLOモデルとApple Neural Engineを組み合わせることで、Ultralytics iOS Appは、精度やパフォーマンスを損なうことなく、iOSデバイス上でリアルタイムの物体検出を実現します。
リリース年 | iPhoneの名前 | チップセット名 | ノードサイズ | ANE TOPs |
---|---|---|---|---|
2017 | iPhone X | A11 Bionic | 10 nm | 0.6 |
2018 | iPhone XS | A12 Bionic | 7 nm | 5 |
2019 | iPhone 11 | A13 Bionic | 7 nm | 6 |
2020 | iPhone 12 | A14 Bionic | 5 nm | 11 |
2021 | iPhone 13 | A15 Bionic | 5 nm | 15.8 |
2022 | iPhone 14 | A16 Bionic | 4 nm | 17.0 |
2023 | iPhone 15 | A17 Pro | 3 nm | 35.0 |
このリストには2017年以降のiPhoneモデルが含まれており、ANE TOPsの値は概算であることにご注意ください。
CoreML統合
Ultralytics iOS Appは、Appleの基盤となる機械学習フレームワークであるCoreMLを活用して、iOSデバイス向けにYOLOモデルを最適化します。CoreMLにはいくつかの利点があります。
- オンデバイス処理: すべての推論がデバイス上でローカルに実行されるため、データのプライバシーが確保され、インターネット接続が不要になります。
- ハードウェアアクセラレーション: Apple Neural Engine、CPU、および GPU を自動的に利用して、最適なパフォーマンスを実現します。
- シームレスな統合: iOSカメラおよびシステムフレームワークとネイティブに連携します。
CoreMLは、YOLOモデルをAppleデバイス向けに最適化された形式に変換し、検出精度を維持しながら効率的な実行を可能にします。
Ultralytics iOSアプリの利用開始
Ultralytics iOSアプリの使用を開始するには、以下の手順に従ってください:
-
App StoreからUltralyticsアプリをダウンロードしてください。
-
iOSデバイスでアプリを起動し、Ultralyticsアカウントでサインインしてください。まだアカウントをお持ちでない場合は、Ultralytics HUBで作成してください。
-
サインインすると、トレーニング済みのYOLOモデルのリストが表示されます。オブジェクト検出に使用するモデルを選択します。
-
デバイスのカメラにアクセスするためのアプリの許可を与えます。
-
検出したいオブジェクトにデバイスのカメラを向けてください。オブジェクトを検出すると、バウンディングボックスとクラスラベルがリアルタイムで表示されます。
-
アプリの設定を調べて、検出閾値を調整したり、特定のオブジェクトクラスを有効または無効にしたりできます。
Ultralytics iOSアプリを使用すると、Apple Neural Engineを搭載し、FP16またはINT8量子化で最適化されたiPhoneまたはiPadで、YOLOモデルの能力を活用してリアルタイムの物体検出を行うことができます。