Zum Inhalt springen

Ultralytics Android Anwendung: Objekterkennung in Echtzeit mit YOLO Modellen

Ultralytics HUB-Vorschaubild

Ultralytics GitHub Raum Ultralytics LinkedIn Raum Ultralytics Twitter Raum Ultralytics YouTube Raum Ultralytics TikTok Raum Ultralytics BiliBili Raum Ultralytics Diskord

Google Play Store 

Die Ultralytics Android App ist ein leistungsstarkes Tool, mit dem Sie YOLO Modelle direkt auf Ihrem Android Gerät ausführen können, um Objekte in Echtzeit zu erkennen. Diese App nutzt TensorFlow Lite zur Modelloptimierung und verschiedene Hardware-Delegierte zur Beschleunigung, was eine schnelle und effiziente Objekterkennung ermöglicht.



Beobachten: Erste Schritte mit der Ultralytics HUB App (IOS & Android)

Quantisierung und Beschleunigung

Um Echtzeitleistung auf Ihrem Android Gerät zu erreichen, werden YOLO Modelle entweder auf FP16 oder INT8 Genauigkeit quantisiert. Die Quantisierung ist ein Prozess, der die numerische Genauigkeit des Modells weights and biases reduziert, wodurch die Größe des Modells und der erforderliche Rechenaufwand verringert werden. Dies führt zu einer schnelleren Inferenzzeit, ohne die Genauigkeit des Modells wesentlich zu beeinträchtigen.

FP16 Quantisierung

Die FP16-Quantisierung (oder Halbpräzisionsquantisierung) wandelt die 32-Bit-Gleitkommazahlen des Modells in 16-Bit-Gleitkommazahlen um. Dadurch wird die Größe des Modells um die Hälfte reduziert und der Ableitungsprozess beschleunigt, während gleichzeitig ein gutes Gleichgewicht zwischen Genauigkeit und Leistung gewahrt bleibt.

INT8 Quantisierung

Die INT8-Quantisierung (oder 8-Bit-Integer-Quantisierung) reduziert die Größe des Modells und die Berechnungsanforderungen weiter, indem die 32-Bit-Gleitkommazahlen in 8-Bit-Ganzzahlen umgewandelt werden. Diese Quantisierungsmethode kann zu einer erheblichen Beschleunigung führen, aber aufgrund der geringeren numerischen Genauigkeit kann es zu einer leichten Verringerung der durchschnittlichen Genauigkeit (mAP) kommen.

mAP-Reduktion in INT8-Modellen

Die geringere numerische Genauigkeit in INT8-Modellen kann zu einem gewissen Informationsverlust während des Quantisierungsprozesses führen, was einen leichten Rückgang von mAP zur Folge haben kann. Dieser Kompromiss ist jedoch oft akzeptabel, wenn man den erheblichen Leistungsgewinn bedenkt, den die INT8-Quantisierung bietet.

Delegierte und Leistungsvariabilität

Auf Android sind verschiedene Delegierte verfügbar, um die Modellinferenz zu beschleunigen. Zu diesen Delegierten gehören CPU, GPUHexagon und NNAPI. Die Leistung dieser Delegaten variiert je nach Hardware-Anbieter, Produktlinie und spezifischen Chipsätzen des Geräts.

  1. CPU: Die Standardoption, die auf den meisten Geräten eine angemessene Leistung bietet.
  2. GPU: Nutzt die Website des Geräts GPU für schnellere Inferenzen. Auf Geräten mit leistungsstarken GPUs kann dies zu einem erheblichen Leistungsschub führen.
  3. Hexagon: Nutzt den Hexagon DSP von Qualcomm für eine schnellere und effizientere Verarbeitung. Diese Option ist für Geräte mit Qualcomm Snapdragon-Prozessoren verfügbar.
  4. NNAPI: Die Android Neural Networks API (NNAPI) dient als Abstraktionsschicht für die Ausführung von ML-Modellen auf Android Geräten. NNAPI kann verschiedene Hardware-Beschleuniger nutzen, wie CPU, GPU und spezielle KI-Chips (z. B. Google's Edge TPU, oder der Pixel Neural Core).

Die folgende Tabelle zeigt die wichtigsten Anbieter, ihre Produktlinien, die beliebtesten Geräte und die unterstützten Delegierten:

Anbieter Produktlinien Beliebte Geräte Unterstützte Delegierte
Qualcomm Snapdragon (z. B. Serie 800) Samsung Galaxy S21, OnePlus 9, Google Pixel 6 CPU, GPU, Hexagon, NNAPI
Samsung Exynos (z. B. Exynos 2100) Samsung Galaxy S21 (Globale Version) CPU, GPU, NNAPI
MediaTek Dimensity (z. B. Dimensity 1200) Realme GT, Xiaomi Redmi Note CPU, GPU, NNAPI
HiSilicon Kirin (z.B., Kirin 990) Huawei P40 Pro, Huawei Mate 30 Pro CPU, GPU, NNAPI
NVIDIA Tegra (z. B. Tegra X1) NVIDIA Shield TV, Nintendo Switch CPU, GPU, NNAPI

Bitte beachten Sie, dass die Liste der genannten Geräte nicht vollständig ist und je nach den spezifischen Chipsätzen und Gerätemodellen variieren kann. Testen Sie Ihre Modelle immer auf Ihren Zielgeräten, um Kompatibilität und optimale Leistung sicherzustellen.

Beachten Sie, dass die Wahl des Delegaten die Leistung und die Kompatibilität der Modelle beeinflussen kann. So funktionieren einige Modelle möglicherweise nicht mit bestimmten Delegaten oder ein Delegat ist auf einem bestimmten Gerät nicht verfügbar. Daher ist es wichtig, dass Sie Ihr Modell und den gewählten Delegaten auf Ihren Zielgeräten testen, um die besten Ergebnisse zu erzielen.

Erste Schritte mit der App Ultralytics Android

FĂĽhren Sie die folgenden Schritte aus, um mit der App Ultralytics Android zu beginnen:

  1. Laden Sie die Ultralytics App aus dem Google Play Store herunter.

  2. Starten Sie die App auf Ihrem Android Gerät und melden Sie sich mit Ihrem Ultralytics Konto an. Wenn Sie noch kein Konto haben, können Sie es hier erstellen.

  3. Sobald Sie sich angemeldet haben, sehen Sie eine Liste Ihrer trainierten YOLO Modelle. Wählen Sie ein Modell aus, das Sie für die Objekterkennung verwenden möchten.

  4. Erlauben Sie der App den Zugriff auf die Kamera Ihres Geräts.

  5. Richten Sie die Kamera Ihres Geräts auf Objekte, die Sie erkennen möchten. Die App zeigt Begrenzungsrahmen und Klassenbeschriftungen in Echtzeit an, während sie Objekte erkennt.

  6. In den Einstellungen der App können Sie die Erkennungsschwelle anpassen, bestimmte Objektklassen aktivieren oder deaktivieren und vieles mehr.

Mit der App Ultralytics Android haben Sie jetzt die Möglichkeit, Objekte in Echtzeit anhand von YOLO Modellen zu erkennen. Erkunden Sie die Funktionen der App und optimieren Sie ihre Einstellungen für Ihre spezifischen Anwendungsfälle.

📅 Erstellt vor 1 Jahr ✏️ Aktualisiert vor 2 Monaten

Kommentare