Zum Inhalt springen

Unterstützte Modelle Ultralytics

Willkommen bei Ultralytics' Modelldokumentation! Wir bieten Unterstützung für eine breite Palette von Modellen, die jeweils auf bestimmte Aufgaben wie Objekterkennung, Instanzsegmentierung, Bildklassifizierung, Posenschätzung und Verfolgung mehrerer Objekte zugeschnitten sind. Wenn du daran interessiert bist, deine Modellarchitektur zu Ultralytics beizusteuern, sieh dir unseren Contributing Guide an.

Hier sind einige der wichtigsten unterstützten Modelle:

  1. YOLOv3: Die dritte Iteration der YOLO Modellfamilie, die ursprünglich von Joseph Redmon stammt und für ihre effiziente Echtzeit-Objekterkennung bekannt ist.
  2. YOLOv4: Ein Darknet-natives Update von YOLOv3, das von Alexey Bochkovskiy im Jahr 2020 veröffentlicht wird.
  3. YOLOv5: Eine verbesserte Version der YOLO Architektur von Ultralytics, die im Vergleich zu früheren Versionen einen besseren Kompromiss zwischen Leistung und Geschwindigkeit bietet.
  4. YOLOv6: Der YOLOv6 wurde 2022 von Meituan auf den Markt gebracht und wird in vielen der autonomen Lieferroboter des Unternehmens eingesetzt.
  5. YOLOv7: Aktualisierte YOLO Modelle, die im Jahr 2022 von den Autoren von YOLOv4 veröffentlicht werden.
  6. YOLOv8 NEU 🚀: Die neueste Version der YOLO Familie mit verbesserten Funktionen wie Instanzensegmentierung, Pose/Keypoint-Schätzung und Klassifizierung.
  7. YOLOv9: Ein experimentelles Modell, das mit der Ultralytics YOLOv5 Codebase trainiert, die Programmable Gradient Information (PGI) implementiert.
  8. YOLOv10: Von der Tsinghua Universität, mit NMS-freiem Training und einer effizienz- und genauigkeitsorientierten Architektur, die modernste Leistung und Latenzzeiten bietet.
  9. Segment Anything Model (SAM): Meta's Segment Anything Model (SAM).
  10. Mobile Segment Anything Model (MobileSAM): MobileSAM für mobile Anwendungen, von der Kyung Hee University.
  11. Fast Segment Anything Model (FastSAM): FastSAM von der Image & Video Analysis Group, Institute of Automation, Chinese Academy of Sciences.
  12. YOLO-NAS: YOLO Neural Architecture Search (NAS) Modelle.
  13. Echtzeit-Detektions-Transformatoren (RT-DETR): Die Modelle von Baidu PaddlePaddle Realtime Detection Transformer (RT-DETR).
  14. YOLO-Welt: Echtzeitmodelle zur Erkennung von Objekten mit offenem Vokabular vom Tencent AI Lab.



Pass auf: Führe Ultralytics YOLO Modelle in nur wenigen Zeilen Code aus.

Erste Schritte: Beispiele für die Verwendung

Dieses Beispiel zeigt einfache YOLO Trainings- und Schlussfolgerungsbeispiele. Die vollständige Dokumentation zu diesen und anderen Modi findest du auf den Seiten Predict, Train, Val und Export docs.

Beachte, dass das folgende Beispiel für YOLOv8 Detect-Modelle zur Objekterkennung ist. Weitere unterstützte Aufgaben findest du in den Dokumentationen zu Segmentieren, Klassifizieren und Posieren.

Beispiel

PyTorch vorgebildet *.pt Modelle als auch die Konfiguration *.yaml Dateien können an den YOLO(), SAM(), NAS() und RTDETR() Klassen, um eine Modellinstanz in Python zu erstellen:

from ultralytics import YOLO

# Load a COCO-pretrained YOLOv8n model
model = YOLO("yolov8n.pt")

# Display model information (optional)
model.info()

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference with the YOLOv8n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")

CLI Befehle sind verfügbar, um die Modelle direkt auszuführen:

# Load a COCO-pretrained YOLOv8n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640

# Load a COCO-pretrained YOLOv8n model and run inference on the 'bus.jpg' image
yolo predict model=yolov8n.pt source=path/to/bus.jpg

Neue Modelle einbringen

Hast du Interesse, dein Modell auf Ultralytics zu veröffentlichen? Prima! Wir sind immer offen dafür, unser Modellportfolio zu erweitern.

  1. Forke das Repository: Beginne damit, das Ultralytics GitHub-Repository zu forken.

  2. Klone deinen Fork: Klone deinen Fork auf deinen lokalen Rechner und erstelle einen neuen Zweig, an dem du arbeiten kannst.

  3. Implementiere dein Modell: Füge dein Modell hinzu, indem du dich an die Kodierungsstandards und -richtlinien hältst, die du in unserem Leitfaden für Beiträge findest.

  4. Teste gründlich: Stelle sicher, dass du dein Modell gründlich testest, sowohl isoliert als auch als Teil der Pipeline.

  5. Erstelle einen Pull Request: Wenn du mit deinem Modell zufrieden bist, erstellst du einen Pull Request an das Haupt-Repository zur Überprüfung.

  6. Überprüfung und Zusammenführung des Codes: Wenn dein Modell nach der Prüfung unsere Kriterien erfüllt, wird es in das Haupt-Repository aufgenommen.

Detaillierte Schritte findest du in unserem Contributing Guide.

FAQ

Was sind die wichtigsten Vorteile der Verwendung von Ultralytics YOLOv8 zur Objekterkennung?

Ultralytics YOLOv8 bietet erweiterte Funktionen wie Objekterkennung in Echtzeit, Instanzsegmentierung, Posenschätzung und Klassifizierung. Die optimierte Architektur sorgt für eine hohe Geschwindigkeit, ohne dass die Genauigkeit darunter leidet, und ist damit ideal für eine Vielzahl von Anwendungen. YOLOv8 bietet außerdem integrierte Kompatibilität mit gängigen Datensätzen und Modellen, wie auf der DokumentationsseiteYOLOv8 beschrieben.

Wie kann ich ein YOLOv8 Modell auf eigene Daten trainieren?

Das Training eines YOLOv8 Modells auf benutzerdefinierten Daten kann mit Ultralytics' Bibliotheken leicht durchgeführt werden. Hier ist ein kurzes Beispiel:

Beispiel

from ultralytics import YOLO

# Load a YOLOv8n model
model = YOLO("yolov8n.pt")

# Train the model on custom dataset
results = model.train(data="custom_data.yaml", epochs=100, imgsz=640)
yolo train model=yolov8n.pt data='custom_data.yaml' epochs=100 imgsz=640

Ausführlichere Anweisungen findest du auf der Dokumentationsseite zum Zug.

Welche YOLO Versionen werden von Ultralytics unterstützt?

Ultralytics unterstützt eine umfassende Palette von YOLO (You Only Look Once) Versionen von YOLOv3 bis YOLOv10, zusammen mit Modellen wie NAS, SAM und RT-DETR. Jede Version ist für verschiedene Aufgaben wie die Erkennung, Segmentierung und Klassifizierung optimiert. Ausführliche Informationen zu den einzelnen Modellen findest du in der Dokumentation der von Ultralytics unterstützten Modelle.

Warum sollte ich Ultralytics HUB für Projekte zum maschinellen Lernen nutzen?

Ultralytics HUB bietet eine End-to-End-Plattform ohne Code für die Schulung, den Einsatz und die Verwaltung von YOLO Modellen. Sie vereinfacht komplexe Arbeitsabläufe und ermöglicht es den Nutzern, sich auf die Leistung und Anwendung der Modelle zu konzentrieren. Das HUB bietet außerdem Cloud-Trainingsmöglichkeiten, eine umfassende Datensatzverwaltung und benutzerfreundliche Schnittstellen. Mehr darüber erfährst du auf der Dokumentationsseite Ultralytics HUB.

Welche Arten von Aufgaben kann YOLOv8 erledigen und wie schneidet es im Vergleich zu anderen YOLO Versionen ab?

YOLOv8 ist ein vielseitiges Modell, das Aufgaben wie Objekterkennung, Instanzsegmentierung, Klassifizierung und Posenschätzung übernehmen kann. Im Vergleich zu früheren Versionen wie YOLOv3 und YOLOv4 bietet YOLOv8 aufgrund seiner optimierten Architektur erhebliche Verbesserungen in Bezug auf Geschwindigkeit und Genauigkeit. Einen genaueren Vergleich findest du in der Dokumentation vonYOLOv8 und auf den Aufgabenseiten, wo du weitere Details zu den einzelnen Aufgaben findest.



Erstellt am 2023-11-12, Aktualisiert am 2024-07-04
Autoren: glenn-jocher (13), Laughing-q (1)

Kommentare