Zum Inhalt springen

Unterstützte Modelle Ultralytics

Willkommen bei Ultralytics' Modelldokumentation! Wir bieten Unterstützung für eine breite Palette von Modellen, die jeweils auf bestimmte Aufgaben wie Objekterkennung, Instanzsegmentierung, Bildklassifizierung, Posenschätzung und Verfolgung mehrerer Objekte zugeschnitten sind. Wenn du daran interessiert bist, deine Modellarchitektur zu Ultralytics beizusteuern, sieh dir unseren Contributing Guide an.

Hier sind einige der wichtigsten unterstützten Modelle:

  1. YOLOv3: Die dritte Iteration der YOLO Modellfamilie, die ursprünglich von Joseph Redmon stammt und für ihre effiziente Echtzeit-Objekterkennung bekannt ist.
  2. YOLOv4: Ein Darknet-natives Update von YOLOv3, das von Alexey Bochkovskiy im Jahr 2020 veröffentlicht wird.
  3. YOLOv5: Eine verbesserte Version der YOLO Architektur von Ultralytics, die im Vergleich zu früheren Versionen einen besseren Kompromiss zwischen Leistung und Geschwindigkeit bietet.
  4. YOLOv6: Der YOLOv6 wurde 2022 von Meituan auf den Markt gebracht und wird in vielen der autonomen Lieferroboter des Unternehmens eingesetzt.
  5. YOLOv7: Aktualisierte YOLO Modelle, die im Jahr 2022 von den Autoren von YOLOv4 veröffentlicht werden.
  6. YOLOv8 NEU 🚀: Die neueste Version der YOLO Familie mit verbesserten Funktionen wie Instanzensegmentierung, Pose/Keypoint-Schätzung und Klassifizierung.
  7. YOLOv9: Ein experimentelles Modell, das mit der Ultralytics YOLOv5 Codebase trainiert, die Programmable Gradient Information (PGI) implementiert.
  8. Segment Anything Model (SAM): Meta's Segment Anything Model (SAM).
  9. Mobile Segment Anything Model (MobileSAM): MobileSAM für mobile Anwendungen, von der Kyung Hee University.
  10. Fast Segment Anything Model (FastSAM): FastSAM von der Image & Video Analysis Group, Institute of Automation, Chinese Academy of Sciences.
  11. YOLO-NAS: YOLO Neural Architecture Search (NAS) Modelle.
  12. Echtzeit-Detektions-Transformatoren (RT-DETR): Die Modelle von Baidu PaddlePaddle Realtime Detection Transformer (RT-DETR).
  13. YOLO-Welt: Echtzeitmodelle zur Erkennung von Objekten mit offenem Vokabular vom Tencent AI Lab.



Pass auf: Führe Ultralytics YOLO Modelle in nur wenigen Zeilen Code aus.

Erste Schritte: Beispiele für die Verwendung

Dieses Beispiel zeigt einfache YOLO Trainings- und Schlussfolgerungsbeispiele. Die vollständige Dokumentation zu diesen und anderen Modi findest du auf den Seiten Predict, Train, Val und Export docs.

Beachte, dass das folgende Beispiel für YOLOv8 Detect-Modelle zur Objekterkennung ist. Weitere unterstützte Aufgaben findest du in den Dokumentationen zu Segmentieren, Klassifizieren und Posieren.

Beispiel

PyTorch vorgebildet *.pt Modelle als auch die Konfiguration *.yaml Dateien können an den YOLO(), SAM(), NAS() und RTDETR() Klassen, um eine Modellinstanz in Python zu erstellen:

from ultralytics import YOLO

# Load a COCO-pretrained YOLOv8n model
model = YOLO('yolov8n.pt')

# Display model information (optional)
model.info()

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data='coco8.yaml', epochs=100, imgsz=640)

# Run inference with the YOLOv8n model on the 'bus.jpg' image
results = model('path/to/bus.jpg')

CLI Befehle sind verfügbar, um die Modelle direkt auszuführen:

# Load a COCO-pretrained YOLOv8n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640

# Load a COCO-pretrained YOLOv8n model and run inference on the 'bus.jpg' image
yolo predict model=yolov8n.pt source=path/to/bus.jpg

Neue Modelle einbringen

Hast du Interesse, dein Modell auf Ultralytics zu veröffentlichen? Prima! Wir sind immer offen dafür, unser Modellportfolio zu erweitern.

  1. Forke das Repository: Beginne damit, das Ultralytics GitHub-Repository zu forken.

  2. Klone deinen Fork: Klone deinen Fork auf deinen lokalen Rechner und erstelle einen neuen Zweig, an dem du arbeiten kannst.

  3. Implementiere dein Modell: Füge dein Modell hinzu, indem du dich an die Kodierungsstandards und -richtlinien hältst, die du in unserem Leitfaden für Beiträge findest.

  4. Teste gründlich: Stelle sicher, dass du dein Modell gründlich testest, sowohl isoliert als auch als Teil der Pipeline.

  5. Erstelle einen Pull Request: Wenn du mit deinem Modell zufrieden bist, erstellst du einen Pull Request an das Haupt-Repository zur Überprüfung.

  6. Überprüfung und Zusammenführung des Codes: Wenn dein Modell nach der Prüfung unsere Kriterien erfüllt, wird es in das Haupt-Repository aufgenommen.

Detaillierte Schritte findest du in unserem Contributing Guide.



Erstellt am 2023-11-12, Aktualisiert am 2024-02-26
Autoren: glenn-jocher (7), Laughing-q (1)

Kommentare