Zum Inhalt springen

Unterst├╝tzte Modelle Ultralytics

Willkommen bei Ultralytics' Modelldokumentation! Wir bieten Unterst├╝tzung f├╝r eine breite Palette von Modellen, die jeweils auf bestimmte Aufgaben wie Objekterkennung, Instanzsegmentierung, Bildklassifizierung, Posensch├Ątzung und Verfolgung mehrerer Objekte zugeschnitten sind. Wenn du daran interessiert bist, deine Modellarchitektur zu Ultralytics beizusteuern, sieh dir unseren Contributing Guide an.

Hier sind einige der wichtigsten unterst├╝tzten Modelle:

  1. YOLOv3: Die dritte Iteration der YOLO Modellfamilie, die urspr├╝nglich von Joseph Redmon stammt und f├╝r ihre effiziente Echtzeit-Objekterkennung bekannt ist.
  2. YOLOv4: Ein Darknet-natives Update von YOLOv3, das von Alexey Bochkovskiy im Jahr 2020 ver├Âffentlicht wird.
  3. YOLOv5: Eine verbesserte Version der YOLO Architektur von Ultralytics, die im Vergleich zu fr├╝heren Versionen einen besseren Kompromiss zwischen Leistung und Geschwindigkeit bietet.
  4. YOLOv6: Der YOLOv6 wurde 2022 von Meituan auf den Markt gebracht und wird in vielen der autonomen Lieferroboter des Unternehmens eingesetzt.
  5. YOLOv7: Aktualisierte YOLO Modelle, die im Jahr 2022 von den Autoren von YOLOv4 ver├Âffentlicht werden.
  6. YOLOv8 NEU ­čÜÇ: Die neueste Version der YOLO Familie mit verbesserten Funktionen wie Instanzensegmentierung, Pose/Keypoint-Sch├Ątzung und Klassifizierung.
  7. YOLOv9: Ein experimentelles Modell, das mit der Ultralytics YOLOv5 Codebase trainiert, die Programmable Gradient Information (PGI) implementiert.
  8. YOLOv10: Von der Tsinghua Universit├Ąt, mit NMS-freiem Training und einer effizienz- und genauigkeitsorientierten Architektur, die modernste Leistung und Latenzzeiten bietet.
  9. Segment Anything Model (SAM): Meta's Segment Anything Model (SAM).
  10. Mobile Segment Anything Model (MobileSAM): MobileSAM f├╝r mobile Anwendungen, von der Kyung Hee University.
  11. Fast Segment Anything Model (FastSAM): FastSAM von der Image & Video Analysis Group, Institute of Automation, Chinese Academy of Sciences.
  12. YOLO-NAS: YOLO Neural Architecture Search (NAS) Modelle.
  13. Echtzeit-Detektions-Transformatoren (RT-DETR): Die Modelle von Baidu PaddlePaddle Realtime Detection Transformer (RT-DETR).
  14. YOLO-Welt: Echtzeitmodelle zur Erkennung von Objekten mit offenem Vokabular vom Tencent AI Lab.



Pass auf: F├╝hre Ultralytics YOLO Modelle in nur wenigen Zeilen Code aus.

Erste Schritte: Beispiele f├╝r die Verwendung

Dieses Beispiel zeigt einfache YOLO Trainings- und Schlussfolgerungsbeispiele. Die vollst├Ąndige Dokumentation zu diesen und anderen Modi findest du auf den Seiten Predict, Train, Val und Export docs.

Beachte, dass das folgende Beispiel f├╝r YOLOv8 Detect-Modelle zur Objekterkennung ist. Weitere unterst├╝tzte Aufgaben findest du in den Dokumentationen zu Segmentieren, Klassifizieren und Posieren.

Beispiel

PyTorch vorgebildet *.pt Modelle als auch die Konfiguration *.yaml Dateien k├Ânnen an den YOLO(), SAM(), NAS() und RTDETR() Klassen, um eine Modellinstanz in Python zu erstellen:

from ultralytics import YOLO

# Load a COCO-pretrained YOLOv8n model
model = YOLO("yolov8n.pt")

# Display model information (optional)
model.info()

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference with the YOLOv8n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")

CLI Befehle sind verf├╝gbar, um die Modelle direkt auszuf├╝hren:

# Load a COCO-pretrained YOLOv8n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640

# Load a COCO-pretrained YOLOv8n model and run inference on the 'bus.jpg' image
yolo predict model=yolov8n.pt source=path/to/bus.jpg

Neue Modelle einbringen

Hast du Interesse, dein Modell auf Ultralytics zu ver├Âffentlichen? Prima! Wir sind immer offen daf├╝r, unser Modellportfolio zu erweitern.

  1. Forke das Repository: Beginne damit, das Ultralytics GitHub-Repository zu forken.

  2. Klone deinen Fork: Klone deinen Fork auf deinen lokalen Rechner und erstelle einen neuen Zweig, an dem du arbeiten kannst.

  3. Implementiere dein Modell: F├╝ge dein Modell hinzu, indem du dich an die Kodierungsstandards und -richtlinien h├Ąltst, die du in unserem Leitfaden f├╝r Beitr├Ąge findest.

  4. Teste gr├╝ndlich: Stelle sicher, dass du dein Modell gr├╝ndlich testest, sowohl isoliert als auch als Teil der Pipeline.

  5. Erstelle einen Pull Request: Wenn du mit deinem Modell zufrieden bist, erstellst du einen Pull Request an das Haupt-Repository zur ├ťberpr├╝fung.

  6. ├ťberpr├╝fung und Zusammenf├╝hrung des Codes: Wenn dein Modell nach der Pr├╝fung unsere Kriterien erf├╝llt, wird es in das Haupt-Repository aufgenommen.

Detaillierte Schritte findest du in unserem Contributing Guide.



Created 2023-11-12, Updated 2024-06-10
Authors: glenn-jocher (11), Laughing-q (1)

Kommentare