Zum Inhalt springen

Unterstützte Modelle Ultralytics

Willkommen bei Ultralytics' Modelldokumentation! Wir bieten Unterstützung für eine breite Palette von Modellen, die jeweils auf bestimmte Aufgaben wie Objekterkennung, Instanzsegmentierung, Bildklassifizierung, Posenschätzung und Verfolgung mehrerer Objekte zugeschnitten sind. Wenn Sie daran interessiert sind, Ihre Modellarchitektur zu Ultralytics beizutragen, sehen Sie sich unseren Contributing Guide an.

Ultralytics YOLO11 Vergleichsplots

Hier sind einige der wichtigsten unterstützten Modelle:

  1. YOLOv3: Die dritte Iteration der YOLO Modellfamilie, die ursprünglich von Joseph Redmon entwickelt wurde und für ihre effiziente Echtzeit-Objekterkennung bekannt ist.
  2. YOLOv4: Ein Darknet-natives Update von YOLOv3, veröffentlicht von Alexey Bochkovskiy im Jahr 2020.
  3. YOLOv5: Eine verbesserte Version der YOLO -Architektur von Ultralytics, die im Vergleich zu früheren Versionen einen besseren Kompromiss zwischen Leistung und Geschwindigkeit bietet.
  4. YOLOv6: Von Meituan im Jahr 2022 eingeführt und in vielen autonomen Lieferrobotern des Unternehmens eingesetzt.
  5. YOLOv7: Aktualisierte YOLO Modelle, die im Jahr 2022 von den Autoren von YOLOv4 veröffentlicht werden.
  6. YOLOv8: Die neueste Version der YOLO -Familie mit verbesserten Funktionen wie Instanzsegmentierung, Pose/Keypoint-Schätzung und Klassifizierung.
  7. YOLOv9: Ein experimentelles Modell, trainiert mit der Ultralytics YOLOv5 Codebasis trainiert, die programmierbare Gradienteninformation (PGI) implementiert.
  8. YOLOv10: Von der Tsinghua-Universität, mit NMS-freiem Training und einer auf Effizienz und Genauigkeit ausgerichteten Architektur, die modernste Leistung und Latenzzeiten bietet.
  9. YOLO11 🚀 NEU: Ultralytics' die neuesten YOLO Modelle, die modernste (SOTA) Leistung für verschiedene Aufgaben bieten.
  10. Segment Anything Model (SAM): Metas ursprüngliches Segment-Anything-Modell (SAM).
  11. Segment Anything Model 2 (SAM2): Die nächste Generation des Segment Anything Model von Meta (SAM) für Videos und Bilder.
  12. Mobile Segment Anything Model (MobileSAM): MobileSAM für mobile Anwendungen, von der Kyung Hee University.
  13. Fast Segment Anything Model (FastSAM)FastSAM von der Image & Video Analysis Group, Institute of Automation, Chinese Academy of Sciences.
  14. YOLO-NAS: YOLO Neuronale Architektur-Suchmodelle (NAS).
  15. Echtzeit-Detektionstransformatoren (RT-DETR): Baidu's PaddlePaddle Realtime Detection Transformer (RT-DETR) Modelle.
  16. YOLO-Welt: Modelle zur Erkennung von Objekten mit offenem Vokabular in Echtzeit vom Tencent AI Lab.



Beobachten: Führen Sie Ultralytics YOLO Modelle in nur wenigen Zeilen Code aus.

Erste Schritte: Beispiele für die Verwendung

Dieses Beispiel enthält einfache YOLO Trainings- und Inferenzbeispiele. Eine vollständige Dokumentation zu diesen und anderen Modi finden Sie auf den Seiten Predict, Train, Val und Export docs.

Beachten Sie, dass das folgende Beispiel für YOLOv8 Detect-Modelle für die Objekterkennung ist. Weitere unterstützte Aufgaben finden Sie in den Dokumentationen Segment, Classify und Pose.

Beispiel

PyTorch vorgebildet *.pt Modelle sowie die Konfiguration *.yaml Dateien können an den YOLO(), SAM(), NAS() und RTDETR() Klassen, um eine Modellinstanz in Python zu erstellen:

from ultralytics import YOLO

# Load a COCO-pretrained YOLOv8n model
model = YOLO("yolov8n.pt")

# Display model information (optional)
model.info()

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference with the YOLOv8n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")

CLI Befehle zur Verfügung, um die Modelle direkt auszuführen:

# Load a COCO-pretrained YOLOv8n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640

# Load a COCO-pretrained YOLOv8n model and run inference on the 'bus.jpg' image
yolo predict model=yolov8n.pt source=path/to/bus.jpg

Neue Modelle beisteuern

Haben Sie Interesse, Ihr Modell auf Ultralytics zu veröffentlichen? Prima! Wir sind immer offen dafür, unser Modellportfolio zu erweitern.

  1. Forken Sie das Repository: Beginnen Sie mit dem Forken des Ultralytics GitHub-Repository.

  2. Clone Your Fork: Klonen Sie Ihren Fork auf Ihren lokalen Rechner und erstellen Sie einen neuen Zweig, an dem Sie arbeiten können.

  3. Implementieren Sie Ihr Modell: Fügen Sie Ihr Modell unter Beachtung der Codierungsstandards und -richtlinien hinzu, die Sie in unserem Leitfaden für Beiträge finden.

  4. Gründlich testen: Stellen Sie sicher, dass Sie Ihr Modell gründlich testen, sowohl einzeln als auch als Teil der Pipeline.

  5. Erstellen Sie einen Pull Request: Wenn Sie mit Ihrem Modell zufrieden sind, erstellen Sie einen Pull Request an das Haupt-Repository zur Überprüfung.

  6. Code-Überprüfung und Zusammenführung: Wenn Ihr Modell nach der Überprüfung unsere Kriterien erfüllt, wird es in das Haupt-Repository aufgenommen.

Detaillierte Informationen finden Sie in unserem Leitfaden für Beitragszahler.

FAQ

Was sind die wichtigsten Vorteile der Verwendung von Ultralytics YOLOv8 zur Objekterkennung?

Ultralytics YOLOv8 bietet erweiterte Funktionen wie Objekterkennung in Echtzeit, Instanzsegmentierung, Posenschätzung und Klassifizierung. Die optimierte Architektur sorgt für eine hohe Geschwindigkeit ohne Einbußen bei der Genauigkeit und ist damit ideal für eine Vielzahl von Anwendungen geeignet. YOLOv8 bietet außerdem integrierte Kompatibilität mit gängigen Datensätzen und Modellen, wie auf der DokumentationsseiteYOLOv8 beschrieben.

Wie kann ich ein YOLOv8 Modell auf benutzerdefinierten Daten trainieren?

Das Training eines YOLOv8 Modells auf benutzerdefinierten Daten kann leicht mit Ultralytics' Bibliotheken durchgeführt werden. Hier ist ein kurzes Beispiel:

Beispiel

from ultralytics import YOLO

# Load a YOLOv8n model
model = YOLO("yolov8n.pt")

# Train the model on custom dataset
results = model.train(data="custom_data.yaml", epochs=100, imgsz=640)
yolo train model=yolov8n.pt data='custom_data.yaml' epochs=100 imgsz=640

Ausführlichere Anweisungen finden Sie auf der Seite zur Zugdokumentation.

Welche YOLO Versionen werden von Ultralytics unterstützt?

Ultralytics unterstützt eine umfassende Palette von YOLO (You Only Look Once) Versionen von YOLOv3 bis YOLOv10, zusammen mit Modellen wie NAS, SAM und RT-DETR. Jede Version ist für verschiedene Aufgaben wie Erkennung, Segmentierung und Klassifizierung optimiert. Ausführliche Informationen zu den einzelnen Modellen finden Sie in der Dokumentation der von Ultralytics unterstützten Modelle.

Warum sollte ich Ultralytics HUB für Projekte zum maschinellen Lernen nutzen?

Ultralytics HUB bietet eine End-to-End-Plattform ohne Code für die Schulung, Bereitstellung und Verwaltung von YOLO Modellen. Sie vereinfacht komplexe Arbeitsabläufe und ermöglicht es den Benutzern, sich auf die Modellleistung und -anwendung zu konzentrieren. Der HUB bietet außerdem Cloud-Trainingsfunktionen, umfassende Datensatzverwaltung und benutzerfreundliche Schnittstellen. Erfahren Sie mehr darüber auf der Ultralytics HUB-Dokumentationsseite.

Welche Arten von Aufgaben kann YOLOv8 ausführen, und wie schneidet es im Vergleich zu anderen Versionen von YOLO ab?

YOLOv8 ist ein vielseitiges Modell, das Aufgaben wie Objekterkennung, Instanzsegmentierung, Klassifizierung und Posenschätzung übernehmen kann. Im Vergleich zu früheren Versionen wie YOLOv3 und YOLOv4 bietet YOLOv8 aufgrund seiner optimierten Architektur erhebliche Verbesserungen bei Geschwindigkeit und Genauigkeit. Einen genaueren Vergleich finden Sie in der DokumentationYOLOv8 und auf den Aufgabenseiten für weitere Details zu bestimmten Aufgaben.

📅 Erstellt vor 1 Jahr ✏️ Aktualisiert vor 1 Monat

Kommentare