Zum Inhalt springen

Unterstützte Modelle Ultralytics

Willkommen bei Ultralytics' Modelldokumentation! Wir bieten Unterstützung für eine breite Palette von Modellen, die jeweils auf bestimmte Aufgaben wie Objekterkennung, Instanzsegmentierung, Bildklassifizierung, Posenschätzung und Verfolgung mehrerer Objekte zugeschnitten sind. Wenn Sie daran interessiert sind, Ihre Modellarchitektur zu Ultralytics beizutragen, sehen Sie sich unseren Contributing Guide an.

Ultralytics YOLO11 Vergleichsplots

Hier sind einige der wichtigsten unterstützten Modelle:

  1. YOLOv3: Die dritte Iteration der YOLO Modellfamilie, die ursprünglich von Joseph Redmon entwickelt wurde und für ihre effiziente Echtzeit-Objekterkennung bekannt ist.
  2. YOLOv4: Ein Darknet-natives Update von YOLOv3, veröffentlicht von Alexey Bochkovskiy im Jahr 2020.
  3. YOLOv5: Eine verbesserte Version der YOLO -Architektur von Ultralytics, die im Vergleich zu früheren Versionen einen besseren Kompromiss zwischen Leistung und Geschwindigkeit bietet.
  4. YOLOv6: Von Meituan im Jahr 2022 eingeführt und in vielen autonomen Lieferrobotern des Unternehmens eingesetzt.
  5. YOLOv7: Aktualisierte YOLO Modelle, die im Jahr 2022 von den Autoren von YOLOv4 veröffentlicht werden.
  6. YOLOv8: Ein vielseitiges Modell mit erweiterten Funktionen wie Instanzsegmentierung, Schätzung von Pose und Schlüsselpunkten sowie Klassifizierung.
  7. YOLOv9: Ein experimentelles Modell, trainiert mit der Ultralytics YOLOv5 Codebasis trainiert, die programmierbare Gradienteninformation (PGI) implementiert.
  8. YOLOv10: Von der Tsinghua-Universität, mit NMS-freiem Training und einer auf Effizienz und Genauigkeit ausgerichteten Architektur, die modernste Leistung und Latenzzeiten bietet.
  9. YOLO11 🚀 NEU: Die neuesten YOLO von Ultralytics bieten modernste (SOTA) Leistung für verschiedene Aufgaben wie Erkennung, Segmentierung, Posenschätzung, Verfolgung und Klassifizierung.
  10. Segment Anything Model (SAM): Metas ursprüngliches Segment-Anything-Modell (SAM).
  11. Segment Anything Model 2 (SAM2): Die nächste Generation des Segment Anything Model von Meta (SAM) für Videos und Bilder.
  12. Mobile Segment Anything Model (MobileSAM): MobileSAM für mobile Anwendungen, von der Kyung Hee University.
  13. Fast Segment Anything Model (FastSAM)FastSAM von der Image & Video Analysis Group, Institute of Automation, Chinese Academy of Sciences.
  14. YOLO: YOLO Neural Architecture Search (NAS) Modelle.
  15. Echtzeit-Detektionstransformatoren (RT-DETR): Baidu's PaddlePaddle Realtime Detection Transformer (RT-DETR) Modelle.
  16. YOLO-Welt: Modelle zur Erkennung von Objekten mit offenem Vokabular in Echtzeit vom Tencent AI Lab.
  17. YOLOE: Ein verbesserter Objektdetektor mit offenem Vokabular, der die Echtzeitleistung von YOLO beibehält und gleichzeitig beliebige Klassen außerhalb der Trainingsdaten erkennt.



Beobachten: Führen Sie Ultralytics YOLO Modelle in nur wenigen Zeilen Code aus.

Erste Schritte: Beispiele für die Verwendung

Dieses Beispiel enthält einfache YOLO Trainings- und Inferenzbeispiele. Eine vollständige Dokumentation zu diesen und anderen Modi finden Sie auf den Seiten Predict, Train, Val und Export docs.

Beachten Sie, dass das folgende Beispiel für YOLOv8 Detect-Modelle für die Objekterkennung ist. Weitere unterstützte Aufgaben finden Sie in den Dokumentationen Segment, Classify und Pose.

Beispiel

PyTorch vorgebildet *.pt Modelle sowie die Konfiguration *.yaml Dateien können an den YOLO(), SAM(), NAS() und RTDETR() Klassen, um eine Modellinstanz in Python zu erstellen:

from ultralytics import YOLO

# Load a COCO-pretrained YOLOv8n model
model = YOLO("yolov8n.pt")

# Display model information (optional)
model.info()

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference with the YOLOv8n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")

CLI Befehle zur Verfügung, um die Modelle direkt auszuführen:

# Load a COCO-pretrained YOLOv8n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640

# Load a COCO-pretrained YOLOv8n model and run inference on the 'bus.jpg' image
yolo predict model=yolov8n.pt source=path/to/bus.jpg

Neue Modelle beisteuern

Haben Sie Interesse, Ihr Modell auf Ultralytics zu veröffentlichen? Prima! Wir sind immer offen dafür, unser Modellportfolio zu erweitern.

  1. Forken Sie das Repository: Beginnen Sie mit dem Forken des Ultralytics GitHub-Repository.

  2. Clone Your Fork: Klonen Sie Ihren Fork auf Ihren lokalen Rechner und erstellen Sie einen neuen Zweig, an dem Sie arbeiten können.

  3. Implementieren Sie Ihr Modell: Fügen Sie Ihr Modell unter Beachtung der Codierungsstandards und -richtlinien hinzu, die Sie in unserem Leitfaden für Beiträge finden.

  4. Gründlich testen: Stellen Sie sicher, dass Sie Ihr Modell gründlich testen, sowohl einzeln als auch als Teil der Pipeline.

  5. Erstellen Sie einen Pull Request: Wenn Sie mit Ihrem Modell zufrieden sind, erstellen Sie einen Pull Request an das Haupt-Repository zur Überprüfung.

  6. Code-Überprüfung und Zusammenführung: Wenn Ihr Modell nach der Überprüfung unsere Kriterien erfüllt, wird es in das Haupt-Repository aufgenommen.

Detaillierte Informationen finden Sie in unserem Leitfaden für Beitragszahler.

FAQ

Was sind die Hauptvorteile der Verwendung von Ultralytics YOLO11 für die Objekterkennung?

Ultralytics YOLO11 bietet erweiterte Funktionen wie Objekterkennung in Echtzeit, Instanzsegmentierung, Posenschätzung und Klassifizierung. Seine optimierte Architektur sorgt für Hochgeschwindigkeitsleistung ohne Einbußen bei der Genauigkeit, wodurch es sich ideal für eine Vielzahl von Anwendungen in verschiedenen KI-Bereichen eignet. YOLO11 baut auf früheren Versionen mit verbesserter Leistung und zusätzlichen Funktionen auf, wie auf der YOLO11 beschrieben.

Wie kann ich ein YOLO auf benutzerdefinierten Daten trainieren?

Das Trainieren eines YOLO auf benutzerdefinierten Daten lässt sich mit den Ultralytics leicht bewerkstelligen. Hier ist ein kurzes Beispiel:

Beispiel

from ultralytics import YOLO

# Load a YOLO model
model = YOLO("yolo11n.pt")  # or any other YOLO model

# Train the model on custom dataset
results = model.train(data="custom_data.yaml", epochs=100, imgsz=640)
yolo train model=yolo11n.pt data='custom_data.yaml' epochs=100 imgsz=640

Ausführlichere Anweisungen finden Sie auf der Seite zur Zugdokumentation.

Welche YOLO Versionen werden von Ultralytics unterstützt?

Ultralytics unterstützt eine umfassende Reihe von YOLO (You Only Look Once) von YOLOv3 bis YOLO11, zusammen mit Modellen wie YOLO, SAM und RT-DETR. Jede Version ist für verschiedene Aufgaben wie Erkennung, Segmentierung und Klassifizierung optimiert. Ausführliche Informationen zu den einzelnen Modellen finden Sie in der Dokumentation der von Ultralytics unterstützten Modelle.

Warum sollte ich Ultralytics HUB für Projekte zum maschinellen Lernen nutzen?

Ultralytics HUB bietet eine End-to-End-Plattform ohne Code für die Schulung, den Einsatz und die Verwaltung von YOLO . Sie vereinfacht komplexe Arbeitsabläufe und ermöglicht es den Benutzern, sich auf die Modellleistung und die Anwendung zu konzentrieren. Der HUB bietet auch Cloud-Schulungsfunktionen, umfassende Datensatzverwaltung und benutzerfreundliche Schnittstellen für Anfänger und erfahrene Entwickler.

Welche Arten von Aufgaben kann YOLO11 erfüllen, und wie unterscheidet es sich von anderen YOLO ?

YOLO11 ist ein vielseitiges Modell, das Aufgaben wie Objekterkennung, Instanzsegmentierung, Klassifizierung und Posenschätzung übernehmen kann. Im Vergleich zu früheren Versionen bietet YOLO11 aufgrund seiner optimierten Architektur und seines verankerungsfreien Designs erhebliche Verbesserungen bei Geschwindigkeit und Genauigkeit. Für einen genaueren Vergleich lesen Sie bitte die YOLO11 und die Aufgabenseiten für weitere Details zu spezifischen Aufgaben.

📅 Erstellt vor 1 Jahr ✏️ Aktualisiert vor 3 Tagen

Kommentare