Zum Inhalt springen

Startseite

Wir stellen Ultralytics YOLO11 vor, die neueste Version des gefeierten Echtzeit-Objekterkennungs- und Bildsegmentierungsmodells. YOLO11 basiert auf modernsten Fortschritten in den Bereichen Deep Learning und Computer Vision und bietet eine beispiellose Leistung in Bezug auf Geschwindigkeit und Genauigkeit. Sein optimiertes Design macht es für verschiedene Anwendungen geeignet und leicht an unterschiedliche Hardwareplattformen anpassbar, von Edge-Geräten bis hin zu Cloud-APIs.

Entdecken Sie die Ultralytics-Dokumentation, eine umfassende Ressource, die Ihnen helfen soll, die Funktionen und Möglichkeiten zu verstehen und zu nutzen. Egal, ob Sie ein erfahrener Experte für maschinelles Lernen sind oder neu auf diesem Gebiet, dieses Zentrum zielt darauf ab, das Potenzial von YOLO in Ihren Projekten zu maximieren.


Ultralytics GitHub space Ultralytics LinkedIn space Ultralytics Twitter space Ultralytics YouTube space Ultralytics TikTok space Ultralytics BiliBili space Ultralytics Discord

Wo man anfängt

  •   Loslegen


    Installieren ultralytics mit pip und in wenigen Minuten startklar sein, um ein YOLO-Modell zu trainieren


    Schnellstart

  •   Vorhersagen


    Vorhersagen auf neuen Bildern, Videos und Streams mit YOLO
     


    Mehr erfahren

  •   Modell trainieren


    Trainieren Sie ein neues YOLO-Modell auf Ihrem eigenen, benutzerdefinierten Datensatz von Grund auf oder laden und trainieren Sie es auf einem vortrainierten Modell.


    Mehr erfahren

  •   Computer Vision Aufgaben entdecken


    Entdecken Sie YOLO-Aufgaben wie Erkennung, Segmentierung, Klassifizierung, Pose, OBB und Verfolgung
     


    Aufgaben erkunden

  • 🚀   YOLO11 erkunden NEU


    Entdecken Sie die neuesten hochmodernen YOLO11-Modelle von Ultralytics und ihre Fähigkeiten
     


    YOLO11 Modelle 🚀 NEU

  •   Open Source, AGPL-3.0


    Ultralytics bietet zwei YOLO-Lizenzen an: AGPL-3.0 und Enterprise. Entdecken Sie YOLO auf GitHub.


    YOLO-Lizenz



Ansehen: Wie man ein YOLO11-Modell auf Ihrem benutzerdefinierten Datensatz trainiert in Google Colab.

YOLO: Eine kurze Geschichte

YOLO (You Only Look Once), ein beliebtes Modell für Objekterkennung und Bildsegmentierung, wurde von Joseph Redmon und Ali Farhadi an der University of Washington entwickelt. YOLO wurde 2015 auf den Markt gebracht und erfreute sich aufgrund seiner hohen Geschwindigkeit und Genauigkeit großer Beliebtheit.

  • YOLOv2, das 2016 veröffentlicht wurde, verbesserte das ursprüngliche Modell durch die Integration von Batch-Normalisierung, Anchor Boxes und Dimensionsclustern.
  • YOLOv3, das 2018 auf den Markt kam, verbesserte die Leistung des Modells durch ein effizienteres Backbone-Netzwerk, mehrere Anker und Spatial Pyramid Pooling.
  • YOLOv4 wurde im Jahr 2020 veröffentlicht und führte Innovationen wie Mosaic Datenerweiterung, einen neuen ankerfreien Erkennungskopf und eine neue Loss-Funktion ein.
  • YOLOv5 verbesserte die Leistung des Modells weiter und fügte neue Funktionen hinzu, wie z. B. Hyperparameter-Optimierung, integrierte Experimentverfolgung und automatischen Export in gängige Exportformate.
  • YOLOv6 wurde 2022 von Meituan als Open-Source veröffentlicht und wird in vielen autonomen Lieferrobotern des Unternehmens eingesetzt.
  • YOLOv7 fügte zusätzliche Aufgaben wie die Pose-Schätzung auf dem COCO-Keypoints-Datensatz hinzu.
  • YOLOv8, veröffentlicht im Jahr 2023 von Ultralytics, führte neue Funktionen und Verbesserungen für eine höhere Leistung, Flexibilität und Effizienz ein und unterstützt eine vollständige Palette von Vision-KI-Aufgaben.
  • YOLOv9 führt innovative Methoden wie Programmable Gradient Information (PGI) und das Generalized Efficient Layer Aggregation Network (GELAN) ein.
  • YOLOv10, das von Forschern der Tsinghua University unter Verwendung des Ultralytics Python-Pakets entwickelt wurde, bietet Echtzeit-Fortschritte in der Objekterkennung durch die Einführung eines End-to-End-Head, der die Anforderungen an Non-Maximum Suppression (NMS) eliminiert.
  • YOLO11 🚀 NEU: Die neuesten YOLO-Modelle von Ultralytics bieten State-of-the-Art (SOTA) Leistung bei verschiedenen Aufgaben, einschliesslich Objekterkennung, Segmentierung, Pose-Schätzung, Tracking und Klassifizierung, und nutzen Fähigkeiten in verschiedenen KI-Anwendungen und -Bereichen.

YOLO-Lizenzen: Wie ist Ultralytics YOLO lizenziert?

Ultralytics bietet zwei Lizenzoptionen an, um unterschiedlichen Anwendungsfällen gerecht zu werden:

  • AGPL-3.0-Lizenz: Diese OSI-geprüfte Open-Source-Lizenz ist ideal für Studenten und Enthusiasten und fördert die offene Zusammenarbeit und den Wissensaustausch. Weitere Informationen finden Sie in der LICENSE-Datei.
  • Enterprise-Lizenz: Diese Lizenz wurde für die kommerzielle Nutzung entwickelt und ermöglicht die nahtlose Integration von Ultralytics-Software und KI-Modellen in kommerzielle Güter und Dienstleistungen, wobei die Open-Source-Anforderungen von AGPL-3.0 umgangen werden. Wenn Sie unsere Lösungen in ein kommerzielles Angebot einbetten möchten, wenden Sie sich bitte an Ultralytics Licensing.

Unsere Lizenzstrategie soll sicherstellen, dass alle Verbesserungen an unseren Open-Source-Projekten an die Community zurückgegeben werden. Wir nehmen die Prinzipien von Open Source sehr ernst ❤️ und es ist unsere Mission, sicherzustellen, dass unsere Beiträge auf eine Weise genutzt und erweitert werden können, die für alle von Vorteil ist.

Die Evolution der Objekterkennung

Die Objekterkennung hat sich im Laufe der Jahre erheblich weiterentwickelt, von traditionellen Computer-Vision-Techniken bis hin zu fortschrittlichen Deep-Learning-Modellen. Die YOLO-Modellfamilie steht an der Spitze dieser Entwicklung und verschiebt kontinuierlich die Grenzen dessen, was in der Echtzeit-Objekterkennung möglich ist.

Der einzigartige Ansatz von YOLO behandelt Objekterkennung als ein einzelnes Regressionsproblem und sagt Begrenzungsrahmen und Klassenwahrscheinlichkeiten direkt aus vollständigen Bildern in einer einzigen Auswertung voraus. Diese revolutionäre Methode hat YOLO-Modelle deutlich schneller gemacht als frühere zweistufige Detektoren, während gleichzeitig eine hohe Genauigkeit erhalten bleibt.

Mit jeder neuen Version hat YOLO architektonische Verbesserungen und innovative Techniken eingeführt, die die Leistung über verschiedene Metriken hinweg verbessert haben. YOLO11 setzt diese Tradition fort, indem es die neuesten Fortschritte in der Forschung im Bereich Computer Vision einbezieht und noch bessere Kompromisse zwischen Geschwindigkeit und Genauigkeit für reale Anwendungen bietet.

FAQ

Was ist Ultralytics YOLO und wie verbessert es die Objekterkennung?

Ultralytics YOLO ist die neueste Weiterentwicklung der gefeierten YOLO-Serie (You Only Look Once) für die Echtzeit-Objekterkennung und Bildsegmentierung. Es baut auf früheren Versionen auf und führt neue Funktionen und Verbesserungen für eine höhere Leistung, Flexibilität und Effizienz ein. YOLO unterstützt verschiedene Vision-KI-Aufgaben wie Erkennung, Segmentierung, Pose-Schätzung, Tracking und Klassifizierung. Seine hochmoderne Architektur gewährleistet eine überlegene Geschwindigkeit und Genauigkeit, wodurch es für verschiedene Anwendungen geeignet ist, einschließlich Edge-Geräte und Cloud-APIs.

Wie kann ich mit der YOLO-Installation und -Einrichtung beginnen?

Der Einstieg in YOLO ist schnell und unkompliziert. Sie können das Ultralytics-Paket mit pip installieren und innerhalb von Minuten loslegen. Hier ist ein grundlegender Installationsbefehl:

Installation mit pip

pip install ultralytics

Eine umfassende Schritt-für-Schritt-Anleitung finden Sie auf unserer Schnellstart-Seite. Diese Ressource hilft Ihnen bei den Installationsanweisungen, der Ersteinrichtung und der Ausführung Ihres ersten Modells.

Wie kann ich ein benutzerdefiniertes YOLO-Modell auf meinem Datensatz trainieren?

Das Trainieren eines benutzerdefinierten YOLO-Modells auf Ihrem Datensatz umfasst einige detaillierte Schritte:

  1. Bereiten Sie Ihren annotierten Datensatz vor.
  2. Konfigurieren Sie die Trainingsparameter in einer YAML-Datei.
  3. Verwenden Sie den yolo TASK train Befehl, um das Training zu starten. (Jeder TASK hat sein eigenes Argument)

Hier ist ein Beispielcode für die Objekterkennungsaufgabe:

Trainingsbeispiel für die Objekterkennungsaufgabe

from ultralytics import YOLO

# Load a pre-trained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo11n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo detect train data=path/to/dataset.yaml epochs=100 imgsz=640

Für eine detaillierte Anleitung sehen Sie sich unseren Train a Model Leitfaden an, der Beispiele und Tipps zur Optimierung Ihres Trainingsprozesses enthält.

Welche Lizenzoptionen sind für Ultralytics YOLO verfügbar?

Ultralytics bietet zwei Lizenzierungsoptionen für YOLO an:

  • AGPL-3.0 Lizenz: Diese Open-Source-Lizenz ist ideal für Bildungs- und nichtkommerzielle Zwecke und fördert die offene Zusammenarbeit.
  • Enterprise Lizenz: Diese ist für kommerzielle Anwendungen konzipiert und ermöglicht die nahtlose Integration von Ultralytics Software in kommerzielle Produkte ohne die Einschränkungen der AGPL-3.0 Lizenz.

Für weitere Details besuchen Sie unsere Lizenzierungs Seite.

Wie kann Ultralytics YOLO für die Echtzeit-Objektverfolgung verwendet werden?

Ultralytics YOLO unterstützt effizientes und anpassbares Multi-Objekt-Tracking. Um die Tracking-Funktionen zu nutzen, können Sie den yolo track Befehl, wie unten gezeigt:

Beispiel für Objektverfolgung in einem Video

from ultralytics import YOLO

# Load a pre-trained YOLO model
model = YOLO("yolo11n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4

Eine detaillierte Anleitung zur Einrichtung und Ausführung der Objektverfolgung finden Sie in unserer Track Mode-Dokumentation, in der die Konfiguration und die praktischen Anwendungen in Echtzeitszenarien erläutert werden.



📅 Erstellt vor 1 Jahr ✏️ Aktualisiert vor 5 Tagen

Kommentare