Zum Inhalt springen

Startseite

Wir stellen vor: Ultralytics YOLO26, die neueste Version des renommierten Modells für die Objekt-Erkennung und Bildsegmentierung in Echtzeit. YOLO26 basiert auf den neuesten Fortschritten im Bereich Deep Learning und Computer Vision und zeichnet sich durch eine durchgängige, NMS Inferenz sowie eine optimierte Edge-Bereitstellung aus. Dank seines schlanken Designs eignet es sich für vielfältige Anwendungen und lässt sich problemlos an verschiedene Hardwareplattformen anpassen – von Edge-Geräten bis hin zu Cloud-APIs. Für stabile Produktions-Workloads sind sowohl YOLO26 als auch YOLO11 empfohlen.

Entdecken Sie die Ultralytics , eine umfassende Informationsquelle, die Ihnen dabei helfen soll, die Funktionen und Möglichkeiten von YOLO zu verstehen und zu nutzen. Ganz gleich, ob Sie ein erfahrener Machine-Learning-Experte sind oder noch neu auf diesem Gebiet – diese Plattform soll Ihnen dabei helfen, das Potenzial YOLO in Ihren Projekten voll auszuschöpfen.

Beantragen Sie unter Ultralytics eine Unternehmenslizenz für die kommerzielle Nutzung.


Ultralytics GitHubUltralytics LinkedInUltralytics TwitterUltralytics YouTubeUltralytics TikTokUltralytics BiliBiliUltralytics Discord

Wo man anfängt

  • Loslegen


    Installieren ultralytics mit pip – in wenigen Minuten einsatzbereit, um ein YOLO zu trainieren


    Schnellstart

  • Vorhersagen


    Mit YOLO neue Bilder, Videos und Streams vorhersagen


    Mehr erfahren

  • Modell trainieren


    Trainieren Sie ein neues YOLO von Grund auf mit Ihrem eigenen Datensatz oder laden Sie ein vortrainiertes Modell und trainieren Sie damit


    Mehr erfahren

  • Entdecken Sie Aufgaben im Bereich Computer Vision


    Entdecken Sie YOLO wie detect, segment, classify, Posenbestimmung, OBB und track


    Aufgaben entdecken

  • 🚀Entdecke YOLO26 🚀 NEU


    Entdecken Sie die neuesten YOLO26-Modelle Ultralytics mit NMS Inferenz und Edge-Optimierung


    YOLO26-Modelle 🚀

  • SAM : Alles mit Konzepten segmentieren 🚀 NEU


    SAM neueste SAM von Meta mit Promptable Concept Segmentation – segment Instanzen anhand von Text- oder Bildbeispielen


    SAM -Modelle

  • Open Source, AGPL-3.0


    Ultralytics zwei YOLO Ultralytics : AGPL-3.0 Enterprise. Entdecken Sie YOLO GitHub.


    YOLO



Ansehen: So trainieren Sie ein YOLO26-Modell mit Ihrem eigenen Datensatz in Google Colab.

YOLO: Eine kurze Geschichte

YOLO (You Only Look Once), ein beliebtes Modell zur Objekterkennung und Bildsegmentierung, wurde von Joseph Redmon und Ali Farhadi an der University of Washington entwickelt. YOLO wurde 2015 eingeführt und YOLO aufgrund seiner hohen Geschwindigkeit und Genauigkeit große Popularität.

  • YOLOv2, das 2016 veröffentlicht wurde, verbesserte das ursprüngliche Modell durch die Einbindung von Batch-Normalisierung, Ankerboxen und Dimensionsclustern.
  • YOLOv3, das 2018 eingeführt wurde, verbesserte die Leistung des Modells durch ein effizienteres Backbone-Netzwerk, mehrere Ankerpunkte und Spatial Pyramid Pooling.
  • YOLOv4 wurde 2020 veröffentlicht und führte Neuerungen wie die Mosaic-Datenvergrößerung, einen neuen ankerfreien Erkennungskopf und eine neue Verlustfunktion ein.
  • YOLOv5 hat die Leistung des Modells weiter verbessert und neue Funktionen wie Hyperparameter-Optimierung, integrierte Experimentverfolgung und automatischen Export in gängige Exportformate hinzugefügt.
  • YOLOv6 wurde 2022 von Meituan als Open-Source-Software veröffentlicht und kommt in vielen der autonomen Lieferroboter des Unternehmens zum Einsatz.
  • YOLOv7 hat zusätzliche Aufgaben wie die Posenschätzung auf dem COCO -Datensatz hinzugefügt.
  • YOLOv8 wurde 2023 von Ultralytics veröffentlicht und führte neue Funktionen und Verbesserungen für mehr Leistung, Flexibilität und Effizienz ein, wodurch eine umfassende Palette an Aufgaben im Bereich der Bildverarbeitungs-KI unterstützt wird.
  • YOLOv9 führt innovative Methoden wie Programmable Gradient Information (PGI) und das Generalized Efficient Layer Aggregation Network (GELAN) ein.
  • YOLOv10 entwickelt von Forschern der Tsinghua-Universität unter Verwendung des UltralyticsPython entwickelt wurde, bietet Fortschritte bei der Objekt- Echtzeit -Erkennung durch die Einführung eines End-to-End-Kopfes, der die Anforderungen an die Non-Maximum Suppression (NMS) überflüssig macht.
  • YOLO11: YOLO11 wurde im September 2024 veröffentlicht und YOLO11 hervorragende Leistung bei einer Vielzahl von Aufgaben, darunter Objekterkennung, Segmentierung, Posenabschätzung, Verfolgung und Klassifizierung, wodurch der Einsatz in verschiedenen KI-Anwendungen und -Bereichen ermöglicht wird.
  • YOLO26 🚀: YOLO der nächsten Generation Ultralytics, optimiert für den Einsatz am Netzwerkrand mit durchgängiger, NMS Inferenz.

YOLO : Wie wird Ultralytics YOLO ?

Banner zur Ultralytics lizenz

Ultralytics zwei Lizenzierungsoptionen für unterschiedliche Anwendungsfälle Ultralytics :

  • AGPL-3.0 : Diese von der OSI genehmigte Open-Source-Lizenz eignet sich ideal für Studierende und Enthusiasten und fördert die offene Zusammenarbeit und den Wissensaustausch. Weitere Informationen finden Sie in der Datei „LICENSE “.
  • Unternehmenslizenz: Diese Lizenz ist für die kommerzielle Nutzung konzipiert und ermöglicht die nahtlose Integration von Ultralytics und KI-Modellen in kommerzielle Produkte und Dienstleistungen, wobei die Open-Source-Anforderungen der AGPL-3.0 umgangen werden. Wenn Sie unsere Lösungen in ein kommerzielles Angebot integrieren möchten, wenden Sie sich bitte an Ultralytics .

Unsere Lizenzstrategie ist darauf ausgerichtet, sicherzustellen, dass alle Verbesserungen an unseren Open-Source-Projekten der Community zugutekommen. Wir glauben an Open Source, und es ist unsere Mission, dafür zu sorgen, dass unsere Beiträge so genutzt und weiterentwickelt werden können, dass alle davon profitieren.

Die Entwicklung der Objekterkennung

Die Objekterkennung hat sich im Laufe der Jahre erheblich weiterentwickelt, von traditionellen Techniken der Bildverarbeitung bis hin zu fortschrittlichen Deep-Learning-Modellen. Die YOLO steht an der Spitze dieser Entwicklung und erweitert kontinuierlich die Grenzen des Möglichen bei der Objekterkennung in Echtzeit.

Der einzigartige Ansatz YOLO behandelt die Objekterkennung als ein einziges Regressionsproblem, bei dem Begrenzungsrahmen und Klassenwahrscheinlichkeiten direkt aus den vollständigen Bildern in einem einzigen Durchgang vorhergesagt werden. Dank dieser revolutionären Methode sind YOLO deutlich schneller als bisherige zweistufige Detektoren, ohne dabei an Genauigkeit einzubüßen.

Mit jeder neuen Version YOLO architektonische Verbesserungen und innovative Techniken eingeführt, die die Leistung in verschiedenen Bereichen gesteigert haben. YOLO26 setzt diese Tradition fort, indem es die neuesten Fortschritte in der Computer-Vision-Forschung einbezieht und sich durch eine durchgängige, NMS Inferenz sowie eine optimierte Edge-Bereitstellung für praktische Anwendungen auszeichnet.

FAQ

Was ist Ultralytics YOLO wie verbessert es die Objekterkennung?

Ultralytics YOLO die renommierte YOLO You Only Look Once) für die Objekt-Erkennung und Bildsegmentierung in Echtzeit. Das neueste Modell, YOLO26, baut auf früheren Versionen auf und führt eine durchgängige NMS Inferenz sowie eine optimierte Edge-Bereitstellung ein. YOLO verschiedene Vision-AI-Aufgaben wie Erkennung, Segmentierung, Posenabschätzung, Verfolgung und Klassifizierung. Seine effiziente Architektur gewährleistet hervorragende Geschwindigkeit und Genauigkeit, wodurch es sich für vielfältige Anwendungen eignet, darunter Edge-Geräte und Cloud-APIs.

Wie fange ich mit YOLO und Einrichtung YOLO an?

Der Einstieg in YOLO schnell und unkompliziert. Sie können das Ultralytics mit pip installieren und sind in wenigen Minuten startklar. Hier ist ein grundlegender Installationsbefehl:

Installation mit pip

pip install -U ultralytics

Eine ausführliche Schritt-für-Schritt-Anleitung finden Sie auf unserer Schnellstart- Seite. Dort erhalten Sie Hilfe bei der Installation, der Ersteinrichtung und der Ausführung Ihres ersten Modells.

Wie kann ich ein benutzerdefiniertes YOLO anhand meines Datensatzes trainieren?

Das Trainieren eines benutzerdefinierten YOLO anhand Ihres Datensatzes umfasst einige detaillierte Schritte:

  1. Bereiten Sie Ihren annotierten Datensatz vor.
  2. Konfigurieren Sie die Trainingsparameter in einer YAML-Datei.
  3. Verwenden Sie den yolo TASK train Befehl zum Starten des Trainings. (Jeder TASK (hat ein eigenes Argument)

Hier ist ein Beispielcode für die Objekterkennungsaufgabe:

Trainingsbeispiel für die Objekterkennung

from ultralytics import YOLO

# Load a pretrained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo26n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo detect train data=path/to/dataset.yaml epochs=100 imgsz=640

Eine ausführliche Anleitung finden Sie in unserem Leitfaden „Train a Model“, der Beispiele und Tipps zur Optimierung Ihres Trainingsprozesses enthält.

Welche Lizenzoptionen gibt es für Ultralytics YOLO?

Ultralytics zwei Lizenzoptionen für YOLOUltralytics :

  • AGPL-3.0 : Diese Open-Source-Lizenz eignet sich ideal für den Einsatz im Bildungsbereich und für nichtkommerzielle Zwecke und fördert die offene Zusammenarbeit.
  • Unternehmenslizenz: Diese Lizenz ist für kommerzielle Anwendungen konzipiert und ermöglicht die nahtlose Integration der Ultralytics in kommerzielle Produkte ohne die Einschränkungen der AGPL-3.0 .

Weitere Informationen finden Sie auf unserer Seite zum Thema Lizenzen.

Wie lässtYOLO Ultralytics YOLO für die Objektverfolgung in EchtzeitYOLO ?

Ultralytics YOLO eine effiziente und anpassbare Verfolgung mehrerer Objekte. Um die Verfolgungsfunktionen zu nutzen, können Sie die yolo track Befehl, wie unten gezeigt:

Beispiel für die Objektverfolgung in einem Video

from ultralytics import YOLO

# Load a pretrained YOLO model
model = YOLO("yolo26n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4

Eine ausführliche Anleitung zur Einrichtung und Nutzung der Objektverfolgung finden Sie in unserer Dokumentation zum Track-Modus, in der die Konfiguration und praktische Anwendungen in Echtzeit-Szenarien erläutert werden.



📅 Erstellt vor 2 Jahren ✏️ Aktualisiert vor 8 Tagen
glenn-jocherRizwanMunawarpderrengerjk4eUltralyticsAssistantAyushExeldependabotultralyticsLaughing-qY-T-GpicsalexLexBarouRizwanMunawar

Kommentare