Zum Inhalt springen

Bildklassifizierung

YOLO klassifizierung von Objekten und Szenen

Bildklassifizierung ist die einfachste der drei Aufgaben und beinhaltet die Klassifizierung eines gesamten Bildes in eine von mehreren vordefinierten Klassen.

Die Ausgabe eines Bildklassifikators ist eine einzelne Klassenbezeichnung und ein Konfidenzwert. Die Bildklassifizierung ist nützlich, wenn Sie nur wissen müssen, zu welcher Klasse ein Bild gehört, und nicht wissen müssen, wo sich Objekte dieser Klasse befinden oder wie ihre genaue Form ist.



Ansehen: Entdecken Sie Ultralytics YOLO-Aufgaben: Bildklassifizierung mit der Ultralytics-Plattform

Tipp

YOLO26 Classify-Modelle verwenden die -cls Suffix, d.h., yolo26n-cls.pt, und sind vortrainiert auf ImageNet.

Modelle

Vortrainierte YOLO26 Classify-Modelle werden hier gezeigt. Detect-, Segment- und Pose-Modelle sind auf dem COCO-Datensatz vortrainiert, während Classify-Modelle auf dem ImageNet-Datensatz vortrainiert sind.

Modelle werden bei der ersten Verwendung automatisch vom neuesten Ultralytics Release heruntergeladen.

ModellGröße
(Pixel)
acc
top1
acc
top5
Geschwindigkeit
CPU ONNX
(ms)
Geschwindigkeit
T4 TensorRT10
(ms)
Parameter
(M)
FLOPs
(B) bei 224
YOLO26n-cls22471.490.15.0 ± 0.31.1 ± 0.02.80.5
YOLO26s-cls22476.092.97.9 ± 0.21.3 ± 0.06.71.6
YOLO26m-cls22478.194.217.2 ± 0.42.0 ± 0.011.64.9
YOLO26l-cls22479.094.623.2 ± 0.32.8 ± 0.014.16.2
YOLO26x-cls22479.995.041.4 ± 0.93.8 ± 0.029.613.6
  • acc Werte sind die Modellgenauigkeiten auf dem ImageNet Validierungsdatensatz.
    Reproduzieren durch yolo val classify data=path/to/ImageNet device=0
  • Geschwindigkeit gemittelt über ImageNet-Validierungsbilder unter Verwendung eines Amazon EC2 P4d Instanz.
    Reproduzieren durch yolo val classify data=path/to/ImageNet batch=1 device=0|cpu

Trainieren

Trainieren Sie YOLO26n-cls auf dem MNIST160-Datensatz für 100 Epochen bei einer Bildgröße von 64. Eine vollständige Liste der verfügbaren Argumente finden Sie auf der Konfigurationsseite.

Beispiel

from ultralytics import YOLO

# Load a model
model = YOLO("yolo26n-cls.yaml")  # build a new model from YAML
model = YOLO("yolo26n-cls.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolo26n-cls.yaml").load("yolo26n-cls.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="mnist160", epochs=100, imgsz=64)
# Build a new model from YAML and start training from scratch
yolo classify train data=mnist160 model=yolo26n-cls.yaml epochs=100 imgsz=64

# Start training from a pretrained *.pt model
yolo classify train data=mnist160 model=yolo26n-cls.pt epochs=100 imgsz=64

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo classify train data=mnist160 model=yolo26n-cls.yaml pretrained=yolo26n-cls.pt epochs=100 imgsz=64

Tipp

Die Ultralytics YOLO-Klassifizierung verwendet torchvision.transforms.RandomResizedCrop für Training und torchvision.transforms.CenterCrop für Validierung und Inferenz. Diese auf dem Zuschneiden basierenden Transformationen setzen quadratische Eingaben voraus und können unbeabsichtigt wichtige Bereiche aus Bildern mit extremen Seitenverhältnissen ausschneiden, was möglicherweise zu einem Verlust kritischer visueller Informationen während des Trainings führt. Um das vollständige Bild unter Beibehaltung seiner Proportionen zu erhalten, sollten Sie die Verwendung von torchvision.transforms.Resize anstelle von Zuschneide-Transformationen.

Sie können dies implementieren, indem Sie Ihre Augmentierungspipeline durch eine benutzerdefinierte anpassen. ClassificationDataset und ClassificationTrainer.

import torch
import torchvision.transforms as T

from ultralytics import YOLO
from ultralytics.data.dataset import ClassificationDataset
from ultralytics.models.yolo.classify import ClassificationTrainer, ClassificationValidator


class CustomizedDataset(ClassificationDataset):
    """A customized dataset class for image classification with enhanced data augmentation transforms."""

    def __init__(self, root: str, args, augment: bool = False, prefix: str = ""):
        """Initialize a customized classification dataset with enhanced data augmentation transforms."""
        super().__init__(root, args, augment, prefix)

        # Add your custom training transforms here
        train_transforms = T.Compose(
            [
                T.Resize((args.imgsz, args.imgsz)),
                T.RandomHorizontalFlip(p=args.fliplr),
                T.RandomVerticalFlip(p=args.flipud),
                T.RandAugment(interpolation=T.InterpolationMode.BILINEAR),
                T.ColorJitter(brightness=args.hsv_v, contrast=args.hsv_v, saturation=args.hsv_s, hue=args.hsv_h),
                T.ToTensor(),
                T.Normalize(mean=torch.tensor(0), std=torch.tensor(1)),
                T.RandomErasing(p=args.erasing, inplace=True),
            ]
        )

        # Add your custom validation transforms here
        val_transforms = T.Compose(
            [
                T.Resize((args.imgsz, args.imgsz)),
                T.ToTensor(),
                T.Normalize(mean=torch.tensor(0), std=torch.tensor(1)),
            ]
        )
        self.torch_transforms = train_transforms if augment else val_transforms


class CustomizedTrainer(ClassificationTrainer):
    """A customized trainer class for YOLO classification models with enhanced dataset handling."""

    def build_dataset(self, img_path: str, mode: str = "train", batch=None):
        """Build a customized dataset for classification training and the validation during training."""
        return CustomizedDataset(root=img_path, args=self.args, augment=mode == "train", prefix=mode)


class CustomizedValidator(ClassificationValidator):
    """A customized validator class for YOLO classification models with enhanced dataset handling."""

    def build_dataset(self, img_path: str, mode: str = "train"):
        """Build a customized dataset for classification standalone validation."""
        return CustomizedDataset(root=img_path, args=self.args, augment=mode == "train", prefix=self.args.split)


model = YOLO("yolo26n-cls.pt")
model.train(data="imagenet1000", trainer=CustomizedTrainer, epochs=10, imgsz=224, batch=64)
model.val(data="imagenet1000", validator=CustomizedValidator, imgsz=224, batch=64)

Datensatzformat

Das YOLO-Klassifikationsdatensatzformat ist detailliert im Dataset Guide zu finden.

Validieren

Validieren Sie das trainierte YOLO26n-cls-Modell Genauigkeit auf dem MNIST160-Datensatz. Es werden keine Argumente benötigt, da das model behält sein Training data und Argumente als Modellattribute.

Beispiel

from ultralytics import YOLO

# Load a model
model = YOLO("yolo26n-cls.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered
metrics.top1  # top1 accuracy
metrics.top5  # top5 accuracy
yolo classify val model=yolo26n-cls.pt  # val official model
yolo classify val model=path/to/best.pt # val custom model

Tipp

Wie erwähnt in der Trainingsbereich, können Sie extreme Seitenverhältnisse während des Trainings verarbeiten, indem Sie ein benutzerdefiniertes ClassificationTrainerSie müssen denselben Ansatz für konsistente Validierungsergebnisse anwenden, indem Sie eine benutzerdefinierte ClassificationValidator beim Aufruf der val() Methode. Das vollständige Codebeispiel finden Sie im Trainingsbereich für Implementierungsdetails.

Vorhersagen

Verwenden Sie ein trainiertes YOLO26n-cls-Modell, um Vorhersagen auf Bildern auszuführen.

Beispiel

from ultralytics import YOLO

# Load a model
model = YOLO("yolo26n-cls.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Predict with the model
results = model("https://ultralytics.com/images/bus.jpg")  # predict on an image
yolo classify predict model=yolo26n-cls.pt source='https://ultralytics.com/images/bus.jpg'  # predict with official model
yolo classify predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # predict with custom model

Vollständige predict Details zum Modus finden Sie auf der Vorhersagen Seite.

Export

Exportieren Sie ein YOLO26n-cls-Modell in ein anderes Format wie ONNX, CoreML usw.

Beispiel

from ultralytics import YOLO

# Load a model
model = YOLO("yolo26n-cls.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom-trained model

# Export the model
model.export(format="onnx")
yolo export model=yolo26n-cls.pt format=onnx  # export official model
yolo export model=path/to/best.pt format=onnx # export custom-trained model

Die verfügbaren YOLO26-cls-Exportformate sind in der folgenden Tabelle aufgeführt. Sie können in jedes Format exportieren, indem Sie die format Argument, d.h. format='onnx' oder format='engine'. Sie können direkt auf exportierten Modellen vorhersagen oder validieren, d.h., yolo predict model=yolo26n-cls.onnx. Anwendungsbeispiele werden nach Abschluss des Exports für Ihr Modell angezeigt.

Formatformat ArgumentModellMetadatenArgumente
PyTorch-yolo26n-cls.pt-
TorchScripttorchscriptyolo26n-cls.torchscriptimgsz, half, dynamic, optimize, nms, batch, device
ONNXonnxyolo26n-cls.onnximgsz, half, dynamic, simplify, opset, nms, batch, device
OpenVINOopenvinoyolo26n-cls_openvino_model/imgsz, half, dynamic, int8, nms, batch, data, fraction, device
TensorRTengineyolo26n-cls.engineimgsz, half, dynamic, simplify, workspace, int8, nms, batch, data, fraction, device
CoreMLcoremlyolo26n-cls.mlpackageimgsz, dynamic, half, int8, nms, batch, device
TF SavedModelsaved_modelyolo26n-cls_saved_model/imgsz, keras, int8, nms, batch, device
TF GraphDefpbyolo26n-cls.pbimgsz, batch, device
TF Litetfliteyolo26n-cls.tfliteimgsz, half, int8, nms, batch, data, fraction, device
TF Edge TPUedgetpuyolo26n-cls_edgetpu.tfliteimgsz, device
TF.jstfjsyolo26n-cls_web_model/imgsz, half, int8, nms, batch, device
PaddlePaddlepaddleyolo26n-cls_paddle_model/imgsz, batch, device
MNNmnnyolo26n-cls.mnnimgsz, batch, int8, half, device
NCNNncnnyolo26n-cls_ncnn_model/imgsz, half, batch, device
IMX500imxyolo26n-cls_imx_model/imgsz, int8, data, fraction, device
RKNNrknnyolo26n-cls_rknn_model/imgsz, batch, name, device
ExecuTorchexecutorchyolo26n-cls_executorch_model/imgsz, device
Axeleraaxelerayolo26n-cls_axelera_model/imgsz, int8, data, fraction, device

Vollständige export Details auf der Export Seite.

FAQ

Welchen Zweck erfüllt YOLO26 bei der Bildklassifizierung?

YOLO26-Modelle, wie zum Beispiel yolo26n-cls.pt, sind für eine effiziente Bildklassifizierung konzipiert. Sie weisen einem gesamten Bild eine einzelne Klassenbezeichnung zusammen mit einem Konfidenzwert zu. Dies ist besonders nützlich für Anwendungen, bei denen es ausreicht, die spezifische Klasse eines Bildes zu kennen, anstatt die Position oder Form von Objekten innerhalb des Bildes zu identifizieren.

Wie trainiere ich ein YOLO26-Modell für die Bildklassifizierung?

Um ein YOLO26-Modell zu trainieren, können Sie entweder Python- oder CLI-Befehle verwenden. Zum Beispiel, um ein yolo26n-cls Modell auf dem MNIST160-Datensatz für 100 Epochen bei einer Bildgröße von 64 zu trainieren:

Beispiel

from ultralytics import YOLO

# Load a model
model = YOLO("yolo26n-cls.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="mnist160", epochs=100, imgsz=64)
yolo classify train data=mnist160 model=yolo26n-cls.pt epochs=100 imgsz=64

Weitere Konfigurationsoptionen finden Sie auf der Seite Konfiguration.

Wo finde ich vortrainierte YOLO26-Klassifizierungsmodelle?

Vortrainierte YOLO26-Klassifizierungsmodelle finden Sie im Modelle Abschnitt. Modelle wie yolo26n-cls.pt, yolo26s-cls.pt, yolo26m-cls.ptusw. sind auf dem ImageNet Datensatz und kann einfach heruntergeladen und für verschiedene Bildklassifizierungsaufgaben verwendet werden.

Wie kann ich ein trainiertes YOLO26-Modell in verschiedene Formate exportieren?

Sie können ein trainiertes YOLO26-Modell mithilfe von python- oder CLI-Befehlen in verschiedene Formate exportieren. Um beispielsweise ein Modell in das ONNX-Format zu exportieren:

Beispiel

from ultralytics import YOLO

# Load a model
model = YOLO("yolo26n-cls.pt")  # load the trained model

# Export the model to ONNX
model.export(format="onnx")
yolo export model=yolo26n-cls.pt format=onnx # export the trained model to ONNX format

Detaillierte Exportoptionen finden Sie auf der Seite Export.

Wie validiere ich ein trainiertes YOLO26-Klassifizierungsmodell?

Um die Genauigkeit eines trainierten Modells auf einem Datensatz wie MNIST160 zu validieren, können Sie die folgenden Python- oder CLI-Befehle verwenden:

Beispiel

from ultralytics import YOLO

# Load a model
model = YOLO("yolo26n-cls.pt")  # load the trained model

# Validate the model
metrics = model.val()  # no arguments needed, uses the dataset and settings from training
metrics.top1  # top1 accuracy
metrics.top5  # top5 accuracy
yolo classify val model=yolo26n-cls.pt # validate the trained model

Weitere Informationen finden Sie im Abschnitt Validieren.



📅 Erstellt vor 2 Jahren ✏️ Aktualisiert vor 2 Tagen
glenn-jocherBurhan-QLaughing-qambitious-octopuspderrengerpicsalexRizwanMunawarUltralyticsAssistantMatthewNoyceRizwanMunawarfcakyon

Kommentare