Skip to content

Référence pour ultralytics/engine/model.py

Note

Ce fichier est disponible à l'adresse https://github.com/ultralytics/ ultralytics/blob/main/ ultralytics/engine/model .py. Si tu repères un problème, aide à le corriger en contribuant à une Pull Request 🛠️. Merci 🙏 !



ultralytics.engine.model.Model

Bases : Module

Une classe de base pour la mise en œuvre des modèles YOLO , unifiant les API entre les différents types de modèles.

Cette classe fournit une interface commune pour diverses opérations liées aux modèles YOLO , telles que la formation, la validation, la prédiction, l'exportation et l'analyse comparative. Elle gère différents types de modèles, y compris ceux chargés à partir de fichiers locaux, Ultralytics HUB , ou Triton Server. La classe est conçue pour être flexible et flexible et extensible pour différentes tâches et configurations de modèles.

Paramètres :

Nom Type Description DĂ©faut
model Union[str, Path]

Chemin d'accès ou nom du modèle à charger ou à créer. Il peut s'agir d'un chemin d'accès à un fichier local, d'un nom de modèle provenant de local, un nom de modèle provenant de Ultralytics HUB , ou un modèle du serveur Triton . La valeur par défaut est 'yolov8n.pt'.

'yolov8n.pt'
task Any

Le type de tâche associé au modèle YOLO . Il peut être utilisé pour spécifier le domaine d'application du modèle, tel que la détection d'objets, la segmentation, etc. domaine d'application du modèle, comme la détection d'objets, la segmentation, etc. La valeur par défaut est Aucun.

None
verbose bool

Si True, active la sortie verbeuse pendant les opérations du modèle. La valeur par défaut est False.

False

Attributs :

Nom Type Description
callbacks dict

Un dictionnaire de fonctions de rappel pour divers événements pendant les opérations du modèle.

predictor BasePredictor

L'objet prédicteur utilisé pour faire des prédictions.

model Module

Le modèle sous-jacent PyTorch .

trainer BaseTrainer

L'objet formateur utilisé pour la formation du modèle.

ckpt dict

Les données du point de contrôle si le modèle est chargé à partir d'un fichier *.pt.

cfg str

La configuration du modèle si elle est chargée à partir d'un fichier *.yaml.

ckpt_path str

Le chemin d'accès au fichier du point de contrôle.

overrides dict

Un dictionnaire de dérogations pour la configuration du modèle.

metrics dict

Les dernières mesures de formation/validation.

session HUBTrainingSession

La session Ultralytics HUB , le cas échéant.

task str

Le type de tâche auquel le modèle est destiné.

model_name str

Le nom du modèle.

MĂ©thodes :

Nom Description
__call__

Alias de la méthode predict, permettant d'appeler l'instance de modèle.

_new

Initialise un nouveau modèle sur la base d'un fichier de configuration.

_load

Charge un modèle à partir d'un fichier de points de contrôle.

_check_is_pytorch_model

Assure-toi que le modèle est un modèle PyTorch .

reset_weights

Réinitialise les poids du modèle à leur état initial.

load

Charge les poids du modèle à partir d'un fichier spécifié.

save

Enregistre l'état actuel du modèle dans un fichier.

info

Enregistre ou renvoie des informations sur le modèle.

fuse

Fusionne les couches Conv2d et BatchNorm2d pour une inférence optimisée.

predict

Effectue des prédictions de détection d'objets.

track

Effectue le suivi des objets.

val

Valide le modèle sur un ensemble de données.

benchmark

Effectue une analyse comparative du modèle sur différents formats d'exportation.

export

Exporte le modèle dans différents formats.

train

Entraîne le modèle sur un ensemble de données.

tune

Effectue l'ajustement des hyperparamètres.

_apply

Applique une fonction aux tenseurs du modèle.

add_callback

Ajoute une fonction de rappel pour un événement.

clear_callback

Efface tous les rappels pour un événement.

reset_callbacks

Réinitialise tous les rappels à leurs fonctions par défaut.

_get_hub_session

Retrouve ou crée une session Ultralytics HUB .

is_triton_model

Vérifie si un modèle est un modèle de serveur Triton .

is_hub_model

Vérifie si un modèle est un modèle Ultralytics HUB .

_reset_ckpt_args

Réinitialise les arguments des points de contrôle lors du chargement d'un modèle PyTorch .

_smart_load

Charge le module approprié en fonction de la tâche du modèle.

task_map

Fournit une correspondance entre les tâches du modèle et les classes correspondantes.

Augmente :

Type Description
FileNotFoundError

Si le fichier de modèle spécifié n'existe pas ou est inaccessible.

ValueError

Si le fichier de modèle ou la configuration n'est pas valide ou n'est pas pris en charge.

ImportError

Si les dépendances requises pour des types de modèles spécifiques (comme HUB SDK) ne sont pas installées.

TypeError

Si le modèle n'est pas un modèle PyTorch lorsque c'est nécessaire.

AttributeError

Si les attributs ou les méthodes requis ne sont pas mis en œuvre ou disponibles.

NotImplementedError

Si une tâche ou un mode de modèle spécifique n'est pas pris en charge.

Code source dans ultralytics/engine/model.py
 17
 18
 19
 20
 21
 22
 23
 24
 25
 26
 27
 28
 29
 30
 31
 32
 33
 34
 35
 36
 37
 38
 39
 40
 41
 42
 43
 44
 45
 46
 47
 48
 49
 50
 51
 52
 53
 54
 55
 56
 57
 58
 59
 60
 61
 62
 63
 64
 65
 66
 67
 68
 69
 70
 71
 72
 73
 74
 75
 76
 77
 78
 79
 80
 81
 82
 83
 84
 85
 86
 87
 88
 89
 90
 91
 92
 93
 94
 95
 96
 97
 98
 99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
class Model(nn.Module):
    """
    A base class for implementing YOLO models, unifying APIs across different model types.

    This class provides a common interface for various operations related to YOLO models, such as training,
    validation, prediction, exporting, and benchmarking. It handles different types of models, including those
    loaded from local files, Ultralytics HUB, or Triton Server. The class is designed to be flexible and
    extendable for different tasks and model configurations.

    Args:
        model (Union[str, Path], optional): Path or name of the model to load or create. This can be a local file
            path, a model name from Ultralytics HUB, or a Triton Server model. Defaults to 'yolov8n.pt'.
        task (Any, optional): The task type associated with the YOLO model. This can be used to specify the model's
            application domain, such as object detection, segmentation, etc. Defaults to None.
        verbose (bool, optional): If True, enables verbose output during the model's operations. Defaults to False.

    Attributes:
        callbacks (dict): A dictionary of callback functions for various events during model operations.
        predictor (BasePredictor): The predictor object used for making predictions.
        model (nn.Module): The underlying PyTorch model.
        trainer (BaseTrainer): The trainer object used for training the model.
        ckpt (dict): The checkpoint data if the model is loaded from a *.pt file.
        cfg (str): The configuration of the model if loaded from a *.yaml file.
        ckpt_path (str): The path to the checkpoint file.
        overrides (dict): A dictionary of overrides for model configuration.
        metrics (dict): The latest training/validation metrics.
        session (HUBTrainingSession): The Ultralytics HUB session, if applicable.
        task (str): The type of task the model is intended for.
        model_name (str): The name of the model.

    Methods:
        __call__: Alias for the predict method, enabling the model instance to be callable.
        _new: Initializes a new model based on a configuration file.
        _load: Loads a model from a checkpoint file.
        _check_is_pytorch_model: Ensures that the model is a PyTorch model.
        reset_weights: Resets the model's weights to their initial state.
        load: Loads model weights from a specified file.
        save: Saves the current state of the model to a file.
        info: Logs or returns information about the model.
        fuse: Fuses Conv2d and BatchNorm2d layers for optimized inference.
        predict: Performs object detection predictions.
        track: Performs object tracking.
        val: Validates the model on a dataset.
        benchmark: Benchmarks the model on various export formats.
        export: Exports the model to different formats.
        train: Trains the model on a dataset.
        tune: Performs hyperparameter tuning.
        _apply: Applies a function to the model's tensors.
        add_callback: Adds a callback function for an event.
        clear_callback: Clears all callbacks for an event.
        reset_callbacks: Resets all callbacks to their default functions.
        _get_hub_session: Retrieves or creates an Ultralytics HUB session.
        is_triton_model: Checks if a model is a Triton Server model.
        is_hub_model: Checks if a model is an Ultralytics HUB model.
        _reset_ckpt_args: Resets checkpoint arguments when loading a PyTorch model.
        _smart_load: Loads the appropriate module based on the model task.
        task_map: Provides a mapping from model tasks to corresponding classes.

    Raises:
        FileNotFoundError: If the specified model file does not exist or is inaccessible.
        ValueError: If the model file or configuration is invalid or unsupported.
        ImportError: If required dependencies for specific model types (like HUB SDK) are not installed.
        TypeError: If the model is not a PyTorch model when required.
        AttributeError: If required attributes or methods are not implemented or available.
        NotImplementedError: If a specific model task or mode is not supported.
    """

    def __init__(
        self,
        model: Union[str, Path] = "yolov8n.pt",
        task: str = None,
        verbose: bool = False,
    ) -> None:
        """
        Initializes a new instance of the YOLO model class.

        This constructor sets up the model based on the provided model path or name. It handles various types of model
        sources, including local files, Ultralytics HUB models, and Triton Server models. The method initializes several
        important attributes of the model and prepares it for operations like training, prediction, or export.

        Args:
            model (Union[str, Path], optional): The path or model file to load or create. This can be a local
                file path, a model name from Ultralytics HUB, or a Triton Server model. Defaults to 'yolov8n.pt'.
            task (Any, optional): The task type associated with the YOLO model, specifying its application domain.
                Defaults to None.
            verbose (bool, optional): If True, enables verbose output during the model's initialization and subsequent
                operations. Defaults to False.

        Raises:
            FileNotFoundError: If the specified model file does not exist or is inaccessible.
            ValueError: If the model file or configuration is invalid or unsupported.
            ImportError: If required dependencies for specific model types (like HUB SDK) are not installed.
        """
        super().__init__()
        self.callbacks = callbacks.get_default_callbacks()
        self.predictor = None  # reuse predictor
        self.model = None  # model object
        self.trainer = None  # trainer object
        self.ckpt = None  # if loaded from *.pt
        self.cfg = None  # if loaded from *.yaml
        self.ckpt_path = None
        self.overrides = {}  # overrides for trainer object
        self.metrics = None  # validation/training metrics
        self.session = None  # HUB session
        self.task = task  # task type
        self.model_name = model = str(model).strip()  # strip spaces

        # Check if Ultralytics HUB model from https://hub.ultralytics.com
        if self.is_hub_model(model):
            # Fetch model from HUB
            checks.check_requirements("hub-sdk>0.0.2")
            self.session = self._get_hub_session(model)
            model = self.session.model_file

        # Check if Triton Server model
        elif self.is_triton_model(model):
            self.model = model
            self.task = task
            return

        # Load or create new YOLO model
        model = checks.check_model_file_from_stem(model)  # add suffix, i.e. yolov8n -> yolov8n.pt
        if Path(model).suffix in (".yaml", ".yml"):
            self._new(model, task=task, verbose=verbose)
        else:
            self._load(model, task=task)

        self.model_name = model

    def __call__(
        self,
        source: Union[str, Path, int, list, tuple, np.ndarray, torch.Tensor] = None,
        stream: bool = False,
        **kwargs,
    ) -> list:
        """
        An alias for the predict method, enabling the model instance to be callable.

        This method simplifies the process of making predictions by allowing the model instance to be called directly
        with the required arguments for prediction.

        Args:
            source (str | Path | int | PIL.Image | np.ndarray, optional): The source of the image for making
                predictions. Accepts various types, including file paths, URLs, PIL images, and numpy arrays.
                Defaults to None.
            stream (bool, optional): If True, treats the input source as a continuous stream for predictions.
                Defaults to False.
            **kwargs (dict): Additional keyword arguments for configuring the prediction process.

        Returns:
            (List[ultralytics.engine.results.Results]): A list of prediction results, encapsulated in the Results class.
        """
        return self.predict(source, stream, **kwargs)

    @staticmethod
    def _get_hub_session(model: str):
        """Creates a session for Hub Training."""
        from ultralytics.hub.session import HUBTrainingSession

        session = HUBTrainingSession(model)
        return session if session.client.authenticated else None

    @staticmethod
    def is_triton_model(model: str) -> bool:
        """Is model a Triton Server URL string, i.e. <scheme>://<netloc>/<endpoint>/<task_name>"""
        from urllib.parse import urlsplit

        url = urlsplit(model)
        return url.netloc and url.path and url.scheme in {"http", "grpc"}

    @staticmethod
    def is_hub_model(model: str) -> bool:
        """Check if the provided model is a HUB model."""
        return any(
            (
                model.startswith(f"{HUB_WEB_ROOT}/models/"),  # i.e. https://hub.ultralytics.com/models/MODEL_ID
                [len(x) for x in model.split("_")] == [42, 20],  # APIKEY_MODELID
                len(model) == 20 and not Path(model).exists() and all(x not in model for x in "./\\"),  # MODELID
            )
        )

    def _new(self, cfg: str, task=None, model=None, verbose=False) -> None:
        """
        Initializes a new model and infers the task type from the model definitions.

        Args:
            cfg (str): model configuration file
            task (str | None): model task
            model (BaseModel): Customized model.
            verbose (bool): display model info on load
        """
        cfg_dict = yaml_model_load(cfg)
        self.cfg = cfg
        self.task = task or guess_model_task(cfg_dict)
        self.model = (model or self._smart_load("model"))(cfg_dict, verbose=verbose and RANK == -1)  # build model
        self.overrides["model"] = self.cfg
        self.overrides["task"] = self.task

        # Below added to allow export from YAMLs
        self.model.args = {**DEFAULT_CFG_DICT, **self.overrides}  # combine default and model args (prefer model args)
        self.model.task = self.task

    def _load(self, weights: str, task=None) -> None:
        """
        Initializes a new model and infers the task type from the model head.

        Args:
            weights (str): model checkpoint to be loaded
            task (str | None): model task
        """
        suffix = Path(weights).suffix
        if suffix == ".pt":
            self.model, self.ckpt = attempt_load_one_weight(weights)
            self.task = self.model.args["task"]
            self.overrides = self.model.args = self._reset_ckpt_args(self.model.args)
            self.ckpt_path = self.model.pt_path
        else:
            weights = checks.check_file(weights)
            self.model, self.ckpt = weights, None
            self.task = task or guess_model_task(weights)
            self.ckpt_path = weights
        self.overrides["model"] = weights
        self.overrides["task"] = self.task

    def _check_is_pytorch_model(self) -> None:
        """Raises TypeError is model is not a PyTorch model."""
        pt_str = isinstance(self.model, (str, Path)) and Path(self.model).suffix == ".pt"
        pt_module = isinstance(self.model, nn.Module)
        if not (pt_module or pt_str):
            raise TypeError(
                f"model='{self.model}' should be a *.pt PyTorch model to run this method, but is a different format. "
                f"PyTorch models can train, val, predict and export, i.e. 'model.train(data=...)', but exported "
                f"formats like ONNX, TensorRT etc. only support 'predict' and 'val' modes, "
                f"i.e. 'yolo predict model=yolov8n.onnx'.\nTo run CUDA or MPS inference please pass the device "
                f"argument directly in your inference command, i.e. 'model.predict(source=..., device=0)'"
            )

    def reset_weights(self) -> "Model":
        """
        Resets the model parameters to randomly initialized values, effectively discarding all training information.

        This method iterates through all modules in the model and resets their parameters if they have a
        'reset_parameters' method. It also ensures that all parameters have 'requires_grad' set to True, enabling them
        to be updated during training.

        Returns:
            self (ultralytics.engine.model.Model): The instance of the class with reset weights.

        Raises:
            AssertionError: If the model is not a PyTorch model.
        """
        self._check_is_pytorch_model()
        for m in self.model.modules():
            if hasattr(m, "reset_parameters"):
                m.reset_parameters()
        for p in self.model.parameters():
            p.requires_grad = True
        return self

    def load(self, weights: Union[str, Path] = "yolov8n.pt") -> "Model":
        """
        Loads parameters from the specified weights file into the model.

        This method supports loading weights from a file or directly from a weights object. It matches parameters by
        name and shape and transfers them to the model.

        Args:
            weights (str | Path): Path to the weights file or a weights object. Defaults to 'yolov8n.pt'.

        Returns:
            self (ultralytics.engine.model.Model): The instance of the class with loaded weights.

        Raises:
            AssertionError: If the model is not a PyTorch model.
        """
        self._check_is_pytorch_model()
        if isinstance(weights, (str, Path)):
            weights, self.ckpt = attempt_load_one_weight(weights)
        self.model.load(weights)
        return self

    def save(self, filename: Union[str, Path] = "saved_model.pt") -> None:
        """
        Saves the current model state to a file.

        This method exports the model's checkpoint (ckpt) to the specified filename.

        Args:
            filename (str | Path): The name of the file to save the model to. Defaults to 'saved_model.pt'.

        Raises:
            AssertionError: If the model is not a PyTorch model.
        """
        self._check_is_pytorch_model()
        torch.save(self.ckpt, filename)

    def info(self, detailed: bool = False, verbose: bool = True):
        """
        Logs or returns model information.

        This method provides an overview or detailed information about the model, depending on the arguments passed.
        It can control the verbosity of the output.

        Args:
            detailed (bool): If True, shows detailed information about the model. Defaults to False.
            verbose (bool): If True, prints the information. If False, returns the information. Defaults to True.

        Returns:
            (list): Various types of information about the model, depending on the 'detailed' and 'verbose' parameters.

        Raises:
            AssertionError: If the model is not a PyTorch model.
        """
        self._check_is_pytorch_model()
        return self.model.info(detailed=detailed, verbose=verbose)

    def fuse(self):
        """
        Fuses Conv2d and BatchNorm2d layers in the model.

        This method optimizes the model by fusing Conv2d and BatchNorm2d layers, which can improve inference speed.

        Raises:
            AssertionError: If the model is not a PyTorch model.
        """
        self._check_is_pytorch_model()
        self.model.fuse()

    def embed(
        self,
        source: Union[str, Path, int, list, tuple, np.ndarray, torch.Tensor] = None,
        stream: bool = False,
        **kwargs,
    ) -> list:
        """
        Generates image embeddings based on the provided source.

        This method is a wrapper around the 'predict()' method, focusing on generating embeddings from an image source.
        It allows customization of the embedding process through various keyword arguments.

        Args:
            source (str | int | PIL.Image | np.ndarray): The source of the image for generating embeddings.
                The source can be a file path, URL, PIL image, numpy array, etc. Defaults to None.
            stream (bool): If True, predictions are streamed. Defaults to False.
            **kwargs (dict): Additional keyword arguments for configuring the embedding process.

        Returns:
            (List[torch.Tensor]): A list containing the image embeddings.

        Raises:
            AssertionError: If the model is not a PyTorch model.
        """
        if not kwargs.get("embed"):
            kwargs["embed"] = [len(self.model.model) - 2]  # embed second-to-last layer if no indices passed
        return self.predict(source, stream, **kwargs)

    def predict(
        self,
        source: Union[str, Path, int, list, tuple, np.ndarray, torch.Tensor] = None,
        stream: bool = False,
        predictor=None,
        **kwargs,
    ) -> list:
        """
        Performs predictions on the given image source using the YOLO model.

        This method facilitates the prediction process, allowing various configurations through keyword arguments.
        It supports predictions with custom predictors or the default predictor method. The method handles different
        types of image sources and can operate in a streaming mode. It also provides support for SAM-type models
        through 'prompts'.

        The method sets up a new predictor if not already present and updates its arguments with each call.
        It also issues a warning and uses default assets if the 'source' is not provided. The method determines if it
        is being called from the command line interface and adjusts its behavior accordingly, including setting defaults
        for confidence threshold and saving behavior.

        Args:
            source (str | int | PIL.Image | np.ndarray, optional): The source of the image for making predictions.
                Accepts various types, including file paths, URLs, PIL images, and numpy arrays. Defaults to ASSETS.
            stream (bool, optional): Treats the input source as a continuous stream for predictions. Defaults to False.
            predictor (BasePredictor, optional): An instance of a custom predictor class for making predictions.
                If None, the method uses a default predictor. Defaults to None.
            **kwargs (dict): Additional keyword arguments for configuring the prediction process. These arguments allow
                for further customization of the prediction behavior.

        Returns:
            (List[ultralytics.engine.results.Results]): A list of prediction results, encapsulated in the Results class.

        Raises:
            AttributeError: If the predictor is not properly set up.
        """
        if source is None:
            source = ASSETS
            LOGGER.warning(f"WARNING ⚠️ 'source' is missing. Using 'source={source}'.")

        is_cli = (sys.argv[0].endswith("yolo") or sys.argv[0].endswith("ultralytics")) and any(
            x in sys.argv for x in ("predict", "track", "mode=predict", "mode=track")
        )

        custom = {"conf": 0.25, "save": is_cli, "mode": "predict"}  # method defaults
        args = {**self.overrides, **custom, **kwargs}  # highest priority args on the right
        prompts = args.pop("prompts", None)  # for SAM-type models

        if not self.predictor:
            self.predictor = predictor or self._smart_load("predictor")(overrides=args, _callbacks=self.callbacks)
            self.predictor.setup_model(model=self.model, verbose=is_cli)
        else:  # only update args if predictor is already setup
            self.predictor.args = get_cfg(self.predictor.args, args)
            if "project" in args or "name" in args:
                self.predictor.save_dir = get_save_dir(self.predictor.args)
        if prompts and hasattr(self.predictor, "set_prompts"):  # for SAM-type models
            self.predictor.set_prompts(prompts)
        return self.predictor.predict_cli(source=source) if is_cli else self.predictor(source=source, stream=stream)

    def track(
        self,
        source: Union[str, Path, int, list, tuple, np.ndarray, torch.Tensor] = None,
        stream: bool = False,
        persist: bool = False,
        **kwargs,
    ) -> list:
        """
        Conducts object tracking on the specified input source using the registered trackers.

        This method performs object tracking using the model's predictors and optionally registered trackers. It is
        capable of handling different types of input sources such as file paths or video streams. The method supports
        customization of the tracking process through various keyword arguments. It registers trackers if they are not
        already present and optionally persists them based on the 'persist' flag.

        The method sets a default confidence threshold specifically for ByteTrack-based tracking, which requires low
        confidence predictions as input. The tracking mode is explicitly set in the keyword arguments.

        Args:
            source (str, optional): The input source for object tracking. It can be a file path, URL, or video stream.
            stream (bool, optional): Treats the input source as a continuous video stream. Defaults to False.
            persist (bool, optional): Persists the trackers between different calls to this method. Defaults to False.
            **kwargs (dict): Additional keyword arguments for configuring the tracking process. These arguments allow
                for further customization of the tracking behavior.

        Returns:
            (List[ultralytics.engine.results.Results]): A list of tracking results, encapsulated in the Results class.

        Raises:
            AttributeError: If the predictor does not have registered trackers.
        """
        if not hasattr(self.predictor, "trackers"):
            from ultralytics.trackers import register_tracker

            register_tracker(self, persist)
        kwargs["conf"] = kwargs.get("conf") or 0.1  # ByteTrack-based method needs low confidence predictions as input
        kwargs["mode"] = "track"
        return self.predict(source=source, stream=stream, **kwargs)

    def val(
        self,
        validator=None,
        **kwargs,
    ):
        """
        Validates the model using a specified dataset and validation configuration.

        This method facilitates the model validation process, allowing for a range of customization through various
        settings and configurations. It supports validation with a custom validator or the default validation approach.
        The method combines default configurations, method-specific defaults, and user-provided arguments to configure
        the validation process. After validation, it updates the model's metrics with the results obtained from the
        validator.

        The method supports various arguments that allow customization of the validation process. For a comprehensive
        list of all configurable options, users should refer to the 'configuration' section in the documentation.

        Args:
            validator (BaseValidator, optional): An instance of a custom validator class for validating the model. If
                None, the method uses a default validator. Defaults to None.
            **kwargs (dict): Arbitrary keyword arguments representing the validation configuration. These arguments are
                used to customize various aspects of the validation process.

        Returns:
            (dict): Validation metrics obtained from the validation process.

        Raises:
            AssertionError: If the model is not a PyTorch model.
        """
        custom = {"rect": True}  # method defaults
        args = {**self.overrides, **custom, **kwargs, "mode": "val"}  # highest priority args on the right

        validator = (validator or self._smart_load("validator"))(args=args, _callbacks=self.callbacks)
        validator(model=self.model)
        self.metrics = validator.metrics
        return validator.metrics

    def benchmark(
        self,
        **kwargs,
    ):
        """
        Benchmarks the model across various export formats to evaluate performance.

        This method assesses the model's performance in different export formats, such as ONNX, TorchScript, etc.
        It uses the 'benchmark' function from the ultralytics.utils.benchmarks module. The benchmarking is configured
        using a combination of default configuration values, model-specific arguments, method-specific defaults, and
        any additional user-provided keyword arguments.

        The method supports various arguments that allow customization of the benchmarking process, such as dataset
        choice, image size, precision modes, device selection, and verbosity. For a comprehensive list of all
        configurable options, users should refer to the 'configuration' section in the documentation.

        Args:
            **kwargs (dict): Arbitrary keyword arguments to customize the benchmarking process. These are combined with
                default configurations, model-specific arguments, and method defaults.

        Returns:
            (dict): A dictionary containing the results of the benchmarking process.

        Raises:
            AssertionError: If the model is not a PyTorch model.
        """
        self._check_is_pytorch_model()
        from ultralytics.utils.benchmarks import benchmark

        custom = {"verbose": False}  # method defaults
        args = {**DEFAULT_CFG_DICT, **self.model.args, **custom, **kwargs, "mode": "benchmark"}
        return benchmark(
            model=self,
            data=kwargs.get("data"),  # if no 'data' argument passed set data=None for default datasets
            imgsz=args["imgsz"],
            half=args["half"],
            int8=args["int8"],
            device=args["device"],
            verbose=kwargs.get("verbose"),
        )

    def export(
        self,
        **kwargs,
    ):
        """
        Exports the model to a different format suitable for deployment.

        This method facilitates the export of the model to various formats (e.g., ONNX, TorchScript) for deployment
        purposes. It uses the 'Exporter' class for the export process, combining model-specific overrides, method
        defaults, and any additional arguments provided. The combined arguments are used to configure export settings.

        The method supports a wide range of arguments to customize the export process. For a comprehensive list of all
        possible arguments, refer to the 'configuration' section in the documentation.

        Args:
            **kwargs (dict): Arbitrary keyword arguments to customize the export process. These are combined with the
                model's overrides and method defaults.

        Returns:
            (object): The exported model in the specified format, or an object related to the export process.

        Raises:
            AssertionError: If the model is not a PyTorch model.
        """
        self._check_is_pytorch_model()
        from .exporter import Exporter

        custom = {"imgsz": self.model.args["imgsz"], "batch": 1, "data": None, "verbose": False}  # method defaults
        args = {**self.overrides, **custom, **kwargs, "mode": "export"}  # highest priority args on the right
        return Exporter(overrides=args, _callbacks=self.callbacks)(model=self.model)

    def train(
        self,
        trainer=None,
        **kwargs,
    ):
        """
        Trains the model using the specified dataset and training configuration.

        This method facilitates model training with a range of customizable settings and configurations. It supports
        training with a custom trainer or the default training approach defined in the method. The method handles
        different scenarios, such as resuming training from a checkpoint, integrating with Ultralytics HUB, and
        updating model and configuration after training.

        When using Ultralytics HUB, if the session already has a loaded model, the method prioritizes HUB training
        arguments and issues a warning if local arguments are provided. It checks for pip updates and combines default
        configurations, method-specific defaults, and user-provided arguments to configure the training process. After
        training, it updates the model and its configurations, and optionally attaches metrics.

        Args:
            trainer (BaseTrainer, optional): An instance of a custom trainer class for training the model. If None, the
                method uses a default trainer. Defaults to None.
            **kwargs (dict): Arbitrary keyword arguments representing the training configuration. These arguments are
                used to customize various aspects of the training process.

        Returns:
            (dict | None): Training metrics if available and training is successful; otherwise, None.

        Raises:
            AssertionError: If the model is not a PyTorch model.
            PermissionError: If there is a permission issue with the HUB session.
            ModuleNotFoundError: If the HUB SDK is not installed.
        """
        self._check_is_pytorch_model()
        if hasattr(self.session, "model") and self.session.model.id:  # Ultralytics HUB session with loaded model
            if any(kwargs):
                LOGGER.warning("WARNING ⚠️ using HUB training arguments, ignoring local training arguments.")
            kwargs = self.session.train_args  # overwrite kwargs

        checks.check_pip_update_available()

        overrides = yaml_load(checks.check_yaml(kwargs["cfg"])) if kwargs.get("cfg") else self.overrides
        custom = {"data": DEFAULT_CFG_DICT["data"] or TASK2DATA[self.task]}  # method defaults
        args = {**overrides, **custom, **kwargs, "mode": "train"}  # highest priority args on the right
        if args.get("resume"):
            args["resume"] = self.ckpt_path

        self.trainer = (trainer or self._smart_load("trainer"))(overrides=args, _callbacks=self.callbacks)
        if not args.get("resume"):  # manually set model only if not resuming
            self.trainer.model = self.trainer.get_model(weights=self.model if self.ckpt else None, cfg=self.model.yaml)
            self.model = self.trainer.model

            if SETTINGS["hub"] is True and not self.session:
                # Create a model in HUB
                try:
                    self.session = self._get_hub_session(self.model_name)
                    if self.session:
                        self.session.create_model(args)
                        # Check model was created
                        if not getattr(self.session.model, "id", None):
                            self.session = None
                except (PermissionError, ModuleNotFoundError):
                    # Ignore PermissionError and ModuleNotFoundError which indicates hub-sdk not installed
                    pass

        self.trainer.hub_session = self.session  # attach optional HUB session
        self.trainer.train()
        # Update model and cfg after training
        if RANK in (-1, 0):
            ckpt = self.trainer.best if self.trainer.best.exists() else self.trainer.last
            self.model, _ = attempt_load_one_weight(ckpt)
            self.overrides = self.model.args
            self.metrics = getattr(self.trainer.validator, "metrics", None)  # TODO: no metrics returned by DDP
        return self.metrics

    def tune(
        self,
        use_ray=False,
        iterations=10,
        *args,
        **kwargs,
    ):
        """
        Conducts hyperparameter tuning for the model, with an option to use Ray Tune.

        This method supports two modes of hyperparameter tuning: using Ray Tune or a custom tuning method.
        When Ray Tune is enabled, it leverages the 'run_ray_tune' function from the ultralytics.utils.tuner module.
        Otherwise, it uses the internal 'Tuner' class for tuning. The method combines default, overridden, and
        custom arguments to configure the tuning process.

        Args:
            use_ray (bool): If True, uses Ray Tune for hyperparameter tuning. Defaults to False.
            iterations (int): The number of tuning iterations to perform. Defaults to 10.
            *args (list): Variable length argument list for additional arguments.
            **kwargs (dict): Arbitrary keyword arguments. These are combined with the model's overrides and defaults.

        Returns:
            (dict): A dictionary containing the results of the hyperparameter search.

        Raises:
            AssertionError: If the model is not a PyTorch model.
        """
        self._check_is_pytorch_model()
        if use_ray:
            from ultralytics.utils.tuner import run_ray_tune

            return run_ray_tune(self, max_samples=iterations, *args, **kwargs)
        else:
            from .tuner import Tuner

            custom = {}  # method defaults
            args = {**self.overrides, **custom, **kwargs, "mode": "train"}  # highest priority args on the right
            return Tuner(args=args, _callbacks=self.callbacks)(model=self, iterations=iterations)

    def _apply(self, fn) -> "Model":
        """Apply to(), cpu(), cuda(), half(), float() to model tensors that are not parameters or registered buffers."""
        self._check_is_pytorch_model()
        self = super()._apply(fn)  # noqa
        self.predictor = None  # reset predictor as device may have changed
        self.overrides["device"] = self.device  # was str(self.device) i.e. device(type='cuda', index=0) -> 'cuda:0'
        return self

    @property
    def names(self) -> list:
        """
        Retrieves the class names associated with the loaded model.

        This property returns the class names if they are defined in the model. It checks the class names for validity
        using the 'check_class_names' function from the ultralytics.nn.autobackend module.

        Returns:
            (list | None): The class names of the model if available, otherwise None.
        """
        from ultralytics.nn.autobackend import check_class_names

        return check_class_names(self.model.names) if hasattr(self.model, "names") else None

    @property
    def device(self) -> torch.device:
        """
        Retrieves the device on which the model's parameters are allocated.

        This property is used to determine whether the model's parameters are on CPU or GPU. It only applies to models
        that are instances of nn.Module.

        Returns:
            (torch.device | None): The device (CPU/GPU) of the model if it is a PyTorch model, otherwise None.
        """
        return next(self.model.parameters()).device if isinstance(self.model, nn.Module) else None

    @property
    def transforms(self):
        """
        Retrieves the transformations applied to the input data of the loaded model.

        This property returns the transformations if they are defined in the model.

        Returns:
            (object | None): The transform object of the model if available, otherwise None.
        """
        return self.model.transforms if hasattr(self.model, "transforms") else None

    def add_callback(self, event: str, func) -> None:
        """
        Adds a callback function for a specified event.

        This method allows the user to register a custom callback function that is triggered on a specific event during
        model training or inference.

        Args:
            event (str): The name of the event to attach the callback to.
            func (callable): The callback function to be registered.

        Raises:
            ValueError: If the event name is not recognized.
        """
        self.callbacks[event].append(func)

    def clear_callback(self, event: str) -> None:
        """
        Clears all callback functions registered for a specified event.

        This method removes all custom and default callback functions associated with the given event.

        Args:
            event (str): The name of the event for which to clear the callbacks.

        Raises:
            ValueError: If the event name is not recognized.
        """
        self.callbacks[event] = []

    def reset_callbacks(self) -> None:
        """
        Resets all callbacks to their default functions.

        This method reinstates the default callback functions for all events, removing any custom callbacks that were
        added previously.
        """
        for event in callbacks.default_callbacks.keys():
            self.callbacks[event] = [callbacks.default_callbacks[event][0]]

    @staticmethod
    def _reset_ckpt_args(args: dict) -> dict:
        """Reset arguments when loading a PyTorch model."""
        include = {"imgsz", "data", "task", "single_cls"}  # only remember these arguments when loading a PyTorch model
        return {k: v for k, v in args.items() if k in include}

    # def __getattr__(self, attr):
    #    """Raises error if object has no requested attribute."""
    #    name = self.__class__.__name__
    #    raise AttributeError(f"'{name}' object has no attribute '{attr}'. See valid attributes below.\n{self.__doc__}")

    def _smart_load(self, key: str):
        """Load model/trainer/validator/predictor."""
        try:
            return self.task_map[self.task][key]
        except Exception as e:
            name = self.__class__.__name__
            mode = inspect.stack()[1][3]  # get the function name.
            raise NotImplementedError(
                emojis(f"WARNING ⚠️ '{name}' model does not support '{mode}' mode for '{self.task}' task yet.")
            ) from e

    @property
    def task_map(self) -> dict:
        """
        Map head to model, trainer, validator, and predictor classes.

        Returns:
            task_map (dict): The map of model task to mode classes.
        """
        raise NotImplementedError("Please provide task map for your model!")

device: torch.device property

Retrouve l'appareil sur lequel les paramètres du modèle sont attribués.

Cette propriété permet de déterminer si les paramètres du modèle sont sur le processeur ou le GPU. Elle ne s'applique qu'aux modèles qui sont des instances de nn.Module.

Retourne :

Type Description
device | None

Le périphérique (CPU/GPU) du modèle s'il s'agit d'un modèle PyTorch , sinon Aucun.

names: list property

Récupère les noms de classe associés au modèle chargé.

Cette propriété renvoie les noms de classe s'ils sont définis dans le modèle. Elle vérifie la validité des noms de classe en utilisant la fonction 'check_class_names' du module ultralytics.nn.autobackend.

Retourne :

Type Description
list | None

Les noms de classe du modèle s'ils sont disponibles, sinon Aucun.

task_map: dict property

Mapper la tête aux classes de modèles, de formateurs, de validateurs et de prédicteurs.

Retourne :

Nom Type Description
task_map dict

La carte des tâches du modèle aux classes de mode.

transforms property

Récupère les transformations appliquées aux données d'entrée du modèle chargé.

Cette propriété renvoie les transformations si elles sont définies dans le modèle.

Retourne :

Type Description
object | None

L'objet de transformation du modèle s'il est disponible, sinon Aucun.

__call__(source=None, stream=False, **kwargs)

Un alias pour la méthode predict, permettant d'appeler l'instance de modèle.

Cette méthode simplifie le processus de prédiction en permettant d'appeler directement l'instance du modèle avec les arguments nécessaires à la prédiction. avec les arguments nécessaires à la prédiction.

Paramètres :

Nom Type Description DĂ©faut
source str | Path | int | Image | ndarray

La source de l'image pour faire des prédictions. Accepte différents types, notamment les chemins d'accès aux fichiers, les URL, les images PIL et les tableaux numpy. La valeur par défaut est None.

None
stream bool

Si True, traite la source d'entrée comme un flux continu pour les prédictions. La valeur par défaut est False.

False
**kwargs dict

Arguments de mots-clés supplémentaires pour configurer le processus de prédiction.

{}

Retourne :

Type Description
List[Results]

Une liste de résultats de prédiction, encapsulée dans la classe Résultats.

Code source dans ultralytics/engine/model.py
def __call__(
    self,
    source: Union[str, Path, int, list, tuple, np.ndarray, torch.Tensor] = None,
    stream: bool = False,
    **kwargs,
) -> list:
    """
    An alias for the predict method, enabling the model instance to be callable.

    This method simplifies the process of making predictions by allowing the model instance to be called directly
    with the required arguments for prediction.

    Args:
        source (str | Path | int | PIL.Image | np.ndarray, optional): The source of the image for making
            predictions. Accepts various types, including file paths, URLs, PIL images, and numpy arrays.
            Defaults to None.
        stream (bool, optional): If True, treats the input source as a continuous stream for predictions.
            Defaults to False.
        **kwargs (dict): Additional keyword arguments for configuring the prediction process.

    Returns:
        (List[ultralytics.engine.results.Results]): A list of prediction results, encapsulated in the Results class.
    """
    return self.predict(source, stream, **kwargs)

__init__(model='yolov8n.pt', task=None, verbose=False)

Initialise une nouvelle instance de la classe de modèle YOLO .

Ce constructeur met en place le modèle en fonction du chemin ou du nom du modèle fourni. Il gère différents types de sources y compris les fichiers locaux, les modèles Ultralytics HUB et les modèles Triton Server. La méthode initialise plusieurs La méthode initialise plusieurs attributs importants du modèle et le prépare pour des opérations telles que l'entraînement, la prédiction ou l'exportation.

Paramètres :

Nom Type Description DĂ©faut
model Union[str, Path]

Le chemin ou le fichier de modèle à charger ou à créer. Il peut s'agir d'un chemin local, un nom de modèle provenant de Ultralytics HUB , ou un modèle du serveur Triton . La valeur par défaut est 'yolov8n.pt'.

'yolov8n.pt'
task Any

Le type de tâche associé au modèle YOLO , spécifiant son domaine d'application. La valeur par défaut est Aucun.

None
verbose bool

Si True, active la sortie verbale pendant l'initialisation du modèle et les opérations suivantes. ultérieures. La valeur par défaut est False.

False

Augmente :

Type Description
FileNotFoundError

Si le fichier de modèle spécifié n'existe pas ou est inaccessible.

ValueError

Si le fichier de modèle ou la configuration n'est pas valide ou n'est pas pris en charge.

ImportError

Si les dépendances requises pour des types de modèles spécifiques (comme HUB SDK) ne sont pas installées.

Code source dans ultralytics/engine/model.py
def __init__(
    self,
    model: Union[str, Path] = "yolov8n.pt",
    task: str = None,
    verbose: bool = False,
) -> None:
    """
    Initializes a new instance of the YOLO model class.

    This constructor sets up the model based on the provided model path or name. It handles various types of model
    sources, including local files, Ultralytics HUB models, and Triton Server models. The method initializes several
    important attributes of the model and prepares it for operations like training, prediction, or export.

    Args:
        model (Union[str, Path], optional): The path or model file to load or create. This can be a local
            file path, a model name from Ultralytics HUB, or a Triton Server model. Defaults to 'yolov8n.pt'.
        task (Any, optional): The task type associated with the YOLO model, specifying its application domain.
            Defaults to None.
        verbose (bool, optional): If True, enables verbose output during the model's initialization and subsequent
            operations. Defaults to False.

    Raises:
        FileNotFoundError: If the specified model file does not exist or is inaccessible.
        ValueError: If the model file or configuration is invalid or unsupported.
        ImportError: If required dependencies for specific model types (like HUB SDK) are not installed.
    """
    super().__init__()
    self.callbacks = callbacks.get_default_callbacks()
    self.predictor = None  # reuse predictor
    self.model = None  # model object
    self.trainer = None  # trainer object
    self.ckpt = None  # if loaded from *.pt
    self.cfg = None  # if loaded from *.yaml
    self.ckpt_path = None
    self.overrides = {}  # overrides for trainer object
    self.metrics = None  # validation/training metrics
    self.session = None  # HUB session
    self.task = task  # task type
    self.model_name = model = str(model).strip()  # strip spaces

    # Check if Ultralytics HUB model from https://hub.ultralytics.com
    if self.is_hub_model(model):
        # Fetch model from HUB
        checks.check_requirements("hub-sdk>0.0.2")
        self.session = self._get_hub_session(model)
        model = self.session.model_file

    # Check if Triton Server model
    elif self.is_triton_model(model):
        self.model = model
        self.task = task
        return

    # Load or create new YOLO model
    model = checks.check_model_file_from_stem(model)  # add suffix, i.e. yolov8n -> yolov8n.pt
    if Path(model).suffix in (".yaml", ".yml"):
        self._new(model, task=task, verbose=verbose)
    else:
        self._load(model, task=task)

    self.model_name = model

add_callback(event, func)

Ajoute une fonction de rappel pour un événement spécifié.

Cette méthode permet à l'utilisateur d'enregistrer une fonction de rappel personnalisée qui est déclenchée lors d'un événement spécifique pendant la formation ou l'inférence du modèle. l'apprentissage ou l'inférence du modèle.

Paramètres :

Nom Type Description DĂ©faut
event str

Le nom de l'événement auquel attacher le rappel.

requis
func callable

La fonction de rappel Ă  enregistrer.

requis

Augmente :

Type Description
ValueError

Si le nom de l'événement n'est pas reconnu.

Code source dans ultralytics/engine/model.py
def add_callback(self, event: str, func) -> None:
    """
    Adds a callback function for a specified event.

    This method allows the user to register a custom callback function that is triggered on a specific event during
    model training or inference.

    Args:
        event (str): The name of the event to attach the callback to.
        func (callable): The callback function to be registered.

    Raises:
        ValueError: If the event name is not recognized.
    """
    self.callbacks[event].append(func)

benchmark(**kwargs)

Compare le modèle à divers formats d'exportation pour en évaluer les performances.

Cette méthode permet d'évaluer les performances du modèle dans différents formats d'exportation, tels que ONNX, TorchScript, etc. Elle utilise la fonction 'benchmark' du module ultralytics.utils.benchmarks. L'analyse comparative est configurée à l'aide d'une combinaison de valeurs de configuration par défaut, d'arguments spécifiques au modèle, de valeurs par défaut spécifiques à la méthode et de mots-clés supplémentaires fournis par l'utilisateur. tout argument supplémentaire fourni par l'utilisateur.

La méthode prend en charge divers arguments qui permettent de personnaliser le processus d'analyse comparative, tels que le choix de l'ensemble de données, la taille de l'image, les modes de précision et la verbosité. le choix du jeu de données, la taille de l'image, les modes de précision, la sélection du périphérique et la verbosité. Pour obtenir une liste complète de toutes les options configurables, les utilisateurs doivent se référer à la section 'configuration' de la documentation.

Paramètres :

Nom Type Description DĂ©faut
**kwargs dict

Arguments de mots-clés arbitraires pour personnaliser le processus d'analyse comparative. Ces arguments sont combinés avec les configurations par défaut, les arguments spécifiques au modèle et les méthodes par défaut. des configurations par défaut, des arguments spécifiques au modèle et des méthodes par défaut.

{}

Retourne :

Type Description
dict

Un dictionnaire contenant les résultats du processus d'analyse comparative.

Augmente :

Type Description
AssertionError

Si le modèle n'est pas un modèle PyTorch .

Code source dans ultralytics/engine/model.py
def benchmark(
    self,
    **kwargs,
):
    """
    Benchmarks the model across various export formats to evaluate performance.

    This method assesses the model's performance in different export formats, such as ONNX, TorchScript, etc.
    It uses the 'benchmark' function from the ultralytics.utils.benchmarks module. The benchmarking is configured
    using a combination of default configuration values, model-specific arguments, method-specific defaults, and
    any additional user-provided keyword arguments.

    The method supports various arguments that allow customization of the benchmarking process, such as dataset
    choice, image size, precision modes, device selection, and verbosity. For a comprehensive list of all
    configurable options, users should refer to the 'configuration' section in the documentation.

    Args:
        **kwargs (dict): Arbitrary keyword arguments to customize the benchmarking process. These are combined with
            default configurations, model-specific arguments, and method defaults.

    Returns:
        (dict): A dictionary containing the results of the benchmarking process.

    Raises:
        AssertionError: If the model is not a PyTorch model.
    """
    self._check_is_pytorch_model()
    from ultralytics.utils.benchmarks import benchmark

    custom = {"verbose": False}  # method defaults
    args = {**DEFAULT_CFG_DICT, **self.model.args, **custom, **kwargs, "mode": "benchmark"}
    return benchmark(
        model=self,
        data=kwargs.get("data"),  # if no 'data' argument passed set data=None for default datasets
        imgsz=args["imgsz"],
        half=args["half"],
        int8=args["int8"],
        device=args["device"],
        verbose=kwargs.get("verbose"),
    )

clear_callback(event)

Efface toutes les fonctions de rappel enregistrées pour un événement spécifié.

Cette méthode supprime toutes les fonctions de rappel personnalisées et par défaut associées à l'événement donné.

Paramètres :

Nom Type Description DĂ©faut
event str

Le nom de l'événement pour lequel il faut effacer les rappels.

requis

Augmente :

Type Description
ValueError

Si le nom de l'événement n'est pas reconnu.

Code source dans ultralytics/engine/model.py
def clear_callback(self, event: str) -> None:
    """
    Clears all callback functions registered for a specified event.

    This method removes all custom and default callback functions associated with the given event.

    Args:
        event (str): The name of the event for which to clear the callbacks.

    Raises:
        ValueError: If the event name is not recognized.
    """
    self.callbacks[event] = []

embed(source=None, stream=False, **kwargs)

Génère des incrustations d'images en fonction de la source fournie.

Cette méthode est une enveloppe autour de la méthode 'predict()', qui se concentre sur la génération d'encastrements à partir d'une source d'image. Elle permet de personnaliser le processus d'intégration à l'aide de divers arguments de type mot-clé.

Paramètres :

Nom Type Description DĂ©faut
source str | int | Image | ndarray

La source de l'image pour la génération d'incrustations. La source peut être un chemin de fichier, une URL, une image PIL, un tableau numpy, etc. La valeur par défaut est None.

None
stream bool

Si True, les prédictions sont diffusées. La valeur par défaut est False.

False
**kwargs dict

Arguments de mots-clés supplémentaires pour configurer le processus d'intégration.

{}

Retourne :

Type Description
List[Tensor]

Une liste contenant les incrustations de l'image.

Augmente :

Type Description
AssertionError

Si le modèle n'est pas un modèle PyTorch .

Code source dans ultralytics/engine/model.py
def embed(
    self,
    source: Union[str, Path, int, list, tuple, np.ndarray, torch.Tensor] = None,
    stream: bool = False,
    **kwargs,
) -> list:
    """
    Generates image embeddings based on the provided source.

    This method is a wrapper around the 'predict()' method, focusing on generating embeddings from an image source.
    It allows customization of the embedding process through various keyword arguments.

    Args:
        source (str | int | PIL.Image | np.ndarray): The source of the image for generating embeddings.
            The source can be a file path, URL, PIL image, numpy array, etc. Defaults to None.
        stream (bool): If True, predictions are streamed. Defaults to False.
        **kwargs (dict): Additional keyword arguments for configuring the embedding process.

    Returns:
        (List[torch.Tensor]): A list containing the image embeddings.

    Raises:
        AssertionError: If the model is not a PyTorch model.
    """
    if not kwargs.get("embed"):
        kwargs["embed"] = [len(self.model.model) - 2]  # embed second-to-last layer if no indices passed
    return self.predict(source, stream, **kwargs)

export(**kwargs)

Exporte le modèle dans un format différent adapté au déploiement.

Cette méthode facilite l'exportation du modèle vers différents formats (par exemple, ONNX, TorchScript) à des fins de déploiement. déploiement. Elle utilise la classe "Exporter" pour le processus d'exportation, en combinant les dérogations spécifiques au modèle, les valeurs par défaut des méthodes et tout autre argument supplémentaire fourni. et tous les arguments supplémentaires fournis. Les arguments combinés sont utilisés pour configurer les paramètres d'exportation.

La méthode prend en charge un large éventail d'arguments pour personnaliser le processus d'exportation. Pour une liste complète de tous les arguments possibles, reporte-toi à la section 'configuration' de la documentation.

Paramètres :

Nom Type Description DĂ©faut
**kwargs dict

Arguments de mots-clés arbitraires pour personnaliser le processus d'exportation. Ceux-ci sont combinés avec les et les valeurs par défaut des méthodes.

{}

Retourne :

Type Description
object

Le modèle exporté dans le format spécifié, ou un objet lié au processus d'exportation.

Augmente :

Type Description
AssertionError

Si le modèle n'est pas un modèle PyTorch .

Code source dans ultralytics/engine/model.py
def export(
    self,
    **kwargs,
):
    """
    Exports the model to a different format suitable for deployment.

    This method facilitates the export of the model to various formats (e.g., ONNX, TorchScript) for deployment
    purposes. It uses the 'Exporter' class for the export process, combining model-specific overrides, method
    defaults, and any additional arguments provided. The combined arguments are used to configure export settings.

    The method supports a wide range of arguments to customize the export process. For a comprehensive list of all
    possible arguments, refer to the 'configuration' section in the documentation.

    Args:
        **kwargs (dict): Arbitrary keyword arguments to customize the export process. These are combined with the
            model's overrides and method defaults.

    Returns:
        (object): The exported model in the specified format, or an object related to the export process.

    Raises:
        AssertionError: If the model is not a PyTorch model.
    """
    self._check_is_pytorch_model()
    from .exporter import Exporter

    custom = {"imgsz": self.model.args["imgsz"], "batch": 1, "data": None, "verbose": False}  # method defaults
    args = {**self.overrides, **custom, **kwargs, "mode": "export"}  # highest priority args on the right
    return Exporter(overrides=args, _callbacks=self.callbacks)(model=self.model)

fuse()

Fusionne les couches Conv2d et BatchNorm2d dans le modèle.

Cette méthode optimise le modèle en fusionnant les couches Conv2d et BatchNorm2d, ce qui peut améliorer la vitesse d'inférence.

Augmente :

Type Description
AssertionError

Si le modèle n'est pas un modèle PyTorch .

Code source dans ultralytics/engine/model.py
def fuse(self):
    """
    Fuses Conv2d and BatchNorm2d layers in the model.

    This method optimizes the model by fusing Conv2d and BatchNorm2d layers, which can improve inference speed.

    Raises:
        AssertionError: If the model is not a PyTorch model.
    """
    self._check_is_pytorch_model()
    self.model.fuse()

info(detailed=False, verbose=True)

Enregistre ou renvoie les informations sur le modèle.

Cette méthode fournit une vue d'ensemble ou des informations détaillées sur le modèle, en fonction des arguments passés. Elle peut contrôler la verbosité de la sortie.

Paramètres :

Nom Type Description DĂ©faut
detailed bool

Si True, affiche des informations détaillées sur le modèle. La valeur par défaut est False.

False
verbose bool

Si True, imprime les informations. Si False, renvoie les informations. La valeur par défaut est True.

True

Retourne :

Type Description
list

Différents types d'informations sur le modèle, en fonction des paramètres 'détaillé' et 'verbeux'.

Augmente :

Type Description
AssertionError

Si le modèle n'est pas un modèle PyTorch .

Code source dans ultralytics/engine/model.py
def info(self, detailed: bool = False, verbose: bool = True):
    """
    Logs or returns model information.

    This method provides an overview or detailed information about the model, depending on the arguments passed.
    It can control the verbosity of the output.

    Args:
        detailed (bool): If True, shows detailed information about the model. Defaults to False.
        verbose (bool): If True, prints the information. If False, returns the information. Defaults to True.

    Returns:
        (list): Various types of information about the model, depending on the 'detailed' and 'verbose' parameters.

    Raises:
        AssertionError: If the model is not a PyTorch model.
    """
    self._check_is_pytorch_model()
    return self.model.info(detailed=detailed, verbose=verbose)

is_hub_model(model) staticmethod

Vérifie si le modèle fourni est un modèle HUB .

Code source dans ultralytics/engine/model.py
@staticmethod
def is_hub_model(model: str) -> bool:
    """Check if the provided model is a HUB model."""
    return any(
        (
            model.startswith(f"{HUB_WEB_ROOT}/models/"),  # i.e. https://hub.ultralytics.com/models/MODEL_ID
            [len(x) for x in model.split("_")] == [42, 20],  # APIKEY_MODELID
            len(model) == 20 and not Path(model).exists() and all(x not in model for x in "./\\"),  # MODELID
        )
    )

is_triton_model(model) staticmethod

Le modèle est une chaîne d'URL du serveur Triton , c'est-à-dire :////

Code source dans ultralytics/engine/model.py
@staticmethod
def is_triton_model(model: str) -> bool:
    """Is model a Triton Server URL string, i.e. <scheme>://<netloc>/<endpoint>/<task_name>"""
    from urllib.parse import urlsplit

    url = urlsplit(model)
    return url.netloc and url.path and url.scheme in {"http", "grpc"}

load(weights='yolov8n.pt')

Charge les paramètres du fichier de poids spécifié dans le modèle.

Cette méthode permet de charger des poids à partir d'un fichier ou directement à partir d'un objet de poids. Elle fait correspondre les paramètres par nom et forme et les transfère au modèle.

Paramètres :

Nom Type Description DĂ©faut
weights str | Path

Chemin d'accès au fichier de poids ou à un objet de poids. La valeur par défaut est 'yolov8n.pt'.

'yolov8n.pt'

Retourne :

Nom Type Description
self Model

L'instance de la classe avec les poids chargés.

Augmente :

Type Description
AssertionError

Si le modèle n'est pas un modèle PyTorch .

Code source dans ultralytics/engine/model.py
def load(self, weights: Union[str, Path] = "yolov8n.pt") -> "Model":
    """
    Loads parameters from the specified weights file into the model.

    This method supports loading weights from a file or directly from a weights object. It matches parameters by
    name and shape and transfers them to the model.

    Args:
        weights (str | Path): Path to the weights file or a weights object. Defaults to 'yolov8n.pt'.

    Returns:
        self (ultralytics.engine.model.Model): The instance of the class with loaded weights.

    Raises:
        AssertionError: If the model is not a PyTorch model.
    """
    self._check_is_pytorch_model()
    if isinstance(weights, (str, Path)):
        weights, self.ckpt = attempt_load_one_weight(weights)
    self.model.load(weights)
    return self

predict(source=None, stream=False, predictor=None, **kwargs)

Effectue des prédictions sur la source d'image donnée en utilisant le modèle YOLO .

Cette méthode facilite le processus de prédiction, en permettant diverses configurations grâce à des arguments de type mot-clé. Elle prend en charge les prédictions avec des prédicteurs personnalisés ou la méthode de prédiction par défaut. La méthode gère différents types de sources d'images et peut fonctionner en mode continu. Elle prend également en charge les modèles de type SAM par le biais de "prompts".

La méthode met en place un nouveau prédicteur s'il n'est pas déjà présent et met à jour ses arguments à chaque appel. Elle émet également un avertissement et utilise les actifs par défaut si la "source" n'est pas fournie. La méthode détermine si elle est est appelée à partir de l'interface de ligne de commande et ajuste son comportement en conséquence, notamment en fixant des valeurs par défaut pour le seuil de confiance et le comportement de sauvegarde. pour le seuil de confiance et le comportement de sauvegarde.

Paramètres :

Nom Type Description DĂ©faut
source str | int | Image | ndarray

La source de l'image pour faire des prédictions. Accepte différents types, y compris les chemins d'accès aux fichiers, les URL, les images PIL et les tableaux numpy. La valeur par défaut est ASSETS.

None
stream bool

Traite la source d'entrée comme un flux continu pour les prédictions. La valeur par défaut est False.

False
predictor BasePredictor

Une instance d'une classe de prédicteur personnalisée pour faire des prédictions. Si elle est nulle, la méthode utilise un prédicteur par défaut. La valeur par défaut est None.

None
**kwargs dict

Arguments de mots-clés supplémentaires pour configurer le processus de prédiction. Ces arguments permettent de personnaliser davantage le comportement de la prédiction.

{}

Retourne :

Type Description
List[Results]

Une liste de résultats de prédiction, encapsulée dans la classe Résultats.

Augmente :

Type Description
AttributeError

Si le prédicteur n'est pas correctement installé.

Code source dans ultralytics/engine/model.py
def predict(
    self,
    source: Union[str, Path, int, list, tuple, np.ndarray, torch.Tensor] = None,
    stream: bool = False,
    predictor=None,
    **kwargs,
) -> list:
    """
    Performs predictions on the given image source using the YOLO model.

    This method facilitates the prediction process, allowing various configurations through keyword arguments.
    It supports predictions with custom predictors or the default predictor method. The method handles different
    types of image sources and can operate in a streaming mode. It also provides support for SAM-type models
    through 'prompts'.

    The method sets up a new predictor if not already present and updates its arguments with each call.
    It also issues a warning and uses default assets if the 'source' is not provided. The method determines if it
    is being called from the command line interface and adjusts its behavior accordingly, including setting defaults
    for confidence threshold and saving behavior.

    Args:
        source (str | int | PIL.Image | np.ndarray, optional): The source of the image for making predictions.
            Accepts various types, including file paths, URLs, PIL images, and numpy arrays. Defaults to ASSETS.
        stream (bool, optional): Treats the input source as a continuous stream for predictions. Defaults to False.
        predictor (BasePredictor, optional): An instance of a custom predictor class for making predictions.
            If None, the method uses a default predictor. Defaults to None.
        **kwargs (dict): Additional keyword arguments for configuring the prediction process. These arguments allow
            for further customization of the prediction behavior.

    Returns:
        (List[ultralytics.engine.results.Results]): A list of prediction results, encapsulated in the Results class.

    Raises:
        AttributeError: If the predictor is not properly set up.
    """
    if source is None:
        source = ASSETS
        LOGGER.warning(f"WARNING ⚠️ 'source' is missing. Using 'source={source}'.")

    is_cli = (sys.argv[0].endswith("yolo") or sys.argv[0].endswith("ultralytics")) and any(
        x in sys.argv for x in ("predict", "track", "mode=predict", "mode=track")
    )

    custom = {"conf": 0.25, "save": is_cli, "mode": "predict"}  # method defaults
    args = {**self.overrides, **custom, **kwargs}  # highest priority args on the right
    prompts = args.pop("prompts", None)  # for SAM-type models

    if not self.predictor:
        self.predictor = predictor or self._smart_load("predictor")(overrides=args, _callbacks=self.callbacks)
        self.predictor.setup_model(model=self.model, verbose=is_cli)
    else:  # only update args if predictor is already setup
        self.predictor.args = get_cfg(self.predictor.args, args)
        if "project" in args or "name" in args:
            self.predictor.save_dir = get_save_dir(self.predictor.args)
    if prompts and hasattr(self.predictor, "set_prompts"):  # for SAM-type models
        self.predictor.set_prompts(prompts)
    return self.predictor.predict_cli(source=source) if is_cli else self.predictor(source=source, stream=stream)

reset_callbacks()

Réinitialise tous les rappels à leurs fonctions par défaut.

Cette méthode rétablit les fonctions de rappel par défaut pour tous les événements, en supprimant tous les rappels personnalisés qui ont été ajoutés précédemment.

Code source dans ultralytics/engine/model.py
def reset_callbacks(self) -> None:
    """
    Resets all callbacks to their default functions.

    This method reinstates the default callback functions for all events, removing any custom callbacks that were
    added previously.
    """
    for event in callbacks.default_callbacks.keys():
        self.callbacks[event] = [callbacks.default_callbacks[event][0]]

reset_weights()

Réinitialise les paramètres du modèle à des valeurs initialisées de façon aléatoire, ce qui a pour effet d'écarter toutes les informations relatives à la formation.

Cette méthode parcourt tous les modules du modèle et réinitialise leurs paramètres s'ils ont une méthode 'reset_parameters'. Elle s'assure également que tous les paramètres ont la valeur "requires_grad" fixée à True, ce qui leur permet d'être mis à jour pendant la formation. d'être mis à jour pendant la formation.

Retourne :

Nom Type Description
self Model

L'instance de la classe dont les poids ont été réinitialisés.

Augmente :

Type Description
AssertionError

Si le modèle n'est pas un modèle PyTorch .

Code source dans ultralytics/engine/model.py
def reset_weights(self) -> "Model":
    """
    Resets the model parameters to randomly initialized values, effectively discarding all training information.

    This method iterates through all modules in the model and resets their parameters if they have a
    'reset_parameters' method. It also ensures that all parameters have 'requires_grad' set to True, enabling them
    to be updated during training.

    Returns:
        self (ultralytics.engine.model.Model): The instance of the class with reset weights.

    Raises:
        AssertionError: If the model is not a PyTorch model.
    """
    self._check_is_pytorch_model()
    for m in self.model.modules():
        if hasattr(m, "reset_parameters"):
            m.reset_parameters()
    for p in self.model.parameters():
        p.requires_grad = True
    return self

save(filename='saved_model.pt')

Enregistre l'état actuel du modèle dans un fichier.

Cette méthode exporte le point de contrôle du modèle (ckpt) vers le nom de fichier spécifié.

Paramètres :

Nom Type Description DĂ©faut
filename str | Path

Le nom du fichier dans lequel enregistrer le modèle. La valeur par défaut est "modèle_sauvé.pt".

'saved_model.pt'

Augmente :

Type Description
AssertionError

Si le modèle n'est pas un modèle PyTorch .

Code source dans ultralytics/engine/model.py
def save(self, filename: Union[str, Path] = "saved_model.pt") -> None:
    """
    Saves the current model state to a file.

    This method exports the model's checkpoint (ckpt) to the specified filename.

    Args:
        filename (str | Path): The name of the file to save the model to. Defaults to 'saved_model.pt'.

    Raises:
        AssertionError: If the model is not a PyTorch model.
    """
    self._check_is_pytorch_model()
    torch.save(self.ckpt, filename)

track(source=None, stream=False, persist=False, **kwargs)

Effectue un suivi d'objet sur la source d'entrée spécifiée à l'aide des traqueurs enregistrés.

Cette méthode effectue le suivi des objets en utilisant les prédicteurs du modèle et, en option, les traqueurs enregistrés. Elle est capable de gérer différents types de sources d'entrée telles que les chemins d'accès aux fichiers ou les flux vidéo. La méthode prend en charge la personnalisation du processus de suivi grâce à divers arguments de type mot-clé. Elle enregistre les traqueurs s'ils ne sont pas déjà présents et les persiste éventuellement en fonction de l'indicateur 'persist'.

La méthode définit un seuil de confiance par défaut spécifiquement pour le suivi basé sur ByteTrack, qui nécessite des prédictions de faible confiance en entrée. de confiance en tant que données d'entrée. Le mode de suivi est explicitement défini dans les arguments des mots-clés.

Paramètres :

Nom Type Description DĂ©faut
source str

La source d'entrée pour le suivi des objets. Il peut s'agir d'un chemin de fichier, d'une URL ou d'un flux vidéo.

None
stream bool

Traite la source d'entrée comme un flux vidéo continu. La valeur par défaut est False.

False
persist bool

Persiste les traceurs entre les différents appels à cette méthode. La valeur par défaut est False.

False
**kwargs dict

Arguments de mots-clés supplémentaires pour configurer le processus de suivi. Ces arguments permettent de personnaliser davantage le comportement du suivi.

{}

Retourne :

Type Description
List[Results]

Une liste de résultats de suivi, encapsulée dans la classe Résultats.

Augmente :

Type Description
AttributeError

Si le prédicteur n'a pas de traqueurs enregistrés.

Code source dans ultralytics/engine/model.py
def track(
    self,
    source: Union[str, Path, int, list, tuple, np.ndarray, torch.Tensor] = None,
    stream: bool = False,
    persist: bool = False,
    **kwargs,
) -> list:
    """
    Conducts object tracking on the specified input source using the registered trackers.

    This method performs object tracking using the model's predictors and optionally registered trackers. It is
    capable of handling different types of input sources such as file paths or video streams. The method supports
    customization of the tracking process through various keyword arguments. It registers trackers if they are not
    already present and optionally persists them based on the 'persist' flag.

    The method sets a default confidence threshold specifically for ByteTrack-based tracking, which requires low
    confidence predictions as input. The tracking mode is explicitly set in the keyword arguments.

    Args:
        source (str, optional): The input source for object tracking. It can be a file path, URL, or video stream.
        stream (bool, optional): Treats the input source as a continuous video stream. Defaults to False.
        persist (bool, optional): Persists the trackers between different calls to this method. Defaults to False.
        **kwargs (dict): Additional keyword arguments for configuring the tracking process. These arguments allow
            for further customization of the tracking behavior.

    Returns:
        (List[ultralytics.engine.results.Results]): A list of tracking results, encapsulated in the Results class.

    Raises:
        AttributeError: If the predictor does not have registered trackers.
    """
    if not hasattr(self.predictor, "trackers"):
        from ultralytics.trackers import register_tracker

        register_tracker(self, persist)
    kwargs["conf"] = kwargs.get("conf") or 0.1  # ByteTrack-based method needs low confidence predictions as input
    kwargs["mode"] = "track"
    return self.predict(source=source, stream=stream, **kwargs)

train(trainer=None, **kwargs)

Entraîne le modèle à l'aide de l'ensemble de données et de la configuration d'entraînement spécifiés.

Cette méthode facilite la formation des modèles grâce à un éventail de paramètres et de configurations personnalisables. Elle prend en charge la formation avec un formateur personnalisé ou l'approche de formation par défaut définie dans la méthode. La méthode gère différents scénarios, tels que la reprise de la formation à partir d'un point de contrôle, l'intégration à Ultralytics HUB , et la mise à jour du modèle et de la configuration après la formation. la mise à jour du modèle et de la configuration après la formation.

Lors de l'utilisation de Ultralytics HUB , si la session a déjà un modèle chargé, la méthode donne la priorité aux arguments de formation HUB et émet un avertissement si des arguments locaux sont fournis. Elle vérifie les mises à jour de pip et combine les configurations par défaut les valeurs par défaut spécifiques à la méthode et les arguments fournis par l'utilisateur pour configurer le processus d'apprentissage. Après formation, elle met à jour le modèle et ses configurations, et attache éventuellement des métriques.

Paramètres :

Nom Type Description DĂ©faut
trainer BaseTrainer

Une instance d'une classe de formateur personnalisée pour former le modèle. Si elle est nulle, la méthode utilise un formateur par défaut. La valeur par défaut est None.

None
**kwargs dict

Arguments arbitraires de type mot-clé représentant la configuration de l'entraînement. Ces arguments sont utilisés pour personnaliser divers aspects du processus de formation.

{}

Retourne :

Type Description
dict | None

Mesures de formation si elles sont disponibles et si la formation est réussie ; sinon, aucune.

Augmente :

Type Description
AssertionError

Si le modèle n'est pas un modèle PyTorch .

PermissionError

S'il y a un problème de permission avec la session HUB .

ModuleNotFoundError

Si le SDK HUB n'est pas installé.

Code source dans ultralytics/engine/model.py
def train(
    self,
    trainer=None,
    **kwargs,
):
    """
    Trains the model using the specified dataset and training configuration.

    This method facilitates model training with a range of customizable settings and configurations. It supports
    training with a custom trainer or the default training approach defined in the method. The method handles
    different scenarios, such as resuming training from a checkpoint, integrating with Ultralytics HUB, and
    updating model and configuration after training.

    When using Ultralytics HUB, if the session already has a loaded model, the method prioritizes HUB training
    arguments and issues a warning if local arguments are provided. It checks for pip updates and combines default
    configurations, method-specific defaults, and user-provided arguments to configure the training process. After
    training, it updates the model and its configurations, and optionally attaches metrics.

    Args:
        trainer (BaseTrainer, optional): An instance of a custom trainer class for training the model. If None, the
            method uses a default trainer. Defaults to None.
        **kwargs (dict): Arbitrary keyword arguments representing the training configuration. These arguments are
            used to customize various aspects of the training process.

    Returns:
        (dict | None): Training metrics if available and training is successful; otherwise, None.

    Raises:
        AssertionError: If the model is not a PyTorch model.
        PermissionError: If there is a permission issue with the HUB session.
        ModuleNotFoundError: If the HUB SDK is not installed.
    """
    self._check_is_pytorch_model()
    if hasattr(self.session, "model") and self.session.model.id:  # Ultralytics HUB session with loaded model
        if any(kwargs):
            LOGGER.warning("WARNING ⚠️ using HUB training arguments, ignoring local training arguments.")
        kwargs = self.session.train_args  # overwrite kwargs

    checks.check_pip_update_available()

    overrides = yaml_load(checks.check_yaml(kwargs["cfg"])) if kwargs.get("cfg") else self.overrides
    custom = {"data": DEFAULT_CFG_DICT["data"] or TASK2DATA[self.task]}  # method defaults
    args = {**overrides, **custom, **kwargs, "mode": "train"}  # highest priority args on the right
    if args.get("resume"):
        args["resume"] = self.ckpt_path

    self.trainer = (trainer or self._smart_load("trainer"))(overrides=args, _callbacks=self.callbacks)
    if not args.get("resume"):  # manually set model only if not resuming
        self.trainer.model = self.trainer.get_model(weights=self.model if self.ckpt else None, cfg=self.model.yaml)
        self.model = self.trainer.model

        if SETTINGS["hub"] is True and not self.session:
            # Create a model in HUB
            try:
                self.session = self._get_hub_session(self.model_name)
                if self.session:
                    self.session.create_model(args)
                    # Check model was created
                    if not getattr(self.session.model, "id", None):
                        self.session = None
            except (PermissionError, ModuleNotFoundError):
                # Ignore PermissionError and ModuleNotFoundError which indicates hub-sdk not installed
                pass

    self.trainer.hub_session = self.session  # attach optional HUB session
    self.trainer.train()
    # Update model and cfg after training
    if RANK in (-1, 0):
        ckpt = self.trainer.best if self.trainer.best.exists() else self.trainer.last
        self.model, _ = attempt_load_one_weight(ckpt)
        self.overrides = self.model.args
        self.metrics = getattr(self.trainer.validator, "metrics", None)  # TODO: no metrics returned by DDP
    return self.metrics

tune(use_ray=False, iterations=10, *args, **kwargs)

Effectue le réglage des hyperparamètres pour le modèle, avec une option permettant d'utiliser Ray Tune.

Cette méthode prend en charge deux modes de réglage des hyperparamètres : l'utilisation de Ray Tune ou d'une méthode de réglage personnalisée. Lorsque la fonction Ray Tune est activée, elle utilise la fonction 'run_ray_tune' du module ultralytics.utils.tuner. Sinon, il utilise la classe interne 'Tuner' pour l'accord. La méthode combine des arguments par défaut, surchargés et personnalisés pour configurer l'accord. pour configurer le processus de réglage.

Paramètres :

Nom Type Description DĂ©faut
use_ray bool

Si True, utilise Ray Tune pour l'ajustement des hyperparamètres. La valeur par défaut est False.

False
iterations int

Le nombre d'itérations de réglage à effectuer. La valeur par défaut est 10.

10
*args list

Liste d'arguments de longueur variable pour les arguments supplémentaires.

()
**kwargs dict

Arguments de mots-clés arbitraires. Ceux-ci sont combinés avec les dérogations et les valeurs par défaut du modèle.

{}

Retourne :

Type Description
dict

Un dictionnaire contenant les résultats de la recherche d'hyperparamètres.

Augmente :

Type Description
AssertionError

Si le modèle n'est pas un modèle PyTorch .

Code source dans ultralytics/engine/model.py
def tune(
    self,
    use_ray=False,
    iterations=10,
    *args,
    **kwargs,
):
    """
    Conducts hyperparameter tuning for the model, with an option to use Ray Tune.

    This method supports two modes of hyperparameter tuning: using Ray Tune or a custom tuning method.
    When Ray Tune is enabled, it leverages the 'run_ray_tune' function from the ultralytics.utils.tuner module.
    Otherwise, it uses the internal 'Tuner' class for tuning. The method combines default, overridden, and
    custom arguments to configure the tuning process.

    Args:
        use_ray (bool): If True, uses Ray Tune for hyperparameter tuning. Defaults to False.
        iterations (int): The number of tuning iterations to perform. Defaults to 10.
        *args (list): Variable length argument list for additional arguments.
        **kwargs (dict): Arbitrary keyword arguments. These are combined with the model's overrides and defaults.

    Returns:
        (dict): A dictionary containing the results of the hyperparameter search.

    Raises:
        AssertionError: If the model is not a PyTorch model.
    """
    self._check_is_pytorch_model()
    if use_ray:
        from ultralytics.utils.tuner import run_ray_tune

        return run_ray_tune(self, max_samples=iterations, *args, **kwargs)
    else:
        from .tuner import Tuner

        custom = {}  # method defaults
        args = {**self.overrides, **custom, **kwargs, "mode": "train"}  # highest priority args on the right
        return Tuner(args=args, _callbacks=self.callbacks)(model=self, iterations=iterations)

val(validator=None, **kwargs)

Valide le modèle à l'aide d'un ensemble de données et d'une configuration de validation spécifiés.

Cette méthode facilite le processus de validation du modèle, en permettant une gamme de personnalisation par le biais de divers paramètres et configurations. Elle prend en charge la validation avec un validateur personnalisé ou l'approche de validation par défaut. La méthode combine des configurations par défaut, des valeurs par défaut spécifiques à la méthode et des arguments fournis par l'utilisateur pour configurer le processus de validation. le processus de validation. Après la validation, elle met à jour les métriques du modèle avec les résultats obtenus par le validateur. validateur.

La méthode prend en charge divers arguments qui permettent de personnaliser le processus de validation. Pour une liste de toutes les options configurables, les utilisateurs doivent se référer à la section 'configuration' de la documentation.

Paramètres :

Nom Type Description DĂ©faut
validator BaseValidator

Une instance d'une classe de validateur personnalisée pour valider le modèle. Si Aucun, la méthode utilise un validateur par défaut. La valeur par défaut est None.

None
**kwargs dict

Arguments arbitraires de type mot-clé représentant la configuration de la validation. Ces arguments sont utilisés pour personnaliser divers aspects du processus de validation.

{}

Retourne :

Type Description
dict

MĂ©triques de validation obtenues Ă  l'issue du processus de validation.

Augmente :

Type Description
AssertionError

Si le modèle n'est pas un modèle PyTorch .

Code source dans ultralytics/engine/model.py
def val(
    self,
    validator=None,
    **kwargs,
):
    """
    Validates the model using a specified dataset and validation configuration.

    This method facilitates the model validation process, allowing for a range of customization through various
    settings and configurations. It supports validation with a custom validator or the default validation approach.
    The method combines default configurations, method-specific defaults, and user-provided arguments to configure
    the validation process. After validation, it updates the model's metrics with the results obtained from the
    validator.

    The method supports various arguments that allow customization of the validation process. For a comprehensive
    list of all configurable options, users should refer to the 'configuration' section in the documentation.

    Args:
        validator (BaseValidator, optional): An instance of a custom validator class for validating the model. If
            None, the method uses a default validator. Defaults to None.
        **kwargs (dict): Arbitrary keyword arguments representing the validation configuration. These arguments are
            used to customize various aspects of the validation process.

    Returns:
        (dict): Validation metrics obtained from the validation process.

    Raises:
        AssertionError: If the model is not a PyTorch model.
    """
    custom = {"rect": True}  # method defaults
    args = {**self.overrides, **custom, **kwargs, "mode": "val"}  # highest priority args on the right

    validator = (validator or self._smart_load("validator"))(args=args, _callbacks=self.callbacks)
    validator(model=self.model)
    self.metrics = validator.metrics
    return validator.metrics





Créé le 2023-11-12, Mis à jour le 2023-11-25
Auteurs : glenn-jocher (3)