Vai al contenuto

Casa

Introducing Ultralytics YOLO11, the latest version of the acclaimed real-time object detection and image segmentation model. YOLO11 is built on cutting-edge advancements in deep learning and computer vision, offering unparalleled performance in terms of speed and accuracy. Its streamlined design makes it suitable for various applications and easily adaptable to different hardware platforms, from edge devices to cloud APIs.

Explore the Ultralytics Docs, a comprehensive resource designed to help you understand and utilize its features and capabilities. Whether you are a seasoned machine learning practitioner or new to the field, this hub aims to maximize YOLO's potential in your projects


Ultralytics GitHubspazioUltralytics LinkedInspazioUltralytics TwitterspazioUltralytics YouTubespazioUltralytics TikTokspazioUltralytics BiliBilispazioUltralytics Discordia

Da dove iniziare

  •   Come iniziare


    Installa ultralytics with pip and get up and running in minutes to train a YOLO model


    Avvio rapido

  •   Prevedere


    Predict on new images, videos and streams with YOLO
     


    Learn more

  •   Addestrare un modello


    Train a new YOLO model on your own custom dataset from scratch or load and train on a pretrained model


    Learn more

  •   Esplora i compiti


    Discover YOLO tasks like detect, segment, classify, pose, OBB and track
     


    Esplora i compiti

  • 🚀   Explore YOLO11 NEW


    Discover Ultralytics' latest state-of-the-art YOLO11 models and their capabilities
     


    YOLO11 Models 🚀 NEW

  •   Open Source, AGPL-3.0


    Ultralytics offers two licensing options for YOLO: AGPL-3.0 License and Enterprise License. Ultralytics is available on GitHub


    Licenza



Guarda: How to Train a YOLO model on Your Custom Dataset in Google Colab.

YOLO: Una breve storia

YOLO (You Only Look Once), a popular object detection and image segmentation model, was developed by Joseph Redmon and Ali Farhadi at the University of Washington. Launched in 2015, YOLO quickly gained popularity for its high speed and accuracy.

  • YOLOv2, rilasciato nel 2016, ha migliorato il modello originale incorporando la normalizzazione dei lotti, le caselle di ancoraggio e i cluster di dimensioni.
  • YOLOv3, lanciato nel 2018, ha migliorato ulteriormente le prestazioni del modello utilizzando una rete dorsale più efficiente, ancore multiple e il pooling della piramide spaziale.
  • YOLOv4 was released in 2020, introducing innovations like Mosaic data augmentation, a new anchor-free detection head, and a new loss function.
  • YOLOv5 ha migliorato ulteriormente le prestazioni del modello e ha aggiunto nuove funzionalità come l'ottimizzazione degli iperparametri, il monitoraggio integrato degli esperimenti e l'esportazione automatica nei formati più diffusi.
  • YOLOv6 è stato reso disponibile da Meituan nel 2022 ed è in uso in molti dei robot di consegna autonomi dell'azienda.
  • YOLOv7 ha aggiunto ulteriori compiti come la stima della posa sul set di dati COCO keypoints.
  • YOLOv8 released in 2023 by Ultralytics. YOLOv8 introduced new features and improvements for enhanced performance, flexibility, and efficiency, supporting a full range of vision AI tasks,
  • YOLOv9 introduce metodi innovativi come il Programmable Gradient Information (PGI) e il Generalized Efficient Layer Aggregation Network (GELAN).
  • YOLOv10 è stato creato dai ricercatori dell'Università Tsinghua utilizzando il pacchetto Ultralytics Python pacchetto. Questa versione offre progressi nel rilevamento degli oggetti in tempo reale grazie all'introduzione di una testa End-to-End che elimina i requisiti di Soppressione Non Massima (NMS).
  • YOLO11 🚀 NEW: Ultralytics' latest YOLO models delivering state-of-the-art (SOTA) performance across multiple tasks, including detection, segmentation, pose estimation, tracking, and classification, leverage capabilities across diverse AI applications and domains.

YOLO Licenze: Come viene rilasciata la licenza a Ultralytics YOLO ?

Ultralytics offre due opzioni di licenza per adattarsi a diversi casi d'uso:

  • AGPL-3.0 Licenza: Questa licenza open-source approvata da OSI è ideale per gli studenti e gli appassionati, in quanto promuove la collaborazione aperta e la condivisione delle conoscenze. Per maggiori dettagli, consulta il file LICENZA.
  • Licenza Enterprise: Progettata per uso commerciale, questa licenza permette di integrare perfettamente il software Ultralytics e i modelli di intelligenza artificiale in beni e servizi commerciali, aggirando i requisiti open-source di AGPL-3.0. Se il tuo scenario prevede l'integrazione delle nostre soluzioni in un'offerta commerciale, contattaci tramite Ultralytics Licensing.

La nostra strategia di concessione delle licenze è pensata per garantire che tutti i miglioramenti apportati ai nostri progetti open-source siano restituiti alla comunità. I principi dell'open source ci stanno a cuore ❤️ e la nostra missione è garantire che i nostri contributi possano essere utilizzati e ampliati in modo vantaggioso per tutti.

DOMANDE FREQUENTI

Cos'è Ultralytics YOLO e come migliora il rilevamento degli oggetti?

Ultralytics YOLO is the latest advancement in the acclaimed YOLO (You Only Look Once) series for real-time object detection and image segmentation. It builds on previous versions by introducing new features and improvements for enhanced performance, flexibility, and efficiency. YOLO supports various vision AI tasks such as detection, segmentation, pose estimation, tracking, and classification. Its state-of-the-art architecture ensures superior speed and accuracy, making it suitable for diverse applications, including edge devices and cloud APIs.

Come posso iniziare l'installazione e la configurazione di YOLO ?

Getting started with YOLO is quick and straightforward. You can install the Ultralytics package using pip and get up and running in minutes. Here's a basic installation command:

Installation using pip

pip install ultralytics

Per una guida completa passo-passo, visita la nostra guida rapida. Questa risorsa ti aiuterà con le istruzioni per l'installazione, la configurazione iniziale e l'esecuzione del tuo primo modello.

Come posso addestrare un modello personalizzato di YOLO sul mio set di dati?

L'addestramento di un modello personalizzato di YOLO sul tuo set di dati comporta alcuni passaggi dettagliati:

  1. Prepara il tuo set di dati annotati.
  2. Configura i parametri di allenamento in un file YAML.
  3. Usa il tasto yolo TASK train command to start training. (Each TASK has its own argument)

Here's example code for the Object Detection Task:

Train Example for Object Detection Task

from ultralytics import YOLO

# Load a pre-trained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo11n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo detect train data=path/to/dataset.yaml epochs=100 imgsz=640

Per un'analisi dettagliata, consulta la nostra guida Addestrare un modello, che include esempi e consigli per ottimizzare il processo di formazione.

Quali sono le opzioni di licenza disponibili per Ultralytics YOLO ?

Ultralytics offre due opzioni di licenza per YOLO:

  • AGPL-3.0 Licenza: Questa licenza open-source è ideale per l'uso educativo e non commerciale e promuove la collaborazione aperta.
  • Licenza Enterprise: Questa licenza è pensata per le applicazioni commerciali e consente una perfetta integrazione del software Ultralytics nei prodotti commerciali senza le restrizioni della licenza AGPL-3.0 .

Per maggiori dettagli, visita la pagina delle licenze.

In che modo Ultralytics YOLO può essere utilizzato per il tracciamento di oggetti in tempo reale?

Ultralytics YOLO supporta il tracciamento efficiente e personalizzabile di più oggetti. Per utilizzare le funzionalità di tracciamento, puoi utilizzare l'opzione yolo track come mostrato di seguito:

Example for Object Tracking on a Video

from ultralytics import YOLO

# Load a pre-trained YOLO model
model = YOLO("yolo11n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4

Per una guida dettagliata sull'impostazione e l'esecuzione del tracciamento degli oggetti, consulta la nostra documentazione sulla modalità di tracciamento, che spiega la configurazione e le applicazioni pratiche in scenari in tempo reale.

📅 Created 11 months ago ✏️ Updated 2 days ago

Commenti