Vai al contenuto

Modelli supportati da Ultralytics

Benvenuti nella documentazione del modello di Ultralytics! Offriamo supporto per una vasta gamma di modelli, ognuno dei quali è adattato a compiti specifici come il rilevamento di oggetti, la segmentazione di istanze, la classificazione di immagini, la stima della posa e il tracciamento multi-oggetto. Se sei interessato a contribuire con la tua architettura di modello a Ultralytics, consulta la nostra Guida per i contributi.

Grafici comparativi di Ultralytics YOLO11

Ecco alcuni dei modelli chiave supportati:

  1. YOLOv3: La terza iterazione della famiglia di modelli YOLO, originariamente di Joseph Redmon, nota per le sue efficienti capacità di rilevamento di oggetti in tempo reale.
  2. YOLOv4: Un aggiornamento nativo di darknet a YOLOv3, rilasciato da Alexey Bochkovskiy nel 2020.
  3. YOLOv5: Una versione migliorata dell'architettura YOLO di Ultralytics, che offre migliori compromessi tra prestazioni e velocità rispetto alle versioni precedenti.
  4. YOLOv6: Rilasciato da Meituan nel 2022 e utilizzato in molti robot di consegna autonomi dell'azienda.
  5. YOLOv7: Modelli YOLO aggiornati rilasciati nel 2022 dagli autori di YOLOv4. È supportata solo l'inferenza.
  6. YOLOv8: Un modello versatile con funzionalità avanzate come la segmentazione di istanze, la stima di pose/punti chiave e la classificazione.
  7. YOLOv9: Un modello sperimentale addestrato sul codice base YOLOv5 di Ultralytics che implementa il Programmable Gradient Information (PGI).
  8. YOLOv10: Sviluppato dalla Tsinghua University, presenta un addestramento senza NMS e un'architettura guidata dall'efficienza e dalla precisione, offrendo prestazioni e latenza all'avanguardia.
  9. YOLO11 🚀 NOVITÀ: Gli ultimi modelli YOLO di Ultralytics che offrono prestazioni all'avanguardia (SOTA) in molteplici attività, tra cui rilevamento, segmentazione, stima della posa, tracking e classificazione.
  10. Segment Anything Model (SAM): Il Segment Anything Model (SAM) originale di Meta.
  11. Segment Anything Model 2 (SAM2): La nuova generazione del Segment Anything Model (SAM) di Meta per video e immagini.
  12. Mobile Segment Anything Model (MobileSAM): MobileSAM per applicazioni mobili, sviluppato dalla Kyung Hee University.
  13. Fast Segment Anything Model (FastSAM): FastSAM sviluppato da Image & Video Analysis Group, Institute of Automation, Chinese Academy of Sciences.
  14. YOLO-NAS: Modelli YOLO Neural Architecture Search (NAS).
  15. Realtime Detection Transformers (RT-DETR): Modelli Transformer (RT-DETR) di Baidu PaddlePaddle Realtime Detection.
  16. YOLO-World: Modelli di rilevamento oggetti a vocabolario aperto in tempo reale di Tencent AI Lab.
  17. YOLOE: Un rilevatore di oggetti a vocabolario aperto migliorato che mantiene le prestazioni in tempo reale di YOLO rilevando classi arbitrarie al di là dei suoi dati di addestramento.



Guarda: Esegui i modelli Ultralytics YOLO con poche righe di codice.

Introduzione: esempi di utilizzo

Questo esempio fornisce semplici esempi di addestramento e inferenza YOLO. Per la documentazione completa su questi e altri modi, consultare le pagine della documentazione di Predict, Train, Val ed Export.

Si noti che l'esempio seguente si riferisce ai modelli YOLOv8 Detect per il rilevamento di oggetti. Per ulteriori attività supportate, consultare la documentazione relativa a Segment, Classify e Pose.

Esempio

PyTorch pre-addestrato *.pt modelli, così come la configurazione *.yaml file possono essere passati alla YOLO(), SAM(), NAS() e RTDETR() classi per creare un'istanza del modello in python:

from ultralytics import YOLO

# Load a COCO-pretrained YOLOv8n model
model = YOLO("yolov8n.pt")

# Display model information (optional)
model.info()

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference with the YOLOv8n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")

Sono disponibili comandi CLI per eseguire direttamente i modelli:

# Load a COCO-pretrained YOLOv8n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640

# Load a COCO-pretrained YOLOv8n model and run inference on the 'bus.jpg' image
yolo predict model=yolov8n.pt source=path/to/bus.jpg

Contributo di nuovi modelli

Sei interessato a contribuire con il tuo modello a Ultralytics? Ottimo! Siamo sempre aperti ad ampliare il nostro portafoglio di modelli.

  1. Fork del Repository: Inizia effettuando il fork del repository GitHub di Ultralytics.

  2. Clona il tuo Fork: Clona il tuo fork sulla tua macchina locale e crea un nuovo branch su cui lavorare.

  3. Implementa il tuo Modello: Aggiungi il tuo modello seguendo gli standard di codifica e le linee guida fornite nella nostra Guida per i Contributori.

  4. Test Approfonditi: Assicurati di testare a fondo il tuo modello, sia isolatamente che come parte della pipeline.

  5. Crea una Pull Request: Una volta che sei soddisfatto del tuo modello, crea una pull request al repository principale per la revisione.

  6. Revisione del Codice e Unione: Dopo la revisione, se il tuo modello soddisfa i nostri criteri, verrà unito nel repository principale.

Per passaggi dettagliati, consulta la nostra Guida per i Contributori.

FAQ

Quali sono i principali vantaggi dell'utilizzo di Ultralytics YOLO11 per il rilevamento di oggetti?

Ultralytics YOLO11 offre funzionalità avanzate come il rilevamento di oggetti in tempo reale, la segmentazione delle istanze, la stima della posa e la classificazione. La sua architettura ottimizzata garantisce prestazioni ad alta velocità senza sacrificare l'accuratezza, rendendolo ideale per una varietà di applicazioni in diversi settori dell'IA. YOLO11 si basa sulle versioni precedenti con prestazioni migliorate e funzionalità aggiuntive, come descritto nella pagina di documentazione di YOLO11.

Come posso addestrare un modello YOLO su dati personalizzati?

L'addestramento di un modello YOLO su dati personalizzati può essere facilmente realizzato utilizzando le librerie di Ultralytics. Ecco un rapido esempio:

Esempio

from ultralytics import YOLO

# Load a YOLO model
model = YOLO("yolo11n.pt")  # or any other YOLO model

# Train the model on custom dataset
results = model.train(data="custom_data.yaml", epochs=100, imgsz=640)
yolo train model=yolo11n.pt data='custom_data.yaml' epochs=100 imgsz=640

Per istruzioni più dettagliate, visita la pagina di documentazione Train.

Quali versioni di YOLO sono supportate da Ultralytics?

Ultralytics supporta una gamma completa di versioni YOLO (You Only Look Once) da YOLOv3 a YOLO11, insieme a modelli come YOLO-NAS, SAM e RT-DETR. Ogni versione è ottimizzata per varie attività come il rilevamento, la segmentazione e la classificazione. Per informazioni dettagliate su ciascun modello, consultare la documentazione Modelli supportati da Ultralytics.

Perché dovrei usare Ultralytics HUB per progetti di machine learning?

Ultralytics HUB fornisce una piattaforma end-to-end senza codice per l'addestramento, la distribuzione e la gestione di modelli YOLO. Semplifica flussi di lavoro complessi, consentendo agli utenti di concentrarsi sulle prestazioni del modello e sull'applicazione. HUB offre anche funzionalità di addestramento nel cloud, gestione completa dei dataset e interfacce intuitive sia per i principianti che per gli sviluppatori esperti.

Quali tipi di attività può eseguire YOLO11 e come si confronta con altre versioni di YOLO?

YOLO11 è un modello versatile in grado di eseguire attività tra cui il rilevamento di oggetti, la segmentazione di istanze, la classificazione e la stima della posa. Rispetto alle versioni precedenti, YOLO11 offre miglioramenti significativi in termini di velocità e precisione grazie alla sua architettura ottimizzata e al design anchor-free. Per un confronto più approfondito, fare riferimento alla documentazione di YOLO11 e alle pagine delle attività per maggiori dettagli su attività specifiche.



📅 Creato 1 anno fa ✏️ Aggiornato 3 mesi fa

Commenti