Vai al contenuto

Modelli supportati da Ultralytics

Benvenuti nella documentazione sui modelli di Ultralytics! Offriamo il supporto per un'ampia gamma di modelli, ognuno dei quali è adatto a compiti specifici come il rilevamento di oggetti, la segmentazione di istanze, la classificazione di immagini, la stima della posa e il tracciamento di più oggetti. Se siete interessati a contribuire con la vostra architettura di modello a Ultralytics, consultate la nostra Guida alla contribuzione.

Ultralytics YOLO11 Grafici di confronto

Ecco alcuni dei principali modelli supportati:

  1. YOLOv3: La terza iterazione della famiglia di modelli YOLO , originaria di Joseph Redmon, nota per le sue efficienti capacità di rilevamento degli oggetti in tempo reale.
  2. YOLOv4: Un aggiornamento darknet-nativo di YOLOv3, rilasciato da Alexey Bochkovskiy nel 2020.
  3. YOLOv5: Una versione migliorata dell'architettura YOLO di Ultralytics, che offre migliori prestazioni e compromessi di velocità rispetto alle versioni precedenti.
  4. YOLOv6: Rilasciato da Meituan nel 2022 e utilizzato in molti robot di consegna autonomi dell'azienda.
  5. YOLOv7: Modelli aggiornati di YOLO rilasciati nel 2022 dagli autori di YOLOv4.
  6. YOLOv8: L'ultima versione della famiglia YOLO , con funzionalità migliorate come la segmentazione delle istanze, la stima di pose e punti chiave e la classificazione.
  7. YOLOv9: Un modello sperimentale addestrato sulla Ultralytics YOLOv5 codice che implementa la Programmable Gradient Information (PGI).
  8. YOLOv10: dell'Università Tsinghua, caratterizzato da una formazione senza NMS e da un'architettura orientata all'efficienza e alla precisione, che offre prestazioni e latenza all'avanguardia.
  9. YOLO11 🚀 NUOVO: Ultralytics' ultimi modelli di YOLO che offrono prestazioni all'avanguardia (SOTA) in molteplici attività.
  10. Segmento Qualsiasi Modello (SAM): Il modello Segment Anything originale di Meta (SAM).
  11. Segmento Qualsiasi Modello 2 (SAM2): La nuova generazione del Segment Anything Model di Meta (SAM) per video e immagini.
  12. Mobile Segment Anything Model (MobileSAM): MobileSAM per le applicazioni mobili, dell'Università Kyung Hee.
  13. Modello di segmentazione veloce (FastSAM): FastSAM dal Gruppo di analisi delle immagini e dei video, Istituto di automazione, Accademia cinese delle scienze.
  14. YOLO-NAS: YOLO Modelli di ricerca di architetture neurali (NAS).
  15. Trasformatori di rilevamento in tempo reale (RT-DETR): Modelli di trasformatori di rilevamento in tempo reale PaddlePaddle di Baidu (RT-DETR).
  16. YOLO-Mondo: Modelli di rilevamento di oggetti a vocabolario aperto in tempo reale del Tencent AI Lab.



Guarda: Eseguite i modelli di Ultralytics YOLO con poche righe di codice.

Per iniziare: Esempi di utilizzo

Questo esempio fornisce semplici esempi di addestramento e inferenza su YOLO . Per una documentazione completa su queste e altre modalità, consultare le pagine dei documenti Predict, Train, Val ed Export.

Si noti che l'esempio seguente riguarda i modelli YOLOv8 Detect per il rilevamento degli oggetti. Per altri compiti supportati, vedere i documenti Segment, Classify e Pose.

Esempio

PyTorch preaddestrato *.pt modelli e la configurazione *.yaml possono essere passati al metodo YOLO(), SAM(), NAS() e RTDETR() per creare un'istanza del modello in Python:

from ultralytics import YOLO

# Load a COCO-pretrained YOLOv8n model
model = YOLO("yolov8n.pt")

# Display model information (optional)
model.info()

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference with the YOLOv8n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")

CLI sono disponibili per eseguire direttamente i modelli:

# Load a COCO-pretrained YOLOv8n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640

# Load a COCO-pretrained YOLOv8n model and run inference on the 'bus.jpg' image
yolo predict model=yolov8n.pt source=path/to/bus.jpg

Contribuire con nuovi modelli

Sei interessato a contribuire con il tuo modello a Ultralytics? Ottimo! Siamo sempre aperti ad ampliare il nostro portfolio di modelli.

  1. Creare un fork del repository: Iniziare con il fork del repository GitHub Ultralytics .

  2. Clonare il fork: clonare il fork sulla propria macchina locale e creare un nuovo ramo su cui lavorare.

  3. Implementare il modello: Aggiungete il vostro modello seguendo gli standard di codifica e le linee guida fornite nella nostra Guida al contributo.

  4. Testare accuratamente: Assicuratevi di testare rigorosamente il vostro modello, sia isolatamente che come parte della pipeline.

  5. Creare una richiesta di pull: Una volta soddisfatti del modello, creare una richiesta di pull al repository principale per la revisione.

  6. Revisione e fusione del codice: Dopo la revisione, se il modello soddisfa i nostri criteri, verrà unito al repository principale.

Per i passi dettagliati, consultate la nostra Guida alla contribuzione.

FAQ

Quali sono i principali vantaggi dell'utilizzo di Ultralytics YOLOv8 per il rilevamento degli oggetti?

Ultralytics YOLOv8 offre funzionalità avanzate come il rilevamento degli oggetti in tempo reale, la segmentazione delle istanze, la stima della posa e la classificazione. La sua architettura ottimizzata garantisce prestazioni ad alta velocità senza sacrificare l'accuratezza, rendendolo ideale per una varietà di applicazioni. YOLOv8 include anche la compatibilità integrata con i più diffusi set di dati e modelli, come descritto nella pagina di documentazioneYOLOv8 .

Come posso addestrare un modello YOLOv8 su dati personalizzati?

L'addestramento di un modello YOLOv8 su dati personalizzati può essere facilmente realizzato utilizzando le librerie Ultralytics'. Ecco un rapido esempio:

Esempio

from ultralytics import YOLO

# Load a YOLOv8n model
model = YOLO("yolov8n.pt")

# Train the model on custom dataset
results = model.train(data="custom_data.yaml", epochs=100, imgsz=640)
yolo train model=yolov8n.pt data='custom_data.yaml' epochs=100 imgsz=640

Per istruzioni più dettagliate, visitate la pagina di documentazione di Train.

Quali versioni di YOLO sono supportate da Ultralytics?

Ultralytics supporta una gamma completa di versioni di YOLO (You Only Look Once) da YOLOv3 a YOLOv10, insieme a modelli come NAS, SAM e RT-DETR. Ogni versione è ottimizzata per vari compiti, come il rilevamento, la segmentazione e la classificazione. Per informazioni dettagliate su ciascun modello, consultare la documentazione sui modelli supportati da Ultralytics.

Perché dovrei usare Ultralytics HUB per i progetti di apprendimento automatico?

Ultralytics HUB offre una piattaforma end-to-end senza codice per la formazione, la distribuzione e la gestione dei modelli YOLO . Semplifica i flussi di lavoro complessi, consentendo agli utenti di concentrarsi sulle prestazioni e sull'applicazione dei modelli. L'HUB offre anche funzionalità di formazione nel cloud, gestione completa dei set di dati e interfacce di facile utilizzo. Per saperne di più, visitate la pagina di documentazione di Ultralytics HUB.

Quali tipi di attività può svolgere YOLOv8 e come si colloca rispetto alle altre versioni di YOLO ?

YOLOv8 è un modello versatile in grado di eseguire compiti quali il rilevamento di oggetti, la segmentazione di istanze, la classificazione e la stima della posa. Rispetto alle versioni precedenti, come YOLOv3 e YOLOv4, YOLOv8 offre miglioramenti significativi in termini di velocità e precisione grazie alla sua architettura ottimizzata. Per un confronto più approfondito, consultare la documentazione diYOLOv8 e le pagine dei compiti per maggiori dettagli su compiti specifici.

📅C reato 1 anno fa ✏️ Aggiornato 1 mese fa

Commenti