Set di dati Fashion-MNIST
Il dataset Fashion-MNIST è un database di immagini di articoli di Zalando, composto da un training set di 60.000 esempi e da un test set di 10.000 esempi. Ogni esempio è un'immagine in scala di grigi 28x28, associata a un'etichetta di 10 classi. Fashion-MNIST è destinato a sostituire direttamente il dataset MNIST originale per il benchmarking degli algoritmi di apprendimento automatico.
Guarda: Come fare Classificazione delle immagini sul dataset Fashion MNIST utilizzando Ultralytics YOLO11
Caratteristiche principali
- Fashion-MNIST contiene 60.000 immagini di addestramento e 10.000 immagini di test di articoli di Zalando.
- Il set di dati comprende immagini in scala di grigi di dimensioni 28x28 pixel.
- A ogni pixel è associato un singolo valore pixel, che indica la luminosità o l'oscurità di quel pixel, con numeri più alti che significano più scuro. Questo valore di pixel è un numero intero compreso tra 0 e 255.
- Fashion-MNIST è ampiamente utilizzato per l'addestramento e il test nel campo dell'apprendimento automatico, in particolare per i compiti di classificazione delle immagini.
Struttura del set di dati
Il set di dati Fashion-MNIST è suddiviso in due sottoinsiemi:
- Set di allenamento: Questo sottoinsieme contiene 60.000 immagini utilizzate per l'addestramento dei modelli di apprendimento automatico.
- Set di test: Questo sottoinsieme è composto da 10.000 immagini utilizzate per testare e confrontare i modelli addestrati.
Etichette
Ogni esempio di addestramento e di test viene assegnato a una delle seguenti etichette:
- T-shirt/top
- Pantaloni
- Pullover
- Abito
- Cappotto
- Sandalo
- Camicia
- Sneaker
- Borsa
- Stivaletto
Applicazioni
Il dataset Fashion-MNIST è ampiamente utilizzato per l'addestramento e la valutazione di modelli di deep learning in compiti di classificazione di immagini, come le reti neurali convoluzionali (CNN), le macchine a vettori di supporto (SVM) e vari altri algoritmi di apprendimento automatico. Il formato semplice e ben strutturato del dataset lo rende una risorsa essenziale per ricercatori e professionisti nel campo dell'apprendimento automatico e della visione artificiale.
Utilizzo
Per addestrare un modello CNN sul dataset Fashion-MNIST per 100 epoche con un'immagine di dimensioni 28x28, è possibile utilizzare i seguenti frammenti di codice. Per un elenco completo degli argomenti disponibili, consultare la pagina di addestramento del modello.
Esempio di treno
Immagini di esempio e annotazioni
Il dataset Fashion-MNIST contiene immagini in scala di grigi di articoli di Zalando, fornendo un dataset ben strutturato per compiti di classificazione delle immagini. Ecco alcuni esempi di immagini tratte dal dataset:
L'esempio mostra la varietà e la complessità delle immagini presenti nel dataset Fashion-MNIST, evidenziando l'importanza di un dataset diversificato per l'addestramento di modelli di classificazione delle immagini robusti.
Ringraziamenti
Se utilizzate il dataset Fashion-MNIST nel vostro lavoro di ricerca o sviluppo, siete pregati di riconoscere il dataset collegandovi al repository GitHub. Questo set di dati è stato reso disponibile da Zalando Research.
FAQ
Che cos'è il dataset Fashion-MNIST e in che modo è diverso da MNIST?
Il dataset Fashion-MNIST è una raccolta di 70.000 immagini in scala di grigi di articoli di Zalando, intesa come sostituzione moderna del dataset MNIST originale. Serve come benchmark per i modelli di apprendimento automatico nel contesto dei compiti di classificazione delle immagini. A differenza di MNIST, che contiene cifre scritte a mano, Fashion-MNIST è costituito da immagini di 28x28 pixel classificate in 10 classi relative alla moda, come T-shirt/top, pantaloni e stivaletti.
Come posso addestrare un modello YOLO sul dataset Fashion-MNIST?
Per addestrare un modello Ultralytics YOLO sul dataset Fashion-MNIST, è possibile utilizzare entrambi i comandi Python e CLI . Ecco un rapido esempio per iniziare:
Esempio di treno
Per i parametri di formazione più dettagliati, consultare la pagina Formazione.
Perché dovrei usare il dataset Fashion-MNIST per il benchmarking dei miei modelli di apprendimento automatico?
Il dataset Fashion-MNIST è ampiamente riconosciuto nella comunità del deep learning come una solida alternativa a MNIST. Offre un insieme di immagini più complesso e vario, che lo rende una scelta eccellente per il benchmarking dei modelli di classificazione delle immagini. La struttura del dataset, che comprende 60.000 immagini di addestramento e 10.000 immagini di test, ciascuna etichettata con una delle 10 classi, lo rende ideale per valutare le prestazioni di diversi algoritmi di apprendimento automatico in un contesto più impegnativo.
È possibile utilizzare Ultralytics YOLO per compiti di classificazione delle immagini come Fashion-MNIST?
Sì, i modelli di Ultralytics YOLO possono essere utilizzati per compiti di classificazione delle immagini, compresi quelli che riguardano il dataset Fashion-MNIST. YOLO11 Il modello di classificazione delle immagini, ad esempio, supporta diverse attività di visione, come il rilevamento, la segmentazione e la classificazione. Per iniziare a svolgere attività di classificazione delle immagini, consultare la pagina Classificazione.
Quali sono le caratteristiche principali e la struttura del dataset Fashion-MNIST?
Il dataset Fashion-MNIST è suddiviso in due sottoinsiemi principali: 60.000 immagini di addestramento e 10.000 immagini di test. Ogni immagine è un'immagine in scala di grigi di 28x28 pixel che rappresenta una delle 10 classi relative alla moda. La semplicità e il formato ben strutturato lo rendono ideale per l'addestramento e la valutazione di modelli in attività di machine learning e computer vision. Per maggiori dettagli sulla struttura del dataset, consultare la sezione Struttura del dataset.
Come posso riconoscere l'uso del dataset Fashion-MNIST nella mia ricerca?
Se si utilizza il set di dati Fashion-MNIST nei propri progetti di ricerca o sviluppo, è importante riconoscerlo collegandosi al repository GitHub. Questo aiuta ad attribuire i dati a Zalando Research, che li ha resi disponibili per l'uso pubblico.