Zum Inhalt springen

HomeObjects-3K Datensatz

HomeObjects-3K Datensatz in Colab

Der HomeObjects-3K-Datensatz ist eine kuratierte Sammlung von Bildern gängiger Haushaltsgegenstände, die für das Training, Testen und Benchmarking von Computer Vision-Modellen entwickelt wurde. Mit ~3.000 Bildern und 12 verschiedenen Objektklassen ist dieser Datensatz ideal für Forschung und Anwendungen in den Bereichen Indoor-Szenenverständnis, Smart-Home-Geräte, Robotik und Augmented Reality.



Ansehen: Wie man Ultralytics YOLO11 auf dem HomeObjects-3K-Datensatz trainiert | Erkennung, Validierung & ONNX-Export 🚀

Dataset-Struktur

Der HomeObjects-3K-Datensatz ist in die folgenden Teilmengen unterteilt:

  • Trainingsdatensatz: Umfasst 2.285 annotierte Bilder mit Objekten wie Sofas, Stühlen, Tischen, Lampen und mehr.
  • Validierungsdatensatz: Enthält 404 annotierte Bilder, die zur Bewertung der Modellleistung bestimmt sind.

Jedes Bild ist mit Begrenzungsrahmen beschriftet, die am Ultralytics YOLO Format ausgerichtet sind. Die Vielfalt der Innenraumbeleuchtung, der Objektgröße und der Ausrichtungen macht es robust für reale Einsatzszenarien.

Objektklassen

Der Datensatz unterstützt 12 alltägliche Objektkategorien, die Möbel, Elektronik und Dekorationsartikel abdecken. Diese Klassen wurden ausgewählt, um gängige Gegenstände widerzuspiegeln, die in häuslichen Innenräumen vorkommen, und um Bildverarbeitungsaufgaben wie Objekterkennung und Objektverfolgung zu unterstützen.

HomeObjects-3K Klassen

  1. Bett
  2. Sofa
  3. Stuhl
  4. Tabelle
  5. Lampe
  6. tv
  7. Laptop
  8. Garderobe
  9. Fenster
  10. Tür
  11. Topfpflanze
  12. Fotorahmen

Anwendungen

HomeObjects-3K ermöglicht ein breites Spektrum von Anwendungen in der Indoor-Computer Vision, das sowohl Forschung als auch reale Produktentwicklung umfasst:

  • Objekterkennung in Innenräumen: Verwenden Sie Modelle wie Ultralytics YOLO11, um gängige Haushaltsgegenstände wie Betten, Stühle, Lampen und Laptops in Bildern zu finden und zu lokalisieren. Dies hilft beim Echtzeitverständnis von Innenraumszenen.

  • Szenenlayout-Analyse: In der Robotik und in Smart-Home-Systemen hilft dies Geräten zu verstehen, wie Räume angeordnet sind, wo sich Objekte wie Türen, Fenster und Möbel befinden, damit sie sicher navigieren und ordnungsgemäß mit ihrer Umgebung interagieren können.

  • AR-Anwendungen: Ermöglicht Objekterkennungsfunktionen in Apps, die Augmented Reality verwenden. Zum Beispiel, um Fernseher oder Schränke zu erkennen und zusätzliche Informationen oder Effekte auf ihnen anzuzeigen.

  • Ausbildung und Forschung: Unterstützen Sie Lern- und akademische Projekte, indem Sie Studenten und Forschern einen gebrauchsfertigen Datensatz zum Üben der Objekterkennung in Innenräumen mit realen Beispielen zur Verfügung stellen.

  • Inventarverwaltung und Anlagenverfolgung: Erkennt und listet automatisch Haushaltsgegenstände auf Fotos oder Videos auf, was für die Verwaltung von Besitztümern, die Organisation von Räumen oder die Visualisierung von Möbeln in Immobilien nützlich ist.

Datensatz-YAML

Die Konfiguration für den HomeObjects-3K-Datensatz wird über eine YAML-Datei bereitgestellt. Diese Datei enthält wichtige Informationen wie Bildpfade für Trainings- und Validierungsverzeichnisse sowie die Liste der Objektklassen. Sie können auf die HomeObjects-3K.yaml Datei direkt aus dem Ultralytics-Repository unter: https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/HomeObjects-3K.yaml

ultralytics/cfg/datasets/HomeObjects-3K.yaml

# Ultralytics 🚀 AGPL-3.0 License - https://ultralytics.com/license

# HomeObjects-3K dataset by Ultralytics
# Documentation: https://docs.ultralytics.com/datasets/detect/homeobjects-3k/
# Example usage: yolo train data=HomeObjects-3K.yaml
# parent
# ├── ultralytics
# └── datasets
#     └── homeobjects-3K ← downloads here (390 MB)

# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: homeobjects-3K # dataset root dir
train: images/train # train images (relative to 'path') 2285 images
val: images/val # val images (relative to 'path') 404 images

# Classes
names:
  0: bed
  1: sofa
  2: chair
  3: table
  4: lamp
  5: tv
  6: laptop
  7: wardrobe
  8: window
  9: door
  10: potted plant
  11: photo frame

# Download script/URL (optional)
download: https://github.com/ultralytics/assets/releases/download/v0.0.0/homeobjects-3K.zip

Nutzung

Sie können ein YOLO11n-Modell auf dem HomeObjects-3K-Datensatz für 100 Epochen mit einer Bildgröße von 640 trainieren. Die folgenden Beispiele zeigen, wie Sie beginnen können. Weitere Trainingsoptionen und detaillierte Einstellungen finden Sie im Training-Leitfaden.

Trainingsbeispiel

from ultralytics import YOLO

# Load pretrained model
model = YOLO("yolo11n.pt")

# Train the model on HomeObjects-3K dataset
model.train(data="HomeObjects-3K.yaml", epochs=100, imgsz=640)
yolo detect train data=HomeObjects-3K.yaml model=yolo11n.pt epochs=100 imgsz=640

sample_images und Anmerkungen

Der Datensatz bietet eine reichhaltige Sammlung von Innenraumszenenbildern, die eine breite Palette von Haushaltsgegenständen in natürlichen Wohnumgebungen erfassen. Nachfolgend finden Sie beispielhafte Visualisierungen aus dem Datensatz, die jeweils mit den entsprechenden Anmerkungen versehen sind, um Objektpositionen, -skalen und räumliche Beziehungen zu veranschaulichen.

HomeObjects-3K Datensatz Beispielbild, das verschiedene Objekte hervorhebt, z. B. Betten, Stühle, Türen, Sofas und Pflanzen

Lizenz und Namensnennung

HomeObjects-3K wird vom Ultralytics Team unter der AGPL-3.0 Lizenz entwickelt und veröffentlicht, um Open-Source-Forschung und kommerzielle Nutzung mit entsprechender Namensnennung zu unterstützen.

Wenn Sie diesen Datensatz in Ihrer Forschung verwenden, zitieren Sie ihn bitte unter Angabe der genannten Details:

@dataset{Jocher_Ultralytics_Datasets_2025,
    author = {Jocher, Glenn and Rizwan, Muhammad},
    license = {AGPL-3.0},
    month = {May},
    title = {Ultralytics Datasets: HomeObjects-3K Detection Dataset},
    url = {https://docs.ultralytics.com/datasets/detect/homeobject-3k/},
    version = {1.0.0},
    year = {2025}
}

FAQ

Wofür ist der HomeObjects-3K-Datensatz konzipiert?

HomeObjects-3K wurde entwickelt, um das KI-Verständnis von Innenräumen zu verbessern. Es konzentriert sich auf die Erkennung alltäglicher Haushaltsgegenstände – wie Betten, Sofas, Fernseher und Lampen – und ist somit ideal für Anwendungen in Smart Homes, Robotik, Augmented Reality und Innenraumüberwachungssystemen. Egal, ob Sie Modelle für Echtzeit-Edge-Geräte oder akademische Forschung trainieren, dieser Datensatz bietet eine ausgewogene Grundlage.

Welche Objektkategorien sind enthalten und warum wurden sie ausgewählt?

Der Datensatz enthält 12 der am häufigsten vorkommenden Haushaltsgegenstände: Bett, Sofa, Stuhl, Tisch, Lampe, Fernseher, Laptop, Kleiderschrank, Fenster, Tür, Topfpflanze und Fotorahmen. Diese Objekte wurden ausgewählt, um realistische Innenraumumgebungen widerzuspiegeln und Mehrzweckaufgaben wie Roboternavigation oder Szenengenerierung in AR/VR-Anwendungen zu unterstützen.

Wie kann ich ein YOLO-Modell mit dem HomeObjects-3K-Datensatz trainieren?

Um ein YOLO-Modell wie YOLO11n zu trainieren, benötigen Sie lediglich die HomeObjects-3K.yaml Konfigurationsdatei und die vorab trainiertes Modell Gewichte. Unabhängig davon, ob Sie Python oder die CLI verwenden, kann das Training mit einem einzigen Befehl gestartet werden. Sie können Parameter wie Epochen, Bildgröße und Batchgröße abhängig von Ihrer Ziel-Performance und Hardwarekonfiguration anpassen.

Trainingsbeispiel

from ultralytics import YOLO

# Load pretrained model
model = YOLO("yolo11n.pt")

# Train the model on HomeObjects-3K dataset
model.train(data="HomeObjects-3K.yaml", epochs=100, imgsz=640)
yolo detect train data=HomeObjects-3K.yaml model=yolo11n.pt epochs=100 imgsz=640

Ist dieser Datensatz für Projekte auf Anfängerniveau geeignet?

Absolut. Mit sauberer Kennzeichnung und standardisierten YOLO-kompatiblen Anmerkungen ist HomeObjects-3K ein ausgezeichneter Ausgangspunkt für Studenten und Hobbyanwender, die die Objekterkennung in Innenräumen in der realen Welt erkunden möchten. Es lässt sich auch gut für komplexere Anwendungen in kommerziellen Umgebungen skalieren.

Wo finde ich das Annotationsformat und YAML?

Weitere Informationen finden Sie im Abschnitt Dataset YAML. Das Format ist Standard-YOLO, wodurch es mit den meisten Objekterkennungspipelines kompatibel ist.



📅 Erstellt vor 3 Monaten ✏️ Aktualisiert vor 1 Monat

Kommentare