跳至内容

狗姿势数据集

导言

狗姿势数据集 UltralyticsDog-pose 数据集是专为狗的关键点估算而设计的高质量、广泛的数据集。该数据集包含 6,773 张训练图像和 1,703 张测试图像,为训练稳健的姿态估计模型奠定了坚实的基础。每张注释图像包括 24 个关键点,每个关键点有 3 个维度(x、y、可见度),是计算机视觉高级研究和开发的宝贵资源。

Ultralytics 狗姿势显示图像

本数据集用于Ultralytics HUB 和 YOLO11.

数据集 YAML

YAML(另一种标记语言)文件用于定义数据集配置。它包括路径、关键点详细信息和其他相关信息。就 Dog-pose 数据集而言,YAML 文件中的 dog-pose.yaml 可在 https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/dog-pose.yaml.

ultralytics/cfg/datasets/dog-pose.yaml

# Ultralytics YOLO 🚀, AGPL-3.0 license
# Dogs dataset http://vision.stanford.edu/aditya86/ImageNetDogs/ by Stanford
# Documentation: https://docs.ultralytics.com/datasets/pose/dog-pose/
# Example usage: yolo train data=dog-pose.yaml
# parent
# ├── ultralytics
# └── datasets
#     └── dog-pose  ← downloads here (337 MB)

# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: ../datasets/dog-pose # dataset root dir
train: train # train images (relative to 'path') 6773 images
val: val # val images (relative to 'path') 1703 images

# Keypoints
kpt_shape: [24, 3] # number of keypoints, number of dims (2 for x,y or 3 for x,y,visible)

# Classes
names:
  0: dog

# Download script/URL (optional)
download: https://github.com/ultralytics/assets/releases/download/v0.0.0/dog-pose.zip

使用方法

要在图像大小为 640 的 Dog-pose 数据集上训练 YOLO11n-pose 模型 100,可以使用以下代码片段。有关可用参数的完整列表,请参阅模型训练页面。

列车示例

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-pose.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="dog-pose.yaml", epochs=100, imgsz=640)
# Start training from a pretrained *.pt model
yolo pose train data=dog-pose.yaml model=yolo11n-pose.pt epochs=100 imgsz=640

图片和注释示例

以下是 Dog-pose 数据集中的一些图像示例及其相应的注释:

数据集样本图像

  • 镶嵌图像:该图像展示了由马赛克数据集图像组成的训练批次。马赛克是一种在训练过程中使用的技术,可将多幅图像合并为单幅图像,以增加每个训练批次中物体和场景的多样性。这有助于提高模型对不同物体尺寸、长宽比和环境的泛化能力。

该示例展示了 Dog-pose 数据集中图像的多样性和复杂性,以及在训练过程中使用马赛克的好处。

引文和致谢

如果您在研究或开发工作中使用 Dog-pose 数据集,请引用以下论文:

@inproceedings{khosla2011fgvc,
  title={Novel dataset for Fine-Grained Image Categorization},
  author={Aditya Khosla and Nityananda Jayadevaprakash and Bangpeng Yao and Li Fei-Fei},
  booktitle={First Workshop on Fine-Grained Visual Categorization (FGVC), IEEE Conference on Computer Vision and Pattern Recognition (CVPR)},
  year={2011}
}
@inproceedings{deng2009imagenet,
  title={ImageNet: A Large-Scale Hierarchical Image Database},
  author={Jia Deng and Wei Dong and Richard Socher and Li-Jia Li and Kai Li and Li Fei-Fei},
  booktitle={IEEE Computer Vision and Pattern Recognition (CVPR)},
  year={2009}
}

斯坦福团队为计算机视觉界创建并维护了这一宝贵资源,我们在此表示感谢。有关 Dog-pose 数据集及其创建者的更多信息,请访问斯坦福 Dogs Dataset 网站

常见问题

什么是 Dog-pose 数据集,如何与Ultralytics YOLO11 一起使用?

狗姿态数据集包含 6,000 张图像,注释了 17 个关键点,用于估算狗的姿态。该数据集是训练和验证模型的理想工具。 Ultralytics YOLO11该数据集支持动物行为分析和兽医研究等应用。

如何使用Ultralytics 中的 Dog-pose 数据集训练YOLO11 模型?

要在图像大小为 640 的 Dog-pose 数据集上训练 YOLO11n-pose 模型 100 次,请参考以下示例:

列车示例

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-pose.pt")

# Train the model
results = model.train(data="dog-pose.yaml", epochs=100, imgsz=640)
yolo pose train data=dog-pose.yaml model=yolo11n-pose.pt epochs=100 imgsz=640

有关培训论点的完整列表,请参阅模型培训页面。

使用 Dog-pose 数据集有什么好处?

Dog-pose 数据集有几个优点:

庞大多样的数据集:该数据集包含 6,000 张图片,提供了大量数据,涵盖了各种狗的姿势、品种和环境,从而实现了强大的模型训练和评估。

特定姿态注释:为姿势估计提供详细注释,确保为姿势检测模型训练提供高质量数据。

真实世界场景:包括来自不同环境的图像,增强了模型在真实世界应用中的通用能力。

提高模型性能:数据集的多样性和规模有助于提高模型的准确性和鲁棒性,尤其是在涉及细粒度姿态估计的任务中。

有关其功能和使用方法的更多信息,请参阅数据集介绍部分。

使用 Dog-pose 数据集对YOLO11 的训练过程进行镶嵌有什么好处?

如 Dog-pose 数据集的样本图像所示,马赛克处理将多张图像合并为一张合成图像,丰富了每个训练批次中物体和场景的多样性。这种方法增强了模型在不同物体尺寸、长宽比和环境下的泛化能力,从而提高了性能。有关示例图像,请参阅 "示例图像和注释"部分。

在哪里可以找到 Dog-pose 数据集 YAML 文件?

在这里可以找到 Dog-pose 数据集 YAML 文件。该文件定义了数据集配置,包括路径、类和其他相关信息。该文件可与YOLO11 训练示例部分中提到的训练脚本一起使用。

有关更多常见问题和详细文档,请访问Ultralytics 文档

📅创建于 1 个月前 ✏️已更新 1 个月

评论