Hướng dẫn bắt đầu nhanh: NVIDIA Jetson với Ultralytics YOLO11
Hướng dẫn toàn diện này cung cấp hướng dẫn chi tiết để triển khai Ultralytics YOLO11 trên các thiết bị NVIDIA Jetson . Ngoài ra, nó còn giới thiệu các điểm chuẩn hiệu suất để chứng minh khả năng của YOLO11 trên các thiết bị nhỏ và mạnh mẽ này.
Xem: Cách thiết lập NVIDIA Jetson với Ultralytics YOLO11
Ghi
Hướng dẫn này đã được thử nghiệm với cả Seeed Studio reComputer J4012 dựa trên NVIDIA Jetson Orin NX 16GB chạy phiên bản JetPack ổn định mới nhất của JP6.0, bản phát hành JetPack của JP5.1.3 và Seeed Studio reComputer J1020 v2 dựa trên NVIDIA Jetson Nano 4GB chạy JetPack phát hành JP4.6.1. Nó dự kiến sẽ hoạt động trên tất cả các NVIDIA Dòng sản phẩm phần cứng Jetson bao gồm mới nhất và kế thừa.
Là gì NVIDIA Máy bay phản lực?
NVIDIA Jetson là một loạt các bo mạch điện toán nhúng được thiết kế để đưa điện toán AI (trí tuệ nhân tạo) được tăng tốc vào các thiết bị biên. Các thiết bị nhỏ gọn và mạnh mẽ này được xây dựng xung quanh NVIDIA 'S GPU kiến trúc và có khả năng chạy các thuật toán AI phức tạp và các mô hình học sâu trực tiếp trên thiết bị, mà không cần phải dựa vào tài nguyên điện toán đám mây . Bo mạch Jetson thường được sử dụng trong robot, xe tự hành, tự động hóa công nghiệp và các ứng dụng khác, nơi suy luận AI cần được thực hiện cục bộ với độ trễ thấp và hiệu quả cao. Ngoài ra, các bo mạch này dựa trên kiến trúc ARM64 và chạy ở mức công suất thấp hơn so với các bo mạch truyền thống GPU thiết bị máy tính.
NVIDIA So sánh dòng Jetson
Jetson Orin là phiên bản mới nhất của NVIDIA Gia đình Jetson dựa trên NVIDIA Kiến trúc ampere mang lại hiệu suất AI được cải thiện đáng kể khi so sánh với các thế hệ trước. Bảng dưới đây so sánh một số thiết bị Jetson trong hệ sinh thái.
Máy bay phản lực AGX Orin 64GB | Máy bay phản lực Orin NX 16GB | Jetson Orin Nano 8GB | Máy bay phản lực AGX Xavier | Máy bay phản lực Xavier NX | Jetson Nano | |
---|---|---|---|---|---|---|
Hiệu suất AI | 275 NGỌN | 100 NGỌN | 40 ĐẦU | 32 NGỌN | 21 NGỌN | 472 GFLOPS |
GPU | 2048 lõi NVIDIA Kiến trúc ampe GPU với 64 Tensor Lõi | 1024 lõi NVIDIA Kiến trúc ampe GPU với 32 Tensor Lõi | 1024 lõi NVIDIA Kiến trúc ampe GPU với 32 Tensor Lõi | 512 lõi NVIDIA Kiến trúc Volta GPU với 64 Tensor Lõi | 384 lõi NVIDIA Kiến trúc Volta™ GPU với 48 Tensor Lõi | 128 lõi NVIDIA Kiến trúc Maxwell™ GPU |
GPU Tần số tối đa | 1.3 GHz | 918 MHz | 625 MHz | 1377 MHz | 1100 MHz | 921MHz |
CPU | 12 lõi NVIDIA Arm® Cortex A78AE v8.2 64-bit CPU 3MB L2 + 6MB L3 | 8 lõi NVIDIA Arm® Cortex A78AE v8.2 64-bit CPU 2MB L2 + 4MB L3 | 6 lõi Arm® Cortex-A78AE® v8.2 64-bit CPU 1.5MB L2 + 4MB L3 | 8 lõi NVIDIA Carmel Arm®v8.2 64-bit CPU 8MB L2 + 4MB L3 | 6 lõi NVIDIA Carmel Arm®v8.2 64-bit CPU 6MB L2 + 4MB L3 | Bộ xử lý Quad-Core Arm® Cortex-A57® MPCore |
CPU Tần số tối đa | 2.2 GHz | 2.0 GHz | 1.5 GHz | 2.2 GHz | 1.9 GHz | 1.43GHz |
Trí nhớ | 64GB LPDDR5 256-bit 204.8GB/giây | 16GB LPDDR5 128-bit 102.4GB/giây | 8GB LPDDR5 128-bit 68 GB/giây | 32GB 256-bit LPDDR4x 136.5GB/giây | 8GB LPDDR128-bit4x 59.7GB/giây | 4GB LPDDR4 64-bit 25.6GB/giây" |
Để biết bảng so sánh chi tiết hơn, vui lòng truy cập phần Thông số kỹ thuật của chính thức NVIDIA Trang Jetson.
Là gì NVIDIA JetPack?
NVIDIA JetPack SDK cung cấp năng lượng cho các mô-đun Jetson là giải pháp toàn diện nhất và cung cấp môi trường phát triển đầy đủ để xây dựng các ứng dụng AI được tăng tốc toàn diện và rút ngắn thời gian đưa ra thị trường. JetPack bao gồm Jetson Linux với bộ nạp khởi động, hạt nhân Linux, môi trường máy tính để bàn Ubuntu và một bộ thư viện hoàn chỉnh để tăng tốc GPU máy tính, đa phương tiện, đồ họa và thị giác máy tính . Nó cũng bao gồm các mẫu, tài liệu và công cụ phát triển cho cả máy chủ và bộ công cụ phát triển, và hỗ trợ các SDK cấp cao hơn như DeepStream để phân tích video phát trực tuyến, Isaac cho robot và Riva cho AI đàm thoại.
Flash JetPack để NVIDIA Máy bay phản lực
Bước đầu tiên sau khi chạm tay vào một NVIDIA Thiết bị Jetson là để flash NVIDIA JetPack vào thiết bị. Có một số cách nhấp nháy khác nhau NVIDIA Thiết bị Jetson.
- Nếu bạn sở hữu một quan chức NVIDIA Bộ công cụ phát triển như Jetson Orin Nano Developer Kit, bạn có thể tải xuống hình ảnh và chuẩn bị thẻ SD với JetPack để khởi động thiết bị.
- Nếu bạn sở hữu bất kỳ loại nào khác NVIDIA Bộ công cụ phát triển, bạn có thể flash JetPack vào thiết bị bằng Trình quản lý SDK.
- Nếu bạn sở hữu thiết bị Seeed Studio reComputer J4012, bạn có thể flash JetPack vào ổ SSD đi kèm và nếu bạn sở hữu thiết bị Seeed Studio reComputer J1020 v2, bạn có thể flash JetPack vào eMMC / SSD.
- Nếu bạn sở hữu bất kỳ thiết bị bên thứ ba nào khác được cung cấp bởi NVIDIA Mô-đun Jetson, nên tuân theo nhấp nháy dòng lệnh.
Ghi
Đối với các phương pháp 3 và 4 ở trên, sau khi flash hệ thống và khởi động thiết bị, vui lòng nhập "sudo apt update &&& sudo apt install nvidia-jetpack -y" trên thiết bị đầu cuối thiết bị để cài đặt tất cả các thành phần JetPack còn lại cần thiết.
Hỗ trợ JetPack dựa trên thiết bị Jetson
Bảng dưới đây nêu bật NVIDIA Các phiên bản JetPack được hỗ trợ bởi các phiên bản khác nhau NVIDIA Thiết bị Jetson.
Gói máy bay phản lực 4 | Gói máy bay phản lực 5 | Gói máy bay phản lực 6 | |
---|---|---|---|
Jetson Nano | ✅ | ❌ | ❌ |
Máy bay phản lực TX2 | ✅ | ❌ | ❌ |
Máy bay phản lực Xavier NX | ✅ | ✅ | ❌ |
Máy bay phản lực AGX Xavier | ✅ | ✅ | ❌ |
Jetson AGX Orin | ❌ | ✅ | ✅ |
Máy bay phản lực Orin NX | ❌ | ✅ | ✅ |
Jetson Orin Nano | ❌ | ✅ | ✅ |
Bắt đầu nhanh với Docker
Cách nhanh nhất để bắt đầu với Ultralytics YOLO11 trên NVIDIA Jetson sẽ chạy với các hình ảnh docker được dựng sẵn cho Jetson. Tham khảo bảng trên và chọn phiên bản JetPack theo thiết bị Jetson bạn sở hữu.
Sau khi hoàn tất, hãy chuyển đến Dùng TensorRT trên NVIDIA Phần Jetson.
Bắt đầu với Cài đặt gốc
Để cài đặt gốc mà không có Docker, vui lòng tham khảo các bước bên dưới.
Chạy trên JetPack 6.x
Cài đặt Ultralytics Gói
Ở đây chúng ta sẽ cài đặt Ultralytics gói trên Jetson với các phụ thuộc tùy chọn để chúng ta có thể xuất các mô hình PyTorch sang các định dạng khác nhau. Chúng ta sẽ chủ yếu tập trung vào xuất NVIDIA TensorRT vì TensorRT sẽ đảm bảo chúng ta có thể đạt được hiệu suất tối đa từ các thiết bị Jetson.
Cập nhật danh sách gói, cài đặt pip và nâng cấp lên mới nhất
Cài đặt
ultralytics
Gói pip với các phụ thuộc tùy chọnKhởi động lại thiết bị
Cài đặt PyTorch và Torchvision
Những điều trên ultralytics Cài đặt sẽ cài đặt Torch và Torchvision. Tuy nhiên, 2 gói này được cài đặt qua pip không tương thích để chạy trên nền tảng Jetson dựa trên kiến trúc ARM64. Do đó, chúng ta cần cài đặt thủ công dựng sẵn PyTorch bánh xe pip và biên dịch / cài đặt Torchvision từ nguồn.
Cài đặt torch 2.3.0
và torchvision 0.18
theo JP6.0
sudo apt-get install libopenmpi-dev libopenblas-base libomp-dev -y
pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torch-2.3.0-cp310-cp310-linux_aarch64.whl
pip install https://github.com/ultralytics/assets/releases/download/v0.0.0/torchvision-0.18.0a0+6043bc2-cp310-cp310-linux_aarch64.whl
Ghé thăm PyTorch cho trang Jetson để truy cập tất cả các phiên bản khác nhau của PyTorch cho các phiên bản JetPack khác nhau. Để biết danh sách chi tiết hơn về PyTorch, khả năng tương thích Torchvision, hãy truy cập PyTorch và trang tương thích Torchvision.
Cài đặt onnxruntime-gpu
Các onnxruntime-gpu gói được lưu trữ trong PyPI không có aarch64
nhị phân cho Jetson. Vì vậy, chúng ta cần phải cài đặt thủ công gói này. Gói này là cần thiết cho một số hàng xuất khẩu.
Tất cả đều khác nhau onnxruntime-gpu
các gói tương ứng với các gói JetPack khác nhau và Python Các phiên bản được liệt kê Ở đây. Tuy nhiên, ở đây chúng tôi sẽ tải xuống và cài đặt onnxruntime-gpu 1.18.0
với Python3.10
hỗ trợ.
wget https://nvidia.box.com/shared/static/48dtuob7meiw6ebgfsfqakc9vse62sg4.whl -O onnxruntime_gpu-1.18.0-cp310-cp310-linux_aarch64.whl
pip install onnxruntime_gpu-1.18.0-cp310-cp310-linux_aarch64.whl
Ghi
onnxruntime-gpu
sẽ tự động hoàn nguyên phiên bản numpy về phiên bản mới nhất. Vì vậy, chúng ta cần phải cài đặt lại numpy để 1.23.5
Để khắc phục sự cố bằng cách thực hiện:
pip install numpy==1.23.5
Chạy trên JetPack 5.x
Cài đặt Ultralytics Gói
Ở đây chúng tôi sẽ cài đặt Ultralytics gói hàng trên Jetson với các phụ thuộc tùy chọn để chúng tôi có thể xuất PyTorch mô hình sang các định dạng khác nhau. Chúng tôi sẽ chủ yếu tập trung vào NVIDIA TensorRT xuất khẩu vì TensorRT sẽ đảm bảo chúng tôi có thể đạt được hiệu suất tối đa từ các thiết bị Jetson.
Cập nhật danh sách gói, cài đặt pip và nâng cấp lên mới nhất
Cài đặt
ultralytics
Gói pip với các phụ thuộc tùy chọnKhởi động lại thiết bị
Cài đặt PyTorch và Torchvision
Những điều trên ultralytics Cài đặt sẽ cài đặt Torch và Torchvision. Tuy nhiên, 2 gói này được cài đặt qua pip không tương thích để chạy trên nền tảng Jetson dựa trên kiến trúc ARM64. Do đó, chúng ta cần cài đặt thủ công dựng sẵn PyTorch bánh xe pip và biên dịch / cài đặt Torchvision từ nguồn.
Gỡ cài đặt hiện đang được cài đặt PyTorch và Torchvision
Cài đặt PyTorch 2.1.0 theo JP5.1.3
sudo apt-get install -y libopenblas-base libopenmpi-dev wget https://developer.download.nvidia.com/compute/redist/jp/v512/pytorch/torch-2.1.0a0+41361538.nv23.06-cp38-cp38-linux_aarch64.whl -O torch-2.1.0a0+41361538.nv23.06-cp38-cp38-linux_aarch64.whl pip install torch-2.1.0a0+41361538.nv23.06-cp38-cp38-linux_aarch64.whl
Cài đặt Torchvision v0.16.2 theo PyTorch v2.1.0
Ghé thăm PyTorch cho trang Jetson để truy cập tất cả các phiên bản khác nhau của PyTorch cho các phiên bản JetPack khác nhau. Để biết danh sách chi tiết hơn về PyTorch, khả năng tương thích Torchvision, hãy truy cập PyTorch và trang tương thích Torchvision.
Cài đặt onnxruntime-gpu
Các onnxruntime-gpu gói được lưu trữ trong PyPI không có aarch64
nhị phân cho Jetson. Vì vậy, chúng ta cần phải cài đặt thủ công gói này. Gói này là cần thiết cho một số hàng xuất khẩu.
Tất cả đều khác nhau onnxruntime-gpu
các gói tương ứng với các gói JetPack khác nhau và Python Các phiên bản được liệt kê Ở đây. Tuy nhiên, ở đây chúng tôi sẽ tải xuống và cài đặt onnxruntime-gpu 1.17.0
với Python3.8
hỗ trợ.
wget https://nvidia.box.com/shared/static/zostg6agm00fb6t5uisw51qi6kpcuwzd.whl -O onnxruntime_gpu-1.17.0-cp38-cp38-linux_aarch64.whl
pip install onnxruntime_gpu-1.17.0-cp38-cp38-linux_aarch64.whl
Ghi
onnxruntime-gpu
sẽ tự động hoàn nguyên phiên bản numpy về phiên bản mới nhất. Vì vậy, chúng ta cần phải cài đặt lại numpy để 1.23.5
Để khắc phục sự cố bằng cách thực hiện:
pip install numpy==1.23.5
Dùng TensorRT trên NVIDIA Máy bay phản lực
Trong số tất cả các định dạng xuất mô hình được hỗ trợ bởi Ultralytics, TensorRT Mang lại hiệu suất suy luận tốt nhất khi làm việc với NVIDIA Thiết bị Jetson và khuyến nghị của chúng tôi là sử dụng TensorRT với Jetson. Chúng tôi cũng có một tài liệu chi tiết về TensorRT tại đây.
Chuyển đổi Model sang TensorRT và Chạy suy luận
Mô hình YOLO11n trong PyTorch định dạng được chuyển đổi thành TensorRT để chạy suy luận với mô hình đã xuất.
Ví dụ
from ultralytics import YOLO
# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")
# Export the model to TensorRT
model.export(format="engine") # creates 'yolo11n.engine'
# Load the exported TensorRT model
trt_model = YOLO("yolo11n.engine")
# Run inference
results = trt_model("https://ultralytics.com/images/bus.jpg")
Sử dụng NVIDIA Bộ tăng tốc học sâu (DLA)
NVIDIA Deep Learning Accelerator (DLA) là một thành phần phần cứng chuyên dụng được tích hợp vào NVIDIA Thiết bị Jetson tối ưu hóa suy luận học sâu cho hiệu quả năng lượng và hiệu suất. Bằng cách dỡ bỏ các tác vụ khỏi GPU (giải phóng năng lượng cho các quy trình chuyên sâu hơn), DLA cho phép các mô hình chạy với mức tiêu thụ điện năng thấp hơn trong khi vẫn duy trì thông lượng cao, lý tưởng cho các hệ thống nhúng và ứng dụng AI thời gian thực.
Các thiết bị Jetson sau đây được trang bị phần cứng DLA:
- Máy bay phản lực Orin NX 16GB
- Dòng Jetson AGX Orin
- Dòng Jetson AGX Xavier
- Dòng Jetson Xavier NX
Ví dụ
from ultralytics import YOLO
# Load a YOLO11n PyTorch model
model = YOLO("yolo11n.pt")
# Export the model to TensorRT with DLA enabled (only works with FP16 or INT8)
model.export(format="engine", device="dla:0", half=True) # dla:0 or dla:1 corresponds to the DLA cores
# Load the exported TensorRT model
trt_model = YOLO("yolo11n.engine")
# Run inference
results = trt_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to TensorRT format with DLA enabled (only works with FP16 or INT8)
yolo export model=yolo11n.pt format=engine device="dla:0" half=True # dla:0 or dla:1 corresponds to the DLA cores
# Run inference with the exported model on the DLA
yolo predict model=yolo11n.engine source='https://ultralytics.com/images/bus.jpg'
Ghi
Truy cập trang Xuất để truy cập các đối số bổ sung khi xuất mô hình sang các định dạng mô hình khác nhau
NVIDIA Điểm chuẩn Jetson Orin YOLO11
Các tiêu chuẩn YOLO11 đã được chạy bởi Ultralytics nhóm trên 10 định dạng mô hình khác nhau để đo tốc độ và độ chính xác : PyTorch , TorchScript , ONNX , OpenVINO , TensorRT , TF SavedModel , TF GraphDef , TF Nhẹ, PaddlePaddle , NCNN . Điểm chuẩn được chạy trên Seeed Studio reComputer J4012 được hỗ trợ bởi thiết bị Jetson Orin NX 16GB với độ chính xác FP32 với kích thước hình ảnh đầu vào mặc định là 640.
Biểu đồ so sánh
Mặc dù tất cả các mô hình xuất khẩu đang làm việc với NVIDIA Jetson, chúng tôi chỉ bao gồm PyTorch, TorchScript, TensorRT Đối với biểu đồ so sánh dưới đây bởi vì, họ sử dụng GPU trên Jetson và được đảm bảo tạo ra kết quả tốt nhất. Tất cả các mặt hàng xuất khẩu khác chỉ sử dụng CPU Và hiệu suất không tốt bằng ba phần trên. Bạn có thể tìm thấy điểm chuẩn cho tất cả các lần xuất khẩu trong phần sau biểu đồ này.
Bảng so sánh chi tiết
Bảng dưới đây thể hiện kết quả chuẩn cho năm mô hình khác nhau (YOLO11n, YOLO11s, YOLO11m, YOLO11l, YOLO11x) trên mười định dạng khác nhau ( PyTorch , TorchScript , ONNX , OpenVINO , TensorRT , TF SavedModel , TF GraphDef , TF Nhẹ, PaddlePaddle , NCNN ), cung cấp cho chúng ta trạng thái, kích thước, số liệu mAP50-95(B) và thời gian suy luận cho mỗi kết hợp.
Hiệu năng
Định dạng | Tình trạng | Kích thước trên đĩa (MB) | mAP50-95(B) | Thời gian suy luận (ms/im) |
---|---|---|---|---|
PyTorch | ✅ | 5.4 | 0.6176 | 19.80 |
TorchScript | ✅ | 10.5 | 0.6100 | 13.30 |
ONNX | ✅ | 10.2 | 0.6082 | 67.92 |
OpenVINO | ✅ | 10.4 | 0.6082 | 118.21 |
TensorRT (FP32) | ✅ | 14.1 | 0.6100 | 7.94 |
TensorRT (FP16) | ✅ | 8.3 | 0.6082 | 4.80 |
TensorRT (INT8) | ✅ | 6.6 | 0.3256 | 4.17 |
TF SavedModel | ✅ | 25.8 | 0.6082 | 185.88 |
TF GraphDef | ✅ | 10.3 | 0.6082 | 256.66 |
TF Lite | ✅ | 10.3 | 0.6082 | 284.64 |
PaddlePaddle | ✅ | 20.4 | 0.6082 | 477.41 |
NCNN | ✅ | 10.2 | 0.6106 | 32.18 |
Định dạng | Tình trạng | Kích thước trên đĩa (MB) | mAP50-95(B) | Thời gian suy luận (ms/im) |
---|---|---|---|---|
PyTorch | ✅ | 18.4 | 0.7526 | 20.20 |
TorchScript | ✅ | 36.5 | 0.7416 | 23.42 |
ONNX | ✅ | 36.3 | 0.7416 | 162.01 |
OpenVINO | ✅ | 36.4 | 0.7416 | 159.61 |
TensorRT (FP32) | ✅ | 40.3 | 0.7416 | 13.93 |
TensorRT (FP16) | ✅ | 21.7 | 0.7416 | 7.47 |
TensorRT (INT8) | ✅ | 13.6 | 0.3179 | 5.66 |
TF SavedModel | ✅ | 91.1 | 0.7416 | 316.46 |
TF GraphDef | ✅ | 36.4 | 0.7416 | 506.71 |
TF Lite | ✅ | 36.4 | 0.7416 | 842.97 |
PaddlePaddle | ✅ | 72.5 | 0.7416 | 1172.57 |
NCNN | ✅ | 36.2 | 0.7419 | 66.00 |
Định dạng | Tình trạng | Kích thước trên đĩa (MB) | mAP50-95(B) | Thời gian suy luận (ms/im) |
---|---|---|---|---|
PyTorch | ✅ | 38.8 | 0.7595 | 36.70 |
TorchScript | ✅ | 77.3 | 0.7643 | 50.95 |
ONNX | ✅ | 76.9 | 0.7643 | 416.34 |
OpenVINO | ✅ | 77.1 | 0.7643 | 370.99 |
TensorRT (FP32) | ✅ | 81.5 | 0.7640 | 30.49 |
TensorRT (FP16) | ✅ | 42.2 | 0.7658 | 14.93 |
TensorRT (INT8) | ✅ | 24.3 | 0.4118 | 10.32 |
TF SavedModel | ✅ | 192.7 | 0.7643 | 597.08 |
TF GraphDef | ✅ | 77.0 | 0.7643 | 1016.12 |
TF Lite | ✅ | 77.0 | 0.7643 | 2494.60 |
PaddlePaddle | ✅ | 153.8 | 0.7643 | 3218.99 |
NCNN | ✅ | 76.8 | 0.7691 | 192.77 |
Định dạng | Tình trạng | Kích thước trên đĩa (MB) | mAP50-95(B) | Thời gian suy luận (ms/im) |
---|---|---|---|---|
PyTorch | ✅ | 49.0 | 0.7475 | 47.6 |
TorchScript | ✅ | 97.6 | 0.7250 | 66.36 |
ONNX | ✅ | 97.0 | 0.7250 | 532.58 |
OpenVINO | ✅ | 97.3 | 0.7250 | 477.55 |
TensorRT (FP32) | ✅ | 101.6 | 0.7250 | 38.71 |
TensorRT (FP16) | ✅ | 52.6 | 0.7265 | 19.35 |
TensorRT (INT8) | ✅ | 31.6 | 0.3856 | 13.50 |
TF SavedModel | ✅ | 243.3 | 0.7250 | 895.24 |
TF GraphDef | ✅ | 97.2 | 0.7250 | 1301.19 |
TF Lite | ✅ | 97.2 | 0.7250 | 3202.93 |
PaddlePaddle | ✅ | 193.9 | 0.7250 | 4206.98 |
NCNN | ✅ | 96.9 | 0.7252 | 225.75 |
Định dạng | Tình trạng | Kích thước trên đĩa (MB) | mAP50-95(B) | Thời gian suy luận (ms/im) |
---|---|---|---|---|
PyTorch | ✅ | 109.3 | 0.8288 | 85.60 |
TorchScript | ✅ | 218.1 | 0.8308 | 121.67 |
ONNX | ✅ | 217.5 | 0.8308 | 1073.14 |
OpenVINO | ✅ | 217.8 | 0.8308 | 955.60 |
TensorRT (FP32) | ✅ | 221.6 | 0.8307 | 75.84 |
TensorRT (FP16) | ✅ | 113.1 | 0.8295 | 35.75 |
TensorRT (INT8) | ✅ | 62.2 | 0.4783 | 22.23 |
TF SavedModel | ✅ | 545.0 | 0.8308 | 1497.40 |
TF GraphDef | ✅ | 217.8 | 0.8308 | 2552.42 |
TF Lite | ✅ | 217.8 | 0.8308 | 7044.58 |
PaddlePaddle | ✅ | 434.9 | 0.8308 | 8386.73 |
NCNN | ✅ | 217.3 | 0.8304 | 486.36 |
Khám phá thêm các nỗ lực đo điểm chuẩn của Seeed Studio chạy trên các phiên bản khác nhau của NVIDIA Phần cứng Jetson.
Tái tạo kết quả của chúng tôi
Để tái tạo những điều trên Ultralytics Điểm chuẩn trên tất cả các định dạng xuất đều chạy mã này:
Ví dụ
Lưu ý rằng kết quả đo điểm chuẩn có thể thay đổi dựa trên cấu hình phần cứng và phần mềm chính xác của hệ thống, cũng như khối lượng công việc hiện tại của hệ thống tại thời điểm chạy điểm chuẩn. Để có kết quả đáng tin cậy nhất, hãy sử dụng tập dữ liệu có số lượng hình ảnh lớn, tức là data='coco8.yaml' (4 val images), or
data = 'coco.yaml'' (5000 hình ảnh val).
Các phương pháp hay nhất khi sử dụng NVIDIA Máy bay phản lực
Khi sử dụng NVIDIA Jetson, có một số biện pháp thực hành tốt nhất cần tuân theo để đạt được hiệu suất tối đa trên NVIDIA Jetson đang chạy YOLO11.
Bật Chế độ nguồn MAX
Bật Chế độ nguồn MAX trên Jetson sẽ đảm bảo tất cả CPU, GPU lõi được bật.
Bật đồng hồ Jetson
Bật Đồng hồ Jetson sẽ đảm bảo tất cả CPU, GPU Lõi được xung nhịp ở tần số tối đa của chúng.
Cài đặt ứng dụng Jetson Stats
Chúng tôi có thể sử dụng ứng dụng thống kê jetson để theo dõi nhiệt độ của các thành phần hệ thống và kiểm tra các chi tiết hệ thống khác như chế độ xem CPU, GPU, sử dụng RAM, thay đổi chế độ nguồn, đặt thành xung nhịp tối đa, kiểm tra thông tin JetPack
Các bước tiếp theo
Xin chúc mừng bạn đã thiết lập thành công YOLO11 trên NVIDIA Jetson! Để tìm hiểu thêm và được hỗ trợ, hãy truy cập hướng dẫn tại Ultralytics YOLO11 Docs !
FAQ
Làm thế nào để tôi triển khai Ultralytics YOLO11 trên NVIDIA Thiết bị Jetson?
Triển khai Ultralytics YOLO11 trên NVIDIA Thiết bị Jetson là một quá trình đơn giản. Đầu tiên, hãy flash thiết bị Jetson của bạn bằng NVIDIA JetPack SDK. Sau đó, sử dụng hình ảnh Docker dựng sẵn để thiết lập nhanh hoặc cài đặt thủ công các gói cần thiết. Các bước chi tiết cho từng phương pháp có thể được tìm thấy trong phần Bắt đầu nhanh với Docker và Bắt đầu với Cài đặt gốc .
Tôi có thể mong đợi điểm chuẩn hiệu suất nào từ các mẫu YOLO11 trên NVIDIA Thiết bị Jetson?
Các mô hình YOLO11 đã được đánh giá chuẩn trên nhiều NVIDIA Các thiết bị Jetson cho thấy những cải tiến đáng kể về hiệu suất. Ví dụ, TensorRT định dạng cung cấp hiệu suất suy luận tốt nhất. Bảng trong phần Bảng so sánh chi tiết cung cấp góc nhìn toàn diện về các số liệu hiệu suất như mAP50-95 và thời gian suy luận trên các định dạng mô hình khác nhau.
Tại sao tôi nên sử dụng TensorRT để triển khai YOLO11 trên NVIDIA Jetson à?
TensorRT được khuyến khích sử dụng để triển khai các mô hình YOLO11 trên NVIDIA Jetson do hiệu suất tối ưu của nó. Nó tăng tốc suy luận bằng cách tận dụng Jetson GPU khả năng, đảm bảo hiệu quả và tốc độ tối đa. Tìm hiểu thêm về cách chuyển đổi sang TensorRT và chạy suy luận trong phần Sử dụng TensorRT trên NVIDIA Jetson .
Làm thế nào tôi có thể cài đặt PyTorch và Torchvision trên NVIDIA Máy bay phản lực?
Để cài đặt PyTorch và Torchvision trên NVIDIA Jetson, trước tiên hãy gỡ cài đặt bất kỳ phiên bản hiện có nào có thể đã được cài đặt qua pip. Sau đó, cài đặt thủ công tương thích PyTorch và các phiên bản Torchvision cho kiến trúc ARM64 của Jetson. Hướng dẫn chi tiết cho quá trình này được cung cấp trong Cài đặt PyTorch và phần Torchvision .
Những cách thực hành tốt nhất để tối đa hóa hiệu suất là gì? NVIDIA Jetson khi sử dụng YOLO11?
Để tối đa hóa hiệu suất trên NVIDIA Jetson với YOLO11, hãy làm theo các biện pháp tốt nhất sau:
- Bật Chế độ nguồn MAX để sử dụng tất cả CPU và GPU Lõi.
- Cho phép Đồng hồ Jetson chạy tất cả các lõi ở tần số tối đa của chúng.
- Cài đặt ứng dụng Jetson Stats để theo dõi số liệu hệ thống.
Để biết các lệnh và chi tiết bổ sung, hãy tham khảo Các phương pháp hay nhất khi sử dụng NVIDIA Phần Jetson .