Bỏ để qua phần nội dung

Các phương pháp hay nhất về Machine Learning và mẹo đào tạo mô hình

Giới thiệu

Một trong những bước quan trọng nhất khi làm việc trong một dự án thị giác máy tính là đào tạo mô hình. Trước khi đạt đến bước này, bạn cần xác định mục tiêu của mìnhthu thập và chú thích dữ liệu của bạn. Sau khi xử lý sơ bộ dữ liệu để đảm bảo dữ liệu sạch sẽ và nhất quán, bạn có thể chuyển sang đào tạo mô hình của mình.



Xem: Mẹo đào tạo mô hình | Cách xử lý các tập dữ liệu lớn | Kích thước lô, GPU Sử dụng và Độ chính xác hỗn hợp

Vậy, đào tạo mô hình là gì? Đào tạo mô hình là quá trình dạy mô hình của bạn nhận ra các mẫu trực quan và đưa ra dự đoán dựa trên dữ liệu của bạn. Nó ảnh hưởng trực tiếp đến hiệu suất và độ chính xác của ứng dụng của bạn. Trong hướng dẫn này, chúng tôi sẽ đề cập đến các phương pháp hay nhất, kỹ thuật tối ưu hóa và mẹo khắc phục sự cố để giúp bạn đào tạo các mô hình thị giác máy tính của mình một cách hiệu quả.

Cách đào tạo mô hình học máy

Một mô hình thị giác máy tính được đào tạo bằng cách điều chỉnh các tham số bên trong của nó để giảm thiểu lỗi. Ban đầu, mô hình được cung cấp một tập hợp lớn các hình ảnh được gắn nhãn. Nó đưa ra dự đoán về những gì có trong những hình ảnh này và các dự đoán được so sánh với nhãn hoặc nội dung thực tế để tính toán lỗi. Những lỗi này cho thấy các dự đoán của mô hình cách xa các giá trị thực như thế nào.

Trong quá trình đào tạo, mô hình lặp đi lặp lại đưa ra dự đoán, tính toán lỗi và cập nhật các tham số của nó thông qua một quá trình gọi là truyền ngược . Trong quá trình này, mô hình điều chỉnh các tham số bên trong của nó ( weights and biases ) để giảm lỗi. Bằng cách lặp lại chu kỳ này nhiều lần, mô hình dần cải thiện độ chính xác. Theo thời gian, nó học cách nhận dạng các mẫu phức tạp như hình dạng, màu sắc và kết cấu.

Backpropagation là gì?

Quá trình học này giúp mô hình thị giác máy tính có thể thực hiện nhiều tác vụ khác nhau, bao gồm phát hiện đối tượng , phân đoạn thể hiệnphân loại hình ảnh . Mục tiêu cuối cùng là tạo ra một mô hình có thể khái quát hóa quá trình học của nó thành những hình ảnh mới, chưa từng thấy để có thể hiểu chính xác dữ liệu trực quan trong các ứng dụng thực tế.

Bây giờ chúng ta đã biết những gì đang xảy ra đằng sau hậu trường khi chúng ta đào tạo một mô hình, hãy xem xét các điểm cần xem xét khi đào tạo một mô hình.

Đào tạo về bộ dữ liệu lớn

Có một vài khía cạnh khác nhau để suy nghĩ khi bạn dự định sử dụng một tập dữ liệu lớn để đào tạo một mô hình. Ví dụ: bạn có thể điều chỉnh kích thước lô, kiểm soát GPU sử dụng, chọn sử dụng đào tạo đa cấp, v.v. Hãy xem qua từng tùy chọn này một cách chi tiết.

Kích thước lô và GPU Sử dụng

Khi đào tạo các mô hình trên các tập dữ liệu lớn, hãy sử dụng hiệu quả GPU là chìa khóa. Kích thước lô là một yếu tố quan trọng. Đó là số lượng mẫu dữ liệu mà một mô hình học máy xử lý trong một lần lặp đào tạo duy nhất. Sử dụng kích thước lô tối đa được hỗ trợ bởi GPU, bạn hoàn toàn có thể tận dụng khả năng của nó và giảm thời gian đào tạo mô hình. Tuy nhiên, bạn muốn tránh hết GPU trí nhớ. Nếu bạn gặp lỗi bộ nhớ, hãy giảm dần kích thước lô cho đến khi mô hình hoạt động trơn tru.

Đối với YOLO11, bạn có thể thiết lập batch_size tham số trong Cấu hình đào tạo để phù hợp với GPU khả năng. Ngoài ra, cài đặt batch=-1 trong tập lệnh đào tạo của bạn sẽ tự động xác định kích thước lô có thể được xử lý hiệu quả dựa trên khả năng của thiết bị của bạn. Bằng cách tinh chỉnh kích thước lô, bạn có thể tận dụng tối đa GPU nguồn lực và cải thiện toàn bộ quá trình đào tạo.

Đào tạo tập hợp con

Đào tạo tập hợp con là một chiến lược thông minh liên quan đến việc đào tạo mô hình của bạn trên một tập dữ liệu nhỏ hơn đại diện cho tập dữ liệu lớn hơn. Nó có thể tiết kiệm thời gian và nguồn lực, đặc biệt là trong quá trình phát triển và thử nghiệm mô hình ban đầu. Nếu bạn đang thiếu thời gian hoặc thử nghiệm với các cấu hình mô hình khác nhau, đào tạo tập hợp con là một lựa chọn tốt.

Khi nói đến YOLO11, bạn có thể dễ dàng triển khai đào tạo tập hợp con bằng cách sử dụng fraction thông số. Tham số này cho phép bạn chỉ định phần nào của tập dữ liệu sẽ sử dụng để đào tạo. Ví dụ: cài đặt fraction=0.1 sẽ đào tạo mô hình của bạn trên 10% dữ liệu. Bạn có thể sử dụng kỹ thuật này để lặp lại nhanh chóng và điều chỉnh mô hình của mình trước khi cam kết đào tạo mô hình bằng tập dữ liệu đầy đủ. Đào tạo tập hợp con giúp bạn tiến bộ nhanh chóng và xác định sớm các vấn đề tiềm ẩn.

Đào tạo đa quy mô

Đào tạo đa cấp độ là một kỹ thuật cải thiện khả năng khái quát hóa mô hình của bạn bằng cách đào tạo nó trên các hình ảnh có kích thước khác nhau. Mô hình của bạn có thể học cách phát hiện các đối tượng ở các quy mô và khoảng cách khác nhau và trở nên mạnh mẽ hơn.

Ví dụ, khi bạn đào tạo YOLO11, bạn có thể kích hoạt đào tạo đa thang đo bằng cách thiết lập scale thông số. Tham số này điều chỉnh kích thước của hình ảnh đào tạo theo một yếu tố cụ thể, mô phỏng các đối tượng ở các khoảng cách khác nhau. Ví dụ: cài đặt scale=0.5 sẽ giảm một nửa kích thước hình ảnh, trong khi scale=2.0 sẽ nhân đôi nó. Việc định cấu hình tham số này cho phép mô hình của bạn trải nghiệm nhiều tỷ lệ hình ảnh khác nhau và cải thiện khả năng phát hiện của nó trên các kích thước và kịch bản đối tượng khác nhau.

Caching

Bộ nhớ đệm là một kỹ thuật quan trọng để nâng cao hiệu quả của việc đào tạo các mô hình học máy. Bằng cách lưu trữ hình ảnh được xử lý sẵn trong bộ nhớ, bộ nhớ đệm làm giảm thời gian GPU dành thời gian chờ dữ liệu được tải từ đĩa. Mô hình có thể liên tục nhận dữ liệu mà không bị chậm trễ do hoạt động I / O đĩa.

Bộ nhớ đệm có thể được kiểm soát khi đào tạo YOLO11 bằng cách sử dụng cache thông số:

  • cache=True: Lưu trữ hình ảnh tập dữ liệu trong RAM, cung cấp tốc độ truy cập nhanh nhất nhưng với chi phí sử dụng bộ nhớ tăng lên.
  • cache='disk': Lưu trữ hình ảnh trên đĩa, chậm hơn RAM nhưng nhanh hơn so với tải dữ liệu mới mỗi lần.
  • cache=False: Vô hiệu hóa bộ nhớ đệm, dựa hoàn toàn vào I / O đĩa, đây là tùy chọn chậm nhất.

Đào tạo chính xác hỗn hợp

Đào tạo độ chính xác hỗn hợp sử dụng cả kiểu dấu phẩy động 16 bit (FP16) và 32 bit (FP32). Điểm mạnh của cả FP16 và FP32 đều được tận dụng bằng cách sử dụng FP16 để tính toán nhanh hơn và FP32 để duy trì độ chính xác khi cần. Hầu hết các hoạt động của mạng nơ-ron được thực hiện trong FP16 để hưởng lợi từ tính toán nhanh hơn và sử dụng bộ nhớ ít hơn. Tuy nhiên, một bản sao chính của trọng số của mô hình được lưu giữ trong FP32 để đảm bảo độ chính xác trong các bước cập nhật trọng số. Bạn có thể xử lý các mô hình lớn hơn hoặc kích thước lô lớn hơn trong cùng một ràng buộc phần cứng.

Tổng quan về đào tạo độ chính xác hỗn hợp

Để triển khai đào tạo độ chính xác hỗn hợp, bạn sẽ cần phải sửa đổi các tập lệnh đào tạo của mình và đảm bảo phần cứng của bạn (như GPU) hỗ trợ nó. Nhiều khuôn khổ học sâu hiện đại, chẳng hạn như Tensorflow , cung cấp hỗ trợ tích hợp cho độ chính xác hỗn hợp.

Đào tạo độ chính xác hỗn hợp rất đơn giản khi làm việc với YOLO11. Bạn có thể sử dụng amp gắn cờ trong cấu hình đào tạo của bạn. Khung cảnh amp=True cho phép đào tạo Độ chính xác hỗn hợp tự động (AMP). Đào tạo chính xác hỗn hợp là một cách đơn giản nhưng hiệu quả để tối ưu hóa quy trình đào tạo mô hình của bạn.

Trọng lượng được đào tạo trước

Sử dụng trọng số được đào tạo trước là một cách thông minh để tăng tốc quá trình đào tạo mô hình của bạn. Trọng số được đào tạo trước đến từ các mô hình đã được đào tạo trên các tập dữ liệu lớn, giúp mô hình của bạn có một khởi đầu thuận lợi. Học chuyển giao sẽ điều chỉnh các mô hình được đào tạo trước cho các tác vụ mới có liên quan. Tinh chỉnh một mô hình được đào tạo trước bao gồm bắt đầu với các trọng số này và sau đó tiếp tục đào tạo trên tập dữ liệu cụ thể của bạn. Phương pháp đào tạo này giúp thời gian đào tạo nhanh hơn và hiệu suất thường tốt hơn vì mô hình bắt đầu với sự hiểu biết vững chắc về các tính năng cơ bản.

Các pretrained tham số giúp việc học chuyển giao trở nên dễ dàng với YOLO11. Cài đặt pretrained=True sẽ sử dụng trọng lượng được đào tạo trước mặc định hoặc bạn có thể chỉ định đường dẫn đến mô hình được đào tạo trước tùy chỉnh. Sử dụng tạ được đào tạo trước và học chuyển tiếp một cách hiệu quả giúp tăng khả năng của mô hình và giảm chi phí đào tạo.

Các kỹ thuật khác cần xem xét khi xử lý một tập dữ liệu lớn

Có một vài kỹ thuật khác cần xem xét khi xử lý một tập dữ liệu lớn:

  • Lập lịch tỷ lệ học tập: Việc triển khai các bộ lập lịch tốc độ học tập sẽ điều chỉnh động tốc độ học tập trong quá trình đào tạo. Tốc độ học tập được điều chỉnh tốt có thể ngăn mô hình vượt quá giá trị cực tiểu và cải thiện tính ổn định. Khi đào tạo YOLO11, lrf Tham số giúp quản lý việc lên lịch tỷ lệ học tập bằng cách đặt tỷ lệ học tập cuối cùng là một phần nhỏ của tỷ lệ ban đầu.
  • Đào tạo phân tán: Để xử lý các tập dữ liệu lớn, đào tạo phân tán có thể là một yếu tố thay đổi cuộc chơi. Bạn có thể giảm thời gian đào tạo bằng cách phân tán khối lượng công việc đào tạo trên nhiều GPU hoặc máy.

Số lượng kỷ nguyên để đào tạo

Khi đào tạo một mô hình, một kỷ nguyên đề cập đến một lần hoàn thành thông qua toàn bộ tập dữ liệu đào tạo. Trong một kỷ nguyên, mô hình xử lý từng ví dụ trong tập đào tạo một lần và cập nhật các tham số của nó dựa trên thuật toán học tập. Nhiều kỷ nguyên thường cần thiết để cho phép mô hình tìm hiểu và tinh chỉnh các tham số của nó theo thời gian.

Một câu hỏi thường gặp là làm thế nào để xác định số kỷ nguyên để đào tạo mô hình. Điểm khởi đầu tốt là 300 kỷ nguyên. Nếu mô hình quá khớp sớm, bạn có thể giảm số kỷ nguyên. Nếu quá khớp không xảy ra sau 300 kỷ nguyên, bạn có thể mở rộng quá trình đào tạo lên 600, 1200 hoặc nhiều kỷ nguyên hơn.

Tuy nhiên, số lượng kỷ nguyên lý tưởng có thể thay đổi tùy theo kích thước tập dữ liệu và mục tiêu dự án của bạn. Các tập dữ liệu lớn hơn có thể yêu cầu nhiều kỷ nguyên hơn để mô hình học hiệu quả, trong khi các tập dữ liệu nhỏ hơn có thể cần ít kỷ nguyên hơn để tránh quá khớp. Đối với YOLO11, bạn có thể đặt epochs tham số trong kịch bản đào tạo của bạn.

Dừng lại sớm

Dừng sớm là một kỹ thuật có giá trị để tối ưu hóa đào tạo mô hình. Bằng cách theo dõi hiệu suất xác thực, bạn có thể tạm dừng đào tạo khi mô hình ngừng cải thiện. Bạn có thể tiết kiệm tài nguyên tính toán và ngăn chặn overfitting.

Quá trình này bao gồm việc thiết lập một tham số kiên nhẫn để xác định số kỷ nguyên cần chờ để cải thiện số liệu xác thực trước khi dừng đào tạo. Nếu hiệu suất của mô hình không cải thiện trong những kỷ nguyên này, quá trình đào tạo sẽ dừng lại để tránh lãng phí thời gian và tài nguyên.

Tổng quan về điểm dừng sớm

Đối với YOLO11, bạn có thể bật dừng sớm bằng cách đặt tham số kiên nhẫn trong cấu hình đào tạo của mình. Ví dụ: patience=5 Có nghĩa là quá trình đào tạo sẽ dừng lại nếu không có cải thiện về số liệu xác thực trong 5 kỷ nguyên liên tiếp. Sử dụng phương pháp này đảm bảo quá trình đào tạo vẫn hiệu quả và đạt được hiệu suất tối ưu mà không cần tính toán quá mức.

Lựa chọn giữa đào tạo đám mây và cục bộ

Có hai tùy chọn để đào tạo mô hình của bạn: đào tạo đám mây và đào tạo cục bộ.

Đào tạo đám mây cung cấp khả năng mở rộng và phần cứng mạnh mẽ và lý tưởng để xử lý các bộ dữ liệu lớn và các mô hình phức tạp. Các nền tảng như Google Đám mây, AWS và Azure cung cấp quyền truy cập theo yêu cầu vào GPU và TPU hiệu suất cao, tăng tốc thời gian đào tạo và cho phép thử nghiệm với các mô hình lớn hơn. Tuy nhiên, đào tạo đám mây có thể tốn kém, đặc biệt là trong thời gian dài và việc truyền dữ liệu có thể làm tăng thêm chi phí và độ trễ.

Đào tạo địa phương cung cấp khả năng kiểm soát và tùy chỉnh tốt hơn, cho phép bạn điều chỉnh môi trường của mình theo nhu cầu cụ thể và tránh chi phí đám mây liên tục. Nó có thể tiết kiệm hơn cho các dự án dài hạn và vì dữ liệu của bạn luôn tại chỗ, nên nó an toàn hơn. Tuy nhiên, phần cứng cục bộ có thể có những hạn chế về tài nguyên và yêu cầu bảo trì, điều này có thể dẫn đến thời gian đào tạo lâu hơn cho các mô hình lớn.

Chọn một trình tối ưu hóa

Bộ tối ưu hóa là thuật toán điều chỉnh trọng số của mạng nơ-ron của bạn để giảm thiểu hàm mất mát , đo lường mức độ hiệu quả của mô hình. Nói một cách đơn giản hơn, bộ tối ưu hóa giúp mô hình học bằng cách điều chỉnh các tham số của nó để giảm lỗi. Việc chọn đúng bộ tối ưu hóa ảnh hưởng trực tiếp đến tốc độ và độ chính xác của mô hình học.

Bạn cũng có thể tinh chỉnh các thông số trình tối ưu hóa để cải thiện hiệu suất mô hình. Điều chỉnh tốc độ học tập đặt kích thước của các bước khi cập nhật thông số. Để ổn định, bạn có thể bắt đầu với tốc độ học tập vừa phải và giảm dần theo thời gian để cải thiện việc học lâu dài. Ngoài ra, việc thiết lập động lượng xác định mức độ ảnh hưởng của các bản cập nhật trong quá khứ đối với các bản cập nhật hiện tại. Giá trị chung cho động lượng là khoảng 0,9. Nó thường cung cấp một sự cân bằng tốt.

Trình tối ưu hóa phổ biến

Các trình tối ưu hóa khác nhau có những điểm mạnh và điểm yếu khác nhau. Chúng ta hãy xem qua một vài trình tối ưu hóa phổ biến.

  • SGD (Stochastic Gradient Descent):

    • Cập nhật các tham số mô hình bằng cách sử dụng gradient của hàm mất liên quan đến các tham số.
    • Đơn giản và hiệu quả nhưng có thể chậm hội tụ và có thể bị mắc kẹt trong mức tối thiểu cục bộ.
  • Adam (Ước tính thời điểm thích ứng):

    • Kết hợp lợi ích của cả SGD với động lượng và RMSProp.
    • Điều chỉnh tốc độ học tập cho từng tham số dựa trên ước tính khoảnh khắc đầu tiên và thứ hai của độ dốc.
    • Rất thích hợp cho dữ liệu ồn ào và độ dốc thưa thớt.
    • Hiệu quả và thường ít phải điều chỉnh hơn, khiến nó trở thành trình tối ưu hóa được khuyến nghị cho YOLO11.
  • RMSProp (Nhân giống bình phương trung bình gốc):

    • Điều chỉnh tốc độ học tập cho mỗi tham số bằng cách chia gradient cho trung bình chạy của độ lớn của các gradient gần đây.
    • Giúp xử lý vấn đề biến mất độ dốc và hiệu quả đối với mạng nơ-ron hồi quy .

Đối với YOLO11, optimizer tham số cho phép bạn chọn từ các trình tối ưu hóa khác nhau, bao gồm SGD, Adam, AdamW, NAdam, RAdam và RMSProp hoặc bạn có thể đặt nó thành auto để lựa chọn tự động dựa trên cấu hình mô hình.

Kết nối với cộng đồng

Trở thành một phần của cộng đồng những người đam mê thị giác máy tính có thể giúp bạn giải quyết vấn đề và học nhanh hơn. Dưới đây là một số cách để kết nối, nhận trợ giúp và chia sẻ ý tưởng.

Tài nguyên cộng đồng

  • GitHub Issues: Truy cập kho lưu trữ GitHub YOLO11 và sử dụng tab Issues để đặt câu hỏi, báo cáo lỗi và đề xuất các tính năng mới. Cộng đồng và người bảo trì rất tích cực và sẵn sàng trợ giúp.
  • Ultralytics Máy chủ Discord: Tham gia Ultralytics Máy chủ Discord để trò chuyện với những người dùng và nhà phát triển khác, nhận hỗ trợ và chia sẻ kinh nghiệm của bạn.

Tài liệu chính thức

  • Tài liệu YOLO11 Ultralytics : Tham khảo tài liệu YOLO11 chính thức để biết hướng dẫn chi tiết và mẹo hữu ích về nhiều dự án thị giác máy tính khác nhau.

Sử dụng các tài nguyên này sẽ giúp bạn giải quyết các thách thức và cập nhật các xu hướng và thực tiễn mới nhất trong cộng đồng thị giác máy tính.

Những điểm chính

Đào tạo mô hình thị giác máy tính bao gồm việc tuân theo các thông lệ tốt, tối ưu hóa các chiến lược của bạn và giải quyết các vấn đề khi chúng phát sinh. Các kỹ thuật như điều chỉnh kích thước lô, đào tạo độ chính xác hỗn hợp và bắt đầu với trọng số được đào tạo trước có thể giúp mô hình của bạn hoạt động tốt hơn và đào tạo nhanh hơn. Các phương pháp như đào tạo tập hợp con và dừng sớm giúp bạn tiết kiệm thời gian và tài nguyên. Giữ kết nối với cộng đồng và theo kịp các xu hướng mới sẽ giúp bạn tiếp tục cải thiện các kỹ năng đào tạo mô hình của mình.

FAQ

Làm thế nào tôi có thể cải thiện GPU Sử dụng khi đào tạo một tập dữ liệu lớn với Ultralytics YOLO?

Để cải thiện GPU Sử dụng, đặt batch_size tham số trong cấu hình đào tạo của bạn ở kích thước tối đa được hỗ trợ bởi GPU . Điều này đảm bảo rằng bạn tận dụng tối đa GPU khả năng của, giảm thời gian đào tạo. Nếu bạn gặp lỗi bộ nhớ, hãy giảm dần kích thước lô cho đến khi quá trình đào tạo diễn ra suôn sẻ. Đối với YOLO11, hãy thiết lập batch=-1 Trong tập lệnh đào tạo của bạn sẽ tự động xác định kích thước lô tối ưu để xử lý hiệu quả. Để biết thêm thông tin, hãy tham khảo Cấu hình đào tạo.

Huấn luyện chính xác hỗn hợp là gì và làm thế nào để tôi kích hoạt nó trong YOLO11?

Đào tạo độ chính xác hỗn hợp sử dụng cả kiểu dấu phẩy động 16 bit (FP16) và 32 bit (FP32) để cân bằng tốc độ tính toán và độ chính xác. Phương pháp này tăng tốc đào tạo và giảm mức sử dụng bộ nhớ mà không làm giảm mô hình sự chính xác. Để kích hoạt đào tạo độ chính xác hỗn hợp trong YOLO11, hãy đặt amp tham số đến True trong cấu hình đào tạo của bạn. Điều này kích hoạt đào tạo Độ chính xác hỗn hợp tự động (AMP). Để biết thêm chi tiết về kỹ thuật tối ưu hóa này, hãy xem Cấu hình đào tạo.

Đào tạo đa thang đo nâng cao hiệu suất của mô hình YOLO11 như thế nào?

Đào tạo đa thang đo tăng cường hiệu suất mô hình bằng cách đào tạo trên các hình ảnh có kích thước khác nhau, cho phép mô hình tổng quát hóa tốt hơn trên các thang đo và khoảng cách khác nhau. Trong YOLO11, bạn có thể bật đào tạo đa thang đo bằng cách thiết lập scale tham số trong cấu hình đào tạo. Chẳng hạn scale=0.5 giảm một nửa kích thước hình ảnh, trong khi scale=2.0 tăng gấp đôi nó. Kỹ thuật này mô phỏng các đối tượng ở các khoảng cách khác nhau, làm cho mô hình mạnh mẽ hơn trong các tình huống khác nhau. Để biết cài đặt và biết thêm chi tiết, hãy xem Cấu hình đào tạo.

Làm thế nào tôi có thể sử dụng tạ đã tập luyện sẵn để tăng tốc quá trình luyện tập trong YOLO11?

Sử dụng trọng số được đào tạo trước có thể giảm đáng kể thời gian đào tạo và cải thiện hiệu suất mô hình bằng cách bắt đầu từ một mô hình đã hiểu các tính năng cơ bản. Trong YOLO11, bạn có thể thiết lập pretrained tham số đến True hoặc chỉ định đường dẫn đến trọng lượng được đào tạo trước tùy chỉnh trong cấu hình đào tạo của bạn. Cách tiếp cận này, được gọi là học chuyển giao, tận dụng kiến thức từ các bộ dữ liệu lớn để thích ứng với nhiệm vụ cụ thể của bạn. Tìm hiểu thêm về tạ được đào tạo trước và lợi thế của chúng Ở đây.

Số lượng kỷ nguyên đề cập đến các lần chạy hoàn chỉnh qua tập dữ liệu đào tạo trong quá trình đào tạo mô hình. Điểm khởi đầu thông thường là 300 kỷ nguyên. Nếu mô hình của bạn quá khớp sớm, bạn có thể giảm số lượng. Ngoài ra, nếu không quan sát thấy quá khớp, bạn có thể mở rộng quá trình đào tạo lên 600, 1200 hoặc nhiều kỷ nguyên hơn. Để thiết lập điều này trong YOLO11, hãy sử dụng epochs tham số trong kịch bản đào tạo của bạn. Để được tư vấn thêm về việc xác định số kỷ nguyên lý tưởng, hãy tham khảo phần này trên Số kỷ nguyên.

📅 Được tạo cách đây 4 tháng ✏️ Đã cập nhật cách đây 1 tháng

Ý kiến