Bỏ để qua phần nội dung

Các phương pháp hay nhất về Machine Learning và mẹo đào tạo mô hình

Giới thiệu

Một trong những bước quan trọng nhất khi làm việc trong một dự án thị giác máy tính là đào tạo mô hình. Trước khi đạt đến bước này, bạn cần xác định mục tiêu của mìnhthu thập và chú thích dữ liệu của bạn. Sau khi xử lý sơ bộ dữ liệu để đảm bảo dữ liệu sạch sẽ và nhất quán, bạn có thể chuyển sang đào tạo mô hình của mình.

Vậy, đào tạo mô hình là gì? Đào tạo mô hình là quá trình dạy mô hình của bạn nhận ra các mẫu trực quan và đưa ra dự đoán dựa trên dữ liệu của bạn. Nó ảnh hưởng trực tiếp đến hiệu suất và độ chính xác của ứng dụng của bạn. Trong hướng dẫn này, chúng tôi sẽ đề cập đến các phương pháp hay nhất, kỹ thuật tối ưu hóa và mẹo khắc phục sự cố để giúp bạn đào tạo các mô hình thị giác máy tính của mình một cách hiệu quả.

Cách đào tạo mô hình Machine Learning

Một mô hình thị giác máy tính được đào tạo bằng cách điều chỉnh các tham số bên trong của nó để giảm thiểu lỗi. Ban đầu, mô hình được cung cấp một tập hợp lớn các hình ảnh được gắn nhãn. Nó đưa ra dự đoán về những gì có trong những hình ảnh này và các dự đoán được so sánh với nhãn hoặc nội dung thực tế để tính toán lỗi. Những lỗi này cho thấy các dự đoán của mô hình cách xa các giá trị thực như thế nào.

Trong quá trình đào tạo, mô hình lặp đi lặp lại đưa ra dự đoán, tính toán lỗi và cập nhật các tham số của nó thông qua một quá trình gọi là lan truyền ngược. Trong quá trình này, mô hình điều chỉnh các tham số bên trong của nó (weights and biases) để giảm lỗi. Bằng cách lặp lại chu kỳ này nhiều lần, mô hình dần dần cải thiện độ chính xác của nó. Theo thời gian, nó học cách nhận ra các mẫu phức tạp như hình dạng, màu sắc và kết cấu.

Backpropagation là gì?

Quá trình học tập này giúp mô hình thị giác máy tính có thể thực hiện các tác vụ khác nhau, bao gồm phát hiện đối tượng, phân đoạn phiên bảnphân loại hình ảnh. Mục tiêu cuối cùng là tạo ra một mô hình có thể khái quát hóa việc học của nó thành những hình ảnh mới, chưa từng thấy để nó có thể hiểu chính xác dữ liệu hình ảnh trong các ứng dụng trong thế giới thực.

Bây giờ chúng ta đã biết những gì đang xảy ra đằng sau hậu trường khi chúng ta đào tạo một mô hình, hãy xem xét các điểm cần xem xét khi đào tạo một mô hình.

Đào tạo về bộ dữ liệu lớn

Có một vài khía cạnh khác nhau để suy nghĩ khi bạn dự định sử dụng một tập dữ liệu lớn để đào tạo một mô hình. Ví dụ: bạn có thể điều chỉnh kích thước lô, kiểm soát GPU sử dụng, chọn sử dụng đào tạo đa cấp, v.v. Hãy xem qua từng tùy chọn này một cách chi tiết.

Kích thước lô và GPU Sử dụng

Khi đào tạo các mô hình trên các tập dữ liệu lớn, hãy sử dụng hiệu quả GPU là chìa khóa. Kích thước lô là một yếu tố quan trọng. Đó là số lượng mẫu dữ liệu mà một mô hình học máy xử lý trong một lần lặp đào tạo duy nhất. Sử dụng kích thước lô tối đa được hỗ trợ bởi GPU, bạn hoàn toàn có thể tận dụng khả năng của nó và giảm thời gian đào tạo mô hình. Tuy nhiên, bạn muốn tránh hết GPU trí nhớ. Nếu bạn gặp lỗi bộ nhớ, hãy giảm dần kích thước lô cho đến khi mô hình hoạt động trơn tru.

Đối với YOLOv8, bạn có thể đặt batch_size tham số trong Cấu hình đào tạo để phù hợp với GPU khả năng. Ngoài ra, cài đặt batch=-1 Trong tập lệnh đào tạo của bạn sẽ tự động xác định kích thước lô có thể được xử lý hiệu quả dựa trên khả năng của thiết bị. Bằng cách tinh chỉnh kích thước lô, bạn có thể tận dụng tối đa GPU nguồn lực và cải thiện quá trình đào tạo tổng thể.

Đào tạo tập hợp con

Đào tạo tập hợp con là một chiến lược thông minh liên quan đến việc đào tạo mô hình của bạn trên một tập dữ liệu nhỏ hơn đại diện cho tập dữ liệu lớn hơn. Nó có thể tiết kiệm thời gian và nguồn lực, đặc biệt là trong quá trình phát triển và thử nghiệm mô hình ban đầu. Nếu bạn đang thiếu thời gian hoặc thử nghiệm với các cấu hình mô hình khác nhau, đào tạo tập hợp con là một lựa chọn tốt.

Khi nói đến YOLOv8, bạn có thể dễ dàng thực hiện đào tạo tập hợp con bằng cách sử dụng fraction thông số. Tham số này cho phép bạn chỉ định phần nào của tập dữ liệu sẽ sử dụng để đào tạo. Ví dụ: cài đặt fraction=0.1 sẽ đào tạo mô hình của bạn trên 10% dữ liệu. Bạn có thể sử dụng kỹ thuật này để lặp lại nhanh chóng và điều chỉnh mô hình của mình trước khi cam kết đào tạo mô hình bằng tập dữ liệu đầy đủ. Đào tạo tập hợp con giúp bạn tiến bộ nhanh chóng và xác định sớm các vấn đề tiềm ẩn.

Đào tạo đa quy mô

Đào tạo đa cấp độ là một kỹ thuật cải thiện khả năng khái quát hóa mô hình của bạn bằng cách đào tạo nó trên các hình ảnh có kích thước khác nhau. Mô hình của bạn có thể học cách phát hiện các đối tượng ở các quy mô và khoảng cách khác nhau và trở nên mạnh mẽ hơn.

Ví dụ, khi bạn đào tạo YOLOv8, bạn có thể bật đào tạo đa cấp độ bằng cách đặt scale thông số. Tham số này điều chỉnh kích thước của hình ảnh đào tạo theo một yếu tố cụ thể, mô phỏng các đối tượng ở các khoảng cách khác nhau. Ví dụ: cài đặt scale=0.5 sẽ giảm một nửa kích thước hình ảnh, trong khi scale=2.0 sẽ nhân đôi nó. Việc định cấu hình tham số này cho phép mô hình của bạn trải nghiệm nhiều tỷ lệ hình ảnh khác nhau và cải thiện khả năng phát hiện của nó trên các kích thước và kịch bản đối tượng khác nhau.

Caching

Bộ nhớ đệm là một kỹ thuật quan trọng để nâng cao hiệu quả của việc đào tạo các mô hình học máy. Bằng cách lưu trữ hình ảnh được xử lý sẵn trong bộ nhớ, bộ nhớ đệm làm giảm thời gian GPU dành thời gian chờ dữ liệu được tải từ đĩa. Mô hình có thể liên tục nhận dữ liệu mà không bị chậm trễ do hoạt động I / O đĩa.

Bộ nhớ đệm có thể được kiểm soát khi đào tạo YOLOv8 Sử dụng cache thông số:

  • cache=True: Lưu trữ hình ảnh tập dữ liệu trong RAM, cung cấp tốc độ truy cập nhanh nhất nhưng với chi phí sử dụng bộ nhớ tăng lên.
  • cache='disk': Lưu trữ hình ảnh trên đĩa, chậm hơn RAM nhưng nhanh hơn so với tải dữ liệu mới mỗi lần.
  • cache=False: Vô hiệu hóa bộ nhớ đệm, dựa hoàn toàn vào I / O đĩa, đây là tùy chọn chậm nhất.

Đào tạo chính xác hỗn hợp

Đào tạo chính xác hỗn hợp sử dụng cả hai loại dấu phẩy động 16 bit (FP16) và 32 bit (FP32). Điểm mạnh của cả FP16 và FP32 đều được tận dụng bằng cách sử dụng FP16 để tính toán nhanh hơn và FP32 để duy trì độ chính xác khi cần thiết. Hầu hết các hoạt động của mạng nơ-ron được thực hiện trong FP16 để hưởng lợi từ việc tính toán nhanh hơn và sử dụng bộ nhớ thấp hơn. Tuy nhiên, một bản sao chính của trọng lượng của mô hình được giữ trong FP32 để đảm bảo độ chính xác trong các bước cập nhật trọng lượng. Bạn có thể xử lý các mô hình lớn hơn hoặc kích thước lô lớn hơn trong cùng một ràng buộc phần cứng.

Tổng quan về đào tạo độ chính xác hỗn hợp

Để thực hiện đào tạo chính xác hỗn hợp, bạn sẽ cần sửa đổi các tập lệnh đào tạo của mình và đảm bảo phần cứng của bạn (như GPU) hỗ trợ nó. Nhiều framework deep learning hiện đại, chẳng hạn như Tensorflow, cung cấp hỗ trợ tích hợp cho độ chính xác hỗn hợp.

Đào tạo độ chính xác hỗn hợp rất đơn giản khi làm việc với YOLOv8. Bạn có thể sử dụng amp gắn cờ trong cấu hình đào tạo của bạn. Khung cảnh amp=True cho phép đào tạo Độ chính xác hỗn hợp tự động (AMP). Đào tạo chính xác hỗn hợp là một cách đơn giản nhưng hiệu quả để tối ưu hóa quy trình đào tạo mô hình của bạn.

Trọng lượng được đào tạo trước

Sử dụng tạ được đào tạo trước là một cách thông minh để tăng tốc quá trình đào tạo người mẫu của bạn. Trọng lượng được đào tạo trước đến từ các mô hình đã được đào tạo trên các bộ dữ liệu lớn, giúp mô hình của bạn có một khởi đầu thuận lợi. Chuyển giao học tập điều chỉnh các mô hình được đào tạo trước cho các nhiệm vụ mới, liên quan. Tinh chỉnh một mô hình được đào tạo trước liên quan đến việc bắt đầu với các trọng lượng này và sau đó tiếp tục đào tạo trên tập dữ liệu cụ thể của bạn. Phương pháp đào tạo này dẫn đến thời gian đào tạo nhanh hơn và thường có hiệu suất tốt hơn vì mô hình bắt đầu với sự hiểu biết vững chắc về các tính năng cơ bản.

Các pretrained Tham số giúp việc học chuyển tiếp trở nên dễ dàng với YOLOv8. Khung cảnh pretrained=True sẽ sử dụng trọng lượng được đào tạo trước mặc định hoặc bạn có thể chỉ định đường dẫn đến mô hình được đào tạo trước tùy chỉnh. Sử dụng tạ được đào tạo trước và học chuyển tiếp một cách hiệu quả giúp tăng khả năng của mô hình và giảm chi phí đào tạo.

Các kỹ thuật khác cần xem xét khi xử lý một tập dữ liệu lớn

Có một vài kỹ thuật khác cần xem xét khi xử lý một tập dữ liệu lớn:

  • Công cụ lập lịch tỷ lệ học tập: Thực hiện lập lịch trình tỷ lệ học tập tự động điều chỉnh tỷ lệ học tập trong quá trình đào tạo. Tốc độ học tập được điều chỉnh tốt có thể ngăn mô hình vượt quá mức tối thiểu và cải thiện độ ổn định. Khi đào tạo YOLOv8, các lrf Tham số giúp quản lý việc lên lịch tỷ lệ học tập bằng cách đặt tỷ lệ học tập cuối cùng là một phần nhỏ của tỷ lệ ban đầu.
  • Đào tạo phân tán: Để xử lý các tập dữ liệu lớn, đào tạo phân tán có thể là một yếu tố thay đổi cuộc chơi. Bạn có thể giảm thời gian đào tạo bằng cách phân tán khối lượng công việc đào tạo trên nhiều GPU hoặc máy.

Số lượng kỷ nguyên để đào tạo

Khi đào tạo một mô hình, một kỷ nguyên đề cập đến một lần hoàn thành thông qua toàn bộ tập dữ liệu đào tạo. Trong một kỷ nguyên, mô hình xử lý từng ví dụ trong tập đào tạo một lần và cập nhật các tham số của nó dựa trên thuật toán học tập. Nhiều kỷ nguyên thường cần thiết để cho phép mô hình tìm hiểu và tinh chỉnh các tham số của nó theo thời gian.

Một câu hỏi phổ biến được đặt ra là làm thế nào để xác định số lượng kỷ nguyên để đào tạo mô hình. Một điểm khởi đầu tốt là 300 kỷ nguyên. Nếu mô hình trang bị sớm, bạn có thể giảm số lượng kỷ nguyên. Nếu overfitting không xảy ra sau 300 kỷ nguyên, bạn có thể mở rộng đào tạo lên 600, 1200 hoặc nhiều kỷ nguyên.

Tuy nhiên, số kỷ nguyên lý tưởng có thể thay đổi dựa trên kích thước tập dữ liệu và mục tiêu dự án của bạn. Các bộ dữ liệu lớn hơn có thể yêu cầu nhiều kỷ nguyên hơn để mô hình học hiệu quả, trong khi các bộ dữ liệu nhỏ hơn có thể cần ít kỷ nguyên hơn để tránh quá tải. Đối với YOLOv8, bạn có thể đặt epochs tham số trong kịch bản đào tạo của bạn.

Dừng lại sớm

Dừng sớm là một kỹ thuật có giá trị để tối ưu hóa đào tạo mô hình. Bằng cách theo dõi hiệu suất xác thực, bạn có thể tạm dừng đào tạo khi mô hình ngừng cải thiện. Bạn có thể tiết kiệm tài nguyên tính toán và ngăn chặn overfitting.

Quá trình này liên quan đến việc thiết lập tham số về mức độ kiên nhẫn để xác định số lượng kỷ nguyên cần chờ cải thiện số liệu xác thực trước khi ngừng đào tạo. Nếu hiệu suất của mô hình không cải thiện trong các kỷ nguyên này, việc đào tạo sẽ bị dừng lại để tránh lãng phí thời gian và nguồn lực.

Tổng quan về điểm dừng sớm

Cho YOLOv8, bạn có thể bật dừng sớm bằng cách đặt thông số kiên nhẫn trong cấu hình đào tạo của mình. Chẳng hạn patience=5 Có nghĩa là quá trình đào tạo sẽ dừng lại nếu không có cải thiện về số liệu xác thực trong 5 kỷ nguyên liên tiếp. Sử dụng phương pháp này đảm bảo quá trình đào tạo vẫn hiệu quả và đạt được hiệu suất tối ưu mà không cần tính toán quá mức.

Lựa chọn giữa đào tạo đám mây và cục bộ

Có hai tùy chọn để đào tạo mô hình của bạn: đào tạo đám mây và đào tạo cục bộ.

Đào tạo đám mây cung cấp khả năng mở rộng và phần cứng mạnh mẽ và lý tưởng để xử lý các bộ dữ liệu lớn và các mô hình phức tạp. Các nền tảng như Google Đám mây, AWS và Azure cung cấp quyền truy cập theo yêu cầu vào GPU và TPU hiệu suất cao, tăng tốc thời gian đào tạo và cho phép thử nghiệm với các mô hình lớn hơn. Tuy nhiên, đào tạo đám mây có thể tốn kém, đặc biệt là trong thời gian dài và việc truyền dữ liệu có thể làm tăng thêm chi phí và độ trễ.

Đào tạo địa phương cung cấp khả năng kiểm soát và tùy chỉnh tốt hơn, cho phép bạn điều chỉnh môi trường của mình theo nhu cầu cụ thể và tránh chi phí đám mây liên tục. Nó có thể tiết kiệm hơn cho các dự án dài hạn và vì dữ liệu của bạn luôn tại chỗ, nên nó an toàn hơn. Tuy nhiên, phần cứng cục bộ có thể có những hạn chế về tài nguyên và yêu cầu bảo trì, điều này có thể dẫn đến thời gian đào tạo lâu hơn cho các mô hình lớn.

Chọn một trình tối ưu hóa

Trình tối ưu hóa là một thuật toán điều chỉnh trọng số của mạng thần kinh của bạn để giảm thiểu chức năng mất mát, đo lường mô hình đang hoạt động tốt như thế nào. Nói một cách đơn giản hơn, trình tối ưu hóa giúp mô hình học bằng cách điều chỉnh các tham số của nó để giảm lỗi. Chọn trình tối ưu hóa phù hợp ảnh hưởng trực tiếp đến việc mô hình học nhanh và chính xác như thế nào.

Bạn cũng có thể tinh chỉnh các thông số trình tối ưu hóa để cải thiện hiệu suất mô hình. Điều chỉnh tốc độ học tập đặt kích thước của các bước khi cập nhật thông số. Để ổn định, bạn có thể bắt đầu với tốc độ học tập vừa phải và giảm dần theo thời gian để cải thiện việc học lâu dài. Ngoài ra, việc thiết lập động lượng xác định mức độ ảnh hưởng của các bản cập nhật trong quá khứ đối với các bản cập nhật hiện tại. Giá trị chung cho động lượng là khoảng 0,9. Nó thường cung cấp một sự cân bằng tốt.

Trình tối ưu hóa phổ biến

Các trình tối ưu hóa khác nhau có những điểm mạnh và điểm yếu khác nhau. Chúng ta hãy xem qua một vài trình tối ưu hóa phổ biến.

  • SGD (Stochastic Gradient Descent):

    • Cập nhật các tham số mô hình bằng cách sử dụng gradient của hàm mất liên quan đến các tham số.
    • Đơn giản và hiệu quả nhưng có thể chậm hội tụ và có thể bị mắc kẹt trong mức tối thiểu cục bộ.
  • Adam (Ước tính thời điểm thích ứng):

    • Kết hợp lợi ích của cả SGD với động lượng và RMSProp.
    • Điều chỉnh tốc độ học tập cho từng tham số dựa trên ước tính khoảnh khắc đầu tiên và thứ hai của độ dốc.
    • Rất thích hợp cho dữ liệu ồn ào và độ dốc thưa thớt.
    • Hiệu quả và thường yêu cầu ít điều chỉnh hơn, làm cho nó trở thành một trình tối ưu hóa được đề xuất cho YOLOv8.
  • RMSProp (Nhân giống bình phương trung bình gốc):

    • Điều chỉnh tốc độ học tập cho mỗi tham số bằng cách chia gradient cho trung bình chạy của độ lớn của các gradient gần đây.
    • Giúp xử lý vấn đề gradient biến mất và có hiệu quả cho các mạng thần kinh tái phát.

Cho YOLOv8, các optimizer tham số cho phép bạn chọn từ các trình tối ưu hóa khác nhau, bao gồm SGD, Adam, AdamW, NAdam, RAdam và RMSProp hoặc bạn có thể đặt nó thành auto để lựa chọn tự động dựa trên cấu hình mô hình.

Kết nối với cộng đồng

Trở thành một phần của cộng đồng những người đam mê thị giác máy tính có thể giúp bạn giải quyết vấn đề và học nhanh hơn. Dưới đây là một số cách để kết nối, nhận trợ giúp và chia sẻ ý tưởng.

Tài nguyên cộng đồng

  • Các vấn đề về GitHub: Ghé thăm YOLOv8 Kho lưu trữ GitHub và sử dụng tab Vấn đề để đặt câu hỏi, báo cáo lỗi và đề xuất các tính năng mới. Cộng đồng và những người bảo trì rất tích cực và sẵn sàng giúp đỡ.
  • Ultralytics Máy chủ Discord: Tham gia Ultralytics Máy chủ Discord để trò chuyện với những người dùng và nhà phát triển khác, nhận hỗ trợ và chia sẻ kinh nghiệm của bạn.

Tài liệu chính thức

  • Ultralytics YOLOv8 Tài liệu: Kiểm tra chính thức YOLOv8 Tài liệu cho hướng dẫn chi tiết và lời khuyên hữu ích về các dự án thị giác máy tính khác nhau.

Sử dụng các tài nguyên này sẽ giúp bạn giải quyết các thách thức và cập nhật các xu hướng và thực tiễn mới nhất trong cộng đồng thị giác máy tính.

Những điểm chính

Đào tạo các mô hình thị giác máy tính liên quan đến việc tuân theo các thực tiễn tốt, tối ưu hóa chiến lược của bạn và giải quyết các vấn đề khi chúng phát sinh. Các kỹ thuật như điều chỉnh kích thước lô, đào tạo chính xác hỗn hợp và bắt đầu với tạ được đào tạo trước có thể làm cho mô hình của bạn hoạt động tốt hơn và đào tạo nhanh hơn. Các phương pháp như đào tạo tập hợp con và dừng sớm giúp bạn tiết kiệm thời gian và nguồn lực. Duy trì kết nối với cộng đồng và theo kịp các xu hướng mới sẽ giúp bạn tiếp tục cải thiện kỹ năng đào tạo người mẫu của mình.

FAQ

Làm thế nào tôi có thể cải thiện GPU Sử dụng khi đào tạo một tập dữ liệu lớn với Ultralytics YOLO?

Để cải thiện GPU Sử dụng, đặt batch_size tham số trong cấu hình đào tạo của bạn đến kích thước tối đa được hỗ trợ bởi GPU. Điều này đảm bảo rằng bạn tận dụng tối đa GPUkhả năng của nó, giảm thời gian đào tạo. Nếu bạn gặp lỗi bộ nhớ, hãy giảm dần kích thước lô cho đến khi quá trình đào tạo diễn ra suôn sẻ. Cho YOLOv8khung cảnh batch=-1 Trong tập lệnh đào tạo của bạn sẽ tự động xác định kích thước lô tối ưu để xử lý hiệu quả. Để biết thêm thông tin, hãy tham khảo Cấu hình đào tạo.

Đào tạo độ chính xác hỗn hợp là gì và làm cách nào để kích hoạt nó trong YOLOv8?

Đào tạo chính xác hỗn hợp sử dụng cả hai loại dấu phẩy động 16 bit (FP16) và 32 bit (FP32) để cân bằng tốc độ tính toán và độ chính xác. Cách tiếp cận này tăng tốc độ đào tạo và giảm mức sử dụng bộ nhớ mà không làm giảm độ chính xác của mô hình. Để cho phép đào tạo chính xác hỗn hợp trong YOLOv8, đặt amp tham số đến True trong cấu hình đào tạo của bạn. Điều này kích hoạt đào tạo Độ chính xác hỗn hợp tự động (AMP). Để biết thêm chi tiết về kỹ thuật tối ưu hóa này, hãy xem Cấu hình đào tạo.

Làm thế nào để đào tạo đa quy mô tăng cường YOLOv8 Hiệu suất mô hình?

Đào tạo đa cấp độ nâng cao hiệu suất mô hình bằng cách đào tạo trên các hình ảnh có kích thước khác nhau, cho phép mô hình khái quát hóa tốt hơn trên các thang đo và khoảng cách khác nhau. Trong YOLOv8, bạn có thể bật đào tạo đa cấp độ bằng cách đặt scale tham số trong cấu hình đào tạo. Chẳng hạn scale=0.5 giảm một nửa kích thước hình ảnh, trong khi scale=2.0 tăng gấp đôi nó. Kỹ thuật này mô phỏng các đối tượng ở các khoảng cách khác nhau, làm cho mô hình mạnh mẽ hơn trong các tình huống khác nhau. Để biết cài đặt và biết thêm chi tiết, hãy xem Cấu hình đào tạo.

Làm thế nào tôi có thể sử dụng tạ được đào tạo trước để tăng tốc độ tập luyện trong YOLOv8?

Sử dụng tạ được đào tạo trước có thể giảm đáng kể thời gian đào tạo và cải thiện hiệu suất mô hình bằng cách bắt đầu từ một mô hình đã hiểu các tính năng cơ bản. Trong YOLOv8, bạn có thể đặt pretrained tham số đến True hoặc chỉ định đường dẫn đến trọng lượng được đào tạo trước tùy chỉnh trong cấu hình đào tạo của bạn. Cách tiếp cận này, được gọi là học chuyển giao, tận dụng kiến thức từ các bộ dữ liệu lớn để thích ứng với nhiệm vụ cụ thể của bạn. Tìm hiểu thêm về tạ được đào tạo trước và lợi thế của chúng Ở đây.

Số lượng kỷ nguyên đề cập đến việc hoàn thành thông qua tập dữ liệu đào tạo trong quá trình đào tạo mô hình. Điểm khởi đầu điển hình là 300 kỷ nguyên. Nếu mô hình của bạn trang bị sớm, bạn có thể giảm số lượng. Ngoài ra, nếu không quan sát thấy quá mức, bạn có thể mở rộng đào tạo đến 600, 1200 hoặc nhiều kỷ nguyên hơn. Để đặt tùy chọn này trong YOLOv8, sử dụng epochs tham số trong kịch bản đào tạo của bạn. Để được tư vấn thêm về việc xác định số kỷ nguyên lý tưởng, hãy tham khảo phần này trên Số kỷ nguyên.


📅 Created 2 months ago ✏️ Updated 5 days ago

Ý kiến