ClearML Integração
Sobre ClearML
ClearML é uma caixa de ferramentas de código aberto concebida para lhe poupar tempo ⏱️.
Acompanhar todos os treinos de YOLOv5 no gestor de experiências
🔧 Controle e aceda facilmente aos seus dados de formação personalizados com aferramenta integradade controlo de versões de dados ClearML
Treine e monitorize remotamente os seus treinos em YOLOv5 utilizando o ClearML Agent
🔬 Obter o melhor mAP utilizando a ClearML Otimização de hiperparâmetros
🔭 Transforme seu modeloYOLOv5 recém-treinado em uma API com apenas alguns comandos usando ClearML Serving
E muito mais. Cabe-lhe a si decidir quantas destas ferramentas quer utilizar, pode limitar-se ao gestor de experiências ou encadeá-las todas num pipeline impressionante!
🦾 Preparar as coisas
Para manter o controlo das suas experiências e/ou dados, o ClearML precisa de comunicar com um servidor. Tem 2 opções para obter um:
Pode inscrever-se gratuitamente no ClearML Hosted Service ou pode configurar o seu próprio servidor, veja aqui. Até o servidor é de código aberto, por isso, mesmo que esteja a lidar com dados sensíveis, não deve ter problemas!
-
Instalar o
clearml
python pacote: -
Ligue o SDK ClearML ao servidor criando credenciais (vá ao topo direito para Definições -> Espaço de trabalho -> Criar novas credenciais), depois execute o comando abaixo e siga as instruções:
É isso aí! Está feito 😎
🚀 Formação YOLOv5 Com ClearML
Para ativar o acompanhamento de experiências em ClearML , basta instalar o pacote pip ClearML .
Isto permitirá a integração com o guião de treino YOLOv5 . A partir de agora, cada treino será capturado e armazenado pelo gestor de experiências ClearML .
Se pretender alterar o project_name
ou task_name
utilizar o --project
e --name
argumentos do train.py
por defeito, o projeto chamar-se-á YOLOv5
e a tarefa Training
. ATENÇÃO: ClearML utiliza /
como um delimitador para subprojectos, por isso tenha cuidado ao utilizar /
no nome do seu projeto!
ou com nome de projeto e tarefa personalizados:
python train.py --project my_project --name my_training --img 640 --batch 16 --epochs 3 --data coco8.yaml --weights yolov5s.pt --cache
Isto irá capturar:
- Código fonte + alterações não confirmadas
- Pacotes instalados
- (Hiper)parâmetros
- Ficheiros modelo (utilizar
--save-period n
para guardar um ponto de controlo a cada n épocas) - Saída da consola
- Escalares (mAP_0.5, mAP_0.5:0.95, precisão, recuperação, perdas, taxas de aprendizagem, ...)
- Informações gerais, como detalhes da máquina, tempo de execução, data de criação, etc.
- Todos os gráficos produzidos, como o correlograma de etiquetas e a matriz de confusão
- Imagens com caixas delimitadoras por época
- Mosaico por época
- Imagens de validação por época
Isso é muito, certo? 🤯 Agora, podemos visualizar todas essas informações na interface do usuário ClearML para obter uma visão geral do progresso do nosso treinamento. Adicione colunas personalizadas à visualização da tabela (como, por exemplo, mAP_0.5) para que você possa classificar facilmente o modelo de melhor desempenho. Ou selecione várias experiências e compare-as diretamente!
Há ainda mais coisas que podemos fazer com toda esta informação, como a otimização de hiperparâmetros e a execução remota, por isso continue a ler se quiser ver como isso funciona!
Gestão de versões de conjuntos de dados
O facto de versionar os seus dados separadamente do seu código é geralmente uma boa ideia e facilita também a aquisição da versão mais recente. Este repositório suporta o fornecimento de um ID de versão do conjunto de dados e certificar-se-á de que obtém os dados se estes ainda não estiverem disponíveis. Além disso, este fluxo de trabalho também guarda o ID do conjunto de dados utilizado como parte dos parâmetros da tarefa, pelo que saberá sempre com certeza que dados foram utilizados em que experiência!
Preparar o conjunto de dados
O repositório YOLOv5 suporta uma série de conjuntos de dados diferentes, utilizando ficheiros YAML que contêm as suas informações. Por defeito, os conjuntos de dados são descarregados para o ficheiro ../datasets
em relação à pasta raiz do repositório. Assim, se descarregou a pasta coco128
utilizando a ligação no YAML ou com os scripts fornecidos por yolov5, obtém-se esta estrutura de pastas:
Mas este pode ser qualquer conjunto de dados que deseje. Pode utilizar o seu próprio conjunto de dados, desde que respeite esta estrutura de pastas.
Em seguida,⚠️copy o ficheiro YAML correspondente à raiz do conjunto de dados folder⚠️.Este ficheiro YAML contém as informações de que ClearML necessitará para utilizar corretamente o conjunto de dados. Você também pode fazer isso sozinho, é claro, basta seguir a estrutura dos YAMLs de exemplo.
Basicamente, precisamos das seguintes chaves: path
, train
, test
, val
, nc
, names
.
..
|_ yolov5
|_ datasets
|_ coco128
|_ images
|_ labels
|_ coco128.yaml # <---- HERE!
|_ LICENSE
|_ README.txt
Carregar o seu conjunto de dados
Para colocar este conjunto de dados em ClearML como um conjunto de dados versionado, vá para a pasta raiz do conjunto de dados e execute o seguinte comando:
O comando clearml-data sync
é de facto um comando abreviado. Também pode executar estes comandos um após o outro:
# Optionally add --parent <parent_dataset_id> if you want to base
# this version on another dataset version, so no duplicate files are uploaded!
clearml-data create --name coco128 --project YOLOv5
clearml-data add --files .
clearml-data close
Executar treinamento usando um conjunto de dados ClearML
Agora que tem um conjunto de dados ClearML , pode muito simplesmente utilizá-lo para treinar modelos YOLOv5 🚀 personalizados!
python train.py --img 640 --batch 16 --epochs 3 --data clearml://<your_dataset_id> --weights yolov5s.pt --cache
👀 Otimização de hiperparâmetros
Agora que temos as nossas experiências e dados versionados, é altura de vermos o que podemos construir em cima!
Utilizando as informações do código, os pacotes instalados e os detalhes do ambiente, a própria experiência é agora completamente reproduzível. De facto, ClearML permite clonar uma experiência e até alterar os seus parâmetros. Podemos então executá-la de novo com estes novos parâmetros automaticamente, que é basicamente o que o HPO faz!
Para executar a otimização de hiperparâmetros localmente, incluímos um script pré-fabricado para si. Basta certificar-se de que uma tarefa de treino foi executada pelo menos uma vez, para que esteja no gestor de experiências ClearML . Iremos essencialmente cloná-la e alterar os seus hiperparâmetros.
Terá de preencher o ID deste template task
no guião que se encontra em utils/loggers/clearml/hpo.py
e depois basta executá-lo :) Pode alterar task.execute_locally()
para task.execute()
para o colocar numa fila ClearML e fazer com que um agente remoto trabalhe nele.
# To use optuna, install it first, otherwise you can change the optimizer to just be RandomSearch
pip install optuna
python utils/loggers/clearml/hpo.py
Execução remota (avançada)
Executar o HPO localmente é muito útil, mas e se quisermos executar as nossas experiências numa máquina remota? Talvez você tenha acesso a uma máquina GPU muito poderosa no local, ou tenha algum orçamento para usar GPUs na nuvem. É aqui que o agente ClearML entra em ação. Veja o que o agente pode fazer aqui:
Resumindo: cada experiência monitorizada pelo gestor de experiências contém informação suficiente para a reproduzir numa máquina diferente (pacotes instalados, alterações não confirmadas, etc.). Assim, um agente ClearML faz exatamente isso: ouve uma fila para tarefas recebidas e, quando encontra uma, recria o ambiente e executa-a enquanto continua a reportar escalares, gráficos, etc. ao gestor de experiências.
Pode transformar qualquer máquina (uma VM na nuvem, uma máquina local GPU , o seu próprio portátil ... ) num agente ClearML , bastando para isso executar:
Clonagem, edição e colocação em fila de espera
Com o nosso agente em execução, podemos dar-lhe algum trabalho. Lembra-se de que, na secção HPO, podemos clonar uma tarefa e editar os hiperparâmetros? Também podemos fazer isso a partir da interface!
🪄 Clonar a experiência clicando com o botão direito do rato
🎯 Editar os hiperparâmetros de acordo com o que pretende que eles sejam
Colocar a tarefa em fila de espera em qualquer uma das filas de espera, clicando com o botão direito do rato
Execução de uma tarefa remotamente
Agora pode clonar uma tarefa como explicámos acima, ou simplesmente marcar o seu script atual adicionando task.execute_remotely()
e, após a sua execução, será colocada numa fila de espera, para que o agente comece a trabalhar nela!
Para executar o script de treinamento YOLOv5 remotamente, tudo o que você precisa fazer é adicionar esta linha ao script training.py depois que o logger clearml tiver sido instanciado:
# ...
# Loggers
data_dict = None
if RANK in {-1, 0}:
loggers = Loggers(save_dir, weights, opt, hyp, LOGGER) # loggers instance
if loggers.clearml:
loggers.clearml.task.execute_remotely(queue="my_queue") # <------ ADD THIS LINE
# Data_dict is either None is user did not choose for ClearML dataset or is filled in by ClearML
data_dict = loggers.clearml.data_dict
# ...
Ao executar o script de treino após esta alteração, python executará o script até essa linha, após o que empacotará o código e enviá-lo-á para a fila de espera!
Escalonamento automático de trabalhadores
ClearML também vem com autoscalers! Esta ferramenta irá automaticamente ligar novas máquinas remotas na nuvem da sua escolha (AWS, GCP, Azure) e transformá-las em agentes ClearML sempre que forem detectadas experiências na fila. Assim que as tarefas forem processadas, o autoscaler desligará automaticamente as máquinas remotas e deixará de pagar!
Veja o vídeo de introdução aos autoscalers abaixo.