参考 ultralytics/hub/__init__.py
注
このファイルはhttps://github.com/ultralytics/ultralytics/blob/main/ ultralytics/hub/init.py にあります。もし問題を発見したら、Pull Request🛠️ を投稿して修正にご協力ください。ありがとうございました!
ultralytics.hub.login(api_key=None, save=True)
提供されたAPIキーを使用して、Ultralytics HUB APIにログインします。
セッションは保存されません。新しいセッションは、認証に成功した場合、保存されたSETTINGSまたはHUB_API_KEY 環境変数を使って必要な時に新しいセッションが作成されます。
パラメーター
名称 | タイプ | 説明 | デフォルト |
---|---|---|---|
api_key |
str
|
認証に使用する API キー。 省略した場合は、環境変数 SETTINGS あるいは HUB_API_KEY から取得します。 |
None
|
save |
bool
|
認証に成功した場合にAPIキーをSETTINGSに保存するかどうか。 |
True
|
リターンズ
タイプ | 説明 |
---|---|
bool
|
認証に成功すれば真、そうでなければ偽。 |
ソースコード ultralytics/hub/__init__.py
ultralytics.hub.logout()
設定ファイルからAPIキーを削除して、Ultralytics HUBからログアウトします。再度ログインするには、「yolo hub login」を使用します。
ソースコード ultralytics/hub/__init__.py
ultralytics.hub.reset_model(model_id='')
学習済みモデルを未学習の状態に戻す。
ソースコード ultralytics/hub/__init__.py
ultralytics.hub.export_fmts_hub()
HUBがサポートするエクスポートフォーマットのリストを返します。
ultralytics.hub.export_model(model_id='', format='torchscript')
モデルをすべてのフォーマットにエクスポートします。
ソースコード ultralytics/hub/__init__.py
ultralytics.hub.get_export(model_id='', format='torchscript')
エクスポートされたモデル辞書をダウンロードURLとともに取得します。
ソースコード ultralytics/hub/__init__.py
ultralytics.hub.check_dataset(path, task)
HUBデータセットZipファイルをアップロードする前にエラーチェックを行う関数。データセットがHUBにアップロードされる前にエラーがないかチェックする。 をチェックする。以下に使用例を示す。
パラメーター
名称 | タイプ | 説明 | デフォルト |
---|---|---|---|
path |
str
|
data.zipへのパス(data.zipの中にdata.yamlを含む)。 |
必須 |
task |
str
|
データセットタスク。オプションは'detect'、'segment'、'pose'、'classify'、'obb'。 |
必須 |
例
https://github.com/ultralytics/hub/tree/main/example_datasets から *.zip ファイルをダウンロードする。 すなわち、https://github.com/ultralytics/hub/raw/main/example_datasets/coco8.zip から coco8.zip をダウンロードします。
from ultralytics.hub import check_dataset
check_dataset('path/to/coco8.zip', task='detect') # detect dataset
check_dataset('path/to/coco8-seg.zip', task='segment') # segment dataset
check_dataset('path/to/coco8-pose.zip', task='pose') # pose dataset
check_dataset('path/to/dota8.zip', task='obb') # OBB dataset
check_dataset('path/to/imagenet10.zip', task='classify') # classification dataset