Salta para o conteúdo

YOLO API de inferência

A API de inferência YOLO permite-te aceder às capacidades de deteção de objectos YOLOv8 através de uma API RESTful. Isto permite-te executar a deteção de objectos em imagens sem a necessidade de instalar e configurar localmente o ambiente YOLOv8 .

Captura de ecrã da API de inferência Captura de ecrã da secção API Inference no separador Preview do modelo treinado.



Observa: Ultralytics Passo a passo da API de inferência do HUB

URL DA API

O URL da API é o endereço utilizado para aceder à API de inferência YOLO . Neste caso, o URL de base é:

https://api.ultralytics.com/v1/predict

Exemplo de utilização em Python

Para aceder à API de inferência YOLO com o modelo especificado e a chave da API utilizando Python, podes utilizar o seguinte código:

import requests

# API URL, use actual MODEL_ID
url = f"https://api.ultralytics.com/v1/predict/MODEL_ID"

# Headers, use actual API_KEY
headers = {"x-api-key": "API_KEY"}

# Inference arguments (optional)
data = {"size": 640, "confidence": 0.25, "iou": 0.45}

# Load image and send request
with open("path/to/image.jpg", "rb") as image_file:
    files = {"image": image_file}
    response = requests.post(url, headers=headers, files=files, data=data)

print(response.json())

Neste exemplo, substitui API_KEY com a tua chave de API real, MODEL_ID com o ID do modelo desejado, e path/to/image.jpg com o caminho para a imagem que queres analisar.

Exemplo de utilização com cURL

Podes utilizar a API de inferência YOLO com URL de cliente (cURL) utilizando o curl comanda. Substitui API_KEY com a tua chave de API real, MODEL_ID com o ID do modelo desejado, e image.jpg com o caminho para a imagem que queres analisar:

curl -X POST "https://api.ultralytics.com/v1/predict/MODEL_ID" \
    -H "x-api-key: API_KEY" \
    -F "image=@/path/to/image.jpg" \
    -F "size=640" \
    -F "confidence=0.25" \
    -F "iou=0.45"

Passagem de argumentos

Este comando envia um pedido POST para a API de inferência YOLO com o MODEL_ID no URL e o API_KEY no pedido headersjuntamente com o ficheiro de imagem especificado por @path/to/image.jpg.

Aqui está um exemplo de como passar o size, confidencee iou através do URL da API, utilizando o argumento requests biblioteca em Python:

import requests

# API URL, use actual MODEL_ID
url = f"https://api.ultralytics.com/v1/predict/MODEL_ID"

# Headers, use actual API_KEY
headers = {"x-api-key": "API_KEY"}

# Inference arguments (optional)
data = {"size": 640, "confidence": 0.25, "iou": 0.45}

# Load image and send request
with open("path/to/image.jpg", "rb") as image_file:
    files = {"image": image_file}
    response = requests.post(url, headers=headers, files=files, data=data)

print(response.json())

Neste exemplo, o data O dicionário contém os argumentos da consulta size, confidencee iouque diz à API para executar a inferência no tamanho de imagem 640 com limiares de confiança e IoU de 0,25 e 0,45.

Envia os parâmetros de consulta juntamente com o ficheiro no pedido POST. Vê a tabela abaixo para obteres uma lista completa dos argumentos de inferência disponíveis.

Argumento de Inferência Predefinição Tipo Notas
size 640 int o intervalo válido é 32 - 1280 pixéis
confidence 0.25 float o intervalo válido é 0.01 - 1.0
iou 0.45 float o intervalo válido é 0.0 - 0.95
url '' str URL de imagem opcional se não for passado um ficheiro de imagem
normalize False bool

Devolve o formato JSON

A API de inferência YOLO devolve uma lista JSON com os resultados da deteção. O formato da lista JSON será o mesmo que o produzido localmente pela API de inferência results[0].tojson() comanda.

A lista JSON contém informações sobre os objectos detectados, as suas coordenadas, classes e pontuações de confiança.

Detecta o formato do modelo

YOLO modelos de deteção, tais como yolov8n.ptO método de inferência local, a inferência cURL e a inferência Python podem retornar respostas JSON. Todos estes métodos produzem o mesmo formato de resposta JSON.

Detetar resposta JSON do modelo

from ultralytics import YOLO

# Load model
model = YOLO('yolov8n.pt')

# Run inference
results = model('image.jpg')

# Print image.jpg results in JSON format
print(results[0].tojson())
curl -X POST "https://api.ultralytics.com/v1/predict/MODEL_ID" \
    -H "x-api-key: API_KEY" \
    -F "image=@/path/to/image.jpg" \
    -F "size=640" \
    -F "confidence=0.25" \
    -F "iou=0.45"
import requests

# API URL, use actual MODEL_ID
url = f"https://api.ultralytics.com/v1/predict/MODEL_ID"

# Headers, use actual API_KEY
headers = {"x-api-key": "API_KEY"}

# Inference arguments (optional)
data = {"size": 640, "confidence": 0.25, "iou": 0.45}

# Load image and send request
with open("path/to/image.jpg", "rb") as image_file:
    files = {"image": image_file}
    response = requests.post(url, headers=headers, files=files, data=data)

print(response.json())
{
  "success": True,
  "message": "Inference complete.",
  "data": [
    {
      "name": "person",
      "class": 0,
      "confidence": 0.8359682559967041,
      "box": {
        "x1": 0.08974208831787109,
        "y1": 0.27418340047200523,
        "x2": 0.8706787109375,
        "y2": 0.9887352837456598
      }
    },
    {
      "name": "person",
      "class": 0,
      "confidence": 0.8189555406570435,
      "box": {
        "x1": 0.5847355842590332,
        "y1": 0.05813225640190972,
        "x2": 0.8930277824401855,
        "y2": 0.9903111775716146
      }
    },
    {
      "name": "tie",
      "class": 27,
      "confidence": 0.2909725308418274,
      "box": {
        "x1": 0.3433395862579346,
        "y1": 0.6070465511745877,
        "x2": 0.40964522361755373,
        "y2": 0.9849439832899306
      }
    }
  ]
}

Formato do modelo de segmento

YOLO modelos de segmentação, tais como yolov8n-seg.ptO método de inferência local, a inferência cURL e a inferência Python podem retornar respostas JSON. Todos estes métodos produzem o mesmo formato de resposta JSON.

Resposta JSON do modelo de segmento

from ultralytics import YOLO

# Load model
model = YOLO('yolov8n-seg.pt')

# Run inference
results = model('image.jpg')

# Print image.jpg results in JSON format
print(results[0].tojson())
curl -X POST "https://api.ultralytics.com/v1/predict/MODEL_ID" \
    -H "x-api-key: API_KEY" \
    -F "image=@/path/to/image.jpg" \
    -F "size=640" \
    -F "confidence=0.25" \
    -F "iou=0.45"
import requests

# API URL, use actual MODEL_ID
url = f"https://api.ultralytics.com/v1/predict/MODEL_ID"

# Headers, use actual API_KEY
headers = {"x-api-key": "API_KEY"}

# Inference arguments (optional)
data = {"size": 640, "confidence": 0.25, "iou": 0.45}

# Load image and send request
with open("path/to/image.jpg", "rb") as image_file:
    files = {"image": image_file}
    response = requests.post(url, headers=headers, files=files, data=data)

print(response.json())

Nota segments x e y Os comprimentos podem variar de um objeto para outro. Objectos maiores ou mais complexos podem ter mais pontos de segmento.

{
  "success": True,
  "message": "Inference complete.",
  "data": [
    {
      "name": "person",
      "class": 0,
      "confidence": 0.856913149356842,
      "box": {
        "x1": 0.1064866065979004,
        "y1": 0.2798851860894097,
        "x2": 0.8738358497619629,
        "y2": 0.9894873725043403
      },
      "segments": {
        "x": [
          0.421875,
          0.4203124940395355,
          0.41718751192092896
          ...
        ],
        "y": [
          0.2888889014720917,
          0.2916666567325592,
          0.2916666567325592
          ...
        ]
      }
    },
    {
      "name": "person",
      "class": 0,
      "confidence": 0.8512625694274902,
      "box": {
        "x1": 0.5757311820983887,
        "y1": 0.053943040635850696,
        "x2": 0.8960096359252929,
        "y2": 0.985154045952691
      },
      "segments": {
        "x": [
          0.7515624761581421,
          0.75,
          0.7437499761581421
          ...
        ],
        "y": [
          0.0555555559694767,
          0.05833333358168602,
          0.05833333358168602
          ...
        ]
      }
    },
    {
      "name": "tie",
      "class": 27,
      "confidence": 0.6485961675643921,
      "box": {
        "x1": 0.33911995887756347,
        "y1": 0.6057066175672743,
        "x2": 0.4081430912017822,
        "y2": 0.9916408962673611
      },
      "segments": {
        "x": [
          0.37187498807907104,
          0.37031251192092896,
          0.3687500059604645
          ...
        ],
        "y": [
          0.6111111044883728,
          0.6138888597488403,
          0.6138888597488403
          ...
        ]
      }
    }
  ]
}

Pose Modelo Formato

YOLO modelos de pose, tais como yolov8n-pose.ptO método de inferência local, a inferência cURL e a inferência Python podem retornar respostas JSON. Todos estes métodos produzem o mesmo formato de resposta JSON.

Resposta JSON do modelo de pose

from ultralytics import YOLO

# Load model
model = YOLO('yolov8n-seg.pt')

# Run inference
results = model('image.jpg')

# Print image.jpg results in JSON format
print(results[0].tojson())
curl -X POST "https://api.ultralytics.com/v1/predict/MODEL_ID" \
    -H "x-api-key: API_KEY" \
    -F "image=@/path/to/image.jpg" \
    -F "size=640" \
    -F "confidence=0.25" \
    -F "iou=0.45"
import requests

# API URL, use actual MODEL_ID
url = f"https://api.ultralytics.com/v1/predict/MODEL_ID"

# Headers, use actual API_KEY
headers = {"x-api-key": "API_KEY"}

# Inference arguments (optional)
data = {"size": 640, "confidence": 0.25, "iou": 0.45}

# Load image and send request
with open("path/to/image.jpg", "rb") as image_file:
    files = {"image": image_file}
    response = requests.post(url, headers=headers, files=files, data=data)

print(response.json())

Nota: os modelos pré-treinados com COCO-keypoints terão 17 keypoints humanos. Os visible parte dos pontos-chave indica se um ponto-chave está visível ou obscurecido. Os pontos-chave obscurecidos podem estar fora da imagem ou podem não ser visíveis, por exemplo, os olhos de uma pessoa virados para longe da câmara.

{
  "success": True,
  "message": "Inference complete.",
  "data": [
    {
      "name": "person",
      "class": 0,
      "confidence": 0.8439509868621826,
      "box": {
        "x1": 0.1125,
        "y1": 0.28194444444444444,
        "x2": 0.7953125,
        "y2": 0.9902777777777778
      },
      "keypoints": {
        "x": [
          0.5058594942092896,
          0.5103894472122192,
          0.4920862317085266
          ...
        ],
        "y": [
          0.48964157700538635,
          0.4643048942089081,
          0.4465252459049225
          ...
        ],
        "visible": [
          0.8726999163627625,
          0.653947651386261,
          0.9130823612213135
          ...
        ]
      }
    },
    {
      "name": "person",
      "class": 0,
      "confidence": 0.7474289536476135,
      "box": {
        "x1": 0.58125,
        "y1": 0.0625,
        "x2": 0.8859375,
        "y2": 0.9888888888888889
      },
      "keypoints": {
        "x": [
          0.778544008731842,
          0.7976160049438477,
          0.7530890107154846
          ...
        ],
        "y": [
          0.27595141530036926,
          0.2378823608160019,
          0.23644638061523438
          ...
        ],
        "visible": [
          0.8900790810585022,
          0.789978563785553,
          0.8974530100822449
          ...
        ]
      }
    }
  ]
}



Criado em 2024-01-23, Atualizado em 2024-03-06
Autores: RizwanMunawar (1), glenn-jocher (3), priytosh-tripathi (1)

Comentários