Sobre a API:
Nossa API de Reconhecimento de Mãos é uma ferramenta poderosa para detectar e rastrear mãos em imagens. A API foi projetada para funcionar com imagens de entrada que sejam decodificáveis e tenham proporções adequadas. A API processa a imagem e fornece informações detalhadas sobre as mãos que detecta.
A saída inclui a moldura de coordenadas de cada mão, que fornece a localização e orientação da mão na imagem. Além disso, a API fornece informações de coordenadas de 21 pontos de osso para cada mão. Essas informações detalhadas podem ser usadas para uma variedade de aplicações, como realidade virtual e aumentada, interação homem-computador e reconhecimento de gestos.
A API usa algoritmos de visão computacional de ponta para analisar a imagem e detectar mãos com alta precisão. Ela é capaz de lidar com uma ampla gama de condições de iluminação, poses de mãos e fundos, tornando-se uma ferramenta versátil para qualquer aplicação que exigir reconhecimento de mãos.
A API pode ser facilmente integrada ao seu sistema existente, seja um aplicativo móvel, um site ou uma aplicação autônoma. Foi projetada para ser amigável e fácil de usar, tornando-a acessível a desenvolvedores de todos os níveis de habilidade.
No geral, Nossa API de Reconhecimento de Mãos é uma ferramenta poderosa e versátil para detectar e rastrear mãos em imagens. Com sua saída detalhada e interface fácil de usar, é a solução perfeita para uma ampla gama de aplicações que requerem reconhecimento de mãos.
Envie a URL da imagem de sua escolha e recupere as informações reconhecidas pela mão na imagem.
Realidade Virtual e Aumentada: Use a API para rastrear e interpretar gestos das mãos, permitindo uma interação mais natural e intuitiva com ambientes virtuais.
Interação Homem-computador: Use a API para habilitar gestos das mãos como entrada para controlar dispositivos e aplicações, fornecendo uma alternativa aos métodos de entrada tradicionais, como mouse e teclado.
Reconhecimento de Linguagem de Sinais: Use a API para detectar e interpretar gestos das mãos na linguagem de sinais, tornando a comunicação mais acessível para surdos e pessoas com deficiência auditiva.
Jogos: Use a API para rastrear movimentos das mãos e interpretá-los como ações no jogo, permitindo uma jogabilidade mais imersiva e interativa.
Robótica: Use a API para interpretar gestos das mãos como comandos para controlar sistemas robóticos, permitindo uma interação homem-robô mais natural e intuitiva.
Pesquisa Médica: Use a API para rastrear e analisar movimentos das mãos em pacientes com condições que afetam as habilidades motoras, como a doença de Parkinson, para estudar e entender a progressão da doença.
Além das limitações de chamadas de API por mês, não há outras limitações.
Passe a URL da imagem da mão de onde você deseja extrair as informações e coordenadas
Reconhecimento de Mão - Recursos do endpoint
| Objeto | Descrição |
|---|---|
imageUrl |
[Obrigatório] |
{"code":0,"data":{"hand_info":[{"hand_parts":{"4":{"y":204,"x":486,"score":0.81871610879898},"10":{"y":321,"x":454,"score":0.81764525175095},"5":{"y":242,"x":422,"score":0.63888543844223},"11":{"y":359,"x":491,"score":0.79886507987976},"12":{"y":390,"x":523,"score":0.81205058097839},"7":{"y":321,"x":497,"score":0.83726966381073},"18":{"y":343,"x":391,"score":0.81639093160629},"13":{"y":305,"x":380,"score":0.67881578207016},"0":{"y":226,"x":263,"score":0.59736984968185},"8":{"y":353,"x":529,"score":0.8176703453064},"19":{"y":364,"x":422,"score":0.78116250038147},"9":{"y":274,"x":406,"score":0.72501480579376},"6":{"y":289,"x":470,"score":0.82305908203125},"16":{"y":396,"x":497,"score":0.85061377286911},"1":{"y":173,"x":327,"score":0.49955746531487},"3":{"y":194,"x":433,"score":0.7212952375412},"17":{"y":321,"x":353,"score":0.74342161417007},"2":{"y":167,"x":385,"score":0.66624820232391},"14":{"y":343,"x":428,"score":0.8819363117218},"15":{"y":369,"x":465,"score":0.86385977268219},"20":{"y":390,"x":454,"score":0.85869860649109}},"location":{"top":167,"height":229,"score":16.048545837402,"left":263,"width":266}}],"hand_num":1},"message":"success"}
curl --location --request POST 'https://zylalabs.com/api/1102/hand+recognition+api/960/hand+recognition?imageUrl=https://uploads-ssl.webflow.com/577065f4e06b550b0c190c5c/583bb3ca5b8693a10835b1f3_Sophie%27s%20hand_BEN7244.jpg' --header 'Authorization: Bearer YOUR_API_KEY'
| Cabeçalho | Descrição |
|---|---|
Authorization
|
[Obrigatório] Deve ser Bearer access_key. Veja "Sua chave de acesso à API" acima quando você estiver inscrito. |
Sem compromisso de longo prazo. Faça upgrade, downgrade ou cancele a qualquer momento. O teste gratuito inclui até 50 requisições.
A API de Reconhecimento de Mãos retorna informações detalhadas sobre mãos detectadas em imagens incluindo o quadro de coordenadas para cada mão e as coordenadas de 21 nós ósseos que representam pontos-chave na mão
Os campos principais nos dados de resposta incluem "hand_info" que contém um array de mãos detectadas e "hand_parts" que fornece as coordenadas (x, y) e as pontuações de confiança para cada um dos 21 nós ósseos
Os dados da resposta estão estruturados como um objeto JSON Inclui um "código" indicando o status da solicitação e um objeto "dados" contendo "informações_da_mão" que lista as mãos detectadas e suas correspondentes coordenadas de nós ósseos
A API fornece informações sobre detecção de mãos, incluindo a localização e orientação de cada mão, bem como coordenadas detalhadas para 21 pontos específicos na mão, úteis para aplicações como reconhecimento gestual e interação virtual
Os usuários podem personalizar suas solicitações fornecendo diferentes URLs de imagem para o endpoint de Reconhecimento de Mãos POST. A API processa a imagem especificada e retorna dados de detecção de mãos com base no conteúdo dessa imagem
Os casos de uso típicos incluem aplicações de realidade virtual e aumentada para rastreamento de gestos interação humano-computador para métodos de entrada alternativos jogos para experiências imersivas e pesquisa médica para analisar movimentos das mãos em pacientes
A API de Reconhecimento de Mãos utiliza algoritmos avançados de visão computacional que são projetados para lidar com diversas condições de iluminação e poses de mão garantindo alta precisão na detecção e rastreamento das mãos em diferentes cenários
Os usuários podem esperar uma estrutura JSON consistente com um campo "código" e um objeto "dados" Cada mão detectada terá um objeto correspondente "partes_da_mão" contendo coordenadas e pontuações indicando a confiabilidade de cada ponto detectado
Nível de serviço:
100%
Tempo de resposta:
2.610ms
Nível de serviço:
100%
Tempo de resposta:
477ms
Nível de serviço:
100%
Tempo de resposta:
211ms
Nível de serviço:
100%
Tempo de resposta:
949ms
Nível de serviço:
100%
Tempo de resposta:
1.239ms
Nível de serviço:
100%
Tempo de resposta:
820ms
Nível de serviço:
100%
Tempo de resposta:
855ms
Nível de serviço:
100%
Tempo de resposta:
1.104ms
Nível de serviço:
100%
Tempo de resposta:
1.428ms
Nível de serviço:
100%
Tempo de resposta:
1.076ms
Nível de serviço:
100%
Tempo de resposta:
953ms
Nível de serviço:
100%
Tempo de resposta:
2.073ms
Nível de serviço:
100%
Tempo de resposta:
469ms
Nível de serviço:
100%
Tempo de resposta:
2.173ms
Nível de serviço:
100%
Tempo de resposta:
19.536ms
Nível de serviço:
100%
Tempo de resposta:
3.739ms
Nível de serviço:
100%
Tempo de resposta:
342ms
Nível de serviço:
100%
Tempo de resposta:
376ms
Nível de serviço:
100%
Tempo de resposta:
19.536ms
Nível de serviço:
100%
Tempo de resposta:
19.536ms