A API Detector de Toxicidade é projetada para analisar e classificar a toxicidade em fragmentos de texto. Essa API ajuda a manter espaços de conversa seguros e respeitosos ao avaliar com precisão conteúdos potencialmente prejudiciais. Quando qualquer texto é enviado como entrada, o sistema retorna uma pontuação geral de toxicidade, uma classificação clara (como “não_tóxico” ou “tóxico”) e uma divisão detalhada por categoria, incluindo toxicidade geral, toxicidade severa, linguagem obscena, ameaças, insultos e ódio baseado na identidade.
Graças a modelos avançados de processamento de linguagem natural (NLP), essa API pode identificar nuances sutis na linguagem, detectando até mesmo expressões disfarçadas como abuso, agressão passiva ou linguagem polarizadora. Cada análise inclui níveis de confiança para apoiar decisões automatizadas ou moderação assistida por humanos.
Para usar este endpoint, você deve especificar um texto para analisar os níveis de toxicidade
Detecção de toxicidade - Recursos do endpoint
| Objeto | Descrição |
|---|---|
Corpo da requisição |
[Obrigatório] Json |
{"request_id":"a92c6fa4-2649-4a1b-9c2e-0af536a77e17","overall_score":0.2841,"classification":"toxic","confidence":0.2841,"category_scores":{"toxic":0.2841,"severe_toxic":0.003,"obscene":0.0075,"threat":0.0313,"insult":0.0505,"identity_hate":0.0417}}
curl --location --request POST 'https://zylalabs.com/api/7795/toxicity+detector+api/12765/toxicity+detection' --header 'Authorization: Bearer YOUR_API_KEY'
--data-raw '{
"text": "I hate you.."
}'
| Cabeçalho | Descrição |
|---|---|
Authorization
|
[Obrigatório] Deve ser Bearer access_key. Veja "Sua chave de acesso à API" acima quando você estiver inscrito. |
Sem compromisso de longo prazo. Faça upgrade, downgrade ou cancele a qualquer momento. O teste gratuito inclui até 50 requisições.
A API retorna uma pontuação geral de toxicidade uma etiqueta de classificação (por exemplo "não tóxico" ou "tóxico") e uma detalhada divisão das categorias de toxicidade como toxicidade geral toxicidade severa linguagem obscena ameaças insultos e ódio baseado em identidade
Os campos chave na resposta incluem "toxicity_score" "classification" e desagregações de categoria como "general_toxicity" "severe_toxicity" "obscene" "threats" "insults" e "hate_speech" cada um acompanhado por níveis de confiança
Os dados da resposta estão estruturados em um formato JSON com um objeto principal contendo a pontuação geral de toxicidade e classificação seguidos de objetos aninhados para cada categoria de toxicidade detalhando pontuações e níveis de confiança
O parâmetro principal para o endpoint POST é o campo "texto" onde os usuários inserem o texto que desejam analisar por toxicidade Outros parâmetros podem incluir configurações de idioma ou categorias específicas de toxicidade para focar
A precisão dos dados é mantida por meio de modelos avançados de processamento de linguagem natural que são regularmente atualizados e treinados em conjuntos de dados diversos para reconhecer nuances sutis da linguagem e expressões em evolução de toxicidade
Casos de uso típicos incluem moderar fóruns online analisar conteúdo gerado por usuários para linguagem prejudicial aprimorar diretrizes da comunidade e desenvolver ferramentas para comunicação segura em aplicativos de chat
Os usuários podem utilizar os dados retornados integrando as pontuações de toxicidade e classificações aos fluxos de trabalho de moderação acionando alertas para altos níveis de toxicidade ou gerando relatórios para avaliar a saúde e segurança da comunidade
Verificações de qualidade incluem avaliação contínua do modelo em relação a dados do mundo real, ciclos de feedback dos usuários e métricas de desempenho para garantir que a API detecte e classifique com precisão a toxicidade em vários contextos e idiomas
Nível de serviço:
100%
Tempo de resposta:
65ms
Nível de serviço:
100%
Tempo de resposta:
61ms
Nível de serviço:
100%
Tempo de resposta:
950ms
Nível de serviço:
100%
Tempo de resposta:
74ms
Nível de serviço:
100%
Tempo de resposta:
188ms
Nível de serviço:
100%
Tempo de resposta:
382ms
Nível de serviço:
100%
Tempo de resposta:
65ms
Nível de serviço:
100%
Tempo de resposta:
404ms
Nível de serviço:
100%
Tempo de resposta:
7.377ms
Nível de serviço:
100%
Tempo de resposta:
377ms
Nível de serviço:
100%
Tempo de resposta:
417ms
Nível de serviço:
100%
Tempo de resposta:
575ms
Nível de serviço:
100%
Tempo de resposta:
828ms
Nível de serviço:
100%
Tempo de resposta:
220ms
Nível de serviço:
100%
Tempo de resposta:
1.134ms
Nível de serviço:
100%
Tempo de resposta:
295ms
Nível de serviço:
100%
Tempo de resposta:
327ms
Nível de serviço:
100%
Tempo de resposta:
620ms
Nível de serviço:
100%
Tempo de resposta:
90ms
Nível de serviço:
100%
Tempo de resposta:
76ms