A API de Captura de Toxicidade de Texto foi projetada para analisar e classificar a toxicidade em fragmentos de texto Esta API ajuda a manter espaços de conversa seguros e respeitosos, avaliando com precisão conteúdos potencialmente prejudiciais Quando qualquer texto é enviado como entrada, o sistema retorna uma pontuação geral de toxicidade, uma classificação clara (como "não_tóxico" ou "tóxico") e uma detalhada divisão por categoria, incluindo toxicidade geral, toxicidade severa, linguagem obscena, ameaças, insultos e ódio baseado em identidade
Graças a modelos avançados de processamento de linguagem natural (NLP), esta API pode identificar nuances sutis na linguagem, detectando até expressões disfarçadas de abuso, agressão passiva ou linguagem polarizadora Cada análise inclui níveis de confiança para apoiar decisões automatizadas ou moderação assistida por humanos
Para usar este endpoint, você deve especificar um texto para analisar os níveis de toxicidade
Detecção de toxicidade - Recursos do endpoint
| Objeto | Descrição |
|---|---|
Corpo da requisição |
[Obrigatório] Json |
{"request_id":"a92c6fa4-2649-4a1b-9c2e-0af536a77e17","overall_score":0.2841,"classification":"toxic","confidence":0.2841,"category_scores":{"toxic":0.2841,"severe_toxic":0.003,"obscene":0.0075,"threat":0.0313,"insult":0.0505,"identity_hate":0.0417}}
curl --location --request POST 'https://zylalabs.com/api/7802/text+toxicity+capture+api/12774/toxicity+detection' --header 'Authorization: Bearer YOUR_API_KEY'
--data-raw '{
"text": "I hate you.."
}'
| Cabeçalho | Descrição |
|---|---|
Authorization
|
[Obrigatório] Deve ser Bearer access_key. Veja "Sua chave de acesso à API" acima quando você estiver inscrito. |
Sem compromisso de longo prazo. Faça upgrade, downgrade ou cancele a qualquer momento. O teste gratuito inclui até 50 requisições.
A API retorna uma pontuação geral de toxicidade uma etiqueta de classificação (por exemplo "não tóxico" ou "tóxico") e uma divisão detalhada das categorias de toxicidade como toxicidade geral toxicidade severa linguagem obscena ameaças insultos e ódio baseado em identidade
Os campos principais na resposta incluem "toxicity_score" "classification" e quebras de categoria como "general_toxicity" "severe_toxicity" "obscene" "threats" "insults" e "hate_speech" cada um acompanhado por níveis de confiança
Os dados da resposta estão estruturados em um formato JSON com um objeto principal contendo a pontuação de toxicidade geral e classificação seguido por objetos aninhados para cada categoria de toxicidade detalhando pontuações e níveis de confiança
O parâmetro principal para o endpoint POST é o campo "texto" onde os usuários inserem o texto que desejam analisar quanto à toxicidade Parâmetros adicionais podem incluir configurações de idioma ou categorias específicas de toxicidade para se concentrar
A precisão dos dados é mantida através de modelos avançados de processamento de linguagem natural que são regularmente atualizados e treinados em conjuntos de dados diversos para reconhecer sutilezas linguísticas e expressões em evolução de toxicidade
Casos de uso típicos incluem moderar fóruns online analisar conteúdo gerado por usuários em busca de linguagem prejudicial aprimorar diretrizes da comunidade e desenvolver ferramentas para comunicação segura em aplicativos de chat
Os usuários podem utilizar os dados retornados integrando os escores de toxicidade e classificações nos fluxos de moder ação acionando alertas para níveis altos de toxicidade ou gerando relatórios para avaliar a saúde e segurança da comunidade
Os controles de qualidade incluem avaliação contínua do modelo em relação a dados do mundo real, ciclos de feedback dos usuários e métricas de desempenho para garantir que a API detecte e classifique com precisão a toxicidade em vários contextos e idiomas
Nível de serviço:
100%
Tempo de resposta:
950ms
Nível de serviço:
100%
Tempo de resposta:
65ms
Nível de serviço:
100%
Tempo de resposta:
246ms
Nível de serviço:
100%
Tempo de resposta:
74ms
Nível de serviço:
100%
Tempo de resposta:
65ms
Nível de serviço:
100%
Tempo de resposta:
382ms
Nível de serviço:
100%
Tempo de resposta:
111ms
Nível de serviço:
100%
Tempo de resposta:
204ms
Nível de serviço:
100%
Tempo de resposta:
404ms
Nível de serviço:
100%
Tempo de resposta:
170ms
Nível de serviço:
100%
Tempo de resposta:
977ms
Nível de serviço:
100%
Tempo de resposta:
937ms
Nível de serviço:
100%
Tempo de resposta:
944ms
Nível de serviço:
100%
Tempo de resposta:
1.765ms
Nível de serviço:
100%
Tempo de resposta:
2.306ms
Nível de serviço:
100%
Tempo de resposta:
1.875ms
Nível de serviço:
100%
Tempo de resposta:
15.677ms
Nível de serviço:
100%
Tempo de resposta:
12ms
Nível de serviço:
100%
Tempo de resposta:
175ms
Nível de serviço:
100%
Tempo de resposta:
1.716ms