A API de Análise de Toxicidade de Texto foi projetada para analisar e classificar a toxicidade em fragmentos de texto. Esta API ajuda a manter espaços de conversa seguros e respeitosos, avaliando com precisão o conteúdo potencialmente prejudicial. Quando qualquer texto é enviado como entrada, o sistema retorna uma pontuação geral de toxicidade, uma classificação clara (como "não_tóxico" ou "tóxico") e uma análise detalhada por categoria, incluindo toxicidade geral, toxicidade severa, linguagem obscena, ameaças, insultos e ódio baseado em identidade.
Graças a modelos avançados de processamento de linguagem natural (NLP), esta API pode identificar nuances sutis na linguagem, detectando até mesmo expressões disfarçadas como abuso, agressão passiva ou linguagem polarizadora. Cada análise inclui níveis de confiança para apoiar decisões automatizadas ou moderação assistida por humanos.
Para usar este endpoint, você deve especificar um texto para analisar os níveis de toxicidade
Detecção de toxicidade - Recursos do endpoint
| Objeto | Descrição |
|---|---|
Corpo da requisição |
[Obrigatório] Json |
{"request_id":"a92c6fa4-2649-4a1b-9c2e-0af536a77e17","overall_score":0.2841,"classification":"toxic","confidence":0.2841,"category_scores":{"toxic":0.2841,"severe_toxic":0.003,"obscene":0.0075,"threat":0.0313,"insult":0.0505,"identity_hate":0.0417}}
curl --location --request POST 'https://zylalabs.com/api/7803/text+toxicity+analyzer+api/12777/toxicity+detection' --header 'Authorization: Bearer YOUR_API_KEY'
--data-raw '{
"text": "I hate you.."
}'
| Cabeçalho | Descrição |
|---|---|
Authorization
|
[Obrigatório] Deve ser Bearer access_key. Veja "Sua chave de acesso à API" acima quando você estiver inscrito. |
Sem compromisso de longo prazo. Faça upgrade, downgrade ou cancele a qualquer momento. O teste gratuito inclui até 50 requisições.
A API retorna uma pontuação geral de toxicidade, um rótulo de classificação (por exemplo, "não tóxico" ou "tóxico") e uma análise detalhada das categorias de toxicidade, como toxicidade geral, toxicidade severa, linguagem obscena, ameaças, insultos e ódio baseado em identidade
Os campos chave na resposta incluem "toxicity_score" "classification" e divisões de categoria como "general_toxicity" "severe_toxicity" "obscene" "threats" "insults" e "hate_speech" cada um acompanhado por níveis de confiança
Os dados da resposta estão estruturados em um formato JSON, com um objeto principal contendo a pontuação geral de toxicidade e classificação, seguido por objetos aninhados para cada categoria de toxicidade, detalhando pontuações e níveis de confiança
O parâmetro principal para o endpoint POST é o campo "text" onde os usuários inserem o texto que desejam analisar quanto à toxicidade Parâmetros adicionais podem incluir configurações de idioma ou categorias específicas de toxicidade para se concentrar
A precisão dos dados é mantida através de modelos avançados de processamento de linguagem natural (NLP) que são regularmente atualizados e treinados em conjuntos de dados diversos para reconhecer nuances linguísticas sutis e expressões em evolução de toxicidade
Casos de uso típicos incluem moderar fóruns online analisar conteúdo gerado por usuários em busca de linguagem prejudicial aprimorar diretrizes da comunidade e desenvolver ferramentas para comunicação segura em aplicações de chat
Os usuários podem utilizar os dados retornados integrando as pontuações de toxicidade e classificações nos fluxos de trabalho de moderação, acionando alertas para altos níveis de toxicidade ou gerando relatórios para avaliar a saúde e segurança da comunidade
As verificações de qualidade incluem a avaliação contínua do modelo em comparação com dados do mundo real, ciclos de feedback dos usuários e métricas de desempenho para garantir que a API detecte e classifique com precisão a toxicidade em vários contextos e idiomas
Nível de serviço:
100%
Tempo de resposta:
61ms
Nível de serviço:
100%
Tempo de resposta:
246ms
Nível de serviço:
100%
Tempo de resposta:
65ms
Nível de serviço:
100%
Tempo de resposta:
65ms
Nível de serviço:
100%
Tempo de resposta:
74ms
Nível de serviço:
100%
Tempo de resposta:
382ms
Nível de serviço:
100%
Tempo de resposta:
404ms
Nível de serviço:
100%
Tempo de resposta:
111ms
Nível de serviço:
100%
Tempo de resposta:
166ms
Nível de serviço:
100%
Tempo de resposta:
188ms
Nível de serviço:
100%
Tempo de resposta:
1.514ms
Nível de serviço:
100%
Tempo de resposta:
522ms
Nível de serviço:
100%
Tempo de resposta:
5.748ms
Nível de serviço:
100%
Tempo de resposta:
14.286ms
Nível de serviço:
100%
Tempo de resposta:
482ms
Nível de serviço:
100%
Tempo de resposta:
519ms
Nível de serviço:
100%
Tempo de resposta:
369ms
Nível de serviço:
100%
Tempo de resposta:
3.497ms
Nível de serviço:
100%
Tempo de resposta:
1.322ms
Nível de serviço:
100%
Tempo de resposta:
2.016ms