Esta API aproveita os avanços mais recentes em processamento de linguagem natural e algoritmos de aprendizado de máquina para identificar e classificar com precisão comentários, posts e mensagens prejudiciais. Isso significa que organizações e sites podem ajustar o sistema de moderação às suas necessidades e requisitos específicos, seja bloqueando certas palavras ou frases, ou identificando padrões de comportamento que podem indicar comportamento tóxico, obsceno ou abusivo. Isso é uma grande ajuda, pois permite que moderem efetivamente o conteúdo em vários idiomas e mantenham um ambiente seguro e acolhedor.
Plataformas educacionais podem usar a API para monitorar discussões entre estudantes em busca de qualquer linguagem tóxica ou ofensiva, criando um ambiente de aprendizado saudável. Sites de publicação de empregos podem usar a API para monitorar comentários nas ofertas de emprego e detectar qualquer linguagem tóxica ou ofensiva.
No geral, a API de moderador de profanidade de toxicidade baseada em ML multilíngue para conteúdo gerado pelo usuário é uma ferramenta essencial para organizações e sites que buscam criar um ambiente online seguro e acolhedor para seus usuários. Com seus avançados algoritmos de aprendizado de máquina, fornece uma solução poderosa e eficaz para detectar conteúdo tóxico e ofensivo, ajudando a criar uma experiência online mais positiva e inclusiva para todos.
O que sua API recebe e o que sua API fornece (entrada/saída)?
Ela receberá um parâmetro e fornecerá um JSON.
Plataformas de Mídia Social: As plataformas de mídia social podem usar a API para detectar e remover automaticamente comentários prejudiciais e ofensivos em postagens, garantindo que os usuários tenham uma experiência segura e positiva.
Fóruns de Discussão Online: Fóruns de discussão online podem usar a API para moderar o conteúdo gerado pelos usuários e garantir que as discussões permaneçam respeitosas e no tópico.
Sites de Comércio Eletrônico: Sites de comércio eletrônico podem usar a API para monitorar avaliações e feedback de clientes, garantindo que todos os comentários sejam apropriados e livres de linguagem tóxica.
Comunidades de Jogos: Comunidades de jogos podem usar a API para moderar chats dentro do jogo e remover qualquer linguagem tóxica ou ofensiva, criando uma experiência mais segura e agradável para todos os jogadores.
Sites de Notícias: Sites de notícias podem usar a API para monitorar comentários em artigos e remover qualquer linguagem tóxica ou ofensiva, garantindo que os leitores tenham uma experiência positiva.
1 solicitação por segundo.
Plano Básico: 100000 chamadas de API. 50 solicitações por segundo.
Plano Pro: 300000 chamadas de API. 50 solicitações por segundo.
Plano Pro Plus: 900000 chamadas de API. 50 solicitações por segundo.
Plano Premium: 2300000 chamadas de API. 50 solicitações por segundo.
Para usar este endpoint você deve inserir um texto no parâmetro
Detecção de Tóxicos - Recursos do endpoint
| Objeto | Descrição |
|---|---|
text |
[Obrigatório] |
{"original": "damn it", "censored": "**** it", "has_profanity": true}
curl --location --request GET 'https://zylalabs.com/api/1364/toxic+text+detector+api/6111/toxic+detection?text=damn it' --header 'Authorization: Bearer YOUR_API_KEY'
| Cabeçalho | Descrição |
|---|---|
Authorization
|
[Obrigatório] Deve ser Bearer access_key. Veja "Sua chave de acesso à API" acima quando você estiver inscrito. |
Sem compromisso de longo prazo. Faça upgrade, downgrade ou cancele a qualquer momento. O teste gratuito inclui até 50 requisições.
O endpoint de Detecção Tóxica retorna um objeto JSON contendo o texto original, uma versão censurada do texto e um booleano indicando se o texto contém palavrões
Os campos chave nos dados de resposta são "original" (o texto de entrada), "censored" (o texto com palavras ofensivas substituídas por asteriscos) e "has_profanity" (um booleano indicando a presença de linguagem ofensiva)
Os dados da resposta estão estruturados como um objeto JSON com três campos: "original," "censurado" e "tem_profanação," permitindo uma fácil análise e utilização em aplicações
O parâmetro principal para o endpoint de Detecção de Toxicidade é a entrada de texto, que os usuários devem fornecer para analisar a linguagem tóxica
Os usuários podem personalizar suas solicitações variando o texto de entrada para analisar diferentes frases ou comentários para toxicidade ajustando a moderação a tipos específicos de conteúdo
Casos de uso típicos incluem moderar comentários em mídias sociais filtrar conteúdo gerado por usuários em fóruns e garantir linguagem apropriada em chats de jogos
A precisão dos dados é mantida através de algoritmos avançados de aprendizado de máquina que aprendem continuamente com conjuntos de dados diversos garantindo a detecção eficaz de linguagem tóxica em vários contextos
As verificações de qualidade incluem atualizações regulares dos modelos de aprendizado de máquina validação com dados do mundo real e mecanismos de feedback dos usuários para melhorar as capacidades de detecção ao longo do tempo
Nível de serviço:
100%
Tempo de resposta:
950ms
Nível de serviço:
100%
Tempo de resposta:
61ms
Nível de serviço:
100%
Tempo de resposta:
246ms
Nível de serviço:
100%
Tempo de resposta:
65ms
Nível de serviço:
100%
Tempo de resposta:
65ms
Nível de serviço:
100%
Tempo de resposta:
74ms
Nível de serviço:
100%
Tempo de resposta:
382ms
Nível de serviço:
100%
Tempo de resposta:
111ms
Nível de serviço:
100%
Tempo de resposta:
580ms
Nível de serviço:
100%
Tempo de resposta:
188ms
Nível de serviço:
100%
Tempo de resposta:
235ms
Nível de serviço:
100%
Tempo de resposta:
302ms
Nível de serviço:
100%
Tempo de resposta:
1.277ms
Nível de serviço:
71%
Tempo de resposta:
242ms
Nível de serviço:
100%
Tempo de resposta:
1.118ms
Nível de serviço:
100%
Tempo de resposta:
425ms
Nível de serviço:
100%
Tempo de resposta:
3.929ms
Nível de serviço:
100%
Tempo de resposta:
291ms
Nível de serviço:
100%
Tempo de resposta:
3.928ms
Nível de serviço:
100%
Tempo de resposta:
459ms