A API de Detecção de Insultos é um modelo de machine learning de última geração projetado para identificar e sinalizar automaticamente conteúdo tóxico e prejudicial em texto gerado por usuários. Esta API aproveita o poder do Processamento de Linguagem Natural (NLP) e do Aprendizado de Máquina para analisar e classificar textos, tornando-se um ativo valioso para uma variedade de aplicações, como moderação de conteúdo, segurança online e gerenciamento de redes sociais.
A funcionalidade central da API de Detecção de Insultos gira em torno de sua capacidade excepcional de detectar e classificar com precisão diferentes tipos de conteúdo tóxico, como discurso de ódio, linguagem ofensiva, insultos e profanidade. Aproveitando um grande conjunto de dados de textos tóxicos rotulados, o modelo foi treinado para reconhecer padrões e marcas linguísticas indicativas de linguagem prejudicial, permitindo fazer previsões em tempo real com notável precisão e eficiência.
Com uma interface intuitiva e fácil de usar, integrar a API em plataformas e aplicações existentes é um processo simples. Seu design robusto permite que os usuários acessem facilmente a funcionalidade da API, tornando-a acessível a uma ampla gama de organizações e empresas. Essa inclusividade desempenha um papel vital na promoção de um espaço digital mais seguro e respeitoso para todos os usuários.
Além disso, a API de Detecção de Insultos suporta múltiplas linguagens de programação, aumentando ainda mais sua versatilidade e compatibilidade com vários ecossistemas de software. Essa flexibilidade permite que os usuários implementem a API em várias plataformas, independentemente de sua linguagem de programação preferida, e garante um processo de integração suave sem a necessidade de grandes modificações.
Em conclusão, a API de Detecção de Insultos representa um passo importante na promoção de um ambiente online mais seguro e respeitoso. Esta ferramenta permite que as organizações identifiquem e abordem automaticamente conteúdo tóxico, contribuindo para os esforços contínuos de combate ao cyberbullying, discurso de ódio e linguagem ofensiva.
Ela receberá parâmetros e fornecerá um JSON.
Moderação de conteúdo em redes sociais: As plataformas de redes sociais podem usar a API para detectar e filtrar automaticamente comentários tóxicos, discurso de ódio e linguagem ofensiva, garantindo uma experiência de usuário mais segura e positiva para sua comunidade.
Gerenciamento de fóruns online: Fóruns comunitários podem usar a API para monitorar conteúdo gerado por usuários e remover rapidamente quaisquer postagens tóxicas ou prejudiciais, mantendo um ambiente respeitoso e construtivo para os membros.
Aplicativos de chat: Aplicativos de chat e plataformas de mensagens podem integrar a API para sinalizar e filtrar automaticamente postagens tóxicas, promovendo uma comunicação saudável entre os usuários.
Plataformas de publicação de conteúdo: Plataformas de publicação de conteúdo, como blogs e sites de notícias, podem usar a API para pré-filtrar comentários de usuários e impedir que conteúdo tóxico apareça ao lado de artigos e publicações.
Plataformas de e-learning: Plataformas de e-learning e sites educacionais podem utilizar a API para monitorar e filtrar qualquer linguagem tóxica ou inadequada usada em discussões e comentários, criando um ambiente de aprendizado seguro para alunos e educadores.
Plano Básico: 1.000 Chamadas API. 1 solicitação por segundo.
Plano Pro: 4.500 Chamadas API. 1 solicitação por segundo.
Plano Pro Plus: 10.000 Chamadas API. 2 solicitações por segundo.
Para usar este endpoint você deve inserir uma palavra ou texto no parâmetro
Detecção de toxicidade - Recursos do endpoint
| Objeto | Descrição |
|---|---|
Corpo da requisição |
[Obrigatório] Json |
{"toxic":0.78711975,"indecent":0.9892319,"threat":0.0083886795,"offensive":0.37052566,"erotic":0.14190358,"spam":0.08707619}
curl --location --request POST 'https://zylalabs.com/api/2262/insult+detection+api/2128/toxicity+detection' --header 'Authorization: Bearer YOUR_API_KEY'
--data-raw '{
"text": "This is an example comment to analyze."
}'
| Cabeçalho | Descrição |
|---|---|
Authorization
|
[Obrigatório] Deve ser Bearer access_key. Veja "Sua chave de acesso à API" acima quando você estiver inscrito. |
Sem compromisso de longo prazo. Faça upgrade, downgrade ou cancele a qualquer momento. O teste gratuito inclui até 50 requisições.
Para usar esta API você deve inserir um texto
Existem diferentes planos que atendem a todos, incluindo um plano gratuito para uma pequena quantidade de solicitações por dia, mas sua taxa é limitada para evitar abuso do serviço
Zyla oferece uma ampla gama de métodos de integração para quase todas as linguagens de programação Você pode usar esses códigos para integrar com seu projeto conforme necessário
A API de Detecção de Insultos é uma ferramenta sofisticada projetada para identificar linguagem ofensiva e insultos em conteúdo textual
O endpoint de Detecção de Toxicidade retorna um objeto JSON contendo pontuações que indicam a probabilidade de vários tipos de conteúdo tóxico no texto de entrada, como "tóxico", "indecente", "ameaça", "ofensivo", "erótico" e "spam"
Os campos chave nos dados de resposta incluem "tóxico", "indecente", "ameaça", "ofensivo", "erótico" e "spam", cada um representado como um escore de ponto flutuante entre 0 e 1, indicando a probabilidade daquele tipo de conteúdo
Os dados da resposta estão organizados em um formato JSON onde cada chave corresponde a um tipo de toxicidade e o valor associado é uma pontuação numérica que reflete a probabilidade dessa toxicidade no texto analisado
O parâmetro principal para o endpoint de Detecção de Toxicidade é o texto de entrada que deve ser fornecido no corpo da solicitação. Os usuários podem personalizar suas solicitações variando o conteúdo do texto que enviam para análise
Os usuários podem utilizar os dados retornados interpretando as pontuações para determinar o nível de toxicidade no texto Por exemplo uma pontuação "tóxica" alta pode incentivar ações de moderação enquanto pontuações mais baixas podem indicar conteúdo aceitável
Casos de uso típicos para os dados de Detecção de Toxicidade incluem moderar comentários em redes sociais filtrar mensagens em aplicativos de chat e garantir comunicação respeitosa em fóruns online e plataformas educacionais
A precisão dos dados é mantida através do uso de um grande conjunto de dados rotulados para treinar o modelo de aprendizado de máquina junto com atualizações e melhorias contínuas baseadas no feedback dos usuários e em novos padrões de dados
As verificações de qualidade incluem avaliações regulares do desempenho do modelo em relação a conjuntos de dados de referência monitoramento de falsos positivos/negativos e mecanismos de feedback dos usuários para aprimorar as capacidades de detecção ao longo do tempo
Nível de serviço:
100%
Tempo de resposta:
360ms
Nível de serviço:
100%
Tempo de resposta:
231ms
Nível de serviço:
100%
Tempo de resposta:
582ms
Nível de serviço:
100%
Tempo de resposta:
831ms
Nível de serviço:
100%
Tempo de resposta:
580ms
Nível de serviço:
100%
Tempo de resposta:
377ms
Nível de serviço:
100%
Tempo de resposta:
2.258ms
Nível de serviço:
100%
Tempo de resposta:
1.079ms
Nível de serviço:
100%
Tempo de resposta:
607ms
Nível de serviço:
100%
Tempo de resposta:
2.201ms