No dinâmico cenário das interações online, o surgimento de conteúdo prejudicial e ofensivo representa um desafio significativo para as plataformas digitais. A API Identificador de Texto Abusivo surge como uma ferramenta poderosa projetada para combater esse problema, fornecendo um mecanismo robusto para identificar textos que podem ser prejudiciais, inadequados ou em violação das diretrizes da plataforma. Esta visão abrangente se aprofunda nos meandros da API Identificador de Texto Abusivo, explorando sua funcionalidade, principais características e várias aplicações.
A API Identificador de Texto Abusivo é uma ferramenta de processamento de linguagem natural desenvolvida para analisar e classificar textos, discernindo conteúdo prejudicial de comunicação benigna. Aproveitando avançados algoritmos de aprendizado de máquina, ela avalia padrões linguísticos, pistas contextuais e estruturas semânticas para identificar textos que podem incluir discurso de ódio, assédio ou outras formas de linguagem prejudicial.
Classificação em múltiplas camadas: A API emprega um sistema de classificação em múltiplas camadas que permite classificar o texto em vários níveis de dano. Essa abordagem sutil permite que as plataformas adaptem suas estratégias de moderação de conteúdo com base na gravidade, garantindo uma resposta equilibrada e sensível ao contexto.
Operando em tempo real, a API Identificador de Texto Abusivo analisa rapidamente o texto recebido, fornecendo feedback instantâneo. Essa capacidade em tempo real é vital para plataformas que buscam manter um ambiente seguro e acolhedor para os usuários.
A API Identificador de Texto Abusivo destaca-se como um farol na busca por promover espaços online positivos e seguros. Sua abordagem sutil para a detecção de texto prejudicial, adaptabilidade e análises em tempo real fazem dela um ativo inestimável para plataformas digitais que navegam no complexo terreno da moderação de conteúdo. Ao aproveitar as capacidades da API Identificador de Texto Abusivo, desenvolvedores e administradores de plataformas podem abordar proativamente os danos online, cultivar comunidades online saudáveis e promover um ambiente onde os usuários possam interagir sem medo de encontrar conteúdo prejudicial.
Ela receberá parâmetros e fornecerá um JSON.
Moderação de Mídias Sociais: Filtrar e sinalizar automaticamente conteúdo prejudicial em plataformas de mídias sociais para manter uma comunidade online positiva.
Aplicativos de Chat: Aprimorar aplicativos de chat prevenindo a disseminação de linguagem ofensiva e assédio.
Comunicações de Suporte ao Cliente: Garantir que interações automatizadas de suporte ao cliente evitem respostas prejudiciais ou inadequadas.
Fóruns Online: Monitorar e moderar discussões em fóruns online para prevenir a disseminação de discurso de ódio ou comportamentos tóxicos.
Plataformas de E-Learning: Promover um ambiente de aprendizado seguro filtrando conteúdo prejudicial em discussões, fóruns e espaços colaborativos.
Além do número de chamadas da API, não há outras limitações.
Para usar este endpoint, você deve inserir um texto no parâmetro
Detectar texto abusivo - Recursos do endpoint
| Objeto | Descrição |
|---|---|
Corpo da requisição |
[Obrigatório] Json |
{"request_id":"cb65c361-de2b-4f44-9eb3-2bded003321e","overall_score":0.0071,"classification":"non_toxic","confidence":0.9929,"category_scores":{"toxic":0.0071,"severe_toxic":0.0036,"obscene":0.0044,"threat":0.0057,"insult":0.0048,"identity_hate":0.0052}}
curl --location --request POST 'https://zylalabs.com/api/2943/abusive+text+identifier+api/3086/detect+abusive+text' --header 'Authorization: Bearer YOUR_API_KEY'
--data-raw '{
"text": "This is an example comment to analyze."
}'
| Cabeçalho | Descrição |
|---|---|
Authorization
|
[Obrigatório] Deve ser Bearer access_key. Veja "Sua chave de acesso à API" acima quando você estiver inscrito. |
Sem compromisso de longo prazo. Faça upgrade, downgrade ou cancele a qualquer momento. O teste gratuito inclui até 50 requisições.
Para usar esta API você deve indicar um texto para analisar se é um texto ofensivo
Zyla oferece uma ampla gama de métodos de integração para quase todas as linguagens de programação Você pode usar esses códigos para integrar ao seu projeto conforme necessário
Existem diferentes planos que atendem a todos incluindo um teste gratuito para um pequeno número de solicitações mas sua taxa é limitada para evitar abusos do serviço
A API Identificador de Texto Abusivo é uma ferramenta avançada de processamento de linguagem natural projetada para analisar e classificar texto, focando especificamente na identificação e sinalização de conteúdo abusivo ou prejudicial
O endpoint Detect Abusive Text retorna um objeto JSON que indica se texto prejudicial foi detectado, juntamente com uma análise de tipos específicos de conteúdo prejudicial identificados
Os campos principais na resposta incluem "sentence" (o texto analisado), "harmful_text_detected" (um booleano indicando se conteúdo prejudicial foi encontrado) e "contains" (um objeto detalhando tipos específicos de linguagem prejudicial)
Os dados de resposta estão estruturados como um objeto JSON com o resultado da análise principal no nível superior e classificações detalhadas aninhadas dentro do objeto "contains" para clareza
O parâmetro principal para este endpoint é a entrada de texto que você deseja analisar quanto ao conteúdo abusivo Os usuários podem personalizar suas solicitações fornecendo diferentes cadeias de texto para avaliação
Os usuários podem utilizar os dados retornados para implementar estratégias de moderação de conteúdo, como sinalizar ou filtrar mensagens nocivas com base no campo "harmful_text_detected" e nos tipos específicos de toxicidade indicados no objeto "contains"
O endpoint fornece informações sobre se o texto é prejudicial, os tipos específicos de conteúdo prejudicial detectados (por exemplo, insultos, ameaças) e um resumo do nível geral de toxicidade
A precisão dos dados é mantida por meio de algoritmos avançados de aprendizado de máquina que aprendem continuamente com novos dados garantindo que a API se adapte a padrões e contextos de linguagem em evolução
Casos de uso típicos incluem moderar conteúdo gerado por usuários em mídias sociais melhorar aplicativos de chat para prevenir assédio e garantir comunicação segura em fóruns online e plataformas de e-learning
Nível de serviço:
100%
Tempo de resposta:
619ms
Nível de serviço:
100%
Tempo de resposta:
580ms
Nível de serviço:
100%
Tempo de resposta:
111ms
Nível de serviço:
100%
Tempo de resposta:
1.079ms
Nível de serviço:
100%
Tempo de resposta:
817ms
Nível de serviço:
100%
Tempo de resposta:
921ms
Nível de serviço:
100%
Tempo de resposta:
204ms
Nível de serviço:
100%
Tempo de resposta:
1.339ms
Nível de serviço:
100%
Tempo de resposta:
1.079ms
Nível de serviço:
100%
Tempo de resposta:
170ms
Nível de serviço:
100%
Tempo de resposta:
3.472ms
Nível de serviço:
100%
Tempo de resposta:
360ms
Nível de serviço:
100%
Tempo de resposta:
53ms
Nível de serviço:
100%
Tempo de resposta:
1.273ms
Nível de serviço:
100%
Tempo de resposta:
296ms
Nível de serviço:
100%
Tempo de resposta:
2.602ms
Nível de serviço:
100%
Tempo de resposta:
1.827ms
Nível de serviço:
100%
Tempo de resposta:
837ms
Nível de serviço:
100%
Tempo de resposta:
4.553ms
Nível de serviço:
100%
Tempo de resposta:
519ms