Esta API ofrece un sistema avanzado para detectar automáticamente lenguaje ofensivo en textos, permitiendo la identificación precisa de palabras inapropiadas, insultos y expresiones potencialmente dañinas. Su objetivo principal es ayudar a evaluar textos en tiempo real, mejorando la seguridad y calidad del contenido generado por los usuarios. Cuando se envía un texto como entrada, la API devuelve un análisis estructurado que incluye varios indicadores esenciales para comprender el nivel de toxicidad presente en el mensaje.
Uno de los atributos más importantes es isProfanity, un valor booleano que indica si el texto contiene lenguaje ofensivo o inapropiado. También proporciona una puntuación, una métrica cuantitativa que representa la probabilidad estimada de que el texto sea considerado profano. Este valor es especialmente útil en entornos donde los umbrales de moderación necesitan ser ajustados para diferentes contextos o audiencias.
La API también incluye un campo de severidad, que clasifica el nivel de severidad del lenguaje detectado. Esta clasificación permite distinguir entre casos leves, como expresiones coloquiales, y situaciones más serias, como insultos directos o lenguaje altamente tóxico. Para mayor claridad, la respuesta también especifica flaggedFor, un conjunto de categorías que explica la razón exacta por la cual el texto fue marcado, permitiendo que los sistemas automatizados tomen decisiones más informadas.
Analiza el texto y detecta lenguaje ofensivo, devolviendo la gravedad, puntuación, categoría marcada, idioma y si el contenido debe considerarse profano o inapropiado
Analizador de Texto - Características del Endpoint
| Objeto | Descripción |
|---|---|
Cuerpo de la Solicitud |
[Requerido] Json |
{"isProfanity":true,"score":0.8,"severity":70,"flaggedFor":["insult"],"language":"en","dialect":"general"}
curl --location --request POST 'https://zylalabs.com/api/11453/text+content+censoring+api/21613/text+analyzer' --header 'Authorization: Bearer YOUR_API_KEY'
--data-raw '{
"message": "I hate you"
}'
| Encabezado | Descripción |
|---|---|
Autorización
|
[Requerido] Debería ser Bearer access_key. Consulta "Tu Clave de Acceso a la API" arriba cuando estés suscrito. |
Sin compromiso a largo plazo. Mejora, reduce o cancela en cualquier momento. La Prueba Gratuita incluye hasta 50 solicitudes.
El endpoint del Analizador de Texto devuelve datos estructurados que incluyen indicadores de lenguaje ofensivo en el texto analizado Salidas clave incluyen si el texto contiene blasfemias una puntuación de gravedad una puntuación de riesgo categorías marcadas el idioma del texto y el dialecto identificado
Los campos clave en los datos de respuesta son `isProfanity` (Booleano), `score` (numérico), `severity` (numérico), `flaggedFor` (arreglo de categorías), `language` (cadena) y `dialect` (cadena) Estos campos proporcionan información sobre la naturaleza y gravedad del lenguaje ofensivo detectado
Los datos de respuesta están organizados en un formato JSON, con cada clave representando un aspecto específico del análisis. Por ejemplo, `isProfanity` indica si el texto es ofensivo, mientras que `flaggedFor` enumera las razones para marcarlo, lo que permite un fácil análisis e interpretación por sistemas automatizados
El endpoint del Analizador de Texto proporciona información sobre la presencia de lenguaje ofensivo niveles de severidad puntajes de riesgo categorías de contenido marcado y el idioma y dialecto del texto Este análisis integral ayuda a entender la toxicidad del contenido generado por los usuarios
Los usuarios pueden personalizar sus solicitudes de datos ajustando el texto de entrada que envían al endpoint del Analizador de Texto Mientras que el endpoint no acepta parámetros adicionales el contenido del texto en sí puede variar para probar diferentes escenarios y analizar varios tipos de lenguaje
Los casos de uso típicos para los datos del Analizador de Texto incluyen la moderación de contenido para plataformas de redes sociales la filtración de comentarios de usuarios en sitios web la mejora de aplicaciones de chat para prevenir el acoso y garantizar el cumplimiento de las pautas comunitarias al identificar lenguaje tóxico
La precisión de los datos se mantiene a través de actualizaciones continuas de los modelos de lenguaje subyacentes y evaluaciones regulares contra conjuntos de datos diversos Esto asegura que la API pueda reconocer y clasificar eficazmente el lenguaje ofensivo en diferentes contextos y dialectos
Patrones de datos estándar en la respuesta incluyen una clara indicación de si el texto es profano (`isProfanity`), una puntuación numérica que refleja la gravedad del lenguaje y una lista de categorías en `flaggedFor`. Los usuarios pueden esperar un formato y una estructura consistentes en la respuesta JSON
Nivel de Servicio:
100%
Tiempo de Respuesta:
111ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
170ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
99ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
204ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
280ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
21ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
270ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
324ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
166ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
332ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
361ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
188ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
111ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
152ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
136ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
593ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
170ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
0ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
1.840ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
169ms