La API de Captura de Toxicidad en Texto está diseñada para analizar y clasificar la toxicidad en fragmentos de texto. Esta API ayuda a mantener espacios de conversación seguros y respetuosos al evaluar con precisión el contenido potencialmente dañino. Cuando se envía cualquier texto como entrada, el sistema devuelve una puntuación general de toxicidad, una clasificación clara (como "no tóxico" o "tóxico"), y un desglose detallado por categoría, incluyendo toxicidad general, toxicidad severa, lenguaje obsceno, amenazas, insultos y odio basado en la identidad.
Gracias a modelos avanzados de procesamiento de lenguaje natural (NLP), esta API puede identificar matices sutiles en el lenguaje, detectando incluso expresiones disfrazadas como abuso, agresión pasiva o lenguaje polarizante. Cada análisis incluye niveles de confianza para apoyar decisiones automatizadas o moderación asistida por humanos.
Para usar este endpoint, debes especificar un texto para analizar los niveles de toxicidad.
Detección de toxicidad - Características del Endpoint
| Objeto | Descripción |
|---|---|
Cuerpo de la Solicitud |
[Requerido] Json |
{"request_id":"a92c6fa4-2649-4a1b-9c2e-0af536a77e17","overall_score":0.2841,"classification":"toxic","confidence":0.2841,"category_scores":{"toxic":0.2841,"severe_toxic":0.003,"obscene":0.0075,"threat":0.0313,"insult":0.0505,"identity_hate":0.0417}}
curl --location --request POST 'https://zylalabs.com/api/7802/text+toxicity+capture+api/12774/toxicity+detection' --header 'Authorization: Bearer YOUR_API_KEY'
--data-raw '{
"text": "I hate you.."
}'
| Encabezado | Descripción |
|---|---|
Autorización
|
[Requerido] Debería ser Bearer access_key. Consulta "Tu Clave de Acceso a la API" arriba cuando estés suscrito. |
Sin compromiso a largo plazo. Mejora, reduce o cancela en cualquier momento. La Prueba Gratuita incluye hasta 50 solicitudes.
La API devuelve un puntaje de toxicidad general, una etiqueta de clasificación (por ejemplo, "no tóxico" o "tóxico") y un desglose detallado de las categorías de toxicidad, como toxicidad general, toxicidad severa, lenguaje obsceno, amenazas, insultos y odio basado en la identidad.
Los campos clave en la respuesta incluyen "toxicity_score", "classification" y desgloses de categorías como "general_toxicity", "severe_toxicity", "obscene", "threats", "insults" y "hate_speech", cada uno acompañado por niveles de confianza.
Los datos de respuesta están estructurados en un formato JSON, con un objeto principal que contiene la puntuación general de toxicidad y la clasificación, seguido de objetos anidados para cada categoría de toxicidad, detallando las puntuaciones y los niveles de confianza.
El parámetro principal para el endpoint POST es el campo "text", donde los usuarios ingresan el texto que desean analizar en busca de toxicidad. Los parámetros adicionales pueden incluir configuraciones de idioma o categorías específicas de toxicidad en las que enfocarse.
La precisión de los datos se mantiene a través de modelos avanzados de procesamiento de lenguaje natural (NLP) que se actualizan regularmente y se entrenan en conjuntos de datos diversos para reconocer matices sutiles del lenguaje y expresiones en evolución de toxicidad.
Los casos de uso típicos incluyen moderar foros en línea, analizar contenido generado por los usuarios en busca de lenguaje dañino, mejorar las pautas comunitarias y desarrollar herramientas para una comunicación segura en aplicaciones de chat.
Los usuarios pueden utilizar los datos devueltos integrando los puntajes de toxicidad y clasificaciones en los flujos de trabajo de moderación, activando alertas para niveles de toxicidad altos o generando informes para evaluar la salud y seguridad de la comunidad.
Los controles de calidad incluyen la evaluación continua del modelo contra datos del mundo real, bucles de retroalimentación de usuarios y métricas de rendimiento para garantizar que la API detecte y clasifique con precisión la toxicidad en varios contextos e idiomas.
Nivel de Servicio:
100%
Tiempo de Respuesta:
65ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
950ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
74ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
246ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
65ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
382ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
404ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
111ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
204ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
170ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
7.604ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
50ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
15.473ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
45ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
56ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
48ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
19.930ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
10.552ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
10.552ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
50ms