Esta API aprovecha los últimos avances en procesamiento de lenguaje natural y algoritmos de aprendizaje automático para identificar y puntuar con precisión comentarios, publicaciones y mensajes dañinos. Esto significa que las organizaciones y sitios web pueden adaptar el sistema de moderación a sus necesidades y requisitos específicos, ya sea bloqueando ciertas palabras o frases, o identificando patrones de comportamiento que pueden indicar conductas tóxicas, obscenas o abusivas. Esto es de gran ayuda, ya que les permite moderar eficazmente contenido en múltiples idiomas y mantener un ambiente seguro y acogedor.
Las plataformas educativas pueden usar la API para monitorear las discusiones de los estudiantes en busca de cualquier lenguaje tóxico u ofensivo, creando un ambiente de aprendizaje saludable. Los sitios web de ofertas de empleo pueden usar la API para monitorear comentarios en las publicaciones de empleo y detectar cualquier lenguaje tóxico u ofensivo.
En general, la API de moderador de profanidad de toxicidad basada en ML multilingüe para contenido generado por usuarios es una herramienta esencial para organizaciones y sitios web que buscan crear un entorno en línea seguro y acogedor para sus usuarios. Con sus avanzados algoritmos de aprendizaje automático, proporciona una solución poderosa y efectiva para detectar contenido tóxico y ofensivo, ayudando a crear una experiencia en línea más positiva e inclusiva para todos.
¿Qué recibe su API y qué proporciona (entrada/salida)?
Recibirá un parámetro y le proporcionará un JSON.
Plataformas de redes sociales: Las plataformas de redes sociales pueden usar la API para detectar y eliminar automáticamente comentarios dañinos y ofensivos en publicaciones, asegurando que los usuarios tengan una experiencia segura y positiva.
Foros de discusión en línea: Los foros de discusión en línea pueden usar la API para moderar contenido generado por usuarios y asegurar que las discusiones permanezcan respetuosas y en el tema.
Sitios web de comercio electrónico: Los sitios web de comercio electrónico pueden usar la API para monitorear reseñas y comentarios de clientes, asegurando que todos los comentarios sean apropiados y libres de lenguaje tóxico.
Comunidades de videojuegos: Las comunidades de videojuegos pueden usar la API para moderar el chat dentro del juego y eliminar cualquier lenguaje tóxico u ofensivo, creando una experiencia más segura y agradable para todos los jugadores.
Sitios web de noticias: Los sitios web de noticias pueden usar la API para monitorear comentarios en artículos y eliminar cualquier lenguaje tóxico u ofensivo, asegurando que los lectores tengan una experiencia positiva.
1 solicitud por segundo.
Plan Básico: 100,000 llamadas API. 50 solicitudes por segundo.
Plan Pro: 300,000 llamadas API. 50 solicitudes por segundo.
Plan Pro Plus: 900,000 llamadas API. 50 solicitudes por segundo.
Plan Premium: 2,300,000 llamadas API. 50 solicitudes por segundo.
Para utilizar este endpoint, debes ingresar un texto en el parámetro.
Detección de toxinas - Características del Endpoint
| Objeto | Descripción |
|---|---|
text |
[Requerido] |
{"original": "damn it", "censored": "**** it", "has_profanity": true}
curl --location --request GET 'https://zylalabs.com/api/1364/toxic+text+detector+api/6111/toxic+detection?text=damn it' --header 'Authorization: Bearer YOUR_API_KEY'
| Encabezado | Descripción |
|---|---|
Autorización
|
[Requerido] Debería ser Bearer access_key. Consulta "Tu Clave de Acceso a la API" arriba cuando estés suscrito. |
Sin compromiso a largo plazo. Mejora, reduce o cancela en cualquier momento. La Prueba Gratuita incluye hasta 50 solicitudes.
El endpoint de Detección de Toxicidad devuelve un objeto JSON que contiene el texto original, una versión censurada del texto y un booleano que indica si el texto contiene profanidad.
Los campos clave en los datos de respuesta son "original" (el texto de entrada), "censurado" (el texto con las groserías reemplazadas por asteriscos) y "tiene_groserías" (un booleano que indica la presencia de lenguaje ofensivo).
Los datos de respuesta están estructurados como un objeto JSON con tres campos: "original," "censurado," y "tiene_profanidad," lo que permite un fácil análisis y utilización en aplicaciones.
El parámetro principal para el endpoint de Detección de Toxicidad es la entrada de texto, que los usuarios deben proporcionar para analizar el lenguaje tóxico.
Los usuarios pueden personalizar sus solicitudes variando el texto de entrada para analizar diferentes frases o comentarios por su toxicidad, adaptando la moderación a tipos de contenido específicos.
Los casos de uso típicos incluyen moderar comentarios en redes sociales, filtrar contenido generado por usuarios en foros y asegurar un lenguaje apropiado en chats de juegos.
La precisión de los datos se mantiene a través de algoritmos de aprendizaje automático avanzados que aprenden continuamente de conjuntos de datos diversos, asegurando una detección efectiva del lenguaje tóxico en varios contextos.
Los controles de calidad incluyen actualizaciones regulares de los modelos de aprendizaje automático, validación contra datos del mundo real y mecanismos de retroalimentación de los usuarios para mejorar las capacidades de detección a lo largo del tiempo.
Nivel de Servicio:
100%
Tiempo de Respuesta:
950ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
61ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
246ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
65ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
65ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
382ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
74ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
580ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
111ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
188ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
16.709ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
258ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
309ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
315ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
1.865ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
2.741ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
639ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
61ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
1.417ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
287ms