La API de Detección de Insultos es un modelo de aprendizaje automático de última generación diseñado para identificar y señalar automáticamente contenido tóxico y dañino en textos generados por los usuarios. Esta API aprovecha el poder del Procesamiento del Lenguaje Natural (NLP) y el Aprendizaje Automático para analizar y clasificar texto, convirtiéndola en un recurso valioso para una variedad de aplicaciones como la moderación de contenido, la seguridad en línea y la gestión de redes sociales.
La funcionalidad principal de la API de Detección de Insultos gira en torno a su excepcional capacidad para detectar y clasificar con precisión diferentes tipos de contenido tóxico, como discursos de odio, lenguaje ofensivo, insultos y groserías. Aprovechando un gran conjunto de datos de texto tóxico etiquetado, el modelo ha sido entrenado para reconocer patrones y marcadores lingüísticos indicativos de lenguaje dañino, lo que le permite hacer predicciones en tiempo real con una precisión y eficiencia notables.
Con una interfaz intuitiva y fácil de usar, integrar la API en plataformas y aplicaciones existentes es un proceso sencillo. Su diseño robusto permite a los usuarios acceder fácilmente a la funcionalidad de la API, haciéndola accesible a una amplia gama de organizaciones y empresas. Esta inclusividad desempeña un papel vital en la creación de un espacio digital más seguro y respetuoso para todos los usuarios.
Además, la API de Detección de Insultos admite múltiples lenguajes de programación, lo que aumenta aún más su versatilidad y compatibilidad con varios ecosistemas de software. Esta flexibilidad permite a los usuarios implementar la API en diversas plataformas, independientemente de su lenguaje de codificación preferido, y asegura un proceso de integración fluido sin necesidad de modificaciones significativas.
En conclusión, la API de Detección de Insultos representa un paso importante hacia la promoción de un entorno en línea más seguro y respetuoso. Esta herramienta permite a las organizaciones identificar y abordar automáticamente el contenido tóxico, contribuyendo a los esfuerzos continuos para combatir el ciberacoso, el discurso de odio y el lenguaje ofensivo.
Recibirá parámetros y le proporcionará un JSON.
Moderación de contenido en redes sociales: Las plataformas de redes sociales pueden usar la API para detectar y filtrar automáticamente comentarios tóxicos, discursos de odio y lenguaje ofensivo, asegurando una experiencia de usuario más segura y positiva para su comunidad.
Gestión de foros en línea: Los foros comunitarios pueden utilizar la API para monitorear el contenido generado por los usuarios y eliminar rápidamente cualquier publicación tóxica o dañina, manteniendo un ambiente respetuoso y constructivo para los miembros.
Aplicaciones de chat: Las aplicaciones de chat y las plataformas de mensajería pueden integrar la API para señalar y filtrar automáticamente publicaciones tóxicas, promoviendo una comunicación saludable entre los usuarios.
Plataformas de publicación de contenido: Las plataformas de publicación de contenido, como blogs y sitios de noticias, pueden usar la API para prefiltrar comentarios de los usuarios y prevenir que contenido tóxico aparezca junto a artículos y publicaciones.
Plataformas de e-learning: Las plataformas de e-learning y sitios web educativos pueden aprovechar la API para monitorear y filtrar cualquier lenguaje tóxico o inapropiado utilizado en discusiones y comentarios, creando un ambiente de aprendizaje seguro para estudiantes y educadores.
Plan Básico: 1,000 Llamadas a la API. 1 solicitud por segundo.
Plan Pro: 4,500 Llamadas a la API. 1 solicitud por segundo.
Plan Pro Plus: 10,000 Llamadas a la API. 2 solicitudes por segundo.
Para usar este punto final, debes ingresar una palabra o texto en el parámetro.
Detección de toxicidad - Características del Endpoint
| Objeto | Descripción |
|---|---|
Cuerpo de la Solicitud |
[Requerido] Json |
{"toxic":0.78711975,"indecent":0.9892319,"threat":0.0083886795,"offensive":0.37052566,"erotic":0.14190358,"spam":0.08707619}
curl --location --request POST 'https://zylalabs.com/api/2262/insult+detection+api/2128/toxicity+detection' --header 'Authorization: Bearer YOUR_API_KEY'
--data-raw '{
"text": "This is an example comment to analyze."
}'
| Encabezado | Descripción |
|---|---|
Autorización
|
[Requerido] Debería ser Bearer access_key. Consulta "Tu Clave de Acceso a la API" arriba cuando estés suscrito. |
Sin compromiso a largo plazo. Mejora, reduce o cancela en cualquier momento. La Prueba Gratuita incluye hasta 50 solicitudes.
Para usar esta API debes ingresar un texto.
Hay diferentes planes que se adaptan a todos, incluido un plan gratuito para una pequeña cantidad de solicitudes por día, pero su tasa está limitada para prevenir el abuso del servicio.
Zyla proporciona una amplia gama de métodos de integración para casi todos los lenguajes de programación. Puedes utilizar estos códigos para integrarlos en tu proyecto según lo necesites.
La API de Detección de Insultos es una herramienta sofisticada diseñada para identificar lenguaje ofensivo e insultos en contenido textual.
El endpoint de Detección de Toxicidad devuelve un objeto JSON que contiene puntuaciones que indican la probabilidad de varios tipos de contenido tóxico en el texto de entrada, como "tóxico", "indecente", "amenaza", "ofensivo", "erótico" y "spam".
Los campos clave en los datos de respuesta incluyen "tóxico," "indecente," "amenaza," "ofensivo," "erótico" y "spam," cada uno representado como un puntaje de punto flotante entre 0 y 1, indicando la probabilidad de ese tipo de contenido.
Los datos de respuesta están organizados en un formato JSON, donde cada clave corresponde a un tipo de toxicidad, y el valor asociado es una puntuación numérica que refleja la probabilidad de esa toxicidad en el texto analizado.
El parámetro principal para el endpoint de Detección de Toxicidad es el texto de entrada, que debe ser proporcionado en el cuerpo de la solicitud. Los usuarios pueden personalizar sus solicitudes variando el contenido del texto que envían para análisis.
Los usuarios pueden utilizar los datos devueltos interpretando las puntuaciones para determinar el nivel de toxicidad en el texto. Por ejemplo, una puntuación "tóxica" alta puede provocar acciones de moderación, mientras que puntuaciones más bajas pueden indicar contenido aceptable.
Los casos de uso típicos para los datos de Detección de Toxicidad incluyen moderar comentarios en redes sociales, filtrar mensajes en aplicaciones de chat y asegurar una comunicación respetuosa en foros en línea y plataformas educativas.
La precisión de los datos se mantiene a través del uso de un gran conjunto de datos etiquetado para entrenar el modelo de aprendizaje automático, junto con actualizaciones y mejoras continuas basadas en la retroalimentación de los usuarios y nuevos patrones de datos.
Los controles de calidad incluyen evaluaciones regulares del rendimiento del modelo en comparación con conjuntos de datos de referencia, monitoreo de falsos positivos/negativos y mecanismos de retroalimentación de usuarios para refinar las capacidades de detección con el tiempo.
Nivel de Servicio:
100%
Tiempo de Respuesta:
360ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
831ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
582ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
377ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
619ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
580ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
607ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
2.258ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
2.201ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
1.079ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
601ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
39ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
1.210ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
191ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
804ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
482ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
224ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
513ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
956ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
6.712ms