एपीआई के बारे में:
गाली_detection_API एक शक्तिशाली उपकरण है जो उपयोगकर्ता द्वारा उत्पन्न सामग्री में अपमानजनक भाषा को पहचानने और चिह्नित करने के लिए है। यह गंभीर विषाक्तता, अश्लील पाठ, अपमान, धमकी और पहचान-आधारित नफरत सहित गालियों और विषाक्तता की एक विस्तृत श्रृंखला को सटीकता से पहचानने के लिए उन्नत भाषा समझने की तकनीक का उपयोग करता है। यह एपीआई संगठनों और व्यवसायों को उनके प्लेटफार्मों पर उपयोगकर्ता-जनित सामग्री का प्रबंधन करने में मदद करने के लिए तैयार किया गया है, संभावित रूप से हानिकारक भाषा की पहचान और हटा कर।
यह एपीआई प्रयोग में आसान है और किसी भी अनुप्रयोग या प्लेटफॉर्म में एकीकृत किया जा सकता है जो उपयोगकर्ता-जनित सामग्री की अनुमति देता है। एक बार एकीकृत होने पर, एपीआई स्वचालित रूप से अपमानजनक भाषा का पता लगा सकता है और उसे चिह्नित कर सकता है, जिससे मॉडरेटरों को समीक्षा करने और उचित कार्रवाई लेने में आसानाई होती है। इसके अतिरिक्त, एपीआई को अपमानजनक भाषा को स्वचालित रूप से हटाने या सेंसर करने के लिए कॉन्फ़िगर किया जा सकता है, जिससे उपयोगकर्ताओं और संगठनों के लिए अतिरिक्त सुरक्षा प्रदान की जा सके।
गाली_detection_API को मशीन लर्निंग मॉडलों को प्रशिक्षित करने के लिए भी उपयोग किया जा सकता है, अपमानजनक भाषा के लेबल किए गए बड़े डेटासेट प्रदान करके। यह संगठनों को अपमानजनक भाषा का पता लगाने के लिए उनके अपने मॉडलों की सटीकता में सुधार करने में मदद कर सकता है।
कुल मिलाकर, गाली_detection_API उन सभी संगठनों या व्यवसायों के लिए एक मूल्यवान उपकरण है जिन्हें उपयोगकर्ता-जनित सामग्री का प्रबंधन करने की आवश्यकता है। यह उपयोगकर्ताओं और व्यवसायों को अपमानजनक भाषा के नकारात्मक प्रभावों से बचाने में मदद करता है और हानिकारक सामग्री की पहचान और हटाने को आसान बनाता है। इसकी उन्नत भाषा समझने की तकनीक के साथ, यह उच्च स्तर की सटीकता और विश्वसनीयता प्रदान करती है, जिससे यह उपयोगकर्ता-जनित सामग्री के प्रबंधन के लिए एक विश्वसनीय उपकरण बनती है।
यह एंडपॉइंट दिए गए पाठ में अशुद्धियों, विषाक्तताओं, गंभीर विषाक्तताओं, अश्लील पाठ, अपमान, धमकियों और पहचान नफरत का पता लगाता है
गाली-गलौज विश्लेषक - एंडपॉइंट फीचर्स
| ऑब्जेक्ट | विवरण |
|---|---|
text |
[आवश्यक] |
{"semantic_analysis":{"0":{"id_semantic_model":1,"name_semantic_model":"profanity_words","segment":"Cunt"},"1":{"id_semantic_model":2,"name_semantic_model":"toxic","segment":"Cunt"},"2":{"id_semantic_model":4,"name_semantic_model":"obscene","segment":"Cunt"}}}
curl --location --request POST 'https://zylalabs.com/api/1060/profanity+detection+api/930/profanity+analyzer?text=Required' --header 'Authorization: Bearer YOUR_API_KEY'
| हेडर | विवरण |
|---|---|
Authorization
|
[आवश्यक] होना चाहिए Bearer access_key. जब आप सब्सक्राइब हों तो ऊपर "Your API Access Key" देखें। |
कोई लंबी अवधि की प्रतिबद्धता नहीं। कभी भी अपग्रेड, डाउनग्रेड या कैंसल करें। फ्री ट्रायल में 50 रिक्वेस्ट तक शामिल हैं।
अश्लीलता विश्लेषक एपीआई बिंदु एक JSON ऑब्जेक्ट लौटाता है जिसमें विश्लेषण के परिणाम होते हैं जिसमें पहचानी गई अश्लीलताएँ विषाक्तताएँ और इनपुट पाठ में मौजूद अन्य हानिकारक भाषा प्रकार शामिल होते हैं
प्रतिक्रिया डेटा के मुख्य क्षेत्र आमतौर पर "सेमांटिक_एनालिसिस" शामिल होते हैं जो हानिकारक भाषा के प्रकारों के बारे में विस्तृत जानकारी प्रदान करते हैं जैसे कि अशब्द , अपमान और धमकियाँ
प्रतिक्रियाएँ डेटा एक संरचित JSON प्रारूप में व्यवस्थित की गई हैं इसमें निहित वस्तुएं शामिल हैं जो पहचानी गई हानिकारक भाषा को श्रेणीबद्ध करती हैं जिससे उपयोगकर्ता जानकारी को आसानी से पार्स और उपयोग कर सकें
गालियों का विश्लेषण करने वाला अंतर्दृष्टि बिंदु "पाठ" जैसे पैरामीटर स्वीकार करता है (विश्लेषण के लिए इनपुट सामग्री) और विश्लेषण को अनुकूलित करने के लिए संवेदनशीलता स्तरों या विशिष्ट भाषा फ़िल्टर के लिए वैकल्पिक सेटिंग्स
गाली detection के लिए डेटा भाषाई डेटाबेस उपयोगकर्ता द्वारा उत्पन्न सामग्री और विविध डेटा सेट पर प्रशिक्षित मशीन लर्निंग मॉडलों के संयोजन से प्राप्त किया गया है ताकि अपमानजनक भाषा का व्यापक कवरेज सुनिश्चित किया जा सके
डेटा की सटीकता लगातार मॉडल प्रशिक्षण वास्तविक दुनिया के उदाहरणों के खिलाफ मान्यता और विकसित होते भाषा उपयोग और स्लैंग के अनुकूलन के लिए अंतर्निहित भाषा मॉडलों के नियमित अपडेट के माध्यम से बनाए रखी जाती है
प्रमुख उपयोग के मामले में सोशल मीडिया पर उपयोगकर्ता द्वारा उत्पन्न सामग्री का मॉडरेशन करना चैटबॉट्स में आपत्तिजनक भाषा को फ़िल्टर करना और गेमिंग समुदायों और ग्राहक सेवा इंटरैक्शन में सम्मानजनक संचार सुनिश्चित करना शामिल है
उपयोगकर्ता पहचानी गई हानिकारक भाषा के आधार पर संशोधन क्रियाओं को लागू करके लौटाए गए डेटा का उपयोग कर सकते हैं जैसे कि समीक्षा के लिए सामग्री को ध्वजांकित करना आक्रामक शब्दों को स्वचालित रूप से सेंसर करना या वास्तविक समय में उपयोगकर्ता इंटरैक्शन को समायोजित करना
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
871ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
270ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
670ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,003ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
148ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
264ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,658ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,164ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
857ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
460ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,704ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
20,002ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,093ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
945ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
3,027ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
516ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
0ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
0ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
3,033ms