इस एपीआई में पाठों में अपमानजनक भाषा को स्वचालित रूप से पहचानने के लिए एक उन्नत प्रणाली है जो अप्रिय शब्दों, अपमानों और संभावित रूप से हानिकारक अभिव्यक्तियों की सटीक पहचान की अनुमति देती है इसका मुख्य उद्देश्य वास्तविक समय में पाठों का मूल्यांकन करने में मदद करना है जिससे उपयोगकर्ता-निर्मित सामग्री की सुरक्षा और गुणवत्ता में सुधार हो सके जब एक पाठ इनपुट के रूप में भेजा जाता है एपीआई एक संरचित विश्लेषण लौटाती है जिसमें संदेश में मौजूद विषाक्तता के स्तर को समझने के लिए आवश्यक कई संकेत शामिल होते हैं सबसे महत्वपूर्ण विशेषताओं में से एक isProfanity है जो एक बूलियन मान है जो दर्शाता है कि क्या पाठ में अपमानजनक या अनुपयुक्त भाषा शामिल है यह एक स्कोर भी प्रदान करता है जो एक मात्रात्मक मैट्रिक है जो दर्शाता है कि पाठ को अपशब्द माना जाने की अनुमानित संभावना क्या है यह मान विशेष रूप से उन वातावरणों में उपयोगी है जहां विभिन्न संदर्भों या दर्शकों के लिए मध्यस्थता सीमाओं को समायोजित करने की आवश्यकता होती है एपीआई में एक गंभीरता क्षेत्र भी शामिल है जो पता की गई भाषा की गंभीरता के स्तर को वर्गीकृत करता है यह वर्गीकरण हल्के मामलों जैसे कि बातचीत की अभिव्यक्तियाँ और सीधे अपमान या अत्यधिक विषाक्त भाषा जैसी अधिक गंभीर स्थितियों के बीच भेद करने की अनुमति देता है स्पष्टता के लिए प्रतिक्रिया में flaggedFor भी निर्दिष्ट किया गया है जो श्रेणियों का एक सेट है जो यह बताता है कि पाठ को क्यों चिह्नित किया गया है जिससे स्वचालित प्रणालियाँ अधिक सूचित निर्णय ले सकें
पाठ का विश्लेषण करता है और अश्लील भाषा का पता लगाता है गंभीरता स्कोर मार्क की गई श्रेणी भाषा और यह कि सामग्री को अश्लील या अनुपयुक्त माना जाना चाहिए या नहीं
पाठ विश्लेषक - एंडपॉइंट फीचर्स
| ऑब्जेक्ट | विवरण |
|---|---|
रिक्वेस्ट बॉडी |
[आवश्यक] Json |
{"isProfanity":true,"score":0.8,"severity":70,"flaggedFor":["insult"],"language":"en","dialect":"general"}
curl --location --request POST 'https://zylalabs.com/api/11453/text+content+censoring+api/21613/text+analyzer' --header 'Authorization: Bearer YOUR_API_KEY'
--data-raw '{
"message": "I hate you"
}'
| हेडर | विवरण |
|---|---|
Authorization
|
[आवश्यक] होना चाहिए Bearer access_key. जब आप सब्सक्राइब हों तो ऊपर "Your API Access Key" देखें। |
कोई लंबी अवधि की प्रतिबद्धता नहीं। कभी भी अपग्रेड, डाउनग्रेड या कैंसल करें। फ्री ट्रायल में 50 रिक्वेस्ट तक शामिल हैं।
टेक्स्ट विश्लेषक एंडपॉइंट संरचित डेटा लौटाता है जिसमें विश्लेषित टेक्स्ट में अपमानजनक भाषा के संकेत शामिल होते हैं मुख्य आउटपुट में यह शामिल है कि क्या टेक्स्ट में गाली-गलौज है गंभीरता स्कोर जोखिम स्कोर फ्लैग की गई श्रेणियां टेक्स्ट की भाषा और पहचाना गया बगल
प्रतिक्रियात्मक डेटा के प्रमुख क्षेत्र हैं `isProfanity` (बूलियट), `score` (संख्यात्मक), `severity` (संख्यात्मक), `flaggedFor` (श्रेणियों की सूची), `language` (स्ट्रिंग), और `dialect` (स्ट्रिंग) ये क्षेत्र पहचानी गई अपमानजनक भाषा की प्रकृति और गंभीरता के बारे में जानकारी प्रदान करते हैं
प्रतिक्रिया डेटा JSON फॉर्मेट में व्यवस्थित है प्रत्येक कुंजी विश्लेषण के एक विशिष्ट पहलू का प्रतिनिधित्व करती है उदाहरण के लिए `isProfanity` यह इंगित करता है कि पाठ अपमानजनक है जबकि `flaggedFor` झंडी लगाने के कारणों को सूचीबद्ध करता है जिससे स्वचालित प्रणालियों द्वारा आसान पार्सिंग और व्याख्या की जा सके
टेक्स्ट एनालाइजर एंडपॉइंट अनुपात की भाषा, गंभीरता स्तर, जोखिम स्कोर, झंडा लगाई गई सामग्री की श्रेणियों और टेक्स्ट की भाषा और शैली की जानकारी प्रदान करता है यह व्यापक विश्लेषण उपयोगकर्ता-जनित सामग्री की विषाक्तता को समझने में सहायक है
उपयोगकर्ता टेक्स्ट एनालाइज़र एंडपॉइंट को भेजे गए इनपुट टेक्स्ट को समायोजित करके अपने डेटा अनुरोधों को अनुकूलित कर सकते हैं जबकि एंडपॉइंट अतिरिक्त पैरामीटर स्वीकार नहीं करता है टेक्स्ट की सामग्री स्वयं विभिन्न परिदृश्यों को परीक्षण करने और विभिन्न प्रकार की भाषा का विश्लेषण करने के लिए भिन्न हो सकती है
टेक्स्ट एनालाइज़र डेटा के सामान्य उपयोग के मामलों में सोशल मीडिया प्लेटफार्मों के लिए सामग्री पार्श्वकरण उपयोगकर्ता टिप्पणियों को वेबसाइटों पर छानना चैट एप्लिकेशन को बेहतर करना ताकि उत्पीड़न से बचा जा सके और विषैला भाषा पहचानकर सामुदायिक दिशानिर्देशों का अनुपालन सुनिश्चित करना शामिल है
डेटा सटीकता सुनिश्चित की जाती है अंतर्निहित भाषा मॉडलों के निरंतर अपडेट और विविध डेटा सेट के खिलाफ नियमित मूल्यांकन के माध्यम से यह सुनिश्चित करता है कि एपीआई विभिन्न संदर्भों और बोलियों में आक्रामक भाषा को प्रभावी ढंग से पहचान और वर्गीकृत कर सकता है
प्रतिक्रिया में मानक डेटा पैटर्न्स में स्पष्ट संकेत शामिल होते हैं कि क्या पाठ अपशब्द है (`isProfanity`), भाषा की गंभीरता को दर्शाने वाला एक संख्यात्मक स्कोर, और `flaggedFor` में श्रेणियों की एक सूची। उपयोगकर्ता JSON प्रतिक्रिया में निरंतर फॉर्मेटिंग और संरचना की अपेक्षा कर सकते हैं
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
6,283ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
3,742ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,389ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,765ms
सर्विस लेवल:
50%
रिस्पॉन्स टाइम:
462ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,425ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
4,172ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
197ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
4,100ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
6,541ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,045ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
832ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
878ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
0ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,417ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
269ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
236ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
944ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
3,206ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
323ms