यह एपीआई टेक्स्ट में आपत्तिजनक भाषा का स्वचालित रूप से पता लगाने के लिए एक उन्नत प्रणाली प्रदान करती है, जिससे अनुपयुक्त शब्दों, अपमानों और संभावित रूप से हानिकारक अभिव्यक्तियों की सटीक पहचान की जा सके। इसका मुख्य उद्देश्य वास्तविक समय में टेक्स्ट का मूल्यांकन करने में सहायता करना है, जिससे उपयोगकर्ता-जनित सामग्री की सुरक्षा और गुणवत्ता में सुधार हो सके। जब टेक्स्ट को इनपुट के रूप में भेजा जाता है, तो एपीआई एक संरचित विश्लेषण लौटाती है जिसमें संदेश में मौजूद विषाक्तता के स्तर को समझने के लिए आवश्यक कई संकेतक शामिल होते हैं
सबसे महत्वपूर्ण विशेषताओं में से एक isProfanity है, जो एक बूलियन मान है जो यह दर्शाता है कि टेक्स्ट में आपत्तिजनक या अनुपयुक्त भाषा है या नहीं। यह एक स्कोर भी प्रदान करता है, एक मात्रात्मक मीट्रिक जो यह दर्शाता है कि टेक्स्ट को अपशब्द माना जाने की संभावित संभावना क्या है। यह मान विशेष रूप से उन वातावरणों में उपयोगी है जहाँ विभिन्न संदर्भों या दर्शकों के लिए मॉडरेशन थ्रेशोल्ड को समायोजित करने की आवश्यकता होती है
एपीआई में एक गंभीरता क्षेत्र भी शामिल है, जो_detected language की गंभीरता के स्तर का वर्गीकरण करता है। यह वर्गीकरण हल्के मामलों, जैसे कि संवादात्मक अभिव्यक्तियों, और अधिक गंभीर स्थितियों, जैसे कि सीधे अपमान या अत्यधिक विषाक्त भाषा के बीच भेद करने की अनुमति देता है। स्पष्टता के लिए, उत्तर में flaggedFor भी निर्दिष्ट किया गया है, जो श्रेणियों का एक सेट है जो यह बताता है कि टेक्स्ट को क्यों फ्लैग किया गया, जिससे स्वचालित प्रणालियों को अधिक सूचित निर्णय लेने में मदद मिलती है
पाठ का विश्लेषण करता है और अपमानजनक भाषा का पता लगाता है इसके साथ ही गंभीरता स्कोर चिह्नित श्रेणी भाषा और यह कि सामग्री को अश्लील या अनुपयुक्त माना जाना चाहिए
पाठ विश्लेषक - एंडपॉइंट फीचर्स
| ऑब्जेक्ट | विवरण |
|---|---|
रिक्वेस्ट बॉडी |
[आवश्यक] Json |
{"isProfanity":true,"score":0.8,"severity":70,"flaggedFor":["insult"],"language":"en","dialect":"general"}
curl --location --request POST 'https://zylalabs.com/api/11449/extract+text+content+censorship+api/21609/text+analyzer' --header 'Authorization: Bearer YOUR_API_KEY'
--data-raw '{
"message": "I hate you"
}'
| हेडर | विवरण |
|---|---|
Authorization
|
[आवश्यक] होना चाहिए Bearer access_key. जब आप सब्सक्राइब हों तो ऊपर "Your API Access Key" देखें। |
कोई लंबी अवधि की प्रतिबद्धता नहीं। कभी भी अपग्रेड, डाउनग्रेड या कैंसल करें। फ्री ट्रायल में 50 रिक्वेस्ट तक शामिल हैं।
पाठ विश्लेषक एंडपॉइंट संरचित डेटा लौटाता है जिसमें विश्लेषित पाठ में आपत्तिजनक भाषा के संकेत शामिल होते हैं प्रमुख आउटपुट में शामिल है कि क्या पाठ में अश्लीलता है गंभीरता स्कोर जोखिम स्कोर चिह्नित श्रेणियाँ पाठ की भाषा और पहचानी गई बोली
प्रतिसाद डेटा में प्रमुख क्षेत्र हैं `isProfanity` (बूलियन), `score` (संख्यात्मक), `severity` (संख्यात्मक), `flaggedFor` (श्रेणियों की सूची), `language` (स्ट्रिंग), और `dialect` (स्ट्रिंग) ये क्षेत्र पाए गए अपशब्दों की प्रकृति और गंभीरता के बारे में जानकारी प्रदान करते हैं
प्रतिक्रिया डेटा JSON प्रारूप में व्यवस्थित है प्रत्येक कुंजी विश्लेषण के एक विशिष्ट पहलू का प्रतिनिधित्व करती है उदाहरण के लिए isProfanity दर्शाता है कि क्या पाठ अपमानजनक है जबकि flaggedFor झंडा लगाने के कारणों को सूचीबद्ध करता है जिससे स्वचालित सिस्टम द्वारा आसान पार्सिंग और व्याख्या की जा सके
पाठ विश्लेषक अंतर्निहित विषयवस्तु की उपस्थिति, गंभीरता स्तर, जोखिम स्कोर, ध्वजांकित सामग्री की श्रेणियाँ, और पाठ की भाषा और बोली के बारे में जानकारी प्रदान करता है यह समग्र विश्लेषण उपयोगकर्ता-निर्मित सामग्री की विषाक्तता को समझने में सहायक है
उपयोगकर्ता अपने डेटा अनुरोधों को टेक्स्ट एनालाइजर एंडपॉइंट पर भेजे जाने वाले इनपुट टेक्स्ट को समायोजित करके कस्टमाइज़ कर सकते हैं जबकि एंडपॉइंट अतिरिक्त पैरामीटर स्वीकार नहीं करता है टेक्स्ट की सामग्री भिन्न हो सकती है विभिन्न परिदृश्यों का परीक्षण करने और विभिन्न प्रकार की भाषा का विश्लेषण करने के लिए
टेक्स्ट एनालाइज़र डेटा के लिए सामान्य उपयोग के मामलों में सामाजिक मीडिया प्लेटफार्मों के लिए सामग्रीModeration वेबसाइटों पर उपयोगकर्ता टिप्पणियों को छानना चैट अनुप्रयोगों को उपयोगकर्ताओं के उत्पीड़न से रोकने के लिए सुधारना और विषाक्त भाषा की पहचान करके समुदाय के दिशानिर्देशों का पालन सुनिश्चित करना शामिल है
डेटा की सटीकता मौलिक भाषा मॉडल के निरंतर अपडेट और विभिन्न डेटा सेट के खिलाफ नियमित मूल्यांकन के माध्यम से बनाए रखी जाती है यह सुनिश्चित करता है कि एपीआई विभिन्न संदर्भों और बोलियों में अपमानजनक भाषा को प्रभावी ढंग से पहचान और वर्गीकृत कर सके
प्रतिक्रिया में मानक डेटा पैटर्न में यह स्पष्ट रूप से बताया गया है कि क्या पाठ अश्लील है (`isProfanity`), भाषा की गंभीरता को दर्शाने वाला एक संख्यात्मक स्कोर, और `flaggedFor` में श्रेणियों की एक सूची शामिल है उपयोगकर्ता JSON प्रतिक्रिया में सुसंगत स्वरूपण और संरचना की अपेक्षा कर सकते हैं
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
608ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
4,287ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
6,541ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
374ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
6,283ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
3,742ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
11,333ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
198ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,389ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
16ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,094ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
814ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,029ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,710ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
19ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
436ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
172ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
112ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,318ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,078ms