टॉक्सिसिटी डिटेक्टर एपीआई टेक्स्ट फ़्रैगमेंट्स में टॉक्सिसिटी का विश्लेषण और वर्गीकरण करने के लिए डिज़ाइन किया गया है यह एपीआई संभावित रूप से हानिकारक सामग्री का सटीक आकलन करके सुरक्षित और सम्मानजनक वार्तालाप के स्थान बनाए रखने में मदद करता है जब कोई टेक्स्ट इनपुट के रूप में प्रस्तुत किया जाता है तो सिस्टम एक समग्र टॉक्सिसिटी स्कोर एक स्पष्ट वर्गीकरण (जैसे "गैर-टॉक्सिक" या "टॉक्सिक") और श्रेणी के अनुसार विस्तृत विवरण लौटाता है जिसमें सामान्य टॉक्सिसिटी गंभीर टॉक्सिसिटी अश्लील भाषा धमकी अपमान और पहचान आधारित घृणा शामिल हैं
उन्नत प्राकृतिक भाषा प्रसंस्करण (NLP) मॉडलों के लिए धन्यवाद यह एपीआई भाषा में सूक्ष्म बारीकियों की पहचान कर सकता है यहाँ तक कि ऐसे अभिव्यक्तियाँ जो दुर्व्यवहार पैसिव आक्रामकता या ध्रुवीकृत भाषा के रूप में छिपी होती हैं प्रत्येक विश्लेषण में आत्मनिर्भर निर्णय या मानव-सहायता प्राप्त मॉडरेशन को समर्थन देने के लिए आत्मविश्वास स्तर शामिल होते हैं
टोक्सिसिटी पहचान - एंडपॉइंट फीचर्स
| ऑब्जेक्ट | विवरण |
|---|---|
रिक्वेस्ट बॉडी |
[आवश्यक] Json |
{"request_id":"a92c6fa4-2649-4a1b-9c2e-0af536a77e17","overall_score":0.2841,"classification":"toxic","confidence":0.2841,"category_scores":{"toxic":0.2841,"severe_toxic":0.003,"obscene":0.0075,"threat":0.0313,"insult":0.0505,"identity_hate":0.0417}}
curl --location --request POST 'https://zylalabs.com/api/7795/toxicity+detector+api/12765/toxicity+detection' --header 'Authorization: Bearer YOUR_API_KEY'
--data-raw '{
"text": "I hate you.."
}'
| हेडर | विवरण |
|---|---|
Authorization
|
[आवश्यक] होना चाहिए Bearer access_key. जब आप सब्सक्राइब हों तो ऊपर "Your API Access Key" देखें। |
कोई लंबी अवधि की प्रतिबद्धता नहीं। कभी भी अपग्रेड, डाउनग्रेड या कैंसल करें। फ्री ट्रायल में 50 रिक्वेस्ट तक शामिल हैं।
API एक समग्र विषाक्तता स्कोर वापस करता है एक वर्गीकरण लेबल (जैसे "non_toxic" या "toxic") और विषाक्तता के श्रेणियों का विस्तृत विवरण जैसे सामान्य विषाक्तता गंभीर विषाक्तता अश्लील भाषा धमकियाँ अपमान और पहचान आधारित नफरत
प्रतिक्रिया में प्रमुख क्षेत्र "toxicity_score," "classification," और श्रेणी विभाजनों जैसे "general_toxicity," "severe_toxicity," "obscene," "threats," "insults," और "hate_speech" शामिल हैं जिनके साथ विश्वास स्तर होते हैं
प्रतिक्रिया डेटा JSON प्रारूप में संरचित है जिसमें एक मुख्य वस्तु है जिसमें कुल विषाक्तता स्कोर और वर्गीकरण है इसके बाद प्रत्येक विषाक्तता श्रेणी के लिए नेस्टेड वस्तुएं हैं जो स्कोर और विश्वास स्तरों का विवरण देती हैं
POST अंतिम बिंदु के लिए प्राथमिक पैरामीटर "पाठ" क्षेत्र है जहां उपयोगकर्ता उस पाठ को दर्ज करते हैं जिसे वे विषाक्तता के लिए विश्लेषण करना चाहते हैं अतिरिक्त पैरामीटर में भाषा सेटिंग्स या विशिष्ट विषाक्तता श्रेणियाँ शामिल हो सकती हैं जिन पर ध्यान केंद्रित करना है
डाटा सटीकता को उन्नत प्राकृतिक भाषा प्रसंस्करण (एनएलपी) मॉडलों के माध्यम से बनाए रखा जाता है जो विविध डेटा सेटों पर नियमित रूप से अपडेट और प्रशिक्षित किए जाते हैं ताकि सूक्ष्म भाषा के बारीकियों और विषाक्तता की विकसित अभिव्यक्तियों को पहचान सकें
सामान्य उपयोग के मामलों में ऑनलाइन फोरम कोModerate करना उपयोगकर्ता-निर्मित सामग्री का विश्लेषण करना हानिकारक भाषा के लिए सामुदायिक दिशा-निर्देशों को बढ़ाना और चैट अनुप्रयोगों में सुरक्षित संचार के लिए उपकरण विकसित करना शामिल है
उपयोगकर्ता लौटाए गए डेटा का उपयोग विषाक्तता स्कोर और वर्गीकरण को मध्यस्थता कार्यप्रवाहों में एकीकृत करके कर सकते हैं उच्च विषाक्तता स्तरों के लिए चेतावनियाँ उत्पन्न करके या समुदाय की स्वास्थ्य और सुरक्षा का आकलन करने के लिए रिपोर्ट तैयार करके
गुणवत्ता जांच में वास्तविक विश्व डेटा के खिलाफ निरंतर मॉडल मूल्यांकन उपयोगकर्ता फीडबैक लूप और प्रदर्शन मीट्रिक शामिल हैं ताकि यह सुनिश्चित किया जा सके कि एपीआई विभिन्न संदर्भों और भाषाओं में विषाक्तता को सही ढंग से पहचानता और वर्गीकृत करता है
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
376ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
561ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
16ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
8,434ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
9,827ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,138ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
525ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,653ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
292ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
45ms