सामग्री स्क्रैपर API

कंटेंट स्क्रेपर एपीआई समाचार और ब्लॉग लेखों से साफ़ टेक्स्ट और संरचित डेटा का तेज़ और आसान निष्कर्षण प्रदान करता है विज्ञापनों लिंक और अन्य अवांछित सामग्री से छुटकारा पाएं और लेख की मुख्य सामग्री पर ध्यान केंद्रित करें इसे एनएलपी और डेटा विश्लेषण के लिए आदर्श बनाते हैं
इस API को अपने AI एजेंट से MCP के माध्यम से उपयोग करें
OpenClaw, Claude Code/Desktop, Cursor, Windsurf, Cline और किसी भी MCP-संगत AI क्लाइंट के साथ काम करता है।
डॉक्स और सेटअप
इस MCP को रैप करके एक स्किल बनाएं: https://mcp.zylalabs.com/mcp?apikey=YOUR_ZYLA_API_KEY

एपीआई के बारे में: 

कंटेंट स्क्रेपर एपीआई समाचार और ब्लॉग लेखों से साफ पाठ और अन्य संरचित डेटा निकालने के लिए एक शक्तिशाली उपकरण है। इस एपीआई के साथ, आप जल्दी और आसानी से विज्ञापनों, लिंक और अन्य अवांछित सामग्री से छुटकारा पा सकते हैं, और लेख की मुख्य सामग्री पर ध्यान केंद्रित कर सकते हैं।

एपीआई प्रासंगिक जानकारी निकालने के लिए उन्नत प्राकृतिक भाषा प्रसंस्करण (एनएलपी) तकनीकों का उपयोग करता है, जिसमें लेख का पाठ, लेखक, तिथियां और अन्य मेटाडेटा शामिल हैं। फिर इस जानकारी को एक संरचना प्रारूप में लौटाया जाता है, जिससे डेटा विश्लेषण और एनएलपी अनुप्रयोगों के लिए इसका उपयोग करना आसान हो जाता है।

एपीआई को उपयोगकर्ता के अनुकूल और एकीकृत करने में आसान बनाने के लिए डिज़ाइन किया गया है, ताकि आप तुरंत इसका उपयोग शुरू कर सकें। चाहे आप समाचार लेखों पर भावनात्मक विश्लेषण करने के लिए डेटा विश्लेषक हों, या कस्टम समाचार एग्रीगेटर बनाने के लिए डेवलपर हों, कंटेंट स्क्रेपर एपीआई में आपकी सभी आवश्यकताएँ हैं।

अपने तेज और प्रभावी निष्कर्षण प्रक्रिया के साथ, आप बड़ी मात्रा में लेखों को जल्दी से संसाधित कर सकते हैं और आवश्यक जानकारी निकाल सकते हैं। तो इंतज़ार किस बात का? आज ही कंटेंट स्क्रेपर एपीआई के लिए साइन अप करें और अपने समाचार और ब्लॉग लेखों का अधिकतम लाभ उठाना शुरू करें। साफ पाठ से लेकर संरचित डेटा तक, इस एपीआई में आपकी सभी जरूरतें पूरी होती हैं।

 

इस एपीआई को क्या प्राप्त होता है और आपका एपीआई क्या प्रदान करता है (इनपुट/आउटपुट)?

उस लेख का यूआरएल पास करें जिससे आप इसकी सामग्री निकालना चाहते हैं। 

 

इस एपीआई के सबसे सामान्य उपयोग के मामलों में क्या हैं?

  1. समाचार समेकन: एपीआई का उपयोग समाचार लेखों से मुख्य पाठ और संरचित डेटा निकालने के लिए कस्टम समाचार एग्रीगेटर बनाने के लिए किया जा सकता है।

  2. भावनात्मक विश्लेषण: एपीआई लेखों से साफ पाठ निकाल सकता है ताकि भावनात्मक विश्लेषण किया जा सके और समाचार लेखों में व्यक्त Overall भावनाओं को निर्धारित किया जा सके।

  3. सामग्री सिफारिश: एपीआई लेख के पाठ और मेटाडेटा निकाल सकता है ताकि उपयोगकर्ताओं के लिए सामग्री आधारित सिफारिश प्रणाली बनाई जा सके।

  4. डेटा विश्लेषण: एपीआई लेखों से संरचित डेटा निकाल सकता है, जैसे कि लेखक, तिथियाँ और कीवर्ड, ताकि समाचार और ब्लॉग लेखों पर डेटा विश्लेषण किया जा सके।

  5. पाठ सारांश: एपीआई लेखों से मुख्य पाठ निकाल सकता है ताकि पाठ सारांश बनाए जा सकें, जिससे उपयोगकर्ताओं के लिए लेखों की सामग्री को जल्दी से समझना आसान हो जाता है।



क्या आपकी योजनाओं में कोई सीमाएँ हैं?

एपीआई कॉल की संख्या के अलावा, कोई अन्य सीमाएँ नहीं हैं

API डॉक्यूमेंटेशन

एंडपॉइंट्स


लेख निष्कर्षण अंत बिंदु

 


                                                                            
GET https://zylalabs.com/api/4557/content+scraper+api/5610/text+extractor
                                                                            
                                                                        

टेक्स्ट एक्स्ट्रैक्टर - एंडपॉइंट फीचर्स

ऑब्जेक्ट विवरण
url [आवश्यक] The URL of the article.
एंडपॉइंट टेस्ट करें

API उदाहरण प्रतिक्रिया

       
                                                                                                        
                                                                                                                                                                                                                                                                                                                                        {"error":0,"message":"Article extraction success","data":{"url":"https://www.thestartupfounder.com/use-this-data-extractor-api-to-get-article-data-from-mathrubhumi/","title":"Use This Data Extractor API To Get Article Data From Mathrubhumi","description":"Use This Data Extractor API To Get Article Data From MathrubhumiDo you want to get article data from Mathrubhumi?\nBusinesses and individuals who want to use the vast amount of publicly available web data to improve their decisions frequently use data gathering.\nTo retrieve data from Mathrubhumi, you must utilize an API, such as Article Data Extractor API.\nFollowing API requests, this produces replies that seem as follows:Why Article Data Extractor API?\nAmong the most useful APIs for obtaining all data sets is the Article Data Extractor API....","links":["https://www.thestartupfounder.com/use-this-data-extractor-api-to-get-article-data-from-mathrubhumi/"],"image":"https://www.thestartupfounder.com/wp-content/uploads/2022/11/mathrubhumi_scr_480.jpg","content":"<div><p class=\"post-header\">\n\t\t\t<h1 class=\"post-title\">Use This Data Extractor API To Get Article Data From Mathrubhumi</h1>\n\t\t\t \t\t</p><p>Do you want to get article data from Mathrubhumi? You can use this data extractor API to do so!</p>\n\n\n\n<p>Data analysis is the automated gathering of structured web content. Some of the key uses of this technique are pricing tracking, price information, news checking, lead generation, and market analysis.</p>\n\n\n\n \n\n\n\n<p>Businesses and individuals who want to use the vast amount of publicly available web data to improve their decisions frequently use data gathering. This makes it possible to gather, analyze, and classify the millions of objects that are generated every day on the globe. You will be capable of quickly distinguishing between factual and false information as well as information that best serves different views.</p>\n\n\n\n<p>You have already accomplished what a web scraper does if you have ever directly transcribed material from a website. Instead of the tedious and difficult process of manually gathering information, web content management leverages sophisticated automation to harvest hundreds, thousands, or even billions of data sets from the unlimited expanse of the Web.</p>\n\n\n\n<p>Data gathering is commonly employed. Furthermore, it shouldn&#8217;t be a shock because it provides structured web data from any publicly available page, something no other company can. The fundamental value of data mining lies in its ability to invent and fuel a number of the most innovative commercial apps ever developed. It is not merely a contemporary convenience.</p>\n\n\n\n<p>The adjective &#8220;inspiring&#8221; isn&#8217;t an exaggeration when used to characterize how certain companies are using data obtained from the internet to improve their efficiency, impacting everything from SEO selections to how each customer is served.</p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>How Can Data Extraction Be Used?</strong></h2>\n\n\n\n<p>Data extraction from the internet, often known as data scraping, has a wide range of uses. Using a data extraction tool will enable you to quickly and accurately automate the process of getting information from other sites. Furthermore, it may guarantee that the information you&#8217;ve obtained is correctly organized, making it simple to assess and use for subsequent jobs.</p>\n\n\n\n<p>A wide range of fields, such as media, risk management, real estate, scientific work, SEO tracking, opportunity assessment, data-driven advertising, and lead generation, heavily rely on web and data mining technology.</p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Apply An API</strong></h2>\n\n\n\n<p>The term &#8220;API&#8221; refers to a modern programming interface in the digital era. This artificial intelligence method allows you to automate various processes, which helps to increase productivity. </p>\n\n\n\n<p>Being capable of depending on APIs will save you from wasting too much time seeking material in an age where content is created every moment. To retrieve data from Mathrubhumi, you must utilize an API, such as <a href=\"https://www.zylalabs.com/api-marketplace/data/article+data+extractor+api/35?utm_source=TSF&amp;utm_medium=Post&amp;utm_campaign=29124&amp;utm_term=11\">Article Data Extractor API</a>. Following API requests, this produces replies that seem as follows:</p>\n\n\n\n \n\n\n\n \n\n\n\n<h2 class=\"wp-block-heading\"><strong>Why Article Data Extractor API?</strong></h2>\n\n\n\n<p>Among the most useful APIs for obtaining all data sets is the<a href=\"https://www.zylalabs.com/api-marketplace/data/article+data+extractor+api/35?utm_source=TSF&amp;utm_medium=Post&amp;utm_campaign=29124&amp;utm_term=11\"> Article Data Extractor API</a>. Your selection of programming language will be returned along with the title, text, and images when you just use a URL to contact the API. By gathering a significant quantity of data in a short period for analysis and classification, you may create high-quality journalism.</p>\n<h3 class=\"sd-title\">Share this:</h3><ul><li class=\"share-print\"><a rel=\"nofollow noopener noreferrer\" class=\"share-print sd-button share-icon\" href=\"https://www.thestartupfounder.com/use-this-data-extractor-api-to-get-article-data-from-mathrubhumi/#print\" target=\"_blank\" title=\"Click to print\"><p>Print</p></a></li><li class=\"share-email\"><a rel=\"nofollow noopener noreferrer\" class=\"share-email sd-button share-icon\" href=\"/cdn-cgi/l/email-protection#77480402151d1214034a524235241f1605121352454727180403524233524547220412524547231f1e0452454733160316524547320f0305161403180552454736273e52454723185245473012035245473605031e141b12524547331603165245473105181a5245473a16031f0502151f021a1e511518130e4a1f0303070452443652453152453100000059031f1204031605030207111802191312055914181a5245310204125a031f1e045a131603165a120f030516140318055a16071e5a03185a1012035a1605031e141b125a131603165a1105181a5a1a16031f0502151f021a1e52453151041f1605124a121a161e1b\" target=\"_blank\" title=\"Click to email a link to a friend\"><p>Email</p></a></li><li class=\"share-twitter\"><a rel=\"nofollow noopener noreferrer\" class=\"share-twitter sd-button share-icon\" href=\"https://www.thestartupfounder.com/use-this-data-extractor-api-to-get-article-data-from-mathrubhumi/?share=twitter\" target=\"_blank\" title=\"Click to share on Twitter\"><p>Twitter</p></a></li><li class=\"share-reddit\"><a rel=\"nofollow noopener noreferrer\" class=\"share-reddit sd-button share-icon\" href=\"https://www.thestartupfounder.com/use-this-data-extractor-api-to-get-article-data-from-mathrubhumi/?share=reddit\" target=\"_blank\" title=\"Click to share on Reddit\"><p>Reddit</p></a></li><li class=\"share-jetpack-whatsapp\"><a rel=\"nofollow noopener noreferrer\" class=\"share-jetpack-whatsapp sd-button share-icon\" href=\"https://www.thestartupfounder.com/use-this-data-extractor-api-to-get-article-data-from-mathrubhumi/?share=jetpack-whatsapp\" target=\"_blank\" title=\"Click to share on WhatsApp\"><p>WhatsApp</p></a></li><li class=\"share-facebook\"><a rel=\"nofollow noopener noreferrer\" class=\"share-facebook sd-button share-icon\" href=\"https://www.thestartupfounder.com/use-this-data-extractor-api-to-get-article-data-from-mathrubhumi/?share=facebook\" target=\"_blank\" title=\"Click to share on Facebook\"><p>Facebook</p></a></li><li class=\"share-linkedin\"><a rel=\"nofollow noopener noreferrer\" class=\"share-linkedin sd-button share-icon\" href=\"https://www.thestartupfounder.com/use-this-data-extractor-api-to-get-article-data-from-mathrubhumi/?share=linkedin\" target=\"_blank\" title=\"Click to share on LinkedIn\"><p>LinkedIn</p></a></li><li class=\"share-end\"></ul><h3 class=\"sd-title\">Like this:</h3><p class=\"likes-widget-placeholder post-likes-widget-placeholder\"><p class=\"button\"><p>Like</p></p> <p class=\"loading\">Loading...</p></p><p class=\"sd-text-color\"></p><a class=\"sd-link-color\"></a></div>","author":"Alejandro Brega","favicon":"https://i0.wp.com/www.thestartupfounder.com/wp-content/uploads/2022/07/cropped-Screen-Shot-2022-07-18-at-19.11.23.png?fit=32%2C32&ssl=1","source":"www.thestartupfounder.com","published":"2022-11-11T15:54:58+00:00","ttr":2.51},"_note":"Response truncated for documentation purposes"}
                                                                                                                                                                                                                    
                                                                                                    

टेक्स्ट एक्स्ट्रैक्टर - कोड स्निपेट्स


curl --location --request GET 'https://zylalabs.com/api/4557/content+scraper+api/5610/text+extractor?url=https://www.thestartupfounder.com/use-this-data-extractor-api-to-get-article-data-from-mathrubhumi/' --header 'Authorization: Bearer YOUR_API_KEY' 


    

API एक्सेस कुंजी और प्रमाणीकरण

साइन अप करने के बाद, प्रत्येक डेवलपर को एक पर्सनल API एक्सेस की असाइन की जाती है, जो अक्षरों और अंकों का एक यूनिक संयोजन होता है, जिसका उपयोग हमारे API एंडपॉइंट तक पहुंचने के लिए किया जाता है। प्रमाणीकरण के लिए सामग्री स्क्रैपर API के साथ बस अपने बेयरर टोकन को Authorization हेडर में शामिल करें।
हेडर्स
हेडर विवरण
Authorization [आवश्यक] होना चाहिए Bearer access_key. जब आप सब्सक्राइब हों तो ऊपर "Your API Access Key" देखें।

सरल पारदर्शी प्राइसिंग

कोई लंबी अवधि की प्रतिबद्धता नहीं। कभी भी अपग्रेड, डाउनग्रेड या कैंसल करें। फ्री ट्रायल में 50 रिक्वेस्ट तक शामिल हैं।

🚀 एंटरप्राइज़

शुरू होता है
$ 10,000/वर्ष


  • कस्टम वॉल्यूम
  • कस्टम रेट लिमिट
  • विशेष ग्राहक सहायता
  • रीयल-टाइम API मॉनिटरिंग

ग्राहकों की पसंदीदा विशेषताएँ

  • ✔︎ केवल सफल रिक्वेस्ट के लिए भुगतान करें
  • ✔︎ फ्री 7-दिवसीय ट्रायल
  • ✔︎ मल्टी-लैंग्वेज सपोर्ट
  • ✔︎ एक API कुंजी, सभी APIs।
  • ✔︎ इंuitive डैशबोर्ड
  • ✔︎ व्यापक त्रुटि हैंडलिंग
  • ✔︎ डेवलपर-फ्रेंडली डॉक्यूमेंटेशन
  • ✔︎ पोस्टमैन इंटीग्रेशन
  • ✔︎ सुरक्षित HTTPS कनेक्शंस
  • ✔︎ विश्वसनीय अपटाइम

सामग्री स्क्रैपर API FAQs

सामग्री स्क्रिपर एपीआई एक उपकरण है जो उपयोगकर्ताओं को वेब पृष्ठों से पाठ्य सामग्री निकालने की अनुमति देता है इसे लेखों ब्लॉगों और अन्य वेब सामग्री से पाठ के मुख्य भाग को पुनः प्राप्त करने और संसाधित करने के लिए डिज़ाइन किया गया है अव्यवस्थित तत्वों जैसे विज्ञापनों नेविगेशन मेनू और साइडबार को छानते हुए

कंटेंट स्क्रेपर एपीआई JSON प्रारूप में इनपुट के रूप में यूआरएल स्वीकार करता है और JSON प्रारूप में निकाली गई सामग्री लौटाता है आउटपुट में आमतौर पर मुख्य पाठ शीर्षक लेखक प्रकाशन तिथि और अन्य संबंधित मेटाडेटा शामिल होते हैं

सामग्री स्क्रैपर एपीआई तक पहुंच API कुंजियों का उपयोग करके प्रमाणीकरण किया जाता है आपको हमारे डेवलपर पोर्टल के माध्यम से API कुंजी के लिए साइन अप करने की आवश्यकता है आपके पास जब आपकी कुंजी हो जाए तो इसे अपने HTTP अनुरोधों के हेडर में Authorization पैरामीटर का उपयोग करके शामिल करें

कंटेंट स्क्रैपर एपीआई कई भाषाओं का समर्थन करता है और विभिन्न करैक्टर एन्कोडिंग के साथ वेब पृष्ठों को प्रोसेस कर सकता है एपीआई स्वचालित रूप से इनपुट वेब पृष्ठ की भाषा और एन्कोडिंग का पता लगाता है और निकाला गया कंटेंट UTF-8 फॉर्मेट में लौटाता है

सामग्री स्क्रेपर एपीआई उन्नत एल्गोरिदम और मशीन लर्निंग तकनीकों का उपयोग करके वेब पृष्ठों से मुख्य पाठ को सटीकता से निकालता है जबकि यह उच्च सटीकता प्राप्त करता है निकासी गुणवत्ता वेब पृष्ठ की जटिलता और संरचना के आधार पर भिन्न हो सकती है

सामग्री स्क्रैपर एपीआई संरचित डेटा लौटाता है जिसमें लेख का मुख्य पाठ शीर्षक विवरण लेखक प्रकाशन तिथि लिंक और चित्र शामिल होते हैं यह डेटा JSON प्रारूप में होता है जिससे इसे अनुप्रयोगों में एकीकृत करना आसान होता है

प्रतिक्रिया में मुख्य क्षेत्र "url" (लेख का लिंक) "title" (लेख का शीर्षक) "description" (मुख्य सामग्री) "links" (कोई संबंधित लिंक) और "image" (लेख की विशेष छवि) शामिल हैं प्रत्येक क्षेत्र विश्लेषण के लिए आवश्यक जानकारी प्रदान करता है

प्रतिक्रिया डेटा एक JSON संरचना में व्यवस्थित है इसमें सफलता या विफलता को दर्शाने के लिए एक "त्रुटि" क्षेत्र है एक स्थिति अपडेट के लिए "संदेश" क्षेत्र है और एक "डेटा" ऑब्जेक्ट है जिसमें निकाला गया सामग्री और मेटाडेटा शामिल है

एपीआई लेख के मुख्य पाठ, शीर्षक, लेखक, प्रकाशन तिथि और संबंधित लिंक जैसी जानकारी प्रदान करता है यह व्यापक डेटा सेट विभिन्न एप्लिकेशन के लिए उपयोगी है जिसमें भावना विश्लेषण और सामग्री अनुशंसा शामिल हैं

उपयोगकर्ता अपनी अनुरोधों को अनुकूलित कर सकते हैं जो लेख के URL को निर्दिष्ट करके जिसे वे निकालना चाहते हैं API प्रदान किए गए URL को संसाधित करता है ताकि प्रासंगिक सामग्री लौटाई जा सके जिससे उपयोगकर्ता की आवश्यकताओं के आधार पर लक्षित डेटा निष्कर्षण संभव हो सके

सामान्य उपयोग के मामलों में समाचार संग्रहण भावना विश्लेषण सामग्री अनुशंसा प्रणालियाँ डेटा विश्लेषण और पाठ संक्षेपण शामिल हैं एपीआई का संरचित आउटपुट डेटा-आधारित परियोजनाओं में विविध अनुप्रयोगों का समर्थन करता है

डेटा सटीकता को वेब पृष्ठ संरचनाओं का विश्लेषण करने वाले उन्नत एल्गोरिदम और मशीन लर्निंग तकनीकों के माध्यम से बनाए रखा जाता है डेटा संग्रहण एल्गोरिदम में निरंतर अपडेट और सुधार उच्च गुणवत्ता वाले परिणाम सुनिश्चित करने में मदद करते हैं

यदि उपयोगकर्ताओं को आंशिक या खाली परिणाम मिलते हैं तो उन्हें प्रदान की गई URL की पहुंच और सामग्री उपलब्धता की जाँच करनी चाहिए इसके अलावा उपयोगकर्ता विभिन्न URLs का प्रयास कर सकते हैं या सुनिश्चित कर सकते हैं कि लेख बेहतर निष्कर्षण परिणामों के लिए ठीक से संरचित हैं

सामान्य FAQs

Zyla API Hub APIs के लिए एक बड़ा स्टोर जैसा है, जहाँ आप हजारों APIs एक ही जगह पर पा सकते हैं। हम सभी APIs की समर्पित सपोर्ट और रीयल-टाइम मॉनिटरिंग भी प्रदान करते हैं। एक बार साइन अप करने के बाद, आप चुन सकते हैं कि कौन सी APIs उपयोग करनी हैं। बस याद रखें, प्रत्येक API को अपनी स्वयं की सब्सक्रिप्शन की आवश्यकता होती है। लेकिन यदि आप कई APIs पर सब्सक्राइब करते हैं, तो आप सभी के लिए एक ही की का उपयोग करेंगे, जिससे आपके लिए चीज़ें आसान हो जाती हैं।

कीमतें USD (अमेरिकी डॉलर), EUR (यूरो), CAD (कनाडाई डॉलर), AUD (ऑस्ट्रेलियाई डॉलर), और GBP (ब्रिटिश पाउंड) में सूचीबद्ध हैं। हम सभी प्रमुख डेबिट और क्रेडिट कार्ड स्वीकार करते हैं। हमारा पेमेंट सिस्टम नवीनतम सुरक्षा तकनीक का उपयोग करता है और Stripe द्वारा संचालित है, जो दुनिया की सबसे विश्वसनीय पेमेंट कंपनियों में से एक है। यदि आपको कार्ड से पेमेंट करने में कोई समस्या हो, तो बस हमसे संपर्क करें [email protected]


इसके अलावा, यदि आपके पास पहले से ही इनमें से किसी भी करेंसी (USD, EUR, CAD, AUD, GBP) में एक सक्रिय सब्सक्रिप्शन है, तो बाद की सब्सक्रिप्शंस के लिए वही करेंसी बनी रहेगी। जब तक आपके पास कोई सक्रिय सब्सक्रिप्शन नहीं है, आप किसी भी समय करेंसी बदल सकते हैं।

प्राइसिंग पेज पर दिखाई देने वाली स्थानीय करेंसी आपके IP पते के देश पर आधारित है और केवल संदर्भ के लिए प्रदान की गई है। वास्तविक कीमतें USD (अमेरिकी डॉलर) में हैं। जब आप भुगतान करते हैं, तो आपके कार्ड स्टेटमेंट पर चार्ज USD में दिखाई देगा, भले ही हमारी वेबसाइट पर आपको आपकी स्थानीय करेंसी में समतुल्य राशि दिखाई दे। इसका अर्थ है कि आप सीधे अपनी स्थानीय करेंसी से भुगतान नहीं कर सकते।

कभी-कभी, बैंक फ्रॉड प्रोटेक्शन सेटिंग्स के कारण चार्ज को डिक्लाइन कर सकता है। हम सुझाव देते हैं कि आप पहले अपने बैंक से संपर्क करें कि क्या वे हमारे चार्ज को ब्लॉक कर रहे हैं। साथ ही, आप बिलिंग पोर्टल तक पहुंच सकते हैं और भुगतान करने के लिए जुड़े कार्ड को बदल सकते हैं। यदि यह काम नहीं करता और आपको अतिरिक्त सहायता की आवश्यकता है, तो कृपया हमारी टीम से संपर्क करें [email protected]

कीमतें पुनरावर्ती मासिक या वार्षिक सब्सक्रिप्शन के आधार पर निर्धारित की जाती हैं, जो चुने गए प्लान पर निर्भर करती हैं।

API कॉल्स आपके प्लान से सफल रिक्वेस्ट के आधार पर घटाई जाती हैं। प्रत्येक प्लान में प्रति माह आप जितनी कॉल कर सकते हैं उसकी एक विशेष संख्या होती है। केवल सफल कॉल्स, जो स्टेटस 200 रिस्पॉन्स से इंगित होती हैं, आपकी कुल संख्या से घटाई जाएँगी। इससे सुनिश्चित होता है कि असफल या अधूरी रिक्वेस्ट आपके मासिक कोटा को प्रभावित नहीं करतीं।

Zyla API Hub एक पुनरावर्ती मासिक सब्सक्रिप्शन सिस्टम पर काम करता है। आपका बिलिंग साइकल उस दिन से शुरू होगा जिस दिन आप किसी पेड प्लान को खरीदते हैं, और अगले महीने के उसी दिन नवीनीकृत होगा। इसलिए यदि आप भविष्य के चार्ज से बचना चाहते हैं, तो समय पर अपनी सब्सक्रिप्शन कैंसल करना सुनिश्चित करें।

अपनी मौजूदा सब्सक्रिप्शन प्लान को अपग्रेड करने के लिए, बस API के प्राइसिंग पेज पर जाएँ और वह प्लान चुनें जिस पर आप अपग्रेड करना चाहते हैं। अपग्रेड तुरंत प्रभावी होगा, जिससे आपको नए प्लान की सुविधाओं का तुरंत आनंद मिलेगा। कृपया ध्यान दें कि आपके पिछले प्लान से बची हुई कॉल्स नए प्लान में नहीं जोड़ी जाएँगी, इसलिए अपग्रेड करने से पहले इसे ध्यान में रखें। आपको नए प्लान की पूरी राशि चार्ज की जाएगी।

यह देखने के लिए कि आपके पास वर्तमान महीने के लिए कितनी API कॉल्स बची हैं, रिस्पॉन्स हेडर में "X-Zyla-API-Calls-Monthly-Remaining" फ़ील्ड देखें। उदाहरण के लिए, यदि आपके प्लान में प्रति माह 1,000 रिक्वेस्ट की अनुमति है और आपने 100 का उपयोग किया है, तो रिस्पॉन्स हेडर में यह फ़ील्ड 900 बची हुई कॉल्स दिखाएगा।

आपके प्लान में अनुमत API रिक्वेस्ट्स की अधिकतम संख्या देखने के लिए, "X-Zyla-RateLimit-Limit" रिस्पॉन्स हेडर देखें। उदाहरण के लिए, यदि आपके प्लान में प्रति माह 1,000 रिक्वेस्ट्स शामिल हैं, तो यह हेडर 1,000 दिखाएगा।

"X-Zyla-RateLimit-Reset" हेडर यह दिखाता है कि आपकी रेट लिमिट रीसेट होने में कितने सेकंड बचे हैं। यह आपको बताता है कि आपकी रिक्वेस्ट गिनती कब से फिर से शुरू होगी। उदाहरण के लिए, यदि यह 3,600 दिखाता है, तो इसका मतलब है कि लिमिट रीसेट होने में 3,600 सेकंड बचे हैं।

हाँ, आप कभी भी अपने अकाउंट में जाकर और बिलिंग पेज पर कैंसिलेशन विकल्प चुनकर अपना प्लान कैंसल कर सकते हैं। कृपया ध्यान दें कि अपग्रेड, डाउनग्रेड और कैंसिलेशन तुरंत प्रभावी होते हैं। साथ ही, कैंसल करने पर आपको सेवा तक पहुंच नहीं होगी, भले ही आपके कोटा में कॉल्स बची हों।

आप तुरंत सहायता प्राप्त करने के लिए हमारे चैट चैनल के माध्यम से हमसे संपर्क कर सकते हैं। हम हमेशा सुबह 8 बजे से शाम 5 बजे (EST) तक ऑनलाइन रहते हैं। यदि आप हमें उस समय के बाद संपर्क करते हैं, तो हम यथाशीघ्र आपसे संपर्क करेंगे। इसके अलावा, आप हमें ईमेल के माध्यम से भी संपर्क कर सकते हैं [email protected]

आपको बिना किसी प्रतिबद्धता के हमारी APIs का अनुभव करने का मौका देने के लिए, हम 7-दिवसीय फ्री ट्रायल प्रदान करते हैं, जो आपको 50 API कॉल्स तक मुफ्त में करने की अनुमति देता है। यह ट्रायल केवल एक बार उपयोग किया जा सकता है, इसलिए हम सलाह देते हैं कि आप इसे उस API पर लागू करें जिसमें आपको सबसे अधिक रुचि है। जबकि अधिकांश APIs फ्री ट्रायल प्रदान करते हैं, कुछ शायद न करें। ट्रायल 7 दिनों के बाद या 50 रिक्वेस्ट होने पर, जो भी पहले हो, समाप्त हो जाता है। यदि आप ट्रायल के दौरान 50 रिक्वेस्ट लिमिट तक पहुँच जाते हैं, तो रिक्वेस्ट जारी रखने के लिए आपको "Start Your Paid Plan" करना होगा। आप अपने प्रोफाइल में Subscription -> जिस API पर आप सब्सक्राइब हैं उसे चुनें -> Pricing टैब में "Start Your Paid Plan" बटन पा सकते हैं। यदि आप 7वें दिन से पहले अपनी सब्सक्रिप्शन कैंसल नहीं करते हैं, तो आपका फ्री ट्रायल समाप्त हो जाएगा और आपका प्लान अपने आप चार्ज हो जाएगा, जिससे आपको अपने प्लान में निर्दिष्ट सभी API कॉल्स तक पहुंच मिल जाएगी। अवांछित चार्ज से बचने के लिए कृपया इसे ध्यान में रखें।

7 दिनों के बाद, आपको उस प्लान की पूरी राशि चार्ज की जाएगी, जिस पर आप ट्रायल के दौरान सब्सक्राइब थे। इसलिए, ट्रायल अवधि समाप्त होने से पहले कैंसल करना महत्वपूर्ण है। समय पर कैंसल करना भूलने के लिए रिफंड अनुरोध स्वीकार नहीं किए जाते।

जब आप किसी API के फ्री ट्रायल पर सब्सक्राइब करते हैं, तो आप 50 API कॉल्स तक कर सकते हैं। यदि आप इस लिमिट से आगे अतिरिक्त API कॉल्स करना चाहते हैं, तो API आपको "Start Your Paid Plan" करने का संकेत देगा। आप अपने प्रोफाइल में Subscription -> जिस API पर आप सब्सक्राइब हैं उसे चुनें -> Pricing टैब में "Start Your Paid Plan" बटन पा सकते हैं।

पAYOUT ऑर्डर्स महीने की 20 तारीख से 30 तारीख के बीच प्रोसेस किए जाते हैं। यदि आप अपना अनुरोध 20 तारीख से पहले सबमिट करते हैं, तो आपका पेमेंट इस समयावधि के भीतर प्रोसेस किया जाएगा।


संबंधित APIs


आपको ये भी पसंद आ सकते हैं