मर्कडाउन मेकर API

वेब पृष्ठों को कार्रवाई योग्य सामग्री में बदलें टेक्स्ट को निकालकर या आसान एकीकरण और प्रसंस्करण के लिए मार्कडाउन में परिवर्तित करके
इस API को अपने AI एजेंट से MCP के माध्यम से उपयोग करें
OpenClaw, Claude Code/Desktop, Cursor, Windsurf, Cline और किसी भी MCP-संगत AI क्लाइंट के साथ काम करता है।
डॉक्स और सेटअप
इस MCP को रैप करके एक स्किल बनाएं: https://mcp.zylalabs.com/mcp?apikey=YOUR_ZYLA_API_KEY

एपीआई के बारे में:  

मार्कडाउन मेकर एपीआई वेब सामग्री को संरचित मार्कडाउन या क्लीन टेक्स्ट में परिवर्तित करने की प्रक्रिया को सरल बनाता है इसकी क्लीन टेक्स्ट एंडपॉइंट यह सुनिश्चित करता है कि केवल प्रासंगिक सामग्री को पुनः प्राप्त किया जाए मेनू विज्ञापनों या अन्य गैर-आवश्यक तत्वों को हटा दिया जाए मार्कडाउन एंडपॉइंट डेवलपर्स को सामग्री को मार्कडाउन में बदलने की अनुमति देता है जिससे सामग्री प्रबंधन प्रणालियों ब्लॉगों या दस्तावेज़ों के लिए कार्यप्रवाह को सुव्यवस्थित किया जा सके बहुपरकता के लिए डिज़ाइन किया गया एपीआई निर्बाध एकीकरण और विश्वसनीय प्रदर्शन के लिए वेब पृष्ठों और प्रारूपों की एक विस्तृत श्रृंखला का समर्थन करता है

API डॉक्यूमेंटेशन

एंडपॉइंट्स


इस एंडपॉइंट का उपयोग करने के लिए, वेब पृष्ठ के यूआरएल के साथ एक अनुरोध भेजें और उस पृष्ठ के सामग्री से निकाला गया साफ़ पाठ प्राप्त करें


                                                                            
POST https://zylalabs.com/api/5661/markdown+maker+api/7371/markdown+content+extracto
                                                                            
                                                                        

मार्कडाउन सामग्री निकालें - एंडपॉइंट फीचर्स

ऑब्जेक्ट विवरण
रिक्वेस्ट बॉडी [आवश्यक] Json
एंडपॉइंट टेस्ट करें

API उदाहरण प्रतिक्रिया

       
                                                                                                        
                                                                                                                                                                                                                                                                                                                                        {"response":"Spark Basics\nSuppose we have a web application hosted in an application orchestrator like kubernetes. If load in that particular application increases then we can horizontally scale our application simply by increasing the number of pods in our service.\nNow let’s suppose there is heavy compute operation happening in each of the pods. Then there will be certain limit upto which these services can run because unlike horizontal scaling where you can have as many numbers of machines as required, there is limit for vertical scaling because you can’t have unlimited ram and cpu cores for each of the machines in a cluster. Distributed Computing removes this limitation of vertical scaling by distributing the processing across cluster of machines. Now, a group of machines alone is not powerful, you need a framework to coordinate work across them. Spark does just that, managing and coordinating the execution of tasks on data across a cluster of computers. The cluster of machines that Spark will use to execute tasks is managed by a cluster manager like Spark’s standalone cluster manager, Kubernetes, YARN, or Mesos.\nSpark Basics\nSpark is distributed data processing engine. Distributed data processing in big data is simply series of map and reduce functions which runs across the cluster machines. Given below is python code for calculating the sum of all the even numbers from a given list with the help of map and reduce functions.\nfrom functools import reduce\na = [1,2,3,4,5]\nres = reduce(lambda x,y: x+y, (map(lambda x: x if x%2==0 else 0, a)))\nNow consider, if instead of a simple list, it is a parquet file of size in order of gigabytes. Computation with MapReduce system becomes optimized way of dealing with such problems. In this case spark will load the big parquet file into multiple worker nodes (if the file doesn’t support distributed storage then it will be first loaded into driver node and afterwards, it will get distributed across the worker nodes). Then map function will be executed for each task in each worker node and the final result will fetched with the reduce function.\nSpark timeline\nGoogle was first to introduce large scale distributed computing solution with MapReduce and its own distributed file system i.e., Google File System(GFS). GFS provided a blueprint for the Hadoop File System (HDFS), including the MapReduce implementation as a framework for distributed computing. Apache Hadoop framework was developed consisting of Hadoop Common, MapReduce, HDFS, and Apache Hadoop YARN. There were various limitations with Apache Hadoop like it fell short for combining other workloads such as machine learning, streaming, or interactive SQL-like queries etc. Also the results of the reduce computations were written to a local disk for subsequent stage of operations. Then came the Spark. Spark provides in-memory storage for intermediate computations, making it much faster than Hadoop MapReduce. It incorporates libraries with composable APIs for machine learning (MLlib), SQL for interactive queries (Spark SQL), stream processing (Structured Streaming) for interacting with real-time data, and graph processing (GraphX).\nSpark Application\nSpark Applications consist of a driver process and a set of executor processes. The driver process runs your main() function, sits on a node in the cluster. The executors are responsible for actually carrying out the work that the driver assigns them. The driver and executors are simply processes, which means that they can live on the same machine or different machines.\nThere is a SparkSession object available to the user, which is the entrance point to running Spark code. When using Spark from Python or R, you don’t write explicit JVM instructions; instead, you write Python and R code that Spark translates into code that it then can run on the executor JVMs.\nSpark’s language APIs make it possible for you to run Spark code using various programming languages like Scala, Java, Python, SQL and R.\nSpark has two fundamental sets of APIs: the low-level “unstructured” APIs (RDDs), and the higher-level structured APIs (Dataframes, Datasets).\nSpark Toolsets\nA DataFrame is the most common Structured API and simply represents a table of data with rows and columns. To allow every executor to perform work in parallel, Spark breaks up the data into chunks called partitions. A partition is a collection of rows that sit on one physical machine in your cluster.\nIf a function returns a Dataframe or Dataset or Resilient Distributed Dataset (RDD) then it is a transformation and if it doesn’t return anything then it’s an action. An action instructs Spark to compute a result from a series of transformations. The simplest action is count.\nTransformation are of types narrow and wide. Narrow transformations are those for which each input partition will contribute to only one output partition. Wide transformation will have input partitions contributing to many output partitions.\nSparks performs a lazy evaluation which means that Spark will wait until the very last moment to execute the graph of computation instructions. This provides immense benefits because Spark can optimize the entire data flow from end to end.\nSpark-submit\nReferences\n- https://spark.apache.org/docs/latest/\n- spark: The Definitive Guide by Bill Chambers and Matei Zaharia"}
                                                                                                                                                                                                                    
                                                                                                    

मार्कडाउन सामग्री निकालें - कोड स्निपेट्स


curl --location --request POST 'https://zylalabs.com/api/5661/markdown+maker+api/7371/markdown+content+extracto' --header 'Authorization: Bearer YOUR_API_KEY' 

--data-raw '{
  "url": "https://techtalkverse.com/post/software-development/spark-basics/"
}'

    

इस एंडपॉइंट का उपयोग करने के लिए, एक अनुरोध भेजें जिसमें वेब पृष्ठ का यूआरएल हो और उस पृष्ठ का सामग्री मार्कडाउन प्रारूप में प्राप्त करें


                                                                            
POST https://zylalabs.com/api/5661/markdown+maker+api/7372/web+to+markdown
                                                                            
                                                                        

वेब से मार्कडाउन - एंडपॉइंट फीचर्स

ऑब्जेक्ट विवरण
रिक्वेस्ट बॉडी [आवश्यक] Json
एंडपॉइंट टेस्ट करें

API उदाहरण प्रतिक्रिया

       
                                                                                                        
                                                                                                                                                                                                                                                                                                                                        {"response":"---\ntitle: Spark Basics\nurl: https://techtalkverse.com/post/software-development/spark-basics/\nhostname: techtalkverse.com\ndescription: Suppose we have a web application hosted in an application orchestrator like kubernetes. If load in that particular application increases then we can horizontally scale our application simply by increasing the number of pods in our service.\nsitename: techtalkverse.com\ndate: 2023-05-01\ncategories: ['post']\n---\n# Spark Basics\n\nSuppose we have a web application hosted in an application orchestrator like kubernetes. If load in that particular application increases then we can horizontally scale our application simply by increasing the number of pods in our service.\n\nNow let’s suppose there is heavy compute operation happening in each of the pods. Then there will be certain limit upto which these services can run because unlike horizontal scaling where you can have as many numbers of machines as required, there is limit for vertical scaling because you can’t have unlimited ram and cpu cores for each of the machines in a cluster. **Distributed Computing** removes this limitation of vertical scaling by distributing the processing across cluster of machines.\nNow, a group of machines alone is not powerful, you need a framework to\ncoordinate work across them. Spark does just that, managing and coordinating the execution of tasks on data across a cluster of computers. The cluster of machines that Spark will use to execute tasks is managed by a cluster manager like Spark’s standalone cluster manager, Kubernetes, YARN, or Mesos.\n\n## Spark Basics\n\nSpark is distributed data processing engine. Distributed data processing in big data is simply series of map and reduce functions which runs across the cluster machines. Given below is python code for calculating the sum of all the even numbers from a given list with the help of map and reduce functions.\n\n```\nfrom functools import reduce\na = [1,2,3,4,5]\nres = reduce(lambda x,y: x+y, (map(lambda x: x if x%2==0 else 0, a)))\n```\n\n\nNow consider, if instead of a simple list, it is a parquet file of size in order of gigabytes. Computation with MapReduce system becomes optimized way of dealing with such problems. In this case spark will load the big parquet file into multiple worker nodes (if the file doesn’t support distributed storage then it will be first loaded into driver node and afterwards, it will get distributed across the worker nodes). Then map function will be executed for each task in each worker node and the final result will fetched with the reduce function.\n\n## Spark timeline\n\nGoogle was first to introduce large scale distributed computing solution with **MapReduce** and its own distributed file system i.e., **Google File System(GFS)**. GFS provided a blueprint for the **Hadoop File System (HDFS)**, including the MapReduce implementation as a framework for distributed computing. **Apache Hadoop** framework was developed consisting of Hadoop Common, MapReduce, HDFS, and Apache Hadoop YARN. There were various limitations with Apache Hadoop like it fell short for combining other workloads such as machine learning, streaming, or interactive SQL-like queries etc. Also the results of the reduce computations were written to a local disk for subsequent stage of operations. Then came the **Spark**. Spark provides in-memory storage for intermediate computations, making it much faster than Hadoop MapReduce. It incorporates libraries with composable APIs for\nmachine learning (MLlib), SQL for interactive queries (Spark SQL), stream processing (Structured Streaming) for interacting with real-time data, and graph processing (GraphX).\n\n## Spark Application\n\n**Spark Applications** consist of a driver process and a set of executor processes. The **driver** process runs your main() function, sits on a node in the cluster. The **executors** are responsible for actually carrying out the work that the driver assigns them. The driver and executors are simply processes, which means that they can live on the same machine or different machines.\n\nThere is a **SparkSession** object available to the user, which is the entrance point to running Spark code. When using Spark from Python or R, you don’t write explicit JVM instructions; instead, you write Python and R code that Spark translates into code that it then can run on the executor JVMs.\n**Spark’s language APIs** make it possible for you to run Spark code using various programming languages like Scala, Java, Python, SQL and R.\nSpark has two fundamental sets of APIs: the **low-level “unstructured” APIs** (RDDs), and the **higher-level structured APIs** (Dataframes, Datasets).\n\n## Spark Toolsets\n\nA **DataFrame** is the most common Structured API and simply represents a table of data with rows and columns. To allow every executor to perform work in parallel, Spark breaks up the data into chunks called partitions. A **partition** is a collection of rows that sit on one physical machine in your cluster.\n\nIf a function returns a Dataframe or Dataset or Resilient Distributed Dataset (RDD) then it is a **transformation** and if it doesn’t return anything then it’s an **action**. An action instructs Spark to compute a result from a series of transformations. The simplest action is count.\n\nTransformation are of types narrow and wide. **Narrow transformations** are those for which each input partition will contribute to only one output partition. **Wide transformation** will have input partitions contributing to many output partitions.\n\nSparks performs a **lazy evaluation** which means that Spark will wait until the very last moment to execute the graph of computation instructions. This provides immense benefits because Spark can optimize the entire data flow from end to end.\n\n## Spark-submit\n\n## References\n\n- https://spark.apache.org/docs/latest/\n- spark: The Definitive Guide by Bill Chambers and Matei Zaharia"}
                                                                                                                                                                                                                    
                                                                                                    

वेब से मार्कडाउन - कोड स्निपेट्स


curl --location --request POST 'https://zylalabs.com/api/5661/markdown+maker+api/7372/web+to+markdown' --header 'Authorization: Bearer YOUR_API_KEY' 

--data-raw '{
  "url": "https://techtalkverse.com/post/software-development/spark-basics/"
}'

    

API एक्सेस कुंजी और प्रमाणीकरण

साइन अप करने के बाद, प्रत्येक डेवलपर को एक पर्सनल API एक्सेस की असाइन की जाती है, जो अक्षरों और अंकों का एक यूनिक संयोजन होता है, जिसका उपयोग हमारे API एंडपॉइंट तक पहुंचने के लिए किया जाता है। प्रमाणीकरण के लिए मर्कडाउन मेकर API के साथ बस अपने बेयरर टोकन को Authorization हेडर में शामिल करें।
हेडर्स
हेडर विवरण
Authorization [आवश्यक] होना चाहिए Bearer access_key. जब आप सब्सक्राइब हों तो ऊपर "Your API Access Key" देखें।

सरल पारदर्शी प्राइसिंग

कोई लंबी अवधि की प्रतिबद्धता नहीं। कभी भी अपग्रेड, डाउनग्रेड या कैंसल करें। फ्री ट्रायल में 50 रिक्वेस्ट तक शामिल हैं।

🚀 एंटरप्राइज़

शुरू होता है
$ 10,000/वर्ष


  • कस्टम वॉल्यूम
  • कस्टम रेट लिमिट
  • विशेष ग्राहक सहायता
  • रीयल-टाइम API मॉनिटरिंग

ग्राहकों की पसंदीदा विशेषताएँ

  • ✔︎ केवल सफल रिक्वेस्ट के लिए भुगतान करें
  • ✔︎ फ्री 7-दिवसीय ट्रायल
  • ✔︎ मल्टी-लैंग्वेज सपोर्ट
  • ✔︎ एक API कुंजी, सभी APIs।
  • ✔︎ इंuitive डैशबोर्ड
  • ✔︎ व्यापक त्रुटि हैंडलिंग
  • ✔︎ डेवलपर-फ्रेंडली डॉक्यूमेंटेशन
  • ✔︎ पोस्टमैन इंटीग्रेशन
  • ✔︎ सुरक्षित HTTPS कनेक्शंस
  • ✔︎ विश्वसनीय अपटाइम

मर्कडाउन मेकर API FAQs

Markdown मेकर एपीआई का प्राथमिक कार्य वेब पृष्ठों को संरचित मार्कडाउन या साफ पाठ में बदलना है जिससे वेब सामग्री के आसान एकीकरण और प्रसंस्करण की अनुमति मिलती है

स्वच्छ पाठ अंत बिंदु केवल एक वेब पृष्ठ से प्रासंगिक सामग्री को प्राप्त करता है मेनू विज्ञापन और अन्य गैर-सामान्य तत्वों को समाप्त करते हुए केंद्रित आउटपुट प्रदान करता है

हाँ, मार्कडाउन मेकर एपीआई का डिज़ाइन विभिन्न प्रकार के वेब पृष्ठों और फ़ॉर्मेटों का समर्थन करने के लिए किया गया है, जो विभिन्न प्रकार की सामग्री के लिए बहुपरकारी और विश्वसनीय प्रदर्शन सुनिश्चित करता है

मार्कडाउन एंडपॉइंट डेवलपर्स को वेब सामग्री को मार्कडाउन प्रारूप में बदलने की अनुमति देता है जो सामग्री प्रबंधन प्रणालियों ब्लॉगों और दस्तावेजीकरण के लिए कार्यप्रवाह को सरल बनाता है जिससे सामग्री को प्रबंधित और प्रदर्शित करना आसान हो जाता है

हाँ, मार्कडाउन मेकर एपीआई विशेष रूप से सामग्री प्रबंधन प्रणालियों के लिए उपयुक्त है क्योंकि यह वेब सामग्री को निकालने और प्रारूपित करने की प्रक्रिया को सरल बनाता है जिससे प्रभावशीलता और संगठन में सुधार होता है

क्लीन टेक्स्ट एंडपॉइंट एक केंद्रित टेक्स्ट आउटपुट लौटाता है जो गैर-आवश्यक तत्वों जैसे विज्ञापनों और मेन्यू को हटा देता है मार्कडाउन एंडपॉइंट संरचित मार्कडाउन सामग्री लौटाता है जिसमें शीर्षक URL विवरण और श्रेणियाँ जैसी मेटाडेटा शामिल होती हैं साथ ही मुख्य सामग्री को मार्कडाउन में स्वरूपित किया जाता है

साफ़ पाठ अंत बिंदु के लिए मुख्य फ़ील्ड "उत्तर" है जिसमें निकाला गया पाठ है मार्कडाउन अंत बिंदु के लिए मुख्य फ़ील्ड में "शीर्षक" "यूआरएल" "विवरण" "साइट का नाम" "तिथि" "श्रेणियाँ" और मुख्य सामग्री शामिल हैं जो मार्कडाउन में प्रारूपित है

साफ टेक्स्ट प्रतिक्रिया "response" कुंजी के तहत एक सरल स्ट्रिंग है मार्कडाउन प्रतिक्रिया में मेटाडेटा क्षेत्रों के साथ मुख्य सामग्री होती है जिससे अनुप्रयोगों में इसे आसानी से पार्स और एकीकृत किया जा सकता है

साफ़ पाठ अंत बिंदु एक वेब पृष्ठ से प्रासंगिक पाठ सामग्री प्रदान करता है जबकि मार्कडाउन अंत बिंदु सामग्री और संबंधित मेटाडेटा जैसे शीर्षक URL और श्रेणियाँ प्रदान करता है जिससे बेहतर सामग्री प्रबंधन की सुविधा होती है

उपयोगकर्ता अनुरोधों को विभिन्न URL को निर्धारित करके अनुकूलित कर सकते हैं API प्रदान किए गए URL की सामग्री को प्रोसेस करता है जिससे उपयोगकर्ता आवश्यकतानुसार विभिन्न वेब पृष्ठों को निकाल या परिवर्तित कर सकते हैं

विशिष्ट उपयोग के मामलों में ब्लॉगों, दस्तावेजीकरण और सामग्री प्रबंधन प्रणालियों के लिए सामग्री निकासी शामिल है विकासकर्ता एकत्र करने और वेब सामग्री को प्रारूपित करने की प्रक्रिया को स्वचालित कर सकते हैं ताकि इसे एकीकरण और प्रदर्शन के लिए आसान बनाया जा सके

मार्कडाउन मेकर एपीआई उन वेब पृष्ठों की संरचना पर निर्भर करता है जिनको यह प्रोसेस करता है जबकि इसका लक्ष्य प्रासंगिक सामग्री को सटीकता से निकालना है आउटपुट की गुणवत्ता स्रोत पृष्ठ की संरचना और सामग्री की गुणवत्ता पर निर्भर करती है

यदि एपीआई आंशिक या खाली परिणाम लौटाता है तो उपयोगकर्ताओं को उपलब्धता और सामग्री की उपलब्धता के लिए प्रदान की गई-url की पुष्टि करनी चाहिए। अनुप्रयोगों में त्रुटि प्रबंधन लागू करना ऐसे परिदृश्यों को प्रभावी ढंग से प्रबंधित करने में मदद कर सकता है

सामान्य FAQs

Zyla API Hub APIs के लिए एक बड़ा स्टोर जैसा है, जहाँ आप हजारों APIs एक ही जगह पर पा सकते हैं। हम सभी APIs की समर्पित सपोर्ट और रीयल-टाइम मॉनिटरिंग भी प्रदान करते हैं। एक बार साइन अप करने के बाद, आप चुन सकते हैं कि कौन सी APIs उपयोग करनी हैं। बस याद रखें, प्रत्येक API को अपनी स्वयं की सब्सक्रिप्शन की आवश्यकता होती है। लेकिन यदि आप कई APIs पर सब्सक्राइब करते हैं, तो आप सभी के लिए एक ही की का उपयोग करेंगे, जिससे आपके लिए चीज़ें आसान हो जाती हैं।

कीमतें USD (अमेरिकी डॉलर), EUR (यूरो), CAD (कनाडाई डॉलर), AUD (ऑस्ट्रेलियाई डॉलर), और GBP (ब्रिटिश पाउंड) में सूचीबद्ध हैं। हम सभी प्रमुख डेबिट और क्रेडिट कार्ड स्वीकार करते हैं। हमारा पेमेंट सिस्टम नवीनतम सुरक्षा तकनीक का उपयोग करता है और Stripe द्वारा संचालित है, जो दुनिया की सबसे विश्वसनीय पेमेंट कंपनियों में से एक है। यदि आपको कार्ड से पेमेंट करने में कोई समस्या हो, तो बस हमसे संपर्क करें [email protected]


इसके अलावा, यदि आपके पास पहले से ही इनमें से किसी भी करेंसी (USD, EUR, CAD, AUD, GBP) में एक सक्रिय सब्सक्रिप्शन है, तो बाद की सब्सक्रिप्शंस के लिए वही करेंसी बनी रहेगी। जब तक आपके पास कोई सक्रिय सब्सक्रिप्शन नहीं है, आप किसी भी समय करेंसी बदल सकते हैं।

प्राइसिंग पेज पर दिखाई देने वाली स्थानीय करेंसी आपके IP पते के देश पर आधारित है और केवल संदर्भ के लिए प्रदान की गई है। वास्तविक कीमतें USD (अमेरिकी डॉलर) में हैं। जब आप भुगतान करते हैं, तो आपके कार्ड स्टेटमेंट पर चार्ज USD में दिखाई देगा, भले ही हमारी वेबसाइट पर आपको आपकी स्थानीय करेंसी में समतुल्य राशि दिखाई दे। इसका अर्थ है कि आप सीधे अपनी स्थानीय करेंसी से भुगतान नहीं कर सकते।

कभी-कभी, बैंक फ्रॉड प्रोटेक्शन सेटिंग्स के कारण चार्ज को डिक्लाइन कर सकता है। हम सुझाव देते हैं कि आप पहले अपने बैंक से संपर्क करें कि क्या वे हमारे चार्ज को ब्लॉक कर रहे हैं। साथ ही, आप बिलिंग पोर्टल तक पहुंच सकते हैं और भुगतान करने के लिए जुड़े कार्ड को बदल सकते हैं। यदि यह काम नहीं करता और आपको अतिरिक्त सहायता की आवश्यकता है, तो कृपया हमारी टीम से संपर्क करें [email protected]

कीमतें पुनरावर्ती मासिक या वार्षिक सब्सक्रिप्शन के आधार पर निर्धारित की जाती हैं, जो चुने गए प्लान पर निर्भर करती हैं।

API कॉल्स आपके प्लान से सफल रिक्वेस्ट के आधार पर घटाई जाती हैं। प्रत्येक प्लान में प्रति माह आप जितनी कॉल कर सकते हैं उसकी एक विशेष संख्या होती है। केवल सफल कॉल्स, जो स्टेटस 200 रिस्पॉन्स से इंगित होती हैं, आपकी कुल संख्या से घटाई जाएँगी। इससे सुनिश्चित होता है कि असफल या अधूरी रिक्वेस्ट आपके मासिक कोटा को प्रभावित नहीं करतीं।

Zyla API Hub एक पुनरावर्ती मासिक सब्सक्रिप्शन सिस्टम पर काम करता है। आपका बिलिंग साइकल उस दिन से शुरू होगा जिस दिन आप किसी पेड प्लान को खरीदते हैं, और अगले महीने के उसी दिन नवीनीकृत होगा। इसलिए यदि आप भविष्य के चार्ज से बचना चाहते हैं, तो समय पर अपनी सब्सक्रिप्शन कैंसल करना सुनिश्चित करें।

अपनी मौजूदा सब्सक्रिप्शन प्लान को अपग्रेड करने के लिए, बस API के प्राइसिंग पेज पर जाएँ और वह प्लान चुनें जिस पर आप अपग्रेड करना चाहते हैं। अपग्रेड तुरंत प्रभावी होगा, जिससे आपको नए प्लान की सुविधाओं का तुरंत आनंद मिलेगा। कृपया ध्यान दें कि आपके पिछले प्लान से बची हुई कॉल्स नए प्लान में नहीं जोड़ी जाएँगी, इसलिए अपग्रेड करने से पहले इसे ध्यान में रखें। आपको नए प्लान की पूरी राशि चार्ज की जाएगी।

यह देखने के लिए कि आपके पास वर्तमान महीने के लिए कितनी API कॉल्स बची हैं, रिस्पॉन्स हेडर में "X-Zyla-API-Calls-Monthly-Remaining" फ़ील्ड देखें। उदाहरण के लिए, यदि आपके प्लान में प्रति माह 1,000 रिक्वेस्ट की अनुमति है और आपने 100 का उपयोग किया है, तो रिस्पॉन्स हेडर में यह फ़ील्ड 900 बची हुई कॉल्स दिखाएगा।

आपके प्लान में अनुमत API रिक्वेस्ट्स की अधिकतम संख्या देखने के लिए, "X-Zyla-RateLimit-Limit" रिस्पॉन्स हेडर देखें। उदाहरण के लिए, यदि आपके प्लान में प्रति माह 1,000 रिक्वेस्ट्स शामिल हैं, तो यह हेडर 1,000 दिखाएगा।

"X-Zyla-RateLimit-Reset" हेडर यह दिखाता है कि आपकी रेट लिमिट रीसेट होने में कितने सेकंड बचे हैं। यह आपको बताता है कि आपकी रिक्वेस्ट गिनती कब से फिर से शुरू होगी। उदाहरण के लिए, यदि यह 3,600 दिखाता है, तो इसका मतलब है कि लिमिट रीसेट होने में 3,600 सेकंड बचे हैं।

हाँ, आप कभी भी अपने अकाउंट में जाकर और बिलिंग पेज पर कैंसिलेशन विकल्प चुनकर अपना प्लान कैंसल कर सकते हैं। कृपया ध्यान दें कि अपग्रेड, डाउनग्रेड और कैंसिलेशन तुरंत प्रभावी होते हैं। साथ ही, कैंसल करने पर आपको सेवा तक पहुंच नहीं होगी, भले ही आपके कोटा में कॉल्स बची हों।

आप तुरंत सहायता प्राप्त करने के लिए हमारे चैट चैनल के माध्यम से हमसे संपर्क कर सकते हैं। हम हमेशा सुबह 8 बजे से शाम 5 बजे (EST) तक ऑनलाइन रहते हैं। यदि आप हमें उस समय के बाद संपर्क करते हैं, तो हम यथाशीघ्र आपसे संपर्क करेंगे। इसके अलावा, आप हमें ईमेल के माध्यम से भी संपर्क कर सकते हैं [email protected]

आपको बिना किसी प्रतिबद्धता के हमारी APIs का अनुभव करने का मौका देने के लिए, हम 7-दिवसीय फ्री ट्रायल प्रदान करते हैं, जो आपको 50 API कॉल्स तक मुफ्त में करने की अनुमति देता है। यह ट्रायल केवल एक बार उपयोग किया जा सकता है, इसलिए हम सलाह देते हैं कि आप इसे उस API पर लागू करें जिसमें आपको सबसे अधिक रुचि है। जबकि अधिकांश APIs फ्री ट्रायल प्रदान करते हैं, कुछ शायद न करें। ट्रायल 7 दिनों के बाद या 50 रिक्वेस्ट होने पर, जो भी पहले हो, समाप्त हो जाता है। यदि आप ट्रायल के दौरान 50 रिक्वेस्ट लिमिट तक पहुँच जाते हैं, तो रिक्वेस्ट जारी रखने के लिए आपको "Start Your Paid Plan" करना होगा। आप अपने प्रोफाइल में Subscription -> जिस API पर आप सब्सक्राइब हैं उसे चुनें -> Pricing टैब में "Start Your Paid Plan" बटन पा सकते हैं। यदि आप 7वें दिन से पहले अपनी सब्सक्रिप्शन कैंसल नहीं करते हैं, तो आपका फ्री ट्रायल समाप्त हो जाएगा और आपका प्लान अपने आप चार्ज हो जाएगा, जिससे आपको अपने प्लान में निर्दिष्ट सभी API कॉल्स तक पहुंच मिल जाएगी। अवांछित चार्ज से बचने के लिए कृपया इसे ध्यान में रखें।

7 दिनों के बाद, आपको उस प्लान की पूरी राशि चार्ज की जाएगी, जिस पर आप ट्रायल के दौरान सब्सक्राइब थे। इसलिए, ट्रायल अवधि समाप्त होने से पहले कैंसल करना महत्वपूर्ण है। समय पर कैंसल करना भूलने के लिए रिफंड अनुरोध स्वीकार नहीं किए जाते।

जब आप किसी API के फ्री ट्रायल पर सब्सक्राइब करते हैं, तो आप 50 API कॉल्स तक कर सकते हैं। यदि आप इस लिमिट से आगे अतिरिक्त API कॉल्स करना चाहते हैं, तो API आपको "Start Your Paid Plan" करने का संकेत देगा। आप अपने प्रोफाइल में Subscription -> जिस API पर आप सब्सक्राइब हैं उसे चुनें -> Pricing टैब में "Start Your Paid Plan" बटन पा सकते हैं।

पAYOUT ऑर्डर्स महीने की 20 तारीख से 30 तारीख के बीच प्रोसेस किए जाते हैं। यदि आप अपना अनुरोध 20 तारीख से पहले सबमिट करते हैं, तो आपका पेमेंट इस समयावधि के भीतर प्रोसेस किया जाएगा।


संबंधित APIs