A API do Leitor de RSS é uma ferramenta poderosa que permite aos desenvolvedores extrair e normalizar dados de URLs de feeds RSS, ATOM e JSON sem esforço. Com sua funcionalidade abrangente, esta API simplifica o processo de leitura e utilização de dados de feeds em várias aplicações e serviços.
Uma das principais características da API do Leitor de RSS é sua capacidade de converter dados de feeds no formato JSON amplamente suportado. Ao fazer isso, a API garante que o conteúdo esteja organizado e estruturado de maneira consistente, facilitando para os desenvolvedores processar e manipular os dados.
A API vai além de simplesmente converter dados de feeds para o formato JSON. Também inclui um processo de normalização que remove partes não utilizadas ou estranhas do feed, resultando em um conjunto de dados limpo e otimizado. Isso não apenas melhora a qualidade geral dos dados, mas também ajuda a reduzir o uso de largura de banda da rede, otimizando o desempenho da aplicação ou serviço que utiliza a API.
Com a API do Leitor de RSS, os desenvolvedores têm a flexibilidade de construir seus próprios sites de notícias ou plataformas de agregação de conteúdo. Semelhante a serviços populares como Feedly ou Inoreader, essa API fornece a funcionalidade necessária para coletar, analisar e apresentar dados de feeds de maneira amigável ao usuário. Ao aproveitar o suporte da API para múltiplos formatos de feed, incluindo RSS, ATOM e JSON, os desenvolvedores podem lidar com uma ampla gama de fontes de feeds, garantindo compatibilidade e flexibilidade.
Além disso, a API oferece opções adicionais de personalização, permitindo que os desenvolvedores configurem parâmetros como ordenação, filtragem e paginação para adaptar o conteúdo do feed às suas necessidades específicas. Isso capacita os desenvolvedores a criar experiências personalizadas e otimizar a apresentação dos dados do feed com base nas necessidades únicas de suas aplicações.
Seja você está construindo uma plataforma de agregação de notícias, uma ferramenta de descoberta de conteúdo, ou integrando dados de feeds em uma aplicação existente, a API do Leitor de RSS é um ativo valioso. Suas capacidades robustas, incluindo conversão de dados de feeds, normalização e suporte a múltiplos formatos, permitem que os desenvolvedores lidem com dados de feeds de maneira eficiente e eficaz, economizando tempo e esforço no processo de desenvolvimento.
Em resumo, a API do Leitor de RSS é uma solução abrangente para ler e normalizar dados de feeds RSS, ATOM e JSON. Com sua capacidade de converter feeds em formato JSON, agilizar os dados e oferecer várias opções de personalização, a API capacita os desenvolvedores a criar sites de notícias ricos em recursos, agregadores de conteúdo e outras aplicações que dependem de dados de feeds precisos e bem estruturados.
Envie a URL do RSS e receba os dados normalizados em JSON.
Plataforma de Agregação de Notícias: A API do Leitor de RSS é ideal para construir uma plataforma de agregação de notícias onde os usuários podem acessar e ler conteúdo de várias fontes. Ela permite que os desenvolvedores busquem e normalize dados de diversos feeds RSS, ATOM e JSON, proporcionando uma experiência unificada e consistente para os usuários.
Monitoramento e Análise de Conteúdo: Organizações e indivíduos podem usar a API para monitorar tópicos ou palavras-chave específicas em múltiplos feeds. Ao extrair e normalizar dados de feeds relevantes, eles podem analisar tendências, acompanhar menções e obter insights sobre desenvolvimentos na indústria ou atividades de concorrentes.
Alertas de Notícias Personalizados: A API permite a criação de sistemas de alerta de notícias personalizados. Os usuários podem se inscrever em tópicos ou palavras-chave específicas e receber notificações oportunas sempre que novo conteúdo correspondente aos seus interesses for publicado. Isso é valioso para se manter informado e atualizado sobre assuntos específicos.
Curadoria de Conteúdo para Websites ou Blogs: Publicadores da web podem aproveitar a API para curar conteúdo de diversos feeds RSS, ATOM e JSON e exibi-lo em seus websites ou blogs. Isso permite que eles forneçam uma variedade diversificada de conteúdo atualizado para seus leitores, enriquecendo a experiência geral do usuário.
Integração e Sindicação de Dados: A API facilita a integração e sindicação de dados de feeds em outras aplicações ou serviços. Por exemplo, os desenvolvedores podem incorporar dados de feeds normalizados em seus aplicativos móveis, plataformas de mídia social ou sistemas de gerenciamento de conteúdo para fornecer uma experiência de conteúdo contínua e abrangente para seus usuários.
Além do número de chamadas de API, não há outra limitação
Obtenha dados de feed da fonte ATOM/RSS fornecida
Analisador de Feed - Recursos do endpoint
| Objeto | Descrição |
|---|---|
url |
[Obrigatório] |
{"error":0,"message":"Feed extracted successfully","data":{"title":"The GitHub Blog","link":"https://github.blog/","description":"Updates, ideas, and inspiration from GitHub to help developers build and design software.","language":"en-US","generator":"https://wordpress.org/?v=6.9","published":"2026-01-08T22:25:56.000Z","entries":[{"id":"https://github.blog/?p=93132","title":"Why AI is pushing developers toward typed languages","link":"https://github.blog/ai-and-ml/llms/why-ai-is-pushing-developers-toward-typed-languages/","published":"2026-01-08T22:25:54.000Z","description":"AI is settling the “typed vs. untyped” debate by turning type systems into the safety net for code you didn’t write yourself. The post Why AI is pushing developers toward typed languages appeared first on The GitHub Blog."},{"id":"https://github.blog/?p=93097","title":"Agentic AI, MCP, and spec-driven development: Top blog posts of 2025","link":"https://github.blog/developer-skills/agentic-ai-mcp-and-spec-driven-development-top-blog-posts-of-2025/","published":"2025-12-30T17:20:10.000Z","description":"Explore the GitHub Blog’s top posts covering the biggest software development topics of the year. The post Agentic AI, MCP, and spec-driven development: Top blog posts of 2025 appeared first on The GitHub Blog."},{"id":"https://github.blog/?p=92971","title":"Bugs that survive the heat of continuous fuzzing","link":"https://github.blog/security/vulnerability-research/bugs-that-survive-the-heat-of-continuous-fuzzing/","published":"2025-12-29T22:01:14.000Z","description":"Learn why some long-enrolled OSS-Fuzz projects still contain vulnerabilities and how you can find them. The post Bugs that survive the heat of continuous fuzzing appeared first on The GitHub Blog."},{"id":"https://github.blog/?p=93087","title":"WRAP up your backlog with GitHub Copilot coding agent","link":"https://github.blog/ai-and-ml/github-copilot/wrap-up-your-backlog-with-github-copilot-coding-agent/","published":"2025-12-26T17:56:38.000Z","description":"An easy-to-remember acronym, WRAP will help you write effective issues, refine your instructions, and get the most out of Copilot coding agent. The post WRAP up your backlog with GitHub Copilot coding agent appeared first on The GitHub Blog."},{"id":"https://github.blog/?p=93091","title":"Strengthening supply chain security: Preparing for the next malware campaign","link":"https://github.blog/security/supply-chain-security/strengthening-supply-chain-security-preparing-for-the-next-malware-campaign/","published":"2025-12-23T23:52:08.000Z","description":"Security advice for users and maintainers to help reduce the impact of the next supply chain malware attack. The post Strengthening supply chain security: Preparing for the next malware campaign appeared first on The GitHub Blog."},{"id":"https://github.blog/?p=93068","title":"5 podcast episodes to help you build with confidence in 2026","link":"https://github.blog/open-source/maintainers/5-podcast-episodes-to-help-you-build-with-confidence-in-2026/","published":"2025-12-23T00:15:00.000Z","description":"Looking ahead to the New Year? These GitHub Podcast episodes help you cut through the noise and build with more confidence across AI, open source, and developer tools. The post 5 podcast episodes to help you build with confidence in 2026 appeared..."},{"id":"https://github.blog/?p=93051","title":"This year’s most influential open source projects","link":"https://github.blog/open-source/maintainers/this-years-most-influential-open-source-projects/","published":"2025-12-22T23:48:52.000Z","description":"From Appwrite to Zulip, Universe 2025’s Open Source Zone was stacked with standout projects showing just how far open source can go. Meet the maintainers—and if you want to join them in 2026, you can now apply for next year’s cohort. The post This..."},{"id":"https://github.blog/?p=92826","title":"The future of AI-powered software optimization (and how it can help your team)","link":"https://github.blog/news-insights/policy-news-and-insights/the-future-of-ai-powered-software-optimization-and-how-it-can-help-your-team/","published":"2025-12-12T20:43:37.000Z","description":"We envision the future of AI-enabled tooling to look like near-effortless engineering for sustainability. We call it Continuous Efficiency. The post The future of AI-powered software optimization (and how it can help your team) appeared first on..."},{"id":"https://github.blog/?p=92762","title":"Let’s talk about GitHub Actions","link":"https://github.blog/news-insights/product-news/lets-talk-about-github-actions/","published":"2025-12-11T17:40:52.000Z","description":"A look at how we rebuilt GitHub Actions’ core architecture and shipped long-requested upgrades to improve performance, workflow flexibility, reliability, and everyday developer experience. The post Let’s talk about GitHub Actions appeared first on..."},{"id":"https://github.blog/?p=92796","title":"GitHub Availability Report: November 2025","link":"https://github.blog/news-insights/company-news/github-availability-report-november-2025/","published":"2025-12-11T16:03:53.000Z","description":"In November, we experienced three incidents that resulted in degraded performance across GitHub services. The post GitHub Availability Report: November 2025 appeared first on The GitHub Blog."}]}}
curl --location --request GET 'https://zylalabs.com/api/2207/rss+reader+api/2051/feed+parser?url=https://github.blog/feed/' --header 'Authorization: Bearer YOUR_API_KEY'
| Cabeçalho | Descrição |
|---|---|
Authorization
|
[Obrigatório] Deve ser Bearer access_key. Veja "Sua chave de acesso à API" acima quando você estiver inscrito. |
Sem compromisso de longo prazo. Faça upgrade, downgrade ou cancele a qualquer momento. O teste gratuito inclui até 50 requisições.
A API do Leitor de RSS é um serviço que permite aos desenvolvedores extrair e normalizar dados de URLs de feeds RSS, ATOM e JSON. Ela simplifica o processo de busca, conversão e organização de dados de feeds em um formato consistente para integração perfeita em aplicações
A API normaliza os dados do feed estruturando e organizando-os em um formato consistente normalmente JSON Isso envolve a remoção de elementos desnecessários a padronização de nomes de campos e a garantia da uniformidade na representação de dados para uma melhor utilização e integração
A API do Leitor de RSS busca o conteúdo mais recente das URLs de feed fornecidas quando solicitado Para implementar atualizações em tempo real você precisaria solicitar periodicamente dados novos da API com base na frequência desejada ou usar uma combinação de webhooks e a API para receber notificações quando novo conteúdo estiver disponível
Absolutamente! A API do Leitor RSS é projetada para ser facilmente integrada em várias aplicações, incluindo móveis e web. Fazendo solicitações HTTP para os endpoints da API e processando os dados retornados, você pode incorporar de forma contínua o conteúdo do feed na interface de usuário e funcionalidade da sua aplicação
Sim a API pode incluir conteúdo multimédio como imagens se forem fornecidas dentro do feed Você pode acessar e utilizar esse conteúdo junto com os dados baseados em texto extraídos das URLs do feed
O endpoint do Feed Parser retorna dados de feed normalizados em formato JSON, incluindo informações chave como o título do feed, link, descrição, idioma, data de publicação e um array de entradas contendo artigos individuais com seus títulos, links, descrições e datas de publicação
Os campos principais nos dados da resposta incluem "título" (título do feed), "link" (URL para o feed), "descrição" (descrição do feed), "idioma" (código do idioma), "publicado" (data da última publicação) e "entradas" (array de artigos com seus respectivos títulos, links, descrições e datas de publicação)
Os dados da resposta estão organizados em uma estrutura JSON hierárquica O objeto principal contém metadados sobre o feed (título link etc) e um array "entries" onde cada entrada representa um artigo individual com seu próprio conjunto de campos facilitando a iteração pelos artigos
O endpoint do Feed Parser fornece informações como o título do feed, link, descrição, idioma, data de publicação e uma lista de artigos, cada um contendo títulos, links, descrições e datas de publicação, permitindo uma agregação abrangente de conteúdo
O endpoint Feed Parser aceita principalmente a URL do feed RSS ou ATOM como um parâmetro Opções de personalização adicionais podem incluir parâmetros de ordenação e filtragem para adaptar a resposta com base em necessidades específicas embora esses não estejam detalhados na documentação atual
Os usuários podem utilizar efetivamente os dados retornados ao analisar a resposta JSON para exibir artigos em suas plataformas criar alertas para novo conteúdo ou analisar tendências com base nos títulos e descrições das entradas aumentando o engajamento do usuário e a descoberta de conteúdo
Os dados são provenientes de feeds RSS ATOM e JSON disponíveis publicamente na internet A API busca e normaliza esses dados garantindo que os desenvolvedores possam acessar uma ampla gama de conteúdos de vários editores e plataformas
A precisão dos dados é mantida ao buscar o conteúdo mais recente diretamente das URLs de feed fornecidas A API normaliza esses dados para garantir consistência mas os usuários devem verificar a confiabilidade das fontes de feed originais para aplicações críticas
O Zyla API Hub é como uma grande loja de APIs, onde você pode encontrar milhares delas em um só lugar. Também oferecemos suporte dedicado e monitoramento em tempo real de todas as APIs. Após se cadastrar, você pode escolher quais APIs deseja usar. Lembre-se apenas de que cada API precisa de sua própria assinatura. Mas se você se inscrever em várias, usará a mesma chave para todas elas, facilitando as coisas para você.
Os preços são listados em USD (Dólar Americano), EUR (Euro), CAD (Dólar Canadense), AUD (Dólar Australiano) e GBP (Libra Esterlina). Aceitamos todos os principais cartões de débito e crédito. Nosso sistema de pagamento usa a mais recente tecnologia de segurança e é operado pela Stripe, uma das empresas de pagamento mais confiáveis do mundo. Se tiver problemas para pagar com cartão, entre em contato conosco em [email protected]
Além disso, se você já tiver uma assinatura ativa em qualquer uma dessas moedas (USD, EUR, CAD, AUD, GBP), essa moeda será mantida para assinaturas subsequentes. Você pode alterar a moeda a qualquer momento, desde que não tenha assinaturas ativas.
A moeda local exibida na página de preços é baseada no país do seu endereço IP e é fornecida apenas como referência. Os preços reais são em USD (Dólar Americano). Ao efetuar o pagamento, a cobrança aparecerá no extrato do seu cartão em USD, mesmo que você veja o valor equivalente em sua moeda local em nosso site. Isso significa que você não pode pagar diretamente com sua moeda local.
Ocasionalmente, o banco pode recusar a cobrança devido às configurações de proteção contra fraude. Sugerimos contatar seu banco inicialmente para verificar se estão bloqueando nossas cobranças. Você também pode acessar o Portal de Cobrança e alterar o cartão associado para realizar o pagamento. Se isso não funcionar e precisar de mais ajuda, entre em contato com nossa equipe em [email protected]
Os preços são determinados por uma assinatura recorrente mensal ou anual, dependendo do plano escolhido.
As chamadas de API são descontadas do seu plano com base nas requisições bem-sucedidas. Cada plano possui um número específico de chamadas por mês. Apenas chamadas bem-sucedidas, indicadas por uma resposta com Status 200, serão contabilizadas, garantindo que falhas não afetem sua cota mensal.
O Zyla API Hub funciona com um sistema de assinatura mensal recorrente. Seu ciclo de cobrança começa no dia em que você compra um dos planos pagos e será renovado no mesmo dia do mês seguinte. Portanto, cancele sua assinatura com antecedência se quiser evitar cobranças futuras.
Para fazer upgrade do seu plano atual, acesse a página de preços da API e selecione o novo plano desejado. O upgrade é instantâneo, permitindo aproveitar imediatamente os recursos do novo plano. Observe que as chamadas restantes do plano anterior não serão transferidas; você será cobrado pelo valor integral do novo plano.
Para verificar quantas chamadas de API restam para o mês atual, consulte o campo 'X-Zyla-API-Calls-Monthly-Remaining' no cabeçalho da resposta. Por exemplo, se seu plano permite 1.000 requisições por mês e você usou 100, este campo no cabeçalho da resposta indicará 900 chamadas restantes.
Para ver o número máximo de requisições de API que seu plano permite, verifique o cabeçalho de resposta 'X-Zyla-RateLimit-Limit'. Por exemplo, se seu plano inclui 1.000 requisições por mês, este cabeçalho exibirá 1.000.
O cabeçalho 'X-Zyla-RateLimit-Reset' mostra o número de segundos até seu limite de taxa ser redefinido. Isso informa quando sua contagem de requisições começará do zero. Por exemplo, se exibir 3.600, significa que restam 3.600 segundos até o limite ser redefinido.
Sim, você pode cancelar seu plano a qualquer momento acessando sua conta e selecionando a opção de cancelamento na página de Cobrança. Observe que upgrades, downgrades e cancelamentos têm efeito imediato. Além disso, após o cancelamento, você não terá mais acesso ao serviço, mesmo que ainda tenha chamadas restantes na sua cota.
Você pode nos contatar via chat para receber assistência imediata. Estamos online de 8h às 17h (EST). Se nos contatar após esse horário, retornaremos o mais rápido possível. Além disso, você pode enviar um e-mail para [email protected]
Para oferecer a oportunidade de experimentar nossas APIs sem compromisso, oferecemos um teste gratuito de 7 dias que permite realizar até 50 chamadas de API sem custo. Esse teste pode ser usado apenas uma vez; recomendamos aplicá-lo à API que mais interessa. Embora a maioria das APIs ofereça teste gratuito, algumas podem não oferecer. O teste termina após 7 dias ou quando você atingir 50 requisições, o que ocorrer primeiro. Se atingir o limite, será necessário "Iniciar seu plano pago" para continuar. Você encontra esse botão no perfil em Assinatura -> Escolha a API -> aba Preços. Se não cancelar até o 7º dia, sua assinatura será cobrada automaticamente, liberando todas as chamadas do plano.
Após 7 dias, será cobrado o valor total do plano ao qual você estava inscrito durante o teste. Portanto, é importante cancelar antes do término do período. Solicitações de reembolso por esquecimento de cancelamento não são aceitas.
Ao assinar um teste gratuito de API, você pode fazer até 50 chamadas. Se desejar fazer chamadas adicionais além desse limite, a API solicitará que você "Inicie seu plano pago". Você encontra o botão no perfil em Assinatura -> Escolha a API -> aba Preços.
As Ordens de Pagamento são processadas entre os dias 20 e 30 de cada mês. Se você enviar sua solicitação antes do dia 20, seu pagamento será processado dentro desse período.
Nível de serviço:
99%
Tempo de resposta:
468ms
Nível de serviço:
100%
Tempo de resposta:
567ms
Nível de serviço:
100%
Tempo de resposta:
5.583ms
Nível de serviço:
98%
Tempo de resposta:
396ms
Nível de serviço:
100%
Tempo de resposta:
888ms
Nível de serviço:
75%
Tempo de resposta:
1.498ms
Nível de serviço:
100%
Tempo de resposta:
1.434ms
Nível de serviço:
100%
Tempo de resposta:
474ms
Nível de serviço:
100%
Tempo de resposta:
4.394ms
Nível de serviço:
100%
Tempo de resposta:
2.814ms
Nível de serviço:
100%
Tempo de resposta:
1.002ms
Nível de serviço:
100%
Tempo de resposta:
1.002ms
Nível de serviço:
100%
Tempo de resposta:
850ms
Nível de serviço:
100%
Tempo de resposta:
3.445ms
Nível de serviço:
100%
Tempo de resposta:
1.617ms
Nível de serviço:
100%
Tempo de resposta:
1.593ms
Nível de serviço:
100%
Tempo de resposta:
603ms
Nível de serviço:
100%
Tempo de resposta:
1.002ms
Nível de serviço:
100%
Tempo de resposta:
1.002ms
Nível de serviço:
100%
Tempo de resposta:
1.002ms