求一个客户订阅RSS,定时更新的方法
正在制作一个网站,可以提供客户通过关键字搜索订阅本地的RSS,但是为了保护数据库的调用量,准备限制客户的调用次数。
大致思路是:用户第一次订阅是,调用数据库,生成静态XML文件。根据XML生成时间为基准,每24小时自动更新一次。
思路一:用户每次请求XML时,根据 time()-filectime 判断,如果大于 24*60*60 时,再次运行PHP文件,调用数据库,更新XML文件。问题是,既然已经生成了静态的XML文件,如何让XML通知PHP文件,告诉它:“我已经过期了,请再次更新我吧”?
思路二:把用户订阅写进SHELL里,让CRON定时后台运行。问题是:当用户订阅数成倍增长后,SHELL脚本体积不断增大,会变的繁重。另外,如果SHELL脚本在同一时间有读出和写入,SHELL脚本会不会崩溃?或者导致CRON程序被跳过?
思路三:还没想好,或许大家有更好的方法对我建议。谢谢。
BTW: 个人倾向:根据 time()-filectime 判断,这样可以排除恶意用户在第一次订阅后人间蒸发(RSS订阅被摒弃),而我的CRON程序还在为他每24小时自动的空生成一次……
------解决方案--------------------
php 可以读取xml的生成时间进行判断。不过如果有大量xml文件的时候得考虑IO瓶颈的问题。 所以如果不行的话就将生成的时间入库。用数据库来配合工作,可能会好点
xml很多吗?不多的话可以用memcache 来配合一下
------解决方案--------------------
1楼就这个意思
就是个文件缓存
abcd可以md5一下,可以防止一些特殊字符造成的麻烦,
暴力破解不是问题,因为你可以把xml放在web root外的目录, 也可以用.htaccess来控制直接访问
xml文件太多了也会有问题,根据需要到时候可以定期删除长期不更新的文件,或者分目录层次.
另: 如果是纯xml文件, file_get_contents比include快
------解决方案--------------------
xml的修改时间可以使用head方法取得last modify时间,搜索引擎蜘蛛都是这样做的。

一、XML外部实体注入XML外部实体注入漏洞也就是我们常说的XXE漏洞。XML作为一种使用较为广泛的数据传输格式,很多应用程序都包含有处理xml数据的代码,默认情况下,许多过时的或配置不当的XML处理器都会对外部实体进行引用。如果攻击者可以上传XML文档或者在XML文档中添加恶意内容,通过易受攻击的代码、依赖项或集成,就能够攻击包含缺陷的XML处理器。XXE漏洞的出现和开发语言无关,只要是应用程序中对xml数据做了解析,而这些数据又受用户控制,那么应用程序都可能受到XXE攻击。本篇文章以java

如何用PHP和XML实现网站的分页和导航导言:在开发一个网站时,分页和导航功能是很常见的需求。本文将介绍如何使用PHP和XML来实现网站的分页和导航功能。我们会先讨论分页的实现,然后再介绍导航的实现。一、分页的实现准备工作在开始实现分页之前,需要准备一个XML文件,用来存储网站的内容。XML文件的结构如下:<articles><art

当我们处理数据时经常会遇到将XML格式转换为JSON格式的需求。PHP有许多内置函数可以帮助我们执行这个操作。在本文中,我们将讨论将XML格式转换为JSON格式的不同方法。

1.在Python中XML文件的编码问题1.Python使用的xml.etree.ElementTree库只支持解析和生成标准的UTF-8格式的编码2.常见GBK或GB2312等中文编码的XML文件,用以在老旧系统中保证XML对中文字符的记录能力3.XML文件开头有标识头,标识头指定了程序处理XML时应该使用的编码4.要修改编码,不仅要修改文件整体的编码,还要将标识头中encoding部分的值修改2.处理PythonXML文件的思路1.读取&解码:使用二进制模式读取XML文件,将文件变为

使用nmap-converter将nmap扫描结果XML转化为XLS实战1、前言作为网络安全从业人员,有时候需要使用端口扫描利器nmap进行大批量端口扫描,但Nmap的输出结果为.nmap、.xml和.gnmap三种格式,还有夹杂很多不需要的信息,处理起来十分不方便,而将输出结果转换为Excel表格,方面处理后期输出。因此,有技术大牛分享了将nmap报告转换为XLS的Python脚本。2、nmap-converter1)项目地址:https://github.com/mrschyte/nmap-

Pythonxmltodict对xml的操作xmltodict是另一个简易的库,它致力于将XML变得像JSON.下面是一个简单的示例XML文件:elementsmoreelementselementaswell这是第三方包,在处理前先用pip来安装pipinstallxmltodict可以像下面这样访问里面的元素,属性及值:importxmltodictwithopen("test.xml")asfd:#将XML文件装载到dict里面doc=xmltodict.parse(f

xml中node和element的区别是:Element是元素,是一个小范围的定义,是数据的组成部分之一,必须是包含完整信息的结点才是元素;而Node是节点,是相对于TREE数据结构而言的,一个结点不一定是一个元素,一个元素一定是一个结点。

Scrapy是一款强大的Python爬虫框架,可以帮助我们快速、灵活地获取互联网上的数据。在实际爬取过程中,我们会经常遇到HTML、XML、JSON等各种数据格式。在这篇文章中,我们将介绍如何使用Scrapy分别爬取这三种数据格式的方法。一、爬取HTML数据创建Scrapy项目首先,我们需要创建一个Scrapy项目。打开命令行,输入以下命令:scrapys


熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

AI Hentai Generator
免費產生 AI 無盡。

熱門文章

熱工具

Safe Exam Browser
Safe Exam Browser是一個安全的瀏覽器環境,安全地進行線上考試。該軟體將任何電腦變成一個安全的工作站。它控制對任何實用工具的訪問,並防止學生使用未經授權的資源。

ZendStudio 13.5.1 Mac
強大的PHP整合開發環境

MinGW - Minimalist GNU for Windows
這個專案正在遷移到osdn.net/projects/mingw的過程中,你可以繼續在那裡關注我們。 MinGW:GNU編譯器集合(GCC)的本機Windows移植版本,可自由分發的導入函式庫和用於建置本機Windows應用程式的頭檔;包括對MSVC執行時間的擴展,以支援C99功能。 MinGW的所有軟體都可以在64位元Windows平台上運作。

SublimeText3漢化版
中文版,非常好用

EditPlus 中文破解版
體積小,語法高亮,不支援程式碼提示功能