最近在尝试为网址添加百度的MIP(Mobile Instant Page - 移动网页加速器)版本,网站改动后先用MIP Validator进行验证和Preview预览,没有大的问题就可以等着百度蜘蛛来爬取了,不过还可以在百度站长平台中主动提交MIP版本,让百度蜘蛛更快、更全面知晓。
进入百度站长平台后,可以在已有的网站(没有的网站需要先验证和添加网站)菜单中选择“移动专区、MIP引入”,先要确认“《百度MIP资源接入内容责任书》的相关协议”,然后看到“手动提交”和“主动推送(
这是 PHP 分类的页面,点击下面标题查看详细文章内容:
最近在尝试为网址添加百度的MIP(Mobile Instant Page - 移动网页加速器)版本,网站改动后先用MIP Validator进行验证和Preview预览,没有大的问题就可以等着百度蜘蛛来爬取了,不过还可以在百度站长平台中主动提交MIP版本,让百度蜘蛛更快、更全面知晓。
进入百度站长平台后,可以在已有的网站(没有的网站需要先验证和添加网站)菜单中选择“移动专区、MIP引入”,先要确认“《百度MIP资源接入内容责任书》的相关协议”,然后看到“手动提交”和“主动推送(
刚才记录了一篇《自己编写的网站监控程序》,可以实现比较复杂的多系列网站巡检,设置第二个参数为sitemap.xml就可以检查网站地图。
不过看到以前还写过一个更简单的sitemap.xml检查程序monitor_xmlsitemap.php,也把PHP源代码贴出来:
<?php function check($host) { //$keyword = 'xmlns="http://www.sitemaps.org/schemas/sitemap/0.9"'; $keyw
偶尔会发现各Drupal系列网站的sitemap.xml丢失的情况,应该是在运行cron阶段把老的sitemap.xml删除了,但在生成新的sitemap.xml的时候因为网站数据量大导致mysql进程被杀死或者其它超时等原因重新生成失败,我们管理员一般不会去特意检查这个sitemap是否存在,而搜索引擎会一遍一遍经常检查,遇到不存在报错的情况可能会存在相当长的时间。(解决办法:可以在Sitemap配置中的ADVANCED SETTINGS里面把Disable cron generation of sitemap files.勾选,或者运行drush vset xmlsitemap_
在用Drupal搭建网站的时候,有时需要用到一些复杂的查找及替换,只用str_replace是无法做到的,这时需要用到正则表达式,有这样几个PHP函数可能会用到:
更多PCRE 函数:
一直以来我们放在国外服务器上的网站在国内访问都很慢,当网站中包含有Google地图等内容的时候,更是在国内访问会被卡住,等待几十秒后才打开页面剩余部分,而地图部分也是空白。
去年在做ipshu.com网站的时候也是遇到这个问题,因为这个站本身就是判断IP地址的,所以也方便解决,当时记录了一篇博客《让国内国外都可以调用Google地图API》,采用的其中第二种办法。
但其它放在国外的网站依然没有解决,昨天干脆去编写了一个简单的Drupal模块in_china(放在本文的附件中),主要作用就是定义一个PHP函数in_china(),用于判断
前些天尝试成功了“Drupal中文网站简体版本自动生成一个对应的繁体版本”,那篇博文中详细记录了Drupal中需要修改的地方,而简体到繁体转换的核心PHP程序并没有给出,现在就放在下面供需要的朋友参考。
需要说明的是,我在网上搜了好些中文简体繁体转换PHP程序的文章,基本上都残缺不全,需要下载的对照数据成了死链接,无法真正使用,我只好又找了别的语言(有一篇介绍Java做简繁转换的文章)程序中找到纯文本的对照数据,自己再花了一些时间来转换,最好放到自己的程序中,很是折腾,希望下面这段代码让需要的朋友不用这样折腾了。
最近需要编写一段程序来读取Drupal网站中页面Node的某个文本字段,进行处理、判断、匹配后,将这个页面归类Taxonomy到某个术语表Vocabulary的术语Term中。在刚开始用Drupal 6的时候就曾经编写过类似程序来分类,见博文《Drupal中让Node归类的PHP程序》,在后来使用Drupal 7的过程中,绝大多数分类都是在创建网站、导入数据的时候就自动进行了,使用了术语来源Term reference字段和自动完成术语挂件(标签)Autocomplete term widget (tagging)控件,但也有把数据作为文本导入字段,然后再运行php程序进行分类的情况
以前托管服务器或者租用的服务器一般都是100M共享的带宽,很少出现机器带宽被占满的情况,去年开始采用阿里云平台后,带宽就是一个不得不考虑的成本因素,我们一般都是每台ECS购买的10M左右带宽,每年费用已经不少了,而投入使用后很轻易就会被占满,关键是网站的流量并没有特别提升,广告收入没有增加,成本却在大幅提高,还导致正常用户访问变慢、困难。
同事在Linux服务器上安装了一个iftop来查看带宽占用情况,很容易就发现了是搜索引擎的爬虫抓取sitemap.xml这样的网址占用了很大带宽,我们网站系列多、页面多、还有多语言或者手机版,网站地图就特别的多,如果爬虫来得
整个2015年从开始到结尾都在进行网站向云服务器的搬迁以及网站的升级,其中大数据量的数据迁移是个令人很头痛的问题,几百万的数据量加上几十个字段,系列网站还有几十个这样的网站,需要等待数据迁移程序运行的时间真是太长太长了。上半年就遇到大数据量的问题,后来通过修改服务器配置,让PHP使用更多的内存、最大执行时间、数据库连接缓存等办法,还是用drush content-migrate-fields这样的命令来进行,算是解决了部分难以迁移的站点。但现在到年尾,而且随着Drupal 8的退出,Drupal 6很快就面临失去支持的境况,我们需要把所有Drupal 6网站都升级,现在把所有服务器资
Drupal 8在上月推出,Drupal 6在3个月后不再提供支持,今年我们本来就花了很多时间在做服务器迁移到阿里云以及Drupal系统升级的事情,现在还剩下的几个Drupal 6系列网站的升级工作也要抓紧进行。
升级工作的流程我们已经很熟悉了,可以批量进行(见博客文章《用Drush批量升级Drupal 6到Drupal 7》),但遇到数据量很大的站点时,content migrating 的时间特别长,还容易因为服务器内存、php运行时间限制、SQL时间过长等原因报错失败,数量在几十万以内的升级起来都很快,但单个站点数据量达到数百万、每个站点的字段数量有几十
2002-2023 v11.7 a-j-e-0