杭州跑完回来以后就空闲下来了,一段时间都没有比赛,正好把我之前准备做的一件事情办了:献血。很早以前就有过这个想法,只是从30岁左右到40岁出头一直体重超标,血脂检查没有合格过,而且都是超过合格标准的上限不少,经过节食稍微好点,中度脂肪肝也降为轻度,但血脂不符合正常标准也不适合献血。2011年开始在中体倍力健身俱乐部锻炼后效果超好,只有几个月时间就减轻了上十公斤,多年没有正常过的
祁劲松的博客文章
我们做的Drupal网站数据量都比较大,几年前一开始就遇到cron运行报错的情况,主要就是因为cron运行期间要生成xmlsitemap,遇到php的内存限制或者运行时间限制导致出错无法正常执行,我们当时采取的办法是修改“Minimum sitemap lifetime(sitemap最小存在时间)”为10年(drush vset xmlsitemap_minimum_lifetime "315360000",并且还要修改modules/xmlsitemap/xmlsitemap.admin.inc中的内容,增加10年这个表单选项
一个系列网站从drupal 6升级到drupal 7后日志中发现大量报错,都是以前可以正常访问的网址现在找不到了,发现以前drupal 6中是这样的:
http://ut.mingluji.com/business_directory/Western_Heating_%2526_Air_Conditioning
在google搜索中也是上面这样的网址,但升级后以上访问成了404 not found,而用下面这样的网址可以访问:
http://ut.mingluji.com/business_direc
Drupal的Views设置中本来就有一个选项是用于去掉重复的,Drupal 6中叫做Distinct:
Defaults: Display only distinct items, without duplicates. Distinct This will make the view display only distinct items. If there are multiple identical items, each will be displayed only once. You can use this to try and remo
整个2015年从开始到结尾都在进行网站向云服务器的搬迁以及网站的升级,其中大数据量的数据迁移是个令人很头痛的问题,几百万的数据量加上几十个字段,系列网站还有几十个这样的网站,需要等待数据迁移程序运行的时间真是太长太长了。上半年就遇到大数据量的问题,后来通过修改服务器配置,让PHP使用更多的内存、最大执行时间、数据库连接缓存等办法,还是用drush content-migrate-fields这样的命令来进行,算是解决了部分难以迁移的站点。但现在到年尾,而且随着Drupal 8的退出,Drupal 6很快就面临失去支持的境况,我们需要把所有Drupal 6网站都升级,现在把所有服务器资
2010年底、2011年初开始尝试Drupal,当时Drupal 7还没有正式版,就用的Drupal 6,到2012年初尝试把网站升级到Drupal 7,升级过程见《本网站从Drupal_6.20升级到6.24,再升级到7.12》,但后来在升级大数据量网站的时候遇到问题,当时也记录了博文《大数据量Drupal_6网站升级到Drupal_7很麻烦》。今年以来我们陆续都在做Drupal 6网站的升级,现在Drupal 8都推出了,更是要加快升级工作,目前都是剩下一些数据量特别大的站点还在进行中,现在也没有采用曾经的mysql指令的方式来迁移数据,而是设法添加硬件、修改配置设置来让drus
以前安装过一个Drupal 8的测试版,看过界面和很短加起来不到1个小时的测试,上个月Drupal 8的正式版出来了,这几天才抽空来尝试安装、升级等,把一些需要注意的地方记录如下:
- PHP版本问题:在我们的Linux服务器上安装时提示PHP版本太低,要求是PHP 5.5.9以上,同事尝试安装了PHP 7正式版,但对MemCache等的支持似乎还不够兼容、资料也不多,于是就安装了PHP 5.6.16,自带了Zend OPCache,不再需要APC;
- MySQL
Drupal 8在上月推出,Drupal 6在3个月后不再提供支持,今年我们本来就花了很多时间在做服务器迁移到阿里云以及Drupal系统升级的事情,现在还剩下的几个Drupal 6系列网站的升级工作也要抓紧进行。
升级工作的流程我们已经很熟悉了,可以批量进行(见博客文章《用Drush批量升级Drupal 6到Drupal 7》),但遇到数据量很大的站点时,content migrating 的时间特别长,还容易因为服务器内存、php运行时间限制、SQL时间过长等原因报错失败,数量在几十万以内的升级起来都很快,但单个站点数据量达到数百万、每个站点的字段数量有几十
以前导入数据的Drupal网站中字段基本上都是唯一值的,设置、处理、导入都很简单,只要有需要导入的csv文件,在Feeds模块中设置对应关系,然后导入就可以。
也曾经在少数某些网站考虑过多值数据的导入,不仅仅是某一个字段的多值,而是一组多值,例如下面的field_x_y:
title body field_1 这里面只有一个值,类似一个数字 field_n 这里面有多个值,类似一个一维数组 field_x_y 这里面有x个子字段,每个子字段有y个值,类似一个二维数组
这种二维数组的总字段是没有
在Drupal网站有时候有多个内容类型之间需要互相连接,例如内容类型company中的字段field_address,需要查找内容类型location中field_street相同的node,然后在company的显示模板中field_address做一个指向location中这个node的链接。
在Drupal 7中可以通过Entity查询来实现,不过因为location中的field_street可能有很多是重复的,我们只能取其一,就可以在查询中限制只找到第一个range(0,1),具体代码如下:
$address = $f