你在这里


文件

检查Drupal的.po翻译文件中缺少哪些词的PHP程序

James Qi 2013年8月29日 - 14:32 发布

  最近在处理一些小问题的时候积累了一些小程序来解决,现在记录下来以备后用。

  Drupal多语言网站是通过.po的翻译文件来导入翻译数据的,有一批国家/地区名称需要导入,而以前的.po文件中包括了一部分,只需要找出并添加新的词,这个过程人工来核对比较麻烦,就用了下面这段程序:

大文本文件分割成若干小文件的PHP程序

James Qi 2013年8月29日 - 14:20 发布

  我们在做大数据量网站的时候,有时遇到原始数据量过大的情况,如果都做成一个网站会让服务器负载过高、用户打开很慢,这时往往需要分为多个子网站来做,原始数据也需要进行分割,以便分别导入。

  下面是将1个美国数据文件分割为50个各州数据文件的例子usa2state.php:

自由标签:

服务器磁盘文件统计数据,准备购置高速硬盘

James Qi 2011年4月3日 - 17:50 发布

  前一阵子新换了3台服务器,都是配置的16核(4路4核)CPU、16G内存,算是很强大了,不过配置的硬盘只是2个1T普通7200转台式机硬盘,根据这些天的观察,在添加数据、更新模板的时候,用iostat查看会遭遇明显的IO瓶颈,在cpu、内存富余很多的情况下,磁盘的利用率长期100%。

  我们把MySQL和Web(包括Squid和Apache)服务的数据放在两块不同的硬盘上,先以为只是MediaWiki网站全文检索时MySQL的MyISAM数据库大文件频繁读写使硬盘应付不过来,后来根据仔细观察,发现MySQL的全文检索本身性能不好,在处理大量数据的时候容易使CPU卡住,同事调试了Sphnix来做全文检索可以轻易对付一个网站目前平均每分钟2次的搜索量。不过在Drupal网站新建全文索引表的过程中,确实还是遇到明显的硬盘瓶颈,平均每秒只能生成5条左右,当网站数据量在数十万以上时需要耗费以几十小时来记的时间,这个过程中硬盘处于繁忙状态,无法多个网站同时生成。

  后来又在MediaWiki模板更新中也感觉硬盘处理不过来,今天详细统计了目前几个主要服务(Squid, Apache, MySQL)的磁盘使用情况,列表如下:

订阅 RSS - 文件