在用Node Import插件导入大量数据到Drupal网站的过程中,耗时可能是几小时、几天甚至几周,不可避免会出现偶尔中断、报错的情况,绝大多数可以继续导入不受影响,不过如果运气不好的话,也会遇到数据库中出现大量错误的情况。
有一个100多万数据量的资料在导入Drupal网站的时候,在90多万的地方中断过,后来继续的时候变得很慢,终于又过了好些天把剩下的导入完,但检查发现根本就不对,Log中都是报错。为了不重新导入所有数据,我尝试直接对MySQL中的库、表操作来修复,这两天为了恢复该网站,做了下面这些工作:
- 将node表进行修复操作;
- 用文本文件进行批量替换,做成SQL语句,批量添加数据到node表和node_revisions表中;
- 在node表和node_revisions表中删除一些错误指向node/0的页面数据;
- 从node表中读取部分字段,用于node_reisions表中相应字段的内容更新;
- 用文本文件进行批量替换,做成SQL语句,为url_alias表补充数据;
- 对影响的上面3个表进行重建索引的工作。
我其实对MySQL的直接操作不算熟悉,遇到问题都是现搜、现学、现用的。目前该网站基本恢复了正常访问,后面还要进行分类等操作,是否完全没有问题还要继续观察。
自由标签
评论