在《Drupal网站接入CDN》和《MediaWiki网站接入CDN》中,为了让Cloudflare和百度云加速缓存html页面,都是修改了header中的Cache Control:
- Drupal站:在html.tpl.php中添加header("Cache-Control: public, max-age=7200,
这是 API 分类的页面,点击下面标题查看详细文章内容:
在《Drupal网站接入CDN》和《MediaWiki网站接入CDN》中,为了让Cloudflare和百度云加速缓存html页面,都是修改了header中的Cache Control:
我们推出的ipshu.com做IP地址查询有一些年了,甚至也推出过API,但没有特别宣传,后面就只是公司其它项目在需要的时候调用,今年我们还准备做很多IP相关工作,其中也有重新推出IP查询的API服务。
不过在推出之前,我们还要把数据质量做得更好一些,以及多对比其它IP查询API的功能特点,下面是我收集整理的一些:
https://ipinfo.io/
这一个做得很专业,以前看到过报道,每日调用量超过了10亿次,有比较强的全球团队。免费版每月5万次调用。收费有多种版本,每月从49美元到499美元,也可以定制版本或者行业解决方案。
维基百科应该说是人类知识的宝库,各种语言的词条都是成千上万人参与编辑的结果,而且也都是免费提供给全世界查看。我们的一些网站以前加上了维基百科的词条了解,但还没有嵌入过其内容,这次想到用Wikipedia的API来获取摘要信息,直接放在网站中供人观看。
Wikipedia是用MediaWiki软件搭建的,这里有API的介绍:API:Main page - MediaWiki(也有API中文介绍,但其中很多内容没有翻译,最好还是直接看英文的)。
我们目前全都是查询信息,也就是Query动作,主要用到三个接口:
2018年7月记录了一篇《调用Google Translate API生成Drupal翻译.po文件》,当时是按照Translation API Documentation Quickstart 快速入门(基本版) 的指导来做的,需要下载私钥json文件、设置环境变量、安装Github上的php docs samples等,用起来比较麻烦。
而这种运行办法最近总是遇到与Google API服务器之间的访问报错,不是SSL报错就是host无法连接,上周耽误了2天时间来进行各种排查,还找阿里云客服咨询,多个交流来回后也没有找到根本原因,那套php docs sa
这两年我们新建网站多数都采用了《在Drupal中直接导入、使用数据库》这篇文章中说的办法,而没有用以前新建内容类型、导入到Drupal的Node中的办法,这对于数据量大、改动不大、读取多、写入少的需求很合适。
偶尔遇到需要修改、删除的事情,我们就是到阿里云RDS管理后台,Web界面来操作或者用SQL语句来进行,比以前在Node页面进行编辑要麻烦,但更改量不大的情况下也可以接受。
最近要用的一个新站也是用直接建表方式来搭建的,但内容需要人工来修改完善,而且是长久都需要添加、维护信息的,再用以前导入RDS后台就显得太麻烦了,于是想去找现成的
很久前就使用Drupal做多语言网站,采用了Drupal自带的多语言支持,对于需要大量翻译的词汇,采用自定义模块配套的.po文件来导入翻译内容。
以前翻译一些外文的时候用到Google翻译,总是在Web界面进行:https://translate.google.cn/ 或者 https://translate.google.com/ ,将需要翻译的词、句输入,翻译后将输出内容复制、粘贴到.po文件或者直接粘贴到Drupal的翻译界面。
但如果需要翻译的词、句量很大,或者需要翻译的目标语言很多的时候,反复复制粘贴都是一
2009年开始我们就在网址中调用了Google Maps API,后来Google因故退出中国大陆,Google的多项服务都无法使用,我们就让主要针对国外浏览者的站点继续使用Google Maps API,主要针对国内浏览者的站点改用Baidu地图API,不过这样的话,主要针对国外浏览者的站点中的Google Maps API代码就会让少数国内浏览者(包括我们开发者自己)无法看到地图并且严重拖慢网页加载速度。
最近同事看到其它国内网址依然在使用Google地图,我去查了一下,先找出问题原因:是国内的GFW有意让dns把maps.google.com域名解析到错
最近需要编写一段程序来读取Drupal网站中页面Node的某个文本字段,进行处理、判断、匹配后,将这个页面归类Taxonomy到某个术语表Vocabulary的术语Term中。在刚开始用Drupal 6的时候就曾经编写过类似程序来分类,见博文《Drupal中让Node归类的PHP程序》,在后来使用Drupal 7的过程中,绝大多数分类都是在创建网站、导入数据的时候就自动进行了,使用了术语来源Term reference字段和自动完成术语挂件(标签)Autocomplete term widget (tagging)控件,但也有把数据作为文本导入字段,然后再运行php程序进行分类的情况
很早以前我们就在MediaWiki网站的页面中嵌入过Google Search API代码,见我2008年记录的《Google AJAX Search API 很好!很强大!》,这些嵌入的内容对网站浏览者来说还是很有用的,但到2010年ZF“整治互联网低俗之风”的时候,我们网站上嵌入的Google搜索结果也成了我们网站“涉黄”的原因,只好乖乖地去掉API调用代码,随后Google搜索也被迫退出中国大陆。
但在我们放在国外服务器上提供给老外浏览的站点上我们依然保留了Google Web Search API的内容,
OCR文字识别其实可以算很老的技术了,一二十年前购买扫描仪的时候就配有文字识别软件,记得用起来比较勉强,在比较复杂的中英文混排、版面不规则的情况下,很难获得满意的识别效果。
这几年我们在做Web展示网站的时候,有些原始资料只有扫描件,尝试过OCR软件识别或者网上的OCR识别服务,但都不理想,而手工录入、校对的工作量太大,也搁置下来了。
近期看到新闻,说腾讯OCR服务永久免费,就去网上看了看(先骂一句百度:在百度中搜“腾讯OCR API”,结果是无关企业的OCR广告排在前面、百度自己的OCR服务接着出现,而把腾讯公
2002-2023 v11.7 a-j-e-0