robots.txt文件就像一个网站的大门,它会告诉搜索引擎的蜘蛛,可以抓取哪里的网页内容,哪里的不能抓取,这样可以有效避免管理员的页面被捕捉到和由于wordpress的原因产生的内容重复问题。因此,配置好robots.txt文 件,完全可以理想的组织blog内容重复的问题。这样对搜索引擎们(不单单是百度和谷歌)来说不够友好。robots.txt的具体文法和使用方法,可以参考robotstxt.o
第一种方法 <?php //读取mdb数据库的值,创建ADO连接 $username =1; $conn = new com("ADODB.Connection"); $connstr = "DRIVER={Microsoft Access Driver (*.mdb)}; DBQ=". realpath("web.mdb"