轻微打仗过SEO的站长朋侪都应该晓得 robots协定(也称为爬虫协定、爬虫划定规矩、机器人协定等),也就是一般增加到网站根目录的robots.txt 文件,它的作用在于通知搜索引擎哪些页面能够抓取,哪些页面不能抓取,从而优化网站的收录效果和权重。
引荐教程:wordpress教程
假如你的网站根目录还没有 robots.txt,你能够建立一个,细致的写法请参考 百度百科。下面是一个基础的 WordPress robots协定:
User-agent: * Disallow: /feed/ Disallow: /trackback/ Disallow: /wp-admin/ Disallow: /wp-content/ Disallow: /wp-includes/ Disallow: /xmlrpc.php Disallow: /wp- Allow: /wp-content/uploads/ Sitemap: http://example.com/sitemap.xml
下面重要引见一下 WordPress 自动建立假造 robots.txt 功用。假如你的网站根目录不存在实在的 robots.txt,那末能够让 WordPress 自动建立一个假造的 robots.txt (该文件不会实在存在,然则接见 http://域名/robots.txt 时能够一般显现)
将下面的代码增加到主题的 functions.php
即可:
/** * 为你的 WordPress 站点增加 robots.txt * https://www.wpdaxue.com/add-robots-txt.html */add_filter( 'robots_txt', 'robots_mod', 10, 2 );function robots_mod( $output, $public ) { $output .= "Disallow: /user/"; // 制止收录链接中包括 /user/ 的页面 return $output;}
注:假如你想增加更多的划定规矩,请复制上面代码的第 7 行,然后修正一下即可。
接见 http://域名/robots.txt 我们能够看到以下内容:
User-agent: * Disallow: /wp-admin/ Disallow: /wp-includes/ Disallow: /user/
也就是说,WordPress 默许已增加了前 3 行划定规矩了。
robots.txt 涉及到网站的收录,所以请确保你邃晓它的誊写要领,保证每条划定规矩都是准确无误的!
以上就是wordpress多站点的robots怎么弄的细致内容,更多请关注ki4网别的相干文章!