
在網(wǎng)站優(yōu)化中,ro??bots協(xié)議一直是度搜優(yōu)化(hua)人員重視的細節??,想要網(wǎng)站能夠有更高的索引什好抓取和排名,此協(xié)議也起到很大的擎優(yōu)作用,那么robots協(xié)議是化整壞處什么呢?它對網(wǎng)站的SEO有什么作用和好處呢?下面一起來(lái)了( ?° ?? ?°)解一下。
一、站對什么是網(wǎng)站robots協(xié)議?
robots??協(xié)議全稱(chēng)“網(wǎng)絡(luò )爬蟲(chóng)排除標準?”,又稱(chēng)爬蟲(chóng)協(xié)議、處和機器人協(xié)議等,教程它規定著(zhù)搜索引擎抓取網(wǎng)站時(shí)所能抓取的度搜內容ヽ(′▽?zhuān)?ノ,是索引什好網(wǎng)絡(luò )爬蟲(chóng)爬行網(wǎng)站時(shí)第一個(gè)需要訪(fǎng)問(wèn)的文件,該文件位于網(wǎng)站的擎優(yōu)根目錄下,文件名是化整壞處robots.txt 。
二、站對robots協(xié)議在SEO中的網(wǎng)站作用是什么?
此外,robots協(xié)議還可以用于屏蔽一些網(wǎng)站中比較大的文件,比如圖片、音樂(lè )、視頻等,幫助網(wǎng)站節省服務(wù)器寬帶,提高網(wǎng)站打開(kāi)速度,給用??戶(hù)留下更好的印象。
三、注意事項有哪些?
千萬(wàn)不能隨便進(jìn)行整站屏蔽,因為robots協(xié)議的生效時(shí)間短的是幾天,長(cháng)的是一個(gè)月(yue),一??旦整站屏蔽蜘蛛就抓取不了信??息了(′?ω?`);要注意空格,在“User-agent:”、“Disallow:”和“Aヽ(′▽?zhuān)?ノllow:”的后??面都有一個(gè)空格;要注意每一行的第(di)一個(gè)首字母都需要大寫(xiě)。
綜上所述,以上就是為大家總結的幾點(diǎn)robots協(xié)議的內容與作用,通過(guò)以上的介紹,??相信優(yōu)化人員對網(wǎng)站的優(yōu)化也有更多細節方面的注意,幫助做??好robots協(xié)議的設ヽ(′ー`)ノ置,促使網(wǎng)站收錄更高。
我們很多時(shí)候感覺(jué)網(wǎng)站頁(yè)面被搜┐(′д`)┌索引擎收錄得越多越好,這句話(huà)本身沒(méi)有什么錯誤,但是我們會(huì )發(fā)現很多網(wǎng)站頁(yè)面是我們不需要被收錄都被收錄了,我們??需要搜索引擎收錄的頁(yè)面(mian)的反而沒(méi)有被收(′?`*)錄,其實(shí)爬蟲(chóng)在爬取我們網(wǎng)站的時(shí)間是有限的,怎么樣才能在有限的時(shí)間爬取我們的更多的頁(yè)面,我們就要告訴???爬蟲(chóng)爬取我們需要它去爬取的內容頁(yè)面,那么就需要(′▽?zhuān)?)一個(gè)robot(′?ω?`)s.txt文本文件。??
tobots.txt網(wǎng)站收錄協(xié)議
什么是rob┐(′д`)┌ots.txt文件
robots是網(wǎng)站跟爬蟲(chóng)間的協(xié)議,用簡(jiǎn)單( ?ω?)直接的txt格式文本方式告訴對應的爬蟲(chóng)被允許的權限,也就是說(shuō)robots.txt是搜索引擎中訪(fǎng)問(wèn)網(wǎng)站的時(shí)候要查看的第一個(gè)文件。當一個(gè)┐(′д`)┌搜索引擎蜘蛛訪(fǎng)問(wèn)一個(gè)站點(diǎn)時(shí),它會(huì )首先檢查該站點(diǎn)根目錄下是否存在ro??bots.txt,如果存在,搜索機器人就會(huì )按照該文件中的內容來(lái)確定訪(fǎng)問(wèn)的范圍;如果該文件不存在,所有的搜索蜘蛛將能夠訪(fǎng)問(wèn)網(wǎng)站上所有沒(méi)┐(′ー`)┌有被口令保護的頁(yè)面。
robots.txt文件放置的位置
robots.t??xt文件放在網(wǎng)站根目錄下。搜索引擎蜘蛛訪(fǎng)問(wèn)一個(gè)(′▽?zhuān)?)站??點(diǎn)時(shí),首先檢查該站點(diǎn)根目錄下是否存在robots.txt文件,如果搜索引擎蜘蛛找到這個(gè)文件,它就會(huì )根據這個(gè)文件的內容,來(lái)確定它訪(fǎng)問(wèn)權限的范圍。
robots.txt文件規則
該文件中的記錄通常以一行或多行User-(′_ゝ`)agenヾ(^-^)ノt開(kāi)始,后面加上若干Disallo(′?_?`)w行,詳細情況如下:
User-agent:
該項的值用于描述搜索引擎robot的名字,在"robots.txt"文件中,如果有多條User-agent記錄說(shuō)明有??多個(gè)robot會(huì )受到該協(xié)議的限制,對該文件來(lái)說(shuō),至少要有一條User-agent記錄。如果該項的值設(?????)為*,則該協(xié)議對任何機器人均有效,在"robots.txt"文件中,"User-ag(???)ent:*"這樣的記錄只能有一┐(′?`)┌條。
Disallow:
該項的值用于描述不希望被訪(fǎng)問(wèn)到的一個(gè)URL,這個(gè)URL可以是一條完整的路徑,也可以是部分的,任何以Disallow開(kāi)頭的URL均不會(huì )被robot訪(fǎng)問(wèn)到(°ロ°) !。例如"Disallow:/help"對/help.html 和/help/index.html都不允許搜索??引擎訪(fǎng)問(wèn),而"Disallow:/help/"則允許robot??訪(fǎng)問(wèn)/help.html,而不能(??ヮ?)?*:???訪(fǎng)問(wèn)/help/index.html。任何一條Disallo??w記錄為空??,說(shuō)明該網(wǎng)站的所有部分都允許被訪(fǎng)問(wèn),在"/robots.txt"文件中,至少(shao)要有一條Disallow記錄。如果"/robots.txt"是一個(gè)空文件,則對于所有的搜索引擎robot??,該網(wǎng)站都是開(kāi)放的。
Allow:
該項的值用于描述希望被訪(fǎng)問(wèn)的一組URL,與Disallow項相似,這個(gè)值可以是一條完整的路徑,也可以是路徑的前綴,以Allow項的值開(kāi)頭的URL是允許robot訪(fǎng)問(wèn)(T_T)的。例如"Allow:/baidu"允許robot訪(fǎng)問(wèn)/baidu.htm、/baiducom.html、/baidu/com.html。一個(gè)網(wǎng)站的所有??U(╬?益?)RL默認是Allow的,所以Allow通常與D??isallow搭配使用,實(shí)現允許訪(fǎng)問(wèn)一部分網(wǎng)頁(yè)同時(shí)禁止訪(fǎng)問(wèn)其它所有URL的功能。
robots.txt語(yǔ)法
robots.txt為空就可以,什么都不要寫(xiě)?;蛘?/p>
User-a(′-ι_-`)gent:
*Disallow:
2. 禁止所有搜索引擎收錄網(wǎng)站的某些目錄:
User-agent:
*Disa??llow: /目錄名1/ヽ(′▽?zhuān)?ノ
Disallow: /目錄名2/
Disallow: /目錄名3/
3. 禁止某個(gè)搜索引擎收錄本站,比如禁止某度收錄:
User-agent: Baiduspider
Disallow: /
User-agent:
*Disallow: /
robots.txt對于網(wǎng)站SEO??優(yōu)化的作用
搜索引擎通??過(guò)爬蟲(chóng)spider程序會(huì )自動(dòng)搜集(ji)互聯(lián)網(wǎng)上的網(wǎng)頁(yè)并獲取相關(guān)信息。我們通常網(wǎng)站上會(huì )有一些(xie)內容是不想讓蜘蛛抓取的,所以經(jīng)常會(huì )??使用robots文件把一些不想被抓取的內容告訴爬蟲(chóng)。
還有就是我們希望搜索引擎爬蟲(chóng)在有(′?`)限的帶寬爬取我們更多更有用的信息,進(jìn)而讓這些頁(yè)面獲取更好的排名。