
作者:天津九安特機電工程有限公司 來(lái)源: 天津九安特機電工程有限公司 日期:2026-05-04 17:52:51
今天大寶seo博客和朋友們分享的解析主題是robots.txt文件的格式,正文部分的格式主要內(′_ゝ`)容來(lái)自百度資源搜索??平臺的官方說(shuō)明。通過(guò)了解robots.txt文件的解析格式,可以讓網(wǎng)站與百度??搜索引擎蜘蛛進(jìn)行融洽的(de)格式溝通,提(ti)升網(wǎng)站的解析seo優(yōu)化效果。
robots文件往往放置于根目錄下,格式包含一條或更多的解析記錄,這些記錄通過(guò)空行分開(kāi)(以C(╬?益?)R,格式CR/NL, or NL作為結束符),每一條記錄的解析格式如下所示:”
在該文件中可以使用#進(jìn)(╬?益?)行注解,具體使用方法和UNIX中的格式慣例一樣。該文件中的解析記錄(′?ω?`)通常以一行或多行User-agent開(kāi)始,后面加上(′▽?zhuān)?若干Disallow和Allow行,格式詳細情況如下:
User-agen??t:該項的值用于描述搜索引擎robot的名字。在”robots.txt”文件中,解析如果有多條User-agent記錄說(shuō)明有多個(gè)robot會(huì )受到”robots.txt”的格式限制,對該文件來(lái)說(shuō),解析至少要有一條User-agent記錄。如果該項的值設為*,則對任何robot均(O_O)有效,在”robots.txt”文件中,”User-agent:*”這樣的記錄只能有一條。如果在”robots.txt”文件中,加入”User-ag??ent:SomeBot”和若干Disallow、All(′▽?zhuān)?ow行,那么名為”SomeBot”只受到”User-agent:SomeBot”后面的 Disallow和Allow行的限制。
Disallow:該項的值用于描述不希望被訪(fǎng)問(wèn)的一組URL,這個(gè)值可以是一條完整的路徑,也可以是路徑的非空前綴,以D(???)isallow項(′?`)的值開(kāi)頭的URL不會(huì )被 robot訪(fǎng)問(wèn)。例如”Disallow:/help”禁止robot訪(fǎng)問(wèn)/help.html、/helpabc.html、/help/index.html,而”Disallow:/help/”則允許robot訪(fǎng)問(wèn)/help.html、/(′?ω?`)helpabc.html,不能訪(fǎng)問(wèn)/help/index.html?!盌isallow:”說(shuō)明允許robot訪(fǎng)問(wèn)該網(wǎng)站的所有url,??在”/robots.txt”文件中,至少要有一條Disallow記錄。如果”/robotヽ(′ー`)ノs.txt”不存在或者為空文件,則對于所有的搜索引擎robot,該(◎_◎;)網(wǎng)站都是開(kāi)放的。
Allow:該項的值用于描述希望被訪(fǎng)問(wèn)的一組URL,與Disallow項相似,這個(gè)值可以是一條完整的路徑,也可以是路徑的前綴,以Allow項的值開(kāi)頭的URL 是允許robot訪(fǎng)問(wèn)的。例如”Allow:/hibaidu”允許robot訪(fǎng)問(wèn)/hiba??idu.htm??、/hibaiducom.html、/hibaidu/co(◎_◎;)m.html。一個(gè)網(wǎng)站的所有URL默認是All(′?`*)ow的,所以Allow通常與Disallow搭配使用,實(shí)現允許訪(fǎng)問(wèn)一部分網(wǎng)頁(yè)同時(shí)禁止訪(fǎng)問(wèn)其它所有URL的功能。
使用”*”and”$”:Baiduspider支持使用通配符”*”和”$”來(lái)模糊匹配url。
“$” 匹配行結束符。
最后需要說(shuō)明的是:百度會(huì )嚴格遵守robots的(de)相關(guān)協(xié)議,請注意區分您不想被??抓取或收錄的目錄的大小寫(xiě),百度會(huì )對robots中所寫(xiě)的文件和您不想被抓取和收錄的目錄做精確匹配,否則robots協(xié)議無(wú)法生效。(?????)