五月激情久久久_亚洲黄一区二区三区_国产精品午夜久久_亚洲v在线看

本篇筆記不是新聞視角,而是新聞背后的 HOW TO DO STEP BY STEP.


額,為什么單獨把Robots.txt協議拿出來研究?Shopify CEO Tobias Lütke上個月19號發了個推,如下圖:

對了,Tobias Lütke 剛剛入選了《2021年最佳CEO榜單,巴倫周刊》


當時,我看到這個推的時候,也是一臉懵逼?到底怎么編輯?為什么要編輯?不編輯可不可以?SEO小bai滿臉的問號。


額,下面的篇幅,則是看起來好像沒啥直接用處的,可能會有些枯燥的技術知識點。對于,越是模棱兩可的知識點,我越是有顆好奇心探究,所有看似零碎無序的線索,最后匯聚到一起融會貫通的時候,我相信,絕對不是巧合!萬丈高樓平地起,輝煌只能靠自己(這歌誰唱的。。。真的好土)?


本篇筆記,本來應該放到SEO公眾號的,這次顯得有點不夠嚴謹。入選的唯一牽強理由,也許和Shopify老大那條推有關把:D



什么是Robots.txt文件?

Robots.txt 文件是我們向 Google、Bing等其他搜索引擎爬蟲提供有關抓取哪些網頁和資源以及不抓取哪些網頁和資源的說明的地方。


robots.txt 文件通常會指示網絡爬蟲不要爬取內部管理或登錄頁面。


某in/robots.txt

本來想到的是拿spaceX來舉例,結果https://www.spacex.com/robots.txt 不顯示,不知道怎么回事。如何實現的?求大佬告知!


Robots.txt文件位于什么地方?

robots.txt 文件位于 Shopify 店鋪主域名的根目錄中。https://us.a*ker.com/robots.txt


Robots.txt由哪幾個部分組成?

User-agent:

Disallow:

Sitemap:


所有 Shopify 店鋪都有一個默認的 robots.txt 文件,但是,如果想對默認文件進行更改,則可以添加 robots.txt.liquid 模板以進行。


可以對Robots.txt文件進行哪些編輯?

1. 允許或禁止某些 URL 被抓取

2. 為某些爬蟲添加抓取延遲規則

3. 添加額外的網站地圖 URL

4. 阻止某些爬蟲


再具體點,如何操作?


首先新建一個robots.txt.liquid文件

如圖:



新建的robots.txt.liquid文件



編輯1:Add a new rule to an existing group 向現有組添加新規則




{% for group in robots.default_groups %} {{- group.user_agent }}
{%- for rule in group.rules -%} {{ rule }} {%- endfor -%}
{%- if group.user_agent.value == '*' -%} {{ 'Disallow: /*?q=*' }} {%- endif -%}
{%- if group.sitemap != blank -%} {{ group.sitemap }} {%- endif -%}{% endfor %}


這些代碼是啥意思啊?

批量添加我會!{{ 'Disallow: /*?q=*' }}再復制一行


不懂的話,直接復制粘貼到我們新建的新建的robots.txt.liquid文件里面。然后,回到網站前端,域名/robots.txt 刷新下。boom


之前我還在想,這次shopify robots.txt更新,可以用這個方法查看網站是否是用shopify搭建,還是太天真了,"# we use Shopify as our ecommerce platform" 這句話,可以編輯修改刪除了,哈哈。


可擴展的玩法好多,比如問候下競爭對手:What's your name? what??What is your name? Tony.?f**k you Tony..? :DDDD



編輯2:Remove a rule from an existing group 從現有組中刪除規則


例如,我們可以使用以下內容刪除阻止爬蟲訪問 /policies/ 頁面的規則:




{% for group in robots.default_groups %} {{- group.user_agent }}
{%- for rule in group.rules -%} {%- unless rule.directive == 'Disallow' and rule.value == '/policies/' -%} {{ rule }} {%- endunless -%} {%- endfor -%}
{%- if group.sitemap != blank -%} {{ group.sitemap }} {%- endif -%}{% endfor %}

←←←向左滑動代碼←←←


其實,我最想刪除的是,刪除阻止爬蟲訪問 /
blog/ 頁面的規則:

代碼如下:

# we use Shopify as our ecommerce platform

{% for group in robots.default_groups %} {{- group.user_agent }}
{%- for rule in group.rules -%} {%- unless rule.directive == 'Disallow' and rule.value == '/blogs/*+*' -%} {{ rule }} {%- endunless -%} {%- endfor -%}
{%- if group.sitemap != blank -%} {{ group.sitemap }} {%- endif -%}{% endfor %}


對了,此語法只刪除了第一個Disallow: /blogs/*+*

后面5個,由于不會批量語法,沒刪除掉,

Disallow: /blogs/*%2B*

Disallow: /blogs/*%2b*

Disallow: /*/blogs/*+*

Disallow: /*/blogs/*%2B*

Disallow: /*/blogs/*%2b*

此處流下了沒有代碼技術的汗水,請程序員大佬帶帶我。謝謝!



也不知道,shopify?robots.txt默認阻止爬蟲訪問 /blog/ 頁面的規則,該不該刪除,求SEO大佬解惑。


編輯3:Add custom rules 添加自定義規則


如果要添加不屬于默認組的新規則,則可以在 Liquid 之外手動輸入規則以輸出默認規則。


Block certain crawlers?阻止某些爬蟲

如果爬蟲不在默認規則集中,我們可以手動添加規則來阻止它。例如,以下內容將允許您阻止 discobot 爬蟲:


<!-- Liquid for default rules -->
User-agent: discobotDisallow: /


什么時候用?什么時候發現數據被某些非法的或者惡意的爬蟲,爬取網站數據的時候,用!


編輯4:Add extra sitemap URLs添加額外的站點地圖 URL


<!-- Liquid for default rules -->
Sitemap: [sitemap-url]


到這里,我還真沒想到Robots.txt協議會引申出這么多內容,比如Robots.txt文件里面的adsbot-google(以后單獨研究下)和Crawl-delay(這次簡單挖挖她)


我理解的,Robots.txt協議其實就是一張菜譜,給饑渴的網絡爬蟲們準備的。


什么是Web Crawler網絡爬蟲呢?

Web Crawler網絡爬蟲,也稱為搜索引擎蜘蛛spider或者機器人bot,是一種自動化軟件,其任務是發現和掃描網頁和資源,目的是在給定的搜索引擎上將它們編入索引。

Googlebot是Google 網絡爬蟲的通用名稱。Googlebot是兩種不同類型爬蟲的總稱:一種是模擬桌面用戶的桌面爬蟲,另一種是模擬移動設備上用戶的移動爬蟲。


蜘蛛訪問任何一個網站的時候,都會先訪問網站根目錄下的Robots.txt文件,如果Robots.txt禁止搜索引擎抓取某些文件或者目錄,蜘蛛將會遵守協議,不抓取被禁止的網址。

比如:?
Disallow: /admin
Disallow: /checkout

Disallow: /carts

Disallow: /orders


什么是網頁爬行?

這是網絡爬蟲自動獲取網頁或資源的過程,目的是在給定的搜索引擎上對其進行索引。


搜索引擎蜘蛛訪問網站頁面時類似于普通用戶使用的瀏覽器,蜘蛛程序發出頁面訪問請求后,服務器返回HTML代碼,蜘蛛程序把收到的代碼存入原始頁面數據庫。


搜索引擎為了提高爬行和crawl rate抓取速度,往往會使用多個蜘蛛并發分布爬行。


什么是Crawl-Delay抓取延遲?

Crawl-Delay指令是一個非官方指令,旨在與爬蟲通信以減慢爬行速度,以免網絡服務器過載。


其實,有些搜索引擎是不支持 crawl-delay 指令的,并且 crawl-delay 指令的解釋方式因搜索引擎而異。


比如,Google就不支持crawl-delay 指令,如果你想要求谷歌爬得慢一些,你需要在谷歌搜索控制臺中設置crawl rate抓取速度。


如果你的網站無法跟上Google的抓取請求,可以請求更改crawl rate抓取速度。




本篇就不討論如何修改這個值了,作為一般玩家的我也用不到。以后用到的時候再單獨拿出來研究。

"crawl-delay" =?"crawl rate" = 抓取速度


什么是Crawl Rate抓取速度?

抓取速度是指Googlebot在抓取網站時每秒向網站發出的請求次數,例如每秒發出 5 次請求。


我們無法更改Google抓取網站的頻率,但如果希望Google抓取網站上的新內容或更新后的內容,可以請求重新抓取。


抓取速度的正確用法:

Google 采用先進的算法來確定最佳的網站抓取速度。我們的目標是,每次訪問我們的網站時,在不導致服務器帶寬過載的情況下盡可能多地抓取網頁。


如果 Google 每秒向網站發出的請求過多,導致服務器的速度下降,我們可以限制 Google 抓取網站的速度。限制對根級網站(例如 www.example.com 和 http://subdomain.example.com)的抓取速度。設置的抓取速度是 Googlebot 的抓取速度上限。請注意,Googlebot 并不一定會達到這一上限。


除非發現服務器出現負載問題并確定該問題是由于 Googlebot 過于頻繁地訪問我們的服務器導致的,否則不要限制抓取速度。


robots.txt常見的語法


禁止所有搜索引擎訪問網站的幾個部分(下圖中的01、02目錄)

User-agent: *

Disallow: /01/

Disallow: /02/


禁止爬蟲抓取cart、checkout、orders數據還是很好理解把(客戶的隱私,其實搜索引擎拿來沒什么用,不過競爭對手非常喜歡)。不過!為啥默認不讓抓取blog數據,確實有點想不明白,請SEO大佬解惑




禁止某個搜索引擎的訪問(下例中的AhrefsBot)


User-agent: AhrefsBot

Disallow: /




有關更多robots.txt的語法,請移步《最詳細的robots.txt寫法大全》,以后能找得到現成的、我看得上的中文基礎解釋,就直接引用,省事!


對了,最后來個友情廣告。事情是這樣的。



直接上聯系方式




小點聲:

Bing優勢!現在競爭不大,bid低。

Bing劣勢!有點挑類目。

早布局,早省心!




以上Shopify如何編輯Robots.txt協議文件僅代表個人喜好,僅供參考!


長按下圖二維碼關注,給我留言或加我好友。


為了讓讀者朋友們更加方便地交流和分享,我建立了一個純交流群

(2個公眾號共用這一個群)<高普的SEO筆記>誠地邀請各位獨立站的大佬們加入進來,相互交流學習和分享。


PS:服務商朋友勿加(感謝您的理解)


加我微信:valentine06

備注:shopify 進群


如果這篇文章能幫助到您,請點贊、轉發加關注!謝謝您!

"聽說打賞的人,明年別墅靠海喔"


[1].?How to Edit Shopify Robots.txt File

https://increasily.com/how-to-edit-shopify-robots-txt-file/

[2].?Our Top CEOs: Meet 30 Leaders Who Turned Crisis Into Opportunity

https://www.barrons.com/articles/top-ceos-2021-51624667968

[3].?Googlebot

https://developers.google.com/search/docs/advanced/crawling/googlebot

[4].?The ultimate guide to robots.txt

https://yoast.com/ultimate-guide-robots-txt/

[5].?What does crawl-delay: 10 mean in robots.txt?

https://www.contentkingapp.com/academy/robotstxt/faq/crawl-delay-10/

[6].?Change Googlebot crawl rate

https://support.google.com/webmasters/answer/48620

[7].?Discover How Google Search Works

https://www.google.com/search/howsearchworks/

[8].?Editing robots.txt.liquid

https://help.shopify.com/en/manual/promoting-marketing/seo/editing-robots-txt

[9].?Ask Google to recrawl your URLs

https://developers.google.com/search/docs/advanced/crawling/ask-google-to-recrawl

[10].?Hiding a page from search engines

https://help.shopify.com/en/manual/promoting-marketing/seo/hide-a-page-from-search-engines

[11].?Editing robots.txt.liquid

https://help.shopify.com/en/manual/promoting-marketing/seo/editing-robots-txt

[12].?Customize robots.txt

https://shopify.dev/themes/seo/robots-txt

[13].?Discourse (software)

https://en.wikipedia.org/wiki/Discourse_(software)

[14].?Create a robots.txt file

https://developers.google.com/search/docs/advanced/robots/create-robots-txt

[15].?robots.txt.liquid

https://shopify.dev/themes/architecture/templates/robots-txt-liquid

[16].?How to Edit robots.txt on Shopify Stores?

QgB7Y8NNmDw


點贊(7) 打賞

評論列表 共有 0 條評論

暫無評論

服務號

訂閱號

備注【拉群】

商務洽談

微信聯系站長

發表
評論
立即
投稿
返回
頂部
五月激情久久久_亚洲黄一区二区三区_国产精品午夜久久_亚洲v在线看
欧美性色视频在线| 久久精品91| 亚洲午夜女主播在线直播| 亚洲精品美女91| 亚洲网站在线观看| 性色av一区二区怡红| 久久精品一二三| 欧美二区视频| 国产精品中文字幕欧美| 国内精品免费午夜毛片| 亚洲经典在线| 午夜在线成人av| 欧美成人资源| 国产麻豆综合| 亚洲精品色婷婷福利天堂| 亚洲视频你懂的| 乱中年女人伦av一区二区| 欧美特黄一区| 1769国内精品视频在线播放| 夜夜嗨av一区二区三区中文字幕| 欧美一区不卡| 欧美大片在线看免费观看| 国产精品免费看久久久香蕉| 亚洲承认在线| 欧美在线地址| 欧美日韩美女| 亚洲国产精品ⅴa在线观看| 亚洲欧美精品suv| 欧美国产日韩一区二区在线观看 | 欧美aⅴ99久久黑人专区| 国产精品美女诱惑| 亚洲激情成人网| 久久久91精品国产| 国产精品视频专区| 亚洲精品一区二区三区蜜桃久| 午夜在线不卡| 国产精品久久精品日日| 亚洲国产婷婷| 久久免费午夜影院| 国产麻豆综合| 亚洲欧美国产日韩中文字幕| 欧美日韩91| 亚洲三级国产| 欧美成人按摩| 亚洲国产精品视频一区| 久久久久久夜精品精品免费| 国产日本精品| 欧美在线视频一区二区三区| 国产精品美女久久久免费| 一本色道久久精品| 欧美日韩国产bt| 日韩视频亚洲视频| 毛片av中文字幕一区二区| 狠狠狠色丁香婷婷综合激情| 欧美中文字幕在线| 国产一区二区三区四区三区四| 亚洲尤物在线视频观看| 国产精品久久久久久久久久免费 | 国产久一道中文一区| 亚洲视频日本| 国产精品色在线| 性久久久久久久| 国产一区二区三区免费不卡 | 久久久久国产免费免费| 国产亚洲网站| 久久精品国产99精品国产亚洲性色| 国产日韩精品在线播放| 性欧美暴力猛交69hd| 国产一区美女| 欧美成人免费网| 一区二区欧美日韩| 国产精品爽黄69| 久久精品视频免费播放| 韩国成人福利片在线播放| 免费观看在线综合色| ●精品国产综合乱码久久久久| 久久这里只有精品视频首页| 亚洲第一区在线观看| 欧美精品国产一区| 一本色道久久综合亚洲精品按摩| 国产精品女人毛片| 久久久精品国产99久久精品芒果| 在线欧美视频| 国产精品国产a| 欧美一区二区三区在线观看视频| 国产日韩欧美一区在线 | 亚洲色图制服丝袜| 国产欧美日韩视频一区二区| 狂野欧美激情性xxxx欧美| 亚洲国产裸拍裸体视频在线观看乱了中文 | 亚洲精品五月天| 国产精品露脸自拍| 麻豆亚洲精品| 亚洲午夜在线视频| 在线成人av.com| 国产精品xnxxcom| 久久免费黄色| 中文亚洲视频在线| 亚洲精品一品区二品区三品区| 欧美日本在线| 午夜精品在线看| 亚洲精品一区二区三区99| 欧美肉体xxxx裸体137大胆| 欧美一区二区精美| 一区二区日韩欧美| 亚洲大片在线| 国产无一区二区| 国产精品久久久久高潮| 欧美mv日韩mv国产网站| 久久精品人人做人人综合| 中文精品视频一区二区在线观看| 在线欧美视频| 一区在线免费观看| 国产欧美日韩一级| 国产精品麻豆va在线播放| 欧美成在线视频| 另类av一区二区| 欧美一区二区视频在线观看2020 | 久久av一区二区三区亚洲| 在线视频日韩精品| 日韩视频在线观看| 亚洲国产一区二区视频| 在线成人性视频| 狠狠综合久久| 黑人一区二区三区四区五区| 国产精品自在在线| 国产乱人伦精品一区二区| 欧美日韩在线一区二区| 欧美国产一区视频在线观看| 免费不卡视频| 免费观看日韩| 欧美激情a∨在线视频播放| 免费中文字幕日韩欧美| 久久精品日产第一区二区| 欧美一级片一区| 欧美在线观看www| 久久国产日本精品| 欧美日韩中文字幕在线视频| 欧美日韩高清不卡| 欧美午夜视频| 国产精品一区久久久久| 国产精品久久亚洲7777| 国产精品你懂的| 国产麻豆精品在线观看| 国产视频丨精品|在线观看| 国产亚洲一级高清| 在线观看日韩av先锋影音电影院| 亚洲高清自拍| a91a精品视频在线观看| 中文久久乱码一区二区| 亚洲免费中文| 久久精品99国产精品酒店日本| 久久久青草婷婷精品综合日韩| 久久青青草综合| 欧美国产日韩一区二区在线观看| 欧美日韩午夜| 国产欧美一区二区精品性色| 娇妻被交换粗又大又硬视频欧美| 亚洲国产成人91精品| 一本久道久久综合婷婷鲸鱼| 亚洲欧美福利一区二区| 亚洲欧美日韩在线高清直播| 久久精品人人做人人综合 | 亚洲国产日韩一区二区| 99视频在线观看一区三区| 久久久久久穴| 欧美日韩国产成人| 国产日韩欧美精品综合| 亚洲激情欧美| 亚洲欧美激情视频| 欧美成年人网站| 国产精品免费aⅴ片在线观看| 在线看片成人| 西瓜成人精品人成网站| 欧美成人午夜剧场免费观看| 欧美日一区二区三区在线观看国产免| 国产日韩一区二区三区| 亚洲精品看片| 久久久久久久久伊人| 欧美日本高清一区| 黄色日韩在线| 午夜国产精品影院在线观看| 欧美大胆a视频| 韩曰欧美视频免费观看| 亚洲一区精品电影| 欧美国产日本| 在线播放不卡| 欧美在线视频一区| 国产精品日韩精品| 亚洲精品无人区| 美日韩精品免费| 国产美女精品视频免费观看| 99国产精品99久久久久久粉嫩| 老司机午夜精品视频| 国产欧美亚洲视频| 亚洲深夜福利| 欧美视频不卡中文| 日韩一区二区精品在线观看| 久久视频在线视频| 国产一区二区丝袜高跟鞋图片|