input license here

ROBOTS.TXT CHUẨN CHO BLOGGER/BLOGSPOT 2018

Robots.txt là một tài liệu cho các con bọ (SE: Search Engine) đọc trang này (index) dữ liệu website ở trang nào, và không cho đọc trang nào lên các máy chủ tìm kiếm.

Các con bọ tìm kiếm đều phải tuân thủ nội dung trong Robots.txt trước khi lập chỉ mục các nội dung trong website.

Việc thiết lập Robots.txt chuẩn cho công cụ lập chỉ mục (index) nhanh chóng hoặc index các nội dung không muốn cho lập chỉ mục.
Robot.txt chuẩn cho Blogspot 2018
Robots.txt chuẩn cho Blogspot 2018

Robots.txt mà Toilaquantri.com đang dùng

Bạn thay link https://www.toilaquantri.com/ ở các code bên dưới nhé!
Hoặc tham khảo robots.txt mà toilaquantri đang dùng tại https://toilaquantri.com/robots.txt

User-agent: Mediapartners-Google
Disallow:
User-agent: *
Allow: /search
Disallow: /search*
Allow: /
Allow: *max-results=10
Allow: /search/label/
Disallow: *archive.html
Disallow: *?updated-max*
Disallow: *?m=0
Sitemap: https://www.toilaquantri.com/posts/default?orderby=UPDATED
Sitemap: https://www.toilaquantri.com/sitemap.xml
Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=1&max-results=500

Giải thích cách hoạt động của Robot.txt

  • User-agent: Mediapartners-Google
  • Disallow: //Mình chặn index các trang đối tác của Google (Google Adsense)
  • User-agent: * //Khai báo cho tất cả bộ máy tìm kiếm (SE)
  • Allow: /        //Cho phép đọc trang domain.com/ (Khác với domain.com không có / phía sau .com)
  • Disallow: /search* //Chặn trang tìm kiếm
  • Allow: /search  //Cho phép đọc trang bài viết mới
  • Disallow: *archive.html //Chặn index trang lưu trữ
  • Disallow: *?m=0 // chặn index trang có giá trị domain.com?m=0
  • Allow: /search/label/   //Cho phép index trang nhãn
  • Allow: *max-results=10 //Cho phép Index trang nhãn có max-results=10 (vì mình muốn như thế)
Dành cho các site không index các trang *max-results=*
Disallow: *max-results=*  // Chặn index đuôi max-results=10, max-results=20, max-results=xxx. Thường dùng cho code phân trang.

Riêng đối với Blogger sử dụng cấp dữ liệu qua atom và mỗi lần cấp là tối đa 500 bài nên ta mới khai báo sitemap: như sau

Sitemap: https://www.toilaquantri.com/posts/default?orderby=UPDATED
Sitemap: https://www.toilaquantri.com/sitemap.xml
Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=1&max-results=500
Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=501&max-results=500
Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=1001&max-results=500
Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=1501&max-results=500
Sitemap: https://www.toilaquantri.com/p/map.html

Trong đó các link sau:

Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=1&max-results=500
Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=501&max-results=500
Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=1001&max-results=500
Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=1501&max-results=500

= Được khai báo trong Google Webmaster Tools

Sitemap: https://www.toilaquantri.com/p/map.html
Sitemap dành cho người dùng nhưng cũng khai báo link để Google (SE) vào đó đọc link cho nhanh.

Cách khai báo Robots.Txt

1. CHO PHÉP DÒ VÀ INDEX TOÀN BỘ TRANG VÀ CÁC THƯ MỤC, CÁC FILE

Allow: /

2. CHẶN KHÔNG CHO PHÉP TẤT CẢ BOT (SE) TRUY CẬP VÀ INDEX TOÀN BỘ

Disallow: /

3. CHẶN TOÀN BỘ MỘT THƯ MỤC VÀ CÁC FILE, THƯ MỤC CON TRONG NÓ

Disallow: /abc/

4. CHẶN MỘT TRANG CỐ ĐỊNH

Disallow: /abc.html

5. CHẶN MỘT LOẠI FILE CỐ ĐỊNH TỪ MỘT BOT CỦA CÔNG CỤ TÌM KIẾM

User-agent: Googlebot
Disallow: /*.doc$ (thay doc bằng jpg hoặc bất kì file nào muốn chặn)

6. CHẶN MỘT HÌNH KHÔNG CHO GOOGLEBOT-IMAGE INDEX

User-agent: Googlebot-Image
Disallow: /abc/def.jpg

7. CHẶN KHÔNG CHO MỘT BOT BẤT KÌ TRUY CẬP:

User-agent: Googlebot
Disallow: /

Lưu ý khi sử dụng và tạo file Robots.txt

  1. Phân biệt chữ hoa, chữ thường
  2. Không được viết thừa hoặc thiếu khoảng trắng
  3. Mỗi lệnh viết trên một dòng
  4. Không tự ý thêm các ký tự đặc biệt dễ gây nhầm lẫn cho bot
  5. Hết sức thận trọng khi sử dụng khi bạn chưa hiểu thường tận
  6. Kiểm tra thường xuyên file robots.txt
Diệp Quân
Nguyen Manh Cuong is the author and founder of the vmwareplayerfree blog. With over 14 years of experience in Online Marketing, he now runs a number of successful websites, and occasionally shares his experience & knowledge on this blog.
SHARE

Related Posts

Subscribe to get free updates

Post a Comment

Sticky