Trở về/Robots.txt Generator
robots.txt
User-agent: *
Disallow: /admin/
Disallow: /api/

Robots.txt Generator
Cách sử dụng Tạo file Robots.txt

Robots.txt Generator giúp bạn tạo file robots.txt đúng cú pháp để kiểm soát các search engine bot crawl website của bạn. Chọn rules và copy file hoàn chỉnh.

Vì sao cần file Robots.txt?

Kiểm soát crawling

Chỉ định trang nào được và không được crawl, tiết kiệm crawl budget.

Bảo vệ nội dung riêng

Ngăn bot index các trang admin, staging hoặc duplicate content.

Sitemap reference

File robots.txt là nơi lý tưởng để khai báo URL sitemap.

Crawl budget optimization

Với site lớn, định hướng bot đến các trang quan trọng hơn.

Cách tạo Robots.txt

01

Chọn User-agent

Áp dụng rules cho tất cả bot (*) hoặc bot cụ thể (Googlebot).

02

Thêm Disallow rules

Liệt kê các đường dẫn không muốn bot crawl.

03

Thêm Allow rules

Cho phép bot crawl một số path trong Disallow folder.

04

Thêm Sitemap URL

Khai báo URL sitemap.xml để bot dễ tìm thấy.

Cú pháp Robots.txt

User-agent: *

Áp dụng cho tất cả search engine bots.

Disallow: /admin/

Ngăn bot crawl toàn bộ thư mục /admin/.

Allow: /

Cho phép crawl path cụ thể (dùng khi có Disallow rộng hơn).

Sitemap:

Khai báo URL sitemap.xml đầy đủ với https://.

Crawl-delay:

Thời gian chờ giữa các requests (giây). Chỉ một số bot support.

Lợi ích dùng Robots.txt Generator

SEO Specialist

Tạo robots.txt đúng cú pháp mà không cần nhớ format hay test thủ công.

Developer

Tạo nhanh robots.txt khi deploy site mới với các rules cơ bản.

Site Owner

Kiểm soát search engine access mà không cần kiến thức kỹ thuật chuyên sâu.