File Robots.txt được sử dụng để hướng dẫn công cụ tìm kiếm tự động đến những trang nào mà bạn muốn nó tìm kiếm và sau đó thì index trang đó. Hầu hết trang web nào cũng có những thư mục và files không cần đến robot của công cụ tìm kiếm ghé thăm. Do vậy tạo ra file robots.txt có thể giúp bạn trong SEO.
- User-agent:* chỉ định và cho phép các công cụ tìm kiếm vào index website bạn. Nên để chế độ * để cho phép tất cả các công cụ vào web
- Allow: cho phép công cụ tìm kiếm vào các thư mục đc chỉ định
- Disallow: /folder : ngăn chặn công cụ tìm kiếm vào các thư mục quan trọng mà bạn cảm thấy không cần lên google VD: tôi không muốn robots tìm kiếm vào thư mục image thì tôi sẽ đặt giá trị là : Disallow:/image/
- Sitemap: bạn có thể để đường dẫn site map của bạn ở đây, cái này có cũng được không cũng đc, vì trong phần thiết lập của Google webmastertool có phần đẩy sitemap lên cho google rồi
Ngoài ra bạn có thể tạo file robots.txt tại đây :http://www.mcanerin.com/en/search-engine/robots-txt.asp
0 nhận xét :