GoDaddy 도움말

Blocking pages from scans

If you do not want Search Engine Visibility to analyze your entire website, you can block specific pages using your site's robots.txt file. This is useful if you have admin pages or forums that you don't want to optimize.

To prevent Search Engine Visibility from scanning a page, update your site's robots.txt file with the following, where page is the specific page in your site:

User-agent: trafficblazer
Disallow: /page.html

You can also block entire directories with the following, where directory is the name of the directory or folder you want to block:

User-agent: trafficblazer
Disallow: /directory/

For more information about building a robots.txt file for your site, see Selecting website pages .

이 글이 도움되었나요?
피드백을 보내주셔서 감사합니다. 고객 서비스 담당자에게 문의하시려면 지원 전화 번호 또는 위의 채팅 옵션을 이용하시기 바랍니다.
도와드릴 수 있어 기쁩니다! 더 도와 드릴 것이 있나요?
그것 유감스럽습니다. 혼동이 되었던 사항 또는 솔루션이 고객님의 문제를 해결하지 못했던 원인을 알려주세요.