검색 엔진 가시도 V1 도움말

Selecting website pages

The Control Crawling option of Search Engine Visibility lets you control what pages of your site can be crawled, and generates the required file or tags.

From the Optimize tab, select Control Crawling to get started.

To Control Crawling for your website

Each tab lets you perform the indicated function and generates the necessary file. On each tab you can do the following:

  • Allow All — Lets crawlers access all of your site's pages.
  • Block specific web pages and search engines — Under this tab, click Add new or modify existing rule to choose specific pages of your site to block by selecting from a list of search engines that cannot crawl the pages.
  • Block All — Blocks all of your site's pages from crawlers. NOTE: This is not recommended.

Once you have determined how you want to control crawling for your site, click Get File. Click Create robots.txt or Create Meta Tag to generate the appropriate file. For more information on robots.txt and Meta Tags, see What's the difference between robots.txt and Meta Tags?


이 글이 도움되었나요?
피드백을 보내주셔서 감사합니다. 고객 서비스 담당자에게 문의하시려면 지원 전화 번호 또는 위의 채팅 옵션을 이용하시기 바랍니다.
도와드릴 수 있어 기쁩니다! 더 도와 드릴 것이 있나요?
그것 유감스럽습니다. 혼동이 되었던 사항 또는 솔루션이 고객님의 문제를 해결하지 못했던 원인을 알려주세요.