Robots.txt 생성기 |
일반 지침
레이어 재정의를 적용하기 전에 모든 크롤러에 대한 기본 동작을 구성하십시오.
User-agent: *에 대한 전역 허용 또는 차단 규칙을 설정합니다.
서버에 여유 공간이 필요하다면 크롤러 속도를 조절하세요.
미러링된 도메인에 대한 선택적 호스트 지시문입니다.
한 줄에 하나의 경로만 입력할 수 있습니다. 와일드카드와 경로 끝에 슬래시(/)를 사용할 수 있습니다.
더 넓은 경로가 차단되더라도 특정 폴더는 크롤링이 가능하도록 유지하십시오.
각 줄에 사이트맵 URL을 하나씩 제공하십시오. 추가 사이트맵 인덱스가 있는 경우 함께 추가하십시오.
일반 크롤러
차단하려는 크롤러를 완전히 차단하려면 해당 크롤러를 토글하세요. 그렇지 않으면 위의 기본 규칙을 따르도록 허용해 두세요.
사용자 정의 규칙
사용자 에이전트에 대한 허용 또는 차단 지침, 크롤링 지연 시간 및 사이트맵 힌트를 추가합니다.
아직 사용자 지정 규칙이 없습니다. 위의 버튼을 사용하여 규칙을 만드세요.
정확한 사용자 에이전트 문자열 또는 와일드카드 사용자 에이전트 문자열입니다.
위에서 생성된 파일을 복사하여 도메인 루트 디렉터리에 robots.txt라는 이름으로 업로드하십시오.
목차
Robots.txt 더 나은 크롤링 및 색인화를 위한 생성기
Robots.txt 사이트의 검색 봇을 안내하는 작은 텍스트 파일입니다. 이 도구는 크롤러에게 접근할 수 있는 구역과 피해야 할 경로를 알려줍니다. 이렇게 하면 중요한 페이지에 크롤링이 집중되고, 저가치 URL에 낭비되는 방문을 줄일 수 있습니다.
robots.txt 관리자 페이지, 스테이징 폴더, 테스트 URL, 필터 페이지, 중복 경로 같은 영역을 차단하세요. 규칙이 명확할 때, 검색 엔진은 중요한 페이지에 더 많은 시간을 투자합니다. 이렇게 하면 새로운 콘텐츠가 더 빨리 발견되고 깨끗하고 예측 가능하게 계속 올라갈 수 있습니다.
SEO에서 Robots.txt 의미하는 바
Robots.txt 로봇 배제 기준의 일부입니다. 다음 위치에 배치하세요:
yourdomain.com/robots.txt
검색 엔진은 이 파일을 일찍 확인하는 경우가 많은데, 이는 명확한 크롤링 지침을 제공하기 때문입니다. 사이트가 작다면 robots.txt 파일 없이도 색인화될 수 있습니다. 하지만 대형 사이트에서는 안내가 누락되어 크롤링 낭비와 핵심 페이지 발견 지연으로 이어질 수 있습니다.
한 가지 중요한 점:
- Robots.txt 조작 크롤링
- 인덱싱을 보장하지는 않습니다
페이지가 검색 결과에 나타날 수 있는지 확인하고 싶다면, 색인성 검사를 사용하세요. 이 기능은 노인덱스, 차단된 자원, 또는 robots.txt가 다루지 않는 다른 문제들을 식별하는 데 도움을 줍니다.
왜 Robots.txt 크롤 예산에 도움이 되는지
검색 엔진은 매일 모든 페이지를 탐색하지 않습니다. 이들은 사이트 속도, 서버 상태, 콘텐츠 변경 빈도와 같은 제한과 신호를 기준으로 크롤링합니다.
사이트가 느리거나 오류가 발생하면 크롤러가 한 번에 방문하는 페이지 수가 줄어들 수 있습니다. 이로 인해 새 게시물과 업데이트된 페이지의 색인화가 지연될 수 있습니다. Robots.txt 낭비되는 크롤링을 줄여 봇이 실제로 집중하고 싶은 페이지에 더 많은 시간을 보내게 합니다.
최상의 결과를 위해서는 사이트맵과 함께 robots.txt을 사용하세요:
- Robots.txt 봇들에게 크롤링하거나 건너뛸 것을 안내해 줍니다
- 사이트맵은 크롤링하고 색인화하고 싶은 페이지를 나열합니다
알아야 할 Robots.txt 규칙
robots.txt 파일은 몇 가지 간단한 명령어를 사용합니다. 읽기 쉽지만 신중하게 써야 합니다.
- 사용자 에이전트
- 규칙이 적용되는 봇을 설정합니다
- 허용 금지
- 블록이 폴더나 경로를 탐색하는 것
- 허락해
- 차단된 폴더 내에서 특정 경로를 엽니다
- 크롤 딜레이
- 일부 봇의 느린 크롤링 요청 (모든 봇이 따르는 것은 아닙니다)
작은 실수로 중요한 페이지, 특히 핵심 카테고리나 핵심 랜딩 페이지가 차단될 수 있습니다. 그래서 모든 것을 수동으로 작성하는 것보다 생성기를 사용하는 것이 더 안전합니다.
왜 워드프레스 사이트가 자주 Robots.txt
워드프레스는 내부 검색 페이지, 일부 아카이브 페이지, 매개변수 기반 URL 등 SEO에 도움이 되지 않는 여러 URL을 생성할 수 있습니다. 저가치 영역을 차단하면 크롤러가 메인 페이지, 블로그 게시물, 제품 또는 서비스 페이지에 더 많은 시간을 보내게 됩니다.
작은 사이트에서도 깨끗한 robots.txt 파일은 현명한 선택입니다. 사이트가 성장함에 따라 크롤 규칙을 체계적으로 정리할 수 있게 해줍니다.
Robots.txt 및 사이트맵의 차이점
사이트맵은 검색 엔진이 크롤링하고 싶은 페이지를 발견하는 데 도움을 줍니다. Robots.txt 봇이 어디로 갈 수 있는지 통제합니다.
- 사이트맵은 발견을 개선합니다
- Robots.txt 크롤링 접근을 제어합니다
대부분의 웹사이트는 두 가지 모두를 활용하는 것이 이익을 봅니다.
이 생성기를 사용해 Robots.txt 만드는 방법
Robots.txt 단순하지만 관대하지 않습니다. 한 가지 잘못된 규칙이 주요 페이지를 차단할 수 있습니다. 이 생성기는 파일을 안전하게 만드는 데 도움을 줍니다.
기본 접근 권한 설정
모든 봇이 기본적으로 사이트를 크롤할 수 있는지 선택하세요.
사이트맵 URL 추가하세요
사이트맵을 포함해 크롤러가 중요한 페이지를 더 빨리 찾을 수 있습니다.
허용되지 않은 경로를 조심스럽게 추가했습니다
정말로 크루킹을 원하지 않는 것만 차단하세요. 항상 앞쪽 슬래시로 시작하세요, 예를 들면:
/admin/ 또는 /search/
출판 전 검토
홈페이지, 블로그, 카테고리 페이지, 메인 서비스 페이지를 차단하지 않았는지 다시 한 번 확인하세요.
Robots.txt와 잘 맞는 관련 SEO 도구
Robots.txt 기술 SEO의 한 부분입니다. 이 도구들은 같은 목표를 지원하며 모든 것이 제대로 작동하는지 확인하는 데 도움을 줍니다:
- 사이트맵 체커: 사이트맵이 유효하고 봇이 쉽게 읽을 수 있는지 확인합니다.
- Google Index Checker: 페이지가 인덱싱 가능한지 확인하고 noindex와 같은 일반적인 차단 요소를 표시합니다.
- HTTP 상태 코드 확인: 200, 301, 404 및 서버 오류를 찾아 크롤링 속도를 늦출 수 있습니다.
- 무료 리디렉션 검사기: 리디렉션이 깨끗하고 사슬이나 루프에 갇히지 않는지 확인합니다.
- 메타 태그 분석: SEO의 실수에 대한 제목, 설명, 로봇 메타 태그를 검토합니다.
API 문서가 곧 제공될 예정입니다.
Documentation for this tool is being prepared. Please check back later or visit our full API documentation.