Robots.txt 생성기 |
일반 지침
레이어 재정의를 적용하기 전에 모든 크롤러에 대한 기본 동작을 구성하십시오.
User-agent: *에 대한 전역 허용 또는 차단 규칙을 설정합니다.
서버에 여유 공간이 필요하다면 크롤러 속도를 조절하세요.
미러링된 도메인에 대한 선택적 호스트 지시문입니다.
한 줄에 하나의 경로만 입력할 수 있습니다. 와일드카드와 경로 끝에 슬래시(/)를 사용할 수 있습니다.
더 넓은 경로가 차단되더라도 특정 폴더는 크롤링이 가능하도록 유지하십시오.
각 줄에 사이트맵 URL을 하나씩 제공하십시오. 추가 사이트맵 인덱스가 있는 경우 함께 추가하십시오.
일반 크롤러
차단하려는 크롤러를 완전히 차단하려면 해당 크롤러를 토글하세요. 그렇지 않으면 위의 기본 규칙을 따르도록 허용해 두세요.
사용자 지정 규칙
사용자 에이전트에 대한 허용 또는 차단 지침, 크롤링 지연 시간 및 사이트맵 힌트를 추가합니다.
아직 사용자 지정 규칙이 없습니다. 위의 버튼을 사용하여 규칙을 만드세요.
정확한 사용자 에이전트 문자열 또는 와일드카드 사용자 에이전트 문자열입니다.
위에서 생성된 파일을 복사하여 도메인 루트 디렉터리에 robots.txt라는 이름으로 업로드하십시오.
더 나은 크롤링 및 색인 생성을 위한 Robots.txt 생성기
Robots.txt는 사이트의 검색 봇을 안내하는 작은 텍스트 파일입니다.
robots.txt를 사용하여 관리 페이지, 준비 폴더, 테스트 URL, 필터 페이지 및 중복 경로와 같은 영역을 차단하세요.
SEO에서 Robots.txt의 의미
Robots.txt는 로봇 제외 표준의 일부입니다.
yourdomain.com/robots.txt
검색 엔진은 명확한 크롤링 방향을 제공하기 때문에 이 파일을 조기에 확인하는 경우가 많습니다.
중요한 점:
- Robots.txt는 크롤링을 제어합니다.
- 색인 생성을 보장하지 않습니다.
페이지가 검색 결과에 나타날 수 있는지 확인하려면 색인 생성 가능성 검사를 사용하세요.
Robots.txt가 크롤링 예산에 도움이 되는 이유
검색 엔진은 매일 모든 페이지를 크롤링하지 않습니다.
사이트가 느리거나 오류를 반환하는 경우 크롤러는 실행당 더 적은 수의 페이지를 방문할 수 있습니다.
최상의 결과를 얻으려면 사이트맵과 함께 robots.txt를 사용하세요.
- Robots.txt는 봇에게 크롤링하거나 건너뛸 항목을 안내합니다.
- 크롤링하고 색인을 생성하려는 페이지가 사이트맵에 나열됩니다.
알아야 할 Robots.txt 규칙
robots.txt 파일은 몇 가지 간단한 지시어를 사용합니다.
- 사용자 에이전트
- 규칙이 적용되는 봇을 설정합니다.
- 허용하지 않음
- 폴더 또는 경로에 대한 크롤링을 차단합니다.
- 허용
- 차단된 폴더 내의 특정 경로를 엽니다.
- 크롤링 지연
- 일부 봇에 대해 더 느린 크롤링을 요청합니다(모든 봇이 이를 따르는 것은 아님).
작은 실수로 인해 주요 카테고리나 핵심 랜딩 페이지 등 중요한 페이지가 차단될 수 있습니다.
WordPress 사이트에 종종 Robots.txt가 필요한 이유
WordPress에서는 내부 검색 페이지, 일부 아카이브 페이지, 매개변수 기반 URL 등 SEO에 도움이 되지 않는 많은 URL을 생성할 수 있습니다.
소규모 사이트에서도 깨끗한 robots.txt 파일은 현명한 설정입니다.
Robots.txt와 사이트맵의 차이점
사이트맵은 검색 엔진이 크롤링하려는 페이지를 찾는 데 도움이 됩니다.
- 사이트맵으로 검색 기능 향상
- Robots.txt는 크롤링 액세스를 제어합니다.
대부분의 웹사이트는 두 가지를 모두 사용하면 이점을 얻을 수 있습니다.
이 생성기를 사용하여 Robots.txt를 만드는 방법
Robots.txt는 간단하지만 용서할 수는 없습니다.
기본 액세스 설정
기본적으로 모든 봇이 사이트를 크롤링할 수 있는지 여부를 선택하세요.
사이트맵 URL 추가
크롤러가 중요한 페이지를 더 빨리 찾을 수 있도록 사이트맵을 포함하세요.
허용되지 않는 경로를 신중하게 추가하세요
정말로 크롤링을 원하지 않는 항목만 차단하세요.
/admin/ 또는 /search/
게시 전 검토
홈페이지, 블로그, 카테고리 페이지, 주요 서비스 페이지를 차단하지 않았는지 다시 확인하세요.
Robots.txt와 잘 작동하는 관련 SEO 도구
Robots.txt는 기술적인 SEO의 일부입니다.
- 사이트맵 검사기: 사이트맵이 유효하고 봇이 쉽게 읽을 수 있는지 확인합니다.
- Google 색인 검사기: 페이지의 색인을 생성할 수 있는지 확인하고 NOINDEX와 같은 일반적인 차단기에 플래그를 표시합니다.
- HTTP 상태 코드 확인: 크롤링 속도를 늦출 수 있는 200, 301, 404 및 서버 오류를 찾습니다.
- 무료 리디렉션 검사기: 리디렉션이 깨끗하고 체인이나 루프에 걸리지 않았는지 확인합니다.
- 메타 태그 분석: SEO 실수가 있는지 제목, 설명 및 로봇 메타 태그를 검토합니다.