🤖 Robots.txt 생성기
검색 엔진 크롤링을 관리할 수 있는 Robots.txt 파일을 쉽게 생성하세요.
📖 Robots.txt란?
Robots.txt 파일은 검색 엔진이 사이트의 특정 페이지를 크롤링할 수 있도록 허용하거나 차단하는 역할을 합니다.
잘못된 설정은 SEO에 영향을 줄 수 있으므로 주의해서 생성하세요!
🔧 기본 설정
📌 생성된 Robots.txt 파일:
결과가 여기에 표시됩니다.
🤖 Robots.txt란 무엇인가?
Robots.txt 파일은 웹사이트의 루트 디렉토리에 위치하며, 검색 엔진이 웹사이트의 특정 페이지를 크롤링할 수 있는지 여부를 결정하는 역할을 합니다.
이 파일을 올바르게 설정하면 검색 엔진 최적화(SEO)에 긍정적인 영향을 미칠 수 있습니다.
🔎 Robots.txt가 필요한 이유
- 📌 검색 엔진이 크롤링할 수 없는 페이지를 차단하여 서버 부하 감소
- 🔍 중요하지 않은 페이지(예: 로그인 페이지, 관리자 페이지)를 검색 인덱싱에서 제외
- 🚀 검색 엔진이 중요한 페이지를 우선 크롤링할 수 있도록 크롤링 효율성 향상
🛠 Robots.txt 주요 규칙 설명
아래는 Robots.txt에서 사용되는 주요 명령어와 그 의미입니다.
- User-agent: * → 모든 검색 엔진에게 적용
- Disallow: /admin/ → `/admin/` 폴더 크롤링 차단
- Allow: /public/ → `/public/` 폴더는 크롤링 허용
- Sitemap: https://example.com/sitemap.xml → 사이트맵 URL 제공
⚠️ Robots.txt 설정 시 주의해야 할 점
잘못된 Robots.txt 설정은 검색 엔진에서 웹사이트를 차단할 수 있으므로 신중하게 설정해야 합니다.
- ❌ 모든 페이지를 차단하는 설정 (`Disallow: /`)이 필요 없는 경우 주의
- ✅ 검색엔진이 중요한 페이지를 크롤링할 수 있도록 허용 (`Allow: /`)
- 📢 Robots.txt는 검색 엔진 크롤링을 제한할 뿐, 웹페이지 보안 기능이 아닙니다
✅ Robots.txt 예제
📌 모든 검색 엔진 크롤링 허용
User-agent: * Allow: / Sitemap: https://example.com/sitemap.xml
📌 모든 검색 엔진 크롤링 차단
User-agent: * Disallow: /
📌 특정 페이지 또는 디렉토리 차단
User-agent: * Disallow: /private/ Disallow: /admin/
📌 특정 검색 엔진만 차단 (예: Googlebot 차단)
User-agent: Googlebot Disallow: /