웹마스터 팁

구글 검색 방지하는 방법

연구실 홈페이지에 올려놓은 자료들이 구글 검색에서 상위 리스트에 보여지면서 좀 문제가 생겼다.

그래서 검색엔진에 노출되지 않도록 robots.txt 파일을 이용하여 검색엔진 로봇의 접근을 차단했다.

아래 글은 이에 해당하는 내용이다.

검색엔진에 노출되는 것을 제어하는 방법은 크게 두가지가 있다.

내가 사용한 robots.txt 파일을 이용하는 방법과 meta 태그를 이용하는 방법이 그것이다.

물론 아래의 2가지 방법은 검색엔진이 표준을 따르는 경우에 적용되는 것이고, 표준을 따르지 않는 로봇이라면 다 소용없는 일이기는 하다.

하지만 구글의 경우 이러한 방법으로 크롤링을 제어하는 것이 가능하다.

아래의 대부분의 내용도 구글의 웹마스터 도움말 센터의 내용을 참조한 것이다.

<robots.txt 파일을 이용하는 방법>

robots.txt 파일은 도메인의 루트에 있어야 하며 이름은 ‘robots.txt’여야 한다.

검색로봇은 해당 사이트의 루트에 있는 robots.txt파일을 우선 찾고 명시된 규약에 따라 사이트에서 정보를 수집하게 된다.

robots.txt 파일 생성 규칙은 다음과 같다.

User-Agent: 규칙의 적용을 받는 로봇
Disallow: 차단하려는 페이지
Allow: 허용하려는 페이지

User-Agent 행에는해당 규칙을 적용하고자 하는 로봇의 종류를 적어준다.

Disallow 행에는 차단할 페이지의 URL 혹은 패턴을 나열한다.

- 예를 들어 설명하자면

1. 모든 봇으로부터 사이트 전체 크롤링 차단

User-Agent : *
Disallow : /

2. 루트 아래의 abcd 디렉토리 및 디렉토리에 포함된 모든 항목 크롤링 차단

User-Agent : *
Disallow : /abcd/

3. 루트 아래의 index.html 페이지 크롤링 차단

User-Agent : *
Disallow : /index.html

4. 구글 검색 로봇만 차단하려면

User-Agent : Googlebot
Disallow : /index.html

5. 구글 봇이 특정 형식(예: .gif)의 파일을 크롤링하지 않도록 차단

User-Agent : Googlebot
Disallow : /*.gif$

*URL은 대소문자를 구분한다.
*Disallow 구문에서 슬래시(/)로 시작하는 것은 모든 하위 문서를 차단한다는 뜻이고 아무것도 쓰지 않으면 허가한다는 뜻이다.
즉, /…../는 디렉토리만 차단하는 것이고, /…. 는 디렉토리와 페이지를 차단한다는 의미
“Disallow : /abcd” 라고 적으면 abcd 디렉토리 뿐만 아니라 파일명이 abcd인 파일도 차단한다.

이밖에 패턴 일치를 적용하여 다양한 방법으로 접근 및 차단을 제어할 수 있다.

더 자세한 내용은 http://www.robotstxt.org 에 가면 볼 수 있다.

또한 구글 웹마스터센터의 해당 도움말 페이지에서도 볼 수 있으니 필요하신 분들은 참고하시길

http://www.google.com/support/webmasters/bin/topic.py?topic=8459

<meta 태크를 사용하여 페이지 차단 또는 삭제하기>

사이트 루트 접근 권한이 없는 경우에도 사용할 수 있는 방법이다.

자세한 내용은 http://www.robotstxt.org/wc/exclusion.html#meta 참조

1. 어떤 로봇도 사이트의 페이지에 대해 색인을 생성하지 못하게 하려면 페이지의 <HEAD> 섹션에 다음 메타 태그를 추가

<META NAME=”ROBOTS” CONTENT=”NOINDEX, NOFOLLOW”>

2. Google 로봇을 제외한 다른 모든 로봇이 사이트의 페이지에 대해 색인을 생성하도록 허용

<META NAME=”Googlebot” CONTENT=”NOINDEX, NOFOLLOW”>

3. 로봇을 통해 사이트의 페이지에 대해 색인을 생성하고 외부와 연결된 링크를 따라가지 않도록 하려면

<META NAME=”ROBOTS” CONTENT=”NOFOLLOW”>

4. 로봇을 통해 사이트의 페이지에 대해 색인을 생성하고 해당 페이지의 이미지를 색인생성하지 않도록 하려면

<META NAME=”ROBOTS” CONTENT=”NOIMAGEINDEX”>




내용 사이트 http://blog.naver.com/PostView.nhn?blogId=0131v&logNo=110153394108

제목 글쓴이 날짜
[수정] 댓글 삭제 간략화하기 [9] XE만세 2013.11.26
SSL 적용시 작은 iframe 없애기 [1] file explode 2013.11.28
누리CMS 에디터 잡 버그 있으신 분들 보세요. [2] explode 2013.12.03
구글 네이버 검색 방지 로봇 robots.txt meta 태그 jiom 2013.12.05
검색 로봇 막기 (검색 bot 막기) jiom 2013.12.05
[속도UP팁] 최근게시물 위젯 속도개선 [5] 소렌트. 2013.12.09
XE 코어 1.7 버전에서 최근이미지 출력하기 [1] file 때린데 또때려 2013.12.14
레이아웃 css 쉽게 수정하는 방법 (개발자모드 이용) [1] file 멀티비타민 2013.12.29
에디터로 글 작성시 폰트 크기가 12px로 변경되는 현상 해결방법 [7] file jambox 2013.12.31
나만의 익명게시판에서 닉네임 확인하는 방법(꼼수라고 밝힙니다.) [5] 착한부산남자 2014.01.03
홈페이지 접속자, 글(댓글) 작성자 국가 국기 표시 적용 방법 [19] file 라싸 2014.01.08
XE 전체 타이틀(title) 수정하기 [3] pezex 2014.01.16
메뉴추가가 안돼요. [2] file 궁굼자 2014.01.20
회원도 모듈별 적용된 포인트 보게하는 방법. [11] :DunhillBoy 2014.02.01
관리자화면 상단의 업데이트 해야할 항목 안내문구 안 나오게 하는 방법 [1] sejin7940 2014.02.04
통합검색할때 회원별 권한에 따라 내용 보여주기 garnecia 2014.02.07
1.7.4 - 페이지나 게시판 생성 후 설정화면에 가면 '사이트기본스킨사용' 이 적용되지 않는 버그 해결법 sejin7940 2014.02.08
그룹아이콘 모바일에서 표시하기 잉카러부 2014.02.09
마우스드래그금지 레치에스 2014.02.11
2014년 2월 12일부터 갑자기 사이트(관리자 페이지)가 깨지는 경우. 새하나모 2014.02.12