묻고답하기
robots.txt 관련하여 질문있습니다...
2016.07.10 21:04
xe를 이용하여 블로그를 만들어 네이버 웹마스터도구에 rss 및 sitemap.xml을 등록하였습니다.
그런데 네이버에서 제가 쓴 포스트를 검색하니 같은 글이 다른 주소로 2개씩 등록이 되었네요.
예) ① http://사이트주소/게시판이름/문서번호
② http://사이트주소/문서번호
문제는 유사문서로 등록이 되어 검색순위에 영향도 있고 하여 무언가를 해야 할꺼 같은데 고수님들의 노하우를 듣고자 글을 남깁니다. 궁금한 것이 많은데, 너무 몰라 답답해서 그러니 이해해 주세요. ㅡㅡ;;
1. 일단, 위와 같은 현상이 일어나는 것이 제가 무엇을 잘못해서 그런가요, 아님 자연스러운 현상일까요?
혹여, 제가 네이버 웹마스터도구의 웹페이지 수집요청을 해서 이런 현상이 일어난 것은 아닌지... 그런데 웹페이지 수집요청을 하면 검색등록도 빨리 되고 상위노출이 되더라구요. ㅡㅡ
2. 보다 빠른 검색등록을 위해 네이버 웹마스터도구에서 웹페이지 수집 요청을 신청하면 위의 ②번 url로 검색등록이 되더군요.
그럼 위의 ①번 url을 검색등록에서 제외시켜 달라고 아래와 같이 robots.txt 에 써주면 될까요?
①번 url로 된 포스트들을 검색에서 제외가 되어도 괜찮은지, 갈팡질팡 잘 모르겠습니다.
User-agent: *
Disallow: /xe/게시판이름1/
Disallow: /xe/게시판이름2/
3. 현재 포스트 수가 20개 정도 되는데, 지금이라고 robots.txt를 수정해서 반영해도 별 문제가 없을까요?
또 유사문제 해결은 가능한지도 궁금합니다.
너무 질문이 많죠...
도움 받을 곳이 xe 묻고답하기 밖에 없네요. 귀찮으시겠지만 답변 부탁드립니다...
댓글 3
-
mAKEkr
2016.07.10 21:15
-
은빛만월
2016.07.10 21:39
현재 신디케이트 모듈 및 seo모듈 모두 설정되어 있으며 seo에서 수정한 내용이 네이버 웹마스터도구에 반영되는데, 그럼 연동되고 있는 것 맞나요?
-
mAKEkr
2016.07.10 21:48
네 맞는건데 네이버봇이 잘못긁어가나봅니다. canonical이라는건 특정 게시물의 고유주소를 나타내주는거라서, 이부분을 인식못하고 긁어가는건 그냥 봇이 멍청한걸로밖에 말을 못하네요.
혹시 신디케이트 모듈 켜져있는지 확인해보시기 바랍니다.
그리고 해당 홈페이지 head에 canonical설정되어있는지(즉 SEO모듈 설정되어있는지)확인하시구요