1. sitemap 생성하기(구글 등록 준비)
sitemap이란?
- 사이트맵은 사이트에 있는 페이지, 동영상 및 기타 파일과 각 관계에 관한 정보를 제공하는 파일
- Google같은 검색엔진에서는 해당 파일을 읽고 사이트를 더 지능적으로 크롤링할 수 있음
- 크롤러에게 내가 사이트에서 중요하다고 생각하는 파일을 알리고, 해당 파일에 관한 중요한 정보를 제공함
sitemap.xml
- GitHub Pages 즉, 깃헙 블로그에서는 Plug-in(플러그인)을 사용할 수 없음
- 최상위 디렉토리에 sitemap.xml을 직접 생성해줄 것
- 다음과 같이 셋팅
- 셋팅 후 블로그주소/sitemap.xml 접속해보면 잘 나옴을 확인할 수 있음 LINK
2. Robots.txt 생성하기(크롤링 가능하게끔 설정)
Robots.txt란?
- 검색엔진 로봇(혹은 크롤러)들이 자료를 수집할 수 있게끔 설정해두는 정책
- 어떤 정보들을 로봇이 수집해가야할지 미리 정의해 놓는 지침
- 사이트맵이 어떤 것들이 있는지 알려준다면, 로봇츠는 수집해야 하는 것들이 무엇인지 알려주는 느낌
Robots.txt 등록하기(사이트맵 필요!)
- 최상위 디렉토리에 robots.xml을 직접 생성해줄 것
- 다음과 같이 셋팅
3. 구글에서 검색되도록 등록하기
GOOGLE SEARCH CONSOLE LINK
- 구글에서 검색되도록 등록하려면 써치 콘솔에 등록해야 함(구글 계정 필요)
- 일단 주소를 Search Console에 등록해보기(소유권 확인까지)
- SEARCH CONSOLE [→]
- Google 검색 실적 개선하기 [시작하기]
- (로그인 안했으면 로그인)
- (URL접두어) URL : (블로그URL) https://gptjs409.github.io
- HTML 등록하라고 뜨는데, 다운받아서 GitHub Repo 최상위루트에 넣어두기 예제LINK
- 그리고 등록하고 30초정도 대기했다가 등록완료하면 소유권이 확인됨!이 뜸
- 속성으로 이동
- 사이트맵 적용해보기
- 우측의 메뉴 네비게이션 상단 색인 > Sitemaps의 사이트맵스 선택
- 새 사이트맵 추가에 sitemap.xml 입력 후 제출
- 제출된 사이트맵으로 (바로 아래) 이동되며 상태가 성공!이라고 뜨면 됨
- Robots.xml 제출하기
- 로그인된 상태에서
- 해당 링크 접속 LINK
- 주소가 잘 입력되어 있으면 4번으로, 주소가 다른 기존 등록 주소라면 우측 상단 새로운 Search Console 사용
- robots.txt가 잘 나와있는지 확인하고 [제출]
- 1번 2번은 희망자만 선택하고, 다 되고나서 3번의 [제출] 끝
- 통계는 반영되고 조금 지나고부터 확인되므로 일단 PASS
RSS란?
- Really Simple Syndication 또는 Rich Site Summary의 약자
- 뉴스나 블로그 사이트에서 주로 사용하는 콘텐츠 표현 방식
- 웹 관리자는 RSS 형식으로 웹 사이트 내용을 보여줌
- 넷스케이프를 통해 등장
RSS피드란?
- 정기적으로 업데이트되는 웹 콘텐츠를 전달해주는 형태
- 글의 전체 또는 요약 정보 및 작성자 등의 정보가 포함
RSS 피드 등록하기
- GitHub Pages는 Plugin 지원이 안되므로 feed.xml 파일을 직접 만들어야 함
- 최상위 루트 아래 /feed.xml을 생성하면 끝!
5. 네이버/다음에서 검색되도록 등록하기
네이버(NAVER) : 로그인 필요
- 검색등록 LINK
- 로그인
- 사이트 간단 체크(ID당 하루 최대 10번) : (블로그URL) https://gptjs409.github.io [조회]
- 자동등록 보안절차(글자숫자입력) [확인]
- Robots가 없다는데… 나중에 확인할 것
- 맨 아래 조회한 사이트 소유확인하기 클릭
- 소유확인
- HTML 파일 업로드 선택
- HTML 파일 다운로드
- GITHUB 최상단에 업로드
- HTML 반영 확인(참고 생각보다 꽤 반영 시간 걸림)
- 완료
- 웹마스터도구 > 등록한 도메인 선택
- 요청 > RSS 제출 : Feed URL 입력 후 제출
- 요청 > 사이트맵 제출 : sitemap.xml 입력 후 제출
- 웹 페이지 수집 : 확인, 및 등록하고 싶은 것 등록(robots.xml도 한 번 해줌)
- robots 등록안되었다던거
- 검증 > robots.txt 들어가면 잘 적용 된 것으로 확인됨
- 검증 > 웹 페이지 최적화에서 재검증 끝!
다음(DAUM) : 로그인 불필요
- 검색등록 LINK
- 검색등록 선택 : 블로그 등록
- 블로그 URL : (본인 URL) gptjs409.github.io [확인]
- 개인정보 수집 동의, 개인정보 취급 위탁 동의 [확인]
- 이메일 입력 (앗! 다음이 아니어도 상관 없음) 입력 후 [확인]
- 완료
- 완료 메시지
삽질ING
깃헙 블로그 쉽다고 누가 그랬는데..
익숙해질 날이 빨리 다가왔으면!
아니 HTML
자꾸 지킬이 랜더링할 때 제대로 안해줘서 방법을 찾음
{ % raw % }와 { % endraw % }를 맨 위 맨 아래에 (중괄호와 퍼센테이지 기호 사이 공백 제거) 붙여주면 되고, 중간에 빈 엔터(공 개행문자) 없이 하면 됨!
wow!