크롤링 예산을 최적화하고 순위를 높이는 방법은 무엇입니까?

게시 됨: 2017-01-14

목차

  • 1 크롤링 예산이란 무엇입니까?
  • 2 크롤링 예산이 중요한 이유는 무엇입니까?
  • 3 크롤링 예산이 문제가 되는 경우는 언제입니까?
  • 4 크롤링 예산을 최적화하는 방법
  • 5 1.사이트 구조 개선
  • 6 2.깨진 링크 해결
  • 7 3.리치 미디어 콘텐츠를 신중하게 사용
  • 8 4.사이트맵 정리
  • 9 5.외부 링크 구축
  • 10 6.내부링크 정리
  • 11 7.피드 활용
  • 12 8.리디렉트 체인 제거
  • 13 9. 페이지가 크롤링 가능한지 확인

검색 엔진 최적화가 무엇인지, 잘 구성된 사이트, 관련 키워드, 양질의 콘텐츠, 적절한 태그 지정, 깨끗한 사이트맵 및 기타 기술 표준의 중요성은 누구나 알고 있습니다. 그러나 크롤링 최적화에 대해 생각하지 않았을 가능성이 있습니다.

크롤링 예산

크롤링 예산 최적화는 검색 엔진 최적화보다 한 단계 더 나아가는 것입니다. 검색 엔진 최적화가 사용자 쿼리에 대한 최적화 프로세스에 더 초점을 맞추는 반면 크롤링 최적화는 검색 엔진 봇(웹 스파이더)이 사이트에 액세스하는 방법에 초점을 맞춥니다.

이 기사에서는 검색 엔진이 웹사이트에 크롤링 예산을 할당하는 방식과 크롤링 예산을 최대한 활용하여 순위, 유기적 트래픽 및 가장 중요한 색인 생성을 극대화하는 데 도움이 되는 팁을 살펴보겠습니다.

크롤링 예산이란 무엇입니까?

크롤링 예산은 단순히 검색 엔진 스파이더가 주어진 기간 동안 웹사이트를 크롤링할 페이지의 양입니다. 크롤링 예산은 일반적으로 사이트의 크기와 상태, 사이트를 가리키는 링크 수에 따라 결정됩니다.

크롤링 예산

크롤링 예산은 종종 충분한 주의를 기울이지 않는 중요한 SEO 요소입니다. 검색 엔진은 스파이더 봇을 사용하여 웹 페이지를 크롤링하고 정보를 수집하여 색인에 추가합니다. 또한 방문하는 페이지의 링크를 지적하고 새 페이지도 크롤링하려고 시도합니다.

예를 들어 Googlebot은 새 페이지를 찾아 Google 색인에 추가하는 웹 스파이더입니다. 대부분의 웹 서비스와 SEO 도구는 이러한 웹 스파이더를 신뢰하여 유용한 정보를 수집합니다.

크롤링 예산이 중요한 이유는 무엇입니까?

웹사이트의 크롤링 가능성은 검색 가능성을 보장하기 위한 기본적이고 중요한 단계입니다. 크롤링 예산을 최적화하는 것이 웹사이트에 중요한지 여부가 궁금한 경우 대답은 당연히 '예'입니다. 귀하의 SEO 노력과 크롤링 최적화는 아마도 함께 갈 것입니다.

간단하지만 크롤링 예산에 대해 걱정해야 하는 것은 매우 논리적입니다. 크롤링 예산은 Google에서 웹사이트를 더 쉽게 검색하고 색인을 생성할 수 있기 때문입니다. 웹사이트에 크롤링이 더 많다는 것은 새 콘텐츠를 게시할 때 더 빠르게 업데이트된다는 의미입니다. 따라서 크롤링 예산이 클수록 더 빨리 발생합니다.

이는 또한 웹사이트에 대한 전반적인 사용자 경험을 개선하는 데 도움이 되어 가시성을 개선하고 궁극적으로 더 나은 SERP 순위를 가져옵니다. 사실은 최근에 크롤링된 페이지가 SERP에서 더 많이 표시되며 페이지가 한동안 크롤링되지 않으면 순위가 좋지 않습니다.

크롤링 예산이 문제가 되는 경우는 언제입니까?

크롤링 예산이 종종 문제를 일으키는 것은 아닙니다. 웹사이트 URL에 비례 크롤링을 할당했다면 문제가 되지 않습니다. 그러나 귀하의 웹사이트에 200,000개의 URL이 있고 Google이 사이트에서 하루에 2,000페이지만 크롤링한다고 가정해 보겠습니다. 그러면 Google이 URL을 식별하거나 업데이트하는 데 100일이 걸릴 수 있습니다. 이제 이것이 문제입니다.

크롤링 예산 세션

솔루션을 찾고 있고 크롤링 예산에 최적화가 필요한지 확인하려면 Google Search Console과 사이트의 URL 수를 사용하여 웹사이트의 '크롤링 수'를 계산하세요. 어떻게 해야 하나요?

먼저 웹사이트에 몇 페이지가 있는지 평가해야 합니다. 사이트를 수행하여 이를 수행할 수 있습니다. Google에서 검색,
둘째, Google Search Console 계정으로 이동하여 크롤링으로 이동한 다음 크롤링 통계로 이동합니다. 계정이 제대로 구성되지 않은 경우 이 데이터를 얻을 수 없습니다.
세 번째 단계는 사이트의 총 페이지 수를 웹사이트에서 하루에 크롤링되는 평균 페이지 수로 나누는 것입니다.

이 숫자가 10보다 크면 크롤링 예산 최적화를 살펴봐야 합니다. 5 미만이면 브라보! 더 읽을 필요가 없습니다.

크롤링 예산을 최적화하는 방법

1.사이트 구조 개선

오늘날 사이트 구조의 중요성은 중요한 요소입니다. Rand Fishkin과 같은 SEO 마스터는 웹사이트 사용자가 방문하는 동안 홈페이지에서 세 번 이상 클릭하지 않도록 조언합니다. 방문자가 웹사이트에 대해 더 깊이 파고들지 않을 가능성이 높기 때문에 유용성 측면에서 SEO를 위한 훌륭한 조언입니다.

웹사이트 구조

따라서 깨끗하고 탐색하기 쉽고 검색 엔진 친화적 인 웹 사이트가 없다면 이제 웹 사이트 재구성을 시작할 때입니다.

2.깨진 링크 해결

이것은 검색 엔진 최적화와 크롤링 최적화의 기본적인 차이점 중 하나입니다. 깨진 링크는 순위를 낮추는 데 중요한 역할을 할 뿐만 아니라 웹사이트의 색인을 생성하고 순위를 매기는 Googlebot의 능력을 크게 방해합니다.

Google의 알고리즘은 수년에 걸쳐 상당히 개선되었으며 사용자 경험에 영향을 미치는 모든 것이 SERP에 영향을 미칠 수 있습니다. Google은 항상 사용자 행동을 복사하고 알고리즘을 업데이트하려고 노력해 왔습니다. 따라서 우리는 검색 엔진용 웹사이트를 최적화할 때 항상 사용자 경험을 고려해야 합니다.

3. 리치 미디어 콘텐츠를 신중하게 사용

오늘날 Google은 Silverlight 및 기타 일부 파일만 크롤링하려고 애쓰지만 플래시, 자바스크립트 및 HTML과 같은 리치 미디어 콘텐츠를 크롤링할 수 없는 경우가 있었습니다.

리치 미디어 콘텐츠

그러나 Google은 대부분의 리치 미디어 파일을 읽을 수 있지만 다른 검색 엔진에서는 읽을 수 없습니다. 즉, 이러한 파일을 현명하게 사용해야 하며 때로는 순위를 매길 페이지에서 완전히 피하고 싶을 수도 있습니다.

4.사이트맵 정리

차단된 페이지, 비표준 페이지, 불필요한 리디렉션 및 400레벨 페이지를 포함하여 웹사이트의 사용성을 해칠 수 있는 혼란으로부터 보호하기 위해 사이트맵을 정리하고 최신 상태로 유지하기 위해 노력하십시오. XML 사이트맵을 사용하는 것은 스파이더 봇뿐만 아니라 사용자를 돕는 가장 좋은 방법입니다.

사이트맵을 정리할 수 있는 다양한 도구가 시중에 나와 있습니다. XML 사이트맵 생성기를 사용하여 인덱싱에서 차단된 모든 페이지를 제외하는 깨끗한 사이트맵을 만들고 301 및 302 리디렉션 및 비표준 페이지와 같은 항목을 찾아 수정할 수 있습니다.

5.외부 링크 구축

링크 빌딩은 항상 뜨거운 주제이며 가까운 장래에 사라지지 않을 것입니다. 새로운 커뮤니티를 발견하고, 온라인에서 관계를 구축하고, 브랜드 가치를 구축하는 것은 링크 구축 프로세스에서 이미 가지고 있어야 하는 일부 특전입니다.

외부 링크

모범 사례를 통해 수행할 때 외부 링크는 외부 도메인을 가리키는 링크이며 더 높은 순위를 얻는 가장 중요한 소스입니다. 외부 링크는 조작하기 가장 어려운 메트릭이지만 검색 엔진이 웹 페이지의 인기도와 관련성을 알 수 있는 좋은 방법입니다.

6. 내부 연결 정리

내부 링크 구축은 크롤링 예산 최적화와 별로 관련이 없지만 무시할 수 있다는 의미는 아닙니다. 잘 구성되고 유지 관리되는 사이트 구조는 충분한 크롤링 예산을 지출하지 않고도 사용자와 스파이더 봇이 콘텐츠를 쉽게 볼 수 있도록 도와줍니다.

잘 구성된 내부 연결 시스템은 또한 사용자 경험을 향상시킵니다. 사용자가 몇 번의 클릭으로 모든 영역에 도달할 수 있도록 돕고 쉽게 액세스할 수 있도록 하면 일반적으로 방문자가 웹사이트에 더 오래 머무르게 되어 SERP 순위가 향상됩니다.

7.피드 활용

RSS, Atom 및 XML과 같은 다양한 피드는 사용자가 웹사이트를 탐색하지 않을 때도 웹사이트에서 콘텐츠를 제공하는 데 도움이 됩니다. 이것은 사용자가 가장 유리한 사이트에 가입하고 새 콘텐츠가 게시될 때마다 정기적인 업데이트를 받을 수 있는 가장 좋은 방법입니다.

오랫동안 RSS 피드는 웹사이트의 독자층과 참여도를 높이는 좋은 방법임이 입증되었습니다. 게다가, 그들은 또한 Google의 웹 스파이더가 가장 많이 방문한 사이트 중 하나입니다. 웹사이트에 업데이트가 있으면 Google의 Feed Burner에 제출하여 제대로 색인이 생성되었는지 확인할 수 있습니다.

8. 리디렉션 체인 제거

리디렉션하는 각 URL은 크롤링 예산을 약간 낭비하게 됩니다. 웹 사이트에 긴 리디렉션 체인이 있는 경우(301 및 302 리디렉션이 연속적으로 많이 발생하는 경우) 웹 스파이더가 대상 페이지에 도달하기 전에 떨어질 수 있으며 궁극적으로 페이지의 색인이 생성되지 않습니다. 리디렉션에 대한 모범 사례를 찾고 있다면 웹사이트에 리디렉션을 가능한 한 적게, 연속으로 두 개 이하로 유지하는 것이 좋습니다.

9. 페이지가 크롤링 가능한지 확인

검색 엔진 스파이더 봇이 웹 페이지를 찾고 웹 사이트 내에서 링크를 찾아 따라갈 수 있다면 크롤링할 수 있습니다. 따라서 robots.txt 및 .htaccess 파일이 웹사이트의 중요한 페이지를 차단하지 않도록 구성해야 합니다.

파블로

또한 플래시, 실버라이트 등과 같은 리치 미디어 콘텐츠를 기반으로 하는 페이지의 텍스트 파일을 제공해야 할 수도 있습니다.

robots.txt를 허용하지 않는 것만으로는 페이지의 색인이 제거되는 것을 방지할 수 없습니다. 귀하가 허용하지 않은 페이지로 트래픽을 계속 보내는 수신 링크와 같은 외부 요소가 있는 경우 Google은 해당 페이지가 여전히 관련성이 있다고 간주할 수 있습니다. 이 경우 페이지의 색인이 생성되지 않도록 수동으로 차단해야 합니다. X-Robots-Tag HTTP 헤더 또는 noindex robots 메타 태그를 사용하여 이를 쉽게 수행할 수 있습니다.

noindex 메타 태그 또는 X-Robots-Tag를 사용하는 경우 robots.txt의 페이지를 허용하지 않아야 합니다. 태그가 표시되고 준수되기 전에 페이지를 크롤링해야 합니다.

결론: 크롤링 예산 최적화는 쉬운 일이 아니며 확실히 '빠른 승리'도 아닙니다. 중소 규모의 웹사이트가 관리가 잘 되어 있다면 괜찮을 것입니다. 그러나 수천 개의 URL이 있는 복잡하고 조직화되지 않은 사이트 구조가 있고 서버 로그 파일이 머리를 스치는 경우 전문가나 전문가에게 도움을 요청해야 할 때일 수 있습니다.