검색 엔진 최적화 캠페인 관리 기술적 과제
게시 됨: 2020-12-222021년 8월 31일 최종 업데이트
검색 엔진 최적화 업계에 오랫동안 있었던 사람들은 두 개의 검색 엔진 최적화 캠페인이 동일하지 않다는 것을 알고 있습니다.
여러 번 검색 엔진 최적화 결과에 부정적인 영향을 미치는 기술적인 문제에 직면합니다. 종종 그것들을 수정하는 것은 우리가 통제할 수 없는 일입니다.
기술적인 문제는 표준 검색 엔진 최적화 운영 절차를 훨씬 능가하며 웹 개발 참여가 필요합니다.
다음은 검색 엔진 최적화 캠페인을 관리할 때 발견되는 몇 가지 문제입니다.
- 웹 개발자 없음
- 비 검색 엔진 친화적인 콘텐츠 관리 시스템
- 클라이언트의 콘텐츠 관리 시스템에 액세스할 수 없음
- 클라이언트의 웹 사이트 파일 서버에 액세스할 수 없음
검색 엔진 최적화 캠페인에 사용할 수 있는 웹 개발자가 없으면 어떻게 해야 합니까?
이 경우 답은 두 가지뿐입니다. 웹 사이트 파일 서버와 콘텐츠 관리 관리 시스템에 모두 액세스할 수 있어야 합니다. 옵션 "B"는 클라이언트가 웹 개발자를 고용해야 하는 것입니다. 그 또는 그녀는 사이트를 검색 엔진 최적화 사양 요구 사항으로 가져오기 위해 필요한 수정을 수행해야 합니다.
이 프로세스는 SEO 성공 에 중요한 역할을 하며 분명해야 하지만 믿을 수 없을 정도로 간과되는 경우가 있습니다. 검색 엔진 최적화 캠페인을 향상시키는 효과적인 콘텐츠 및 구조의 배포는 동일한 목표에 맞춰진 웹 디자인 및 개발 에 크게 의존합니다.
콘텐츠 관리 관리 시스템이 검색 엔진에 적합하지 않은 경우 어떻게 해야 합니까?
검색 엔진 최적화를 제대로 수행하려면 다음이 필요하지만 이에 국한되지는 않습니다.
- 콘텐츠의 <h1> 태그에서 생성되는 것과 별도로 고유한 <head> 영역 페이지 제목을 생성하는 기능
- <head> 영역 메타 설명을 생성하는 기능
- 콘텐츠의 <h1> 태그와 별도로 검색 엔진 친화적인 URL을 생성하는 기능
- 콘텐츠의 <h1> 태그 또는 페이지의 <head> 영역 페이지 제목과 별도로 사이트 이미지에 대체 및 제목 텍스트를 추가하는 기능
많은 콘텐츠 관리 관리 시스템은 기본 검색 엔진 최적화 서비스를 제공하지 않으며 화이트 라벨 SEO 서비스를 제공하는 것이 좋습니다. 이러한 문제에 직면하면 콘텐츠 관리 관리 시스템을 다시 코딩해야 합니다. 콘텐츠 관리 관리 시스템에 액세스하여 필요한 변경 사항을 구현하고 완료하는 방법을 연구할 수 있습니다.
Google은 4xx 응답 코드가 있는 사이트의 순위 결과를 강등합니다. 트윗하려면 클릭그러나 콘텐츠 관리 관리 시스템에 대한 액세스 권한이 없을 수 있습니다. 클라이언트에 직원이 웹 개발자인 경우 지시할 수 있습니다. 클라이언트 웹사이트에 대한 검색 엔진 최적화를 수행하기 위해 무엇을 해야 하는지 조언하십시오. 클라이언트에 직원이 웹 개발자가 없는 경우 직원을 고용해야 합니다. 클라이언트의 콘텐츠 관리 시스템에 능숙하면 가장 좋습니다.
검색 엔진 최적화 캠페인 시작 시 클라이언트의 콘텐츠 관리 관리 시스템에 액세스할 수 없는 경우 어떻게 해야 합니까?
고객에게 이 정보를 요청하기만 하면 됩니다.
일부 클라이언트는 이 액세스를 제공하는 것을 꺼릴 것입니다. 이 경우 클라이언트와 명확하고 정직한 대화를 해야 합니다. 이 검색 엔진 최적화 캠페인을 통해 그들이 당신을 얼마나 신뢰했는지 상기시키십시오. 물론, 콘텐츠 관리 관리 시스템에 대한 액세스 권한도 귀하를 신뢰할 수 있습니다.
그들이 거부하면 웹 개발자가 있는 경우 해당 웹 개발자와 협력해야 합니다. 현재 검색 엔진 최적화 사양을 충족하도록 클라이언트 사이트에 필요한 변경 사항을 구현합니다.
웹 개발자가 없는 경우 클라이언트에 필요한 개정 및 요청을 제공합니다. 올바르게 구현했는지 확인하십시오.
클라이언트의 웹사이트 파일 서버에 액세스하는 것이 중요한 이유는 무엇입니까?
이는 특히 클라이언트 직원에 웹 개발자가 없는 경우에 중요합니다.
웹사이트 파일 서버에는 성공적인 검색 엔진 최적화 캠페인을 수행하는 데 필요한 두 가지 중요한 요소가 있습니다. 웹 사이트 .htaccess 파일과 robots.txt 파일이 바로 그것입니다.
.htaccess 파일
.htaccess 파일은 "4XX 파일을 찾을 수 없음" 응답 코드를 방지하는 데 중요한 사이트의 3XX 리디렉션을 제어하는 곳입니다. 이는 Google(및 기타 검색 엔진) 검색 엔진 결과 페이지에서 클라이언트 사이트의 순위를 매길 때 모든 종류의 문제를 생성합니다. Google은 4xx 응답 코드가 있는 사이트의 순위 결과를 강등합니다. 귀하의 사이트에서 4xx 응답 코드를 생성하고 경쟁업체는 생성하지 않는 경우 Google 검색 엔진 결과 페이지에서 귀하의 웹사이트 순위를 높일 가능성이 더 높습니다.
robots.txt 파일
robots.txt 파일도 중요합니다. 여러 번, 우리는 재구축되었거나 새로 생겨 순위 결과에 어려움을 겪고 있는 새로운 클라이언트 사이트를 경험합니다. 사이트의 모양, 느낌 및 탐색 구조를 새로 고치려는 기존 클라이언트가 있는 경우가 많습니다. 두 경우 모두 웹 개발자는 로봇 크롤링 금지 지시문을 사용하여 검색 엔진이 개발 중인 새 사이트나 새로 고쳐진 사이트를 크롤링하고 인덱싱하지 못하도록 차단할 수 있습니다.
대부분의 경우 새 웹 사이트나 새로 고쳐진 웹 사이트가 실행될 때 robots.txt 파일에서 disallow 지시문이 제거되지 않았으므로 검색 엔진이 이러한 사이트를 크롤링하고 색인을 생성하는 것을 차단합니다.
순위 결과, 방문자 트래픽 및 전환이 우수한 기존 클라이언트 사이트는 disallow 지시문을 제거하지 않고 라이브로 전환되었기 때문에 실패하기 시작합니다. 순위 결과, 방문자 트래픽 및 전환에 실패한 신규 또는 새로고침된 웹 사이트를 가진 신규 고객은 동일한 결과에 직면합니다.
robots.txt 파일은 순위 결과, 방문자 트래픽 및 전환에 실패한 새 클라이언트와 작업할 때 가장 먼저 확인하는 요소 중 하나입니다. 나는 순위 하락, 방문자 트래픽 감소 및 전환 손실을 경험하기 전에도 새로 고침 후 기존 클라이언트와 동일한 작업을 수행합니다.
이러한 변경을 수행하려면 클라이언트의 웹 파일 서버에 액세스해야 하며 그렇지 않으면 클라이언트에 웹 개발자가 있어야 합니다.
클라이언트의 robots.txt 파일에 대한 이 검토를 목록의 상위에 유지해야 합니다. 어떤 이유로 검색 엔진 캠페인 관리 프로젝트에서 크롤링 허용 안 함 구현의 무작위 행위를 경험했습니다.
이는 검색 엔진 최적화 캠페인 중에 직면할 수 있는 기술적인 문제 중 일부에 불과합니다.