Технические проблемы управления кампанией по поисковой оптимизации

Опубликовано: 2020-12-22

Последнее обновление: 31 августа 2021 г.

SEO Campaign challenges Те, кто некоторое время работал в индустрии поисковой оптимизации, знают, что нет двух одинаковых кампаний по поисковой оптимизации.

Часто мы сталкиваемся с техническими проблемами, которые негативно сказываются на результатах поисковой оптимизации . Часто их исправление находится вне нашего контроля.

Технические проблемы выходят далеко за рамки стандартных операционных процедур поисковой оптимизации и требуют участия в веб-разработке.

Ниже приведены некоторые проблемы, с которыми мы сталкиваемся при управлении кампанией по поисковой оптимизации.

  • Нет веб-разработчика
  • Системы управления контентом, не дружественные к поисковым системам
  • Нет доступа к системе управления контентом клиента
  • Нет доступа к файловому серверу сайта клиента

Что делать, если нет веб-разработчика для кампании по поисковой оптимизации?

Web dev is instrumental to search engine optimization campaign management В этом случае есть только два ответа. Вам потребуется получить доступ как к файловому серверу веб-сайта, так и к системе администрирования управления контентом. Вариант «Б» — клиенту нужно будет нанять веб-разработчика. Он или она должны внести необходимые изменения, чтобы привести сайт в соответствие с требованиями спецификации поисковой оптимизации.

Этот процесс играет важную роль в успехе SEO и должен быть очевиден, но невероятно, что иногда его упускают из виду. Развертывание эффективного контента и структуры, улучшающих кампанию по поисковой оптимизации, в значительной степени зависит от веб-дизайна и разработки , преследующих одну и ту же цель.

Узнайте о нашем White Label SEO — назначьте встречу

Что делать, если система управления контентом не подходит для поисковых систем?

Чтобы правильно выполнить поисковую оптимизацию, вам потребуется следующее, но не ограничиваясь этим:

  1. Возможность генерировать уникальные заголовки страниц области <head> отдельно от тега <h1> содержимого.
  2. Возможность генерировать метаописания области <head>
  3. Возможность генерировать URL-адреса, удобные для поисковых систем, отдельно от тега <h1> контента.
  4. Возможность добавлять замещающий текст и текст заголовка к изображениям вашего сайта отдельно от тега <h1> контента или заголовков страницы области <head>.

Многие системы администрирования управления контентом просто не предлагают базовые услуги по поисковой оптимизации, и настоятельно рекомендуется иметь услуги SEO с белой этикеткой. Столкнувшись с этими проблемами, вам потребуется перекодировать систему администрирования управления контентом. Имея доступ к системе администрирования управления контентом, вы можете узнать, как внести необходимые изменения и завершить их.

Google понижает результаты ранжирования для сайтов с кодами ответов 4xx. Нажмите, чтобы твитнуть

Однако у вас может не быть доступа к системе администрирования управления контентом. Если у клиента есть в штате веб-разработчик, вы можете поручить ему. Посоветуйте им, что вам нужно сделать, чтобы выполнить поисковую оптимизацию для веб-сайта клиента. Если у клиента нет в штате веб-разработчика, ему необходимо его нанять. Было бы лучше, если бы они хорошо разбирались в системе администрирования управления контентом клиента.

Что делать, если у вас нет доступа к системе управления контентом клиента в начале кампании по поисковой оптимизации?

Вам просто нужно запросить эту информацию у клиента.

Search engine optimization campaigns require CMS access Некоторые клиенты будут с подозрением относиться к предоставлению такого доступа. В этом случае вам понадобится четкая и честная беседа с клиентом. Напомните им, как они доверили вам эту кампанию по поисковой оптимизации. Конечно, они также могут доверить вам доступ к своей системе управления контентом.

Если они откажутся, вам нужно будет работать с их веб-разработчиком, если он у них есть. Внесите все необходимые изменения для сайта клиента, чтобы он соответствовал текущим спецификациям поисковой оптимизации.

Если у них нет веб-разработчика, то предоставьте клиенту необходимые доработки и запросы. Убедитесь, что они реализованы правильно.

Запланируйте встречу сегодня, чтобы обсудить, как SEO с белой маркировкой может развить ваш бизнес

Почему важно иметь доступ к файловому серверу веб-сайта вашего клиента?

Это очень важно, особенно если в штате клиента нет веб-разработчика.

Файловый сервер веб-сайта имеет два важных элемента, необходимых для проведения успешной кампании по поисковой оптимизации. Это файлы веб-сайтов .htaccess и файл robots.txt.

Файл .htaccess

Файл .htaccess — это место, где мы контролируем перенаправления 3XX сайта, которые имеют решающее значение для предотвращения кодов ответа «Файл 4XX не найден». Они создают всевозможные проблемы с попытками ранжировать сайт клиента на страницах результатов поисковой системы Google (и других поисковых систем). Google понижает результаты ранжирования для сайтов с кодами ответов 4xx. Если ваш сайт генерирует коды ответов 4xx, а ваши конкуренты — нет, то у них больше шансов опередить ваш сайт на страницах результатов поисковой системы Google.

Файл robots.txt

Файл robots.txt также имеет решающее значение. Много раз мы сталкиваемся с новыми клиентскими сайтами, которые были перестроены или являются новыми, и у них возникают проблемы с результатами рейтинга. Много раз у нас были существующие клиенты, которые хотели бы обновить внешний вид своего сайта, его функции и структуру навигации. В обоих случаях их веб-разработчики могут использовать директиву запрета сканирования роботов, чтобы запретить поисковым системам сканировать и индексировать их новый или обновленный сайт, пока он находится в стадии разработки.

A robots.txt file lists the pages on a site Во многих случаях, когда новые или обновленные веб-сайты запускаются, директива disallow не удаляется из файла robots.txt, что блокирует сканирование и индексирование этих сайтов поисковыми системами.

Существующие клиентские сайты с отличными результатами ранжирования, трафиком посетителей и конверсиями начинают терпеть неудачу, потому что они были запущены без удаления директивы disallow. Новые клиенты с новыми или обновленными веб-сайтами, у которых плохие результаты ранжирования, трафик посетителей и конверсии, сталкиваются с тем же результатом.

Файл robots.txt является одним из первых элементов, которые я проверяю при работе с новым клиентом, у которого неудовлетворительные результаты ранжирования, посещаемость и конверсии. Я делаю то же самое с существующими клиентами после обновления, даже до того, как они начнут испытывать падение рейтинга, снижение посещаемости и потерю конверсии.

Вам понадобится доступ к файловому веб-серверу вашего клиента, чтобы внести эти изменения, или клиенту потребуется иметь в штате веб-разработчика.

Вы должны поставить этот обзор файла robots.txt вашего клиента на первое место в своем списке. По какой-то причине я сталкивался со случайными актами реализации запрета сканирования во время моих проектов по управлению кампаниями в поисковых системах.

Это лишь некоторые из технических проблем, с которыми вы можете столкнуться во время кампании по поисковой оптимизации.