Технические проблемы управления кампанией по поисковой оптимизации
Опубликовано: 2020-12-22Последнее обновление: 31 августа 2021 г.
Те, кто некоторое время работал в индустрии поисковой оптимизации, знают, что нет двух одинаковых кампаний по поисковой оптимизации.
Часто мы сталкиваемся с техническими проблемами, которые негативно сказываются на результатах поисковой оптимизации . Часто их исправление находится вне нашего контроля.
Технические проблемы выходят далеко за рамки стандартных операционных процедур поисковой оптимизации и требуют участия в веб-разработке.
Ниже приведены некоторые проблемы, с которыми мы сталкиваемся при управлении кампанией по поисковой оптимизации.
- Нет веб-разработчика
- Системы управления контентом, не дружественные к поисковым системам
- Нет доступа к системе управления контентом клиента
- Нет доступа к файловому серверу сайта клиента
Что делать, если нет веб-разработчика для кампании по поисковой оптимизации?
В этом случае есть только два ответа. Вам потребуется получить доступ как к файловому серверу веб-сайта, так и к системе администрирования управления контентом. Вариант «Б» — клиенту нужно будет нанять веб-разработчика. Он или она должны внести необходимые изменения, чтобы привести сайт в соответствие с требованиями спецификации поисковой оптимизации.
Этот процесс играет важную роль в успехе SEO и должен быть очевиден, но невероятно, что иногда его упускают из виду. Развертывание эффективного контента и структуры, улучшающих кампанию по поисковой оптимизации, в значительной степени зависит от веб-дизайна и разработки , преследующих одну и ту же цель.
Что делать, если система управления контентом не подходит для поисковых систем?
Чтобы правильно выполнить поисковую оптимизацию, вам потребуется следующее, но не ограничиваясь этим:
- Возможность генерировать уникальные заголовки страниц области <head> отдельно от тега <h1> содержимого.
- Возможность генерировать метаописания области <head>
- Возможность генерировать URL-адреса, удобные для поисковых систем, отдельно от тега <h1> контента.
- Возможность добавлять замещающий текст и текст заголовка к изображениям вашего сайта отдельно от тега <h1> контента или заголовков страницы области <head>.
Многие системы администрирования управления контентом просто не предлагают базовые услуги по поисковой оптимизации, и настоятельно рекомендуется иметь услуги SEO с белой этикеткой. Столкнувшись с этими проблемами, вам потребуется перекодировать систему администрирования управления контентом. Имея доступ к системе администрирования управления контентом, вы можете узнать, как внести необходимые изменения и завершить их.
Google понижает результаты ранжирования для сайтов с кодами ответов 4xx. Нажмите, чтобы твитнутьОднако у вас может не быть доступа к системе администрирования управления контентом. Если у клиента есть в штате веб-разработчик, вы можете поручить ему. Посоветуйте им, что вам нужно сделать, чтобы выполнить поисковую оптимизацию для веб-сайта клиента. Если у клиента нет в штате веб-разработчика, ему необходимо его нанять. Было бы лучше, если бы они хорошо разбирались в системе администрирования управления контентом клиента.
Что делать, если у вас нет доступа к системе управления контентом клиента в начале кампании по поисковой оптимизации?
Вам просто нужно запросить эту информацию у клиента.
Некоторые клиенты будут с подозрением относиться к предоставлению такого доступа. В этом случае вам понадобится четкая и честная беседа с клиентом. Напомните им, как они доверили вам эту кампанию по поисковой оптимизации. Конечно, они также могут доверить вам доступ к своей системе управления контентом.
Если они откажутся, вам нужно будет работать с их веб-разработчиком, если он у них есть. Внесите все необходимые изменения для сайта клиента, чтобы он соответствовал текущим спецификациям поисковой оптимизации.
Если у них нет веб-разработчика, то предоставьте клиенту необходимые доработки и запросы. Убедитесь, что они реализованы правильно.
Почему важно иметь доступ к файловому серверу веб-сайта вашего клиента?
Это очень важно, особенно если в штате клиента нет веб-разработчика.
Файловый сервер веб-сайта имеет два важных элемента, необходимых для проведения успешной кампании по поисковой оптимизации. Это файлы веб-сайтов .htaccess и файл robots.txt.
Файл .htaccess
Файл .htaccess — это место, где мы контролируем перенаправления 3XX сайта, которые имеют решающее значение для предотвращения кодов ответа «Файл 4XX не найден». Они создают всевозможные проблемы с попытками ранжировать сайт клиента на страницах результатов поисковой системы Google (и других поисковых систем). Google понижает результаты ранжирования для сайтов с кодами ответов 4xx. Если ваш сайт генерирует коды ответов 4xx, а ваши конкуренты — нет, то у них больше шансов опередить ваш сайт на страницах результатов поисковой системы Google.
Файл robots.txt
Файл robots.txt также имеет решающее значение. Много раз мы сталкиваемся с новыми клиентскими сайтами, которые были перестроены или являются новыми, и у них возникают проблемы с результатами рейтинга. Много раз у нас были существующие клиенты, которые хотели бы обновить внешний вид своего сайта, его функции и структуру навигации. В обоих случаях их веб-разработчики могут использовать директиву запрета сканирования роботов, чтобы запретить поисковым системам сканировать и индексировать их новый или обновленный сайт, пока он находится в стадии разработки.
Во многих случаях, когда новые или обновленные веб-сайты запускаются, директива disallow не удаляется из файла robots.txt, что блокирует сканирование и индексирование этих сайтов поисковыми системами.
Существующие клиентские сайты с отличными результатами ранжирования, трафиком посетителей и конверсиями начинают терпеть неудачу, потому что они были запущены без удаления директивы disallow. Новые клиенты с новыми или обновленными веб-сайтами, у которых плохие результаты ранжирования, трафик посетителей и конверсии, сталкиваются с тем же результатом.
Файл robots.txt является одним из первых элементов, которые я проверяю при работе с новым клиентом, у которого неудовлетворительные результаты ранжирования, посещаемость и конверсии. Я делаю то же самое с существующими клиентами после обновления, даже до того, как они начнут испытывать падение рейтинга, снижение посещаемости и потерю конверсии.
Вам понадобится доступ к файловому веб-серверу вашего клиента, чтобы внести эти изменения, или клиенту потребуется иметь в штате веб-разработчика.
Вы должны поставить этот обзор файла robots.txt вашего клиента на первое место в своем списке. По какой-то причине я сталкивался со случайными актами реализации запрета сканирования во время моих проектов по управлению кампаниями в поисковых системах.
Это лишь некоторые из технических проблем, с которыми вы можете столкнуться во время кампании по поисковой оптимизации.