搜索引擎优化活动管理技术挑战

已发表: 2020-12-22

最后更新于 2021 年 8 月 31 日

SEO Campaign challenges 那些从事搜索引擎优化行业一段时间的人都知道,没有两个搜索引擎优化活动是相同的。

很多时候,我们遇到了对搜索引擎优化结果产生负面影响的技术挑战。 通常,纠正它们是我们无法控制的。

技术挑战远远超出标准搜索引擎优化操作程序,需要网络开发参与。

以下是我们在管理搜索引擎优化活动时发现的几个挑战。

  • 没有网络开发人员
  • 非搜索引擎友好的内容管理系统
  • 无法访问客户的内容管理系统
  • 无法访问客户的网站文件服务器

如果没有可用于搜索引擎优化活动的 Web 开发人员怎么办?

Web dev is instrumental to search engine optimization campaign management 在这种情况下,只有两个答案。 您将需要访问网站文件服务器和内容管理管理系统。 选项“B”是客户需要聘请网络开发人员。 他或她应该进行必要的修改,使网站符合搜索引擎优化规范要求。

该过程对SEO 成功至关重要,应该是显而易见的,但令人难以置信的是,它有时会被忽视。 增强搜索引擎优化活动的有效内容和结构的部署在很大程度上依赖于与同一目标保持一致的网页设计和开发

了解我们的白标 SEO – 安排会议

如果内容管理管理系统对搜索引擎不友好怎么办?

要正确执行搜索引擎优化,您将需要以下但不限于:

  1. 能够生成独特的 <head> 区域页面标题,而不是从内容的 <h1> 标记生成
  2. 生成 <head> 区域元描述的能力
  3. 生成独立于内容的 <h1> 标记的搜索引擎友好 URL 的能力
  4. 能够将 alt 和标题文本添加到站点图像中,与内容的 <h1> 标记或页面的 <head> 区域页面标题分开

许多内容管理管理系统根本不提供基本的搜索引擎优化服务,强烈建议使用白标 SEO 服务。 当面临这些挑战时,您将需要重新编码内容管理管理系统。 通过访问内容管理管理系统,您可以研究如何实施必要的更改并完成它们。

Google 会降低具有 4xx 响应代码的网站的排名结果。 点击推文

但是,您可能无权访问内容管理管理系统。 如果客户有一名网络开发人员,您可以指导他们。 建议他们为客户的网站执行搜索引擎优化需要做什么。 如果客户没有网络开发人员,他们将需要雇用一名。 如果他们精通客户的内容管理管理系统,那将是最好的。

如果您在搜索引擎优化活动开始时无法访问客户的内容管理系统怎么办?

您只需向客户询问此信息即可。

Search engine optimization campaigns require CMS access 一些客户会对提供此访问权限持谨慎态度。 在这种情况下,您将需要与客户进行清晰而诚实的对话。 提醒他们他们是如何通过这个搜索引擎优化活动信任你的。 当然,他们也可以信任您访问他们的内容管理系统。

如果他们拒绝,那么您将需要与他们的网络开发人员合作(如果他们有的话)。 为客户的网站实施任何必要的更改,以满足当前的搜索引擎优化规范。

如果他们没有 Web 开发人员,则向客户提供必要的修订和请求。 确保正确实施它们。

今天安排一次会议,讨论白标 SEO 如何发展您的业务

为什么访问客户的网站文件服务器很重要?

这很关键——尤其是在客户员工中没有 Web 开发人员的情况下。

网站文件服务器具有执行成功的搜索引擎优化活动所需的两个关键要素。 这些是网站 .htaccess 文件和 robots.txt 文件。

.htaccess 文件

.htaccess 文件是我们控制站点的 3XX 重定向的地方,这对于防止“4XX 文件未找到”响应代码至关重要。 尝试在 Google(和其他搜索引擎的)搜索引擎结果页面中对客户的网站进行排名时,这些会产生各种问题。 Google 会降低具有 4xx 响应代码的网站的排名结果。 如果您的网站生成 4xx 响应代码而您的竞争对手没有,那么他们更有可能在 Google 搜索引擎结果页面中超过您的网站。

robots.txt 文件

robots.txt 文件也很重要。 很多时候,我们会遇到已经重建或新建的新客户网站,并且在排名结果方面遇到了困难。 很多时候,我们的现有客户想要更新他们网站的外观、感觉和导航结构。 在这两种情况下,他们的 Web 开发人员都可以使用禁止机器人抓取指令来阻止搜索引擎在开发过程中抓取和索引他们的新站点或刷新站点。

A robots.txt file lists the pages on a site 在许多情况下,当新网站或更新后的网站上线时,disallow 指令并未从 robots.txt 文件中删除,从而阻止搜索引擎抓取这些网站并将其编入索引。

具有良好排名结果、访问者流量和转换的现有客户网站开始失败,因为它们在没有删除禁止指令的情况下上线。 拥有新网站或更新网站的新客户在排名结果、访问者流量和转换方面都面临着同样的结果。

robots.txt 文件是我在与排名结果、访问者流量和转化率均不合格的新客户合作时首先检查的元素之一。 刷新后,即使在他们开始经历排名下降、访问量下降和转换损失之前,我也会对现有客户做同样的事情。

您将需要访问客户端的 Web 文件服务器才能进行这些更改,否则客户端将需要有一名 Web 开发人员。

您必须在您的列表中保留对您客户的 robots.txt 文件的审查。 出于某种原因,在我的搜索引擎活动管理项目中,我经历了随机实施爬网禁止行为。

这些只是您在搜索引擎优化活动中可能面临的一些技术挑战。