在成功的搜索引擎优化活动中寻找什么
已发表: 2018-03-20最后更新于 2018 年 7 月 30 日
在评估搜索引擎优化服务的供应商时,您应该寻找什么? 他们是否负责、彻底和精心策划? 还是他们只是把想法扔在墙上,看看会坚持什么?下面是您在寻找搜索引擎优化活动管理机构时可能考虑的基本大纲。
关键词研究
什么是关键词研究? 关键字研究是通过评估网站上出现的现有关键字/关键字词组来确定您当前网站的内容。 它还需要评估您的在线和网站外竞争对手用作关键字/关键字词组的内容。
在线和场外竞争对手? 让我解释。 在线竞争对手是 Google 搜索引擎结果页面 (SERP) 第一页上您想要的关键字空间中的竞争对手。 这些可能不是您所在行业的实际竞争对手,但他们在 SERP 的顶层中有一个您认为对您的在线形象很重要的关键字的片段。
作为全球领先的白标供应商,我们可以帮助您为客户提供出色的 SEO 结果。 我们可以帮助你吗? 查看有关我们的白标 SEO 服务的更多信息,并了解我们如何帮助您实现所需的结果。
电池是在线竞争对手的一个典型例子,这些竞争对手在您的行业中并不是真正的竞争对手。 例如,如果您是用于高性能和赛车应用的高性能 AGM(高级玻璃材料)电池的电池制造商,您可能还会发现用于无线电控制 (RC) 车辆和玩具的高性能 LiPo(锂聚合物)电池的在线竞争; 笔记本电脑的高性能电池; 在执行“高性能电池”一词的搜索查询时,还有许多其他电池供电的设备和应用程序。这些实际上是您的在线竞争对手。
您的场外竞争对手是那些被公认为您所在行业的竞争对手,但在互联网上几乎没有曝光率的人。在当今的有线世界中这似乎很难相信,但是,不管你信不信,仍然有很多公司只是没有在网上完成。您的场外竞争对手可能正在使用行业关键字词,但做得很差。
无论如何,关键字研究是确定哪些关键字/关键字词组对您的行业和您的在线营销成功很重要的第一步。这是您可能需要参与搜索引擎优化活动的原因之一。
竞争分析
关键词
带有关键字的页面标题
页面上有关键字的页面
专有/行业标准数学
提供可能排名的关键字和创建内容的大纲
提供应将哪些关键字分配给现有内容的大纲
竞争对手——他们是谁以及他们目前在 SERP 中的排名
分析实施
谷歌分析:实施/访问
Google Search Console:实施/访问
内容创作
建立内容创建时间表和时间表
确定关键词/关键词短语
报告
建立满足客户需求的报告级别
建立报告时间表:每周/双月/每月
提供成功或失败的跟踪
排名结果追踪
确定应跟踪哪些关键字
提供进度报告
客户会议
与客户建立会议时间表:每周/双月/每月
建立会议协议:电话会议/在线屏幕共享会议
每周/双周/每月会议建立问责制
客户沟通
建立首选的沟通方法:电子邮件/项目管理系统/语音/组合
搜索引擎优化战略规划
成功的搜索引擎优化战略规划包括上述所有项目以及制定良好的实施计划。
在许多情况下,您会在初始站点审核分析中发现,有一些基本的搜索引擎优化规范存在可能影响您的排名结果的问题,例如:
错误地设置了规范标签
太长/太短/缺失/重复的元描述
太长/太短/缺失/重复的元数据页面标题
缺少/太多 <h1> 标签
稀薄的内容
内部/外部链接断开
重复内容
破碎的图像
缺少 alt 属性
错位的 nofollow 属性
有问题的响应代码:404s; 302s; 5xx; ETC…
缺少语言/编码/文档类型声明
页面链接过多的页面
具有匹配 <h1> 和标题文本内容的页面
缺少规范参考
虽然这不是可能发现的站点问题的完整列表,但它确实有助于制定您的战略计划。
例如:
如果您的初始站点审核显示存在匹配 <h1> 和标题文本内容的页面,您可以在您的战略计划中确定这是您的主要初始目标之一; 删除这些匹配 <h1> 和标题内容的实例。
为了实现这一目标,您需要首先确定这些页面的适用关键字/关键字词组,因为它们是现有页面。 一旦您确定了适用于页面的关键字/关键字短语,您可以开始重写页面标题内容、<h1> 标记或两者,如果两者都不适用于页面的关键字/关键字短语。
最近,一个现有的按点击付费 (PPC) 客户使用了我们的搜索引擎优化服务。 客户是一家拥有数千页产品的在线供应商。 在初始站点审核审查期间确定的一项是重复内容。
客户在每个单独的产品页面上都有相同的 450+/- 字的相同样板内容。 这是购物车管理系统中的默认设置。
我们将重复内容的问题告知客户,然后删除了重复内容。 这对客户在 SERP 中的关键字排名结果产生了直接和积极的影响,并使我们能够深入研究搜索引擎优化实施的其他领域,而不会遇到任何负面挫折或等待积极回报。最终,您的战略大纲将是您的建立任务、资源和客户期望的指南。
危害
危害通常被描述为在新的搜索引擎优化活动开始时需要解决或至少识别的问题。 一些例子是:
缓慢加载页面
在 robots.txt 文件中阻止搜索引擎蜘蛛爬行
黑客/恶意代码
有问题的入站链接
最近,一位新客户来找我们进行搜索引擎优化活动。 对客户的新站点运行站点审核的初始尝试失败。 我们从站点审计工具中获得的唯一指标是我们的蜘蛛被阻止爬取。
我们做的第一件事是检查 robots.txt,果然,所有蜘蛛,包括 Googlebot,都被阻止抓取 robots.txt 中的网站。该阻止已被解除,我们现在开始成功用于该客户的搜索引擎优化活动。
如果您想知道在您的 robots.txt 中阻止搜索引擎是什么样子的,那么您可以这样:
用户代理: *
不允许: /
允许搜索引擎抓取您的网站的 robots.txt 文件应如下所示:
用户代理: *
不允许:
页外因素
银行链接配置文件监控/拒绝
断开的链接(入站创建 404 响应代码)
虽然有许多问题可能会影响您在搜索查询词的 SERP 中的排名结果,但您需要有一个深思熟虑的策略来实施。
随着规范的变化、算法的变化和流行/重要关键字的变化,您应该在搜索引擎优化活动期间每月重新评估这些策略。
如果您正在考虑第一次参加搜索引擎优化活动,或者正在从搜索引擎优化活动中寻求更大的成功; 在评估可能的供应商时,请参阅上述评论或致电我们的一位知识渊博的销售代表。