进行 SEO 内容审核:您可能会忽略的 6 件事

进行 SEO 内容审核的过程可以采取多种形式。它可以是对网站顶级自然登陆页面的解释性审查。或者它可以采用记录整个站点 URL 的数据驱动清单的形式。

有很多方法可以通过 SEO 镜头评估内容。但总体目标通常是统一的——查明破坏性瓶颈并发现可以有效提高搜索(和品牌)知名度的新机会。

什么是 SEO 内容审计?重点是什么?

一般而言,SEO 内容审核是可索引内容的可操作清单,其组织方式可以更好地确定要合并(或删除!)的内容、改进的内容以及保持原样的内容。

在许多情况下,特定意图被设置为查找重复内容、蚕食问题、索引膨胀或神秘问题——如持续布局变化或 JavaScript SEO 问题。在其他情况下,它可以是识别未开发的想法和新主题以帮助增加网站的在线足迹的更广泛的练习。

执行 SEO 内容审核的艺术是左右脑之间的平衡。根据项目的不同,该过程涉及视角、工具和程序的组合,以有条不紊地在影响 SEO 的许多层面上剥洋葱。

采用定期内容审核(尤其是对于大型网站)的根本目的是调查可能“减缓其 SEO 滚动”的问题。事实是,您可能正在制作最具吸引力和价值的内容,但如果技术中断阻碍它,它可能很难排名。这就是这篇文章的大部分内容旨在概述的内容。

或者,对搜索趋势、预测、关键字数据和竞争对手策略的外部分析可以激发新的机会,以进一步发展和差异化。虽然不直接关注网站本身,但这些站外洞察力对 SEO 内容创建非常有用。


我应该在内容审核中寻找什么?

不乏有关如何在考虑 SEO 的情况下执行内容审核的分步操作指南。毫无疑问,它们对于初学者来说是有用的资源,尤其是学习基础知识,例如抓取报告中包含哪些指标、如何组织电子表格以及如何识别重复或冗余内容。

许多很棒的帖子都教授了这些系统的基础知识以及在执行内容审核时应该寻找的内容。但大多数此类指南都忽略了高级技术 SEO 问题和高级战略观点。

考虑到这一点,这篇文章旨在通过突出显示在 SEO 审核网站内容时经常被忽视的特定问题来拓宽您的视野。

因此,让我们深入了解好东西!


1. 确保内容被完全访问和呈现(你好,JavaScript SEO)

随着 Web 内容从静态 HTML 页面演变为交互式图形、视频和更动态的形式,支持此类元素的编程语言也在不断发展。其中最强大和流行的语言是 JavaScript。

JavaScript 可以支持多种形式的内容,从可折叠的手风琴和产品滑块到动画和动态导航,仅举几例。虽然 JavaScript 在提供丰富且引人入胜的内容方面提供了巨大的多功能性,但它也给 SEO 带来了相当多的限制和挑战。

与像 Googlebot 这样的搜索引擎抓取工具可以轻松抓取和索引的简单网络内容不同,更高级的 JavaScript 驱动内容的问题在于处理起来可能很困难,并且可能会占用大量时间/资源,尤其是当网站依赖于客户端时在浏览器中渲染与服务器端渲染或预渲染。

问题是 Googlebot并不总是会承担处理 JavaScript 内容的重任。因此,主动审核 JavaScript 错误和可访问性问题以确保您网站的内容得到完整呈现和索引非常重要。

有几个潜在的问题值得研究,以确保 JavaScript 网站保留并最大限度地发挥其内容的 SEO 潜力。由于其SEO Spider 软件的突破性进步,Screaming Frog 现在可以轻松抓取 JavaScript 呈现的内容并审核这些潜在问题。

搜索引擎可以发现您页面上的所有内容吗?

最常见的 JavaScript 问题之一是搜索引擎机器人无法识别和抓取您页面上的关键内容。这可能是由于一般的编码错误或因为内容不易用于呈现和索引。

要审核这一点,重要的是能够在执行 JavaScript 后查看呈现的 DOM 以查明与原始响应 HTML 的差异。本质上,我们正在评估原始 HTML 与呈现的 HTML 之间的差异 – 以及页面上的可见内容。

虽然有几种方法可以做到这一点,但 SEO Spider 可以让您在使用 JavaScript 时查看原始 HTML 和呈现的 HTML,从而简化比较过程。

在该工具中,您可以通过单击“配置”>“蜘蛛”>“提取”并选择适当的选项来设置“存储 HTML”和“存储呈现的 HTML”。

在查看源窗格中,这将并排显示原始源 HTML 和呈现的 HTML,允许您比较差异并评估关键内容和链接是否在呈现的 DOM 中实际被解释。在原始 HTML 窗口上方显示差异的复选框使此比较过程更加高效。

此功能非常有用,不仅适用于 SEO 内容审核,还适用于许多调试场景。SEO Spider 工具的优点在于,您还可以选择独立存储和抓取 JavaScript 文件。激活此过滤器后,您可以将“HTML”过滤器切换为“可见内容”,以准确识别哪些文本内容仅在呈现的 HTML 中。

网站上是否存在 URL 可访问性问题?

另一个常见的 JavaScript 相关问题——通常更直接、更容易排除故障——是在您网站的 URL 中找到的。

默认情况下,许多 JavaScript 框架不会生成可以单独访问的唯一 URL,对于单页应用程序 (SPA) 和某些 Web 应用程序尤其如此。相反,页面内容会为用户动态更改,而 URL 保持完全相同。

可以想象,当搜索引擎无法访问站点上的所有 URL 时,就会为 SEO 带来很多问题。要检查您的 URL 是否可用且可编入索引,请使用 Screaming Frog 来抓取站点,并组装一个包含 URL 和相关数据的仪表板。

这个简单的过程会让您知道哪些 URL 实际上可编入索引,哪些不可编入索引,以及为什么会这样。

如果您的站点上有某些应该编入索引但没有被找到的 URL,则需要解决一些问题。需要考虑的一些最常见的问题是页面:

  • 有阻塞的资源
  • 包含 noindex
  • 包含 nofollow
  • 包含不同的规范链接
  • 在页面级别而不是在服务器请求处理重定向
  • 使用片段 URL(或哈希 URL)

SEO Spider 的 JavaScript 选项卡配备了 15 个不同的过滤器,可以突出显示常见的 JavaScript 问题,从而更容易找到阻碍 SEO 性能的破坏性可访问性问题。


2. 审核核心 Web Vitals 并优化页面速度

虽然在进行内容审核时最常使用 SEO 和用户行为指标,但您可以通过将 Core Web Vitals 纳入其中来发挥潜在作用。

虽然一个快速的网站不会弥补不能满足真实用户需求的低质量内容,但优化页面速度可以成为一个差异化因素,帮助您在 SEO 的“竞争竞争”中领先。

简而言之,这些指标旨在衡量页面速度和用户体验变量。主要的三个核心 Web 要素包括:

  • 最大内容绘制 (LCP) – 衡量页面上的主要内容对用户可见所需的时间。Google 建议 LCP 少于 2.5 秒。
  • 首次输入延迟 (FID) – 测量用户可以与页面交互(例如单击链接或与 JavaScript 元素交互)时页面的响应时间。Google 建议 FID 为 100 毫秒或更短。
  • 累积布局偏移 (CLS) – 衡量重新定位页面主要布局的布局偏移数量,这最终会影响用户与内容互动的能力。Google 建议的 CLS 分数为 0.1 或更低。

自从 Google 在其搜索算法中添加了 Core Web Vitals 以来,人们越来越清楚地知道改进 LCP、FID 和 CLS 可以对页面的 SEO 潜力产生积极影响。

衡量核心网络生命值

现在可以通过几种常用工具轻松衡量 Core Web Vitals。基础工具是Chrome 用户体验报告,它收集真实的用户数据并通过 PageSpeed Insights 和 Google Search Console 等工具共享。

  • 在Google Search Console 中,Core Web Vitals 功能利用从 Chrome 用户体验报告中收集的数据来揭示整个网站的任何问题。
  • PageSpeed Insights可用作独立的审核工具,可分析您网页的性能,并就如何在移动和桌面浏览器上进行改进提出建议。字段数据是指从 Chrome 用户体验报告中提取的实际用户数据。
  • 在Chrome网上应用生命体征扩展是看核心Web生命体征,一边浏览网页或进行更改到您的网站的便捷方式。这个扩展不仅非常适合内部审计,而且在衡量竞争对手方面也非常有用。

这些工具中的每一个都使您能够有效地衡量站点的 LCP、FID 和 CLS,进而可以带来可操作的改进。Google 还在Web.Dev 上分享了一系列工具和工作流注意事项,以衡量和改进 Core Web Vitals 。


3.审计索引膨胀和关键字冗余,并谨慎修剪

应将包含低质量内容、重复内容、蚕食内容或无内容页面的页面排除在搜索结果之外。这些低价值页面会导致浪费的抓取预算、关键字稀释和索引膨胀。因此,审计索引膨胀是一种强大的练习,旨在纠正这个问题。

什么导致索引膨胀?

简单来说,索引膨胀是指一个站点有太多的 URL 被索引——可能不应该被索引。当搜索引擎发现并索引大量 URL 时,就会发生这种情况 – 超过站点地图中所需或指定的 URL。对于非常大的网站,例如具有数千个页面的电子商务商店,这是一种特别常见的情况。

大多数情况下,索引膨胀是一个不祥的事件,源于:

  • 动态生成的 URL(由过滤器、搜索结果、分页、跟踪参数、分类或标记等功能创建的独特且可索引的页面)
  • 用户生成的内容 (UGC)
  • 编码错误(例如,站点页脚中的 URL 路径损坏)
  • 子域(您不注意的域上的精简或非搜索值页面。

孤立页面也是值得研究的索引膨胀的常见来源。这些是存在但未通过爬网链接到站点上的页面。这并不一定意味着它们是低质量的页面,而是它们不容易访问并且没有指向它们的内部链接。

SEO Spider 可以轻松识别孤立页面并将其作为全面 SEO 内容审核的一部分进行审核。虽然其中一些 URL 可能值得保留和恢复(构建内部链接),但在许多情况下,它们可能会增加膨胀,应该修剪。

最后,当一个站点有太多页面涉及相同的主题或关键字主题时,就会出现更错误的故意形式的索引膨胀(例如,针对相同关键字发布博客文章的经典 SEO 错误)。这种内容重叠和关键字冗余通过混淆搜索引擎来确定优先排序的 URL 来稀释 SEO。

如何识别索引膨胀

我们喜欢使用几种不同的技术来识别所有形式的索引膨胀。对于显示显着膨胀迹象的深层网站,我们建议结合使用下面提到的第一种技术,因为这些做法更加全面和彻底。

进行同类化分析

如果您有多个页面旨在为同一个关键字排名(有意或无意),您可能会遇到蚕食问题。蚕食问题本质上并不是坏事。例如,如果您能够在同一关键字的位置 1 和 2 或 2 和 3 中排名,那就是一个很好的结果。

但在许多情况下,您的内容最终会与自己竞争,突然之间您在第 3 页和第 5 页上排名,几乎没有有机可见性。

提取有关潜在蚕食问题、可能有问题的身份的数据,并制定计划:

  • 更新一个页面的内容(和内部锚链接),使其不再竞争
  • 停用并重定向性能较低的页面。
  • 将页面合并为一个页面,利用两者中的最佳内容更好、更全面地涵盖主题。使用性能更好的 URL(如果可能),并将另一个重定向到新页面。

在 Google Search Console 中比较索引覆盖率和站点地图

首先,准确确定您在 Google Search Console 中调查的属性。这可能涉及审核域的 HTTPS 与 HTTP 属性,包括任何其他子域变体。或者,从一个域属性中提取数据并访问所有关联子域的 URL 通常更容易。

这种区别很重要,尤其是对于使用子域的站点。SEO 经常忽略子域引起的索引膨胀,纯粹是因为它与他们关注的“主”站点不同。眼不见心不烦,结果可能会在桌面上留下大量膨胀。

无论您是交叉审核不同的属性还是使用一个域属性(首选方法),下一步都是使您的 XML 站点地图正确。这应该取决于站点地图页面,该页面包含指向您最重视并寻求索引的页面的链接。但是对于 XML 站点地图,情况并非总是如此。

有时,粗略地浏览一下 XML 站点地图,就会发现索引膨胀的明显迹象,例如不需要的标签页和分页 URL。对于以杂乱无章的方式自动生成 XML 站点地图的平台上的站点,情况尤其如此。最终,您不想向 Google Search Console 提交臃肿的 XML 站点地图。

Google Search Console 本身提供了有用的工具来帮助您识别和清理索引膨胀。在“索引”选项下,您可以使用“覆盖范围”功能查看 Google 已编入索引的“所有已知页面”。

虽然此工具通常用于在默认情况下查明具有错误和警告状态的页面(例如已提交的页面损坏),但您可以查看 Google 选择为可编入索引的所有有效页面。

该报告的真实见解位于详细信息下方的图表下方,特别是在“已编入索引,未在站点地图中提交的有效页面”下。” 这些 URL 未在站点地图中指定,但仍被 Google 发现并编入索引,因此对于潜在的索引膨胀问题,它们值得审计。

在 Google Search Console 中使用这些报告工具对于此审核过程非常方便,但它们确实存在局限性。例如,报告中的 URL 列表基于上次抓取,这可能不是最新的。此外,该报告最多只能包含 1,000 个 URL,因此单独使用这种方法可能不足以处理非常庞大的网站。

使用 SEO Spider 运行抓取报告

审核索引膨胀的另一种更全面的方法是使用 SEO Spider 以及来自 Google Analytics 和 Search Console 的 API 数据(“配置 > API 访问”)运行抓取报告。这将使您能够查看这些工具中可能无法通过爬网访问的 URL,以及它们是否可编入索引。

运行爬网后,将内部 HTML 报告导出到电子表格中,并将所有不可索引的 URL 提取到单独的工作表中。这为您提供了可以发现和索引的所有页面的整体视图。

接下来,通过抓取和/或组织 XML 站点地图中列出的所有 URL,您可以比较这两个列表,以过滤和确定任何不应被发现或编入索引的异常值,否则会增加站点的膨胀。这种稍微更手动的方法在识别应删除、重定向或使用 noindex、nofollow 或规范标签归因的 URL 方面非常有效。

这种方法与使用域属性作为 Google Search Console 属性相结合,可以全面了解可能阻碍网站 SEO 性能的所有潜在索引膨胀。

利用抓取分析过滤相关 URL 数据

Screaming Frog 通过其抓取分析功能简化了此过程,该功能使您能够利用某些对审核过程非常宝贵的抓取后过滤器。当与 Google Analytics 或 Google Search Console API 集成时,Crawl Analysis 在将站点的抓取数据与这些平台上的 URL 进行匹配时提供重要的见解,尤其是“已编入索引,未在站点地图中提交”报告。

在爬行结束时(或当爬行暂停时),单击进入爬行分析 > 配置以激活某些感兴趣的数据点。在这种情况下,站点地图和内容在解决索引膨胀问题时最有用,但是,在进行 SEO 内容审核时,所有这些选项都有其优点。

一旦选择了所需的数据点,您将需要开始实际的爬网分析来为这些过滤器收集数据。您还可以勾选“抓取结束时自动分析”复选框以自动完成此操作。

完成爬网分析后,您正在寻找的有洞察力的数据将可用,并可从右侧的“概览”窗口窗格中过滤。在站点地图下拉菜单中,您可以过滤以查看以下数据:

  • 站点地图中的 URL
  • 不在站点地图中的 URL(对于审核不需要的索引膨胀最有用)
  • 站点地图中不可编入索引的 URL
  • 孤立页面

除了这些数据点之外,“内容过滤”选项还可以帮助您找到值得查看的重复内容或接近重复的关键字冗余/稀释。SEO Spider 的配置使您能够设置重复相似性阈值的百分比,这是一种旨在查明页面文本中的相似性的算法。

默认情况下,阈值百分比设置为 90%,这是高度敏感的。对于大型网站,这可能是需要大量审计的高百分比。或者,您可以调整到较低的相似性阈值,以帮助排序和查找可能更具膨胀性和 SEO 破坏性的重复项。

总之,SEO Spider 中提供的这些功能可以全面了解哪些 URL 应该和不应该编入索引。该视频很好地概述了您可以利用的爬网分析功能。

修剪索引膨胀和有问题的 URL

一旦确定了哪些 URL 属于索引膨胀类别,或者本质上显得冗余和/或重复,下一步就是修剪它们。拥有一个包含相关指标、注释和操作项的有组织的电子表格是非常有帮助的。

在一次从索引中删除所有这些 URL 之前,务必仔细评估这些 URL 以及如何最好地处理应如何修剪它们。例如,某些 URL 可能会获得自然流量或反向链接。完全删除它们(而不是 301 重定向它们)可能会导致丢失所有原本可以保留并分配给其他页面的 SEO 值。

以下是评估 URL 价值的几种方法,它们可以帮助您确定应如何修剪它们。

  • 查看Google Analytics 中的自然指标,例如自然搜索流量、转化次数、用户行为和参与度,以更好地衡量 URL 的 SEO 价值。
  • 还要查看所有用户细分指标,这样您就不会意外删除推动业务价值的内容。更多关于这在下面。
  • Google Search Console 中,使用 Performance > Search Results 查看特定页面在不同查询中的表现。靠近顶部的是过滤器选项(搜索类型:网络和日期:过去 3 个月将默认激活;我们更喜欢一次查看至少 12 个月的数据以考虑季节性因素)。添加页面过滤器以显示感兴趣的特定 URL 的搜索性能。除了来自搜索的展示次数和点击次数之外,您还可以点击每个 URL 以查看它们是否对任何特定查询进行排名。
  • 使用SEO Spider Crawl Analysis 中的链接分数指标(值范围为 1-100)。链接分数非常低的 URL通常表示可能通过重定向或 noindex/removal 修剪的低价值页面。
  • Ahrefs等其他工具可以帮助确定 URL 是否有任何反向链接指向它。您还可以利用某些指标来指示页面的自然执行情况,例如自然关键字和(估计的)自然流量。

在此评估过程中拥有一些 SEO 经验和敏锐的眼光有助于有效识别确实包含一定程度价值的 URL 以及其他纯粹膨胀的 URL。在任何情况下,采取措施修剪并谨慎修剪,有助于搜索引擎消除混乱并优先考虑您想要推动 SEO 策略的真实内容,

根据上面进行的评估,实际的修剪过程很可能涉及这些方法的组合。例如,与仅具有稀疏或重复内容的页面相比,具有稀疏或重复内容但具有一些高质量的页面将被不同地修剪(例如 301 重定向)。

  • 删除和重定向——在大多数情况下,您想要从索引中删除的 URL 可以被删除并重定向到您希望为 SEO 优先考虑的下一个最相关的 URL。这是我们修剪索引膨胀的首选方法,可以通过适当的 301 重定向适当分配历史 SEO 值。

如果战略业务原因优先(并且删除和重定向不是一种选择),下一个最佳选择包括:

  • 元机器人标签– 根据页面的性质,您可以使用元机器人标签将 URL 设置为“noindex,nofollow”或“noindex,follow”。
    • “Noindex,nofollow”可防止搜索引擎索引以及跟踪页面上的任何内部链接(通常用于您希望完全保密的页面,如赞助页面、PPC 登录页面或广告)。如果愿意,也欢迎您使用“Noindex,follow”,但请记住,此follow最终将被视为nofollow。
  • 通过 Robots.txt 禁止– 如果涉及大量需要从抓取中完全省略的页面(例如完整的 URL 路径,如所有标记页面),通过 Robots.txt 文件的“禁止”功能是您修剪工具包中的大砍刀. 使用 robots.txt 可以防止爬行,这对于大型网站在保留爬行预算方面非常有用。但首先解决索引问题至关重要(通过删除 Search Console 中的 URL、元机器人 noindex 标签和其他修剪方法)。
  • 规范化——不推荐作为解决索引膨胀的最终解决方案,规范标签是一个方便的工具,它告诉搜索引擎你希望优先索引的目标 URL。规范标签对于确保对本质上相似或重复的页面(例如为业务、用户体验或其他目的所必需的联合内容或冗余页面)进行正确索引尤其重要。

简而言之,这些是基本的修剪选项。在对删除/重定向/阻止 URL 进行重大更改之前,请务必进行性能基准测试,以便在修剪索引膨胀后您可以清楚地看到影响。


4. 确定(并改进)失去用户的页面

一个好的审计师的心态是将绩效缺陷和弱点视为改进的空间。识别用户退出站点(未转换)的页面是优先考虑此类机会的好地方。

精确定位具有高退出率的页面并不等同于具有高跳出率的页面,但是许多相同的改进可以适用于两者。与与入口页面(用户从他们进入的第一个页面离开网站)特别相关的跳出率不同,退出率表示用户在访问网站上的任意数量页面后退出页面的频率。退出率按百分比计算(退出数/浏览量)。

查明退出率高的页面

在 Google Analytics 中,您可以通过导航到行为 > 站点内容来查看退出率高的页面。在所有页面下,有一个退出百分比列,显示网站所有页面的退出率指标,以及其他一般性能指标。您可以通过“行为”>“站点内容”>“退出页面”进行更深入的研究,该页面按最高退出量和每个页面的相关退出率对页面进行排序。

Google Analytics 中的退出页面报告是评估用户流失最多的 URL 的好地方。请记住,最好将此报告的日期范围设置为包含大量数据样本,例如过去 6-12 个月。

根据站点的大小,您可能希望导出的数据不仅仅包括报告中默认显示的前十个 URL。例如,可能有几个重要页面的退出量并不高,但仍然具有非常高的退出率,值得进行故障排除。

如何改善退出页面并减少丢失

查找退出率高的页面是一回事。实施更改以减少下降是另一回事。虽然有些问题可能很明显(页面加载缓慢、链接断开、媒体未呈现等),但决定在哪里以及如何改进内容和用户体验需要一些调查。

以下是一系列提示,可帮助您降低退出率、提高参与度和提高转化率:

  • 增强用户体验和内容可读性– 通过保持条理和易于导航来确保您的内容易于消化。避免冗长的段落、复杂的句子和措辞。尽可能用目录、副标题、列表、表格、图像和视觉媒体来构建页面。
  • 加速缓慢加载页面——缓慢的页面加载时间是导致高退出率的主要因素。事实上,如果加载时间超过 3 秒,超过 50% 的用户会放弃网站。通过改进 Core Web Vitals、利用 Accelerated Mobile Pages、优化图像、缩小代码等来优先考虑页面速度。
  • 测试跨浏览器兼容性– 确保在所有 Web 浏览器上进行适当的测试至关重要,尤其是当大多数用户使用移动设备时,以确保内容正确呈现而不会出现任何技术问题。存在内容格式问题的页面可能会导致立即下架。
  • 使用 CTA 推动下一步——用户流失的最大原因之一是未能在转化漏斗中包含号召性用语以调用下一步。使用图形、按钮和其他明显的元素来吸引用户的注意力并迫使他们采取您希望他们采取的行动。
  • 改进内部链接——与 CTA 类似,页面副本应包括指向网站其他有用和相关页面的内部链接。这不仅是 SEO 最佳实践,而且在逻辑上将用户引导到他们可能感兴趣的相关内容,在帮助转换的同时让他们在网站上停留更长时间。
  • 包括相关帖子/内容——在副本段落之间或页面末尾,另一个最小化存在的最佳做法是包含相关内容的链接,例如博客文章、资源和用户可能感兴趣的其他页面. 这些通常在带有缩略图的内容中自然放置并跨越页面宽度时效果最佳。
  • 避免侵入性弹出窗口和太多广告– 充满侵入性弹出窗口和/或太多横幅广告的页面因退出率高而臭名昭著。高雅地实施弹出窗口和广告可以起到很好的作用,但在许多情况下,如果做得过头,它们可能会导致令人沮丧的用户体验。

对于更深入的调查,使用会话记录、热图和现场调查等工具收集额外的用户行为数据和反馈会很有帮助。虽然这些努力可能需要更多的劳动力和资源,但它们通常可以产生有价值的改进见解。


5. 利用竞争对手和关键字数据启发的内容差距

任何 SEO 内容审计的一个基本步骤是进行内容差距分析,以确定未开发的主题和内容的新想法。通过分析密切的竞争对手并确定他们发布的内容类型(您不是),可以找到一些最佳见解。

我们发现通过优秀的老式关键字分析和研究来支持竞争性内容审核很有用。数据验证了新想法的 SEO 潜力并有助于指导策略。总之,这些方法可以帮助您发现和利用内容差距作为新的增长机会。

在竞争对手的 SEO 内容策略上剥洋葱

虽然像亚马逊、eBay 和维基百科这样的大型网站可能是排名靠前的 SEO 竞争对手,但他们可能不会为这项工作提供太多洞察力。相反,针对集中在您的利基市场的密切相关的竞争对手。

您可以通过手动审核竞争对手的网站来了解他们所涵盖的主题以及他们使用的策略,从而获得大量洞察力。还值得深入竞争对手的内容,看看他们投入的努力和质量以及他们如何定位自己。

虽然您的分析眼光是最好的工具之一,但用有形数据支持您的发现至关重要。使用 SEMrush、Ahrefs、SpyFu 和 Sistrix 等工具进行内容差距分析非常有助于拉开值得探索的宝贵差距的帷幕。

其中一些 SEO 工具特别方便的是,它们允许您查看竞争对手的顶级自然内容、其排名的关键字以及其他有趣的指标。

正如您可以想象的那样,以多种方式进入兔子洞很容易。您不仅可以将自己沉浸在竞争对手内容库中——从博客和资源到站点层次结构的核心页面——而且您可以偏离正轨,探索您可能从未考虑过的新关键字主题。

界定竞争对手是在现有 SEO 策略中找到差距的最佳方法之一。这种方法还有助于在进行关键字刷新或提取数据以支持想法时激发新的方向。

当然,使用 Ahrefs 和 Semrush 等 SEO 工具有助于剥洋葱,因为在执行任何类型的SEO 竞争对手分析时,这些工具都提供了无与伦比的功能。但是,即使是通过 Google Keyword Planner 进行的手动审核与粗略的关键字研究相结合,也足以指导您未来的SEO 路线图策略。


6. 考虑非 SEO 细分和整体转化价值

在收集数据以支持您的审计和修剪过程时,通常的最佳做法是跨不同用户群提取和评估用户数据,尤其是在使用与 Google Analytics 的 API 集成的 SEO Spider 工具时。

在提取这些数据时,只优先考虑自然用户细分数据是一个自然的错误。但事实是,只关注自然用户可能意味着您忽略了来自其他渠道/细分市场的重要数据。忽视和注销非 SEO 细分市场的所有价值是一个巨大的失误。这些页面不仅会被错误地修剪和浪费地退出,而且在大多数情况下,这些页面上的内容会被忽视和未被利用。

作为更全面的替代方案,将所有用户用作单独的细分,并应用 VLOOKUP 从两个细分中获取重要指标,例如会话、用户行为和转化。将不仅仅是有机细分交叉引用到单个仪表板中,可以通过打折可能比预期价值更高的内容(特别是如果某些页面确实有内容、链接和会话)来帮助您避免错失机会。

为您的武器库配备更深入的数据和支持有助于引导故事和对话,尤其是与对修剪内容的想法感到震惊的客户或高级团队成员之间。能够清楚地说明一个页面几乎没有价值——对于任何营销渠道!– 例如,在长达一年的时间里,可以帮助减轻他们的担忧并提前解决问题。

仪表板您的数据并采取行动进行审计

正如任何良好的审计所要求的那样,我们建议将您的发现组合到仪表板(或主电子表格)中——不仅用于收集数据,而且鼓励在定义可操作的后续步骤时采用更具协作性的动手方法。

除了记录指标之外,对目标页面进行更多的人工审查也很有价值,这通常由博客编辑、文案撰稿人或内容策略师(或那些更密切参与内容开发的人)提供便利。可以将列添加到仪表板以注释特定的问题和机会,例如:

  • 旧/过时的内容– 如果页面正在执行 SEO,那么接下来可以采取哪些步骤来更新内容
  • 品牌外语气——同样,如果有 SEO 价值,则重新构建内容或删除并重定向到更好的页面。
  • 错误的语气或目标受众– 如果不是完全低价值或明显的索引膨胀,则更新内容以更好地调整声音和上下文。

即使内容提供了 SEO 价值,也可以修剪或“淘汰”内容——如果这对整个企业来说是正确的举措。此分析将帮助您确定 SEO 的相对价值,从而确定如何适当修剪或重新构建该内容的正确下一步。

仪表板对于帮助设置优先级和保持团队之间的直接沟通至关重要。其他有助于分析性能的可过滤数据点包括:

  • 作者– 如果您有一个多作者博客,则与其他作者相比,某些作者可能会产生更好的平均结果。
  • 内容类别——哪些类别表现出色或表现不佳,为什么?有没有办法让生活进入优先类别?
  • 业务一致性– 是否应该强调/优先考虑某些内容以支持产品功能?
  • 客户漏斗阶段——概述单个页面的目标漏斗阶段(例如,博客可能针对意识或考虑阶段,或针对现有客户的宣传);然后在每个阶段指定不同的目标以沿着漏斗移动它们,和/或找出您在特定阶段未能满足客户需求的差距(例如,没有足够的页面针对特定阶段。)
  • 其他注释和操作项——其他特定注释、编辑或一般增强可以提供改进或讨论的主观视图。

关键是要大规模收集洞察力,并对每个数据点背后的“原因”提出假设,同时注意可以进行的可操作改进。这可能包括改进权威性较低的作者的内容,或更新内容以更好地适应可以利用的模式和趋势。

这些见解可以包括更具分析性和主观性的审查,对于出色的内容审核更新策略非常宝贵。它不仅为组合带来了可操作的创造力,而且协作仪表板可以帮助客户更多地参与审计过程,通常让他们在保留、保留和改进方面有更多发言权(这通常会使整个项目更容易) .

给TA打赏
共{{data.count}}人
人已打赏
SEO交流

关于标题标签的 6 个重要见解(研究了 953,276 页)

2021-11-17 16:11:51

SEO交流

实验、系统化、差异化:内容策略成熟度模型

2021-11-17 16:45:45

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索