文件完成后,您可以将其导入 STAT 开始跟踪。
Posted: Sat Feb 01, 2025 5:44 am
步骤 4:在 STAT 中运行所有关键词的 Top 20 报告。
STAT 内置的Google SERP Top 20 比较报告会以不同的时间间隔(每日、每周、每月等)从每个 SERP 中提取前 20 个自然结果,以查看随时间的变化。我不需要每天的数据,所以我让它连续运行两天并删除了我不需要的数据。我每季度重新运行同一份报告以跟踪一段时间内的变化。
观看下面的视频来了解如何设置此报告!
我的 1,256 个关键词每天产生超过 25,000 行数据。每行都 巴基斯坦电报数据库 是不同的有机列表,包含关键字、每月搜索量、排名(包括本地包)、基本排名(不包括本地包)、排名 URL 的 https/http 协议、排名 URL 以及您的标签
以下是 CSV 格式的原始输出示例:
很容易看出这些数据本身有多么有用,但是当我们清理它并开始抓取排名 URL 时,它会变得更加强大。
步骤5:清理并规范化您的 STAT URLs 数据。
此时您将花费 1-2 小时收集初始数据。这一步稍微耗费一些时间,但清理数据可以让你执行更高级的分析并在 Screaming Frog 中发现更多有用的见解。
以下是我对 STAT 分类数据所做的更改,为 Screaming Frog 和 Power BI 中的下一步做准备。您最终将得到多列 URL。每个东西以后都会有自己的用途。
STAT 内置的Google SERP Top 20 比较报告会以不同的时间间隔(每日、每周、每月等)从每个 SERP 中提取前 20 个自然结果,以查看随时间的变化。我不需要每天的数据,所以我让它连续运行两天并删除了我不需要的数据。我每季度重新运行同一份报告以跟踪一段时间内的变化。
观看下面的视频来了解如何设置此报告!
我的 1,256 个关键词每天产生超过 25,000 行数据。每行都 巴基斯坦电报数据库 是不同的有机列表,包含关键字、每月搜索量、排名(包括本地包)、基本排名(不包括本地包)、排名 URL 的 https/http 协议、排名 URL 以及您的标签
以下是 CSV 格式的原始输出示例:
很容易看出这些数据本身有多么有用,但是当我们清理它并开始抓取排名 URL 时,它会变得更加强大。
步骤5:清理并规范化您的 STAT URLs 数据。
此时您将花费 1-2 小时收集初始数据。这一步稍微耗费一些时间,但清理数据可以让你执行更高级的分析并在 Screaming Frog 中发现更多有用的见解。
以下是我对 STAT 分类数据所做的更改,为 Screaming Frog 和 Power BI 中的下一步做准备。您最终将得到多列 URL。每个东西以后都会有自己的用途。