返回博客

Google移除num=100参数. 对搜索和数据收集的影响

2025年9月,Google正式停用了num=100参数。如果你是SEO专业人士、数据分析师或喜欢一次查看所有结果的人,你可能已经感受到了对工作流程的影响。在本文中,我们将解释发生了什么变化、为什么Google可能做出这一举动、它影响了谁,最重要的是如何适应。

Kotryna Ragaišytė

12月 30日, 2025年

6 分钟阅读

什么是Google num=100参数?

num=100参数是Google官方搜索修饰符,允许用户增加每页显示的结果数量。通过将URL从google.com/search?q=coffee更改为google.com/search?q=coffee&num=100,用户可以一次查看多达100个结果,而不是默认的10个。

这是一个完全支持的功能超过十年。Google甚至在旧的搜索设置菜单中包含了它,用户可以手动将"每页结果数"设置为最多100。

这支持了以下用例:

  • SEO关键词研究和排名跟踪。分析师可以看到网站在整个前100名中的排名位置,捕获第1页之外仍然带来有意义流量的位置。
  • 竞争分析。在一页上查看所有前100个结果使发现新兴竞争对手和SERP模式变得更容易。
  • 批量数据收集和抓取。以最少的请求收集大量搜索结果URL和摘要,用于数据分析或机器学习。
  • 高级用户效率。一些高级用户将默认设置为100个结果,以避免在深入研究主题时点击多个页面。

为了可视化差异:默认情况下,你只能看到10个结果,必须导航到下一页才能查看更多。使用&num=100,你可以在第一页上滚动浏览扩展的结果列表。这意味着更少的点击和更全面的一览。

突发新闻. 不断演变的解决方法格局

在Google于2025年9月移除num=100参数后,开发人员开始测试可能的解决方法。

一些临时解决方案流传开来,但Google很快就关闭了它们。很明显,Google不再允许通过简单的查询修改进行大规模结果提取。

影响来得很快。依赖num=100以便更轻松访问数据的团队开始面临工作流中断。根据Search Engine Land的数据,在更改后,77%的网站报告关键词可见性降低,许多SEO工具看到桌面展示次数下降。

为什么Google移除num=100参数?

尽管Google没有发表正式声明,但几个因素可能影响了这一决定:

  • 服务器效率。提供100个结果比提供10个结果需要多得多的处理能力,这在规模上会累积。
  • 移动优先体验。100个结果页面加载缓慢,在移动设备上滚动不切实际。
  • 防止抓取。num=100使SERP抓取过于高效,允许在单个调用中提取完整结果。
  • 用户行为对齐。大多数人不会滚动浏览顶部结果,因此支持每页100个结果迎合了一小部分人。

总之,Google可能移除num=100是为了提高系统效率、使搜索结果与典型用户行为保持一致、保护其数据免受大规模抓取,并清理其指标。

这是一项服务Google利益的举措,旨在维护一个快速、一致且较少被抓取的搜索平台,即使它给一部分用户和工具提供商带来不便。

还在用num=100吗?

使用Decodo的网页抓取API,一次调用即可获取100个搜索结果页面。

对不同用户群体的影响

让我们看看移除如何影响不同的用户和专业人士群体:

SEO专业人士

监控数百或数千个关键词的SEO现在需要更多的请求来捕获完整的排名分布。曾经需要1,000个查询的现在可能需要10,000个。这增加了抓取时间、基础设施使用和被封锁的可能性。

SEO平台必须快速调整其跟踪引擎,通常以更高的运营成本,最终可能影响定价。一些用户还经历了展示次数的明显下降,因为报告结构发生了变化,即使排名保持相似。

数据分析师和研究人员

依赖基于脚本的批量提取的学术和市场研究团队现在面临更高的摩擦。曾经每个查询获取100个结果的脚本现在必须跨多个调用进行分页。

这使管道复杂化,增加了处理时间,并破坏了历史一致性,因为新数据集不再与过去的收集直接可比。

网络抓取操作

也许感受到最大痛苦的是运行网络抓取操作的人,无论是公司的内部数据工程团队,还是维护抓取脚本的个人开发人员。

他们现在必须使用start=0、start=10、start=20等参数进行分页,而不是在一个请求中获取所有结果。这使请求量成倍增加,增加了带宽和代理消耗,提高了检测风险,并增加了被封锁的可能性。

高级用户和生产力爱好者

即使是为了方便而使用num=100的个人也失去了首选工作流程。不再支持在一个视图中扫描长长的结果列表,迫使返回点击页面。Google设置中没有本机替代品,依赖它的生产力扩展必须重新设计或退役。

总的来说,杀死num=100的影响在技术和专业圈子中产生了反响。SEO机构、软件开发人员、数据科学家和高级搜索用户都必须重新校准。

在短期内,团队争先恐后地实施快速修复,例如添加分页逻辑或减少数据收集范围。

但长期问题更大:当Google可以一夜之间改变规则时,我们如何确保可靠地访问我们需要的数据?这导致我们考虑获取全面Google搜索结果的各种可用选项。

解决方法和替代方法

如果你受到Google num=100更改的影响,最大的问题是:现在怎么办?幸运的是,我们有你需要的答案。首先,让我们列出你的选择。

了解你的选择

根据规模、资源和紧迫性,你有多条路径:

  • 手动或临时方法。手动点击页面或使用浏览器工具。仅适用于一次性需求。
  • 非官方技巧。Google不支持的隐藏参数或端点。通常短暂且有风险。
  • 使用分页的DIY抓取。编写脚本使用start=值进行分页并抓取SERP。有效,但需要维护并面临检测问题。
  • 官方Google自定义搜索API。Google支持的通过JSON获取结果的方法。可靠但大规模成本高,每次调用限制为10个结果。
  • 第三方SERP API。Decodo的网页抓取API这样的工具,为你处理代理轮换、分页和解析。付费但专为规模和一致性而设计。

每个选项在时间、可靠性、可扩展性、成本和维护工作方面都有权衡。

手动分页(有效性有限)

最简单的后备方法是手动翻页结果。你运行查询并点击第1页到第10页以达到100个结果。你也可以编写一个轻量级宏来协助。

优点:

  • 在浏览器中易于操作
  • 没有直接成本
  • 在Google的预期使用范围内

缺点:

  • 除了少数查询外极其耗时
  • 自动化有被检测和封锁的风险
  • 对于易变查询,数据可能在页面之间发生变化
  • 对于经常性或大规模收集不实用

此方法最适合不频繁使用或小型个人研究任务。

未记录的替代端点(不稳定)

在num=100被移除后,一些开发人员找到了其他Google界面使用的内部Google端点。虽然这些可能暂时返回额外的结果,但它们是脆弱的、不受支持的,并且通常违反Google的条款。一旦被发现,Google会主动封锁这些。

这条路通常由爱好者测试想法使用,而不是需要可靠、长期数据访问的企业。

浏览器自动化(复杂且资源密集)

一些用户转向使用Selenium或Puppeteer等工具的浏览器自动化来模拟人类浏览、运行查询、点击分页和提取结果。

这种方法的优点:

  • 高准确性和真实的SERP渲染
  • 可以捕获动态元素或无限滚动行为
  • 对交互元素灵活

缺点:

  • 比基于API的方法慢得多
  • 需要大量基础设施才能大规模运行
  • 容易出现验证码和封锁器
  • 随着Google UI的变化需要持续维护

浏览器自动化是具有技术资源的小型项目或需要立即解决方法时的临时使用的最佳选择。

官方Google自定义搜索API(规模有限)

Google的自定义搜索JSON API提供了一种结构化、经批准的方式来检索类似SERP的数据。你创建一个配置为搜索整个网络的自定义搜索引擎(CSE),然后使用API密钥查询它。

对于选择此方法的用户,有一些好处:

  • 官方支持且稳定
  • 返回结构化JSON(不需要HTML抓取)
  • 在配额内使用时不会被封锁

但仍然有相当多的缺点:

  • 免费配额有限(通常每天100个查询)
  • 付费使用在更高数量时变得昂贵
  • 每次调用限制为10个结果,需要分页
  • 可能无法完全匹配实时Google排名

不是为大量SEO或竞争分析工具设计的此方法最适合小规模应用程序、原型、内部工具或有限的日常查询,直到采用可扩展的解决方案。

专业SERP API(推荐用于企业)

对于大多数认真的用户和企业来说,最实用的长期解决方案是使用专业SERP API。这些第三方服务专门设计用于大规模提供搜索结果,而无需你管理代理、处理验证码或维护抓取基础设施。

Decodo的网页抓取API这样的API在后台处理代理轮换、验证码解决、分页、时间和速率限制。你无需手动解析HTML,而是接收带有标题、URL、摘要和SERP功能的结构化JSON或CSV。

你可以请求大型结果集并指定位置或设备偏好,通常在单个调用中。当Google更改其布局或逻辑时,提供商更新其后端,以便你的工作流程无需修改即可继续。

高级用户可以更轻松地从SERP收集实时数据并解锁以下优势:

  • 不依赖Google移除的参数。专业API不依赖像num=100这样的不受支持的技巧。当Google移除该参数时,这些提供商自动调整其后端逻辑,允许用户无需更改代码即可继续检索100个结果。
  • 自动代理轮换和验证码处理。提供商维护来自多个区域的大型动态住宅代理和移动代理池。它们检测封锁、轮换IP并解决验证码,因此你可以接收干净的响应而不会中断。
  • 高成功率和低延迟。企业级API专为性能和规模而设计,通常在高请求量下实现99%以上的成功率,同时在几秒钟内返回完整结果集。
  • 结构化输出。结果以干净的JSON或CSV提供,包含标题、URL、摘要、排名,通常还包括特殊的SERP元素,例如精选摘要、人们也在问的框和图像轮播。不需要HTML解析或DOM维护。
  • 分页抽象。如果你请求100或200个结果,提供商自动处理分页循环并返回单个组合数据集。
  • 地理和设备定位。你可以模拟来自特定城市或国家的搜索,并在移动或桌面视图之间进行选择。用户代理和本地化IP为你处理。
  • 可扩展且受支持。专业API旨在每天处理数千或数百万个请求。许多提供正常运行时间保证、客户支持和SLA,使它们适合关键工作流程。

此方法最适合需要规模和可靠性的业务关键操作。如果你运行SEO SaaS、营销机构跟踪数千个关键词,或任何需要大量Google数据可靠且定期的应用程序,专业SERP API是首选解决方案。

方法

可靠性

可扩展性

开发工作

规模成本

理想用途

手动分页

1/5

1/5

2/5

个人

非官方端点

1/5

2/5

2/5

仅测试

浏览器自动化

3/5

2/5

4/5

小型项目

Google API

4/5

3/5

2/5

低流量

专业SERP API

5/5

5/5

1/5

企业规模

代码比较. 三种方法

让我们看看不同方法如何处理相同任务:获取"coffee"的100个搜索结果。

方法1:旧方法(不再有效)

首先,这是我们以前都使用的方法。一个简单、漂亮的单行代码,现在完全损坏了:

# ❌ 从2025年9月起不再有效
import requests
url = "https://google.com/search?q=coffee&num=100"
response = requests.get(url)
# 现在只返回10个结果
print(response.text)

这种方法在2025年9月死亡。num=100参数被忽略,你只会得到10个结果。

方法2:手动分页(效率低下)

那么"免费"的替代方案是什么?你可以手动翻页结果,但看看这很快变得多么复杂:

# ⚠️ 有效但需要10个请求和复杂解析
import requests
from bs4 import BeautifulSoup
import time
all_results = []
for page in range(0, 100, 10):
url = f"https://google.com/search?q=coffee&start={page}"
response = requests.get(url)
# 需要复杂的HTML解析
soup = BeautifulSoup(response.text, 'html.parser')
# 提取结果...(20多行解析逻辑)
time.sleep(2) # 避免速率限制

这在技术上有效,但它是一个维护噩梦。你发出的请求是原来的10倍,解析会在没有警告的情况下更改的复杂HTML,你仍然会遇到杀死你脚本的验证码。

方法3:Decodo网页抓取API(推荐)

现在是专业方法 – 干净、可靠,实际上比原始的num=100方法更简单:

import requests
url = "https://scraper-api.decodo.com/v2/scrape"
payload = {
"target": "google_search",
"query": "pizza",
"headless": "html",
"page_from": "1",
"limit": "100",
"google_results_language": "en",
"parse": True
}
headers = {
"accept": "application/json",
"content-type": "application/json",
"authorization": "Basic [Your Basic Auth Token Here]"
}
response = requests.post(url, json=payload, headers=headers)
print(response.text)

注意你不再需要处理什么?不需要编写分页循环,不需要维护HTML解析,不需要实现验证码处理,也不需要管理速率限制延迟。API在后台处理所有这些复杂性,因此你可以专注于重要的事情。只需一个请求即可以干净、结构化的格式返回你所需的确切内容。

性能差异是明显的:手动分页需要10个请求和30秒,而Decodo的网页抓取API在一个请求中以2秒的时间提供相同的结果,可靠性为99.86%,使其更快且根本上更可靠。

从Google提取额外的丰富搜索结果

到目前为止,我们专注于标准有机列表(以前是10或100个蓝色链接)。但是,现代Google SERP包含各种丰富结果和增强功能,这些功能显著影响可见性和用户行为。提取这些需要不同于抓取基本链接列表的处理。

什么是Google的丰富搜索结果?

Google的搜索结果现在包括各种交互式和视觉上独特的元素,超越了传统的有机位置:

  • 精选摘要出现在页面顶部,使用文本、项目符号列表或表格显示直接答案。
  • 人们也在问(PAA)框显示可展开的相关问题,动态加载其他答案。
  • 知识面板使用来自维基百科和Google知识图谱等来源的数据,在桌面SERP右侧显示基于实体的信息。
  • 人工智能(AI)快照(SGE)在SERP顶部提供人工智能(AI)生成的摘要或多源概述。
  • 图像包、视频轮播和热门故事添加基于视觉和媒体的元素。
  • 本地包和购物结果为商业或基于位置的查询显示基于地图的列表或产品轮播。

从SEO角度来看,丰富结果会影响可见性。你可能在有机排名上排名第一,但如果你上面有一个巨大的精选摘要或地图包,你得到的关注就会少。

相反,如果你可以占据其中一些功能(例如在精选摘要或PAA中获得你的网站),那是有价值的。对于研究人员来说,这些元素是用户体验的一部分,值得分析(例如,Google提供直接答案与仅链接的频率是多少?)。

如何提取丰富结果. 方法和工具

标准抓取方法或基本的"仅有机"API通常会错过丰富元素,原因有几个技术挑战:

  • 许多丰富功能通过JavaScript异步加载,不存在于初始HTML中。
  • Google定期更改和混淆类名、结构和标识符以降低抓取准确性。
  • 丰富结果布局因设备类型、地区和查询意图而异。
  • 像"人们也在问"这样的功能需要交互,因为点击一个问题可以触发加载其他相关内容。
  • Google经常进行实验,这意味着格式可以在没有警告的情况下更改。

因此,使用Beautiful Soup或静态HTTP提取器等工具的传统HTML抓取通常无法检测或正确解析丰富结果。

这就是专业SERP API发挥作用的地方。专业API(如Decodo的Web Scraping API)不需要与HTML解析搏斗,而是为每种丰富结果类型提供专用的响应字段。

实施技巧和最佳实践

如果你决定追求丰富结果,这里有一些提示:

  • 检查API文档的参数。一些API允许切换某些功能。例如,也许你可以请求include_local_results=true或include_knowledge_panel=true。如果他们有这样的选项,使用它们来获得你需要的。
  • 了解响应结构。查看API如何表示精选摘要或PAA。例如,精选摘要可能作为第一个结果的一部分或作为带有snippet_text和snippet_link的单独对象出现。
  • 监控SERP布局变化。Google可以更改这些功能的显示方式。例如,他们可能会增加显示的PAA问题数量,或更改精选摘要的HTML结构。如果使用API,请注意他们的更新日志或公告。如果自己做,你需要在这些更改发生时更新解析器。
  • 合规和道德。请注意,一些丰富数据(如知识面板信息)通常是从各种来源汇总的。确保你在合理使用或数据准则范围内使用它,特别是如果重新分发。如有疑问,请就你的数据收集实践咨询法律专业人士。

参数后时代的最佳实践

当Google在2025年9月移除参数时,它突显了依赖未记录功能的风险。为了保持弹性,你的数据工作流程应该有意识地适应,而不是在压力下做出反应。

#1. 审核当前依赖关系

列出以前依赖num=100的所有工具、脚本和工作流程。将基本流程与基于便利性的流程分开。明确你的实际数据深度需求;许多用例可能只需要前30或50个结果。这可以防止过度构建并保持成本和复杂性可管理。

#2. 评估解决方案要求

确定你每天或每月运行多少查询,停机时间在延迟、洞察或客户信任方面会造成什么损失。考虑总拥有成本,包括开发人员时间、维护负担和规模限制。评估你的团队在DIY替代方案与托管解决方案方面有多少技术能力。

#3. 面向未来的基础设施

使用抽象层设计系统,允许在不重写核心逻辑的情况下轻松切换数据源。添加后备逻辑以在发生中断时优雅降级。构建监控,以便在提供商或平台发生更改时可以主动响应。

#4. 在承诺之前进行测试

使用SERP API提供商的免费试用来基准测试可靠性、数据准确性和速度。与现有工作流程一起运行测试查询以比较结果。在完全迁移之前验证与报告需求的一致性。

#5. 保持信息灵通

订阅可靠的SEO新闻来源,如Search Engine Land、Search Engine Journal和Search Engine Roundtable。关注Google Search Central的更新。加入Slack、Reddit或Discord上的SEO和数据抓取社区,以及早检测更改并从其他从业者那里学习经过测试的解决方案。

总结

Google在2025年9月移除num=100参数是我们以前见过并将再次看到的更广泛模式的一部分。技术平台越来越多地锁定数据访问,同时标准化用户体验,这不会是Google更改的最后一个参数。

也就是说,有一条明确的前进道路。对于偶尔的个人使用,手动分页可能仍然足够。但对于业务操作,专业SERP API是唯一可靠的解决方案。

关键是构建具有抽象层的系统,让你可以在不重写整个代码库的情况下交换数据源,并投资于适应变化的基础设施,而不是每次参数消失时争先恐后寻找下一个快速修复。

通过单次请求获取100个搜索结果页面

使用Decodo的网页抓取API,解锁搜索引擎结果页(SERP)的实时数据。

关于作者

Kotryna Ragaišytė

内容与品牌营销主管

Kotryna Ragaišytė 是一位经验丰富的营销和传播专家,拥有 8 年以上的行业经验,其中 5 年专门从事科技行业的传播工作。她拥有传播学硕士学位,在品牌定位、创意战略和内容开发方面有着深厚的专业知识,能够胜任每一个项目。


通过 LinkedIn 与 Kotryna 联系。

Decodo 博客上的所有信息均按原样提供,仅供参考。对于您使用 Decodo 博客上的任何信息或其中可能链接的任何第三方网站,我们不作任何陈述,也不承担任何责任。

常见问题

Google究竟何时移除num=100参数?

Google在2025年9月停用了num=100参数,在各个地区逐步推出。到9月下旬,它在全球完全失效。

Google会恢复num=100参数吗?

移除与Google的战略优先事项一致:移动优先索引、用户体验标准化和机器人管理。Google多年来一直在移除URL参数以简化其基础设施。他们对恢复请求的沉默通常表明永久性。

对于SEO研究,num=100的最佳替代方案是什么?

对于业务关键的SEO操作,专业SERP API最可靠。它们通过结构化JSON输出、地理定位和成功率保证提供对100多个结果的单请求访问。

移除会影响Google Search Console数据吗?

不会,Search Console数据独立于num=100参数。它直接从Google的内部系统提供分析,不受公共搜索界面更改的影响。

这如何影响我现有的抓取脚本?

依赖num=100的脚本现在只返回10个结果而不是100个。你的选择:实施分页逻辑(增加复杂性和封锁风险)、切换到浏览器自动化(资源密集)或集成专业SERP API(推荐用于可靠性和规模)。

我还能在不使用API的情况下获得100个搜索结果吗?

可以,通过手动分页。点击10页或以编程方式请求10个单独的页面。不再有Google选项可以在一页上显示100个结果。对于定期或批量收集,专业SERP API提供唯一有效的路径。

专业SERP API如何处理Google的反机器人措施?

专业API维护全球分布的大型动态住宅代理和移动IP池、自动验证码解决系统、模仿真实用户的高级指纹识别以及复杂的速率限制。专门团队维护这些系统,因此你可以获得99%以上的成功率和SLA保证的干净数据。

专业SERP API除了URL之外还提供什么数据?

现代SERP API返回全面的结构化数据:有机位置、标题和元描述、目标和显示的URL、丰富摘要和精选内容、知识图谱信息、本地包结果、人们也在问的问题以及相关搜索。这消除了复杂的HTML解析,并提供比手动提取更可靠的数据。

相关文章

如何用Python抓取Google Scholar

Google Scholar是一个免费的学术文章、书籍和研究论文搜索引擎。如果你正在为研究、分析或应用程序开发收集学术数据,这篇博客文章将为你提供可靠的基础。在本指南中,您将学习如何使用Python抓取Google Scholar,设置代理以避免IP禁令,构建一个可用的抓取器,并探索扩展数据收集的高级技巧。

Dominykas Niaura

5月 30日, 2025年

10 分钟阅读

Airbnb网络抓取指南. 方法、挑战和最佳实践

网络抓取Airbnb(一个全球短期租赁和体验平台)涉及自动从房源中提取数据,以揭示平台本身无法获得的见解。它对于分析市场、跟踪竞争对手,甚至计划个人旅行都很有用。然而,Airbnb的反抓取防御措施和动态设计使其成为一项技术要求很高的任务。本指南将教你如何使用Python成功抓取Airbnb房源。

Dominykas Niaura

12月 29日, 2025年

10 分钟阅读

如何抓取 GitHub: 实用教程 2025

GitHub 是互联网上最重要的技术知识来源之一,对于构建复杂应用程序的开发人员来说尤其如此。跟随本指南学习如何提取这些宝贵的数据,毫不费力地紧跟最新技术趋势。

Zilvinas Tamulis

2月 13日, 2025年

10 分钟阅读

© 2018-2025 decodo.cn(原名 smartproxy.com)。版权所有 津ICP备2022004334号-2