Page 1 of 1

浏览器扩展程序可能会无意中改变

Posted: Tue Dec 24, 2024 9:34 am
by monimenu297
2. 提高准确性
网站的外观或行为。专用的 Googlebot 浏览器可最大限度地减少扩展程序的数量,减少干扰并确保更准确地模拟 Googlebot 的体验。

3. 避免错误
在标准浏览器中,很容易忘记关闭 Googlebot 欺骗功能,这可能会导致网站出现故 德国传真数据 障或阻止您的访问。我甚至因为欺骗 Googlebot 而被网站屏蔽,我不得不向他们发送电子邮件并附上我的 IP 以解除屏蔽。

4. 挑战面前仍保持灵活性
多年来,我的 Googlebot 浏览器一直运行顺畅。然而,随着 Cloudflare 的兴起及其对 电子商务网站的更严格的安全协议,我经常不得不要求客户将特定 IP 添加到允许列表中,以便我在欺骗 Googlebot 的同时测试他们的网站。

当无法使用白名单时,我会转而使用 Bingbot 或 DuckDuckBot 用户代理等替代方案。与模仿 Googlebot 相比,这种解决方案不太可靠,但仍能发现有价值的见解。另一种后备方法是检查 Google Search Console中呈现的 HTML ,尽管它与 Google 的抓取工具的用户代理不同,但仍然是一种模拟 Googlebot 行为的可靠方法。

如果我要 审核一个阻止非 Google Googlebot 的网站,并允许我的 IP,Googlebot 浏览器仍然是我的首选工具。它不仅仅是一个用户代理切换器,还提供了最全面的方式来了解 Googlebot 所看到的内容。

哪些 SEO 审核对 Googlebot 浏览器有用?
Googlebot 浏览器最常见的用例是 审核依赖客户端或动态渲染的网站。这是一种直接比较 Googlebot 看到的内容与一般访问者看到的内容的方法,突出显示可能影响您网站在搜索结果中的表现的差异。

鉴于我建议将浏览器扩展的数量限制为必要的几个,因此与加载扩展的浏览器相比,它可以更准确地测试 Chrome 用户实际的网站体验,尤其是在使用 Chrome 内置的 DevTools 和 Lighthouse 进行速度审核时。

即使对于不使用动态渲染的网站,您也永远不知道通过欺骗 Googlebot 会发现什么。在 审核电子商务网站超过八年的时间里,我仍然对自己遇到的独特问题感到惊讶。

在 Googlebot 审核期间您应该调查什么?
导航差异:主导航在用户和机器人视图之间是否一致?
内容可见性: Googlebot 是否能够看到您想要索引的内容?
JavaScript 索引延迟:如果网站依赖于 JavaScript 渲染,新内容是否会被快速索引(例如,对于事件或产品发布)?
服务器响应问题: URL 是否返回正确的服务器响应?例如,错误的 URL 可能会向 Googlebot 显示 200 OK,但向访问者显示 404 Not Found。
页面布局变化:我经常看到在欺骗 Googlebot 时,链接会显示为黑色背景上的蓝色文本。这是机器可读的,但远非用户友好。如果 Googlebot 无法正确呈现您的网站,它将不知道要优先考虑什么。
基于地理位置的重定向:许多网站 根据位置进行重定向。由于 Googlebot 主要从美国 IP 抓取,因此验证您的网站如何处理此类请求非常重要。
审核的详细程度取决于审核内容,但 Chrome 提供了许多用于技术 SEO 审核的内置工具 。例如,我经常比较控制台和网络标签数据,以识别一般访问者视图和 Googlebot 之间的差异。此过程会捕获 Googlebot 阻止的文件或可能被忽略的缺失内容。