找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 400|回复: 0

可以单击该文件并查看其内

[复制链接]

1

主题

0

回帖

5

积分

新手上路

积分
5
发表于 2023-9-17 16:47:18 | 显示全部楼层 |阅读模式

如果根据必须指向特定网站页面的 URL 数量对 URL 进行疏导或优化,那么不添加 noindex 机器人元标记是您的正确解决方案。

如果你想要索引中的 URL
您需要找出 Google 无法抓取该 URL 的原因,并检查是 美国电话号码表 什么阻止或阻止了它,然后您需要将其删除。

发生这种情况的可能原因是 robots.txt 中的抓取阻止。但在其他一些
如果您无权访问 Google Search Console,可以通过输入 y
检查间歇块
间歇性块问题可能很难解决。间歇性阻塞是由于无法确定的原因而导致阻塞状况而导致的问题。

因此,您可以采取的步骤是检查 robots.txt 文件的历史记录。例如,在 robots.txt 测试程序部分,您可以看到该文件的先前版本,您容。

如果单击下拉列表,您可以看到该文件的先前版本,您可以单击该版本并查看其内容。

您还可以使用 archive.org 中的 Wayback Machine,该机器还具有 robots.txt 文件历史记录来查找已抓取哪些网站。您可以单击可用日期之一并查看该日期可用的文件。




修复间歇性块的解决方案取决于导致问题的原因。例如,原因是缓存。当当前缓存处于活动测试状态时,robots txt文件可以包括阻塞命令。当缓存处于活动测试模式时,网站可能已经显示为可抓取。在这种情况下,您可以从测试模式缓存中排除 .txt。

检查用户代理块
用户代理阻止是网站阻止用户代理的一种情况,就像 Googlebot 所做的那样。这意味着该网站会检测到某些机器人并阻止用户代理。

如果您看到某个网站页面在浏览器中正常,但在更改用户代理部分后被阻止,则意味着您已将该网站页面设置为要阻止的页面。

您可以在 Chrome 开发工具的帮助下定义用户代理。另一种选择是使用浏览器扩展来更改用户

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|Discuz! X

GMT+8, 2024-9-20 07:54 , Processed in 0.081998 second(s), 18 queries .

Powered by Discuz! X3.5

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表