Discuz! Board

查看: 581|回复: 0

站点地图索引文件添加到

[复制链接]

1

主题

1

帖子

5

积分

新手上路

Rank: 1

积分
5
发表于 2024-5-19 16:28:11 | 显示全部楼层 |阅读模式
本帖最后由 arubaemail77 于 2024-5-19 16:30 编辑

XML version=“1.0”encoding=“UTF-8”表示符合 XML 标准 1.0 版本,并指定文档中使用的字符编码。 URL集包括网站的所有 URL,并且在链接末尾注明了所使用的 XML 站点地图的版本。 每个单独的 URL 条目必须通过 URL 标记指定。所有 URL 定义都必须具有位置标记 (loc)。标记值应包含 https 协议和完整页面 URL此外,每个 URL 定义可能包括其他元数据,例如:<priority>描述 URL 的优先级,其值可以在 0.0 到 1.0 之间;<changefreq>指的是此 URL 上的内容更改的预期频率。


它可以设置为始终、每小时、每天、每周、每月、每年或 马来西亚 电话号码 从不。您还可以包含<lastmod>数据,该数据显示修改该 URL 上的内容的日期和时间。   2. 如何压缩动态 XML 站点地图 因为我们在这种情况下使用动态链接和每日更新频率,所以我们希望确保定期在站点地图中引入新内容。我们将通过设置为每天运行一次的 cronjob 将站点地图存档为 .GZ 文件。我们选择 cronjob 是因为它可以帮助我们自动执行任务,还可以帮助我们在服务器上安排任务。     要记住的一个非常重要的事实是,不要急于向 Google Search Console 提交存档的链接。有一种智能方法可以做到这一点:创建站点地图索引。  3. 如何从压缩的 Sitemap.xml.gz 创建 Sitemap 索引  为了获得最佳实践并确保有效的网站抓取,您应该创建站点地图索引,遵守站点地图指南和未压缩时 50MB 的大小限制。



完成并保存站点地图索引文件后,您应该将其提交到 Google Search Console。如果您创建多个站点地图,它们应保存在同一目录中。   4. 在 Robots.txt 中添加站点地图索引文件 另一个最佳实践是将 XML  robots.txt 文件中,该文件可以在网站服务器的根目录中找到。 robots.txt 文件用于避免网站请求过载,它还告诉爬虫它们可以访问您网站上的哪些网址。请记住,您无法使网页远离搜索引擎。为此,您可以阻止页面索引或对页面进行密码保护。   如果您需要 SEO 和数字营销解决方案方面的帮助,请立即联系我们!

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|DiscuzX

Copyright © 2001-2013 Comsenz Inc.Template by Comsenz Inc.All Rights Reserved.

Powered by Discuz!X3.4

快速回复 返回顶部 返回列表