better_robots:使用 robots.txt 获得更好的 SEO

时间:2024-07-25 02:57:37
【文件属性】:

文件名称:better_robots:使用 robots.txt 获得更好的 SEO

文件大小:8KB

文件格式:ZIP

更新时间:2024-07-25 02:57:37

Ruby

BetterRobots - 使用 robots.txt 更好的 SEO BetterRobots 旨在 SEO 增强您的 robots.txt 服务,特别是在您从一个应用程序提供多个域或子域的情况下。 例如 、assets.yoursite.com、beta.yoursite.com 等。 SEO 和您的 robots.txt 已弃用:Domain Sharding,这个 gem 被编写用来帮助启用的技术,现在被认为是桌面和移动浏览器的性能反模式。 请参阅了解更多详细信息和测试结果。 一个 Web 应用程序通常有多个引用同一个应用程序的子域。 例如,加快浏览器页面加载时间的标准做法是将多个资产主机作为您的应用程序的别名,从而允许浏览器同时流式传输多个资产。 在 SEO 上下文中,这些别名主机中的每一个都被视为重复内容。 为避免这种情况,您应该使用不同的 robots.txt,将搜索


【文件预览】:
better_robots-master
----.gitignore(13B)
----.travis.yml(233B)
----README.md(4KB)
----lib()
--------better_robots()
--------better_robots.rb(1KB)
----Gemfile(342B)
----MIT-LICENSE(1KB)
----Rakefile(313B)
----test()
--------integration()
--------routes.rb(103B)
--------test_helper.rb(157B)
----better_robots.gemspec(768B)

网友评论