用户名:
密 码:
为何选择我们
  • 7年优质服务经验
  • 10万用户的共同选择
  • 更低的价格更好的服务
  • CNNIC四星级认证服务商
  • 拥有正规经营许可证(ICP)
  • 先进的解析技术10分钟生效
  • 6组DNS负载均衡更快更稳定
  虚拟主机域名注册-常见问题网站推广问题 → 网站推广问题


Twitter官方网站权重PR动荡排名等不稳定!灾难起源于“内鬼技术”
作者:名站互联
众所周知,Twitter在前段时间,PR值由9降到了0,并且众多页面不被谷歌Robot抓取,众人哗然!虽然现在已经全部恢复。但这是怎么回事呢?下面引用谷奥专家内容为大家解密下Twitter网站权重动荡真相!


  首先,twitterPR及众多页面不被抓取是由自身技术引起的,跟谷歌的搜索机制没有关系。


  导致twitter此次动荡的有五大技术问题:


  (1)robots设置问题


  twitter在设置Robots时,针对带WWW和不带WWW设置了两个Robots标准。如下所示:(A为不带www的Robots设置,B为带WWW的Robots设置)


  A:Thefileattwitter.com/robots.txtlooksasfollows:


  #GoogleSearchEngineRobot


  User-agent:Googlebot


  #Crawl-delay:10--Googlebotignorescrawl-delayftl


  Allow:/*?*_escaped_fragment_


  Disallow:/*?


  Disallow:/*/with_friends


  #Yahoo!SearchEngineRobot


  User-Agent:Slurp


  Crawl-delay:1


  Disallow:/*?


  Disallow:/*/with_friends


  #MicrosoftSearchEngineRobot


  User-Agent:msnbot


  Disallow:/*?


  Disallow:/*/with_friends


  #Everybotthatmightpossiblyreadandrespectthisfile.


  User-agent:*


  Disallow:/*?


  Disallow:/*/with_friends


  Disallow:/oauth


  Disallow:/1/oauth


  B:thefileatwww.twitter.com/robots.txtfilelooksasfollows:


  User-agent:*


  Disallow:/


  Twitter针对带www和不带www设置了两个不同的Robots标准,这样就可以看出:


  1、针对带WWW和不带WWW的网站,搜索引擎按照Robots标准,返回的搜索结果不相同,同时也不规范。


  2、twitter在阻止搜索引擎抓取带WWW的网址。


  3、通过封锁带www的网站,即使将其301重定向到不带www的网站,那也是徒劳无功!


  4、由于带www和不带www的都有外部链接,但是带www的阻止搜索引擎抓取,那么对于提升twitter网站整体权重来说,该外部链接的价值并没有得到有效利用!


  (2)302重定向问题


  Twitter.com/vanessafox使用了302重定向到twitter.com/#!/vanessafox。众所周知,302重定向为暂时性转移,会抓取新内容而保存旧网址,并且原来的链接不会全部转移!


  (3)没有遵守谷歌AJAX抓取标准


  Twitter的网址是AJAX和使用#!,告诉谷歌从服务器获取_escaped_fragment_版本的URL。由于没有使用301重定向,导致失去了很多相关URL页面,没有将AJAX和重定向很好地结合起来。


  (4)速率限制


  在HTTP标头可以看见速率限制。


  HTTP/1.1200OKDate:Mon,18Jul201120:48:44GMTServer:hiStatus:200OKX-Transaction:1311022124-32783-45463X-RateLimit-Limit:1000


  (5)网址不规范


  Twitter.com/VanessaFox显示搜索结果,是www.idcmz.com/。这两个URL导致了同一个地方。这是造成又一次的PageRank稀释,重复,和规范化问题。这里最好的办法是正常化的网址一个变


  化(最简单的方法是选择全部小写),然后301重定向所有变化。另外,Twitter的可以简单地添加的rel=规范属性指定规范版本的所有网页。


  从以上可以看出,Twitter是有麻烦的robots.txt,HTTP状态代码和URL规范化。这是很多大型网站面临的问题。至于谷歌PR工具栏,那是谷歌的问题。


  从Twitter技术漏洞可以告诫各位站长:


  (1)设置Robots一定要统一,集中权重,以防走失。(2)302重定向没有301重定向好(3)必须遵守谷歌AJAX抓取标准(4)不要在HTTP标头限制速率(5)网址要规范,统一,不能掺杂在一起随意乱用!



来源: www.idcmz.com
阅读:3278
日期:2011/7/22

【 双击滚屏 】 【 推荐朋友 】 【 收藏 】 【 打印 】 【 关闭 】 【 字体: 】 
上一篇:[教你如何在vps主机_服务器_上设置301重定向!
下一篇:mysql数据库安装教程_ 详细图文教程助你快速安装MySQL数据库
  >> 相关文章
  没有相关文章。