找回密码
 注册
搜索
热搜: 回贴

导致搜索引擎不收录的五大常见原因

2009-12-13 02:18| 发布者: admin| 查看: 17| 评论: 0|原作者: 仙之剑缘


  对于每一个站长而言,最关键的某过于搜索引擎能够正常收录,一旦网站不能正常收录一切都是痴心妄想。
  为什么会出现收录困难?这是因为搜索引擎机器人是一个很简单的软件程序,它本身对站点并没有任何的理解能力,只是通过一些固有的标准来评判站点的好坏,一旦站点在写法上出现了错误,搜索引擎将无法对站点进行采集。
  以下整理的是5个常见的导致收录困难的原因:
  原因一:站点的robots.txt 文件已损坏或者在书写的时候出现错误(例如出现错别字).如果搜索引擎机器人错误的理解了您的robots.txt 文件,它们可能会完全无视你的网页。对于这个问题,解决的办法是仔细检查您的robots.txt 文件,并确保您网页上的的参数是正确的。
  原因二:网址中包含太多的变数
  网址中包含太多的变数可能会造成搜索引擎机器人搜索困难。如果您的URL 包含变数太多,搜索引擎漫游器可能会忽视您的网页。对于这个问题一些比较熟悉网页制作的人可能会想到动态网页,的确就是这个问题,动态生成的网页(包括ASP、PHP)可能导致抓取工具无法收录,解决办法,使用静态页面。
  原因三:在您的网址中使用了会话ID
  许多搜索引擎不去收录那些包含会话ID 的网页,因为它们可导致内容的重复。如果可能的话,避免会话ID 出现在您的网址,而使用cookies 存储会话ID。
  原因四:您的网页中包含太多的代码
  网页中包含了JavaScript 代码、CSS 的代码以及其他脚本代码。这些代码与内容没有直接的联系,访问您网页并选择“查看源文件”或“查看HTML 源”,如果您很难对网站上的实际内容进行更改,那么通常情况下搜索引擎收录起来也很困难。
  原因五 :网站导航
  大多数搜索引擎的机器人不能解析JavaScript 或DHTML 菜单,当然Flash以及Ajax 菜单效果更差。那私会是比较标准的导航呢,比如像PP网的网站导航,也包含有JavaScript,那最好的解决办法就是把该代码写进css文件里,网站导航本身的代码一定要干净,不含JavaScript或DHTML菜单.
  还有一个就是常见的链接问题,如上文所述,搜索引擎机器人是很简单的程序,它们遵循的HTML链接,一旦链接出现错误对收录也会带来困难。本文由www.pp-pp.org供稿。
作者 活着 本文仅代表作者观点,与情缘站长教程网立场无关.


最新评论

QQ|小黑屋|最新主题|手机版|微赢网络技术论坛 ( 苏ICP备08020429号 )

GMT+8, 2024-10-1 19:23 , Processed in 0.282088 second(s), 12 queries , Gzip On, MemCache On.

Powered by Discuz! X3.5

© 2001-2023 Discuz! Team.

返回顶部