找回密码
 注册
搜索
热搜: 回贴
  • 前程无忧官网首页 有什么好的平台可以
  • 最新的销售平台 互联网营销的平台有哪
  • 制作网页的基本流程 网页制作和网页设
  • 【帝国CMS】输出带序号的列表(数字排
  • 网站建设公司 三一,中联,极东泵车的
  • 织梦 建站 织梦网站模版后台怎么更改
  • 云服务官网 哪些网站有免费的简历模板
  • 如何建网站要什么条件 建网站要用什么
  • 吉林市移动公司电话 吉林省退休人员网
  • 设计类毕业论文 网站设计与实现毕业论
查看: 10909|回复: 3

网络蜘蛛程序检索重复页面方法的探索

[复制链接]
发表于 2009-11-24 02:21:47 | 显示全部楼层 |阅读模式 IP:江苏扬州
在v1.2版本webinfo搜索引擎网络蜘蛛程序中对搜索到的重复页面一直没有很好的办法,在1.3版中我尝试在添加新数据时自动将数据库中原有的相同网页地址的数据删除,高手帮帮忙看看下面这段代码有没有问题。
                              string text5 = row2["url"].ToString().Replace("'", "''");
                              textArray2 = new string[5] ...{ "select count(*) from ", sArray, " where url='", text5,"'" } ;
                              text4 = string.Concat(textArray2);   
                              command1.CommandText = text4;
                              int count = (int)  command1.ExecuteScalar();
                               command1.ExecuteNonQuery();
                              if (count != 0)
                              ...{
                              textArray3 = new string[5] ...{ "delete from ", sArray, " where url='",text5 ,"'"} ;
                              text3 = string.Concat(textArray3);
                              Console.WriteLine(count+"重复页面已删除,本次存储完成:"+wghtot);   
                              //Console.WriteLine(count);
                              command1.CommandText = text3;
                              command1.ExecuteNonQuery();
                              }
                              else
                              ...{
                              Console.WriteLine("新数据:"+count);   
                              }
这段代码时可以正常运行的,但是给mssql数据服务器增加了很的负荷,如果搜索数据量非常大很容易造成服务器当机。
发表于 2010-1-30 11:05:05 | 显示全部楼层 IP:台湾
今天没事来逛逛,看了一下,感觉相当的不错。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

QQ|小黑屋|最新主题|手机版|微赢网络技术论坛 ( 苏ICP备08020429号 )

GMT+8, 2024-9-30 17:27 , Processed in 0.321152 second(s), 14 queries , Gzip On, MemCache On.

Powered by Discuz! X3.5

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表