程序简介:这个系统属于自动化的搜索引擎,它可以从一个网址列表开始,自动寻找这些网址的下一级网页。可以让中小网站也有有自己特色的搜索引擎。适合与于对某一指定领域里的网站进行搜索,比如建立一个内网的搜索引擎。
ver 1.4 (2005.1.11)
升级内容:
1.增加屏蔽网址功能 。
2.修正上一版本处理网页重定向时判断部分网址的错误。
3.增加了删除重复数据功能,可选择是否采用重复页面删除模式,可定义索引重复数据的数据表。
4.首次采用注册码注册完全版本,共享版本限制每网址索引10个页面。
作者博客:http://www2.cnblogs.com/green168
预了解及时信息请访问:http://green168.51.net/readme.html
升级方法:
1.替换spider 文件夹内所有文件.
2.修改cf.ini文件内容,格式如下:
Thno:线程,共享版只能使用1线程。
id: 蜘蛛id。
Tlim:每个网址索引页面数,1.4共享版每个网址只能搜索10个页面。
ns: 屏蔽网址中字符串,如:search?_?&&?biadu,每个字符串之间用"?"分隔。
cftb:重复页面索引的数据表,填写你要搜索并删除重复网页的数据表,每个数据表间用"?"分隔,如:[db2].[dbo].[tb2]?[db2].[dbo].[tb1]?[db2].[dbo].[w050103]?[db2].[dbo].[w050104]?[db2].[dbo].[w050106],其中db2是你建立的数据表的名称,tb2、tb1、w050104等是在db2数据表中数据项的名称。
reg:注册串号(没有注册可不填写),填写我们反馈给你的这册串号。
cfy:是否进行重复网页索引,如果这里填"1",将按照上面填写的重复页面索引项搜索原有数据库中存在的重复页面,并删除,注意:此项功能请载服务器负荷较小的深夜进行,否则由于搜索量非常大可能造成数据服务器当机。 如果填写"0",将不进行重复页面筛检

ID:9903
声明:本站所有资源均来源于互联网收集,仅供学习参考使用,如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。