你好,游客 登录 注册 搜索
背景:
阅读新闻

33款可用来抓数据的开源爬虫软件工具(上)

[日期:2016-05-19] 来源:极客头条  作者:维尼 [字体: ]

  要玩大数据,没有数据怎么玩?这里推荐一些33款开源爬虫软件给大家。

  爬虫,即网络爬虫,是一种自动获取网页内容的程序。是搜索引擎的重要组成部分,因此搜索引擎优化很大程度上就是针对爬虫而做出的优化。

  网络爬虫是一个自动提取网页的程序,它为搜索引擎从万维网上下载网页,是搜索引擎的重要组成。传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。聚焦爬虫的工作流程较为复杂,需要根据一定的网页分析算法过滤与主题无关的链接,保留有用的链接并将其放入等待抓取的URL队列。然后,它将根据一定的搜索策略从队列中选择下一步要抓取的网页URL,并重复上述过程,直到达到系统的某一条件时停止。另外,所有被爬虫抓取的网页将会被系统存贮,进行一定的分析、过滤,并建立索引,以便之后的查询和检索;对于聚焦爬虫来说,这一过程所得到的分析结果还可能对以后的抓取过程给出反馈和指导。

  世界上已经成型的爬虫软件多达上百种,本文对较为知名及常见的开源爬虫软件进行梳理,按开发语言进行汇总。虽然搜索引擎也有爬虫,但本次我汇总的只是爬虫软件,而非大型、复杂的搜索引擎,因为很多兄弟只是想爬取数据,而非运营一个搜索引擎。

  Java爬虫

  1. Arachnid

  Arachnid是一个基于Java的web spider框架.它包含一个简单的HTML剖析器能够分析包含HTML内容的输入流.通过实现Arachnid的子类就能够开发一个简单的Web spiders并能够在Web站上的每个页面被解析之后增加几行代码调用。 Arachnid的下载包中包含两个spider应用程序例子用于演示如何使用该框架。

  特点:微型爬虫框架,含有一个小型HTML解析器

  许可证:GPL

  2、crawlzilla

  crawlzilla 是一个帮你轻松建立搜索引擎的自由软件,有了它,你就不用依靠商业公司的搜索引擎,也不用再烦恼公司內部网站资料索引的问题。

  由 nutch 专案为核心,并整合更多相关套件,并卡发设计安装与管理UI,让使用者更方便上手。

  crawlzilla 除了爬取基本的 html 外,还能分析网页上的文件,如( doc、pdf、ppt、ooo、rss )等多种文件格式,让你的搜索引擎不只是网页搜索引擎,而是网站的完整资料索引库。

  拥有中文分词能力,让你的搜索更精准。

  crawlzilla的特色与目标,最主要就是提供使用者一个方便好用易安裝的搜索平台。

  授权协议: Apache License 2

  开发语言: Java JavaScript SHELL

  操作系统: Linux

  项目主页:(请在下方回复获取资料链接地址)

  下载地址: (请在下方回复获取资料链接地址)

  特点:安装简易,拥有中文分词功能

  3、Ex-Crawler

  Ex-Crawler 是一个网页爬虫,采用 Java 开发,该项目分成两部分,一个是守护进程,另外一个是灵活可配置的 Web 爬虫。使用数据库存储网页信息。

  授权协议: GPLv3

  开发语言: Java

  操作系统: 跨平台

  特点:由守护进程执行,使用数据库存储网页信息

  4、Heritrix

  Heritrix 是一个由 java 开发的、开源的网络爬虫,用户可以使用它来从网上抓取想要的资源。其最出色之处在于它良好的可扩展性,方便用户实现自己的抓取逻辑。

  Heritrix采用的是模块化的设计,各个模块由一个控制器类(CrawlController类)来协调,控制器是整体的核心。

  代码托管: (请在下方回复获取资料链接地址)

  授权协议: Apache

  开发语言: Java

  操作系统: 跨平台

  特点:严格遵照robots文件的排除指示和META robots标签

  5、heyDr

  heyDr是一款基于java的轻量级开源多线程垂直检索爬虫框架,遵循GNU GPL V3协议。

  用户可以通过heyDr构建自己的垂直资源爬虫,用于搭建垂直搜索引擎前期的数据准备。

  授权协议: GPLv3

  开发语言: Java

  操作系统: 跨平台

  特点:轻量级开源多线程垂直检索爬虫框架

  6、ItSucks

  ItSucks是一个java web spider(web机器人,爬虫)开源项目。支持通过下载模板和正则表达式来定义下载规则。提供一个swing GUI操作界面。

  特点:提供swing GUI操作界面

  7、jcrawl

  jcrawl是一款小巧性能优良的的web爬虫,它可以从网页抓取各种类型的文件,基于用户定义的符号,比如email,qq.

  授权协议: Apache

  开发语言: Java

  操作系统: 跨平台

  特点:轻量、性能优良,可以从网页抓取各种类型的文件

  8、JSpider

  JSpider是一个用Java实现的WebSpider,JSpider的执行格式如下:

  jspider [URL] [ConfigName]

  URL一定要加上协议名称,如:http://,否则会报错。如果省掉ConfigName,则采用默认配置。

  JSpider 的行为是由配置文件具体配置的,比如采用什么插件,结果存储方式等等都在conf\[ConfigName]\目录下设置。JSpider默认的配置种类 很少,用途也不大。但是JSpider非常容易扩展,可以利用它开发强大的网页抓取与数据分析工具。要做到这些,需要对JSpider的原理有深入的了 解,然后根据自己的需求开发插件,撰写配置文件。

  授权协议: LGPL

  开发语言: Java

  操作系统: 跨平台

  特点:功能强大,容易扩展

  9、Leopdo

  用JAVA编写的web 搜索和爬虫,包括全文和分类垂直搜索,以及分词系统

  授权协议: Apache

  开发语言: Java

  操作系统: 跨平台

  特点:包括全文和分类垂直搜索,以及分词系统

  10、MetaSeeker

  是一套完整的网页内容抓取、格式化、数据集成、存储管理和搜索解决方案。

  网络爬虫有多种实现方法,如果按照部署在哪里分,可以分成:

  服务器侧:

  一般是一个多线程程序,同时下载多个目标HTML,可以用PHP, Java, Python(当前很流行)等做,可以速度做得很快,一般综合搜索引擎的爬虫这样做。但是,如果对方讨厌爬虫,很可能封掉你的IP,服务器IP又不容易改,另外耗用的带宽也是挺贵的。建议看一下Beautiful soap。

  客户端:

  一般实现定题爬虫,或者是聚焦爬虫,做综合搜索引擎不容易成功,而垂直搜诉或者比价服务或者推荐引擎,相对容易很多,这类爬虫不是什么页面都 取的,而是只取你关系的页面,而且只取页面上关心的内容,例如提取黄页信息,商品价格信息,还有提取竞争对手广告信息的,搜一下Spyfu,很有趣。这类 爬虫可以部署很多,而且可以很有侵略性,对方很难封锁。

  MetaSeeker中的网络爬虫就属于后者。

  MetaSeeker工具包利用Mozilla平台的能力,只要是Firefox看到的东西,它都能提取。

  MetaSeeker工具包是免费使用的,下载地址: (请在下方回复获取资料链接地址)

  特点:网页抓取、信息提取、数据抽取工具包,操作简单

  …………………………

  转自:人人都是产品经理

 

  未完待续,请继续阅读下面文章。





收藏 推荐 打印 | 录入:elainebo | 阅读:
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数
点评:
       
评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款