Skip to main content

this is THe Crawler Frame

Project description

快速说明
==========

简介
-------

BaseCrawler是一个轻量级,简单快捷上手操作基础爬虫框架,对于爬虫开发者,有很多实用的功能已经进行了优化与完善。
API说明文档请访问:http://www.basecrawler.com(已经上线), 文档更新较慢(文档更新后会进行通知)
具体使用请查看文档


安装说明
----------

PIP 安装

``pip install basecrawler``

使用说明——方式一
-------------------

首先我们引入BaseCrawler ::

from basecrawler.basecrawler import BaseCrawler

声明一个url地址, 例如: ::

url = http://www.baidu.com

实例化一个BaseCrawler对象 ::

basecrawler = BaseCrawler()

通过basecrawler请求目标url ::

response = basecrawler.requests_get(url)

``response`` 是requests.Response对象,输出返回的结果内容 ::

print response.text

使用说明——方式二
------------------

如果我们采用面创建类的方式实现,可以直接继承 ``BaseCrawler`` ::

from basecrawler.basecrawler import BaseCrawler

class Crawler(BaseCrawler):

# 定义你自己的类方法
def foo():
pass

if __name__ == "__main__":
crawler = Crawler()
url = http://www.baidu.com
crawler.requests_get(url)


支持反反爬
----------

目前完成基础反反爬处理, 根据反反爬策略可以选择不同的处理方式

支持动态网页爬取
---------------

支持处理JS加载数据处理, 同时完成对 Phantomjs 性能优化

支持代理
---------

支持 ``requests`` 及 ``phantomjs`` 代理

支持翻页处理
------------

* 实现web网站翻页处理, 按API格式设置,可自动完成翻页处理

支持自动获取免费代理
-------------------

* basecrawler内含获取代理IP方法,单次调用提供99个免费IP, 因验证ip会加大代理负载,IP不做验证处理,即时即用

支持解析微信公众号文章列表
-----------------------

支持解析微信公众号文章内容
-----------------------





Project details


Download files

Download the file for your platform. If you're not sure which to choose, learn more about installing packages.

Source Distributions

No source distribution files available for this release.See tutorial on generating distribution archives.

Built Distribution

basecrawler-0.0.7-py2-none-any.whl (11.7 kB view hashes)

Uploaded Python 2

Supported by

AWS AWS Cloud computing and Security Sponsor Datadog Datadog Monitoring Fastly Fastly CDN Google Google Download Analytics Microsoft Microsoft PSF Sponsor Pingdom Pingdom Monitoring Sentry Sentry Error logging StatusPage StatusPage Status page