高并发reids队列,分布式爬虫利器(High concurrency RedisQueue,Distributed crawler weapon)
Project description
redis高并发队列
功能描述
- 比scrapy更灵活,比celery更容易上手的分布式爬虫框架。用最少的代码,用最简单的方式,做最多的事情
- 1分钟内能熟练运用该框架爬取数据,无需学习复杂文档.轻松扩展各种中间件
特色说明:
支持中间件:
支持reids kafka sqlite memory 四种中间件(首推redis,支持批量发布任务,分布式消费快如闪电)
并发支持:
支持process threading gevent三种并发消费模式(可混合使用)
控频限流:
精确控制1秒钟运行多少次函数
任务去重:
如果重复推送消费成功的任务,自动过滤掉该任务
消费确认:
启用消费确认,消费任务宕机手动终止情况,任务不会丢失
重试次数:
当函数运行出错,会立即重试指定的次数,达到最大次重试数后任务会进入死信队列
任务可视化:
可以通过redis web版管理工具实时查看当前任务消费情况
版本说明
- 支持版本: python 3.0+
pip安装
pip install redis-queue-tool
DEMO说明
1.发布任务和消费任务(函数版)
from redis_queue_tool import get_consumer
def f11(a: int = 1, b: int = 1):
print(f"t_demo11,a:{a},b:{b}")
customer = get_consumer('test11', consuming_function=f11)
for i in range(1, 200):
customer.publisher_queue.pub(a=i, b=i)
customer.start()
2.发布任务和消费任务(装饰器版)
from redis_queue_tool import task_deco
@task_deco('test0') # 消费函数上新增任务队列装饰器
def f0(a, b):
print(f"t_demo0,a:{a},b:{b}")
# 发布任务
for i in range(1, 51):
f0.pub(i, i)
# 消费任务
f0.start()
3.发布消费任务(类调用版)
from redis_queue_tool import RedisPublish, RedisCustomer
for zz in range(1, 501):
param = {"a": zz, "b": zz, "c": zz}
RedisPublish(queue_name='test2').publish_redispy(param)
def print_msg_dict(a, b, c):
print(f"msg_dict:{a},{b},{c}")
# 消费多参数类型任务 queue_name消费队列名称 qps每秒消费任务数(默认没有限制)
RedisCustomer(queue_name='test2', consuming_function=print_msg_dict,
qps=50).start_consuming_message()
4.发布消费任务(额外参数)
from redis_queue_tool import task_deco
@task_deco('test1', qps=30, threads_num=30, max_retry_times=3, ack=True)
def f1(a, b):
print(f"t_demo1,a:{a},b:{b}")
# 发布任务
for i in range(1, 31):
f1.pub(i, i + 1) # 或者 f1.publish_redispy(i,i+1)
# 消费任务
f1.start()
# DLQ消息重入消费队列
f1.publisher.dlq_re_queue()
5.批量提交任务(使用协程消费)
from redis_queue_tool import task_deco
from gevent import monkey
monkey.patch_all()
# #### 3.批量提交任务
result = [{'a': i, 'b': i, 'c': i} for i in range(1, 51)]
# customer_type 消费者类型(默认thread),max_push_size每次批量提交记录数(默认值50)
# 若使用gevent请在代码开头加入:from gevent import monkey monkey.patch_all()
@task_deco('test3', qps=50, customer_type='gevent', max_push_size=100) # 消费函数上新增任务队列装饰器
def f3(a, b, c):
print(f"t_demo3:{a},{b},{c}")
# 发布任务
f3.pub_list(result)
# 消费任务
f3.start()
6.切换任务队列中间件为sqlite(默认为redis)
from redis_queue_tool import task_deco, MiddlewareEum
@task_deco('test4', middleware=MiddlewareEum.SQLITE, qps=10)
def f4(a, b, c):
print(f"t_demo4:{a},{b},{c}")
for zz in range(1, 51):
f4.pub(zz, zz, zz)
f4.start()
消费函数参数详解
get_consumer(queue_name='test11', consuming_function=f11, process_num=2, threads_num=30, max_retry_times=5, qps=10)
:param queue_name: 队列名称
:param consuming_function: 队列消息取出来后执行的方法
:param process_num: 启动进程数量(默认值:1)
:param threads_num: 启动线程数(默认值:50)
:param max_retry_times: 错误重试次数(默认值:3)
:param qps: 每秒限制消费任务数量(默认0不限)
:param middleware: 消费中间件,默认redis 支持sqlite ,kafka, memory
:param specify_threadpool: 外部传入线程池
:param customer_type: 消费者类型 string 支持('thread','gevent') 默认thread
:param fliter_rep: 消费任务是否去重 bool True:去重 False:不去重
:param max_push_size : 每次批量推送任务数量 默认值50
:param ack : 是否需要确认消费 默认值False
:param priority : 队列优先级 int[0-4]
reids安装
reids docker安装
docker run -d -p 6379:6379 redis
redis web版管理工具 redisweb
特色说明
1 . 高并发分布式爬虫(经过线上千万级数据爬取验证)
2 . 分布式数据清洗(清洗自动去重,支持任意时刻中断后继续清洗)
3 . 短视频处理(视频下载上传,带宽足够无需等待)
4 . 异步实时在线查询接口(速度达到毫秒级别)
5 . 其它使用场景扩展中
更新说明
2020-12-18 pip安装版本升级到4.8.0,新增支持优先级队列参数priority
2020-11-17 新增支持优先级队列,priority值越大,队列消优先级越高
2020-11-01 版本4.6.9 新增支持DLQ死信队列支持,当ack=True消费失败消息都会进入死信队列
2020-06-11 版本4.1.5 新增支持gevent协程消费参数 customer_type='gevent'
2020-05-20 新增消费函数超时时间参数
2020-05-10 新增sqlite中间件支持
2020-04-13 消费函数新增自动控制线程数
2020-04-10 消费函数新增限频参数
2020-01-08 消费函数支持多参数类型
2019-12-06 简化多线程消费队列类
2019-10-14 新增消费函数错误重试机制,默认重试3次
2019-10-12 任务去重忽略参数顺序
2019-09-27 修复提交列表任务BUG
2019-05-25 新增添加任务时动态传参
2019-04-06 新增爬取任务自动去重功能
2019-03-23 新增单线程异步批量提交功能
Project details
Release history Release notifications | RSS feed
Download files
Download the file for your platform. If you're not sure which to choose, learn more about installing packages.
Source Distribution
redis-queue-tool-4.8.7.tar.gz
(19.1 kB
view details)
Built Distribution
File details
Details for the file redis-queue-tool-4.8.7.tar.gz
.
File metadata
- Download URL: redis-queue-tool-4.8.7.tar.gz
- Upload date:
- Size: 19.1 kB
- Tags: Source
- Uploaded using Trusted Publishing? No
- Uploaded via: twine/2.0.0 pkginfo/1.4.2 requests/2.24.0 setuptools/42.0.2 requests-toolbelt/0.9.1 tqdm/4.48.0 CPython/3.7.1
File hashes
Algorithm | Hash digest | |
---|---|---|
SHA256 | 07337a714efa79dcd01d83abd90c49c026bbdece5b60e8b23a5e46c6be4f40e1 |
|
MD5 | ea5d9b10bcdedeef0b813125079d4b35 |
|
BLAKE2b-256 | 10e9726e4e3becde2770c8cc1c84816c284b962af41368ef9966e751e809d66f |
File details
Details for the file redis_queue_tool-4.8.7-py3-none-any.whl
.
File metadata
- Download URL: redis_queue_tool-4.8.7-py3-none-any.whl
- Upload date:
- Size: 42.6 kB
- Tags: Python 3
- Uploaded using Trusted Publishing? No
- Uploaded via: twine/2.0.0 pkginfo/1.4.2 requests/2.24.0 setuptools/42.0.2 requests-toolbelt/0.9.1 tqdm/4.48.0 CPython/3.7.1
File hashes
Algorithm | Hash digest | |
---|---|---|
SHA256 | dea8bf206cd361de97a8ac4a59726546d6a1c6dffc6ed24e70c37e96f9d695c2 |
|
MD5 | 7cb20ca81b5109680d85e389da546bea |
|
BLAKE2b-256 | 34727673beb89aeb26e174935922909e023053c5c0d104b54c6a842075eb16c1 |