Skip to main content

spider_hole

Project description

cobweb

cobweb是一个基于python的分布式爬虫调度框架,目前支持分布式爬虫,单机爬虫,支持自定义数据库,支持自定义数据存储,支持自定义数据处理等操作。

cobweb主要由3个模块和一个配置文件组成:Launcher启动器、Crawler采集器、Pipeline存储和setting配置文件。

  1. Launcher启动器:用于启动爬虫任务,控制爬虫任务的执行流程,以及数据存储和数据处理。 框架提供两种启动器模式:LauncherAir、LauncherPro,分别对应单机爬虫模式和分布式调度模式。
  2. Crawler采集器:用于控制采集流程、数据下载和数据处理。 框架提供了基础的采集器,用于控制采集流程、数据下载和数据处理,用户也可在创建任务时自定义请求、下载和解析方法,具体看使用方法介绍。
  3. Pipeline存储:用于存储采集到的数据,支持自定义数据存储和数据处理。框架提供了Console和Loghub两种存储方式,用户也可继承Pipeline抽象类自定义存储方式。
  4. setting配置文件:用于配置采集器、存储器、队列长度、采集线程数等参数,框架提供了默认配置,用户也可自定义配置。

安装

pip3 install --upgrade cobweb-launcher

使用方法介绍

1. 任务创建

  • LauncherAir任务创建
from cobweb import LauncherAir

# 创建启动器
app = LauncherAir(task="test", project="test")

# 设置采集种子
app.SEEDS = [{
    "url": "https://www.baidu.com"
}]
...
# 启动任务
app.start()
  • LauncherPro任务创建
    LauncherPro依赖redis实现分布式调度,使用LauncherPro启动器需要完成环境变量的配置或自定义setting文件中的redis配置,如何配置查看2. 自定义配置文件参数
from cobweb import LauncherPro

# 创建启动器
app = LauncherPro(
    task="test",
    project="test"
)
...
# 启动任务
app.start()

2. 自定义配置文件参数

  • 通过自定义setting文件,配置文件导入字符串方式

默认配置文件:import cobweb.setting
不推荐!!!目前有bug,随缘使用... 例如:同级目录下自定义创建了setting.py文件。

from cobweb import LauncherAir

app = LauncherAir(
    task="test", 
    project="test",
    setting="import setting"
)

...

app.start()
  • 自定义修改setting中对象值
from cobweb import LauncherPro

# 创建启动器
app = LauncherPro(
    task="test",
    project="test",
    REDIS_CONFIG = {
        "host": ...,
        "password":...,
        "port": ...,
        "db": ...
    }
)
...
# 启动任务
app.start()

3. 自定义请求

@app.request使用装饰器封装自定义请求方法,作用于发生请求前的操作,返回Request对象或继承于BaseItem对象,用于控制请求参数。

from typing import Union
from cobweb import LauncherAir
from cobweb.base import Seed, Request, BaseItem

app = LauncherAir(
    task="test", 
    project="test"
)

...

@app.request
def request(seed: Seed) -> Union[Request, BaseItem]:
    # 可自定义headers,代理,构造请求参数等操作
    proxies = {"http": ..., "https": ...}
    yield Request(seed.url, seed, ..., proxies=proxies, timeout=15)
    # yield xxxItem(seed, ...) # 跳过请求和解析直接进入数据存储流程
    
...

app.start()

默认请求方法
def request(seed: Seed) -> Union[Request, BaseItem]:
    yield Request(seed.url, seed, timeout=5)

4. 自定义下载

@app.download使用装饰器封装自定义下载方法,作用于发生请求时的操作,返回Response对象或继承于BaseItem对象,用于控制请求参数。

from typing import Union
from cobweb import LauncherAir
from cobweb.base import Request, Response, BaseItem

app = LauncherAir(
    task="test", 
    project="test"
)

...

@app.download
def download(item: Request) -> Union[BaseItem, Response]:
    ...
    response = ...
    ...
    yield Response(item.seed, response, ...) # 返回Response对象,进行解析
    # yield xxxItem(seed, ...) # 跳过请求和解析直接进入数据存储流程
    
...

app.start()

默认下载方法
def download(item: Request) -> Union[Seed, BaseItem, Response, str]:
    response = item.download()
    yield Response(item.seed, response, **item.to_dict)

5. 自定义解析

自定义解析需要由一个存储数据类和解析方法组成。存储数据类继承于BaseItem的对象,规定存储表名及字段, 解析方法返回继承于BaseItem的对象,yield返回进行控制数据存储流程。

from typing import Union
from cobweb import LauncherAir
from cobweb.base import Seed, Response, BaseItem

class TestItem(BaseItem):
    __TABLE__ = "test_data" # 表名
    __FIELDS__ = "field1, field2, field3" # 字段名

app = LauncherAir(
    task="test", 
    project="test"
)

...

@app.parse
def parse(item: Response) -> Union[Seed, BaseItem]:
    ...
    yield TestItem(item.seed, field1=..., field2=..., field3=...)
    # yield Seed(...) # 构造新种子推送至消费队列
    
...

app.start()

默认解析方法
def parse(item: Request) -> Union[Seed, BaseItem]:
    upload_item = item.to_dict
    upload_item["text"] = item.response.text
    yield ConsoleItem(item.seed, data=json.dumps(upload_item, ensure_ascii=False))

need deal

  • 队列优化完善,使用queue的机制wait()同步各模块执行?
  • 日志功能完善,单机模式调度和保存数据写入文件,结构化输出各任务日志
  • 去重过滤(布隆过滤器等)
  • 单机防丢失
  • excel、mysql、redis数据完善

未更新流程图!!! img.png

Project details


Release history Release notifications | RSS feed

Download files

Download the file for your platform. If you're not sure which to choose, learn more about installing packages.

Source Distribution

cobweb-launcher-1.2.15.tar.gz (22.4 kB view details)

Uploaded Source

Built Distribution

cobweb_launcher-1.2.15-py3-none-any.whl (30.9 kB view details)

Uploaded Python 3

File details

Details for the file cobweb-launcher-1.2.15.tar.gz.

File metadata

  • Download URL: cobweb-launcher-1.2.15.tar.gz
  • Upload date:
  • Size: 22.4 kB
  • Tags: Source
  • Uploaded using Trusted Publishing? No
  • Uploaded via: twine/4.0.2 CPython/3.9.6

File hashes

Hashes for cobweb-launcher-1.2.15.tar.gz
Algorithm Hash digest
SHA256 a55df87ca4a9159fc5ba73f3ed0783e41c34e585d1c6d5e1cc42cd281a11162b
MD5 baacdd833a5fc37b9bf0d4a10b2c06fb
BLAKE2b-256 04b688f24f65d75e48dc0b7e0d2880a554ec9bf14fad096c8e06f4433398a3ab

See more details on using hashes here.

File details

Details for the file cobweb_launcher-1.2.15-py3-none-any.whl.

File metadata

File hashes

Hashes for cobweb_launcher-1.2.15-py3-none-any.whl
Algorithm Hash digest
SHA256 4d4404207ba892918e982748915209e581fd9104655e0839351d6c2ecff92984
MD5 89e17613fd43ac7ee1af0049517a5135
BLAKE2b-256 f615ecdf35b9bd0e13c2a8e5d9f37f50337771fb67fc05a87f49a3277ab74979

See more details on using hashes here.

Supported by

AWS AWS Cloud computing and Security Sponsor Datadog Datadog Monitoring Fastly Fastly CDN Google Google Download Analytics Microsoft Microsoft PSF Sponsor Pingdom Pingdom Monitoring Sentry Sentry Error logging StatusPage StatusPage Status page