Skip to main content
Join the official 2019 Python Developers SurveyStart the survey!

template-driven parser engine for scrapy

Project description

Parser Engine

代号PE,为scrapy框架量身定制的 "可配置化的响应解析器引擎"

主要支持以下特性:

  • [x] 基于xpath、jsonpath等规则解析html和json格式的http请求响应体
  • [x] 输出值基于scrapy.Item,自动定位并返回实例化的Item
  • [x] 支持 父节点列表for循环解析
  • [x] 字段枚举值的映射
  • [x] 设置字段为必有字段,缺失时丢弃整个Item
  • [x] 将list类型的字段拼接成字符串

安装

  • 安装最新体验版:

    pip install git+https://github.com/Danceiny/parser_engine

  • 安装稳定版:

    pip install -U parser_engine

更新日志

请移步CHANGELOG.md

速览

如何使用PE从零开始快速编写一个网站的爬虫,并持久化数据?可移步快速开始

  • 极简版,使用CrawlSpider的rules机制。
from parser_engine import TemplateAnnotation
from scrapy.spiders.crawl import CrawlSpider
@TemplateAnnotation(tpls="demo")
class DemoSpider4(CrawlSpider):
    name = "demo4"
    start_urls = [
        "http://github.cannot.cc/baixing-helper"
    ]
  • 使用scrapy_redis,解析start_urls的响应。
from parser_engine import TemplateAnnotation
from parser_engine.clue.spider import ClueSpider
@TemplateAnnotation(start_url_tpl=({
    "name": "zhongguozhongqi_xiaoshouwangluo",
    "itemname": "HuocheDealerItem",
    "parent": {
        "xpath": "//tr[@class=\"bgcolor2\"]"
    },
    "fields": [
        {
            "key": "area",
            "xpath": "td[1]/text()",
            "value_type": "stripped_string"
        }, {
            "key": "leads_name",
            "xpath": "td[2]/text()",
            "value_type": "stripped_string"
        }, {
            "key": "address",
            "xpath": "td[3]/text()",
            "value_type": "stripped_string"
        }, {
            "key": "phone",
            "xpath": "td[5]/text()",
            "value_type": "stripped_string"
        }
    ]
}), channel='zhongguozhongqi', leads_src='中国重汽')
class ZhongguozhongqiSpider(ClueSpider):
    name = 'zhongguozhongqi'
    def parse(self, response):
        items = self._parse_start_url(response)
        for item in items:
            phone = item.get('phone')
            if phone:
                item['phone'] = phone.replace('、', ',')
            yield item
        self.finish_clue(response, len(items))
  • 使用scrapy_redis,灵活运用多种PE特性。
from parser_engine.clue.spider import ClueSpider
from parser_engine import TemplateAnnotation
from parser_engine.clue.items import ClueItem
from parser_engine.request import TaskRequest
from scrapy import Request
@TemplateAnnotation(start_url_tpl=({
                                       "name": "youka_shop_listing_api",
                                       "parent": {
                                           "json_key": "data",
                                       },
                                       "fields": [{
                                           "key": "totalPage",
                                           "json_key": "totalPage",

                                       }, {
                                           "key": "ids",
                                           "json_path": "dataList[*].id"
                                       }]
                                   },),
    tpls=({
        "name": "youka_shop_detail_api",
        "itemname": "HuocheDealerItem",
        "parent": {
            "json_key": "data",
        },
        "fields": [{
            "key": "company_type",
            "json_key": "category",
            "mapper": {
                1: "二手车直营店",
                2: "4S店"
            }
        }, {
            "key": "dealer_id",
            "json_key": "id",
            "required": 1,
        }, {
            "key": "leads_name",
            "json_key": "shopName",
        }, {
            "key": "area",
            "json_path": "districtDto.districtName",
            "value_type": "singleton"
        }, {
            "key": "city",
            "json_path": "cityDto.cityName",
            "value_type": "singleton"
        }, {
            "key": "service_phone",
            "default_value": "",
        }, {
            "key": "wechat",
            "json_key": "wechat",
        },  {
            "key": "tags",
            "json_key": "tags",
            "join": ","
        }]
    }), channel='youka', leads_src='优卡')
class YoukaSpider(ClueSpider):
    name = 'youka'
    custom_settings = {
        'CONCURRENT_REQUESTS': 2,
        'CONCURRENT_REQUESTS_PER_DOMAIN': 1
    }
    def parse(self, response):
        items = self._parse_start_url(response)
        meta = response.meta
        clue_id = meta.get('clue_id')
        from_url = response.request.url
        if meta.get('open_pages'):
            total_page = items[0]['totalPage']
            import re
            current_page = int(re.findall('page=(\\d+)', from_url)[0])
            for i in range(1, total_page + 1):
                if current_page == i:
                    continue
                url = "http://www.china2cv.com/truck-foton-web/api/shop/v1/getShopList?page=%d&pageSize=10" % i
                yield ClueItem({"project": "huoche", "spider": self.name, "req": TaskRequest(
                    url=url,
                    meta={"from_clue_id": clue_id}
                )})
        for item in items:
            for id in item['ids']:
                r = Request(url="http://www.china2cv.com/truck-foton-web/api/shop/v1/getShopInfo?shopId=%d" % int(id),
                            callback=self._response_downloaded)
                r.meta.update(rule=0, from_clue_id=clue_id)
                yield r

    def process_results(self, response, results):
        for item in results:
            item['url'] = 'http://www.china2cv.com/storeDetail.html?typess=1&shopId=' + str(item['dealer_id'])
        return results

完整示例请参考:examples

原理

  • 解析器

    PE向调用方提供一套简单、易懂的参数,实际会将其编译成较为复杂的xpath表达式,再借助scrapy封装的解析器将所需内容提取出来。

  • 返回值

    通过配置itemname参数,PE将反射得到所需的Item类,按照配置的映射关系,从提取出的值创建一个Item实例(或者多个),并返回一个可迭代的Item实例列表。

已知问题

  • 如果提取规则较为复杂,建议直接使用xpath和css参数,因为PE的参数编译可能存在问题。
  • 如果对性能有比较强的需求,不建议使用。

特性介绍

  • [x] 支持表格、列表等形式的批量解析

    通过在模板中定义一个父节点,从html页面中的表格、列表等组件中,批量抓取多个同类item

    用法示例:使用{"parent": {}, "fields": []}这样的配置,将首先查找匹配parent的节点,然后遍历其每个子节点,对每个子节点应用fields规则,生成一个item。

  • [x] Clue Mechanism

    基于scrapy_redis的线索机制,可持久化(目前支持mysql)线索,方便追踪。

  • [x] 值映射

    一个简单的需求场景:API返回的性别字段是0和1,但是需要将其转换成"男"和"女"。

待做清单

  • 优化
    • [ ] 支持直接在Item的类定义中定义模板

      用法示例:原模板的itemname参数通过注解传参,其他的模板参数定义在Item类中,如下所示。

      class MyItem(scrapy.Item):
          tpl = {"parent": {"xpath":"//div[@id=\"contentDiv\"]//table/tbody/tr[position()>1]"}
          name = Field(xpath="//a[@href]/text()")
      

scrapy配置参数

  • PARSER_ENGINE_CONFIG_FILE

    模板配置文件的位置。默认是parser_engine.json,与scrapy.cfg文件同级。

  • MYSQL

    MySQL配置信息,dict类型,包含以下字段: - DATABASE - USER - PASSWORD - PORT 默认3306 - HOST 默认127.0.0.1

下面的字段在MYSQL配置缺失时生效:

  • MYSQL_USER
  • MYSQL_PASSWORD
  • MYSQL_PORT
  • MYSQL_DATABASE

模板参数

模板配置文件,如parser_engine.json,其构成结构如下:

{
  "templates": [
    {
      "name": "tpl1"   
    },
    {
      "name": "tpl2"
    }
  ]

}

模板配置文件中templates列表中的每一项,即为一个模板。

所谓模板,对应的类是PETemplate,其构成结构如下:

  • name 必要。相当于该模板在该模板文件中的id
  • parent 不必要。如果指定,将按照其指定的规则,从响应中取出某节点作为后续提取规则的根节点。
  • itemname 不必要。如果指定,将尝试加载实例化该item类;如果没有找到类或者没有指定,则返回dict类型的原始数据。
  • extract_keys 不必要。json格式专属,用于直接从某个json对象中提取一组键值,通常可以搭配parent参数使用,较为高效。
  • extract_keys_map 不必要。类似extract_keys_map,适用于需要转换原json对象中的键名的场景。
  • fields 不必要。是一个字段的数组。

所谓字段,对应的类是PEField,属于PE的核心,其构成结构如下:

  • key 必要。提取结果保存的键名,通常是item的某个Field的变量名。
  • xpath
  • css
  • tags 不必要。一组有序的html标签。如["div","a"]会被翻译成//div/a的xpath。
  • attr_name 不必要。对于html来说,经常需要获取某个tag的某个属性值。
  • attributes 不必要。支持多种结构。
    • string 直接作为//div/a[{attributes}]中的{attributes}
    • map {"type": "password", "id": "id1"} => //div/a[@type=\"password\" and @id=\"id1\"]
    • list [["type","=","password"],["id", "!=","id1"]] => //div/a[@type=\"password\" and @id!=\"id1\"]
  • json_path 不必要。json_path完全遵循json_path协议json_path在线调试
  • json_key 不必要。直接作为json取值的键名。
  • value_type 不必要。但很有用,主要是因为不管是xpath还是json_path,提取出来都是一个list,尽管有时字段明明是完全确定的,如果设置value_type=singleton,则PE将提取list的第一个元素。
  • position 不必要。
  • mapper 不必要。dict类型,用于实现值映射,例如:{1: "male", 2: "femail"}
  • join 不必要。str类型,用于实现','.join([])

TemplateAnnotation参数说明

TemplateAnnotation注解中传进来的参数,除了下面列出的,其他的参数都会被塞到返回值中(当然,如果通过定义itemname,实例化item的时候会静默抛弃那些不属于item的值)。

  • start_url_tpl: 模板的数组,或者模板id的数组。

    对应于start_urls的模板,会生成一个_parse_start_url方法绑定到spider类上,该方法有两个参数(不包括self):

    • response
    • tpl_index_or_id,默认是None
  • tpls: 模板的数组,或者模板id的数组

具体请参考decorator.py中的注释及源代码。

Html格式

举个简单的例子。

目标:抓取抖音用户关键字搜索抓包数据分析脚本使用指南页面的几个步骤标题,每个步骤是一个h3标签,步骤标题在id属性里,并且需要去掉形如1-的前缀。 那么相应的配置文件是:

    {
      "name": "demo",
      "fields": [
        {
          "dom_id": null,
          "_css": null,
          "xpath": null,
          "tags": [
            "h3"
          ],
          "classes": [],
          "attributes": null,
          "position": null,
          "key": "步骤",
          "value_type": null,
          "regexp": "[\\d]{1,2}-(\\w+)",
          "attr_name": "id"
        }
      ]
    }

输出

{'步骤': ['准备工作', '找到电脑的ip地址和端口', '确保手机与电脑建立连接', '抖音搜索关键词', '抓包数据导出', '提取用户信息', '推荐在线转换工具', 'python脚本导出']}

如果只需要第二个步骤,将json配置中的position参数改为2,即可得到如下输出:

{'步骤': ['找到电脑的ip地址和端口']}

JSON格式

    {
      "name": "json-api-demo",
      "fields": [
        {
          "key": "poi_id",
          "json_path": "$.pois[:1].id"
        },
        {
          "key": "地名",
          "json_path": "$.data.name",
          "value_type": "singleton"
        },
        {
          "key": "下级",
          "json_path": "$.data.children[*].name"
        }
      ]
    }

由于json_path解析总是返回一个list,对于一些确定的字段,比如通过调用APIhttp://172.31.1.4:30815/api/dict/area/0?childrenDepth=1,想拿到该地区的name字段,则可以设置value_typesingleton,则PE会做一次转换。

Project details


Download files

Download the file for your platform. If you're not sure which to choose, learn more about installing packages.

Files for parser-engine, version 0.1.4
Filename, size File type Python version Upload date Hashes
Filename, size parser_engine-0.1.4-py3.6.egg (63.6 kB) File type Egg Python version 3.6 Upload date Hashes View hashes

Supported by

Elastic Elastic Search Pingdom Pingdom Monitoring Google Google BigQuery Sentry Sentry Error logging AWS AWS Cloud computing DataDog DataDog Monitoring Fastly Fastly CDN SignalFx SignalFx Supporter DigiCert DigiCert EV certificate StatusPage StatusPage Status page