Skip to main content

SparkBoot: make an easy way (yaml) to run pyspark

Project description

GitHub | Gitee

SparkBoot - yaml驱动Spark开发

考虑到部分测试伙伴python能力不足,因此扩展Appium,支持通过yaml配置测试步骤;

一、概述

Spark太复杂了,特别是涉及到scala与python开发,学习与使用成本很高,因此创作了SparkBoot工具,开发人员仅编写yaml与sql即可实现复杂的Spark编程,为其屏蔽了底层开开发细节,减轻了开发难度,让其更专注于大数据分析的逻辑;

框架通过编写简单的yaml, 就可以执行一系列复杂的spark操作步骤, 如读数据/写数据/sql查询/打印变量等,极大的简化了伙伴Spark编程的工作量与工作难度,大幅提高人效;

框架通过提供类似pythonfor/if/break语义的步骤动作,赋予伙伴极大的开发能力与灵活性,能适用于广泛的应用场景。

框架提供include机制,用来加载并执行其他的步骤yaml,一方面是功能解耦,方便分工,一方面是功能复用,提高效率与质量,从而推进脚本整体的工程化。

二、特性

  1. 底层基于 pyspark 库来实现
  2. 支持通过yaml来配置执行的步骤,简化了生成代码的开发: 每个步骤可以有多个动作,但单个步骤中动作名不能相同(yaml语法要求); 动作代表spark上的一种操作,如read_csv/query_sql等等;
  3. 支持类似pythonfor/if/break语义的步骤动作,灵活适应各种场景
  4. 支持include引用其他的yaml配置文件,以便解耦与复用

三、同类yaml驱动框架

HttpBoot SeleniumBoot AppiumBoot MiniumBoot MonitorBoot K8sBoot

四、todo

  1. 支持更多的动作

五、安装

pip3 install SparkBoot

安装后会生成命令SparkBoot;

注: 对于深度deepin-linux系统,生成的命令放在目录~/.local/bin,建议将该目录添加到环境变量PATH中,如

export PATH="$PATH:/home/shi/.local/bin"

六、使用

1 本地执行

# 以local模式来执行 步骤配置文件中定义的spark作业
SparkBoot 步骤配置文件.yml

# 生成spark作业的相关文件,用于cluster/yarn模式中给spark-submit提交作业
# 生成文件包含: 1 submit.sh spark-submit的提交作业的命令 2 run.py python入口文件 3 步骤配置文件
# 提交作业命令如: spark-submit --master spark://192.168.62.209:7077 run.py 步骤配置文件
SparkBoot 步骤配置文件.yml  -o 作业文件的生成目录

如执行 SparkBoot example/test.yml,输出如下

2023-09-25 12:34:22,578 - ThreadPoolExecutor-0_0	- boot - DEBUG - handle action: set_vars={'outdir': '../data'}
2023-09-25 12:34:22,578 - ThreadPoolExecutor-0_0	- boot - DEBUG - handle action: else=[{'init_session': {'app': 'test'}, 'set_vars': {'outdir': '/output'}}]
2023-09-25 12:34:22,578 - ThreadPoolExecutor-0_0	- boot - DEBUG - handle action: read_jdbc={'user': {'url': 'jdbc:mysql://192.168.62.209:3306/test', 'table': 'user', 'properties': {'user': 'root', 'password': 'root', 'driver': 'com.mysql.jdbc.Driver'}}}
+---+--------+--------+------+---+------+
| id|username|password|  name|age|avatar|
+---+--------+--------+------+---+------+
|  1|        |        | shi-1|  1|  null|
|  2|        |        | shi-2|  2|  null|
|  3|        |        | shi-3|  3|  null|
+---+--------+--------+------+---+------+
only showing top 20 rows

2023-09-25 12:34:27,231 - ThreadPoolExecutor-0_0	- boot - DEBUG - handle action: write_csv={'user': {'path': '$outdir/user.csv', 'mode': 'overwrite'}}
2023-09-25 12:34:27,783 - ThreadPoolExecutor-0_0	- boot - DEBUG - handle action: read_csv={'user2': {'path': '$outdir/user.csv'}}
......

命令会自动执行test.yaml文件中定义的spark任务

2 集群中执行

  1. 先生成作业文件
SparkBoot udf-test.yml -u udf-test.py -o out

七、步骤配置文件及demo

用于指定多个步骤, 示例见源码 example 目录下的文件;

顶级的元素是步骤;

每个步骤里有多个动作(如read_csv/query_sql),如果动作有重名,就另外新开一个步骤写动作,这是由yaml语法限制导致的,但不影响步骤执行。

简单贴出3个demo

  1. 基本api测试: 详见 example/test.yml
  2. 简单的单词统计: 详见 example/word-count.yml
  3. 复杂的订单统计: 详见 example/order-stat.yml

八、配置详解

支持通过yaml来配置执行的步骤;

每个步骤可以有多个动作,但单个步骤中动作名不能相同(yaml语法要求);

动作代表spark上的一种操作,如read_csv/query_sql等等;

下面详细介绍每个动作:

1 初始化session的动作

  1. init_session: 初始化spark session
- init_session:
    app: test
    master: local[*] # master: 对local仅在本地调试时使用,如果是在集群中运行,则需要删掉本行,并在spark-submit命令中指定master
    log_level: error # 日志级别

2 读批数据的动作

  1. read_csv: 读csv数据
read_csv:
  # key是表名, value是csv文件路径
  user: /data/input/user.csv
  1. read_json: 读json数据
read_json:
  # key是表名, value是json文件路径
  user: /data/input/user.json
  1. read_orc: 读orc数据
read_orc:
  # key是表名, value是orc文件路径
  user: /data/input/user.orc
  1. read_parquet: 读parquet数据
read_parquet:
  # key是表名, value是parquet文件路径
  user: /data/input/user.parquet
  1. read_text: 读文本数据
read_text:
  # key是表名, value是文本文件路径
  lines: /data/input/words.txt
  1. read_jdbc: 读jdbc数据
read_jdbc:
    # key是表名, value是jdbc连接配置
    user:
      url: jdbc:mysql://192.168.62.209:3306/test
      table: user
      properties:
        user: root
        password: root
        driver: com.mysql.jdbc.Driver # 需要提前复制好mysql驱动jar,参考pyspark.md
  1. read_table: 读表数据
# 接收字典参数
read_table:
    # key是新表名, value是旧表名
    user2: user
# 接收数组参数
read_table:
  - user

3 读流数据的动作

  1. reads_rate: 读模拟流数据
reads_rate:
    # key是表名, value是参数
    user:
      rowsPerSecond: 10 # 每秒产生10行
  1. reads_socket: 读socket流数据
reads_socket:
    # key是表名, value是socket server的ip端口
    user: localhost:9999
  1. reads_kafka: 读kafka流数据
reads_kafka:
    # key是表名, value是kafka brokers+topic
    user:
      brokers: localhost:9092 # 多个用逗号分割
      topic: test
  1. reads_csv: 读csv流数据
reads_csv:
  # key是表名, value是csv文件路径
  user: /data/input/user.csv
  1. reads_json: 读json流数据
reads_json:
  # key是表名, value是json文件路径
  user: /data/input/user.json
  1. reads_orc: 读orc流数据
reads_orc:
  # key是表名, value是orc文件路径
  user: /data/input/user.orc
  1. reads_parquet: 读parquet流数据
reads_parquet:
  # key是表名, value是parquet文件路径
  user: /data/input/user.parquet
  1. reads_text: 读文本流数据
reads_text:
  # key是表名, value是文本文件路径
  lines: /data/input/words.txt

4 执行sql的动作

  1. query_sql: 执行sql
- query_sql:
    # key是表名, value是查询sql
    words: select explode(split(value," ")) as word from lines
    word_count: select word, count(1) as cnt from words group by word

5 写批数据的动作

  1. write_csv: 写csv数据
write_csv:
    # key是表名, value是csv文件路径
    user: /data/output/user.csv
# 或
write_csv:
    user:
      path: /data/output/user.csv
      mode: overwrite # 模式:append/overwrite/ignore
      #compression: none # 不压缩
  1. write_json: 写json数据
write_json:
    # key是表名, value是json文件路径
    user: /data/output/user.json
  1. write_orc: 写orc数据
write_orc:
    # key是表名, value是orc文件路径
    user: /data/output/user.orc
  1. write_parquet: 写parquet数据
write_parquet:
    # key是表名, value是parquet文件路径
    user: /data/output/user.parquet
  1. write_text: 写文本数据
write_text:
    # key是表名, value是文本文件路径
    user: /data/output/user.txt
  1. write_jdbc: 写jdbc数据
write_jdbc:
    # key是表名, value是jdbc连接配置
    user:
      url: jdbc:mysql://192.168.62.209:3306/test
      table: user
      properties:
        user: root
        password: root
        driver: com.mysql.jdbc.Driver # 需要提前复制好mysql驱动jar,参考pyspark.md

6 写流数据的动作

  1. writes_console: 将流数据写到控制台
writes_console:
  # key是表名, value是参数
  user:
    checkpointLocation: path/to/checkpoint/dir
    outputMode: complete # append/update/complete
  1. writes_kafka: 写kafka流数据
writes_kafka:
  # key是表名, value是kafka brokers+topic
  user:
    brokers: localhost:9092 # 多个用逗号分割
    topic: test
    checkpointLocation: path/to/checkpoint/dir
    outputMode: complete # append/update/complete
  1. writes_csv: 写csv数据
writes_csv:
    # key是表名, value是文本文件路径
    user:
      path: /data/output/user.csv
      mode: overwrite # 模式:append/overwrite/ignore
      #compression: none # 不压缩
      checkpointLocation: path/to/checkpoint/dir
      outputMode: complete # append/update/complete
  1. writes_json: 写json数据
writes_json:
    # key是表名, value是json文件路径
    user: 
      path: /data/output/user.json
      checkpointLocation: path/to/checkpoint/dir
      outputMode: complete # append/update/complete
  1. writes_orc: 写orc数据
writes_orc:
    # key是表名, value是orc文件路径
    user: 
      path: /data/output/user.orc
      checkpointLocation: path/to/checkpoint/dir
      outputMode: complete # append/update/complete
  1. writes_parquet: 写parquet数据
writes_parquet:
    # key是表名, value是parquet文件路径
    user: 
      path: /data/output/user.parquet
      checkpointLocation: path/to/checkpoint/dir
      outputMode: complete # append/update/complete
  1. writes_text: 写文本数据
writes_text:
  # key是表名, value是文本文件路径
    user: 
      path: /data/output/user.txt
      checkpointLocation: path/to/checkpoint/dir
      outputMode: complete # append/update/complete

7 其他动作

  1. print: 打印, 支持输出变量/函数;
# 调试打印
print: "总申请数=${dyn_data.total_apply}, 剩余份数=${dyn_data.quantity_remain}"
  1. for: 循环; for动作下包含一系列子步骤,表示循环执行这系列子步骤;变量for_i记录是第几次迭代(从1开始),变量for_v记录是每次迭代的元素值(仅当是list类型的变量迭代时有效)
# 循环3次
for(3) :
  # 每次迭代要执行的子步骤
  - switch_sheet: test

# 循环list类型的变量urls
for(urls) :
  # 每次迭代要执行的子步骤
  - switch_sheet: test

# 无限循环,直到遇到跳出动作
# 有变量for_i记录是第几次迭代(从1开始)
for:
  # 每次迭代要执行的子步骤
  - break_if: for_i>2 # 满足条件则跳出循环
    switch_sheet: test
  1. once: 只执行一次,等价于 for(1); once 结合 moveon_if,可以模拟 python 的 if 语法效果
once:
  # 每次迭代要执行的子步骤
  - moveon_if: for_i<=2 # 满足条件则往下走,否则跳出循环
    switch_sheet: test
  1. break_if: 满足条件则跳出循环; 只能定义在for/once循环的子步骤中
break_if: for_i>2 # 条件表达式,python语法
  1. moveon_if: 满足条件则往下走,否则跳出循环; 只能定义在for/once循环的子步骤中
moveon_if: for_i<=2 # 条件表达式,python语法
  1. if/else: 满足条件则执行if分支,否则执行else分支
- set_vars:
    txt: '进入首页'
- if(txt=='进入首页'): # 括号中包含的是布尔表达式,如果表达式结果为true,则执行if动作下的子步骤,否则执行else动作下的子步骤
    - print: '----- 执行if -----'
  else:
    - print: '----- 执行else -----'
  1. include: 包含其他步骤文件,如记录公共的步骤,或记录配置数据(如用户名密码);
include: part-common.yml
  1. set_vars: 设置变量;
set_vars:
  name: shi
  password: 123456
  birthday: 5-27
  1. print_vars: 打印所有变量;
print_vars:

九、UDF 用户定义函数

  1. 定义 UDF: udf-test.py
from pyspark.sql.functions import udf
from pyspark.sql.types import *

@udf(returnType=DoubleType())
def add(m, n):
    return float(m) + float(n)

@udf(returnType=DoubleType())
def add_one(a):
    return float(a) + 1.0
  1. 定义步骤文件: udf-test.yml
- debug: true # 遇到df就show()
# 1 初始化spark session
- init_session:
    app: test
    master: local[*]
    log_level: error # 日志级别
# 2 读mysql
- read_jdbc:
    user:
      url: jdbc:mysql://192.168.62.209:3306/test
      table: user
      properties:
        user: root
        password: root
        driver: com.mysql.jdbc.Driver # 需要提前复制好mysql驱动jar,参考pyspark.md
# 3 查sql: select udf
- query_sql:
    test: select id,add_one(id),add(id,2) from user
  1. 命令行执行,需用-u来指定UDF所在的python文件
SparkBoot udf-test.yml -u udf-test.py

执行结果如下

Project details


Download files

Download the file for your platform. If you're not sure which to choose, learn more about installing packages.

Source Distribution

SparkBoot-1.0.0.tar.gz (15.7 kB view details)

Uploaded Source

Built Distribution

SparkBoot-1.0.0-py3-none-any.whl (12.1 kB view details)

Uploaded Python 3

File details

Details for the file SparkBoot-1.0.0.tar.gz.

File metadata

  • Download URL: SparkBoot-1.0.0.tar.gz
  • Upload date:
  • Size: 15.7 kB
  • Tags: Source
  • Uploaded using Trusted Publishing? No
  • Uploaded via: twine/4.0.2 CPython/3.8.12

File hashes

Hashes for SparkBoot-1.0.0.tar.gz
Algorithm Hash digest
SHA256 0b96bd410f9c74b1c195b4930e60471fac00c2326c34a9fb10e9cb0f53f00de7
MD5 4a498b1046a092cec7ed22723f12e76e
BLAKE2b-256 0a0e1cfc7923a4d6011eef61bde312e663734169e034fada73fe06f1b08bbc6c

See more details on using hashes here.

File details

Details for the file SparkBoot-1.0.0-py3-none-any.whl.

File metadata

  • Download URL: SparkBoot-1.0.0-py3-none-any.whl
  • Upload date:
  • Size: 12.1 kB
  • Tags: Python 3
  • Uploaded using Trusted Publishing? No
  • Uploaded via: twine/4.0.2 CPython/3.8.12

File hashes

Hashes for SparkBoot-1.0.0-py3-none-any.whl
Algorithm Hash digest
SHA256 6290711f544335daad34bd64c2a3008c69df325347221530ddc4b6833a89e51f
MD5 b86f414eaa973483520741527f7f50ac
BLAKE2b-256 74187390e0b3f22be7725faf8fb67c7107d2525532b34f893503603527f85017

See more details on using hashes here.

Supported by

AWS AWS Cloud computing and Security Sponsor Datadog Datadog Monitoring Fastly Fastly CDN Google Google Download Analytics Microsoft Microsoft PSF Sponsor Pingdom Pingdom Monitoring Sentry Sentry Error logging StatusPage StatusPage Status page