SQL Command test tool, use JDBC/ODBC
Project description
SQLCli 快速说明
SQLCli 是一个主要用Python完成的,命令快速的测试工具。
设计目的:
1: 满足数据库方面的相关功能测试、压力测试需要。
2: 能够作为一个日常小工具,进行数据库的日常操作。
3: 能够根据需要快速、灵活的生成测试需要的随机数据。
4: 能够操作Kafka消息队列。
5: 能够操作HDFS上的文件。
程序可以通过JPype连接数据库的JDBC驱动。
也可以通过ODBC标准连接数据库的ODBC驱动,但是这部分并没有经过严谨的测试。
SQLCli 目前可以支持的数据库有:
- Oracle,MySQL,PostgreSQL,SQLServer,TeraData, Hive, H2等主流通用数据库
- 达梦,神通, 金仓, 南大通用,LinkoopDB等众多国产数据库
- ClickHouse数据库
- 其他符合标准JDBC规范的数据库
SQLCli 目前支持的数据类型有:
CHAR
VARCHAR
LONGVARCHAR
TIMESTAMP_WITH_TIMEZONE
TIMESTAMP
TIME
DATE
VARBINARY
BINARY
LONGVARBINARY
DECIMAL
NUMERIC
DOUBLE
FLOAT
REAL
TINYINT
INTEGER
SMALLINT
BIGINT
BOOLEAN
BIT
STRUCT
ARRAY
谁需要用这个文档
需要通过SQL语句来查看、维护数据库的。
需要进行各种数据库功能测试、压力测试的。
需要用统一的方式来连接各种不同数据库的。
安装
安装的前提有:
- 有一个Python 3.6以上的环境
- 能够连接到互联网上, 便于下载必要的包
- 安装JDK8
- 对于Windows平台,需要提前安装微软的C++编译器(jpype1使用了JNI技术,需要动态编译)
- 对于Linux平台, 需要提前安装gcc编译器,以及Python3的开发包(原因同上)
yum install -y gcc-c++ gcc python3-devel
yum install -y unixODBC unixODBC-devel
依赖的第三方安装包:
- 这些安装包会在robotslacker-sqlcli安装的时候自动随带安装
- setproctitle : Python通过setproctitle来设置进程名称,从而在多进程并发时候给以帮助
- click : Python的命令行参数处理
- prompt_toolkit : 用于提供包括提示符功能的控制台终端的显示样式
- cli_helpers : 用于提供将数据库返回结果进行表单格式化显示
- hdfs : HDFS类库,支持对HDFS文件操作
- confluent_kafka : Kafka类库,支持对Kafka操作, 这个包和kafka-python冲突,需要提前移除kafka-python。 目前不支持WIndows
- wget : JDBC驱动更新和下载
安装命令:
pip install -U robotslacker-sqlcli
安装后步骤-下载驱动程序:
- 根据你的测试需要, 下载 https://github.com/robotslacker/sqlcli/blob/master/sqlcli/jlib/下对应的Jar包
- 放置jar包到 <PYTHON_HONE>/../site-packages/sqlcli/jlib下
- github上提供的仅仅是一些测试用的Jar包,如果你有自己的需要,可以用自己的文件覆盖上述下载的文件
安装后步骤-根据需要修改sqlcli/conf/sqlcli.ini文件:
- 默认情况下,这个文件不需要修改
- 如果你需要定义自己内网的驱动程序下载服务器,你需要修改这个文件
- 如果你需要定义自己的数据库驱动,你需要修改这个文件
第一次使用
安装后直接在命令下执行sqlcli命令即可。
如果你的$PYTHON_HOME/Scripts没有被添加到当前环境的$PATH中,你可能需要输入全路径名
(base) >sqlcli
SQL*Cli Release 0.0.32
SQL>
如果你这里看到了版本信息,那祝贺你,你的程序安装成功了
(base) >sqlcli
SQL*Cli Release 0.0.32
SQL> connect mem;
SQL> Connected.
如果你下载了至少H2的驱动程序,执行这个命令将连接到内置的H2数据库中,如果你看到了Connected信息,那再一次祝贺你,你的程序基本工作正常。
驱动程序的下载和配置
sqlcli是一个基于JDBC/ODBC的数据库工具,基于JDBC操作数据库的前提当前环境下有对应的数据库连接jar包,基于ODBC前提是安装了相关的ODBC驱动。
驱动程序的配置
配置文件位于SQLCli的安装目录下的conf目录中,配置文件名为:sqlcli.conf
配置例子:
[driver]
oracle=oracle_driver
mysql=mysql_driver
....
[oracle_driver]
filename=ojdbc8.jar
downloadurl=http://xxxxxx/driver/ojdbc8.jar
md5=1aa96cecf04433bc929fca57e417fd06
driver=oracle.jdbc.driver.OracleDriver
jdbcurl=jdbc:oracle:thin:@${host}:${port}/${service}
[mysql_driver]
filename=mysql-connector-java-8.0.20.jar
downloadurl=http://xxxxx/driver/mysql-connector-java-8.0.20.jar
md5=48d69b9a82cbe275af9e45cb80f6b15f
driver=com.mysql.cj.jdbc.Driver
jdbcurl=jdbc:mysql://${host}:${port}/${service}
jdbcprop=socket_timeout:360000000
odbcurl=DRIVER={driver_name};SERVER=${host};PORT=${port};DATABASE=${service};UID=${username};PWD=${password};
如果数据库要新增其他数据库的连接,则应仿效上述配置例子。
其中:
- 所有的数据库名称及配置项名称均应该出现在[driver]的配置项中
如果某一种数据库连接需要不止一个jar包,则这里应该配置多个配置项
例如: mydb=mydb1_driver1, mydb1_driver2 - 数据库的具体配置应该在具体的配置项中
filename: 可选配置项,jar包具体的名字
driver: 可选配置项,数据库连接的主类
jdbcurl: 可选配置项,jdbc连接字符串,其中${host}${port}${service}分别表示数据库连接主机,端口,数据库名称
downloadurl: 可选配置项,若本地不存在该文件,则文件下载需要的路径
md5: 可选配置项,文件下载校验MD5
jdbcprop: 可选配置项,若该数据库连接需要相应的额外参数,则在此处配置 odbcurl: 可选配置项,若该数据库连需要通过ODBC连接数据库,则在此处配置
jdbcurl和odbcurl两个参数,至少要配置一个。若配置jdbcurl,则jdbc对应的filename,driver也需要配置 - 基于这个原则,最简化的运行配置应该为:
[driver]
oracle=oracle_driver
mysql=mysql_driver
[oracle_driver]
filename=ojdbc8.jar
driver=oracle.jdbc.driver.OracleDriver
jdbcurl=jdbc:oracle:thin:@${host}:${port}/${service}
[mysql_driver]
filename=mysql-connector-java-8.0.20.jar
driver=com.mysql.cj.jdbc.Driver
jdbcurl=jdbc:mysql://${host}:${port}/${service}
驱动程序的下载
基于上述参数文件的正确配置,可以使用--syncdriver的方式从服务器上来更新数据库连接需要的jar包
例子:
(base) C:\Work\linkoop\sqlcli>sqlcli --syncdriver
Checking driver [oracle] ...
File=[ojdbc8.jar], MD5=[1aa96cecf04433bc929fca57e417fd06]
Driver [oracle_driver] is up-to-date.
Checking driver [mysql] ...
File=[mysql-connector-java-8.0.20.jar], MD5=[48d69b9a82cbe275af9e45cb80f6b15f]
Driver [mysql_driver] is up-to-date.
程序的命令行参数
(base) sqlcli --help
Usage: sqlcli [OPTIONS]
Options:
--version Output sqlcli's version.
--logon TEXT logon user name and password. user/pass
--logfile TEXT Log every query and its results to a file.
--execute TEXT Execute SQL script.
--nologo Execute with silent mode.
--sqlperf TEXT SQL performance Log.
--syncdriver Download jdbc jar from file server.
--clientcharset TEXT Set client charset. Default is UTF-8.
--resultcharset TEXT Set result charset. Default is same to clientcharset.
--help Show this message and exit.
--version 用来显示当前工具的版本号
(base) sqlcli --version
Version: 0.0.32
--logon 用来输入连接数据的的用户名和口令
(base) sqlcli --logon user/pass
Version: 0.0.32
Driver loaded.
Database connected.
SQL>
如果用户、口令正确,且相关环境配置正常,你应该看到如上信息。
user/pass : 数据库连接的用户名和口令
成功执行这个命令的前提是你已经在环境变量中设置了数据库连接的必要信息。
这里的必要信息包括:
环境变量: SQLCLI_CONNECTION_URL
参数格式是: jdbc:[数据库类型]:[数据库通讯协议]://[数据库主机地址]:[数据库端口号]/[数据库服务名]
--logfile 用来记录本次命令行操作的所有过程信息
这里的操作过程信息包含你随后在命令行里头的所有输出信息。
如果你在随后的命令行里头设置了SET ECHO ON,那么记录里头还包括了你所有执行的SQL语句原信息
文件输出的字符集将根据参数resultcharset中的设置来确定
(base) sqlcli --logon user/pass --logfile test.log
Version: 0.0.32
Driver loaded.
Database connected.
set echo on
select * from test_tab;
+----+----------+
| ID | COL2 |
+----+----------+
| 1 | XYXYXYXY |
| 1 | XYXYXYXY |
+----+----------+
SQL> exit
Disconnected.
(base) type test.log
Driver loaded.
Database connected.
SQL> select * from test_tab;
+----+----------+
| ID | COL2 |
+----+----------+
| 1 | XYXYXYXY |
| 1 | XYXYXYXY |
+----+----------+
2 rows selected.
SQL> exit
Disconnected.
--execute 在SQLCli启动后执行特定的SQL脚本
为了能够批处理一些SQL语句,我们通常将这批SQL语句保存在一个特定的文件中,这个文件的习惯后缀是.sql
通过execute参数,可以让SQLCli来执行这个脚本,而不再需要我们一行一行的在控制台输入
脚本字符集将根据参数clientcharset中的设置来确定
(base) type test.sql
select * from test_tab;
(base) sqlcli --logon user/pass --execute test.sql
Version: 0.0.32
Driver loaded.
Database connected.
set echo on
select * from test_tab;
+----+----------+
| ID | COL2 |
+----+----------+
| 1 | XYXYXYXY |
| 1 | XYXYXYXY |
+----+----------+
SQL> exit
Disconnected.
注意: 即使你的SQL脚本中不包含Exit语句,在sqlcli执行完当前脚本后,他也会自动执行exit语句
如果SQL脚本中不包含数据库驱动加载或者数据库连接语句,请在执行这个命令前设置好相应的环境变量信息
--nologo 这是一个选项,用来控制sqlcli是否会在连接的时候显示当前的程序版本
(base) sqlcli
SQL*Cli Release 0.0.32
SQL>
区别:
(base) sqlcli --nologo
SQL>
--sqlperf 输出SQL运行日志
这里的运行日志不是指程序的logfile,而是用CSV文件记录的SQL日志,
这些日志将作为后续对SQL运行行为的一种分析
运行日志共包括如下信息:
1、Script 运行的脚本名称
2、StartedTime SQL运行开始时间,格式是:%Y-%m-%d %H:%M:%S
3、elapsed SQL运行的消耗时间,这里的单位是秒,精确两位小数
4、RAWSQL 原始的SQL信息
4、SQL 运行的SQL,注意:这里可能和RAWSQL不同,不同的原因是SQL可能会被重写文件改写
5、SQLStatus SQL运行结果,0表示运行正常结束,1表示运行错误
6、ErrorMessage 错误日志,在SQLStatus为1的时候才有意义
7、Scenario 程序场景名称,这里的内容是通过在SQL文件中指定-- [Hint] Scenario:name的方式来标记的Scenario信息
说明:上述信息都有TAB分隔,其中字符信息用单引号包括,如下是一个例子:
Script Started elapsed SQLPrefix SQLStatus ErrorMessage Scenario
'sub_1.sql' '2020-05-25 17:46:23' 0.00 'loaddriver localtest\linkoopdb-jdbc-2.3.' 0 '' 'Scenario1'
'sub_1.sql' '2020-05-25 17:46:23' 0.28 'connect admin/123456' 0 '' 'Scenario1'
'sub_1.sql' '2020-05-25 17:46:24' 0.00 'SET ECHO ON' 0 '' 'Scenario1'
'sub_1.sql' '2020-05-25 17:46:24' 0.00 'SET TIMING ON' 0 '' 'Scenario2'
'sub_1.sql' '2020-05-25 17:46:24' 0.01 'LOADSQLMAP stresstest' 0 '' 'Scenario2'
'sub_1.sql' '2020-05-25 17:46:24' 0.92 'ANALYZE TRUNCATE STATISTICS' 0 '' 'Scenario3'
'sub_1.sql' '2020-05-25 17:46:25' 0.02 'SELECT count(SESSION_ID) FROM INFORMATI' 0 '' 'Scenario3'
'sub_1.sql' '2020-05-25 17:46:25' 1.37 'drop user testuser if exists cascade' 0 '' 'Scenario3'
'sub_1.sql' '2020-05-25 17:46:26' 0.54 'CREATE USER testuser PASSWORD '123456'' 0 '' 'Scenario3'
在SQLCli里面查看当前支持的命令
(base) sqlcli
SQL*Cli Release 0.0.32
SQL> help
+--------------+-----------------------------+
| Command | Description |
+--------------+-----------------------------+
| __internal__ | execute internal command. |
| abortjob | Abort Jobs |
| connect | Connect to database . |
| disconnect | Disconnect database . |
| exit | Exit program. |
| help | Show this help. |
| loadsqlmap | load SQL Mapping file . |
| quit | Quit. |
| set | set options . |
| sleep | Sleep some time (seconds) |
| start | Execute commands from file. |
+--------------+-----------------------------+
这里显示的是所有除了标准SQL语句外,可以被执行的各种命令开头。
标准的SQL语句并没有在这里显示出来,你可以直接在控制行内或者脚本里头执行SQL脚本。
连接数据库
在sqlcli命令行里头,可以通过connect命令来连接到具体的数据库
(base) sqlcli
SQL*Cli Release 0.0.32
SQL> connect user/pass@jdbc:[数据库类型]:[数据库通讯协议]://[数据库主机地址]:[数据库端口号]/[数据库服务名]
Database connected.
SQL>
能够成功执行connect的前提是: 数据库驱动已经放置到jlib下,并且在conf中正确配置
如果已经在环境变量中指定了SQLCLI_CONNECTION_URL,连接可以简化为
(base) sqlcli
SQL*Cli Release 0.0.32
SQL> connect user/pass
Database connected.
SQL>
在数据库第一次连接后,第二次以及以后的连接可以不再输入连接字符串,程序会默认使用上一次已经使用过的连接字符串信息,比如:
(base) sqlcli
SQL*Cli Release 0.0.32
SQL> connect user/pass@jdbc:[数据库类型]:[数据库通讯协议]://[数据库主机地址]:[数据库端口号]/[数据库服务名]
Database connected.
SQL> connect user2/pass2
Database connected.
SQL>
常见数据库的连接方式示例:
H2:
connnet mem
ORACLE:
connect username/password@jdbc:oracle:tcp://IP:Port/Service_Name
MYSQL:
connect username/password@jdbc:mysql:tcp://IP:Port/Service_Name
PostgreSQL:
connect username/password@jdbc:postgresql:tcp://IP:Port/Service_Name
SQLServer:
connect username/password@jdbc:sqlserver:tcp://IP:Port/DatabaseName
TeraData:
connect username/password@jdbc:teradata:tcp://IP/DatabaseName
Hive:
connect hive/hive@jdbc:hive2://IP:Port/DatabaseName
ClickHouse:
connect default/""@jdbc:clickhouse:tcp://IP:Port/DatabaseName
LinkoopDB:
connect username/password@jdbc:linkoopdb:tcp://IP:Port/Service_Name
断开数据库连接
(base) sqlcli
SQL*Cli Release 0.0.32
SQL> connect user/pass@jdbc:[数据库类型]:[数据库通讯协议]://[数据库主机地址]:[数据库端口号]/[数据库服务名]
Database connected.
SQL> disconnect
Database disconnected.
会话的切换和保存
(base) sqlcli
SQL*Cli Release 0.0.32
SQL> connect user/pass@jdbc:[数据库类型]:[数据库通讯协议]://[数据库主机地址]:[数据库端口号]/[数据库服务名]
Database connected.
SQL> session save sesssion1
Session saved.
# 这里会把当前会话信息保存到名字为session1的上下文中,session1为用户自定义的名字
# 注意:这里并不会断开程序的Session1连接,当Restore的时候也不会重新连接
SQL> connect user/pass@jdbc:[数据库类型]:[数据库通讯协议]://[数据库主机地址]:[数据库端口号]/[数据库服务名]
Database connected.
# 连接到第一个会话
SQL> session save sesssion2
Session saved.
# 这里会把当前会话信息保存到名字为session2的上下文中,session2为用户自定义的名字
# 注意:这里并不会断开程序的Session2连接,当Restore的时候也不会重新连接
SQL> session show
+---------------+-----------+-----------------------------------------------+
| Sesssion Name | User Name | URL |
+---------------+-----------+-----------------------------------------------+
| session1 | xxxxx | jdbc:xxxxx:xxx://xxx.xxx.xxx.xxx/xxxx |
| session2 | yyyyy | jdbc:yyyy:xxx://xxx.xxx.xxx.xxx/yyyyy |
+---------------+-----------+-----------------------------------------------+
# 显示当前保存的所有会话信息
SQL> session restore sesssion1
Session stored.
# 这里将恢复当前数据库连接为之前的会话1
SQL> session restore sesssion2
Session stored.
# 这里将恢复当前数据库连接为之前的会话2
SQL> session saveurl sesssion3
Session saved.
# 这里会把当前会话信息的URL保存到名字为session3的上下文中,session3为用户自定义的名字
# 注意:这里并不会保持程序的Session3连接,仅仅记录了URL信息,当Restore的时候程序会自动重新连接
SQL> session release sesssion3
Session released.
# 这里将释放之前保存的数据库连接,和针对具体一个连接的DisConnect类似
从脚本中执行SQL语句
我们可以把语句保存在一个SQL文件中,并通过执行SQL文件的方式来执行具体的SQL
语法格式为:
start [script1.sql] [script2.sql] .... [loop $nlooptime]
例如:
(base) sqlcli
SQL*Cli Release 0.0.32
SQL> start aa.sql
SQL> ....
SQL> disconnect
这里将执行aa.sql
如果有多个文件,可以依次填写,如SQL> start aa.sql bb.sql ....
(base) sqlcli
SQL*Cli Release 0.0.32
SQL> start aa.sql loop 10
SQL> ....
SQL> disconnect
这里将执行aa.sql共计10次
如果有多个文件,可以依次填写,如SQL> start aa.sql bb.sql .... loop 10
让程序休息一会
(base) sqlcli
SQL*Cli Release 0.0.32
SQL> sleep 10
SQL> disconnect
Database disconnected.
这里的10指的是10秒,通过这个命令可以让程序暂停10秒钟。
Sleep的做法主要用在一些定期循环反复脚本的执行上
执行主机的操作命令
(base) sqlcli
SQL*Cli Release 0.0.32
SQL> host date
2020年 10月 29日 星期四 11:24:34 CST
SQL> disconnect
Database disconnected.
这里的date是主机的命令,需要注意的是:在Windows和Linux上命令的不同,脚本可能因此无法跨平台执行
回显指定的文件
(base) sqlcli
SQL*Cli Release 0.0.32
SQL> echo subtest.sql
-- 这里是subtest.sql
connect admin/123456
select * from cat
SQL> echo off
这里从echo开始,到echo off结束的中间内容并不会被数据库执行,而且会记录在subtest.sql中
同样的操作,这里也可以用来生成一些简单的配置文件,简单的报告信息等
加载数据库驱动
SQLCli会默认加载所有配置在conf/sqlcli.ini中的JDBC驱动
(base) sqlcli
SQL*Cli Release 0.0.32
SQL> loaddriver;
没有任何参数的loaddriver命令将显示出所有系统已经加载的驱动程序
SQL> loaddriver [database_name] [jdbc_jarfile]
将用参数中jdbc_jarfile指定的文件替换掉配置文件中的文件信息
加载SQL重写配置文件
在sqlcli命令行里头,可以通过loadsqlmap命令来加载SQL重写配置文件
(base) sqlcli
SQL*Cli Release 0.0.31
SQL> loadsqlmap map1
Mapping file loaded.
这里的map1表示一个重写配置文件,这里可以写多个配置文件的名字,比如loadsqlmap map1,map2,map3,多个文件名之间用逗号分隔
重写文件的查找顺序:
1. 以map1为例子,如果map1是一个全路径或者基于当前目录的相对目录,则以全路径或相对目录为准。这时候参数应该带有后缀
2: 如果依据全路径没有找到,则会尝试在脚本所在的目录进行相对目录的查找。这时候参数不能够带后缀,查找的后缀文件名是.map
同时存在多个配置的情况下,配置会被叠加
启用SQL重写的方法:
1. 在命令行里面,通过sqlcli --sqlmap map1的方式来执行重写文件的位置
2. 定义在系统环境变量SQLCLI_SQLMAPPING中指定。 如果定义了命令行参数,则系统环境变量不生效
3. 通过在SQL输入窗口,输入loadsqlmap的方式来指定
重写文件的写法要求:
以下是一个重写文件的典型格式, 1,2,3,4,5 是文件的行号,不是真实内容:
1 #..*:
2 ((?i)CREATE TABLE .*\))=>\1 engine xxxxx
3 WEBURL=>{ENV(ROOTURL)}
4 MYID=>{RANDOM('random_ascii_letters_and_digits',10)}
5 #.
行1:
这里定义的是参与匹配的文件名,以#.开头,以:结束,如果需要匹配全部文件,则可以在中间用.*来表示
行2:
这里定义的是一个正则替换规则, 在符合CREATE TABLE的语句后面增加engine xxxxx字样
行3:
这里定义的是一个正则替换规则, 用环境变量ROOTURL的值来替换文件中WEBURL字样
行4:
这里定义的是一个正则替换规则, 用一个最大长度位10,可能包含字母和数字的内容来替换文件中的MYID字样
行5:
文件定义终止符
每一个MAP文件里,可以循环反复多个这样的类似配置,每一个配置段都会生效
重写SQL的日志显示:
被重写后的SQL在日志中有明确的标志信息,比如:
SQL> CREATE TABLE T_TEST(
> id int,
> name varchar(30),
> salary int
> );
REWROTED SQL> Your SQL has been changed to:
REWROTED > CREATE TABLE T_TEST(
REWROTED > id int,
REWROTED > name varchar(30),
REWROTED > salary int
REWROTED > ) engine xxxx;
这里第一段是SQL文件中的原信息,带有REWROTED的信息是被改写后的信息
执行数据库SQL语句
在数据库连接成功后,我们就可以执行我们需要的SQL语句了,对于不同的SQL语句我们有不同的语法格式要求。
- 对于SQL语句块的格式要求:
SQL语句块是指用来创建存储过程、SQL函数等较长的SQL语句
SQL语句块的判断依据是:
CREATE | REPLACE ****** FUNCTION|PROCEDURE **** | DECLARE ****
这里并没有完整描述,具体的信息可以从代码文件中查阅
SQL语句块的结束符为【/】,且【/】必须出现在具体一行语句的开头 比如:
SQL> CREATE PROCEDURE PROC_TEST()
> BEGIN
> bulabulabula....;
> END;
> /
SQL>
对于SQL语句块,SQLCli将被等待语句结束符后把全部的SQL一起送给SQL引擎(不包括语句结束符)。
- 对于多行SQL语句的格式要求:
多行SQL语句是指不能在一行内写完,需要分成多行来写的SQL语句。
多行SQL语句的判断依据是: 语句用如下内容作为关键字开头
CREATE | SELECT | UPDATE | DELETE | INSERT | __INTERNAL__ | DROP | REPLACE | ALTER
多行SQL结束符为分号【 ;】 比如:
SQL> CREATE TABLE TEST_TAB
> (
> ID CHAR(20),
> COL1 CHAR(20)
> );
SQL>
对于多行SQL语句,同样也可以使用行首的【/】作为多行语句的结束符
对于SQL多行语句,SQLCli将被等待语句结束符后把全部的SQL一起送给SQL引擎(包括语句结束符)。
-
其他SQL语句
不符合上述条件的,即不是语句块也不是多行语句的,则在输入或者脚本回车换行后结束当前语句。
结束后的语句会被立刻送到SQL引擎中执行。 -
语句中的注释
注释信息分为行注释和段落注释,这些注释信息不会被送入到SQL引擎中,而是会被SQLCli直接忽略。行注释的写法是: 【 ...SQL... -- Comment 】
即单行中任何【--】标识符后的内容都被理解为行注释信息。段落注释的写法是: 【 ...SQL... /* Comment .... / 】
即单行中任何【/】标识符和【*/】标识符中的内容都被理解为行注释信息。
比如:
SQL> CREATE TABLE TEST_TAB
> (
> ID CHAR(20), -- ID信息,这是是一个行注释
> COL1 CHAR(20) -- 第一个CHAR字段,这也是一个行注释
> /* 这个表是做测试用的,有两个字段:
> ID和COL
> 这上下的4行内容都是段落注释
> */
> );
SQL>
设置程序的运行选项
通过SET命令,我们可以改变SQLCli的一些行为或者显示选项。
SQL> set
Current set options:
+-------------------+----------+----------+
| Name | Value | Comments |
+-------------------+----------+----------+
| WHENEVER_SQLERROR | CONTINUE | ---- |
| PAGE | OFF | ---- |
| ECHO | ON | ---- |
| TIMING | OFF | ---- |
| TIME | OFF | ---- |
| OUTPUT_FORMAT | ASCII | ---- |
| CSV_HEADER | OFF | ---- |
| CSV_DELIMITER | , | ---- |
| CSV_QUOTECHAR | | ---- |
| FEEDBACK | ON | ---- |
| TERMOUT | ON | ---- |
| ARRAYSIZE | 10000 | ---- |
| SQLREWRITE | OFF | ---- |
| DEBUG | OFF | ---- |
| LOB_LENGTH | 20 | ---- |
| FLOAT_FORMAT | %.7g | ---- |
| DOUBLE_FORMAT | %.10g | ---- |
+-------------------+----------+----------+
没有任何参数的set将会列出程序所有的配置情况。
主要的控制参数解释:
1.ECHO SQL回显标志, 默认为ON,即SQL内容在LOG中回显
SQL> set ECHO ON # 在LOG中将会回显SQL语句
SQL> set ECHO OFF # 在LOG中不会回显SQL语句
例如:执行SELECT 3 + 5 COL1 FROM DUAL,
在ECHO打开下,log文件内容如下:
SQL> SELECT 3 + 5 COL1 FROM DUAL;
SQL> ===========
SQL> = COL1 ===
SQL> ===========
SQL> 8
SQL> 1 rows selected.
在ECHO关闭下,log文件内容如下:
SQL> ===========
SQL> = COL1 ===
SQL> ===========
SQL> 8
SQL> 1 rows selected.
2. WHENEVER_SQLERROR SQL错误终端表示, 用来控制在执行SQL过程中遇到SQL错误,是否继续。 默认是CONTINUE,即继续。
目前支持的选项有:
CONTINUE | 遇到SQL语句错误继续执行
EXIT | 遇到SQL语句错误直接退出SQLCli程序
3. PAGE 是否分页显示,当执行的SQL语句结果超过了屏幕显示的内容,是否会暂停显示,等待用户输入任意键后继续显示下一页,默认是OFF,即不中断。
4. OUTPUT_FORMAT 显示格式, 默认是ASCII 目前支持的选项有:
ASCII | 显示格式为表格的格式
CSV | 显示格式为CSV文件的格式
VERTICAL | 分列显示
以下是一个例子:
SQL> set output_format ascii
SQL> select * from test_tab;
+----+----------+
| ID | COL2 |
+----+----------+
| 1 | XYXYXYXY |
| 1 | XYXYXYXY |
+----+----------+
2 rows selected.
SQL> set output_format csv
SQL> select * from test_tab;
"ID","COL2"
"1","XYXYXYXY"
"1","XYXYXYXY"
2 rows selected.
SQL>
SQL> set output_format VERTICAL
SQL> select * from test_tab;
***************************[ 1. row ]***************************
ID | 1
COL2 | XYXYXYXY
***************************[ 2. row ]***************************
ID | 2
COL2 | XYXYXYXY
2 rows selected.
5. LOB_LENGTH 控制LOB字段的输出长度,默认是20
由于LOB字段中的文本长度可能会比较长,所以默认不会显示出所有的LOB内容到当前输出中,而是最大长度显示LOB_LENGTH值所代表的长度对于超过默认显示长度的,将在输出内容后面添加...省略号来表示
对于BLOB类型,输出默认为16进制格式。对于超过默认显示长度的,将在输出内容后面添加...省略号来表示
SQL> set LOB_LENGTH 300 # CLOB将会显示前300个字符
例子,执行一个CLOB字段查询,CLOB中的信息为ABCDEFGHIJKLMNOPQRSTUVWXYZ
SQL> set LOB_LENGTH 5
SQL> SELECT CLOB1 FROM TEST_TAB;
SQL> ===========
SQL> = CLOB1 ==
SQL> ===========
SQL> ABCDE
SQL> 1 rows selected.
SQL> set LOB_LENGTH 15
SQL> =====================
SQL> = CLOB1 =
SQL> =====================
SQL> ABCDEFGHIJKLMNO...
SQL> 1 rows selected.
6. FEEDBACK 控制是否回显执行影响的行数,默认是ON,显示
SQL> set feedback on
SQL> select * from test_tab;
+----+----------+
| ID | COL2 |
+----+----------+
| 1 | XYXYXYXY |
| 1 | XYXYXYXY |
+----+----------+
2 rows selected.
SQL> set feedback off
SQL> select * from test_tab;
+----+----------+
| ID | COL2 |
+----+----------+
| 1 | XYXYXYXY |
| 1 | XYXYXYXY |
+----+----------+
7. TERMOUT 控制是否显示SQL查询的返回,默认是ON,显示
SQL> set termout on
SQL> select * from test_tab;
+----+----------+
| ID | COL2 |
+----+----------+
| 1 | XYXYXYXY |
| 1 | XYXYXYXY |
+----+----------+
2 rows selected.
SQL> set termout off
SQL> select * from test_tab;
2 rows selected.
8. FLOAT_FORMAT 控制浮点数字的显示格式,默认是%.7g
SQL> select abs(1.234567891234) from dual;
+----------+
| C1 |
+----------+
| 1.234568 |
+----------+
1 row selected.
SQL> set FLOAT_FORMAT %0.10g
SQL> select abs(1.234567891234) from dual;
+-------------+
| C1 |
+-------------+
| 1.234567891 |
+-------------+
1 row selected.
类似的参数还有DOUBLE_FORMAT
9. CSV格式控制
CSV_HEADER 控制CSV输出中是否包括字段名称信息, 默认是OFF
CSV_DELIMITER CSV输出中字段的分隔符, 默认为逗号,即,
CSV_QUOTECHAR CSV中字符类型字段的前后标记符号,默认为不标记
SQL> select * from cat where rownum<10;
ADATA_1000W,TABLE
ADATA_100W,TABLE
ADATA_10W,TABLE
ADATA_1W,TABLE
ADATA_2000W,TABLE
ADATA_500W,TABLE
BIN$p+HZrV/nKjTgU1ABqMCZxw==$0,TABLE
BIN$p+HaveUdKjzgU1ABqMC4xg==$0,TABLE
BIN$p+HbAAWeKlfgU1ABqMCSUg==$0,TABLE
SQL> select 1.2+2.2 from dual
> union
> select 3+4 from dual;
3.4
7
在SQL中使用Hint信息
在一些场景中,我们通过Hint隐含提示符来控制SQL的具体行为
SQL> -- [Hint] Order
SQL> Select ID,Name From TestTab;
....
加入这个提示符后,SQLCli将会把随后的SQL语句进行排序输出,原程序的输出顺序被忽略
SQL> -- [Hint] LogFilter .*Error.*
SQL> Select ID,Name From TestTab;
....
加入这个提示符后,SQLCli将不再显示随后输出中任何包含Error字样的行
.*Error.* 是一个正则表达式写法
SQL> -- [Hint] LogMask Password:.*=>Password:******
SQL> Select ID,Name From TestTab;
....
加入这个提示符后,SQLCli将把日志输出中所有符合Password:.*的内容替换成Password:*****
在SQL中使用变量信息
在一些场景中,我们需要通过变量来变化SQL的运行
这里提供的解决办法是:
* 用set的语句来定义一个变量
SQL> set @var1 value1
如果value1中包含空格等特殊字符,需要考虑用^将其前后包括,例如:
SQL> set @var1 ^value1 fafsadfd^
此时,尖括号内部的字符串将作为参数的值,但尖括号并不包括在内
注意: value1 是一个eval表达式,可以被写作 3+5, ${a}+1, 等
如果你要在value1中传入一个字符串,请务必将字符串用‘包括,即'value1'
* 用${}的方式来引用已经定义的变量
SQL> select ${var1} from dual;
REWROTED SQL> Your SQL has been changed to:
REWROTED > select value1 from dual
-- 这里真实的表达意思是: select value1 from dual, 其中${var1}已经被其对应的变量替换
在SQL中使用spool命令来将当前执行结果输出到文件中
SQL> spool test.log
SQL> select 1+2 from dual;
3
1 rows selected.
SQL> spool off
$> type test.log
SQL> select 1+2 from dual;
3
1 rows selected.
-- spool [file name] 表示将从此刻开始,随后的SQL语句输出到新的文件中
-- spool off 表示从此刻开始,关于之前的SQL文件输出
* 在已经进行spool的过程中,spool新的文件名将导致当前文件被关闭,随后的输出切换到新文件中
* spool 结果的目录:
1. 如果程序运行过程中提供了logfile信息,则spool结果的目录和logfile的目录相同
2. 如果程序运行过程中没有提供logfile信息,则spool结果文件目录就是当前的文件
在SQL中用内置变量来查看上一个SQL的执行结果
有一些场景通常要求我们来下一个SQL指定的时候,将上一个SQL的结果做出参数来执行
这里提供的解决办法是: 在SQL中引入用JQ表达式定义的表达式
例子:
{$LastSQLResult(JQPattern)}
LastSQLResult 是一个包含了上次结果集的JSON表达式,其包含的内容为:
{
"desc": [column name1, column name2, ....],
"rows": rowcount,
"elapsed": sql elapsed time,
"result": [[row1-column1 , row1-column2,...] [row2-column1 , row2-column2,...] ...]
}
SQL> -- 返回上一个SQL执行影响的记录数量
SQL> select '${LastSQLResult(.rows)}' from dual;
REWROTED SQL> Your SQL has been changed to:
REWROTED > select '1' from dual
+-----+
| '1' |
+-----+
| 1 |
+-----+
1 row selected.
SQL> -- 返回上一个SQL结果记录集的零行零列内容
SQL> select '${LastSQLResult(.result.0.0)}' from dual;
REWROTED SQL> Your SQL has been changed to:
REWROTED > select '1' from dual
+-----+
| '1' |
+-----+
| 1 |
+-----+
1 row selected.
2: %lastsqlresult.LastSQLResult%
SQL> select abs(1.234567891234) from dual;
+----------+
| C1 |
+----------+
| 1.234568 |
+----------+
1 row selected.
SQL> select %lastsqlresult.LastSQLResult[0][0]% From Dual;
+----------+
| C1 |
+----------+
| 1.234568 |
+----------+
这里的1.234568表示之前第一个SQL返回结果记录集中的第0行,第零列
在这里,LastSQLResult后面的数据前述SQL结果集的行、列。可取值范围为: 0 - (Rowsaffected - 1), 0 - (column number -1)
用SQLCli来产生测试数据文件
SQL> __internal__ CREATE [string|integer] SEEDDATAFILE [SeedName] LENGTH [row length] ROWS [row number]
SQL> WITH NULL ROWS [null rows number];
这个程序将在$SQLCLI_HOME/data下创建若干seed文件,用来后续的随机函数
[string|integer] 是字符型随机数据文件还是数字型随机数据文件
[SeedName] 数据种子的名称,根据需要编写,应简单好记
[row length] 数据种子中每行数据的最大长度
[row number] 数据种子的行数
[null rows number] 在该数据文件row number的行数中有多少行为空行
__internal__ CREATE [MEM|FS|HDFS] FILE [xxx]
(
如果参数中提供了ROWS:
这里将把括号内内容理解为一行内容,其中的换行符在处理过程中被去掉
相关信息将被完成宏替换后,重复ROWS行数后构成一个文件
如果参数没有提供了ROWS:
这里将把括号内内容理解为多行内容
相关信息将被完成宏替换后构成一个文件
) ROWS [number of rows];
MEM: 表示文件将被创建在内存中,程序退出后,文件将不复存在
FS: 表示文件将被创建在文件中,需要注意的是,这里的目录不是真实的OS目录,而是一个相对于工作目录的相对目录
HDFS: 表示文件将被创建在HDFS上,这里需要远程的HDFS服务器开启WebFS的功能
文件格式例子: http://nodexx:port/dirx/diry/xx.dat
其中port是webfs的port,不是rpc的port, SQLCli并不支持rpc协议
这里语句的开头: __internal__ 是必须的内容,固定写法
宏代码的格式包括:
{identity(start_number)} 表示一个自增字段,起始数字为start_number
如果一行内有多个identity,他们将分别自增
{identity_timestamp(start_time,fmt,step)} 表示一个自增的时间戳
起始数字为start_time,格式位fmt(可以省略,默认是%Y-%m-%d %H:%M:%S),
每次自增长度为Step, Step的单位可以是s,ms,ns (默认为ms)
s: 秒 ; ms: 毫秒; ns: 纳秒
如果一行内有多个identity,他们将分别自增
{random_ascii_letters(length)} 表示一个随机的ascii字符串,可能大写,可能小写,最大长度为length
{random_ascii_lowercase(length)} 表示一个随机的ascii字符串,只能是大写字母,最大长度为length
{random_ascii_uppercase(length)} 表示一个随机的ascii字符串,只能是小写字母,最大长度为length
{random_digits(length)} 表示一个随机的数字,可能数字,最大长度为length
{random_ascii_letters_and_digits(length)} 表示一个随机的ascii字符串,可能大写,可能小写,可能数字,最大长度为length
{random_date(start, end, frmt)} 表示一个随机的日期, 日期区间为 start到end,日期格式为frmt
frmt可以不提供,默认为%Y-%m-%d
{random_time(start, end, frmt)} 表示一个随机的时间, 时间区间为 start到end,时间格式为frmt
frmt可以不提供,默认为%H:%M:%S
{random_timestamp(start, end, frmt)} 表示一个随机的时间戳, 时间区间为 start到end,日期格式为frmt
frmt可以不提供,默认为%Y-%m-%d %H:%M:%S
{random_boolean()) 表示一个随机的Boolean,可能为0,也可能为1
{current_unixtimestamp()} unix时间戳格式表示的系统当前时间
{column_name: macro()} 一个带有列名的宏定义,其中macro()的写法参考前面的写法
{value(:column_name)} 根据列名,引用之前的一个定义
{random_from_seed(seedname,length)} 表示从seed文件中随机选取一个内容,并且最大长度限制在length, 此时seedname不要引号
{random_from_seed(seedname,start_pos, length)} 表示从seed文件中随机选取一个内容,内容从start_pos开始, 并且最大长度限制在length, 此时seedname不要引号
使用random_from_seed需要用到seed文件,必须提前准备到$SQLCLI_HOME/data下,用来后续的随机函数
__internal__ CREATE [MEM|FS|HDFS] FILE [From file] FROM [MEM|FS|HDFS] FILE [To file]
这里将完成一个文件复制。
例子:
SQL> __internal__ CREATE FS FILE abc.txt
> (
> {identity(10)},'{random_ascii_letters(5)}','{random_ascii_lowercase(3)}'
> ) ROWS 3;
会在当前的文件目录下创建一个名字为abc.txt的文本文件,其中的内容为:
10,'vxbMd','jsr'
11,'SSiAa','vtg'
12,'SSdaa','cfg'
SQL> __internal__ CREATE FS FILE abc.txt
> (
> {identity(10)},'{random_ascii_letters(5)}','{random_ascii_lowercase(3)}'
> {identity(10)},'{random_ascii_letters(5)}','{random_ascii_lowercase(3)}'
> );
会在当前的文件目录下创建一个名字为abc.txt的文本文件,其中的内容为:
10,'vxbMd','jsr'
11,'SSiAa','vtg'
SQL> __internal__ CREATE FS FILE abc.txt FROM HDFS FILE http://nodexx:port/def.txt
会从HDFS上下载一个文件def.txt, 并保存到本地文件系统的abc.txt中
用SQLCli工具操作Kafka
SQLCli工具可以操作Kafka,建立、删除Topic,查看Topic的状态,给Topic发送信息
提前准备:
SQL> __internal__ kafka connect server [bootstrap_server];
连接一个Kafka服务器,格式位nodex:port1,nodey:port2....
注意,这里并没有校验服务器的实际信息是否正确。
SQL> __internal__ kafka create topic [topic name]
[ Partitions [number of partitions]
replication_factor [number of replication factor]
timeout [timeout of creation]
.... kafka valid configuration ...
];
创建一个kafka的Topic.
其中: timeout of creation 可以省略, 默认是60
number of partitions 可以省略, 默认是16
number of replication factor 可以省略, 默认是1
kafka valid configuration 可以为1个或者多个有效的配置参数,比如retention.ms
例子: __internal__ kafka create topic mytopic;
SQL> __internal__ kafka get info topic [topic name] group [gruop id];
其中: group id 可以省略
获得消息队列的高水位线和低水位线
+-----------+-----------+-----------+
| Partition | minOffset | maxOffset |
+-----------+-----------+-----------+
| 0 | 0 | 1 |
| 1 | 0 | 1 |
+-----------+-----------+-----------+
例子: __internal__ kafka get info topic mytopic Partition 0 group abcd;
SQL> __internal__ kafka produce message from file [text file name] to topic [topic name];
将指定文本文件中所有内容按行发送到Kafka指定的Topic中
例子: __internal__ kafka produce message from file Doc.md to topic Hello;
SQL> __internal__ kafka consume message from topic [topic name] to file [text file name];
将Kafka指定的Topic中所有消息消费到指定文本文件中
例子: __internal__ kafka consume message from topic Hello to file xxx.md;
SQL> __internal__ kafka produce message topic [topic name]
> (
> [message item1]
> [message item2]
> [message item3]
> );
将SQL中包含的Message item发送到kafka指定的topic中
上述的例子,将发送3条消息到服务器。
SQL> __internal__ kafka produce message topic [topic name]
> (
> [message part1]
> [message part2]
> [message part3]
> ) rows [num of rowcount]
> frequency [num of frequency];
将SQL中包含的Message part重复num of rowcount发送到kafka指定的topic中
上述的例子,将发送num of rowcount条消息到服务器。
其中: num of frequency 表示每秒最多发送的消息数量。 可以省略,省略表示不对发送频率进行限制
具体message part的写法参考前面描述的创建数据文件的例子
注意:frequency的计数器并不是精准计数器,不排除1~2秒的误差
SQL> __internal__ kafka drop topic [topic name] timeout [timeout of deletion];
其中: timeout of deletion 可以省略, 默认是1800
删除指定的topic
用SQLCli工具操作HDFS
SQL> __internal__ hdfs connect [hdfs webui url] with user [hdfs user name]
用HDFSweb连接到指定的HDFS上
例子:
SQL> __internal__ hdfs connect http://localhost:9870/user/testuser/abcd with user testuser;
Hdfs Server set successful.
这里的/user/testuser/abcd将作为后续HDFS操作的根目录
SQL> __internal__ hdfs status [hdfs path]
获取指定的HDFS文件信息
例子:
SQL> __internal__ hdfs status aa.log;
HDFS file status:
+--------+------------+-------+--------+------+---------------------+
| Path | Permission | owner | group | Size | Modified |
+--------+------------+-------+--------+------+---------------------+
| aa.log | -rw-r--r-- | ldb | ldbp67 | 1148 | 2021-03-05 11:11:41 |
+--------+------------+-------+--------+------+---------------------+
Total 1 files listed.
SQL> __internal__ hdfs list [hdfs path]
显示远程的HDFS文件目录信息。 hdfs_path可以省略,省略情况下显示当然目录信息。
例子:
SQL> __internal__ hdfs list;
HDFS file List:
+-------+------------+--------+--------+------+---------------------+
| Path | Permission | owner | group | Size | Modified |
+-------+------------+--------+--------+------+---------------------+
| 111 | drwxr-xr-x | ldbp67 | ldbp67 | 0 | 2021-03-05 09:26:56 |
| aa.sh | -rw-r--r-- | ldbp67 | ldbp67 | 363 | 2021-03-05 09:07:35 |
+-------+------------+--------+--------+------+---------------------+
Total 2 files listed.
SQL> __internal__ hdfs rm [hdfs path]
删除指定的HDFS文件信息,如果需要删除多个文件,可以提供文件通配符
例子:
SQL> __internal__ hdfs rm aa.log;
Hdfs file deleted successful.
SQL> __internal__ hdfs makedirs [hdfs path]
建立需要的HDFS路径
SQL> __internal__ hdfs upload [local file] [remote file]
上传本地文件到远程的HDFS文件目录中
SQL> __internal__ hdfs download [remote file] [local file]
下载远程的HDFS文件到本地文件目录中
退出
你可以使用exit来退出命令行程序,或者在脚本中使用Exit来退出正在执行的脚本
SQL> exit
Disconnected.
注意: 如果当前有后台任务正在运行,EXIT并不能立刻完成。
1: 控制台应用:EXIT将不会退出,而是会提示你需要等待后台进程完成工作
2: 脚本应用: EXIT不会直接退出,而是会等待后台进程完成工作后再退出
程序的并发和后台执行
SQLCli被设计为支持并发执行脚本,支持后台执行脚本。
为了支持后台操作,我们这里有一系列的语句,他们是:
1: Create 创建后台任务
2: set 设置JOB相关参数
3: show 显示当前已经提交的后台任务,以及他们的运行状态
4: start 开始运行后台作业
5: abort 放弃正在执行的JOB,当前正在运行的SQL将被强制中断
6: shutdown 停止当前正在执行的JOB,但等待当前SQL正常结束
7: waitJob 等待作业队列完成相关工作
创建后台任务脚本
在很多时候,我们需要SQLCli来帮我们来运行数据库脚本,但是又不想等待脚本的运行结束。
create可以有多个参数:
参数1: JOB的名称
参数2-..: JOB的各种参数,要求成对出现 ParameterName ParameterValue
SQL> __internal__ job create jobtest;
JOB [jobtest] create successful.
SQL> __internal__ job create jobtest2 loop 4;
JOB [jobtest2] create successful.
SQL> __internal__ job create jobtest3 loop 4 parallel 2;
JOB [jobtest3] create successful.
2: 设置JOB的相关参数
通过set,我们可以JOB的具体参数。 支持的参数有:
script : 必选参数。后台作业的脚本名称。可以用绝对路径写或者当前目录的相对路径
parallel : 可选参数。后台作业并发度,即同时可以有几个作业在运行该脚本。默认为1
loop : 可选参数。一共要循环完成的次数,默认为1
timeout : 可选参数。后台作业的超时限制,单位为秒,默认为0,即不限制
若设置为非零数,则在达到指定的时间后,作业会被强行终止,不再继续下去
starter_maxprocess : 为减少首次启动的负载压力。每次启动作业时,单个批次最大启动多少个并行作业
只在作业首次启动的时候,这个参数有意义。
默认是9999,即完全不做限制
例如: parallel 设置为10,starter_maxprocess为2,
则:以starter_interval为间隔,每次2个启动作业,一直到满足parallel要求
starter_interval : 为减少首次启动的负载压力。每次启动作业时,单个批次的间隔时间,默认是0,即不等待
think_time : 每一次作业完成后,启动下一个作业中间需要的时间间隔,默认是0,即不等待
blowout_threshold_count : 完全失败阈值,若失败次数已经达到该次数,认为后续作业已经没必要运行。默认是0,即不限制
例子:
SQL> __internal__ job set jobtest parallel 2;
JOB [jobtest] set successful.
SQL> __internal__ job set jobtest loop 4;
JOB [jobtest] set successful.
SQL> __internal__ job set jobtest script bb.sql;
JOB [jobtest] set successful.
SQL>
查看后台任务脚本的运行情况
通过show可以查看我们之前提交情况,脚本的运行情况,运行的开始时间,运行的结束时间,当前正在运行的SQL等。
SQL> -- 查看JOB整体情况
SQL> __internal__ job show all;
+----------+-----------+-------------+-------------+---------------+---------------------+------------+----------+
| job_name | status | active_jobs | failed_jobs | finished_jobs | submit_time | start_time | end_time |
+----------+-----------+-------------+-------------+---------------+---------------------+------------+----------+
| jobtest | Submitted | 0 | 0 | 0 | 2020-12-02 11:00:41 | None | None |
+----------+-----------+-------------+-------------+---------------+---------------------+------------+----------+
Total 1 Jobs.
这里可以看到目前1个脚本已经提交.
SQL> -- 查看JOB具体情况
SQL> __internal__ job show jobtest;
JOB_Name = [jobtest ]; ID = [ 3]; Status = [Submitted ]
ActiveJobs/FailedJobs/FinishedJobs: [ 0/ 0/ 0]
Submit Time: [2020-12-02 11:00:41 ]
Start Time : [None ] ; End Time: [None ]
Script : [bb.sql ]
Script Full FileName: [None ]
Parallel: [ 2]; Loop: [ 4]; Starter: [ 9999/ 0s]
Think time: [ 0]; Timeout: [ 0]; Elapsed: [ 0.00]
Blowout Threshold Count: [ 9999]
Error Message : [None ]
Detail Tasks:
+----------+----------+--------------------+--------------------+
|Task-ID |PID |Start_Time |End_Time |
+----------+----------+--------------------+--------------------+
这里可以看到具体对于JOB名称为jobtst的任务的详细情况
如何启动后台任务脚本
通过start的方式,我可以启动全部的后台任务或者只启动部分后台任务
SQL> __internal__ job start all;
1 Jobs Started.
这里会将你之前提交的所有后台脚本都一次性的启动起来
SQL> __internal__ job start jobtest;
1 Jobs Started.
这里只会启动JOB名称为jobtest的后台任务
随后,再次通过show来查看信息,可以注意到相关已经启动
如何停止后台任务脚本
在脚本运行过程中,你可以用shutdown来停止某个某个任务或者全部任务,
SQL> __internal__ job shutdown all;
Total [1] jobs shutdowned.
这里会将当前运行的所有后台脚本都停止下来
SQL> __internal__ job shutdown jobtst;
Total [1] jobs shutdowned.
注意: shutdown并不会真的终止你当前正在运行的作业,但是在这个作业之后的所有作业不再执行,要求循环执行的脚本也不再循环。
只有在子任务完成当前作业后,shutdownjob才能完成。
这个意思是说,如果你有一个比较大的长SQL作业,shutdownjob并不能很快的终止任务运行。
如何强行停止后台任务脚本
在脚本运行过程中,你可以用abort来强行停止某个某个任务或者全部任务,
SQL> __internal__ job abort all;
Total [1] jobs aborted.
这里会将当前运行的所有后台脚本都停止下来
SQL> __internal__ job abort jobtst;
Total [1] jobs aborted.
等待后台任务脚本运行结束
在脚本运行过程中,你可以用wait来等待后台脚本的运行结束
SQL> __internal__ job wait all;
All jobs [all] finished.
SQL> __internal__ job wait jobtest;
All jobs [jobtest] finished.
waitjob不会退出,而是会一直等待相关脚本结束后再退出
后台执行脚本在主程序退出时候的影响
如果当前有后台程序运行:
1: 控制台应用:EXIT将不会退出,而是会提示你需要等待后台进程完成工作
2: 脚本应用: EXIT不会直接退出,而是会等待后台进程完成工作后再退出
程序员必读部分
---------- sqlcli
--------------- __init__.py # 包标识文件,用来记录版本信息
--------------- commandanalyze.py # 对用户或者脚本输入的命令进行判断,判断是否需要后续解析,或者执行内部命令
--------------- kafkawrapper.py # 程序中对kafka操作的相关支持
--------------- main.py # 主程序
--------------- sqlcliexception.py # 自定义程序异常类
--------------- sqlclijob.py # 后台作业管理实现
--------------- sqlclijobmanager.py # 后台作业管理实现
--------------- sqlclisga.py # 全局共享内存协同,用来在父子进程间通信
--------------- sqlclitransactionmanager.py # 全局共享内存协同,用来在父子进程间通信
--------------- sqlexecute.py # 程序主要逻辑文件,具体执行SQL语句
--------------- sqlinternal.py # 执行internal命令
--------------- sqloption.py # 程序运行参数显示及控制实现
--------------- sqlparse.py # 用来解析SQL语句,判断注释部分,语句的分段、分行等
---------- setup.py # Python打包发布程序
---------- README.md # 应用程序说明,由于pypi限制,这里只放置简要信息
---------- Doc.md # 应用程序文档
---------- conf # 配置文件目录
-------------- sqlcli.conf # 程序配置文件
---------- jlib # 应用程序连接数据库需要的各种jar包
-------------- Dm7JdbcDriver17.jar
-------------- gbase-connector-java-8.3-bin.jar
-------------- hadoop-common-2.7.2.jar
-------------- hive-jdbc-1.2.2-standalone.jar
-------------- kingbasejdbc4.jar
-------------- linkoopdb-jdbc-2.3.0.jar
-------------- mysql-connector-java-8.0.20.jar
-------------- ojdbc8.jar
-------------- oscarJDBC.jar
-------------- postgresql-42.2.12.jar
-------------- sqljdbc42.jar
-------------- tdgssconfig.jar
-------------- terajdbc4.jar
-------------- xxxx1.jar
-------------- xxxx2.jar
---------- .gitignore # git控制文件
---------- uploadpypi.bat # windows平台下用来向pypi更新安装包的相关命令
---------- .vscode # Visual Stuio Code 工程配置目录
-------------- launch.json # Visual Stuio Code 工程启动文件
Project details
Release history Release notifications | RSS feed
Download files
Download the file for your platform. If you're not sure which to choose, learn more about installing packages.
Source Distribution
Built Distributions
File details
Details for the file robotslacker-sqlcli-0.1.83.tar.gz
.
File metadata
- Download URL: robotslacker-sqlcli-0.1.83.tar.gz
- Upload date:
- Size: 145.5 kB
- Tags: Source
- Uploaded using Trusted Publishing? No
- Uploaded via: twine/3.1.1 pkginfo/1.5.0.1 requests/2.22.0 setuptools/47.1.1 requests-toolbelt/0.9.1 tqdm/4.42.1 CPython/3.7.6
File hashes
Algorithm | Hash digest | |
---|---|---|
SHA256 | bf91740f6d113f6032b115a821bb956666eb695031a4a850793dece41094f2d5 |
|
MD5 | 9dfe3b4d81ecfa8ca19fc030f23c6b43 |
|
BLAKE2b-256 | e1da29e4c6c15f0f50a9581b126aceaf7f404479a0ac98ecc1d9d053259ab832 |
File details
Details for the file robotslacker_sqlcli-0.1.83-py3.7-win-amd64.egg
.
File metadata
- Download URL: robotslacker_sqlcli-0.1.83-py3.7-win-amd64.egg
- Upload date:
- Size: 222.7 kB
- Tags: Source
- Uploaded using Trusted Publishing? No
- Uploaded via: twine/3.1.1 pkginfo/1.5.0.1 requests/2.22.0 setuptools/47.1.1 requests-toolbelt/0.9.1 tqdm/4.42.1 CPython/3.7.6
File hashes
Algorithm | Hash digest | |
---|---|---|
SHA256 | 0489d380ccc3e1e59143a533d1d93d2f9e3dbd22af12f182fa91327458442d7f |
|
MD5 | a70c7eff80b4a694bd1b9c9937e90bec |
|
BLAKE2b-256 | d8a1e36c176d6247a385bc95b19d0031bd7beb6a1c6ab53d9553268761641179 |
File details
Details for the file robotslacker_sqlcli-0.1.83-cp37-cp37m-win_amd64.whl
.
File metadata
- Download URL: robotslacker_sqlcli-0.1.83-cp37-cp37m-win_amd64.whl
- Upload date:
- Size: 149.7 kB
- Tags: CPython 3.7m, Windows x86-64
- Uploaded using Trusted Publishing? No
- Uploaded via: twine/3.1.1 pkginfo/1.5.0.1 requests/2.22.0 setuptools/47.1.1 requests-toolbelt/0.9.1 tqdm/4.42.1 CPython/3.7.6
File hashes
Algorithm | Hash digest | |
---|---|---|
SHA256 | 9b3240b9c78d9664d88479e2870cb8dbe8ab8bb541832b566772532eb1735a76 |
|
MD5 | f6a770230b4cffee873b49575a563c7d |
|
BLAKE2b-256 | c657ee06088c42585b5665ff65d1f413ea0a7284a1985df6ddf5e3bd2e0ef26f |