Language quality evaluation tool.
Project description
介绍
Dingo是一款数据质量评估工具,帮助你自动化检测数据集中的数据质量问题。Dingo提供了多种内置的检测规则和模型方法,同时也支持自定义检测方法。Dingo支持常用的文本数据集和多模态数据集,包括预训练数据集、微调数据集和评测数据集。此外,Dingo支持多种接口使用方式,包括本地CLI,SDK和RESTFul API,便于集成到各种评测平台,如OpenCompass等。
架构图
快速启动
用户可以使用 dingo 按照如下所示的两种方式。
安装
安装 dingo
pip install dingo-python
SDK
尝试运行下方的SDK
调用方式:
from dingo.io import InputArgs
from dingo.exec import Executor
input_data = {
"eval_model": "sft", # rule
"input_path": "tatsu-lab/alpaca", # default from huggingface
"data_format": "plaintext",
"save_data": True,
}
input_args = InputArgs(**input_data)
executor = Executor.exec_map["local"](input_args)
result = executor.evaluate()
print(result)
CLI
尝试运行下方的CLI
调用规则集评估:
python -m dingo.run.cli --input_path tatsu-lab/alpaca -e sft --data_format plaintext --save_data True
或者尝试运行下方的CLI
调用gpt-4o模型评估:
python -m dingo.run.cli --input_path test/data/test_local_json.json --dataset local -e openai --data_format json --column_content prediction --custom_config test/config/config_gpt.json --save_data True
注意,调用模型评估需要添加对应的配置,如上面例子使用的配置如下:
$ cat test/data/config_gpt.json
{
"llm_config": {
"openai": {
"model": "gpt-4o",
"key": "xxxx",
"api_url": "https://api.openai.com/v1/chat/completions"
}
}
}
前端页面
项目在cli
端运行后,如果用户设置的save_data参数为True,则会根据质检结果自动生成一份前端页面。
如果用户想要手动启动一份前端页面,则需要输入如果指令:
python -m dingo.run.vsl --input xxx
input之后跟随的是质检结果的目录,加上eval_model向下一层,用户需要确保目录打开后其中有summary.json文件
功能列表
支持多种输入数据源,数据类型,数据模态
Dingo 数据源支持本地文件,huggingface数据集,S3存储文件;数据类型支持预训练,微调和评测等多种数据集;数据模态支持文本和图片数据模态。
支持自定义规则,模型评估
Dingo 内置了20+通用的启发式规则评估,常用的LLMs(如OpenAI,kimi等)评估和启动本地指定模型(llama3等)评估。 内置启发式规则根据数据集类型内置了 pretrain, sft等多种规则集组合。 规则和模型评估均支持自定义或修改。 支持数据安全评估,如perspective API。
支持多种接口使用方式,扩展性好,方便集成
Dingo 支持多种接口使用方式,包括本地CLI和SDK,便于集成到各种评测平台,如OpenCompass等。
支持多种执行引擎
Dingo 支持本地和 SPARK 两种执行引擎,方便执行大小规模的数据评估任务。
支持多维指标报告,可追溯
Dingo 支持输出7个Quality Metrics概况报告和异常数据追溯详情报告。
指标与规则
指标介绍
规则列表
使用方法
安装
上述的快速启动模块提到的安装,仅安装运行所需的必要包,一些特殊功能所需的包并未安装,如果用户在实习使用过程中需要安装对应的包, 那么可以参考:安装依赖
注册规则/模型
如果项目内部的启发式规则不满足用户的质检需求,用户还可以自定义规则或者模型。
注册规则
如果用户想要创建一个新规则CommonPatternDemo,那么首先要为规则添加装饰器,将规则注入项目中。
其次还需要为规则设置error_type类型,比如QUALITY_IRRELEVANCE,rule_group可以不用设置。
然后用户需要定义DynamicRuleConfig对象,这样可以动态的配置规则的属性。
除此之外,规则的方法名称必须是eval且需要时类方法。
最后一步的返回值应该是ModelRes对象。
例如:注册规则
注册模型
用户同样可以注册模型,方法与注册规则时类似。
例如:注册模型
配置
执行引擎
Dingo
可以在本地运行,也可以在spark集群上运行。
无论选择何种引擎,executor都支持一些公共方法:
function name | description |
---|---|
get_summary | get the summary of test. |
get_bad_info_list | get the bad data. |
get_good_info_list | get the good data. |
Local Mode
选择spark引擎时,用户可以自由地选择规则、模型进行质检。
Spark Mode
选择spark引擎时,用户只能选择规则进行质检,模型无法使用。
而且InputArgs
中仅有eval_model
,save_data
,save_correct
,custom_config
依旧有效。
因此,用户需要输入spark_session
用来初始化spark,输入spark_rdd
(由MetaData
结构组成)作为数据用来质检。
需要注意,save_data
如果为False
,那么质检完成后会立刻清除内存中的数据,spark_session
也立即停止。
评估报告
完成一次评测, Dingo 会生成一份概况报告(summary)和详细报告(detail),其中 summary 包含本次评测的整体分数 Score 和7个 Quality Metrics 维度各自的分数。详细报告中会包含每个 Quality Metrics 评估有异常的具体数据内容,方便追溯原因。
summary.json
概况文件的示例如下:
{
"task_id": "d6c922ec-981c-11ef-b723-7c10c9512fac",
"task_name": "dingo",
"eval_model": "default",
"input_path": "test/data/test_local_jsonl.jsonl",
"output_path": "outputs/d6c921ac-981c-11ef-b723-7c10c9512fac",
"create_time": "20241101_144510",
"score": 50.0,
"num_good": 1,
"num_bad": 1,
"total": 2,
"type_ratio": {
"QUALITY_INCOMPLETENESS": 0.5,
"QUALITY_IRRELEVANCE": 0.5
},
"name_ratio": {
"QUALITY_INCOMPLETENESS-CommonColonEnd": 0.5,
"QUALITY_IRRELEVANCE-CommonSpecialCharacter": 0.5
}
}
详细报告如 CommonColonEnd.json
文件示例如下:
{"data_id": "1", "prompt": "", "content": "�I am 8 years old. ^I love apple because:", "type_list": ["QUALITY_INCOMPLETENESS", "QUALITY_IRRELEVANCE"], "name_list": ["QUALITY_INCOMPLETENESS-CommonColonEnd", "QUALITY_IRRELEVANCE-CommonSpecialCharacter"], "reason_list": ["�I am 8 years old. ^I love apple because:", ["�"]]}
评测示例
我们对开源文本预训练数据集SlimPajama-627B中RedPajamaC4 set共324264307条数据使用规则集pretrain
进行了评测,评测结果如下:
{
'QUALITY_EFFECTIVENESS': '0.016860',
'QUALITY_COMPLETENESS': '0.000175',
'QUALITY_UNDERSTANDABILITY': '0.002062',
'QUALITY_SIMILARITY': '0.003563',
'QUALITY_FLUENCY': '0.000302',
'QUALITY_RELEVANCE': '0.003767',
'QUALITY_SECURITY': '0.000000'
}
Bad case展示:
计划支持
- 更丰富的图文评测指标;
- 新增音频和视频数据模态评测;
- 新增小模型评测,如fasttext,Qurating;
- 新增数据多样性评测;
局限性
- 当前评估工具内置的检测规则和模型方法大部分来自论文,开源项目等,主要关注通用的数据质量问题,如果对特殊数据问题有评测需求建议可以定制化对应的检测规则来评测;
致谢
贡献
我们感谢所有的贡献者为改进和提升 Dingo
所作出的努力。请参考贡献指南来了解参与项目贡献的相关指引。
开源许可证
该项目采用 Apache 2.0 开源许可证。
Project details
Download files
Download the file for your platform. If you're not sure which to choose, learn more about installing packages.
Source Distributions
Built Distribution
File details
Details for the file dingo_python-1.1.2-py3-none-any.whl
.
File metadata
- Download URL: dingo_python-1.1.2-py3-none-any.whl
- Upload date:
- Size: 73.8 kB
- Tags: Python 3
- Uploaded using Trusted Publishing? No
- Uploaded via: twine/3.1.1 pkginfo/1.4.2 requests/2.22.0 setuptools/45.2.0 requests-toolbelt/0.8.0 tqdm/4.30.0 CPython/3.8.10
File hashes
Algorithm | Hash digest | |
---|---|---|
SHA256 | 976386d650ddf8b3808f06f4823622331d7cd39dc392ce8481f856433eea8b0a |
|
MD5 | 9c3f36e5584a161b1518a76bcc03dca5 |
|
BLAKE2b-256 | a28a6e1542ec89091263044c35fe609eb08c88507925a71c38aa9058fb0dfc25 |