Skip to main content

Kara Storage SDK

Project description

KARA Storage

KARA 平台存储模块!!!

1. 介绍

kara_storage是KARA平台存储模块的Python SDK,目前提供了行存储和对象存储的服务。

1.1 行存储

行存储 以条为单位实现数据的写入和读取,可以轻松的完成大规模训练数据的存储,理论上可以支持任意形式的数据(包括类和bytes,对于任意类型的数据支持请实现自己的Serializer)。

1.2 对象存储

对象存储 是一种以文件为单位的 Key-Value 数据库,可以实现各种尺寸的文件的存储。在kara_storage中,对象存储用于保存目录,例如模型的训练结果等

目前工具包提供了 load_directorysave_directory 两个接口的支持。

1.3 安装方法

将源代码保存到本地后,输入一下命令即可安装。

1.3.1 PIP(推荐)

$ pip install kara-storage

1.3.2 clone安装

将仓库克隆到本地,并在项目目录中执行以下命令即可完成安装。

$ python setup.py install

2. 使用说明

2.1 打开数据库

使用绝对路径打开本地数据库
import kara_storage
storage = kara_storage.KaraStorage("file:///path/to/your/database")

其中/path/to/your/database表示数据库的绝对路径。

使用相对路径打开本地数据库
import kara_storage
storage = kara_storage.KaraStorage("file://my/databse")

其中 my/database 表示数据库在当前工作目录下的相对路径。

打开阿里云上的数据库
import kara_storage
storage = kara_storage.KaraStorage("oss://OSS_ENDPOINT/YOUR_BUCKET_NAME", app_key="*** APP KEY ***", app_secret="*** APP SECRET ***")

其中OSS_ENDPOINT表示oss的节点,例如oss-cn-beijing.aliyuncs.com

在使用阿里云上的数据库前,请确保你的APP KEY和APP SECRET有权限访问数据库。

打开HTTP数据库
import kara_storage
storage = kara_storage.KaraStorage("https://path-to-your-dataset/prefix")

可以结合阿里云OSS实现简单的数据公开。

2.2 行存储

2.2.1 打开数据集

dataset = storage.open("namespace", "dataset_name", "r", version="latest")

open命令会返回一个dataset实例,用于后继数据的写入和读取,它主要包含四个参数:

  • namespace: “命名空间”。KARA Storage提供基于命名空间的数据隔离。
  • key: “数据集名称”。在命名空间下,可以有多个数据集,数据集之间以key进行区分。
  • mode: "r"表示读,"w"表示写。
  • version: “数据集版本”。KARA Storage提供了同一数据集不同版本的管理,当不指定version或将version指定为"latest"时,会自动打开最新创建的版本。版本的名称可以是数字或者字符串。

如果要打开的数据集不存在,open命令会自动创建一个对应的数据集,在创建新数据集时,必须要指定数据集的version,否则会报错或打开最新一次修改的数据集。

2.2.2 读取数据集

data = dataset.read()

使用 read 接口即可从数据集中读取一条数据,多次的调用read会自动的依次读取下去。

对于同一个数据集,从里面读取出的数据的顺序总是和写入时相同。当数据被读取完时,将会返回None

2.2.3 追加写入数据

ok = dataset.write(obj)

使用write接口可以在数据集的末尾追加写入一条数据,它需要传入一个参数obj。这个obj在默认情况下将被序列化为json对象,你可以使用storage.open接口中的serialization来控制这一过程,例如使用我们提供的其它序列化方案(pickle)或者使用自己的序列化方法。

write接口将会把数据写入缓冲区,在刷新缓冲区之前,数据不会被持久化,你可以手动的调用dataset.flush()来强制刷新缓冲区,当然这样可能会带来额外的开销。

提示 : 在调用dataset.close()时,flush也会被自动的调用。

2.2.4 移动读取指针

dataset.seek(offset, whence)

类似于文件操作,KARA Storage的行存储也支持读取指针的移动,指针移动的最小单位为 “1条数据”

whence = 0

whence = 0表示移动到距离数据集开头offset的地方。

例如:dataset.seek(0, 0)表示移动到数据集的开头,在此时调用read接口会返回数据集的第一条数据。

whenc = 1

whence = 1表示根据当前指针位置偏移offset个数据。

例如:dataset.seek(1, 1)表示跳过下一跳数据。

whence = 2

whence = 2表示移动到距离数据集末尾offset的地方。

例如:dataset.seek(0, 2)表示移动到数据集末尾,此时调用read接口会返回None

2.2.5 实现自己的序列化方法

用户可以通过实现自己的Serializer来使用自定义的方法序列化数据,同时也可以使用我们内置的其它方法来替换我们的默认序列化方法。

编写自己的 Serializer
import kara_storage
import pickle

class MySerializer(kara_storage.serialization.Serializer):
    def serialize(self, x): # 序列化x,将x转换为bytes
        return pickle.dumps(x)
    
    def deserialize(self, x): # 反序列化x,将x从bytes重新转换回对象
        return pickle.loads(x)
使用自己的序列化方法
import kara_storage
dataset = storage.open("namespace", "dataset_name", "r", version="latest", serialization=MySerializer())
其它内置序列化方法
  • kara_storage.serialization.NoSerializer: 直接将bytes数据写入数据库
  • kara_storage.serialization.PickleSerializer: 将对象使用pickle序列化后存入数据库
  • kara_storage.serialization.JSONSerializer: 将数据转换为json字符串存入数据库

2.2.6 和Pytorch对接

以上接口提供了简单的流式访问,为了更好的支持pytorch的dDataLoader,我们提供了KARA行存储对torch.utils.data.IterableDataset的包装。

import kara_storage
pytorch_ds = kara_storage.make_torch_dataset(dataset)

pytorch_ds.set_epoch(0) # 设置当前epoch

通过make_torch_dataset接口可以快速的将dataset包装为Pytorch所支持的IterableDataset类型。

distributed支持

在调用完torch.distributed.init_process_group后调用make_torch_dataset接口会自动的根据当前rank来分割数据集,实现对分布式训练的支持。

一份完整的代码可以参考 examples/read_dist.py

注意 : 在多机训练环境下,数据库需要能被每台机器都访问到。

shuffle支持
import kara_storage
kara_storage.make_torch_dataset(dataset, shuffle=True)

通过在调用make_torch_dataset时,传入参数shuffle=True可以实现伪随机的数据打乱,在此时可以传入额外的参数对打乱算法进行控制。

额外参数:

  • seed:打乱算法的随机数种子(int类型)
  • buffer_size: 打乱缓冲区的大小(应当是一个整数,越大时占用内存越大,但打乱随机性也越好)
  • shuffle_ratio: 每次打乱的比例(0~1之间的浮点数)

在默认情况下,这些参数的值为seed = 0buffer_size = 10240shuffle_ratio = 0.1

2.2.7. 可复现性

在数据集固定、GPU数量固定、随机参数(seed, buffer_size, shuffle_ratio)固定时,make_torch_dataset接口返回的数据集总能以相同的顺序读取出相同的数据。

2.3 对象存储

2.3.1 从服务器加载对象

storage.load_directory("namespace", "object_name", "local_path", "version")

load_d_irectory会返回一个字符串,表示当前加载的对象的版本。它主要包含4个参数:

  • namespace: 命名空间
  • object_name: 要加载的对象名称
  • local_path: 要加载到的本地路径
  • version: 要加载的数据版本,默认为"latest",即表示加载最新的版本

2.3.2 将本地对象上传到服务器

storage.save_directory("namespace", "object_name", "local_path", "version")

save_directory会返回一个字符串,表示当前保存的对象的版本。它主要包含4个参数:

  • namespace: 命名空间
  • object_name: 要加载的对象名称
  • local_path: 要加载到的本地路径
  • version: 要加载的数据版本,默认为None,表示自动生成一个不重复的版本号

3. KARA Storage CLI

为了方便大家的使用,我们还提供了命令行工具来进行简单的数据查看和上传下载。

3.1 查看数据

可以使用以下命令进行数据的可视化查看(目前仅支持json序列化)。

$ kara_storage row <url> view <namespace> <key> [-v version] [--app-key app_key] [--app-secret app_secret] [--begin data_index]

例如

$ kara_storage row https://kara-public.oss-cn-beijing.aliyuncs.com/test view test_ns mydb

3.2 上传文件

$ kara_storage obj <url> save <namespace> <key> <local_path> [-v version] [--app-key app_key] [--app-secret app_secret]

该命令会将本地路径local_path上传,并设置版本号为version,默认会新建一个版本。

3.3 文件下载

$ kara_storage obj <url> load <namespace> <key> <local_path> [-v version] [--app-key app_key] [--app-secret app_secret]

该命令会将文件加载到local_path目录。

4. 其它

欢迎大家测试、提issue!

更新日志

2.1.4

  • 修复了 Pytorch Dataset 获取len的问题

2.1.2

  • 添加了自动重试机制(解决OSS掉线问题)

2.1.1

  • 修复由trunk controller 导致 seek 后读取出错的问题

2.1.0

  • 添加了针对 Dataset 的 RPC 支持。

2.0.4

  • 紧急修复了 Dataset 在写入一段时间后报错的问题

2.0.3

  • 修复了 kara_storage 对 oss2 依赖的问题
  • 修复了在 load_directory 和 save_directory 时,使用 Ctrl+C 无法终止程序的问题

2.0.2

  • 修复了blessed依赖问题
  • CLI添加打印版本号

2.0.1

  • 添加了文件上传和下载的进度条
  • 添加了CLI支持

2.0.0

  • 添加了 HTTP/HTTPS 存储后端的支持
  • 完善了对象存储系统,实现了基于hash的数据压缩和文件续传
  • 添加了RowDataset的多线程支持
  • 重构了大部分代码

1.0.3

  • 添加对 pytorch DataLoader 中 num_workers > 0 时候的支持
  • 添加对 OSS 前缀访问的支持
    • 现在可以通过 oss://endpoint/bucket/prefix 的方法来指定使用oss存储时的前缀
  • 修复 "r" 模式下可以修改数据集的问题

1.0.2

  • 添加对线程安全的支持
    • 在RowDataset中添加了线程锁 threading.Lock
  • 添加pytorch dataset的slice支持
    • 通过 kara_storage.make_torch_dataset( dataset, begin=a, end=b ) 来实现对数据集 [a, b) 区间的访问。

Project details


Download files

Download the file for your platform. If you're not sure which to choose, learn more about installing packages.

Source Distributions

No source distribution files available for this release.See tutorial on generating distribution archives.

Built Distribution

kara_storage-2.1.5-py3-none-any.whl (37.8 kB view details)

Uploaded Python 3

File details

Details for the file kara_storage-2.1.5-py3-none-any.whl.

File metadata

File hashes

Hashes for kara_storage-2.1.5-py3-none-any.whl
Algorithm Hash digest
SHA256 7b40669b3435508f425fc76af1b3e1e5e264aa59d413b1bfdc1d0f4dcdb50599
MD5 8275cfeab691e331e7ea196a1db76c3e
BLAKE2b-256 69121418c1c7ee4c43cf718c68245349ce51e7cb6a2e585ffd23b953a1b0c047

See more details on using hashes here.

Supported by

AWS AWS Cloud computing and Security Sponsor Datadog Datadog Monitoring Fastly Fastly CDN Google Google Download Analytics Microsoft Microsoft PSF Sponsor Pingdom Pingdom Monitoring Sentry Sentry Error logging StatusPage StatusPage Status page