To optimization load DataFrame from databases
Project description
df_loader
Модуль, реализующий функции read_sql()
и auto_read_sql()
.
Данные функции позволяют получить из базы данных DataFrame, который
использовует существенно меньше оперативной памяти. Чем больше
в данных числовых столбцов, тем больше экономия памяти. Например,
DataFrame, полученный из таблицы promocodes.dbo.recsys_wgh2_train_nmf_coef
,
будет весить на 64% меньше.
read_sql
копирует функционал pandas.read_sql()
и интерфейс метода полностью
совместим с ним. Однако, имеет дополнительные опциональные параметры:
- need_downcast=False
- iterator=True
auto_read_sql
является оберткой вокруг read_sql
с измененными параметрами
по умолчанию:
- chunksize=500000
- need_downcast=True
- iterator=False
Примеры
Получение DataFrame целиком, как pd.read_sql()
from df_loader import read_sql
df = read_sql(query, con)
Получение итератора Dataframe чанками, как pd.read_sql()
from df_loader import read_sql
iterator = read_sql(query, con, chunksize=20000)
Получение Dataframe целиком, но с оптимизированными типами
from df_loader import read_sql
df = read_sql(query, con, need_downcast=True)
Получение итератора Dataframe чанками, с оптимизированными типами
from df_loader import read_sql
iterator = read_sql(query, con, chunksize=20000, need_downcast=True)
Получение Dataframe (не итератора!) с оптимизированными типами, загруженного чанками
from df_loader import read_sql
df = read_sql(query, con, chunksize=20000, need_downcast=True, iterator=False)
Тоже самое, но с помощью auto_read_sql
from df_loader import auto_read_sql
df = auto_read_sql(query, con)
Рекомендация
Для датасетов, которые занимают половину доступной памяти и более, настоятельно рекомендуется использовать загрузку чанками, тк прежде чем сдаункастить типы, в память будет загружен DataFrame средствами самого пандас (т.е. с жирными типами)
sql_load interface
from df_loader import read_sql
read_sql(sql,
con,
index_col=None,
coerce_float=True,
params=None,
parse_dates=None,
columns=None,
chunksize=None,
need_downcast=False,
column_types=None,
iterator=True)
sql
string or SQLAlchemy Selectable (select or text object) SQL query to be executed or a table name.
con
SQLAlchemy connectable (engine/connection) or database string URI or DBAPI2 connection (fallback mode).
Using SQLAlchemy makes it possible to use any DB supported by that library. If a DBAPI2 object, only sqlite3 is supported. The user is responsible for engine disposal and connection closure for the SQLAlchemy connectable.
index_col: string or list of str, default: None
Column(s) to set as index(MultiIndex).
coerce_float: boolean, default True
Attempts to convert values of non-string, non-numeric objects (like decimal.Decimal) to floating point, useful for SQL result sets.
params: list, tuple or dict, optional, default: None
List of parameters to pass to execute method. The syntax used to pass parameters is database driver dependent. Check your database driver documentation for which of the five syntax styles, described in PEP 249's paramstyle, is supported.
Eg. for psycopg2, uses %(name)s so use params={'name' : 'value'}.
parse_dates: list or dict, default: None
- List of column names to parse as dates.
- Dict of
{column_name: format string}
where format string is strftime compatible in case of parsing string times, or is one of (D, s, ns, ms, us) in case of parsing integer timestamps. - Dict of
{column_name: arg dict}
, where the arg dict corresponds to the keyword arguments of :func:pandas.to_datetime
Especially useful with databases without native Datetime support, such as SQLite.
columns: list, default: None
List of column names to select from SQL table (only used when reading a table).
chunksize: int, default None
Если задан, то:
- если iterator=True, вернет вернет итератор
- если iterator=False, чанками загрузит датафреймы, объединит их в один и вернет его как результат.
need_downcast: bool, default False
Флаг, устанавливающий нужна оптимизация памяти или нет.
Для каждого столбца проверяется лежат ли его значения внутри uint8 -> uint16 -> ... -> int8 -> ... - > int64 -> float16 -> ... -> float64 -> object.
Если загрузка чанками, то учитываются типы столбцов из предыдущих чанков и приводятся к наибольшему.
column_types: list, default None
Not Implemented
iterator: bool, default True
Флаг, устанавливающий должен вернуться итератор или уже собранный из чанков DataFrame (если задан chunksize).
Project details
Download files
Download the file for your platform. If you're not sure which to choose, learn more about installing packages.
Source Distribution
Built Distribution
File details
Details for the file df_loader-1.0.4.tar.gz
.
File metadata
- Download URL: df_loader-1.0.4.tar.gz
- Upload date:
- Size: 11.0 kB
- Tags: Source
- Uploaded using Trusted Publishing? No
- Uploaded via: twine/3.1.1 pkginfo/1.5.0.1 requests/2.22.0 setuptools/42.0.2 requests-toolbelt/0.9.1 tqdm/4.40.0 CPython/3.7.4
File hashes
Algorithm | Hash digest | |
---|---|---|
SHA256 | d768eb095bd2a5be477ffef32e7d59da089e5e5ec85205d4734907ec4b097607 |
|
MD5 | bbe250e15c8dd55aa525b9049b677626 |
|
BLAKE2b-256 | 19e4dc9c9676990d16269cbb2ba78b86302318723804bb56cd2b14bc04c28171 |
File details
Details for the file df_loader-1.0.4-py3-none-any.whl
.
File metadata
- Download URL: df_loader-1.0.4-py3-none-any.whl
- Upload date:
- Size: 16.0 kB
- Tags: Python 3
- Uploaded using Trusted Publishing? No
- Uploaded via: twine/3.1.1 pkginfo/1.5.0.1 requests/2.22.0 setuptools/42.0.2 requests-toolbelt/0.9.1 tqdm/4.40.0 CPython/3.7.4
File hashes
Algorithm | Hash digest | |
---|---|---|
SHA256 | bad86a17b2ccb78d1dc0f42b14ebf7f400bf460577ecf772d6628bc5467f6a12 |
|
MD5 | 60a679c35324ff62e9fea6dc52bf7cdb |
|
BLAKE2b-256 | 6f926e6ed21359f1ba3ac0f3f3859f9fdc810d9e454e2cf4147f42ed0c446976 |