Skip to main content

To optimization load DataFrame from databases

Project description

df_loader

Модуль, реализующий функции read_sql() и auto_read_sql().

Данные функции позволяют получить из базы данных DataFrame, который использовует существенно меньше оперативной памяти. Чем больше в данных числовых столбцов, тем больше экономия памяти. Например, DataFrame, полученный из таблицы promocodes.dbo.recsys_wgh2_train_nmf_coef, будет весить на 64% меньше.

read_sql копирует функционал pandas.read_sql() и интерфейс метода полностью совместим с ним. Однако, имеет дополнительные опциональные параметры:

  • need_downcast=False
  • iterator=True

auto_read_sql является оберткой вокруг read_sql с измененными параметрами по умолчанию:

  • chunksize=500000
  • need_downcast=True
  • iterator=False

Примеры

Получение DataFrame целиком, как pd.read_sql()

from df_loader import read_sql

df = read_sql(query, con)

Получение итератора Dataframe чанками, как pd.read_sql()

from df_loader import read_sql

iterator = read_sql(query, con, chunksize=20000)

Получение Dataframe целиком, но с оптимизированными типами

from df_loader import read_sql

df = read_sql(query, con, need_downcast=True)

Получение итератора Dataframe чанками, с оптимизированными типами

from df_loader import read_sql

iterator = read_sql(query, con, chunksize=20000, need_downcast=True)

Получение Dataframe (не итератора!) с оптимизированными типами, загруженного чанками

from df_loader import read_sql

df = read_sql(query, con, chunksize=20000, need_downcast=True, iterator=False)

Тоже самое, но с помощью auto_read_sql

from df_loader import auto_read_sql

df = auto_read_sql(query, con)

Рекомендация

Для датасетов, которые занимают половину доступной памяти и более, настоятельно рекомендуется использовать загрузку чанками, тк прежде чем сдаункастить типы, в память будет загружен DataFrame средствами самого пандас (т.е. с жирными типами)

sql_load interface

from df_loader import read_sql

read_sql(sql,
         con,
         index_col=None,
         coerce_float=True,
         params=None,
         parse_dates=None,
         columns=None,
         chunksize=None,
         need_downcast=False,
         column_types=None,
         iterator=True)

sql

string or SQLAlchemy Selectable (select or text object) SQL query to be executed or a table name.

con

SQLAlchemy connectable (engine/connection) or database string URI or DBAPI2 connection (fallback mode).

Using SQLAlchemy makes it possible to use any DB supported by that library. If a DBAPI2 object, only sqlite3 is supported. The user is responsible for engine disposal and connection closure for the SQLAlchemy connectable.

index_col: string or list of str, default: None

Column(s) to set as index(MultiIndex).

coerce_float: boolean, default True

Attempts to convert values of non-string, non-numeric objects (like decimal.Decimal) to floating point, useful for SQL result sets.

params: list, tuple or dict, optional, default: None

List of parameters to pass to execute method. The syntax used to pass parameters is database driver dependent. Check your database driver documentation for which of the five syntax styles, described in PEP 249's paramstyle, is supported.

Eg. for psycopg2, uses %(name)s so use params={'name' : 'value'}.

parse_dates: list or dict, default: None

  • List of column names to parse as dates.
  • Dict of {column_name: format string} where format string is strftime compatible in case of parsing string times, or is one of (D, s, ns, ms, us) in case of parsing integer timestamps.
  • Dict of {column_name: arg dict}, where the arg dict corresponds to the keyword arguments of :func:pandas.to_datetime Especially useful with databases without native Datetime support, such as SQLite.

columns: list, default: None

List of column names to select from SQL table (only used when reading a table).

chunksize: int, default None

Если задан, то:

  1. если iterator=True, вернет вернет итератор
  2. если iterator=False, чанками загрузит датафреймы, объединит их в один и вернет его как результат.

need_downcast: bool, default False

Флаг, устанавливающий нужна оптимизация памяти или нет.

Для каждого столбца проверяется лежат ли его значения внутри uint8 -> uint16 -> ... -> int8 -> ... - > int64 -> float16 -> ... -> float64 -> object.

Если загрузка чанками, то учитываются типы столбцов из предыдущих чанков и приводятся к наибольшему.

column_types: list, default None

Not Implemented

iterator: bool, default True

Флаг, устанавливающий должен вернуться итератор или уже собранный из чанков DataFrame (если задан chunksize).

Project details


Download files

Download the file for your platform. If you're not sure which to choose, learn more about installing packages.

Source Distribution

df_loader-1.0.4.tar.gz (11.0 kB view details)

Uploaded Source

Built Distribution

df_loader-1.0.4-py3-none-any.whl (16.0 kB view details)

Uploaded Python 3

File details

Details for the file df_loader-1.0.4.tar.gz.

File metadata

  • Download URL: df_loader-1.0.4.tar.gz
  • Upload date:
  • Size: 11.0 kB
  • Tags: Source
  • Uploaded using Trusted Publishing? No
  • Uploaded via: twine/3.1.1 pkginfo/1.5.0.1 requests/2.22.0 setuptools/42.0.2 requests-toolbelt/0.9.1 tqdm/4.40.0 CPython/3.7.4

File hashes

Hashes for df_loader-1.0.4.tar.gz
Algorithm Hash digest
SHA256 d768eb095bd2a5be477ffef32e7d59da089e5e5ec85205d4734907ec4b097607
MD5 bbe250e15c8dd55aa525b9049b677626
BLAKE2b-256 19e4dc9c9676990d16269cbb2ba78b86302318723804bb56cd2b14bc04c28171

See more details on using hashes here.

File details

Details for the file df_loader-1.0.4-py3-none-any.whl.

File metadata

  • Download URL: df_loader-1.0.4-py3-none-any.whl
  • Upload date:
  • Size: 16.0 kB
  • Tags: Python 3
  • Uploaded using Trusted Publishing? No
  • Uploaded via: twine/3.1.1 pkginfo/1.5.0.1 requests/2.22.0 setuptools/42.0.2 requests-toolbelt/0.9.1 tqdm/4.40.0 CPython/3.7.4

File hashes

Hashes for df_loader-1.0.4-py3-none-any.whl
Algorithm Hash digest
SHA256 bad86a17b2ccb78d1dc0f42b14ebf7f400bf460577ecf772d6628bc5467f6a12
MD5 60a679c35324ff62e9fea6dc52bf7cdb
BLAKE2b-256 6f926e6ed21359f1ba3ac0f3f3859f9fdc810d9e454e2cf4147f42ed0c446976

See more details on using hashes here.

Supported by

AWS AWS Cloud computing and Security Sponsor Datadog Datadog Monitoring Fastly Fastly CDN Google Google Download Analytics Microsoft Microsoft PSF Sponsor Pingdom Pingdom Monitoring Sentry Sentry Error logging StatusPage StatusPage Status page