Skip to main content

To optimization load DataFrame from databases

Project description

df_loader

Модуль, реализующий функции read_sql() и auto_read_sql().

Данные функции позволяют получить из базы данных DataFrame, который использовует существенно меньше оперативной памяти. Чем больше в данных числовых столбцов, тем больше экономия памяти. Например, DataFrame, полученный из таблицы promocodes.dbo.recsys_wgh2_train_nmf_coef, будет весить на 64% меньше.

read_sql копирует функционал pandas.read_sql() и интерфейс метода полностью совместим с ним. Однако, имеет дополнительные опциональные параметры:

  • need_downcast=False
  • iterator=True

auto_read_sql является оберткой вокруг read_sql с измененными параметрами по умолчанию:

  • chunksize=500000
  • need_downcast=True
  • iterator=False

Примеры

Получение DataFrame целиком, как pd.read_sql()

from df_loader import read_sql

df = read_sql(query, con)

Получение итератора Dataframe чанками, как pd.read_sql()

from df_loader import read_sql

iterator = read_sql(query, con, chunksize=20000)

Получение Dataframe целиком, но с оптимизированными типами

from df_loader import read_sql

df = read_sql(query, con, need_downcast=True)

Получение итератора Dataframe чанками, с оптимизированными типами

from df_loader import read_sql

iterator = read_sql(query, con, chunksize=20000, need_downcast=True)

Получение Dataframe (не итератора!) с оптимизированными типами, загруженного чанками

from df_loader import read_sql

df = read_sql(query, con, chunksize=20000, need_downcast=True, iterator=False)

Тоже самое, но с помощью auto_read_sql

from df_loader import auto_read_sql

df = auto_read_sql(query, con)

Рекомендация

Для датасетов, которые занимают половину доступной памяти и более, настоятельно рекомендуется использовать загрузку чанками, тк прежде чем сдаункастить типы, в память будет загружен DataFrame средствами самого пандас (т.е. с жирными типами)

sql_load interface

from df_loader import read_sql

read_sql(sql,
         con,
         index_col=None,
         coerce_float=True,
         params=None,
         parse_dates=None,
         columns=None,
         chunksize=None,
         need_downcast=False,
         column_types=None,
         iterator=True)

sql

string or SQLAlchemy Selectable (select or text object) SQL query to be executed or a table name.

con

SQLAlchemy connectable (engine/connection) or database string URI or DBAPI2 connection (fallback mode).

Using SQLAlchemy makes it possible to use any DB supported by that library. If a DBAPI2 object, only sqlite3 is supported. The user is responsible for engine disposal and connection closure for the SQLAlchemy connectable.

index_col: string or list of str, default: None

Column(s) to set as index(MultiIndex).

coerce_float: boolean, default True

Attempts to convert values of non-string, non-numeric objects (like decimal.Decimal) to floating point, useful for SQL result sets.

params: list, tuple or dict, optional, default: None

List of parameters to pass to execute method. The syntax used to pass parameters is database driver dependent. Check your database driver documentation for which of the five syntax styles, described in PEP 249's paramstyle, is supported.

Eg. for psycopg2, uses %(name)s so use params={'name' : 'value'}.

parse_dates: list or dict, default: None

  • List of column names to parse as dates.
  • Dict of {column_name: format string} where format string is strftime compatible in case of parsing string times, or is one of (D, s, ns, ms, us) in case of parsing integer timestamps.
  • Dict of {column_name: arg dict}, where the arg dict corresponds to the keyword arguments of :func:pandas.to_datetime Especially useful with databases without native Datetime support, such as SQLite.

columns: list, default: None

List of column names to select from SQL table (only used when reading a table).

chunksize: int, default None

Если задан, то:

  1. если iterator=True, вернет вернет итератор
  2. если iterator=False, чанками загрузит датафреймы, объединит их в один и вернет его как результат.

need_downcast: bool, default False

Флаг, устанавливающий нужна оптимизация памяти или нет.

Для каждого столбца проверяется лежат ли его значения внутри uint8 -> uint16 -> ... -> int8 -> ... - > int64 -> float16 -> ... -> float64 -> object.

Если загрузка чанками, то учитываются типы столбцов из предыдущих чанков и приводятся к наибольшему.

column_types: list, default None

Not Implemented

iterator: bool, default True

Флаг, устанавливающий должен вернуться итератор или уже собранный из чанков DataFrame (если задан chunksize).

Project details


Download files

Download the file for your platform. If you're not sure which to choose, learn more about installing packages.

Files for df-loader, version 1.0.3
Filename, size File type Python version Upload date Hashes
Filename, size df_loader-1.0.3-py3-none-any.whl (16.0 kB) File type Wheel Python version py3 Upload date Hashes View hashes
Filename, size df_loader-1.0.3.tar.gz (11.0 kB) File type Source Python version None Upload date Hashes View hashes

Supported by

Elastic Elastic Search Pingdom Pingdom Monitoring Google Google BigQuery Sentry Sentry Error logging AWS AWS Cloud computing DataDog DataDog Monitoring Fastly Fastly CDN SignalFx SignalFx Supporter DigiCert DigiCert EV certificate StatusPage StatusPage Status page