Skip to main content

A tool for automatically configuring a text classification pipeline for intent prediction.

Project description

AutoIntent

Инструмент для автоматической конфигурации пайплайна классификации текстов для предсказания интента. Построен на представлении о том, что алгоритм предсказания интента можно разбить на четыре шага (TODO обновить схему):

  1. RegExp: классификация простейших примеров, которые описываются регулярными выражениями
  2. Retrieval: поиск похожих текстов, для которых известна метка класса
  3. Scoring: оценка принадлежности каждому из классов
  4. Prediction: предсказание метки класса и детекция out-of-scope примеров

Установка

  1. Скопировать проект:
git clone https://github.com/voorhs/AutoIntent.git
cd AutoIntent
  1. Установить пакет:
pip install .

Использование

Оптимизация

В текущей alpha-версии оптимизацию можно запустить командой autointent: Примеры использования:

autointent data.train_path=default-multiclass
autointent data.train_path=default-multilabel hydra.job_logging.root.level=INFO
autointent data.train_path=data/intent_records/ac_robotic_new.json \
    data.force_multilabel=true \
    logs.dirpath=experiments/multiclass_as_multilabel/ \
    logs.run_name=robotics_new_testing \
    augmentation.regex_sampling=10 \
    augmentation.multilabel_generation_config="[0, 4000, 1000]"  # currently doesn't work, omit this line
# currently doesn't work due to problems with to_multilabel when dataset contains only regexp but no utterances
autointent data.train_path=data/intent_records/ac_robotic_new.json \
           data.test_path=data/intent_records/ac_robotic_val.json \
           data.force_multilabel=true \
           augmentation.regex_sampling=20
autointent data.train_path=default-multiclass \
           data.test_path=data/intent_records/banking77_test.json \
           seed=42

Все опции в виде yaml (показаны дефолтные значения):

data:
# Path to a json file with training data. Set to "default" to use banking77 data stored within the
# autointent package.
  train_path: ???

# Path to a json file with test records. Skip this option if you want to use a random subset of the
# training sample as test data.
  test_path: null

# Set to true if your data is multiclass but you want to train the multilabel classifier.
  force_multilabel: false

task:
# Path to a yaml configuration file that defines the optimization search space.
# Omit this to use the default configuration.
  search_space_path: null
logs:
# Name of the run prepended to optimization assets dirname (generated randomly if omitted)
  run_name: "awful_hippo_10-30-2024_19-42-12"

# Location where to save optimization logs that will be saved as `<logs_dir>/<run_name>_<cur_datetime>/logs.json`.
# Omit to use current working directory. <-- on Windows it is not correct
  dirpath: "/home/user/AutoIntent/awful_hippo_10-30-2024_19-42-12"

  dump_dir: "/home/user/AutoIntent/runs/awful_hippo_10-30-2024_19-42-12/modules_dumps"

vector_index:
# Location where to save faiss database file. Omit to use your system's default cache directory.
  db_dir: null

# Specify device in torch notation
  device: cpu

augmentation:
# Number of shots per intent to sample from regular expressions. This option extends sample utterance
# within multiclass intent records.
  regex_sampling: 0

# Config string like "[20, 40, 20, 10]" means 20 one-label examples, 40 two-label examples, 20 three-label examples,
# 10 four-label examples. This option extends multilabel utterance records.
  multilabel_generation_config: null

embedder:
# batch size for embedding computation.
  batch_size: 1
# sentence length limit for embedding computation
  max_length: null

#Affects the randomness
seed: 0

# String from {DEBUG,INFO,WARNING,ERROR,CRITICAL}. Omit to use ERROR by default.
hydra.job_logging.root.level: "ERROR"

Как задавать конфигурационные опции

  • Вариант 1 - в коммандной строке в виде key=value. Пример:
autointent embedder.batch_size=32
  • Вариант 2 - в конфигурационном yaml файле. Создайте в отдельной папке yaml файл со следующей структурой my_config.yaml:
defaults:
  - optimization_config
  - _self_
  - override hydra/job_logging: custom

# put the configuration options you want to override here. The full structure is presented above.
# Here is just an example with the same options as for the command line variant above.
embedder:
  embedder_batch_size: 32

Запускаем AutoIntent:

autointent --config-path=/path/to/config/directory --config-name=my_config

Важно:

  • указывайте полный путь в опции config-path.
  • не используйте tab в yaml файле.
  • желательно чтобы имя файла отличалось от optimization_config.yaml, чтобы избежать warnings от hydra

Вы можете использовать комбинацию Варианта 1 и 2. Опции из коммандной строки имеют наивысший приоритет.

Вместе с пакетом предоставляются дефолтные конфиг и данные (5-shot banking77 / 20-shot dstc3).

Примеры:

  • примеры входных данных: data
  • примеры конфигов: example_configs

Инференс

После проведённой оптимизации найденный классификатор можно загрузить и использовать для предсказания:

autointent \
    data.train_path="tests/assets/data/clinc_subset_multiclass.json" \
    task.search_space_path="tests/assets/configs/multiclass.yaml"
autointent-inference \
    data_path="experiments/hydra-configs/data/utterances.json" \
    source_dir="tasty_auk_10-21-2024_14-24-48" \
    output_path="test-infer" 

Все опции инференса:

data_path    Path to a json list of string containing utterances
             for which you want to make a prediction.

source_dir   Path to a directory with optimization assets.

output_path  Path to a resulting json file with predictions made for 
             your utterances from data_path

log_level    String from {DEBUG,INFO,WARNING,ERROR,CRITICAL}.
             Omit to use ERROR by default.

Постановка задачи и формат входных данных

Решается задача классификации текста с возможностью отказа от классификации (в случае, когда текст не попадает ни в один класс).

Для решения этой задачи необходимо собрать для каждого интента словарик, подобный следующему:

{
    "intent_id": 0,
    "intent_name": "activate_my_card",
    "regexp_full_match": [
        "(alexa ){0,1}are we having a communication problem",
        "(alexa ){0,1}i don't think you understand",
        "what",
        "I did not get what do you mean"
    ],
    "regexp_partial_match": [
        "activate my card",
    ]
}

Расшифровка полей:

  • intent_id метка класса (пока что поддерживается только консистентная разметка 0..N)
  • intent_name опциональный параметр
  • regexp_full_match грамматика, описывающая представителей данного класса (используется затем в связке с re.fullmatch(pattern, text))
  • regexp_partial_match грамматика, описывающая только часть представителей данного класса (используется затем в связке с re.match(pattern, text))

Если есть примеры фраз, то стоит собрать их в другой словарик:

"utterances": [
    {
        "text": "I tried activating my plug-in and it didn't piece of work",
        "label": 0
    },
    {
        "text": "I want to open an account for my children",
        "label": 1
    },
    {
        "text": "How old do you need to be to use the banks services?",
        "label": 1
    },
    ...
]

Если одна фраза может содержать несколько лейблов, то так:

"utterances": [
    {
        "text": "can you please give me the address and the postcode",
        "label": [
            10
        ]
    },
    {
        "text": "alright thank you goodbye",
        "label": [
            2,
            12
        ]
    },
    ...
]

Если у фраза относится к разряду out-of-scope, то поле label не нужно указывать.

Multilabel

Для решения задачи multilabel классификации, формат данный другой (см. примеры в data/multi_label_data).

RegExp Node

# in development

Retrieval Node

Из входных данных извлекаются все sample_utterances со своими метками классов и помещаются в поисковый индекс. Этот индекс пригождается на шаге Scoring для модулей KNNScorer и DNNCScorer.

Результатом оптимизации этого компонента является поисковый индекс.

VectorDBRetriever

Под капотом ChromaDB.

Гиперпараметры:

  • название модели би-энкодера с huggingface
  • число кандидатов для ретрива

Scoring Node

Результатом оптимизации этого компонента является моделька, которая принимает на вход текст и выдает оценки принадлежности каждому классу.

KNNScorer

Обычный метод ближайших соседей. Для поиска используется индекс, добытый на шаге Retrieval.

Гиперпараметры:

  • число ближайших соседей

LinearScorer

Обычная логистическая регрессия. В качестве признаков используются эмбединги из векторного индекса.

Гиперпараметры отсутствуют.

DNNCScorer

Метод, заимствованный из статьи "discriminative nearest neighbor out-of-scope detection". Алгоритм:

  1. Ретрив k соседей с помощью поискового индекса
  2. Использование кросс-энкодера для оценки близости между текстом и k соседями
  3. Выдать метку класса того соседа, который наиболее близок к текущему тексту по мнению кросс-энкодера

Гиперпараметры:

  • название модели кросс-энкодера с huggingface
  • число соседей k

Prediction Node

Результатом оптимизации этого компонента является решающее правило, которое

  • детектирует OOS
  • выдает метку класса на основе оценок, полученных с этапа Scoring

ArgmaxPredictor

Выдает метку того класса, скор которого не меньше всех остальных. Не детектирует OOS.

ThresholdPredictor

Выдает метку того класса, скор которого не меньше всех остальных. Если скор этого класса меньше некоторого порога, то выдается OOS. Порог задается при инициализации модуля.

JinoosPredictor

Выдает метку того класса, скор которого не меньше всех остальных. Если скор этого класса меньше некоторого порога, то выдается OOS. Порог подбирается автоматически с помощью оптимизации метрики jinoos, заимствованной из статьи DNNC.

Оптимизация

Оптимизация пайплайна происходит путем независимой оптимизации каждого отдельного модуля под выбранную метрику. На текущий момент реализован метод полного перебора.

Для компоненты RegExp реализованы следующие метрики, цель которых проверить, что регулярные выражения разных интентов не конфликтуют:

  • regexp_partial_accuracy
  • regexp_partial_precision

Multi-class классификация

Retrieval:

  • retrieval_hit_rate
  • retrieval_map
  • retrieval_mrr
  • retrieval_ndcg
  • retrieval_precision

Scoring:

  • scoring_accuracy
  • scoring_f1
  • scoring_log_likelihood
  • scoring_precision
  • scoring_recall
  • scoring_roc_auc

Prediction:

  • prediction_accuracy
  • prediction_f1
  • prediction_precision
  • prediction_recall
  • prediction_roc_auc

Multi-label классификация

Retrieval:

  • все те же метрики, но в формате макро усреднения (к названию метрики нужно добавить _intersecting):
    • retrieval_hit_rate_intersecting
    • retrieval_map_intersecting
    • retrieval_mrr_intersecting
    • retrieval_ndcg_intersecting
    • retrieval_precision_intersecting
  • все те же метрики, но над бинарными метками, где 0 или 1 определяется тем, есть ли хотя бы одна общая метка (к названию метрики нужно добавить _macro):
    • retrieval_hit_rate_macro
    • retrieval_map_macro
    • retrieval_mrr_macro
    • retrieval_ndcg_macro
    • retrieval_precision_macro Scoring:
  • все те же, но в формате макро усреднения (под теми же названиями):
    • scoring_accuracy
    • scoring_f1
    • scoring_log_likelihood
    • scoring_precision
    • scoring_recall
    • scoring_roc_auc
  • scoring_neg_ranking_loss
  • scoring_neg_coverage
  • scoring_hit_rate

Prediction:

  • все те же, но в формате макро усреднения (под теми же названиями)
    • prediction_accuracy
    • prediction_f1
    • prediction_precision
    • prediction_recall
    • prediction_roc_auc

Project details


Download files

Download the file for your platform. If you're not sure which to choose, learn more about installing packages.

Source Distribution

test_ci_release-0.2.4.tar.gz (84.8 kB view details)

Uploaded Source

Built Distribution

If you're not sure about the file name format, learn more about wheel file names.

test_ci_release-0.2.4-py3-none-any.whl (119.4 kB view details)

Uploaded Python 3

File details

Details for the file test_ci_release-0.2.4.tar.gz.

File metadata

  • Download URL: test_ci_release-0.2.4.tar.gz
  • Upload date:
  • Size: 84.8 kB
  • Tags: Source
  • Uploaded using Trusted Publishing? Yes
  • Uploaded via: twine/5.1.1 CPython/3.12.7

File hashes

Hashes for test_ci_release-0.2.4.tar.gz
Algorithm Hash digest
SHA256 3e4afc9986fbfe8b85015332d8ab8cc3f6df3d053b45c3fb1ed1b6bae506cbd3
MD5 f3dbe74b749fc18f454a9d8010c6191b
BLAKE2b-256 36dd5b30c0411bedf27b789a14ebaf75346edfee7d81bb37141be3c3897c15e1

See more details on using hashes here.

Provenance

The following attestation bundles were made for test_ci_release-0.2.4.tar.gz:

Publisher: release.yaml on Samoed/test_ci_release

Attestations: Values shown here reflect the state when the release was signed and may no longer be current.

File details

Details for the file test_ci_release-0.2.4-py3-none-any.whl.

File metadata

  • Download URL: test_ci_release-0.2.4-py3-none-any.whl
  • Upload date:
  • Size: 119.4 kB
  • Tags: Python 3
  • Uploaded using Trusted Publishing? Yes
  • Uploaded via: twine/5.1.1 CPython/3.12.7

File hashes

Hashes for test_ci_release-0.2.4-py3-none-any.whl
Algorithm Hash digest
SHA256 6568af4144890bb48c2e029aca0e14c10aad71dbf9a9f84dea85132752e23203
MD5 07593d368bd969dafa236ebdedf87b1b
BLAKE2b-256 dee773ec0c1c78d391e314b0cbb4eb5290fff8fbceaf826d08983639f69dd979

See more details on using hashes here.

Provenance

The following attestation bundles were made for test_ci_release-0.2.4-py3-none-any.whl:

Publisher: release.yaml on Samoed/test_ci_release

Attestations: Values shown here reflect the state when the release was signed and may no longer be current.

Supported by

AWS Cloud computing and Security Sponsor Datadog Monitoring Depot Continuous Integration Fastly CDN Google Download Analytics Pingdom Monitoring Sentry Error logging StatusPage Status page