Yakut language text normalizer using Word2Vec embeddings
Project description
Yakut Language Normalizer
Профессиональный нормализатор текста для якутского языка с использованием методов машинного обучения.
Описание
Проект предназначен для нормализации якутского текста. Нормализация — это преобразование текста БЕЗ якутских символов в текст С якутскими символами.
Направление нормализации:
- Вход: текст без якутских символов (например, "МАННАЙГЫ")
- Выход: текст с якутскими символами (например, "МАҤНАЙГЫ")
Правила нормализации:
h→һ(всегда)ь->һ(в некоторых позициях)г→ҕ(в некоторых позициях)н→ҥ(в некоторых позициях)о→ө(в некоторых позициях)у→ү(в некоторых позициях)
Подготовка данных: Для обучения модели мы берем нормализованные тексты (с якутскими символами) и создаем денормализованные варианты (без символов), формируя пары (денормализованный, нормализованный) для обучения.
Структура проекта
yakut_normalizer/
├── src/
│ ├── __init__.py
│ ├── data/ # Скрипты для обработки данных
│ ├── features/ # Извлечение признаков
│ ├── models/ # Модели машинного обучения
│ └── utils/ # Вспомогательные утилиты
├── data/ # Исходные данные
├── tests/ # Тесты
├── pyproject.toml # Конфигурация проекта
└── README.md
Быстрый старт
Требования
- Python 3.11+
- uv (рекомендуется) или pip
Установка с uv
# Если uv не установлен, установите его:
# Windows: powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"
# Linux/Mac: curl -LsSf https://astral.sh/uv/install.sh | sh
# Установка зависимостей
uv sync
# Активация виртуального окружения
uv run python
# Или запуск скриптов напрямую
uv run python -m src.data.prepare_data --help
Установка с pip
pip install -e .
pip install -e ".[dev]"
Настройка pre-commit
# Установка pre-commit hooks
pre-commit install
# Ручной запуск проверок
pre-commit run --all-files
Использование
Нормализаторы
Проект предоставляет различные реализации нормализаторов через абстрактный интерфейс:
from src.models.naive import NaiveNormalizer
# Создание нормализатора
normalizer = NaiveNormalizer()
# Нормализация текста
text = "МАННАЙГЫ БАhА"
normalized = normalizer.normalize(text)
# Результат: "МАҤНАЙГЫ БАҺА"
# Нормализатор можно вызывать как функцию
normalized = normalizer(text)
Доступные нормализаторы:
NaiveNormalizer- наивная реализация, заменяет все вхождения символов без учета контекстаContextAwareNormalizer- контекстно-зависимый нормализатор, использующий n-граммыWord2VecNormalizer- нормализатор на основе word2vec embeddings (рекомендуется)
Рекомендуемые параметры для Word2VecNormalizer:
После оптимизации с помощью Optuna найдены оптимальные параметры (см. best_params.txt):
- Character Accuracy: 0.9715
- Exact Match: 0.6177
- Word Accuracy: 0.9209
Интерактивная нормализация
Для быстрой нормализации текста можно использовать интерактивный скрипт:
# Интерактивный режим
python scripts/normalize_interactive.py
# Нормализация текста из командной строки
python scripts/normalize_interactive.py --text "МАННАЙГЫ БАhА"
# Нормализация файла
python scripts/normalize_interactive.py --input input.txt --output output.txt
Подробнее см. scripts/README.md.
Подготовка данных
from src.data.augmentation import (
denormalize_text,
generate_denormalized_variants,
create_normalization_pairs,
)
# Денормализация текста (для подготовки данных)
normalized_text = "МАҤНАЙГЫ БАҺА"
denormalized = denormalize_text(normalized_text, replacement_prob=1.0, random_seed=42)
print(denormalized) # "МАННАЙГЫ БАhА" или "МАННАЙГЫ БАьА"
# Генерация нескольких денормализованных вариантов
variants = generate_denormalized_variants(normalized_text, num_variants=3)
for variant in variants:
print(variant)
# Создание пар для обучения: (денормализованный, нормализованный)
normalized_texts = ["МАҤНАЙГЫ БАҺА", "Күн киирдэ"]
pairs = create_normalization_pairs(normalized_texts, num_variants_per_text=2)
# Пары: [("МАННАЙГЫ БАhА", "МАҤНАЙГЫ БАҺА"), ...]
Подготовка данных
Скрипт берет нормализованные тексты (с якутскими символами) и создает денормализованные варианты для обучения модели.
# Создать пары (денормализованный, нормализованный) из исходного файла
uv run python -m src.data.prepare_data \
--input data/yakut_razdel.txt \
--output data/augmented/yakut_pairs.txt \
--num-variants 2 \
--replacement-prob 1.0 \
--random-seed 42
# Для тестирования на небольшом количестве строк
uv run python -m src.data.prepare_data \
--input data/yakut_razdel.txt \
--output data/augmented/yakut_pairs_test.txt \
--max-lines 100 \
--num-variants 1
Формат выходного файла: denormalized<tab>normalized
- Первая колонка: текст без якутских символов (input для модели)
- Вторая колонка: текст с якутскими символами (target для модели)
Разделение на train и test
Данные разделяются на train и test с учетом доли специальных символов для сохранения похожего распределения:
# Разделить данные на train и test
python -m src.data.split_data \
--input data/processed/yakut_pairs.txt \
--train-output data/processed/train_pairs.txt \
--test-output data/processed/test_pairs.txt \
--test-ratio 0.2
# Сравнить метрики на train и test
python scripts/compare_train_test.py src.models.naive.NaiveNormalizer
Разделение использует стратификацию по доле специальных символов, чтобы обеспечить похожее распределение в train и test наборах.
Валидация и сравнение подходов
Валидатор позволяет сравнивать разные подходы к нормализации с помощью различных метрик:
from src.utils.validator import compare_normalizers, load_pairs
# Загрузка тестовых данных
test_pairs = load_pairs("data/processed/yakut_pairs.txt")
# Определение нормализаторов для сравнения
def my_normalizer(text: str) -> str:
# Ваша реализация нормализации
return normalized_text
normalizers = {
"Baseline": lambda x: x, # Identity
"My Approach": my_normalizer,
}
# Сравнение подходов
results = compare_normalizers(normalizers, test_pairs[:100])
Доступные метрики:
- Levenshtein Distance - минимальное количество редактирований
- Normalized Levenshtein - нормализованное расстояние (0.0-1.0)
- Character Accuracy - точность на уровне символов
- Word Accuracy - точность на уровне слов
- Character Error Rate (CER) - частота ошибок на символах
- Word Error Rate (WER) - частота ошибок на словах
- Exact Match - процент полностью совпадающих текстов
Командная строка:
# Оценка одного нормализатора
uv run python -m src.utils.validator \
--test-data data/processed/yakut_pairs.txt \
--max-samples 100 \
--verbose
Скрипт для валидации нормализаторов:
# Валидация нормализатора с параметрами
python scripts/validate_normalizer.py src.models.naive.NaiveNormalizer \
--max-samples 100 \
--compare-baseline
# С параметрами инициализации
python scripts/validate_normalizer.py src.models.naive.NaiveNormalizer \
--params '{"param1": "value1"}' \
--max-samples 50
Разработка
Pre-commit hooks
pre-commit install
pre-commit run --all-files
Запуск тестов
pytest
Оптимизация гиперпараметров
Для поиска оптимальных параметров нормализатора можно использовать Optuna:
# Базовая оптимизация (50 trials)
python scripts/optimize_hyperparameters.py
# С большим количеством trials
python scripts/optimize_hyperparameters.py --n-trials 100
# Сохранение study в файл для продолжения позже
python scripts/optimize_hyperparameters.py --storage sqlite:///study.db --n-trials 100
Подробнее см. scripts/README.md.
Лицензия
MIT
Project details
Release history Release notifications | RSS feed
Download files
Download the file for your platform. If you're not sure which to choose, learn more about installing packages.
Source Distribution
Built Distribution
Filter files by name, interpreter, ABI, and platform.
If you're not sure about the file name format, learn more about wheel file names.
Copy a direct link to the current filters
File details
Details for the file yakit-0.1.0.tar.gz.
File metadata
- Download URL: yakit-0.1.0.tar.gz
- Upload date:
- Size: 14.5 kB
- Tags: Source
- Uploaded using Trusted Publishing? No
- Uploaded via: twine/6.2.0 CPython/3.13.5
File hashes
| Algorithm | Hash digest | |
|---|---|---|
| SHA256 |
90fab05007fe1025e51b301fb6ae412f342f8df540c358c433432e47d1c5f22e
|
|
| MD5 |
ed21d3aeef6507b191bb293590c6d61e
|
|
| BLAKE2b-256 |
57451738aedd4a0193d06d6e5ba872a0b39937f3c70d260b16fc2d96fc6e5645
|
File details
Details for the file yakit-0.1.0-py3-none-any.whl.
File metadata
- Download URL: yakit-0.1.0-py3-none-any.whl
- Upload date:
- Size: 16.6 kB
- Tags: Python 3
- Uploaded using Trusted Publishing? No
- Uploaded via: twine/6.2.0 CPython/3.13.5
File hashes
| Algorithm | Hash digest | |
|---|---|---|
| SHA256 |
9efdc4a3f431f01c376104014a218a58d202cbdd295bdd4beebe5ac22a866889
|
|
| MD5 |
0bb4881ece94b0fd31f5180c286ce4d4
|
|
| BLAKE2b-256 |
abc8051c580b0c8635a6c71bea185f172bae2c46ec6babf52ac3069314c7d8ec
|