Skip to main content

AiBox Natural Language Processing Toolkit.

Project description


AiBox Lab
aibox-nlp

Uma biblioteca de Processamento de Linguagem Natural para o Português Brasileiro.

FuncionalidadesQuick StartInstalação

Python PyPI Acesse no Colab

Funcionalidades

  • 315+ características textuais para o Português Brasileiro
    • CohMetrix-BR, NILCMetrix, Características Gramaticais, e outras!
  • Classificadores e Regressores clássicos
    • SVM, SVR, XGBoost, CatBoost, LGBM, RF, e outros!
  • Classificação e Regressão com Deep Learning
    • BERT, LSTM, BI-LSTM, CharCNN, entre outros!
  • Várias Estratégias de Vetorização
    • Vetorização baseada em Embeddings (nível de sentença, nível de palavra), baseada em TF-IDF, e outros!
  • Reprodutibilidade
    • Todos experimentos são reprodutíveis, basta indicar uma seed;

[!IMPORTANT] Acesse a wiki da biblioteca e documentação da API para obter mais informações!

Quick Start

A biblioteca se baseia em 3 entidades básicas:

  • Dataset
    • Um dataset representa um conjunto de pares de textos e targets (classes, ou valores), que devem ser utilizados para resolver um problema de classificação ou regressão.
  • Metric
    • Uma métrica permite as saídas de um dado estimador com os valores ground-truth do dataset.
    • Por exemplo, Precisão, Revocação e F1-score são métricas para avaliação.
    • Também existem outras métricas como o Kappa e Kappa Vizinho.
  • Pipeline
    • Representam um conjunto de 3 componentes:
      1. Estratégia de Vetorização
        • Converte um texto para sua representação numérica.
        • Alguns exemplos são extratores de características, extração de Embeddings (BERT, FastText, etc), ou TF-IDF.
      2. Estimador
        • Representam um algoritmo para classificação/regressão.
        • Alguns exemplos são SVM, SVR, Árvores de Decisão, Redes Neurais.
      3. Pós-processamento
        • Estratégia aplicada após a predição pelo estimador.
        • Pode ser utilizada para garantir os limites da saída, ou conversão de regressão para classificação.

Um Experimento permite comparar múltiplas Pipelines com as Métricas escolhidas em um dado Dataset. Para construir um experimento, é possível utilizar as classes presentes em aibox.nlp.experiments ou utilizar os padrões factory/builder presentes em aibox.nlp.factory. Um exemplo básico pode ser encontrado abaixo:

from aibox.nlp.factory.experiment import SimpleExperimentBuilder

builder = SimpleExperimentBuilder()

# Inicialmente, vamos definir o dataset
builder.dataset('essayBR',
                extended=False,
                target_competence='C1')

# Vamos definir o tipo do problema
builder.classification()

# Vamos definir a seed randômica
builder.seed(42)

# Depois, vamos definir algumas métricas
#   que devem ser calculadas
builder.add_metric("accuracy")
builder.add_metric('precision', average='weighted')
builder.add_metric('recall', average='weighted')
builder.add_metric('f1', average='weighted')
builder.add_metric('kappa')
builder.add_metric('neighborKappa')

# Depois, vamos definir qual a métrica
#   que deve ser utilizar para escolher a
#   melhor pipeline
builder.best_criteria('precision', maximize=True, average='weighted')

# Agora, vamos adicionar algumas pipelines baseadas
#   em extração de característica
builder.add_feature_pipeline(
    features=['textualSimplicityBR'],
    estimators=['svm'],
    names=['svm+textual_simplicity'])

builder.add_feature_pipeline(
    features=['readabilityBR'],
    estimators=['svm'],
    names=['svm+readability'])

# Uma vez que tenhamos configurado o experimento,
#   podemos obter uma instância:
experiment = builder.build()

# === Executando o experimento ===
result = experiment.run()

# === Inspecionando os resultados ===
result.best_pipeline.name
# svm+readability

Para mais exemplos, acesse a documentação.

Instalação

A biblioteca pode ser instalada através do seu gerenciador de pacote preferido (e.g., pip, uv):

1. Instalando com um gerenciador de pacotes

# Configurar ambiente virtual
# ...

# Instalar através do pip
$ pip install --upgrade pip uv
$ uv pip install aibox-nlp

# Adicionalmente, instalar dependências opcionais:

# BR contém características para PT-BR
$ pip install aibox-nlp[BR]

# trees contém estimadores baseados em árvore
$ pip install aibox-nlp[trees]

# embeddings contém vetorizadores baseados em modelos
$ pip install aibox-nlp[embeddings]

# Ou, instalar todas:
$ pip install aibox-nlp[all]

2. Instalando a versão nigthly

[!NOTE] A versão nightly é experimental e volátil, não é garantido que todas as funcionalidades funcionem como esperado.

$ pip install --upgrade pip uv
$ uv pip install git+https://github.com/aiboxlab/nlp.git@main[all]

License

MIT


Project details


Download files

Download the file for your platform. If you're not sure which to choose, learn more about installing packages.

Source Distribution

aibox_nlp-0.4.1.tar.gz (102.1 kB view details)

Uploaded Source

Built Distribution

If you're not sure about the file name format, learn more about wheel file names.

aibox_nlp-0.4.1-py3-none-any.whl (148.3 kB view details)

Uploaded Python 3

File details

Details for the file aibox_nlp-0.4.1.tar.gz.

File metadata

  • Download URL: aibox_nlp-0.4.1.tar.gz
  • Upload date:
  • Size: 102.1 kB
  • Tags: Source
  • Uploaded using Trusted Publishing? No
  • Uploaded via: uv/0.7.11

File hashes

Hashes for aibox_nlp-0.4.1.tar.gz
Algorithm Hash digest
SHA256 c370f5e79b46faaf295dbd5f6461e4a82bd67ffa47ef487e9589349062ae0aaf
MD5 39ecd75778c66f4a10fc54f5ac295dda
BLAKE2b-256 47fa0cb56789458a5a4a23d4cc87444e1c2ded3f5e43c658008b2d407f0c13c4

See more details on using hashes here.

File details

Details for the file aibox_nlp-0.4.1-py3-none-any.whl.

File metadata

  • Download URL: aibox_nlp-0.4.1-py3-none-any.whl
  • Upload date:
  • Size: 148.3 kB
  • Tags: Python 3
  • Uploaded using Trusted Publishing? No
  • Uploaded via: uv/0.7.11

File hashes

Hashes for aibox_nlp-0.4.1-py3-none-any.whl
Algorithm Hash digest
SHA256 adbd7cdf23ed248a5f92acc5ef015e522932ccbff67db4e3cf2609b9243be68c
MD5 fcce13f477e60a261cb3816ac60e4cd3
BLAKE2b-256 5ce12890b24e8e65739763cfe533b02f9e0e33e37f8ab445720789473d29f5a4

See more details on using hashes here.

Supported by

AWS Cloud computing and Security Sponsor Datadog Monitoring Depot Continuous Integration Fastly CDN Google Download Analytics Pingdom Monitoring Sentry Error logging StatusPage Status page