Skip to main content

No project description provided

Project description

Twitter Portuguese Tokenizer

Tokenizador de Tweets para o português, voltado ao mercado de ações (Dataset Dante).

Requerimentos

Python >= 3.7

Como usar

Execute o seguinte comando para instalar as dependências e instalar o pacote dante_tokenizer.

make install

O pacote será adicionado ao seu ambiente python. Para tokenizar textos, basta seguir os seguintes passos:

>>> from dante_tokenizer import DanteTokenizer
>>> tokenizer = DanteTokenizer()
>>> tokenizer.tokenize("A DANT3 está em alta!")
['A', 'DANT3', 'está', 'em', 'alta', '!']

O método tokenize irá retornar uma lista de strings contendo os respectivos tokens detectados. Outros exemplos estão disponíveis na pasta notebooks.

DanteTokenizer

O DanteTokenizer é uma modificação do TweetTokenizer do pacote nltk. Adicionando regras para comportar as variedades de tokens existentes nos tweets relacionados ao mercado de ações.

Obs: Como a classe atual do TweetTokenizer não permite uma extensão de forma fácil, o código foi extraído e modificado dentro do dante_tokenizer.

Agradecimentos

Ao Prof. Thiago A. S. Pardo pela orientação no programa de mestrado, à Profa. Ariani Di Felippo por definir as regras de tokenização e à Dra. Lucelene Lopes pelas contribuições técnicas.

Project details


Download files

Download the file for your platform. If you're not sure which to choose, learn more about installing packages.

Source Distributions

No source distribution files available for this release.See tutorial on generating distribution archives.

Built Distribution

dante_tokenizer-0.2.0-py3-none-any.whl (19.9 kB view hashes)

Uploaded Python 3

Supported by

AWS AWS Cloud computing and Security Sponsor Datadog Datadog Monitoring Fastly Fastly CDN Google Google Download Analytics Microsoft Microsoft PSF Sponsor Pingdom Pingdom Monitoring Sentry Sentry Error logging StatusPage StatusPage Status page