Skip to main content

No project description provided

Project description

Twitter Portuguese Tokenizer

Tokenizador de Tweets para o português, voltado ao mercado de ações (Dataset Dante).

Requerimentos

Python >= 3.7

Como usar

Execute o seguinte comando para instalar as dependências e instalar o pacote dante_tokenizer.

make install

O pacote será adicionado ao seu ambiente python. Para tokenizar textos, basta seguir os seguintes passos:

>>> from dante_tokenizer import DanteTokenizer
>>> tokenizer = DanteTokenizer()
>>> tokenizer.tokenize("A DANT3 está em alta!")
['A', 'DANT3', 'está', 'em', 'alta', '!']

O método tokenize irá retornar uma lista de strings contendo os respectivos tokens detectados. Outros exemplos estão disponíveis na pasta notebooks.

DanteTokenizer

O DanteTokenizer é uma modificação do TweetTokenizer do pacote nltk. Adicionando regras para comportar as variedades de tokens existentes nos tweets relacionados ao mercado de ações.

Obs: Como a classe atual do TweetTokenizer não permite uma extensão de forma fácil, o código foi extraído e modificado dentro do dante_tokenizer.

Agradecimentos

Ao Prof. Thiago A. S. Pardo pela orientação no programa de mestrado, à Profa. Ariani Di Felippo por definir as regras de tokenização e à Dra. Lucelene Lopes pelas contribuições técnicas.

Project details


Download files

Download the file for your platform. If you're not sure which to choose, learn more about installing packages.

Source Distributions

No source distribution files available for this release.See tutorial on generating distribution archives.

Built Distribution

dante_tokenizer-0.2.0-py3-none-any.whl (19.9 kB view details)

Uploaded Python 3

File details

Details for the file dante_tokenizer-0.2.0-py3-none-any.whl.

File metadata

  • Download URL: dante_tokenizer-0.2.0-py3-none-any.whl
  • Upload date:
  • Size: 19.9 kB
  • Tags: Python 3
  • Uploaded using Trusted Publishing? No
  • Uploaded via: twine/3.4.1 importlib_metadata/4.0.1 pkginfo/1.7.0 requests/2.24.0 requests-toolbelt/0.9.1 tqdm/4.58.0 CPython/3.8.3

File hashes

Hashes for dante_tokenizer-0.2.0-py3-none-any.whl
Algorithm Hash digest
SHA256 76e13c0f912ab655634544ceceb65d303fd4ad30d9899ef0e8eb073a9647db63
MD5 193a13e645f786f381a1390ca5a41e9e
BLAKE2b-256 396a93290217a8491c6f668a63a191a09d89c5bbd286b25fbfd16c7f0b9c70f7

See more details on using hashes here.

Supported by

AWS AWS Cloud computing and Security Sponsor Datadog Datadog Monitoring Fastly Fastly CDN Google Google Download Analytics Microsoft Microsoft PSF Sponsor Pingdom Pingdom Monitoring Sentry Sentry Error logging StatusPage StatusPage Status page