Paquete en python para análisis, clasificación y recuperación de textos, utilizado por el equipo de Datos Argentina.
Project description
# Analizador de Textos
[![Coverage Status](https://coveralls.io/repos/github/datosgobar/textar/badge.svg?branch=master)](https://coveralls.io/github/datosgobar/textar?branch=master)
[![Build Status](https://travis-ci.org/datosgobar/textar.svg?branch=master)](https://travis-ci.org/datosgobar/textar)
[![PyPI](https://badge.fury.io/py/textar.svg)](http://badge.fury.io/py/textar)
[![Stories in Ready](https://badge.waffle.io/datosgobar/textar.png?label=ready&title=Ready)](https://waffle.io/datosgobar/textar)
[![Documentation Status](http://readthedocs.org/projects/textar/badge/?version=latest)](http://textar.readthedocs.org/en/latest/?badge=latest)
Paquete en python para análisis, clasificación y recuperación de textos, utilizado por el equipo de Datos Argentina.
<!-- START doctoc generated TOC please keep comment here to allow auto update -->
<!-- DON'T EDIT THIS SECTION, INSTEAD RE-RUN doctoc TO UPDATE -->
- [Instalación](#instalaci%C3%B3n)
- [Dependencias](#dependencias)
- [Desde pypi](#desde-pypi)
- [Para desarrollo](#para-desarrollo)
- [Uso](#uso)
- [Búsqueda de textos similares](#b%C3%BAsqueda-de-textos-similares)
- [Clasificación de textos](#clasificaci%C3%B3n-de-textos)
- [Tests](#tests)
- [Créditos](#cr%C3%A9ditos)
- [Contacto](#contacto)
<!-- END doctoc generated TOC please keep comment here to allow auto update -->
* Licencia: MIT license
## Instalación
### Dependencias
`textar` usa `pandas`, `numpy`, `scikit-learn` y `scipy`. Para que funcionen, se requiere instalar algunas dependencias no pythonicas:
* En Ubuntu: `sudo apt-get install libblas-dev liblapack-dev libatlas-base-dev gfortran`
### Desde pypi
`pip install textar`
### Para desarrollo
```
git clone https://www.github.com/datosgobar/textar.git
cd path/to/textar
pip install -e .
```
Cualquier cambio en el código está disponible en el entorno virtual donde fue instalado de esta manera.
## Uso
### Búsqueda de textos similares
```python
from textar import TextClassifier
tc = TextClassifier(
texts=[
"El árbol del edificio moderno tiene manzanas",
"El árbol más chico tiene muchas mandarinas naranjas, y está cerca del monumento antiguo",
"El edificio más antiguo tiene muchos cuadros caros porque era de un multimillonario",
"El edificio más moderno tiene muchas programadoras que comen manzanas durante el almuerzo grupal"
],
ids=map(str, range(4))
)
ids, distancias, palabras_comunes = tc.get_similar(
example="Me encontré muchas manzanas en el edificio",
max_similars=4
)
print ids
['0', '3', '2', '1']
print distancias
[0.92781458944579009, 1.0595805639371083, 1.1756638126839645, 1.3206413200640157]
print palabras_comunes
[[u'edificio', u'manzanas'], [u'edificio', u'muchas', u'manzanas'], [u'edificio', u'muchas'], [u'muchas']]
```
### Clasificación de textos
```python
from textar import TextClassifier
tc = TextClassifier(
texts=[
"Para hacer una pizza hace falta harina, tomate, queso y jamón",
"Para hacer unas empanadas necesitamos tapas de empanadas, tomate, jamón y queso",
"Para hacer un daiquiri necesitamos ron, una fruta y un poco de limón",
"Para hacer un cuba libre necesitamos coca, ron y un poco de limón",
"Para hacer una torta de naranja se necesita harina, huevos, leche, ralladura de naranja y polvo de hornear",
"Para hacer un lemon pie se necesita crema, ralladura de limón, huevos, leche y harina"
],
ids=map(str, range(6))
)
# entrena un clasificador
tc.make_classifier(
name="recetas_classifier",
ids=map(str, range(6)),
labels=["Comida", "Comida", "Trago", "Trago", "Postre", "Postre"]
)
labels_considerados, puntajes = tc.classify(
classifier_name="recetas_classifier",
examples=[
"Para hacer un bizcochuelo de chocolate se necesita harina, huevos, leche y chocolate negro",
"Para hacer un sanguche de miga necesitamos pan, jamón y queso"
]
)
print labels_considerados
array(['Comida', 'Postre', 'Trago'], dtype='|S6')
print puntajes
array([[-3.52493526, 5.85536809, -6.05497008],
[ 2.801027 , -6.55619473, -3.39598721]])
# el primer ejemplo es un postre
print sorted(zip(puntajes[0], labels_considerados), reverse=True)
[(5.8553680868184079, 'Postre'),
(-3.5249352611212568, 'Comida'),
(-6.0549700786502845, 'Trago')]
# el segundo ejemplo es una comida
print sorted(zip(puntajes[1], labels_considerados), reverse=True)
[(2.8010269985828997, 'Comida'),
(-3.3959872063363505, 'Trago'),
(-6.5561947275785393, 'Postre')]
```
## Tests
Los tests sólo se pueden correr habiendo clonado el repo. Luego instalar las dependencias de desarrollo:
`pip install -r requirements_dev.txt`
y correr los tests:
`nosetests`
## Créditos
* [Victor Lavrenko](http://homepages.inf.ed.ac.uk/vlavrenk/) nos ayudó a entender el problema con sus explicaciones en youtube: https://www.youtube.com/user/victorlavrenko
## Contacto
Te invitamos a [crearnos un issue](https://github.com/datosgobar/textar/issues/new?title=Encontré un bug en textar) en caso de que encuentres algún bug o tengas feedback de alguna parte de `textar`.
Para todo lo demás, podés mandarnos tu comentario o consulta a [datos@modernizacion.gob.ar](mailto:datos@modernizacion.gob.ar).
History
===
0.0.6 (2017-09-25)
------------------
* Arreglo de bugs en las palabras destacadas de los resultados sugeridos.
0.0.5 (2017-07-14)
------------------
* Mejoras en la forma en que se seleccionan las palabras destacadas de la busqueda
* Correcciones a los tests correspondientes
0.0.4 (2016-11-25)
------------------
* Correcciones a los tests
* Revisión de la documentación
0.0.1 (2016-11-22)
------------------
* First release on PyPI.
[![Coverage Status](https://coveralls.io/repos/github/datosgobar/textar/badge.svg?branch=master)](https://coveralls.io/github/datosgobar/textar?branch=master)
[![Build Status](https://travis-ci.org/datosgobar/textar.svg?branch=master)](https://travis-ci.org/datosgobar/textar)
[![PyPI](https://badge.fury.io/py/textar.svg)](http://badge.fury.io/py/textar)
[![Stories in Ready](https://badge.waffle.io/datosgobar/textar.png?label=ready&title=Ready)](https://waffle.io/datosgobar/textar)
[![Documentation Status](http://readthedocs.org/projects/textar/badge/?version=latest)](http://textar.readthedocs.org/en/latest/?badge=latest)
Paquete en python para análisis, clasificación y recuperación de textos, utilizado por el equipo de Datos Argentina.
<!-- START doctoc generated TOC please keep comment here to allow auto update -->
<!-- DON'T EDIT THIS SECTION, INSTEAD RE-RUN doctoc TO UPDATE -->
- [Instalación](#instalaci%C3%B3n)
- [Dependencias](#dependencias)
- [Desde pypi](#desde-pypi)
- [Para desarrollo](#para-desarrollo)
- [Uso](#uso)
- [Búsqueda de textos similares](#b%C3%BAsqueda-de-textos-similares)
- [Clasificación de textos](#clasificaci%C3%B3n-de-textos)
- [Tests](#tests)
- [Créditos](#cr%C3%A9ditos)
- [Contacto](#contacto)
<!-- END doctoc generated TOC please keep comment here to allow auto update -->
* Licencia: MIT license
## Instalación
### Dependencias
`textar` usa `pandas`, `numpy`, `scikit-learn` y `scipy`. Para que funcionen, se requiere instalar algunas dependencias no pythonicas:
* En Ubuntu: `sudo apt-get install libblas-dev liblapack-dev libatlas-base-dev gfortran`
### Desde pypi
`pip install textar`
### Para desarrollo
```
git clone https://www.github.com/datosgobar/textar.git
cd path/to/textar
pip install -e .
```
Cualquier cambio en el código está disponible en el entorno virtual donde fue instalado de esta manera.
## Uso
### Búsqueda de textos similares
```python
from textar import TextClassifier
tc = TextClassifier(
texts=[
"El árbol del edificio moderno tiene manzanas",
"El árbol más chico tiene muchas mandarinas naranjas, y está cerca del monumento antiguo",
"El edificio más antiguo tiene muchos cuadros caros porque era de un multimillonario",
"El edificio más moderno tiene muchas programadoras que comen manzanas durante el almuerzo grupal"
],
ids=map(str, range(4))
)
ids, distancias, palabras_comunes = tc.get_similar(
example="Me encontré muchas manzanas en el edificio",
max_similars=4
)
print ids
['0', '3', '2', '1']
print distancias
[0.92781458944579009, 1.0595805639371083, 1.1756638126839645, 1.3206413200640157]
print palabras_comunes
[[u'edificio', u'manzanas'], [u'edificio', u'muchas', u'manzanas'], [u'edificio', u'muchas'], [u'muchas']]
```
### Clasificación de textos
```python
from textar import TextClassifier
tc = TextClassifier(
texts=[
"Para hacer una pizza hace falta harina, tomate, queso y jamón",
"Para hacer unas empanadas necesitamos tapas de empanadas, tomate, jamón y queso",
"Para hacer un daiquiri necesitamos ron, una fruta y un poco de limón",
"Para hacer un cuba libre necesitamos coca, ron y un poco de limón",
"Para hacer una torta de naranja se necesita harina, huevos, leche, ralladura de naranja y polvo de hornear",
"Para hacer un lemon pie se necesita crema, ralladura de limón, huevos, leche y harina"
],
ids=map(str, range(6))
)
# entrena un clasificador
tc.make_classifier(
name="recetas_classifier",
ids=map(str, range(6)),
labels=["Comida", "Comida", "Trago", "Trago", "Postre", "Postre"]
)
labels_considerados, puntajes = tc.classify(
classifier_name="recetas_classifier",
examples=[
"Para hacer un bizcochuelo de chocolate se necesita harina, huevos, leche y chocolate negro",
"Para hacer un sanguche de miga necesitamos pan, jamón y queso"
]
)
print labels_considerados
array(['Comida', 'Postre', 'Trago'], dtype='|S6')
print puntajes
array([[-3.52493526, 5.85536809, -6.05497008],
[ 2.801027 , -6.55619473, -3.39598721]])
# el primer ejemplo es un postre
print sorted(zip(puntajes[0], labels_considerados), reverse=True)
[(5.8553680868184079, 'Postre'),
(-3.5249352611212568, 'Comida'),
(-6.0549700786502845, 'Trago')]
# el segundo ejemplo es una comida
print sorted(zip(puntajes[1], labels_considerados), reverse=True)
[(2.8010269985828997, 'Comida'),
(-3.3959872063363505, 'Trago'),
(-6.5561947275785393, 'Postre')]
```
## Tests
Los tests sólo se pueden correr habiendo clonado el repo. Luego instalar las dependencias de desarrollo:
`pip install -r requirements_dev.txt`
y correr los tests:
`nosetests`
## Créditos
* [Victor Lavrenko](http://homepages.inf.ed.ac.uk/vlavrenk/) nos ayudó a entender el problema con sus explicaciones en youtube: https://www.youtube.com/user/victorlavrenko
## Contacto
Te invitamos a [crearnos un issue](https://github.com/datosgobar/textar/issues/new?title=Encontré un bug en textar) en caso de que encuentres algún bug o tengas feedback de alguna parte de `textar`.
Para todo lo demás, podés mandarnos tu comentario o consulta a [datos@modernizacion.gob.ar](mailto:datos@modernizacion.gob.ar).
History
===
0.0.6 (2017-09-25)
------------------
* Arreglo de bugs en las palabras destacadas de los resultados sugeridos.
0.0.5 (2017-07-14)
------------------
* Mejoras en la forma en que se seleccionan las palabras destacadas de la busqueda
* Correcciones a los tests correspondientes
0.0.4 (2016-11-25)
------------------
* Correcciones a los tests
* Revisión de la documentación
0.0.1 (2016-11-22)
------------------
* First release on PyPI.
Project details
Download files
Download the file for your platform. If you're not sure which to choose, learn more about installing packages.
Source Distribution
textar-0.0.6.tar.gz
(16.8 kB
view details)
Built Distribution
File details
Details for the file textar-0.0.6.tar.gz
.
File metadata
- Download URL: textar-0.0.6.tar.gz
- Upload date:
- Size: 16.8 kB
- Tags: Source
- Uploaded using Trusted Publishing? No
File hashes
Algorithm | Hash digest | |
---|---|---|
SHA256 | 7391f6ad1a42aec310882a850edbd55095cc31931bc43fe590815641f0ad5257 |
|
MD5 | fdaf4167835edffe227d8581258cc86d |
|
BLAKE2b-256 | 732a6179e648e83da90f86dfc90022f3bfe68b9898923e04ac56bcd12c3e242b |
File details
Details for the file textar-0.0.6-py2.py3-none-any.whl
.
File metadata
- Download URL: textar-0.0.6-py2.py3-none-any.whl
- Upload date:
- Size: 12.9 kB
- Tags: Python 2, Python 3
- Uploaded using Trusted Publishing? No
File hashes
Algorithm | Hash digest | |
---|---|---|
SHA256 | 53bb22655dbc1a5c4e642b0b784623367937b6c49bc34c14be4c972283d647b8 |
|
MD5 | 021bfaba6732549b8b2a3e84fa33d681 |
|
BLAKE2b-256 | 6d0a814314fa4a3bcbae7326d85bda7a90dcaf68f87164674828fe8a92b33818 |