Skip to main content

Algorithme NLP de découpage d'un nom de voie en type de voie + nom de voie + complément adresse

Project description

Algorithme pour découper type de voie, nom de voie et complément d'adresse à partir d'un libellé de nom de voie brut.

Getting started

Installer le package :

pip install decoupage_libelles

Exemple d'utilisation du package

from decoupage_libelles import decoupe_voies

# Une liste de voies
decoupe_voies(["avenue verdier du bas de la rue", "avenue verdier"])

📬 Contact

Développé dans le cadre du projet GAIA — Insee. Auteur : Raya Berova (raya.berova@insee.fr)

Avec le dépot git

Dans son namespace sur Datalab ou LS3, ouvrir un service vs-python en paramétrant les ressources de cette façon :

Il faudra se munir de son identifiant GitLab et de son token (associé au projet en question) pour pouvoir cloner le projet.

Dans un terminal bash :

Sur LS3

git clone https://gitlab.insee.fr/geographie/gaia/gaia-decoupage-libelles-voies.git
cd gaia-decoupage-libelles-voies/
source ./setup.sh

Sur Datalab

git clone https://git.lab.sspcloud.fr/scrum-team-gaia/gaia-decoupage.git
cd gaia-decoupage/
source ./setup.sh

En local

Attention : ce n'est pas recommandé de lancer ce traitement sur de gros fichiers sur votre ordinateur en local.

git clone https://github.com/InseeFrLab/gaia-decoupage-nom-voie/
cd gaia-decoupage-nom-voie/
source ./setup.sh

Lancer le traitement d'un fichier

Placer le fichier dans l'espace de stockage S3, et configurer le fichier src/decoupage_libelles/scripts_parallelises/config.yml :

  • directory_path: Dossier où le fichier à traiter se trouve (Attention, ne pas mettre de "/" à la fin). Ex : "travail/projet-ml-moteur-identification-gaia/confidentiel/personnel_non_sensible".
  • input_path: Nom du fichier. Ex : "voies_01.csv".
  • output_formt: Le format du fichier de sortie. "csv" ou "parquet"
  • sep: Si c'est un fichier csv, préciser le séparateur. Ex : ",". Si c'est un parquet, mettre "".
  • encodeur: Si c'est un fichier csv, préciser l'encodeur. Ex : "utf-8". Si c'est un parquet, mettre "".
  • vars_names_nom_voie: Liste de(s) nom(s) de(s) la variable(s) dans laquelle on va extraire le type de voie. Ex : ["nom_voie_complet"] . S'il y a plusieurs à concaténer avec un espace entre chaque, les spécifier dans l'ordre. Ex : ["id_type_voie", "nom_voie_norm"]
  • plateform: "ls3", "datalab" ou "local" en fonction de si vous êtes sur LS3, Datalab ou en local.

Sur LS3

Dans le terminal bash, lancer :

python decoupage_libelles/scripts_parallelises/main.py

Sur le Datalab

Dans le terminal bash, lancer :

nohup python decoupage_libelles/scripts_parallelises/main.py &

La commande pour lancer le code sur le Datalab est un peu différente car si le service se met en veille sur le Datalab, le traitement se met en pause. Ceci n'est pas le cas sur LS3. Ici, les log ne se feront pas dans le terminal mais dans le fichier nohup.txt qui se créera dans le code lorsque le découpage sera lancé. Vous pourrez y suivre l'évolution en temps réel. Si vous voulez relancer un nouveau traitement, il faudra supprimer ce fichier nohup.txt pour ne pas réécrire dans l'ancien (en lançant dans le terminal rm nohup.txt).

Récupération du résultat

Le fichier traité sera enregistré dans le même dossier avec le format choisi et le même nom de fichier suivi de "_parsed".

Pour livrer un fichier traité en prod, le placer dans un des dossiers "Livraison" prévu à cet effet sur applishare : "\pd_as_ge_d1_50\ge_data_pd\gaia_pd".

En cas de fichier volumineux à mettre sur LS3

Sur le s3, vous pouvez stocker votre fichier zippé à l'endroit souhaité. Pour le dézipper, il suffit dans un terminal bash de lancer ces commandes :

cd ../
# Le fichier zip est stocké dans le s3 du projet-gaia sur le datalab, dans le dossier "decoupage"
# On va transférer ce fichier zip dans le dossier data du service VSCode
mc cp s3/projet-gaia/decoupage/ban_2024.zip data/
# Le fichier est dézippé dans le dossier data
unzip data/ban_2024.zip -d data/
# Le fichier zippé est supprimé du service VSCode pour ne pas surcharger le service
rm data/ban_2024.zip

Ensuite, vous pouvez aller explorer le dossier data dans le service VSCode et repérer ce qu'il vous intéresse. Par exemple, je voudrais récupérer le fichier csv dans le dossier dézippé :

# On met le fichier csv sur le s3 du projet gaia, dans le dossier "decoupage"
mc cp data/ban_2024/ban_2024.csv s3/projet-gaia/decoupage/
# On supprime le dossier dézippé du service VSCode ne pas surcharger
rm -rf data/ban_2024
cd src/

Voilà, votre fichier dézippé est bien sur le s3. Vous pouvez lancer un découpage sur ce fichier dès à présent.

En cas de fichier volumineux à télécharger depuis LS3

Dans un service VSCode :

mc cp s3/travail/projet-ml-moteur-identification-gaia/confidentiel/personnel_non_sensible/<fichier_a_zipper> .
tar -czvf <fichier_a_zipper>.tar.gz <fichier_a_zipper>
mc cp <fichier_a_zipper>.tar.gz s3/travail/projet-ml-moteur-identification-gaia/confidentiel/personnel_non_sensible/

Télécharger le fichier zippé et le dézipper deux fois d'affilé.

Arrêter un traitement en cours

Sur LS3

Dans le terminal, appuyer sur ctrl+Z. Cela peut prendre quelques minutes à s'arrêter, vous saurez que le traitement a été stoppé lorsque vous pourrez réécrire normalement dans le terminal.

Sur le Datalab

  • Copier le numéro qui s'affiche dans le terminal suite au lancement du traitement. Exemple : [1] 8371
  • Lancer dans le terminal kill 8371 pour stopper le traitement.
  • Suppimer le fichier nohup.txt : rm nohup.txt.

Project details


Download files

Download the file for your platform. If you're not sure which to choose, learn more about installing packages.

Source Distribution

decoupage_libelles-0.1.1.tar.gz (48.7 kB view details)

Uploaded Source

Built Distribution

If you're not sure about the file name format, learn more about wheel file names.

decoupage_libelles-0.1.1-py3-none-any.whl (93.9 kB view details)

Uploaded Python 3

File details

Details for the file decoupage_libelles-0.1.1.tar.gz.

File metadata

  • Download URL: decoupage_libelles-0.1.1.tar.gz
  • Upload date:
  • Size: 48.7 kB
  • Tags: Source
  • Uploaded using Trusted Publishing? No
  • Uploaded via: twine/6.2.0 CPython/3.13.8

File hashes

Hashes for decoupage_libelles-0.1.1.tar.gz
Algorithm Hash digest
SHA256 e2d22a6403635476d8acd4c028a09cdfb59ec0206d8b5cb03a5d547757235e86
MD5 a8438e5ecdee5b9a8cc993c94380ccb5
BLAKE2b-256 c63b1ee3e80cad93ca202a147cef8af3afaeec47c04de023089842ed0729dbde

See more details on using hashes here.

File details

Details for the file decoupage_libelles-0.1.1-py3-none-any.whl.

File metadata

File hashes

Hashes for decoupage_libelles-0.1.1-py3-none-any.whl
Algorithm Hash digest
SHA256 b7ed813e4a088fb9502d0a99f99b2ebd87d6c09f1a8f421a4789ecb62afd837e
MD5 62dee957093d2f9abfd5e4634f1ae022
BLAKE2b-256 dd7db7c0ec48929887ea1df2dec956bcb2b43c3b70848ef9494347f932df8619

See more details on using hashes here.

Supported by

AWS Cloud computing and Security Sponsor Datadog Monitoring Depot Continuous Integration Fastly CDN Google Download Analytics Pingdom Monitoring Sentry Error logging StatusPage Status page