Algorithme NLP de découpage d'un nom de voie en type de voie + nom de voie + complément adresse
Project description
Algorithme pour découper type de voie, nom de voie et complément d'adresse à partir d'un libellé de nom de voie brut.
Getting started
Dans son namespace sur Datalab ou LS3, ouvrir un service vs-python en paramétrant les ressources de cette façon :
Il faudra se munir de son identifiant GitLab et de son token (associé au projet en question) pour pouvoir cloner le projet.
Dans un terminal bash :
Sur LS3
git clone https://gitlab.insee.fr/geographie/gaia/gaia-decoupage-libelles-voies.git
cd gaia-decoupage-libelles-voies/
source ./setup.sh
Sur Datalab
git clone https://git.lab.sspcloud.fr/scrum-team-gaia/gaia-decoupage.git
cd gaia-decoupage/
wget -P data/ https://minio.lab.sspcloud.fr/projet-gaia/fr_dep_news_trf-3.8.0-py3-none-any.zip
pip install -r requirements.txt
unzip data/fr_dep_news_trf-3.8.0-py3-none-any.zip -d data/fr_dep_news_trf-3.8.0/
rm data/fr_dep_news_trf-3.8.0-py3-none-any.zip
cd src/
En local
Attention : ce n'est pas recommandé de lancer ce traitement sur de gros fichiers sur votre ordinateur en local.
git clone https://git.lab.sspcloud.fr/scrum-team-gaia/gaia-decoupage.git
cd gaia-decoupage/
curl -o data/fr_dep_news_trf-3.8.0-py3-none-any.zip https://minio.lab.sspcloud.fr/projet-gaia/fr_dep_news_trf-3.8.0-py3-none-any.zip
pip install -r requirements.txt
unzip data/fr_dep_news_trf-3.8.0-py3-none-any.zip -d data/fr_dep_news_trf-3.8.0/
rm data/fr_dep_news_trf-3.8.0-py3-none-any.zip
cd src/
Lancer le traitement d'un fichier
Placer le fichier dans l'espace de stockage S3, et configurer le fichier src/decoupage_libelles/scripts_parallelises/config.yml :
- directory_path: Dossier où le fichier à traiter se trouve (Attention, ne pas mettre de "/" à la fin). Ex : "travail/projet-ml-moteur-identification-gaia/confidentiel/personnel_non_sensible".
- input_path: Nom du fichier. Ex : "voies_01.csv".
- output_formt: Le format du fichier de sortie. "csv" ou "parquet"
- sep: Si c'est un fichier csv, préciser le séparateur. Ex : ",". Si c'est un parquet, mettre "".
- encodeur: Si c'est un fichier csv, préciser l'encodeur. Ex : "utf-8". Si c'est un parquet, mettre "".
- vars_names_nom_voie: Liste de(s) nom(s) de(s) la variable(s) dans laquelle on va extraire le type de voie. Ex : ["nom_voie_complet"] . S'il y a plusieurs à concaténer avec un espace entre chaque, les spécifier dans l'ordre. Ex : ["id_type_voie", "nom_voie_norm"]
- plateform: "ls3", "datalab" ou "local" en fonction de si vous êtes sur LS3, Datalab ou en local.
Sur LS3
Dans le terminal bash, lancer :
python decoupage_libelles/scripts_parallelises/main.py
Sur le Datalab
Dans le terminal bash, lancer :
nohup python decoupage_libelles/scripts_parallelises/main.py &
La commande pour lancer le code sur le Datalab est un peu différente car si le service se met en veille sur le Datalab, le traitement se met en pause. Ceci n'est pas le cas sur LS3. Ici, les log ne se feront pas dans le terminal mais dans le fichier nohup.txt qui se créera dans le code lorsque le découpage sera lancé. Vous pourrez y suivre l'évolution en temps réel. Si vous voulez relancer un nouveau traitement, il faudra supprimer ce fichier nohup.txt pour ne pas réécrire dans l'ancien (en lançant dans le terminal rm nohup.txt).
Récupération du résultat
Le fichier traité sera enregistré dans le même dossier avec le format choisi et le même nom de fichier suivi de "_parsed".
Pour livrer un fichier traité en prod, le placer dans un des dossiers "Livraison" prévu à cet effet sur applishare : "\pd_as_ge_d1_50\ge_data_pd\gaia_pd".
En cas de fichier volumineux à mettre sur LS3
Sur le s3, vous pouvez stocker votre fichier zippé à l'endroit souhaité. Pour le dézipper, il suffit dans un terminal bash de lancer ces commandes :
cd ../
# Le fichier zip est stocké dans le s3 du projet-gaia sur le datalab, dans le dossier "decoupage"
# On va transférer ce fichier zip dans le dossier data du service VSCode
mc cp s3/projet-gaia/decoupage/ban_2024.zip data/
# Le fichier est dézippé dans le dossier data
unzip data/ban_2024.zip -d data/
# Le fichier zippé est supprimé du service VSCode pour ne pas surcharger le service
rm data/ban_2024.zip
Ensuite, vous pouvez aller explorer le dossier data dans le service VSCode et repérer ce qu'il vous intéresse. Par exemple, je voudrais récupérer le fichier csv dans le dossier dézippé :
# On met le fichier csv sur le s3 du projet gaia, dans le dossier "decoupage"
mc cp data/ban_2024/ban_2024.csv s3/projet-gaia/decoupage/
# On supprime le dossier dézippé du service VSCode ne pas surcharger
rm -rf data/ban_2024
cd src/
Voilà, votre fichier dézippé est bien sur le s3. Vous pouvez lancer un découpage sur ce fichier dès à présent.
En cas de fichier volumineux à télécharger depuis LS3
Dans un service VSCode :
mc cp s3/travail/projet-ml-moteur-identification-gaia/confidentiel/personnel_non_sensible/<fichier_a_zipper> .
tar -czvf <fichier_a_zipper>.tar.gz <fichier_a_zipper>
mc cp <fichier_a_zipper>.tar.gz s3/travail/projet-ml-moteur-identification-gaia/confidentiel/personnel_non_sensible/
Télécharger le fichier zippé et le dézipper deux fois d'affilé.
Arrêter un traitement en cours
Sur LS3
Dans le terminal, appuyer sur ctrl+Z. Cela peut prendre quelques minutes à s'arrêter, vous saurez que le traitement a été stoppé lorsque vous pourrez réécrire normalement dans le terminal.
Sur le Datalab
- Copier le numéro qui s'affiche dans le terminal suite au lancement du traitement. Exemple :
[1] 8371 - Lancer dans le terminal
kill 8371pour stopper le traitement. - Suppimer le fichier nohup.txt :
rm nohup.txt.
Project details
Release history Release notifications | RSS feed
Download files
Download the file for your platform. If you're not sure which to choose, learn more about installing packages.
Source Distribution
Built Distribution
Filter files by name, interpreter, ABI, and platform.
If you're not sure about the file name format, learn more about wheel file names.
Copy a direct link to the current filters
File details
Details for the file decoupage_libelles-0.0.4.tar.gz.
File metadata
- Download URL: decoupage_libelles-0.0.4.tar.gz
- Upload date:
- Size: 43.7 kB
- Tags: Source
- Uploaded using Trusted Publishing? No
- Uploaded via: twine/6.2.0 CPython/3.13.8
File hashes
| Algorithm | Hash digest | |
|---|---|---|
| SHA256 |
c6ad1e5de914d699598e54d0e4de9b12cd40a5c465b17581df9364b304105947
|
|
| MD5 |
854ab45f5504f2f9e44a23b8e065d79d
|
|
| BLAKE2b-256 |
03d0a7121a706d065d251d09e4e7f9445190654f02ead3c2c058b59402aaab0e
|
File details
Details for the file decoupage_libelles-0.0.4-py3-none-any.whl.
File metadata
- Download URL: decoupage_libelles-0.0.4-py3-none-any.whl
- Upload date:
- Size: 89.0 kB
- Tags: Python 3
- Uploaded using Trusted Publishing? No
- Uploaded via: twine/6.2.0 CPython/3.13.8
File hashes
| Algorithm | Hash digest | |
|---|---|---|
| SHA256 |
fc804a53cb50ebf4dcbea77c685c1c1d294c1ec00ef074c28292545519de82b4
|
|
| MD5 |
40f44fbe0dacc259a214058b3eb36da5
|
|
| BLAKE2b-256 |
f07a67195f482980c735d97f47755e368d88726ad88054bdd7f586e54399b1cc
|