iinfer: An application that executes AI model files in onnx or mmlab format.
Project description
iinfer (Image Inference Application)
onnx又はmmlabフォーマットのAIモデルファイルを実行するアプリケーションです。 ドキュメントはこちら。
iinferの動作イメージ
- iinfer client は imageファイル や camera から画像を取得し、 推論結果 predict.json を出力します。
- iinfer server は推論を行うサーバーです。 iinfer client からの要求に応えて、推論結果を iinfer client に返します。
- iinfer server は予め ai model をロードしておくことで、推論を高速化します。
- iinfer client と iinfer server は Redis 経由で通信します。
- iinfer server と Redis は dockerコンテナ を使用して起動させることが出来ます。
インストール方法
次の手順でインストールしてください:
- pipを使用してインストールします:
pip install --upgrade pip
pip install iinfer
- コマンドラインオプションを補完するときは次のコマンドを実行します。(Ubuntuの場合のみ):
eval "$(register-python-argcomplete iinfer)"
- サーバーコンテナをインストールする場合は次のコマンドを実行します。(Ubuntuの場合のみ):
iinfer -m install -c server
docker-compose -f up -d
iinferの使用方法
iinferを使用するには、次のコマンドを実行します:
- サーバーの起動(Windowsの場合):
REM Redisサーバーコンテナの起動
iinfer -m redis -c docker_run -f \
--wsl_name <WSLのディストリビューションの名前> \
--wsl_user <WSLのLinux内のDockerが使えるユーザー>
REM 推論処理を実行するサーバープロセスの起動
iinfer -m server -c start -f
- サーバーの起動(Ubuntuの場合):
# Redisサーバーコンテナと推論処理を実行するサーバープロセスの起動
docker-compose up -d
- AIモデルのデプロイ:
# 画像AIモデルのデプロイ
# 推論タイプはモデルのAIタスクやアルゴリズムに合わせて指定する。指定可能なキーワードは"iinfer -m client -c predict_type_list"コマンド参照。
iinfer -m client -c deploy -n <任意のモデル名> -f \
--model_img_width <モデルのINPUTサイズ(横幅)> \
--model_img_height <モデルのINPUTサイズ(縦幅)> \
--model_file <モデルファイル> \
--model_conf_file <モデル設定ファイル> \
--predict_type <推論タイプ> \
--label_file <ラベルファイル>
# デプロイされている画像AIモデルの一覧
iinfer -m client -c deploy_list -f
- AIモデルのセッションを開始:
# 画像AIモデルを起動させて推論可能な状態に(セッションを確保)する
# use_trackを指定するとObjectDetectionタスクの結果に対して、MOT(Multi Object Tracking)を実行しトラッキングIDを出力する。
iinfer -m client -c start -n <モデル名> -f \
--use_track
- 推論を実行:
# 推論を実行する
# output_previewを指定するとimshowで推論結果画像を表示する(GUI必要)
iinfer -m client -c predict -n <モデル名> -f \
-i <推論させる画像ファイル> \
-o <推論結果の画像ファイル> \
--output_preview
# カメラキャプチャー画像を元に推論を実行し、クラススコアが0.8以上の物体のみを検出する
# --stdin --image_type capture で標準入力のキャプチャー画像を推論する
iinfer -m client -c capture | \
iinfer -m client -c predict -n <モデル名> \
--stdin \
--image_type capture \
--nodraw | \
iinfer -m postprocess -c det_filter -f -P \
--stdin \
--score_th 0.8
- AIモデルのセッションを開放:
# 画像AIモデルを停止させてセッションを開放
iinfer -m client -c stop -n <モデル名> -f
- サーバーの停止(Ubuntuの場合):
# Redisサーバーコンテナと推論処理を実行するサーバープロセスの停止
docker-compose down
- サーバーの停止(Windowsの場合):
REM 推論処理を実行するサーバープロセスの停止
iinfer -m server -c stop -f
REM Redisサーバーコンテナの停止
iinfer -m redis -c docker_stop -f \
--wsl_name <WSLのディストリビューションの名前> \
--wsl_user <WSLのLinux内のDockerが使えるユーザー>
Lisence
This project is licensed under the MIT License, see the LICENSE file for details
Project details
Release history Release notifications | RSS feed
Download files
Download the file for your platform. If you're not sure which to choose, learn more about installing packages.
Source Distribution
iinfer-0.4.16.tar.gz
(235.8 kB
view details)
Built Distribution
iinfer-0.4.16-py3-none-any.whl
(815.7 kB
view details)
File details
Details for the file iinfer-0.4.16.tar.gz
.
File metadata
- Download URL: iinfer-0.4.16.tar.gz
- Upload date:
- Size: 235.8 kB
- Tags: Source
- Uploaded using Trusted Publishing? No
- Uploaded via: twine/4.0.2 CPython/3.11.5
File hashes
Algorithm | Hash digest | |
---|---|---|
SHA256 | 59aec41f1d3aa37b0a615e1c3b90be0c4b3fdceb36ecdc1e1aded9eaba4178dc |
|
MD5 | b4cfe5d0337ecc38bffc142f37d3aef1 |
|
BLAKE2b-256 | fa38d1cda86d8aa48e2749ad9aac97169d22d31a942acd8a795705c8dd988501 |
File details
Details for the file iinfer-0.4.16-py3-none-any.whl
.
File metadata
- Download URL: iinfer-0.4.16-py3-none-any.whl
- Upload date:
- Size: 815.7 kB
- Tags: Python 3
- Uploaded using Trusted Publishing? No
- Uploaded via: twine/4.0.2 CPython/3.11.5
File hashes
Algorithm | Hash digest | |
---|---|---|
SHA256 | af5967f3880a518f0ea0b14e78066373f4660c245ac8f32cde6957381f6736c2 |
|
MD5 | 6041864723cd3a4c52f6e15d828903db |
|
BLAKE2b-256 | 83b2e1521820e68d62ad831088231359598b7eaf1fdf35012789f2a9f08bec70 |