iinfer: An application that executes AI model files in onnx or mmlab format.
Project description
iinfer (Image Inference Application)
- onnx又はmmlabフォーマットのAIモデルファイルを実行するアプリケーションです。
- ドキュメントはこちら。
- iinferを使用することで、AIモデルを簡単に実行することが出来ます。
- 動作確認したモデルは動作確認済みモデルに記載しています。
- 主なAIタスクは、画像分類、物体検知、顔検知、顔認識です。
- 複数の
iinfer
コマンドの入出力をつなげる、パイプライン処理を行うことが出来ます。 - GUIモードを使用することで、
iinfer
コマンド操作を簡単に行うことが出来ます。
iinferの動作イメージ
- iinfer client は imageファイル や camera から画像を取得し、 推論結果 predict.json を出力します。
- iinfer server は推論を行うサーバーです。 iinfer client からの要求に応えて、推論結果を iinfer client に返します。
- iinfer server は予め ai model をロードしておくことで、推論を高速化します。
- iinfer client と iinfer server は Redis 経由で通信します。
- iinfer server と Redis は dockerコンテナ を使用して起動させることが出来ます。
インストール方法
次の手順でインストールしてください:
- pipを使用してインストールします:
pip install --upgrade pip
pip install iinfer
eval "$(register-python-argcomplete iinfer)" # Ubuntuの場合コマンドラインオプションを補完できるようにします。
- コンテナをインストールして起動します。: ※docker及びdocker-composeを別途インストールしておく必要があります。
cd ~/
iinfer -m install -c server
docker-compose -f up -d
※インストールを実行したフォルダに docker-compose.yml
が作成されます。
iinferの使用方法
iinferを使用するには、次のコマンドを実行します:
- guiモードで利用する場合:
iinfer -m gui -c start
-
コマンドモードで利用する場合
- AIモデルのデプロイ:
# 画像AIモデルのデプロイ # 推論タイプはモデルのAIタスクやアルゴリズムに合わせて指定する。指定可能なキーワードは"iinfer -m client -c predict_type_list"コマンド参照。 iinfer -m client -c deploy -n <任意のモデル名> -f \ --model_file <モデルファイル> \ --model_conf_file <モデル設定ファイル> \ --predict_type <推論タイプ> \ --label_file <ラベルファイル> # デプロイされている画像AIモデルの一覧 iinfer -m client -c deploy_list -f
- AIモデルのセッションを開始:
# 画像AIモデルを起動させて推論可能な状態に(セッションを確保)する # use_trackを指定するとObjectDetectionタスクの結果に対して、MOT(Multi Object Tracking)を実行しトラッキングIDを出力する。 iinfer -m client -c start -n <モデル名> -f \ --use_track
- 推論を実行:
# 推論を実行する # output_previewを指定するとimshowで推論結果画像を表示する(GUI必要) iinfer -m client -c predict -n <モデル名> -f \ -i <推論させる画像ファイル> \ -o <推論結果の画像ファイル> \ --output_preview # カメラキャプチャー画像を元に推論を実行し、クラススコアが0.8以上の物体のみを検出する # --stdin --image_type capture で標準入力のキャプチャー画像を推論する iinfer -m client -c capture | \ iinfer -m client -c predict -n <モデル名> \ --stdin \ --image_type capture \ --nodraw | \ iinfer -m postprocess -c det_filter -f -P \ --stdin \ --score_th 0.8
- AIモデルのセッションを開放:
# 画像AIモデルを停止させてセッションを開放 iinfer -m client -c stop -n <モデル名> -f
Lisence
This project is licensed under the MIT License, see the LICENSE file for details
Project details
Release history Release notifications | RSS feed
Download files
Download the file for your platform. If you're not sure which to choose, learn more about installing packages.
Source Distribution
iinfer-0.5.8.tar.gz
(496.1 kB
view details)
Built Distribution
iinfer-0.5.8-py3-none-any.whl
(723.8 kB
view details)
File details
Details for the file iinfer-0.5.8.tar.gz
.
File metadata
- Download URL: iinfer-0.5.8.tar.gz
- Upload date:
- Size: 496.1 kB
- Tags: Source
- Uploaded using Trusted Publishing? No
- Uploaded via: twine/4.0.2 CPython/3.11.5
File hashes
Algorithm | Hash digest | |
---|---|---|
SHA256 | 56bb56c3a3b43944fe88cf510967a76e68b8d260eeaabf00717c301c7768784a |
|
MD5 | 74eca76513b17b905cda6c2f8cffbd05 |
|
BLAKE2b-256 | 79472a2aab6ff0b414f80a1e8337b4f5c0e0513a60b495f2ad498f8d9b8b25a2 |
File details
Details for the file iinfer-0.5.8-py3-none-any.whl
.
File metadata
- Download URL: iinfer-0.5.8-py3-none-any.whl
- Upload date:
- Size: 723.8 kB
- Tags: Python 3
- Uploaded using Trusted Publishing? No
- Uploaded via: twine/4.0.2 CPython/3.11.5
File hashes
Algorithm | Hash digest | |
---|---|---|
SHA256 | ddce354ff4b91719789360016550771ca641fc1bdab941a75dd203a2d3d47229 |
|
MD5 | b5e46cd8b9dde8ac8bdd20d4d3a8219d |
|
BLAKE2b-256 | c5a601a9dd666ed1c86a416f6e93b1a695a61d94b2fe83479fba44950a1b75c2 |