Skip to main content

iinfer: Perform inference using an image AI model in onnx format.

Project description

iinfer (Visual Prediction Application)

onnx又はmmlabフォーマットの重みファイルを実行するCLIアプリケーションです。 ドキュメントはこちら

iinderの動作イメージ

iinderの動作イメージ

  1. iinfer clientimageファイルcamera から画像を取得し、 推論結果 predict.json を出力します。
  2. iinfer server は推論を行うサーバーです。 iinfer client からの要求に応えて、推論結果を iinfer client に返します。
  3. iinfer server は予め ai model をロードしておくことで、推論を高速化します。
  4. iinfer clientiinfer serverRedis 経由で通信します。
  5. iinfer serverRedisdockerコンテナ を使用して起動させることが出来ます。

インストール方法

次の手順でインストールしてください:

  1. pipを使用してインストールします:
pip install --upgrade pip
pip install iinfer
  1. コマンドラインオプションを補完するときは次のコマンドを実行します。(Ubuntuの場合のみ):
eval "$(register-python-argcomplete iinfer)"
  1. サーバーコンテナをインストールする場合は次のコマンドを実行します。(Ubuntuの場合のみ):
iinfer -m install -c server
docker-compose -f up -d

iinferの使用方法

iinferを使用するには、次のコマンドを実行します:

  1. サーバーの起動(Windowsの場合):
REM Redisサーバーコンテナの起動
iinfer -m redis -c docker_run -f \
                              --wsl_name <WSLのディストリビューションの名前> \
                              --wsl_user <WSLのLinux内のDockerが使えるユーザー>

REM 推論処理を実行するサーバープロセスの起動
iinfer -m server -c start -f
  1. サーバーの起動(Ubuntuの場合):
# Redisサーバーコンテナと推論処理を実行するサーバープロセスの起動
docker-compose up -d
  1. AIモデルのデプロイ:
# 画像AIモデルのデプロイ
# 推論タイプはモデルのAIタスクやアルゴリズムに合わせて指定する。指定可能なキーワードは"iinfer -m client -c predict_type_list"コマンド参照。
iinfer -m client -c deploy -n <任意のモデル名> -f \
                            --model_img_width <モデルのINPUTサイズ(横幅)> \
                            --model_img_height <モデルのINPUTサイズ(縦幅)> \
                            --model_file <モデルファイル> \
                            --model_conf_file <モデル設定ファイル> \
                            --predict_type <推論タイプ> \
                            --label_file <ラベルファイル>

# デプロイされている画像AIモデルの一覧
iinfer -m client -c deploy_list -f
  1. AIモデルのセッションを開始:
# 画像AIモデルを起動させて推論可能な状態に(セッションを確保)する
# use_trackを指定するとObjectDetectionタスクの結果に対して、MOT(Multi Object Tracking)を実行しトラッキングIDを出力する。
iinfer -m client -c start -n <モデル名> -f \
                          --use_track
  1. 推論を実行:
# 推論を実行する
# output_previewを指定するとimshowで推論結果画像を表示する(GUI必要)
iinfer -m client -c predict -n <モデル名> -f \
                            -i <推論させる画像ファイル> \
                            -o <推論結果の画像ファイル> \
                            --output_preview

# カメラキャプチャー画像を元に推論を実行し、クラススコアが0.8以上の物体のみを検出する
# --stdin --image_type capture で標準入力のキャプチャー画像を推論する
iinfer -m client -c capture | \
iinfer -m client -c predict -n <モデル名> \
                            --stdin \
                            --image_type capture \
                            --nodraw | \
iinfer -m postprocess -c det_filter -f -P \
                            --stdin \
                            --score_th 0.8
  1. AIモデルのセッションを開放:
# 画像AIモデルを停止させてセッションを開放
iinfer -m client -c stop -n <モデル名> -f
  1. サーバーの停止(Ubuntuの場合):
# Redisサーバーコンテナと推論処理を実行するサーバープロセスの停止
docker-compose down
  1. サーバーの停止(Windowsの場合):
REM 推論処理を実行するサーバープロセスの停止
iinfer -m server -c stop -f

REM Redisサーバーコンテナの停止
iinfer -m redis -c docker_stop -f \
                                --wsl_name <WSLのディストリビューションの名前> \
                                --wsl_user <WSLのLinux内のDockerが使えるユーザー>

Lisence

This project is licensed under the MIT License, see the LICENSE.txt file for details

Project details


Release history Release notifications | RSS feed

Download files

Download the file for your platform. If you're not sure which to choose, learn more about installing packages.

Source Distribution

iinfer-0.4.12.tar.gz (483.6 kB view details)

Uploaded Source

Built Distribution

iinfer-0.4.12-py3-none-any.whl (516.9 kB view details)

Uploaded Python 3

File details

Details for the file iinfer-0.4.12.tar.gz.

File metadata

  • Download URL: iinfer-0.4.12.tar.gz
  • Upload date:
  • Size: 483.6 kB
  • Tags: Source
  • Uploaded using Trusted Publishing? No
  • Uploaded via: twine/4.0.2 CPython/3.11.5

File hashes

Hashes for iinfer-0.4.12.tar.gz
Algorithm Hash digest
SHA256 642a84a150f42308fb1fb97a52f4b5d4f9c25cb9f142a652c0d34d2936abe661
MD5 186f560b1234b9dad8eb11c4fa059e9a
BLAKE2b-256 0ef8e7072a87da79f89e6193ca1b1a3f23ab3369620807069135166daa7c3b70

See more details on using hashes here.

File details

Details for the file iinfer-0.4.12-py3-none-any.whl.

File metadata

  • Download URL: iinfer-0.4.12-py3-none-any.whl
  • Upload date:
  • Size: 516.9 kB
  • Tags: Python 3
  • Uploaded using Trusted Publishing? No
  • Uploaded via: twine/4.0.2 CPython/3.11.5

File hashes

Hashes for iinfer-0.4.12-py3-none-any.whl
Algorithm Hash digest
SHA256 45f1682e083291dd679bad9d7ced61222e12890243959eef9692f485a71eb4d9
MD5 df504b19491251220d54bd72e8aacab2
BLAKE2b-256 da1c25ee278b6593f9618bcf9a869aa21f26dd2fa0417f693eb062db8aed192f

See more details on using hashes here.

Supported by

AWS AWS Cloud computing and Security Sponsor Datadog Datadog Monitoring Fastly Fastly CDN Google Google Download Analytics Microsoft Microsoft PSF Sponsor Pingdom Pingdom Monitoring Sentry Sentry Error logging StatusPage StatusPage Status page