stat_visualization write_performance_rating_csv

Description

プロジェクトごとユーザごとにパフォーマンスを評価できる複数のCSVを出力します。

Examples

基本的な使い方

$ annofabcli statistics visualize --project_id prj1 prj2 --output_dir out_dir/
out_dir/
├── prj1
│   ├── タスクlist.csv
│   ├── メンバごとの生産性と品質.csv
│   └── ...
├── prj2
│   ├── タスクlist.csv
│   ├── メンバごとの生産性と品質.csv
│   └── ...
$ annofabcli stat_visualization write_performance_rating_csv --dir out_dir --output_dir out_dir2/

デフォルトの生産性と品質の指標は「アノテーション数」単位です。「入力データ数」単位の指標にする場合は、 --performance_unit input_data_count を指定してください。

出力結果

$ annofabcli stat_visualization write_performance_rating_csv --dir out_dir --output_dir out_dir2/
out_dir2/
├── annotation_productivity
│   ├── annotation_productivity.csv
│   ├── annotation_productivity_deviation.csv
│   ├── annotation_productivity_rank.csv
│   └── annotation_productivity_summary.csv
├── annotation_quality_inspection_comment
│   ├── annotation_quality_inspection_comment.csv
│   ├── annotation_quality_inspection_comment_deviation.csv
│   ├── annotation_quality_inspection_comment_rank.csv
│   └── annotation_quality_inspection_comment_summary.csv
├── annotation_quality_task_rejected_count
│   ├── annotation_quality_task_rejected_count.csv
│   ├── annotation_quality_task_rejected_count_deviation.csv
│   ├── annotation_quality_task_rejected_count_rank.csv
│   └── annotation_quality_task_rejected_count_summary.csv
└── inspection_acceptance_productivity
    ├── inspection_acceptance_productivity.csv
    ├── inspection_acceptance_productivity_deviation.csv
    ├── inspection_acceptance_productivity_rank.csv
    └── inspection_acceptance_productivity_summary.csv

{評価対象}_{評価方法}.csv という名前のCSVファイルが出力されます。

  • 評価対象
    • annotation_productivity: 教師付の生産性(単位あたり実績作業時間)

    • inspection_acceptance_productivity: 検査/受入の生産性(単位あたり実績作業時間)

    • annotation_quality_task_rejected_count: 教師付の品質(タスクあたり差し戻し回数)

    • annotation_quality_per_task: 教師付の品質(単位あたりの検査コメント数)

  • 評価方法
    • deviation: 偏差値。値が小さいほど、生産性/品質が高い。

    • rank: 四分位数から算出したランキング。A,B,C,Dの順に生産性/品質が低くなる。

Usage Details

プロジェクトごとユーザごとにパフォーマンスを評価できる複数のCSVを出力します。

usage: annofabcli stat_visualization write_performance_rating_csv
       [-h] [--yes] [--endpoint_url ENDPOINT_URL] [--logdir LOGDIR]
       [--disable_log] [--debug] --dir DIR [-u USER_ID [USER_ID ...]]
       [--performance_unit {annotation_count,input_data_count}]
       [--threshold_worktime THRESHOLD_WORKTIME]
       [--threshold_task_count THRESHOLD_TASK_COUNT]
       [--threshold_deviation_user_count THRESHOLD_DEVIATION_USER_COUNT]
       [--threshold_settings THRESHOLD_SETTINGS] -o OUTPUT_DIR

Named Arguments

--dir

プロジェクトディレクトリが存在するディレクトリを指定してください。

-u, --user_id

評価対象のユーザのuser_idを指定してください。 file:// を先頭に付けると、user_idの一覧が記載されたファイルを指定できます。

--performance_unit

Possible choices: annotation_count, input_data_count

評価指標の単位

Default: "annotation_count"

--threshold_worktime

作業時間の閾値。指定した時間以下の作業者は除外する。

--threshold_task_count

作業したタスク数の閾値。作業したタスク数が指定した数以下作業者は除外する。

--threshold_deviation_user_count

偏差値を出す際、プロジェクト内の作業者がしきい値以下であれば、偏差値を算出しない。

Default: 3

--threshold_settings

JSON形式で、ディレクトリ名ごとに閾値を指定してください。 (ex) {'dirname1': {'annotation': {'threshold_worktime': 20}}, 'dirname2': {'inspection_acceptance': {'threshold_task_count': 5}}}

-o, --output_dir

出力ディレクトリ

global optional arguments

--yes

処理中に現れる問い合わせに対して、常に yes と回答します。

--endpoint_url

Annofab WebAPIのエンドポイントを指定します。

Default: "https://annofab.com"

--logdir

ログファイルを保存するディレクトリを指定します。

Default: .log

--disable_log

ログを無効にします。

--debug

HTTPリクエストの内容やレスポンスのステータスコードなど、デバッグ用のログが出力されます。