コンテンツにスキップ
日本語

EBench Docs

アセットとデータセット

2 種類のデータ収集方法 — アクション特性が異なります。 本リリースのエピソードは 2 つの異なるパイプラインから収集されています。学習に使用するサブセットに注意してください:

  • ルールベース生成(GenManip)。 long_horizonsimple_pnpGenManip フレームワーク内のスクリプト化されたポリシーで生成されます。軌跡は滑らかで、サブスキル間に明確な動作境界があります。
  • テレオペレーション。 teleop_tasks は人間のテレオペレーターが器用な操作タスクで収集したものです。軌跡には人間特有のスタイルが残り、動作の途中で振動・ためらい・停止が発生することがあります。

両者を統合して学習する場合、ポリシーがテレオペのためらいを引き継ぐことがあります。動作の滑らかさが評価で重要なら、GenManip サブセットに重み付けを多くするか、テレオペのエピソードをフィルタリングしてください。

サブセットソース評価トラックエピソード数フレーム数(約)タスク
long_horizonルールベース(GenManip)mobile_manipgeneralist9 × 200 = 1,8003.6 M長期タスク 9 ファミリー
simple_pnpルールベース(GenManip)mobile_manipgeneralist10 × 200 = 2,0000.96 M単一ステップ pick-and-place 10 種
teleop_tasks人間によるテレオペtable_top_manipgeneralist7 × 400 = 2,8005.3 M器用な操作タスク 7 種

EBench には 3 つの評価トラックがあります。mobile_manip(移動ベースでの pick-and-place)と table_top_manip(卓上の器用な操作)が 2 つの特化型レジームを、generalist がその和集合をカバーします — 提出方法は評価の実行を参照してください。

すべてのサブセットは同じ収録設定を共有:15 fps、ロボットタイプ lift2(双腕 + 移動ベース)、4 つの 480×640 カメラ視点(topleftrightoverlook)。

各サブセットは独立した LeRobot v2.1 データセットで、それぞれ独自のタスクファミリー、メタ、チャンク化された parquet/動画ファイルを持ちます:

saved/dataset/
├── long_horizon/
│ ├── <task_family>/ # 例: bottle、dishwasher、make_sandwich…
│ │ ├── data/chunk-000/episode_*.parquet
│ │ ├── videos/chunk-000/<camera>/episode_*.mp4
│ │ └── meta/{info,episodes,episodes_stats,modality,stats,tasks}.json(l)
│ └── instruction_paraphrases_train_only.json
├── simple_pnp/
│ └── task1/ … task10/ # 同様の構造
└── teleop_tasks/
└── peg_in_hole/ install_gear/ … # 同様の構造
キー形状備考
state.jointsaction.jointsaction.joints_delta(12,)双腕の関節位置(6 + 6)
state.gripperaction.gripper(4,)左右グリッパー、各 2 本の指の状態
state.ee_poseaction.ee_poseaction.ee_pose_delta(14,)左右 EE 位置 (xyz) + クォータニオン (wxyz)
state.baseaction.baseaction.base_delta(3,)ベース x, y, theta
video.{top,left,right,overlook}_camera_view(3, 480, 640)AV1 エンコード MP4、15 fps

*_delta チャネルは同じ量を差分形式で表現しています — ポリシーの制御モードに合わせて選んでください。各タスクの meta/modality.json に LeRobot ローダー向けの正規 state/action/video キーが記載されています。

long_horizon — 長期タスク 9 ファミリー、各 200 エピソード: bottledetergentdishdishwasherfruitmake_sandwichmicrowavepenshop

simple_pnp — 単一ステップ pick-and-place 10 タスク(task1task10)、各 200 エピソード。例:フォークとスプーン → 食器ホルダー、しおり → 本、石鹸 → 石鹸皿、リンゴ → フルーツボウル、リモコン → ホルダー、香水 → 化粧棚、塩 → スパイスラック、棚からリンゴを取る、ティーカップとティーポット、ボウルを皿に積む。

teleop_tasks — 器用な操作タスク 7 種、各 400 エピソード: collect_coffee_beansflip_cup_collect_cookiesframe_against_pen_holderinstall_gearpeg_in_holeput_glass_in_glassboxtighten_nut

各エピソードには自然言語の指示が付与されており、データセットにはタスクごとに複数の言い換えが含まれています。標準的な指示は各サブセットの meta/tasks.jsonl にあり、long_horizon には学習用の追加表現を収めた instruction_paraphrases_train_only.json も付属しています。学習時に言い換えをサンプリングすることで、ポリシーは指示の表現に対してロバストになります。

Hugging Face から評価用アセットを saved/ ディレクトリにダウンロードします:

Terminal window
huggingface-cli download InternRobotics/EBench-Assets --local-dir saved --repo-type dataset

ダウンロード後、以下のようなディレクトリ構成になります:

GenManip/
├── saved/
│ ├── assets/
│ ├── tasks/
│ └── eval_results/ ← 評価時に作成されます
└── ...

トレーニングデータセット(LeRobot 形式)

Section titled “トレーニングデータセット(LeRobot 形式)”
Terminal window
huggingface-cli download InternRobotics/EBench-Dataset --local-dir saved/dataset --repo-type dataset

データセットは LeRobot 形式で、一般的な VLA トレーニングパイプラインとそのまま互換性があります。データセットの内容は上記のデータセット概要を参照してください。

次のステップ:最初の評価を実行する