edit-icon download-icon

ジョブ送信

最終更新日: Oct 29, 2019

前提条件

E-HPC クラスターを使用してジョブを送信する前に、次のことを確認してください。

注:ジョブの送信にルートアカウントを使用しないことを推奨します。ジョブスクリプトの誤操作は、E-HPC クラスターのデータ破損につながる可能性があるためです。

ジョブの送信

規則

次のジョブファイルパスを使用するとします。

  1. $HOME/test.py # Job executable program
  2. $HOME/test.data # Job data

ジョブを実行するコマンドライン

  1. test.py -i test.data

ジョブスケジューリング

E-HPC は、2 種類の E-HPC ジョブスケジューラをサポートしています。

  • PBS pro
  • SLURM
  • SGE(Sun GridEngine)
PBS
  1. $ cat > test.pbs
  2. #!/bin/sh
  3. #PBS -l ncpus=4,mem=1gb
  4. #PBS -l walltime=00:10:00
  5. #PBS -o test_pbs.log
  6. #PBS -j oe
  7. cd $HOME
  8. test.py -i test.data
  9. $ qsub test.pbs

PBS ジョブスケジューリングスクリプト test.pbs:

  • 3 行目では、ジョブに必要なコンピューティングリソースを 4 CPU コアと 1 GB のメモリと見積もっています。
  • 4 行目では、ジョブの実行に必要な時間を 10 分と見積もっています。
  • 5 行目では、出力ファイルを stdout と指定しています。
  • 6 行目では、stderr と stdout の出力を、前の行で指定された出力ファイルにマージしています。
  • 7 行目と 8 行目では、特定のジョブの実行コマンドを入力しています。

PBS の組み合わせの例は、「GROMACS (例 2)」と「LAMMPS (PBS ジョブの送信)」をご参照ください。

詳細は、公式の PBS User Guide をご参照ください。

SLURM
  1. $ cat > test.slurm
  2. #!/bin/sh
  3. #SBATCH --job-name=slurm-quickstart
  4. #SBATCH --output=test_slurm.log
  5. #SBATCH --nodes=1
  6. #SBATCH --ntasks=1
  7. #SBATCH --cpus-per-task=1
  8. #SBATCH --time=00:10:00
  9. #SBATCH --mem-per-cpu=1024
  10. cd $HOME
  11. test.py test.data
  12. $ sbatch test.slurm

SLURM の組み合わせの例は、「Large-scale Atomic/Molecular Massively Parallel Simulator (LAMMPS」と「Weather Research and Forecasting model (WRF)」をご参照ください。

SGE
  1. qsub -V -b y -cwd hostname
  2. qsub -V jobscript.sh
  3. More detail info, please refer to qsub manual