edit-icon download-icon

LAMMPS

最終更新日: Oct 29, 2019

LAMMPS (Large-scale Atomic/Molecular Massively Parallel Simulator) は、古典分子動力学に関するソフトウェアです。LAMMPS は、ソリッドマテリアル (金属や半導体)、ソフトマテリアル (生体高分子やポリマー)、および粗視化モデルシステムやメゾスコピックモデルシステムに使用されます。

公式サイトを表示するには、こちらをクリックします。

3d Lennard-Jones 融解の例

前提条件

  • クラスターの作成時に LAMMPS ソフトウェアパッケージをインストールします。

setup_LAMMPS

  • ソフトウェアが依存する MPI ライブラリを選択します。

setup_mpi

手順

  1. モジュール avail を実行して、LAMMPS ソフトウェアがインストールされているかどうかを確認します。

    1. $ export MODULEPATH=/opt/ehpcmodulefiles/
    2. $ module avail
    3. ------------------------------ /opt/ehpcmodulefiles -------------------------------------
    4. lammps/31Mar17-mpich lammps/31Mar17-openmpi mpich/3.2.2 openmpi/1.10.7
  2. モジュール load を実行して、LAMMPS をロードします。

    1. $ module load lammps/31Mar17-mpich
    2. $ module load mpich
    3. $ which lmp
    4. /opt/lammps/31Mar17-mpich/lmp
  3. 後述するジョブ送信方法の詳細は、サンプルディレクトリにアクセスしてください。

  • コマンドラインを使用してジョブを送信
  1. $ srun --mpi=pmi2 -N 2 -n 4 lmp -in in.intel.lj
  2. LAMMPS (31 Mar 2017)
  3. Lattice spacing in x,y,z = 1.6796 1.6796 1.6796
  4. Created orthogonal box = (0 0 0) to (134.368 67.1838 67.1838)
  5. 2 by 1 by 2 MPI processor grid
  6. Created 512000 atoms
  7. ... ...
  • ジョブ形式でジョブを送信
  1. $ cat job.sh # Job content
  2. #!/usr/bin/env bash
  3. mpirun lmp -in ./in.intel.lj
  4. $ sbatch -N 2 -n 4 ./job.sh # Submit job
  5. Submitted batch job 235
  6. $ squeue # View job
  7. JOBID PARTITION NAME USER ST TIME NODES NODELIST(REASON)
  8. 235 comp job.sh user R 0:03 2 s[02-03]
  • リソースの割り当て後にジョブを送信
  1. $ salloc -N 2 mpirun -n 4 lmp -in in.intel.lj
  2. salloc: Granted job allocation 236
  3. salloc: Waiting for resource configuration
  4. salloc: Nodes s[02-03] are ready for job
  5. LAMMPS (31 Mar 2017)
  • PBS ジョブの送信 (GPU アクセラレーション)
  1. $ cat > lammps_single_node.pbs
  2. #!/bin/sh
  3. #PBS -l ncpus=28,mem=12gb
  4. #PBS -l walltime=00:10:00
  5. #PBS -o lammps_pbs.log
  6. #PBS -j oe
  7. cd /opt/lammps/31Mar17-openmpi/src cd / opt / lammps / 31Mar17-openmpi / src
  8. /opt/openmpi/bin/mpirun -np 28 /opt/lammps/31Mar17-openmpi/bin/lmp_mpi -sf gpu -pk gpu 2 -in ./in.intel.lj -v m 0.1
  9. $ qsub lammps_single_node.pbs