すべてのプロダクト
Search
ドキュメントセンター

:GROMACS

最終更新日:Mar 17, 2020

概要

gromacs logo

GROMACS (GROningen MAchine for Chemical Simulations) は、数百万の粒子を持つ系にニュートンの運動方程式を適用する、分子動力学シミュレーションに使用される一般的なソフトウェアパッケージです。タンパク質、脂質、核酸など、多様で複雑な結合性相互作用を有する生体物質に主に使用されます。非結合性相互作用などの典型的なコンピューティングシミュレーションの効率が高いため、多くの研究者が非生物学的な (高分子化合物などの) 研究にも使用しています。

現代の分子動力学法で使用される一般的なアルゴリズムをすべてサポートしており、そのコードは世界中の開発者によってメンテナンスされています。詳細については公式ウェブサイトをご覧ください。

前提事項

GROMACS ソフトウェアパッケージをクラスターの作成前にインストールしていること。

SW-setup-GROMACS

注意

  • gromacs-gpu の例を実行するには、クラスター作成の際に、コンピューティングノードに GPU を搭載したインスタンスを選択する必要があります。そうしなければ、例 2 にある通りに gromacs-gpu を実行することはできません。

  • GROMACS の例を実行する前に、「ジョブの送信」に記述されている前提条件を満足する必要があります。

また、GROMACS ソフトウェアが依存する MPI ライブラリを選択する必要があります。

setup_mpi

実行例

例 1: 水中リゾチーム

この例では、水槽内の蛋白質 (リゾチーム) とイオンをシミュレートします。詳細は、公式チュートリアルをご覧ください。また、パッケージをダウンロードしてください。

実行手順

  • シリアル版$ ./serial_run.sh

  • パラレル版$ ./parallel_run.sh

例 2: 水分子運動

この例では、一定の温度で一定の空間内にある多数の水分子の運動をシミュレートします。GPU インスタンスが必要です。

実行手順

  1. 環境変数を設定し、module avail を実行して GROMACS ソフトウェアがインストールされているかどうかを確認します。

    1. $ export MODULEPATH=/opt/ehpcmodulefiles/ # The environmental variables needed by the module command
    2. $ module avail
    3. ------------------------------ /opt/ehpcmodulefiles -------------------------------------
    4. gromacs-gpu/2016.3 openmpi/1.10.7
  2. module load を実行して GROMACS と OpenMPI をロードします。

    1. $ module load openmpi
    2. $ module load gromacs-gpu
    3. $ which gmx_mpi
    4. /opt/gromacs-gpu/2016.3/bin/gmx_mpi
  3. 水分子運動の例をダウンロードします。

    現在のディレクトリが現在のユーザーの $HOME パスの下にあるとします。

    1. $ pwd
    2. /home/<current_user_name>
    3. $ wget http://public-ehs.oss-cn-hangzhou.aliyuncs.com/packages/water_GMX50_bare.tar.gz
    4. $ tar xzvf water_GMX50_bare.tar.gz
  4. PBS ジョブを送信して水分子運動の例を実行します。

    • 高性能コンピューティングノードの PBS ジョブスクリプト(> 32 CPU コア、デュアル GPU カード)

      1. $ cat > gromacs_single_node.pbs
      2. #!/bin/sh
      3. #PBS -l ncpus=32,mem=4gb
      4. #PBS -l walltime=00:20:00
      5. #PBS -o gromacs_gpu_pbs.log
      6. #PBS -j oe
      7. cd /home/water-cut1.0_GMX50_bare/1536
      8. /opt/gromacs-gpu/2016.3/bin/gmx_mpi grompp -f pme.mdp -c conf.gro -p topol.top -o topol_pme.tpr
      9. /opt/openmpi/1.10.7/bin/mpirun -np 4 /opt/gromacs-gpu/2016.3/bin/gmx_mpi mdrun -ntomp 8 -resethway -noconfout -nsteps 8000 -v -pin on -nb gpu -gpu_id 0011 -s topol_pme.tpr
    • 低性能ノードの PBS ジョブスクリプト

      1. $ cat > gromacs_single_node.pbs
      2. #!/bin/sh
      3. #PBS -l ncpus=4,mem=4gb
      4. #PBS -l walltime=00:20:00
      5. #PBS -o gromacs_gpu_pbs.log
      6. #PBS -j oe
      7. cd /home/water-cut1.0_GMX50_bare/1536
      8. /opt/gromacs-gpu/2016.3/bin/gmx_mpi grompp -f pme.mdp -c conf.gro -p topol.top -o topol_pme.tpr
      9. /opt/openmpi/1.10.7/bin/mpirun -np 1 /opt/gromacs-gpu/2016.3/bin/gmx_mpi mdrun -ntomp 4 -resethway -noconfout -nsteps 8000 -v -pin on -nb gpu -s topol_pme.tpr
  5. PBS ジョブスクリプトを使ってジョブを送信します。

  1. $ qsub gromacs_single_node.pbs
  2. 1.iZ2zedptfv8e8dc9c2zt0tZ
  3. $ qstat
  4. Req'd Req'd Elap
  5. Job ID Username Queue Jobname SessID NDS TSK Memory Time S Time
  6. --------------- -------- -------- ---------- ------ --- --- ------ ----- - -----
  7. 1.iZ2zedptfv8e8 mingying workq gromacs_si 20775 1 4 4gb 00:20 R 00:03