• 追加された行はこの色です。
  • 削除された行はこの色です。
#author("2023-08-05T14:56:00+09:00","default:StatE","StatE")
* smith 計算機システムの使い方 [#r2be5e9c]

SMITHクラスタ計算機システムはインテルまたは互換CPUを用いた計算機システムです。

** ネットワーク構成 [#rd9d48f4]
#contents

~-- | 等はネットワークの接続を、[]でくくられた名前はコンピュータの名称をそれぞれ表す。
----------
*はじめに -クラスタシステムとは- [#s53955c3]

 + 工学部内 ODINS network
 |
 |           Backbone network( 工学部ネットワークから直接アクセスできない )
 |               |
 +- [smith] -----+                          133.1.116.161 ログイン&アプリケーションサーバー & ファイルサーバー
 +- [rafiki] ----+                          133.1.116.162 ログイン&アプリケーションサーバー & バックアップ
 +- [tiamat] ----+                          133.1.116.211 ログイン&アプリケーションサーバー
 |               |
 |               |  ■引退ノード■
 |               +-- [it??]-[it??]          計算サーバー グループ0 (itanium)
 |               +-- [opt00], [opt01]       コンパイルサーバー(opteron,opt01)
 |               +-- [opt02]-[opt11]        計算サーバー グループ1 (各ノード2CORE (2CPU)) mpich-opt (opt02-opt11 停止中)
 |               +-- [opt12]-[opt21]        計算サーバー グループ2 (各ノード4CORE (2CPU)) 並列環境=mpich-opt2
 |               +-- [opt22]-[opt36]        計算サーバー グループ3 (各ノード4CORE (2CPU)) 並列環境=mpich-opt3
 |               +-- [xeon00] ----+         サブログイン・計算サーバー (ノード8CORE (2CPU))         
 |               |                +--- [xeon01-07] 計算サーバー グループ6 (各ノード8CORE (2CPU))
 |               |
 |               |  ■現役ノード■
 |               +-- [xe00], [xe01]         計算サーバー グループ4  (各ノード 8CORE (2CPU)) 並列環境=x8  キュー=xe1.q
 |               +-- [xe02]-[xe06]          計算サーバー グループ5  (各ノード12CORE (2CP)U) 並列環境=x12 キュー=xe1.q
 |               +-- [xe02]-[xe06]          計算サーバー グループ5  (各ノード12CORE (2CPU)) 並列環境=x12 キュー=xe1.q
 |               |
 |               +-- [xs01]-[xs18]          計算サーバー グループ8  (各ノード16CORE (2CPU)) 並列環境=x16 キュー=xs2.q
 |               |
 |               +-- [xi01]-[xi12]          計算サーバー グループ9  (各ノード16CORE (2CPU)) 並列環境=x16 キュー=xi1.q
 |               |
 |               +-- [xh01]-[xh17],[xh19]-[xh34]
 |               |                          計算サーバー グループ10 (各ノード16CORE (2CPU)) 並列環境=x24 キュー=xe1.q
 |               +-- [xh18],[xh35]-[xh43]   計算サーバー グループ11 (各ノード24CORE (2CPU)) 並列環境=x24 キュー=xh2.q
 |               +-- [yh01]-[yh03]          計算サーバー グループ12 (各ノード24CORE (2CPU)) 並列環境=x24 キュー=yh1.q 濱本先生専用
 |               +-- [xb01]-[xb14]          計算サーバー グループ13 (各ノード32CORE (2CPU)) 並列環境=x32 キュー=xb1.q
 |               +-- [x1701]-[x1706]        計算サーバー グループ14 (各ノード32CORE (2CPU)) 並列環境=x32 キュー=x17.q
 |               |
 |               |
 +- [sb100] -----+                          133.1.116.165 別グループ計算サーバー
                 |
                 +-- [sb101]-[sb120]        計算サーバー グループ7 (各ノード6CORE (1CPU)) 並列環境=

***クラスタシステム [#v5e8a6d1]

複数の計算機を束ねて多量の計算要求を効率よく実行できるように構成されたシステムのことです。
***アクセス[#eb70bdb9]

システムへはログインサーバーという名前の計算機にアクセスして用います。 
--ログインサーバーへのログインの方法
--ログインサーバーでできること

***その他の計算機の利用方法 [#la838f93]

直接ログインせず、「ジョブ投入」という形式で利用します。 
--能力別にグループ化された計算サーバーのグループ構成
--「ジョブスクリプトファイル」の書き方
--「ジョブ」の投入方法、確認方法、削除(強制終了)方法
--異常状態の確認と対処

**ログインサーバー [#fcf457f2]
-[smith]   133.1.116.161
-[rafiki]  133.1.116.162
-[tiamat]  133.1.116.211 
の3台がログインサーバーです。smithにファイルサーバーの機能が設定されており、どのログインサーバにログインしても同じホームディレクトリになります。ファイルサーバーは毎日深夜にバックアップサーバーの/backup_homeにバックアップされています。間違って消去したファイルでも、そこに保存されていればコピーして再生できます。
***smithシステム [#o4395994]
-下の3台がログインサーバーです。
-基本的にはsmithを使ってください。
-smithにファイルサーバーの機能(ファイルが収められているディスクがある)が設定されています。
-どのログインサーバにログインしても同じホームディレクトリになります。(「ネットワークファイルシステム」機能)
-ファイルは「RAIDシステム」により複数のディスクで構成されて保護されているので、ディスクが故障してもファイルが失われることはありません。
-ファイルサーバーは毎日深夜にバックアップサーバーの/backup_homeにバックアップされています。間違って消去したファイルでも、そこに保存されていればコピーして再生できます。
--[smith]   133.1.116.161
--[rafiki]  133.1.116.162
--[tiamat]  133.1.116.211 

***sbシステム [#he346379]
-[sb100]   133.1.116.165
はsb100システムのログインサーバーです。

 
**ジョブキューイングシステムとは? [#s67f500a]
**ログイン方法 [#t04420e5]
以下では"$"はコマンドプロントを表すと見てください。
-smithにログインする場合 (X11 のフォワーディングを許可する)
 $ ssh -Y [userID]@133.1.116.161
を実行する。

-sb100にログインする場合
 $ ssh -Y  [userID]@133.1.116.165
を実行する。

***初めてログインする際には [#ibc34caa]
 $ passwd
を実行してパスワードを変更すること。

**公開鍵の登録方法 [#o22a4270]
鍵システムを利用してsshで通信する場合に用います。データを暗号化して通信するので、通信経路でデータが覗き見られない安全な通信手段です。
-ssh-keygenで秘密鍵(ファイルは通常 ~/.ssh/id_rsa )、と公開鍵(ファイルは通常 ~/.ssh/id_rsa.pub )を作成する。
--ローカルホストで以下を実行
 ssh-keygen
デフォルトでは秘密鍵と公開鍵がそれぞれ .ssh/id_rsaと .ssh/id_rsa.pubの名前で保存される。

-公開鍵をアクセス先のサーバーに追加登録する。(ファイルは通常 ~/.ssh/authorized_keys 公開鍵の前にアクセス元のIPアドレスを追加する必要がある。)
--公開鍵を表示する。
 cat id_rsa.pub
この内容の先頭にアクセス元(クライアント、smithなど)のIPアドレスを追加して、アクセス先の(リモートホスト、東大物性研のohtakaなど)の .ssh/authorized_keysに追加する。(スパコンセンターではwebページを通じて公開鍵を登録することが多い)

** 工学研究科の外部からログインする場合 [#o0a7c646]
工学研究科の外部からログインするには先ず工学研究科のゲートウェイサーバにログインし、さらにsmith/sb100にログインする必要があります。従ってゲートウェイにユーザーアカウントを持っている必要があります。持っていない方は管理者に問い合わせて下さい。ゲートウェイにユーザーアカウントを作成する場合、公開鍵の登録が必要となりますので準備しておいて下さい。
以下はポートフォワーディングしてsmithにログインする手順です。
- 先ず以下を実行します
 ssh -L localhost:10022:133.1.116.161:22 -i ~/.ssh/[id_rsa] [user_name]@ssh-gw.eng.osaka-u.ac.jp -N
ここで[id_rsa]は秘密鍵のファイル名、[user_name]はゲートウェイ上でのユーザーアカウント名です。
- 次に別ウィンドウを開き、以下を実行します。
 ssh localhost -p 10022
ここで10022はポート番号で、最初の手順で指定したポート番号と一致する必要があります。scpを使用する際はサーバ名をlocalhost、ポート番号を10022としておけば良いでしょう。

**コンパイル/実行環境の設定 [#nb54180b]
-Fortranコンパイラ、cコンパイラはLinux標準のgfortran、gccの他、インテル社製のifort、iccを用いることができます。
intelコンパイラは多数のバージョンがあり、moduleを使用して意図的に制御します。
-使用可能なモジュールのリスト出力
 $ module available
--モジュールの読み込み (smithの場合)
 $ module load intel/2020.2.254
 $ module load intelmpi/2020.2.254
 $ module load python/3.8
など
--- ~~/.bashrcへの記録(smithの場合)
 module load intel/2020.2.254
 module load intelmpi/2020.2.254
 module load python/3.8
--モジュールの読み込み (sb100の場合)
 $ module load intel/2021.2.0
 $ module load intelmpi/2021.2.0
など
--- ~~/.bashrcへの記録(sb100の場合)
 module load intel/2021.2.0
 module load intelmpi/2021.2.0
-古くからのユーザ向け

古いintelコンパイラ用の設定は以下のように
 # source /home/opt/settings/2017.4/intel-compiler.sh
 # source /home/opt/settings/2017.4/intel-mpi.sh
などとしてコメントアウト、あるいは削除する。

**ジョブキューイングシステム [#s67f500a]
-システムで計算を実行するには、計算したい内容をジョブスクリプトファイルに書いてジョブキューイングシステムに投入する必要があります。
-ジョブ管理システムはSGE(Sun Grid Engine)です。(OGS/GE 2011.11)
-ジョブは、指定したグループの空いている計算機に自動的に割り当てられて実行されます。
-空きが足りない場合は、他のグループに空きがあっても実行されず、他のジョブの終了を待つことになります。
-同じ能力を持つ計算ノードはクラスごとにまとめられています。ジョブ投入時にクラスを指定します。

*設定上の重要な点 [#hb98c6a2]
***設定上の重要な点 [#hb98c6a2]
-.cshrcの中にcdのaliasが記載されている場合がありますが、削除しないとインテルFortran/MPIの初期設定でエラーが生じ正常に実行できません。削除してください。


**複数ノードを用いた並列計算について [#r3b5cd32]
-用いるノード(コア)の数を増やすと自動的に並列度が上がりますが、グループ8,13以外のシステムの通信はギガビットイーサネットで実装されていますので、あまり速くありません。ノード間通信を含む並列計算はあまり有効ではありませんのでご注意ください。グループ8,13ではINFINIBANDが実装されています。並列計算の効率が向上することが期待されます。
-用いるノード(コア)の数を増やすと自動的に並列度が上がりますが、ギガビットイーサネットで実装されているグループではあまり速くありません。ノード間通信を含む並列計算はあまり有効ではありませんのでご注意ください。INFINIBANDが実装されているグループでは並列計算の効率が向上することが期待されます。

**ジョブの投入(実行)方法 [#k32ce356]

-実行にはキューと並列環境(parallel_environment)を指定する必要があります。ジョブスクリプトrun.cshをグループ10に投入する場合、下記のようになります。

    qsub -q xh1.q  -pe x24 24 run.csh

-計算機グループと対応するキュー及び並列環境
ジョブの状態を見るには

               プロセッサの種類     ノード内   ジョブ投入            キュー  並列環境   ノード間
                            コア数/CPU数 サーバー                             並列ファブリック
 ・グループ4 xeon                 8/2       smith/rafiki/tiamat     xe1.q     x8
 ・グループ5 xeon                12/2       smith/rafiki/tiamat     xe2.q     x12
 ・グループ7 core i7 sandy-bridge  6/1       sb100                   all.q     x6
 ・グループ8 xeon sandy-bridge   16/2       smith/rafiki/tiamat     xs1.q     x16
 ・グループ9 xeon ivy-bridge     16/2       smith/rafiki/tiamat     xi1.q     x16
 ・グループ10 xeon Haswell        24/2       smith/rafiki/tiamat     xh1.q     x24       infini-band
 ・グループ11 xeon Haswell        24/2       smith/rafiki/tiamat     xh2.q     x24       infini-band
 ・グループ12 xeon Haswell        24/2       smith/rafiki/tiamat     yh1.q     x24
 ・グループ13 xeon Broadwell      32/2       smith/rafiki/tiamat     xb1.q     x32       infini-band
 ・グループ14 xeon Skylake         32/2       smith/rafiki/tiamat     x17.q     x32       infini-band
    qstat

を実行します。特定のユーザのジョブの状態を見るには

-グループ8,9での注意
http://www-cp.prec.eng.osaka-u.ac.jp/puki_state/index.php?%E8%A8%88%E7%AE%97%E3%82%B3%E3%83%BC%E3%83%89%E3%81%AE%E4%BD%BF%E3%81%84%E6%96%B9%2FSTATE%2Fcenters#taa126c5
    qstat -u [user name]

-グループ8のsb??? にジョブを投入するときは、sb100でqsubコマンドを実行してください。
-それ以外のグループ にジョブを投入するときは、smithでqsubコマンドを実行してください。
ジョブをキャンセルするには

   qdel [job ID]

を実行します。Job IDはqstatで表示される1コラム目の数字です。


***計算機グループと対応するキュー及び並列環境 [#u8381019]
-smith/rafikiからアクセス可能なノード群
|グループ|プロセッサ|コア数/CPU数|ジョブ投入サーバ|キュー|並列環境|ノード間並列ファブリック|
|4|Nehalem Intel(R) Xeon(R) W5590 @ 3.33GHz|8/2|smith|xe1.q|x8 ||
|5|Nehalem Intel(R) Xeon(R) W5670 @ 2.93GHz|12/5|smith|xe2.q|x12 ||
|6|Sandy-bridge Intel(R) Xeon(R) E5-2680 0 @ 2.70GHz|16/2|smith|xs2.q|x16||
|7|Ivy-bridge Intel(R) Xeon(R) E5-2667 v2 @ 3.30GHz|16/2|smith|xi1.q|x16||
|10a|Haswell Intel(R) Xeon(R) E5-2680 v3 @ 2.50GHz|24/2|smith|xh1.q|x24|infini-band|
|10b|Haswell Intel(R) Xeon(R) E5-2680 v3 @ 2.50GHz|24/2|smith|xh2.q|x24|infini-band|
|13|Broadwell  Intel(R) Xeon(R) E5-2683 v4 @ 2.10GHz|32/2|smith|xb1.q|x32|infini-band|
|14|Skylake Intel(R) Xeon(R) Gold 6130 CPU @ 2.10GHz|32/2|smith|x17.q|x32|infini-band|
|15|Cascade Lake Intel(R) Xeon(R) Gold 6230 CPU @ 2.10GHz|40/2|smith|x19.q|x40|infini-band|
|16|Cascade Lake Intel(R) Xeon(R) Gold 6230R CPU @ 2.10GHz|52/2|smith|x20.q|x52|infini-band|
|17|Ice Lake xeon  Gold 6338 CPU @ 2.00GHz|64/2|smith|x21.q|x64|infini-band|

-sb100からアクセス可能なノード群
|グループ|プロセッサ|コア数/CPU数|ジョブ投入サーバ|キュー|並列環境|ノード間並列ファブリック|
|7a|Nehalem  Intel(R) Xeon(R) X3440  @ 2.53GHz|6/1|sb100|all.q|x6| |
|7b|Sandy-bridge Intel(R) Xeon(R) E5-1650 |6/1|rl|all.q|x6| |

-[[グループ8,9での注意点>http://www-cp.prec.eng.osaka-u.ac.jp/puki_state/index.php?%E8%A8%88%E7%AE%97%E3%82%B3%E3%83%BC%E3%83%89%E3%81%AE%E4%BD%BF%E3%81%84%E6%96%B9%2FSTATE%2Fcenters#taa126c5]]

-グループ7a, 7bにジョブを投入するときはsb100でqsubコマンドを実行してください。
-それ以外のグループにジョブを投入するときはsmithでqsubコマンドを実行してください。

-ジョブスクリプトの書き方については、下の各グループごとの説明中に「ジョブスクリプトファイルの例」で説明しています。


**各グループ [#n18333d7]

***グループ4,5 xeシステム [#mb55749d]
***グループ4, 5 xeシステム [#mb55749d]
-xeon CPUで構成される計算機グループで、x8, x12 の2 parallel_environmentからなります。各ノードは2CPU(計8または12core)で構成されています。

-ジョブスクリプトファイルの例
  #!/bin/csh
-ジョブスクリプトファイルの例 (bashの場合)
 #$ -S /bin/bash
 #$ -cwd
 #$ -q xe2.q
 #$ -pe x12 12
 #$ -N CO
 #$ -o CO_out
 #$ -e CO_err
 
 module load intel/2020.2.254
 module load intelmpi/2020.2.254
 
 export OMP_NUM_THREADS=1
 
 SRCDIR=${HOME}/STATE/src/state-5.6.6/src
 PPDIR=${HOME}/STATE/gncpp
 MPI_COMMAND="mpirun -np ${NSLOTS}"
 
 ln -fs ${SRCDIR}/STATE ./STATE
 
 ln -fs ${PPDIR}/C_pbe1/#vnew.data fort.37
 ln -fs ${PPDIR}/O_pbe1/#vnew.data fort.38
 
 INPUT_FILE=nfinp_dav
 OUTPUT_FILE=nfout_dav
 
 ${MPI_COMMAND} ${STATE}  < ${INPUT_FILE} > ${OUTPUT_FILE}

-ジョブスクリプトファイルの例 (cshの場合)
  #$ -S /bin/csh
  #$ -cwd
  #$ -q xe2.q
  #$ -pe x12 12
  #$ -N JOB_NAME                                     ← ジョブの名称を設定できる
  mpirun  -np $NSLOTS ./STATE_A < nfinp > nfout
  mpirun ./STATE < nfinp_dav > nfout_dav
--  -cwd はジョブを投入した時のディレクトリがジョブ開始時のディレクトリになることを指示するオプションです。
--  上のx12(またはx8)はx12(またはx8)にジョブ投入することを示し、後ろの12が計算に用いるCOREの数を示すオプションです。x12は12、x8は8でないと実行されないようになっていますので注意してください。
-- -q はキュー(グループ)の名前でxe1.qあるいはxe2.qを指定します。
--  上のx12(またはx8)はx12(またはx8)にジョブ投入することを示し、後ろの12が計算に用いるCOREの数を示すオプションです。xe1.qではx8が、xe2.qではx12の使用が可能です。またx12は12、x8は8でないと実行されないようになっていますので注意してください。
--  -Nオプションでジョブの名前を指定できます。(先頭文字は英字です。)
-- STATE_AにはSTATEの実行ファイルをジョブ投入前にリンクしておいてください。
-- STATEの実行ファイルをジョブ投入前にシンボリックリンクしておいてください。
-- また、fort.37等、擬ポテンシャルのファイルも同様にリンクしておいてください。

-コンパイル
--  コンパイルはxe00にログインしてifortコマンドまたはmpi並列の場合はmpif90コマンドにより行います。
--  STATEユーザーはxe用のMakefileを使用してコンパイルできます。
-  xe??にログインするには?
-- rsh xe00 等でOKです。
-ライブラリ
--  MKL が利用できます。

ifort xe2011(version12) のインストール記[[LinuxTips#hec6b033]]も参照。


***グループ7 sb100システム [#r74a0395]
***グループ7a sb100システム [#r74a0395]
- Sanday-bridge アーキテクチャーのCore i7 CPUで構成される計算機グループです。各ノードは1CPU(6core)で構成されています。メモリは16GBです。
- AVX機能があり高速に計算できますが、組み込んだ新しいコンパイラの制限?(バグ?)のためコンパイルが正常に終了しません。特定のファイルだけ最適化レベルを落としてコンパイルする必要があります。エラーが出たら、CPPSRCフォルダに移動して、make.sysに書かれているオプションを設定し、最適化レベルだけ-O0にして手動でコンパイルしてください。分からなければ、他の人のSTATEバイナリをコピーして使ってください。
- smithのデータを直接見れます。/home2にsmithの/homeをNFSリンクしていますのでアクセス可能です。
- スクリプトの例(cshのみしか使えません)
- smithのデータを直接見ることができます。/homesmithにsmithの/homeをNFSリンクしていますのでアクセス可能です。
- スクリプトの例 (bashの場合)
 #$ -S /bin/bash
 #$ -cwd
 #$ -q sb.q
 #$ -pe x6 6
 #$ -N CO
 #$ -o CO_out
 #$ -e CO_err
 
 module load intel/2021.2.0
 module load intelmpi/2021.2.0
 
 export OMP_NUM_THREADS=1
 export I_MPI_PIN=1
 export I_MPI_FABRICS=shm:ofi
 unset  I_MPI_TCP_NETMASK
 
 ROOTDIR=${HOME}/STATE
 SRCDIR=${ROOTDIR}/src/state-5.6.9/src
 PPDIR=${ROOTDIR}/gncpp
 MPI_COMMAND="mpirun"
 STATE_EXEC=STATE
 STATE=./STATE
 
 ln -fs ${SRCDIR}/${STATE_EXEC} ${STATE}
 
 ln -fs ${PPDIR}/C_pbe1/#vnew.data fort.37
 ln -fs ${PPDIR}/O_pbe1/#vnew.data fort.38
  
 INPUT_FILE=nfinp_dav
 OUTPUT_FILE=nfout_dav
 
 ${MPI_COMMAND} ${STATE} < $INPUT_FILE > $OUTPUT_FILE

- スクリプトの例 (cshの場合)
-- ハイブリッド並列(12コア確保、各ノードにプロセス確保、プロセスごと6-OMPスレッド)
 #!/bin/csh -f
 $$ -q sb.q
 #$ -pe x6 12
 #$ -cwd
 #$ -N JOB_NAME                                     ← ジョブの名称を設定できる
 setenv OMP_NUM_THREADS 6
 ln -fs ~/STATE/src/STATE_5.4.1/wrksrc6i5_/STATE .
 mpirun  -perhost 1 -np $NHOSTS ./STATE < nfinp > nfout
-- フラット並列(12コア)
 #!/bin/csh -f
 #$ -q sb.q
 #$ -pe x6 12
 #$ -cwd
 #$ -N JOBNAME
 ln -fs ~/STATE/src/STATE_5.4.1/STATE .
 mpirun -np $NSLOTS ./STATE < nfinp > nfout

***グループ8 xsシステム [#r2affc72]
***グループ8 xsシステム [#r2affc72]
- Sanday-bridge アーキテクチャーのXeon CPUで構成される計算機グループです。各ノードは2CPU(計16core)で構成されています。メモリは32GBです。
- AVX機能があり高速に計算できます。
- スクリプトの例(cshのみしか使えません)
- スクリプトの例 (bash)
 #$ -S /bin/bash
 #$ -cwd
 #$ -q xs2.q
 #$ -pe x16 16
 #$ -N JOB_NAME
 
 module load intel/2020.2.254
 module load intelmpi/2020.2.254 
 # Above settings should be consistent with those used in the compilation
 
 MPI_COMMAND=mpirun
 
 export I_MPI_PIN=1
 export I_MPI_ADJUST_ALLGATHERV=2
 export OMP_NUM_THREADS=1
 
 cat $PE_HOSTFILE | awk '{ print $1":"$2/ENVIRON["OMP_NUM_THREADS"] }' > hostfile.$JOB_ID
 $MPI_COMMAND ./a.out < input.dat > output.dat
- スクリプトの例(cshの場合)
-- ハイブリッド並列(32コア確保、各ノードにプロセス確保、プロセスごと4-OMPスレッド)
 #!/bin/csh -f
 #$ -cwd
 #$ -q xs2.q
 #$ -pe x16 32
 #$ -N JOB_NAME                                     ← ジョブの名称を設定できる
 #$ -j y
 source /opt/settings/2017.1/intel-compiler.csh
 source /opt/settings/2017.1/intel-mpi.csh
 
 module load intel/2020.2.254
 module load intelmpi/2020.2.254
  
 setenv I_MPI_PIN     4 
 #setenv I_MPI_FABRICS shm:dapl 
 #setenv I_MPI_FABRICS shm:ofa
 setenv I_MPI_FABRICS shm:tcp
 #setenv I_MPI_DEBUG 7
 setenv OMP_NUM_THREADS         1
 
 ln -fs ~/STATE/src/develop/STATE5.6.0/STATE STATE
 ln -fs ~/STATE/gncpp/pot.O_pbe1  fort.37
 ln -fs ~/STATE/gncpp/pot.H_lda1  fort.38
 setenv OMP_NUM_THREADS         1
 
 cat $PE_HOSTFILE | awk '{ print $1":"$2/ENVIRON["OMP_NUM_THREADS"] }' > hostfile.$JOB_ID
 
 mpirun  ./STATE < nfinp_1 > nfout_1

-- フラット並列(32コア)
 #!/bin/csh -f
 #$ -cwd
 #$ -q xs2.q
 #$ -pe x16 32
 #$ -N JOB_NAME                                     ← ジョブの名称を設定できる
 #$ -j y
 source /opt/settings/2017.1/intel-compiler.csh
 source /opt/settings/2017.1/intel-mpi.csh
 module load intel/2020.2.254
 module load intelmpi/2020.2.254
 setenv I_MPI_PIN     1                          
 #setenv I_MPI_FABRICS shm:dapl 
 #setenv I_MPI_FABRICS shm:ofa
 setenv I_MPI_FABRICS shm:tcp
 #setenv I_MPI_DEBUG 7
 ln -fs ~/STATE/src/develop/STATE5.6.0/STATE STATE
 ln -fs ~/STATE/gncpp/pot.O_pbe1  fort.37
 ln -fs ~/STATE/gncpp/pot.H_lda1  fort.38
 setenv OMP_NUM_THREADS         1                  ←ココが違うだけ
 cat $PE_HOSTFILE | awk '{ print $1":"$2/ENVIRON["OMP_NUM_THREADS"] }' > hostfile.$JOB_ID
 mpirun  ./STATE < nfinp_1 > nfout_1

***グループ9 xiシステム [#c01adc3f]

***グループ9 xiシステム [#c01adc3f]
- 大容量なメモリ・localディスク搭載機です。gaussian計算はここで実行するのがよい。
- Ivy-bridge アーキテクチャーのXeon CPUで構成される計算機グループです。各ノードは2CPU(計16core)で構成されています。メモリは128GBです。
- AVX機能があり高速に計算できます。
- スクリプトの例(cshのみ)
- スクリプトの例(bash)
 #$ -S /bin/bash
 #$ -cwd
 #$ -q xi1.q
 #$ -pe x16 16
 #$ -N JOB_NAME
 module load intel/2020.2.254
 module load intelmpi/2020.2.254
 # Above settings should be consistent with those used in the compilation
 MPI_COMMAND=mpirun
 export I_MPI_PIN=1
 export I_MPI_ADJUST_ALLGATHERV=2
 export OMP_NUM_THREADS=1
 cat $PE_HOSTFILE | awk '{ print $1":"$2/ENVIRON["OMP_NUM_THREADS"] }' > 
 hostfile.$JOB_ID
 $MPI_COMMAND ./STATE < nfinp_1 > nfout_1

- スクリプトの例(cshの場合)
-- フラット並列(32コア)
 !/bin/csh -f
 #$ -cwd
 #$ -q xi1.q
 #$ -pe x16 32
 #$ -N JOB_NAME                                     ← ジョブの名称を設定できる
 #$ -j y
 source /opt/settings/2017.1/intel-compiler.csh
 source /opt/settings/2017.1/intel-mpi.csh
 module load intel/2020.2.254
 module load intelmpi/2020.2.254
 setenv I_MPI_PIN     1                          
 #setenv I_MPI_FABRICS shm:dapl 
 #setenv I_MPI_FABRICS shm:ofa
 setenv I_MPI_FABRICS shm:tcp
 #setenv I_MPI_DEBUG 7
 ln -fs ~/STATE/src/develop/STATE5.6.0/STATE STATE
 ln -fs ~/STATE/gncpp/pot.O_pbe1  fort.37
 ln -fs ~/STATE/gncpp/pot.H_lda1  fort.38
 setenv OMP_NUM_THREADS         1                  ← hybrid計算の場合はここの数値を変える
 cat $PE_HOSTFILE | awk '{ print $1":"$2/ENVIRON["OMP_NUM_THREADS"] }' > hostfile.$JOB_ID
 mpirun  ./STATE < nfinp_1 > nfout_1



***グループ10、11、12 xhシステム [#nbaf823d]
***グループ10a-d xhシステム [#nbaf823d]
- Haswell アーキテクチャーのXeon CPUで構成される計算機グループです。各ノードは2CPU(計24core)で構成されています。メモリは64GBです。
- グループ10内ではINFINIBANDによる並列計算が可能
- グループ11内ではINFINIBANDによる並列計算が可能
- AVX機能があり高速に計算できます。
- スクリプトの例(cshのみ)
- スクリプトの例(bashの場合)
-- フラット並列(48コア)
 !/bin/bash -f
 #$ -cwd
 #$ -q xh1.q
 #$ -pe x24 48
 #$ -N JOB_NAME                                     ← ジョブの名称を設定できる
 #$ -j y
 
 module load intel/2020.2.254
 module load intelmpi/2020.2.254
 
 export I_MPI_PIN=1           
 export I_MPI_FABRICS=shm:tcp                       ← xh1 の場合 shm:dapl or shm:ofa でinfinibandが使えます
 #export I_MPI_DEBUG=7
 setenv OMP_NUM_THREADS         1                  ← hybrid計算の場合はここの数値を変える
 
 ln -fs ~/STATE/src/develop/STATE5.6.0/STATE STATE
 ln -fs ~/STATE/gncpp/pot.O_pbe1  fort.37
 ln -fs ~/STATE/gncpp/pot.H_lda1  fort.38
  
 cat $PE_HOSTFILE | awk '{ print $1":"$2/ENVIRON["OMP_NUM_THREADS"] }' > hostfile.$JOB_ID
 mpirun  ./STATE < nfinp_1 > nfout_1

- スクリプトの例(cshの場合)
-- フラット並列(48コア)
 !/bin/csh -f
 #$ -cwd
 #$ -q xh1.q
 #$ -pe x24 48
 #$ -N JOB_NAME                                     ← ジョブの名称を設定できる
 #$ -j y
 source /opt/settings/2017.1/intel-compiler.csh
 source /opt/settings/2017.1/intel-mpi.csh
 module load intel/2020.2.254
 module load intelmpi/2020.2.254
 setenv I_MPI_PIN     1           
 setenv I_MPI_FABRICS shm:tcp                       ← xh1 の場合 shm:dapl or shm:ofa でinfinibandが使えます
 #setenv I_MPI_DEBUG 7
 ln -fs ~/STATE/src/develop/STATE5.6.0/STATE STATE
 ln -fs ~/STATE/gncpp/pot.O_pbe1  fort.37
 ln -fs ~/STATE/gncpp/pot.H_lda1  fort.38
 setenv OMP_NUM_THREADS         1                  ← hybrid計算の場合はここの数値を変える
 cat $PE_HOSTFILE | awk '{ print $1":"$2/ENVIRON["OMP_NUM_THREADS"] }' > hostfile.$JOB_ID
 mpirun  ./STATE < nfinp_1 > nfout_1


***グループ13 xbシステム [#ufe4b9fc]
- Broadwell アーキテクチャーのXeon CPU(Intel(R) Xeon(R) CPU E5-2683 v4 @ 2.10GHz)で構成される計算機グループです。各ノードは2CPU(計32core)で構成されています。メモリは64GBです。
- スクリプトの例(cshのみ)
- スクリプトの例(bashの場合)
-- フラット並列(64コア)
 #$ -S /bin/bash
 #$ -cwd
 #$ -q xb1.q
 #$ -pe x32 64
 #$ -N JOB_NAME                                     ← ジョブの名称を設定できる
 #$ -j y
 
 module load intel/2020.2.254
 module load intelmpi/2020.2.254
 
 export I_MPI_PIN=1                             
 export I_MPI_FABRICS=shm:dapl                      ← shm:ofa 
 #export I_MPI_DEBUG=7
 setenv OMP_NUM_THREADS         1                   ← hybrid計算の場合はここの数値を変える
 
 ln -fs ~/STATE/src/develop/STATE5.6.0/STATE STATE    ← STATEの適切なバージョンを使用
 ln -fs ~/STATE/gncpp/pot.O_pbe1  fort.37
 ln -fs ~/STATE/gncpp/pot.H_lda1  fort.38
 
 cat $PE_HOSTFILE | awk '{ print $1":"$2/ENVIRON["OMP_NUM_THREADS"] }' > hostfile.$JOB_ID
 mpirun  ./STATE < nfinp_1 > nfout_1

- スクリプトの例(cshの場合)
-- フラット並列(64コア)
 !/bin/csh -f
 #$ -cwd
 #$ -q xb1.q
 #$ -pe x32 64
 #$ -N JOB_NAME                                     ← ジョブの名称を設定できる
 #$ -j y
 source /opt/settings/2016.4/intel-compiler.csh
 source /opt/settings/2016.4/intel-mpi.csh
 module load intel/2020.2.254
 module load intelmpi/2020.2.254
 setenv I_MPI_PIN     1                             
 setenv I_MPI_FABRICS shm:dapl                      ← shm:ofa 
 #setenv I_MPI_DEBUG 7
 ln -fs ~/STATE/src/develop/STATE5.6.0/STATE STATE    ← STATEの適切なバージョンを使用
 ln -fs ~/STATE/gncpp/pot.O_pbe1  fort.37
 ln -fs ~/STATE/gncpp/pot.H_lda1  fort.38
 setenv OMP_NUM_THREADS         1                   ← hybrid計算の場合はここの数値を変える
 cat $PE_HOSTFILE | awk '{ print $1":"$2/ENVIRON["OMP_NUM_THREADS"] }' > hostfile.$JOB_ID
 mpirun  ./STATE < nfinp_1 > nfout_1


***グループ14 x17システム [#n4dd9494]
***グループ14 x17システム [#f319cab5]
- SkylakeアーキテクチャーのXeon CPU(Intel(R) Xeon(R) Gold 6130 CPU @ 2.10GHz)で構成される計算機グループです。各ノードは2CPU(計32core)で構成されています。メモリは96GBです。
- スクリプトの例(cshのみ)
- スクリプトの例(bashの場合)
 #$ -S /bin/bash
 #$ -cwd
 #$ -q x17.q
 #$ -pe x32 32
 #$ -N JOB_NAME
 #$ -j y
 
 module load intel/2020.2.254
 module load intelmpi/2020.2.254
 # Above settings should be consistent with those used in the compilation
 
 MPI_COMMAND=mpirun
 
 export I_MPI_PIN=1
 export I_MPI_FABRICS=shm:dapl
 export OMP_NUM_THREADS=1
 
 cat $PE_HOSTFILE | awk '{ print $1":"$2/ENVIRON["OMP_NUM_THREADS"] }' > hostfile.$JOB_ID
 $MPI_COMMAND ./a.out < input.dat > output.dat

- スクリプトの例(cshの場合)
-- フラット並列(2ノード64コア)
 !/bin/csh -f
 #$ -cwd
 #$ -q x17.q
 #$ -pe x32 64
 #$ -N JOB_NAME                                     ← ジョブの名称を設定できる
 #$ -j y
 source /opt/settings/2016.4/intel-compiler.csh
 source /opt/settings/2016.4/intel-mpi.csh
 
 module load intel/2020.2.254
 module load intelmpi/2020.2.254
 
 setenv I_MPI_PIN     1                             
 setenv I_MPI_FABRICS shm:dapl                      ← shm:ofa 
 #setenv I_MPI_DEBUG 7
 setenv OMP_NUM_THREADS         1                   ← hybrid計算の場合はここの数値を変える
 
 ln -fs ~/STATE/src/develop/STATE5.6.0/STATE STATE    ← STATEの適切なバージョンを使用
 ln -fs ~/STATE/gncpp/pot.O_pbe1  fort.37
 ln -fs ~/STATE/gncpp/pot.H_lda1  fort.38
 setenv OMP_NUM_THREADS         1                   ← hybrid計算の場合はここの数値を変える
 
 cat $PE_HOSTFILE | awk '{ print $1":"$2/ENVIRON["OMP_NUM_THREADS"] }' > hostfile.$JOB_ID
 mpirun  ./STATE < nfinp_1 > nfout_1


***グループ15 x19システム [#o3556ccf]
- Cascade LakeアーキテクチャーのXeon CPU(Intel(R) Xeon(R) Gold 6230 CPU @ 2.10GHz)で構成される計算機グループです。各ノードは2CPU(計40core)で構成されています。

* コンパイル [#db7201d0]
-コンパイラの環境設定: ホームディレクトリにある.bashrc(lsでは見えません。ls -laとすると見えます。)に2行を追加して下さい。
 source /opt/settings/2016.4/intel-compiler.sh
 source /opt/settings/2016.4/intel-mpi.sh
- 最新版のコンパイラを使用したい場合は以下を追加して下さい(STATEの最新版では2016.4版(上記)の使用を推奨)。
 source /opt/settings/2017.1/intel-compiler.sh
 source /opt/settings/2017.1/intel-mpi.sh
-インクルードファイルmake.arhをSTATEソースのディレクトリに置いてmakeしてください。
-make.archの例
 ##################################  for (Xeon,smith) #################################
 F90    = mpiifort
 LINKER = mpiifort
 OMP    = -qopenmp
 OPT3   =
 FLAGS  = $(OMP) $(OPT3) -axCOMMON-AVX512,CORE-AVX512,CORE-AVX2,CORE-AVX-I,AVX,SSE4.2,SSE4.1,SSSE3,SSE3,SSE2 -fixed -extend_source
 FLAGG  = $(OMP) $(OPT3)
 FLAGD  = $(OMP) 
 FFTW_DIR=$(MKLROOT)/include/fftw
 INCLUDE = -I$(FFTW_DIR) 
 #for intelmpi
 LIBS   = -lmkl_scalapack_lp64 -lmkl_blacs_intelmpi_lp64 -mkl=parallel
 CPPDIR  = /usr/bin
 CPP     = $(CPPDIR)/cpp -P -C -traditional
 ##for intelmpi
 P_FLAGS  = -D_INTEL_DAVIDSON_ -D_MKL_FFTW_ -D_FFTW3_ -D_TIMER_ -D_OPENMP_FUNC_ -D_SCALAPACK_ \
            -D_ALLGATHERV_NOOVERLAP_
 ################################################################################

***グループ16 x20システム [#z32d950d]
- Cascade LakeアーキテクチャーのXeon CPU(Intel(R) Xeon(R) Gold 6230R CPU @ 2.10GHz)で構成される計算機グループです。各ノードは2CPU(計52core)で構成されています。

**使用可能なキューの調べ方 [#ud5db6ae]
-Yオプションなどを利用してsmithなどのログインノードへsshでログインします。ログインノード上で

  qmon

を実行することでqmonのウィンドウが立ち上がり

 Queue Control

を見ると使用可能なキュー名(qsubの-qオプション以降に指定するオプション)を

 Parallel Environment

見ると並列環境(qsubの-peオプション以降に指定するオプション)を確認することができます。
** コンパイル [#db7201d0]
-コンパイラの環境設定: ホームディレクトリにある.bashrc(lsでは見えません。ls -laとすると見えます。)に2行を追加して下さい。
 module load intel/2020.2.254
 module load intelmpi/2020.2.254

過去の情報は[[Smithシステムの使い方>計算機システムの使い方/Smith_old]] (旧) を参照して下さい。

* 以下、古い情報です。 [#m3c0028e]
** ネットワーク構成 [#rd9d48f4]

~-- | 等はネットワークの接続を、[]でくくられた名前はコンピュータの名称をそれぞれ表す。




----------------------------------------------------------------------------------------------

* SXで実行させた結果(バイナリデータ)を読み込みたい。 [#ab45c110]
- 可能です。
 
zaj.data, potention.data, restart.dataについて下記のようにして、読み込み時のエンディアンを変更します。出力もSX互換のままになりますので、さらに継続して使うときは注意してください。
 setenv F_UFMTENDIAN 43,70,80 (cshの場合)
 export F_UFMTENDIAN=43,70,80 (bashの場合)
 F_UFMTENDIAN=43,70,80 ; export F_UFMTENDIAN (shの場合)

----------------------------------------------------------------------------------------------





* smith 計算機システムの使い方(旧) [#b903d366]

SMITHクラスタ計算機システムはインテルまたは互換CPUを用いた計算機システムです。

** ネットワーク構成 [#x85a42b8]

~-- | 等はネットワークの接続を、~[]でくくられた名前はコンピュータの名称をそれぞれ表す。

 + 工学部内 ODINS network
 |
 |           Backbone network( 工学部ネットワークから直接アクセスできない )
 |               |
 +- [smith] -----+                          133.1.116.161 ログインサーバー
 +- [smith] -----+   133.1.116.161 ログイン&アプリケーションサーバー & ファイルサーバー
 +- [rafiki] ----+   133.1.116.162 ログイン&アプリケーションサーバー & バックアップ
 +- [tiamat] ----+   133.1.116.211 ログイン&アプリケーションサーバー
 |               |
 +- [rafiki] ----+                          133.1.116.162 アプリケーションサーバー
 |               | ■ノード名         サーバー CPUコアxCPU数  並列環境  キュー
 |               |                   G番号   =ノードコア数
 |               +-- [xe00]-[xe01]       4     4x2=8        x8       xe1.q
 |               +-- [xe02]-[xe06]       5     4x2=8        x8       xe1.q
 |               +-- [xe02]-[xe06]       6     6x2=12       x12      xe2.q
 |               |
 |               |                          (133.1.116.163 WEBサーバー休止中)
 |               +-- [xs01]-[xs18]       8     8x2=16       x16      xs2.q
 |               +-- [xi01]-[xi13]       9     8x2=16       x16      xi1.q
 |               |      (大メモリ機)
 |               +-- [xh01]-[xh36]      10a    12x2=24      x24      xh1.q
 |               +-- [xh37]-[xh43]      10b    12x2=24      x24      xh2.q
 |               +-- [yh01]-[yh03]      10d    12x2=24      x24      yh1.q
 |               |
 |               +-- [ita*]                 Itanium CPUシステム(撤去)
 |               +-- [xb01]-[xb14]      13     16x2=32      x32      xb1.q
 |               +-- [x1701]-[x1708]    14     16x2=32      x32      x17.q
 |               +-- [x1901]-[x1906]    15     20x2=40      x40      x19.q
 |               +-- [x2001]-[x2020]    16     26x2=52      x52      x20.q
 |               |
 |               +-- [opt00], [opt01]       コンパイルサーバー(opt01 停止中)
 |               |  ■引退ノード■
 |               +-- [it??]-[it??]       0 (itanium)
 |               +-- [opt00], [opt01]    コンパイルサーバー(opteron,opt01)
 |               +-- [opt02]-[opt11]     1 (各ノード2CORE) mpich-opt 
 |               +-- [opt12]-[opt21]     2 (各ノード4CORE) mpich-opt2
 |               +-- [opt22]-[opt36]     3 (各ノード4CORE) mpich-opt3
 |               +-- [xeon00] ---+      サブログイン・計算サーバー (ノード8CORE)
 |               |               +--- [xeon01-07]  グループ6 (各ノード8CORE)
 |               |
 |               +-- [opt02]-[opt11]        計算サーバー グループ1 (各2CORE 2CPU) mpich-opt (opt02-opt11 停止中)
 |               |
 |               +-- [opt12]-[opt21]        計算サーバー グループ2 (各4CORE 2CPU) mpich-opt2 (opt17 停止中)
 |               |
 |               +-- [opt22]-[opt36]        計算サーバー グループ3 (各4CORE 2CPU) mpich-opt3
 |               |
 |               +-- [xe00], [xe01]         計算サーバー グループ4 (xe00はコンパイルサーバー兼用)(各8CORE 2CPU) x8
 |               |
 |               +-- [xe02]-[xe06]          計算サーバー グループ5 (各12CORE 2CPU) x12
 |               |
 |               +-- [xeon00] ----+         ログイン・計算サーバー (8CORE 2CPU)
 |               |                |
 |               |                +--- [xeon01-07] 計算サーバー グループ6 (各8CORE 2CPU)
 |               |
 +- [sb100] -----+                          133.1.116.165 新計算サーバー
 +- [sb100] -----+    133.1.116.165 別グループ計算サーバー
                 |
                 +-- [sb101]-[sb120]        計算サーバー グループ7 (各6CORE 1CPU) x20
                 |                           [Sandy-bridge Corei7-3960k]
                 +-- [corei7-3930k-1]       計算サーバー テスト用 (6CORE 1CPU) 
                 +-- [sb101]-[sb120]     7a    6x1=6       x6 ?      sb.q
                 |
                 |
                 +-- [rl03]-[rl20]       7b    6x1=6       x6 ?      rl.q

**ジョブの投入について [#q22a1518]
-システムで計算を実行するには、計算したい内容をジョブにしてジョブキューイングシステムに投入する必要があります。
-ジョブ管理システムはSGE(Sun Grid Engine)5.3です。
-ジョブは自動的に空いている計算機に割り当てられて実行されます。(しかしグループを超えて違う計算機には割り当てられませんので注意が必要です。)
-ジョブの作り方は下記各システムの説明に「ジョブスクリプトファイルの例」がありますので参考にしてください。
-用いるコアの数を増やすと自動的に並列度が上がりますが、通信はギガビットイーサネットで実装されていますので、あまり速くありません。ノード間通信を含む並列計算はあまり有効ではありませんのでご注意ください。
-opt parallel_environmentにジョブを投入するときは、smithかopt??でqsubコマンドを実行してください。
-xe parallel_environmentにジョブを投入するときは、xe00でqsubコマンドを実行してください。
-xeon parallel_environmentにジョブを投入するときは、xeon00でqsubコマンドを実行してください。

**キューとparallel_environmentについて [#j6529b3c]
-各計算ノードはそれぞれ別々のキューとして管理されています。
-違う規模の計算機は別々の parallel_environmentとして管理しています。(mpich-opt, mpich-opt2, mpich-opt3, x8, x12)
-通常、キューを指定せず、-peオプションで parallel_environmentを指定してください。
- parallel_environmentを指定すると、ジョブはその parallel_environmentに属するノードでのみ割り当てられます。
-投入したジョブのparallel_environmentに属するノードに空きが足りない場合は、他のparallel_environmentに空きがあっても実行されず、その parallel_environmentの他のジョブの終了を待つことになります。

**各システム [#o99a72fa]
***opt??システム [#l914a98c]
-opteron CPUで構成される計算機グループで、mpich-opt, mpich-opt2, mpich-opt3 の3 parallel_environmentからなります。

-ジョブスクリプトファイルの例
  #!/bin/csh
  #$ -cwd
  #$ -pe mpich-opt2 4
  #$ -N JOBNAME
  mpirun -nolocal -np $NSLOTS -machinefile ../$USER.$PE.$JOB_ID ./STATE_A < nfinp > nfout
  
--  -cwd はジョブを投入した時のディレクトリがジョブ開始時のディレクトリになることを指示するオプションです。
--  上のmpich-opt2の後ろの4が計算に用いるCOREの数を示すオプションです。
--  -Nオプションでジョブの名前を指定できます。(先頭文字は英字です。)
-- STATE_AにはSTATEの実行ファイルをジョブ投入前にリンクしておいてください。
-- また、fort.37等、擬ポテンシャルのファイルも同様にリンクしておいてください。
-コンパイル
--  コンパイルはopt00にログインしてifortコマンドにより行います。
--  STATEユーザーはopt用のMakefileを使用してコンパイルできます。
-  opt??にログインするには?
-- rsh opt00 等でOKです。
-ライブラリ
--  ACML,mpich-2 が利用できます。

***x?システム [#jf4030e4]
-xeon CPUで構成される計算機グループで、x8, x12 の2 parallel_environmentからなります。

-ジョブスクリプトファイルの例
  #!/bin/csh
  #$ -cwd
  #$ -pe x12 12
  #$ -N JOBNAME
  mpirun  -np $NSLOTS ./STATE_A < nfinp > nfout
--  -cwd はジョブを投入した時のディレクトリがジョブ開始時のディレクトリになることを指示するオプションです。
--  上のx12(またはx8)はx12(またはx8)にジョブ投入することを示し、後ろの12が計算に用いるCOREの数を示すオプションです。x12は12、x8は8でないと実行されないようになっていますので注意してください。
--  -Nオプションでジョブの名前を指定できます。(先頭文字は英字です。)
-- STATE_AにはSTATEの実行ファイルをジョブ投入前にリンクしておいてください。
-- また、fort.37等、擬ポテンシャルのファイルも同様にリンクしておいてください。

-コンパイル
--  コンパイルはxe00にログインしてifortコマンドまたはmpi並列の場合はmpif90コマンドにより行います。
--  STATEユーザーはxe用のMakefileを使用してコンパイルできます。
-  xe??にログインするには?
-- rsh xe00 等でOKです。
-ライブラリ
--  MKL が利用できます。

ifort xe2011(version12) のインストール記[[LinuxTips#hec6b033]]も参照。


***xeon00システム [#qf359bf3]
- xeon CPUで構成される計算機グループですが、特定のプロジェクト用のため一般利用はできません。

-ジョブスクリプトファイルの例
  #!/bin/csh
  #$ -cwd
  #$ -pe x8 8
  #$ -N JOBNAME
  mpirun  -np $NSLOTS ./STATE_A < nfinp > nfout

***sb100システム [#f7c64b2d]
- Sanday-bridge アーキテクチャーのCore i7 CPUで構成される新しい計算機グループです。各ノードは1CPU(6core)で構成されています。メモリは16GBです。
- AVX機能があり高速に計算できますが、組み込んだ新しいコンパイラの制限?(バグ?)のためコンパイルが正常に終了しません。特定のファイルだけ最適化レベルを落としてコンパイルする必要があります。エラーが出たら、CPPSRCフォルダに移動して、make.sysに書かれているオプションを設定し、最適化レベルだけ-O0にして手動でコンパイルしてください。分からなければ、他の人のSTATEバイナリをコピーして使ってください。
- smithのデータを直接見れます。/home2にsmithの/homeをNFSリンクしていますのでアクセス可能です。
- スクリプトの例(cshのみ)
-- ハイブリッド並列(12コア確保、各ノードにプロセス確保、プロセスごと6-OMPスレッド)
 #!/bin/csh -f
 #$ -pe x6 12
 #$ -cwd
 #$ -N erace
 setenv OMP_NUM_THREADS 6
 ln -fs ~/STATE/src/STATE_5.4.1/wrksrc6i5_/STATE .
 mpirun  -perhost 1 -np $NHOSTS ./STATE < nfinp > nfout
-- フラット並列(12コア)
 #!/bin/csh -f
 #$ -pe x6 12
 #$ -cwd
 #$ -N erace
 ln -fs ~/STATE/src/STATE_5.4.1/STATE .
 mpirun -np $NSLOTS ./STATE < nfinp > nfout

トップ   新規 一覧 単語検索 最終更新   ヘルプ   最終更新のRSS