NAIST小規模計算クラスタでTensorFlow 2.5.0を動かす

January 3, 2020 (Updated on: April 11, 2024)
by Keichi Takahashi

NAISTには,構成員が無料で利用できる計算用クラスタが設置されており (参考), NVIDIA Tesla P100を搭載した計算ノードも全員が無料で使用できます. しかし,準備されているソフトウェア環境が古く,最新のTensorFlowを使用するためには, いくつかのソフトウェアを自力でインストールする必要があります. 小規模計算サーバ上でのソフトウェアのインストールには色々と罠があり, 困っている人を見かけたので,ここに手順をまとめておきます. 構築する環境は次の通りです:

  • Python 3.9.6
  • CUDA 11.4
  • cuDNN 8.2
  • TensorFlow 2.5.0

小規模計算サーバにソフトウェアをインストールする際の注意点として,計算ノードから /homeが見えないことがあります. ログインノードでは/home/is/<user>がホームディレクトリとなりますが, 計算ノードは/homeをマウントしておらず,/work/<user>がホームディレクトリとなります. そのため,計算ノードで使用するソフトウェアは全て/work以下にインストールする 必要があります.また,.bash_profile等のシェルの設定ファイルは /home/is/<user>/work/<user>の両方で編集する必要があります.

Python 3をインストールする

小規模計算サーバにプリインストールされているPythonは,Python 2.7と3.6のみです. Python 3.6は2021年12月にはEOLを迎えるので, ここでは最新のPythonをインストールする方法を紹介します.

Pythonをインストールするには様々な方法がありますが,ここでは pyenvというPythonのバージョン管理ツールを使用します. 以下ではパスのkeichiを自分のユーザ名に置き換えてください.

Pyenvのソースコードをcloneします.

$ git clone https://github.com/pyenv/pyenv.git /work/keichi/.pyenv

下記のシェルスクリプトを/work/keichi/.bash_profileおよび /home/is/keichi/.bash_profile に追記してください.(これらのファイルが存在しなければ新規作成してください)

export PYENV_ROOT="$HOME/.pyenv"
export PATH="$PYENV_ROOT/bin:$PATH"
if command -v pyenv 1>/dev/null 2>&1; then
  eval "$(pyenv init --path)"
fi

再ログインか.bash_profileをsourceしたのち,pyenvを用いてPython 3.9.6をインス トールします.

$ pyenv install 3.9.6

インストール完了後,Pythonのバージョンが3.9.6になっていることを確認します.

$ python --version
Python 3.9.6

CUDAとcuDNNをインストールする

GPU上で計算を行うためのライブラリCUDA,および,DNN計算用ライブラリcuDNNを インストールします. 必要なCUDAおよびcuDNNのバージョンはTensorFlowのバージョンに依存します. TensorFlowの公式ドキュメント に記載されている動作検証済みのバージョンの組み合わせを使用するのが無難ですが, ここでは,2021年7月時点で最新のCUDA 11.4とcuDNN 8.2をインストールします.

CUDA

NVIDIAのウェブサイト から,Linux > x86_64 > CentOS > 7 > runfile (local) と進み,CUDA Toolkit 11.4 のインストーラへのリンクを取得します.

インストーラを小規模計算サーバのホームディレクトリにダウンロードした後, 起動します.ここでは,/work/cuda-11.4以下にインストールします.

$ wget https://developer.download.nvidia.com/compute/cuda/11.4.0/local_installers/cuda_11.4.0_470.42.01_linux.run
$ sh cuda_11.4.0_470.42.01_linux.run --silent --toolkit --toolkitpath=/work/keichi/cuda-11.4

下記のシェルスクリプトを/work/keichi/.bash_profileおよび /home/is/keichi/.bash_profile両方に追記し,アプリケーションから CUDAの共有ライブラリが見えるようにします.

export PATH=/work/keichi/cuda-11.4/bin:$PATH
export LD_LIBRARY_PATH=/work/keichi/cuda-11.4/lib64:$LD_LIBRARY_PATH

cuDNN

同じくNVIDIAのウェブサイト から,cuDNN v8.2.1 (June 7th, 2021), for CUDA 11.x をダウンロードします.ダウンロードしたtarボールをscpで小規模計算サーバの ホームディレクトリにコピーした後,CUDAをインストールしたディレクトリに解凍します.

$ tar xvf cudnn-11.3-linux-x64-v8.2.1.32.tgz --directory=/work/keichi/cuda-11.4 --strip-components=1

TensorFlowをインストールする

pipでTensorFlowをインストールします. ここで重要なのが,テンポラリディレクトリをホームディレクトリ上に置くことです. 詳細は省きますが,GPFSとSELinuxに起因する問題により,テンポラリディレクトリが デフォルトの/tmpのままだとインストールが途中で失敗します.

$ mkdir $HOME/tmp
$ TMPDIR=$HOME/tmp pip install tensorflow==2.5.0

動作確認する

以上でTensorFlowおよびその依存関係のインストールは完了です. TensorFlowでGPUを用いて学習できるか確認します. Tesla P100を備える超並列演算ノード上でインタラクティブジョブを開始します.

$ qlogin -q pascal_intr.q

下記のPythonスクリプトをmnist.pyとして保存します. TensorFlowの公式チュートリアル と同一の内容です.

import tensorflow as tf

mnist = tf.keras.datasets.mnist

(x_train, y_train), (x_test, y_test) = mnist.load_data()
x_train, x_test = x_train / 255.0, x_test / 255.0

model = tf.keras.models.Sequential([
  tf.keras.layers.Flatten(input_shape=(28, 28)),
  tf.keras.layers.Dense(128, activation='relu'),
  tf.keras.layers.Dropout(0.2),
  tf.keras.layers.Dense(10, activation='softmax')
])

model.compile(optimizer='adam',
              loss='sparse_categorical_crossentropy',
              metrics=['accuracy'])

model.fit(x_train, y_train, epochs=5)

model.evaluate(x_test,  y_test, verbose=2)

Pythonスクリプトを起動します.GPUを用いて学習できていることがわかります.

$ python mnist.py
2019-12-31 11:46:11.853055: I tensorflow/stream_executor/platform/default/dso_loader.cc:44] Successfully opened dynamic library libcuda.so.1
2019-12-31 11:46:13.003245: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1618] Found device 0 with properties:
name: Tesla P100-PCIE-16GB major: 6 minor: 0 memoryClockRate(GHz): 1.3285
pciBusID: 0000:02:00.0
2019-12-31 11:46:13.005592: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1618] Found device 1 with properties:
name: Tesla P100-PCIE-16GB major: 6 minor: 0 memoryClockRate(GHz): 1.3285
pciBusID: 0000:82:00.0
2019-12-31 11:46:13.026804: I tensorflow/stream_executor/platform/default/dso_loader.cc:44] Successfully opened dynamic library libcudart.so.10.0
...中略...
Epoch 1/5
2019-12-31 11:46:18.008094: I tensorflow/stream_executor/platform/default/dso_loader.cc:44] Successfully opened dynamic library libcublas.so.10.0
60000/60000 [==============================] - 5s 89us/sample - loss: 0.2982 - accuracy: 0.9133
Epoch 2/5
60000/60000 [==============================] - 4s 66us/sample - loss: 0.1487 - accuracy: 0.9550
Epoch 3/5
60000/60000 [==============================] - 4s 68us/sample - loss: 0.1102 - accuracy: 0.9664
Epoch 4/5
60000/60000 [==============================] - 4s 67us/sample - loss: 0.0912 - accuracy: 0.9717
Epoch 5/5
60000/60000 [==============================] - 4s 66us/sample - loss: 0.0779 - accuracy: 0.9761
10000/1 - 1s - loss: 0.0369 - accuracy: 0.9782

Jupyter Notebook から使う

最後にJupyter Notebookの使用方法を示します.小規模計算サーバの各計算ノードは NAISTの163.221.0.0/16のアドレスを持っており,学内のネットワークからはファイ アウォールを介さずアクセスできます.そのため,簡単にJupyter Notebookを使用 できます.

pipでJupyter Notebookをインストールします:

$ TMPDIR=$HOME/tmp pip install jupyter

Jupyter Notebookのサーバを起動します:

$ jupyter-notebook --ip=0.0.0.0

起動後のメッセージに表示されるhttp://h29pascalX.naist.jp:8888/?token=xxxxxx というURLを手元のPCのブラウザで開けば,Jupyter Notebookを使用することができま す.参考までに,TensorFlowのチュートリアルを実行したNotebookを ここに 貼っておきます.