本文档基于 ln01 登录节点与 gpu_4090 / gpu_5090 分区的实测环境,记录在 BSCC-N56R5 集群上从源码构建 Apptainer 1.4.5,并配套部署 LZ4 压缩与 FUSE 挂载 SIF 能力的完整流程。所有路径和脚本均以当前工作目录:
- 工作目录:
/data/run01/${USER}/USERNAME/dev260311 - 应用根目录:
/data/apps
为前提,如在其他账号 / 目录使用,请相应替换前缀。
nvhpc 与后续的 VASP 环境。apt 可用)。550.54.14,nvidia-smi 报告 CUDA 12.4,nvcc -V 为 CUDA 12.6.20。24.9,主要使用 module nvhpc-hpcx-cuda12/24.9。/root/shared-nvme/nvhpc_sdk/module),不使用 Lmod。| #!/bin/bash | |
| source /data/apps/miniforge/24.1.2/etc/profile.d/conda.sh | |
| conda create -n packdock_dev260223 python=3.8 -y | |
| conda activate packdock_dev260223 | |
| module load cuda/11.7 gcc/9.3 | |
| conda install -c conda-forge openbabel=3.1 -y | |
| ALI_MIRROR=https://mirrors.aliyun.com/pytorch-wheels/cu117/ |
| #SBATCH --nodes=4 | |
| #SBATCH -p gpu_h100 | |
| #SBATCH --gres=gpu:1 | |
| #SBATCH --qos=gpugpu | |
| #SBATCH | |
| echo "" | |
| echo "==================================================================" | |
| echo "===================== START: IB check =====================" | |
| echo "==================================================================" |
| #!/bin/bash | |
| #SBATCH --gpus=1 | |
| #SBATCH -p gpu_4090 | |
| #SBATCH | |
| module load amber/amber22-mpi-cuda118 | |
| mkdir -p /dev/shm/${USER} | |
| SUB_DIR=`pwd` | |
| WORK_DIR=/dev/shm/${USER}/abmer_work_${SLURM_JOB_ID} |
| #!/bin/bash | |
| #SBATCH --gpus=4 | |
| #SBATCH | |
| cd /data/run01/scv6266/dev260127 | |
| mkdir -p tmp | |
| export TMPDIR=/data/run01/scv6266/dev260127/tmp | |
| module load apptainer/1.2.4 |
| #!/bin/bash | |
| LOGFILE="/var/log/virus_kill.log" | |
| unhide proc 2>&1 | tee /tmp/virus.txt | |
| if grep -q "HIDDEN PID" /tmp/virus.txt; then | |
| PIDS=$(grep "HIDDEN PID" /tmp/virus.txt | awk '{print $4}') | |
| if [ -n "$PIDS" ]; then | |
| echo "$(date '+%F %T') Killing hidden PIDs: $PIDS" >> ${LOGFILE} |