检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
执行以下命令,导入配置的MPI环境变量。 $ source ~/.bashrc 执行以下命令,查看MPI环境变量是否正常。 $ which mpirun 图3 环境变量正常 回显如图3所示表示环境变量正常。 执行以下命令,在单个BMS上运行社区OpenMPI。 执行以下命令,生成可执行文件。 $ cd ~ $
/usr/mpi/gcc/openmpi-3.0.0rc6/bin/mpirun 图1 已安装IB驱动 如果上述两条命令均有如图1所示的返回值,则已安装IB驱动,执行3。 如果返回值与图1不同,表示弹性云服务器未安装IB驱动,执行2。 下载并安装对应的IB驱动。 在Mellanox官网https://network
IPoIB的约束和限制 支持管理一个IB网卡。 继承BMS、H2型、HL1型、HI3型云服务器对IB网卡的使用约束与限制,使用IPoIB特性的弹性云服务器不支持迁移。 继承H2型、HL1型、HI3型云服务器对IB网卡的使用约束与限制,使用的IB网络不支持安全组、Qos、三层及以上网络功能。
IPoIB的约束和限制 支持管理一个IB网卡。 继承BMS、H2型、HL1型、HI3型云服务器对IB网卡的使用约束与限制,使用IPoIB特性的弹性云服务器不支持迁移。 继承H2型、HL1型、HI3型云服务器对IB网卡的使用约束与限制,使用的IB网络不支持安全组、Qos、三层及以上网络功能。
/usr/mpi/gcc/openmpi-3.0.0rc6/bin/mpirun 图1 已安装IB驱动 如果上述两条命令均有如图1所示的返回值,则已安装IB驱动,执行3。 如果返回值与图1不同,表示弹性云服务器未安装IB驱动,执行2。 下载并安装对应的IB驱动。 在Mellanox官网https://network
执行以下命令,导入配置的MPI环境变量。 $ source ~/.bashrc 执行以下命令,查看MPI环境变量是否正常。 $ which mpirun 图3 环境变量正常 回显如图3所示表示环境变量正常。 执行以下命令,在单个BMS上运行社区OpenMPI。 执行以下命令,生成可执行文件。 $ cd ~ $
Nodes=4 \ Partition=workq \ Users=user1,user2,user3 用户组在指定时间共享4个节点24小时。 场景3:维护模式预留 scontrol create reservation \ ReservationName=maintenance
intel_hello 执行以下命令,在单个ECS上运行Intel MPI。 # mpirun -np 2 /root/intel_hello 图3 在单个ECS上运行Intel MPI 父主题: 安装和使用MPI
intel_hello 执行以下命令,在单个ECS上运行Intel MPI。 # mpirun -np 2 /root/intel_hello 图3 在单个ECS上运行Intel MPI 父主题: 安装和使用MPI
SwitchName=rack1 Nodes=node1,node2 Switches=switch1 SwitchName=switch1 Nodes=node3,node4 关键参数说明 参数 说明 Nodes 节点列表(支持 node[1-5,10] 格式的连续或离散节点)。 Switches 子
-o hello 执行以下命令,在单个BMS上运行Intel MPI。 $ mpirun -np 2 /home/rhel/hello 图3 在单个BMS上运行Intel MPI 父主题: 安装和使用MPI(X86 BMS场景)
-o hello 执行以下命令,在单个BMS上运行Intel MPI。 $ mpirun -np 2 /home/rhel/hello 图3 在单个BMS上运行Intel MPI 父主题: 安装和使用MPI(X86 BMS场景)
$source ~/.bashrc 如果存在多个pkey,使用英文逗号隔开。 执行以下命令,检查环境变量是否配置成功。 # which mpirun 图3 Platform MPI环境变量导入成功 执行下列命令,在单个ECS上运行Platform MPI。 执行以下命令,重新编译hello.c文件。
$source ~/.bashrc 如果存在多个pkey,使用英文逗号隔开。 执行以下命令,检查环境变量是否配置成功。 # which mpirun 图3 检查环境变量 在单个BMS上运行Platform MPI。 执行以下命令,重新编译hello.c文件。 $ mpicc hello.c -o
$source ~/.bashrc 如果存在多个pkey,使用英文逗号隔开。 执行以下命令,检查环境变量是否配置成功。 # which mpirun 图3 Platform MPI环境变量导入成功 执行下列命令,在单个ECS上运行Platform MPI。 执行以下命令,重新编译hello.c文件。
$source ~/.bashrc 如果存在多个pkey,使用英文逗号隔开。 执行以下命令,检查环境变量是否配置成功。 # which mpirun 图3 检查环境变量 在单个BMS上运行Platform MPI。 执行以下命令,重新编译hello.c文件。 $ mpicc hello.c -o
MPI运行可执行文件。 $ mpirun -np 2 -pernode --hostfile hostfile /home/rhel/hello 图3 集群上运行Spetrum MPI成功 hostfile文件在运行时需要指定路径,可执行文件hello路径需为绝对路径,集群中所有可执行文件在同一路径下。
以两个BMS为例: $ mpirun -np 2 --pernode -hostfile hostfile /home/rhel/hello 图3 集群上运行社区OpenMPI成功 hostfile文件在运行时需要指定路径,可执行文件hello路径需为绝对路径,集群中所有可执行文件在同一路径下。
以两台BMS为例: $ mpirun -perhost 2 -np 12 -machinefile hostfile /home/rhel/hello 图3 BMS集群上运行Intel MPI成功 hostfile文件在运行时需要指定路径,可执行文件hello路径需为绝对路径,集群中所有可执行文件在同一路径下。
执行以下命令,在BMS集群上运行社区OpenMPI。 $ mpirun -np 12 -machinefile hostfile /home/rhel/hello 图3 BMS集群上Platform MPI运行成功 hostfile文件在运行时需要指定路径,可执行文件hello路径需为绝对路径,集群中所有可执行文件在同一路径下。