华为云用户手册

  • GPU实例故障处理流程 GPU实例故障处理流程如图1所示,对应的操作方法如下: CES 监控事件通知:配置GPU的CES监控后会产生故障事件通知。 故障信息收集:可使用GPU故障信息收集脚本一键收集,也可参考故障信息收集执行命令行收集。 GPU实例故障分类列表:根据错误信息在故障分类列表中识别故障类型。 非硬件故障自恢复处理方法:这类问题可以根据指导自行排查恢复。 显卡故障诊断及处理方法:这类问题可以根据指导确认后联系技术支持。 联系技术支持人员:无法自恢复请提交工单联系技术支持人员获取帮助。 图1 GPU实例故障处理流程 父主题: GPU实例故障自诊断
  • 防火墙添加例外端口 CentOS 6添加防火墙例外端口。 以添加23端口为例,执行以下命令,添加防火墙例外端口:tcp协议23端口。 iptables -A INPUT -m state --state NEW -m tcp -p tcp --dport 23 -j ACCEPT 保存新配置。 service iptables save (可选)设置防火墙开机自启动。 chkconfig iptables on 可执行以下命令关闭防火墙开机自启动。 chkconfig iptables off CentOS 6启动防火墙时可能会出现"iptables"no config file"错误 ,原因是未找到配置文件iptables。解决方法如下: 新建一条规则。 iptables -P OUTPUT ACCEPT 保存配置。 service iptables save 再次启动防火墙。 service iptables start 以CentOS 7添加防火墙例外端口及防火墙常用操作。 查看防火墙状态。 systemctl status firewalld 或 firewall-cmd --state 如果防火墙关闭可以执行以下命令开启。 systemctl start firewalld 如果开启命令执行后提示“Failed to start firewalld.service: Unit is masked.”请执行以下命令后再重新执行开启防火墙的命令。systemctl unmask firewalld 重新检查防火墙状态是否打开。 firewall-cmd --state 回显信息: [root@ecs-centos7 ~]# firewall-cmd --state running 以添加23端口为例,执行以下命令,添加防火墙例外端口:tcp协议23端口。 firewall-cmd --zone=public --add-port=23/tcp --permanent 回显信息如下说明设置成功: [root@ecs-centos7 ~]# firewall-cmd --zone=public --add-port=23/tcp --permanent success 重新加载策略配置,使新配置生效。 firewall-cmd --reload 可以执行以下命令查看开启的所有端口。 firewall-cmd --list-ports [root@ecs-centos7 ~]# firewall-cmd --list-ports 23/tcp (可选)设置防火墙开机自启动。 systemctl enable firewalld.service 查看防火墙设置开机自启是否成功。 systemctl is-enabled firewalld.service;echo $? 回显信息如下说明已设置成功: [root@ecs-centos7 ~]# systemctl is-enabled firewalld.service;echo $? enabled 0 可执行以下命令关闭防火墙开机自启动。 systemctl disable firewalld.service
  • 开启或关闭防火墙 根据操作系统不同,分别执行以下命令开启或关闭防火墙。 操作系统 开启 关闭 云运维中心 CentOS 6 service iptables start service iptables stop 登录管理控制台。 打开HWC.E CS .OSOps-switch-linux-firewall.sh脚本,获取脚本内容。 说明: 也可在云运维中心HWC.ECS.OSOps-switch-windows-firewall.bat的执行脚本页面设置参数后,直接运行。 CentOS 7 systemctl start firewalld.service systemctl stop firewalld.service Ubuntu ufw enable ufw disable Debian /etc/init.d/iptables start /etc/init.d/iptables stop
  • Ubuntu 16、Debian8系列操作系统配置atop 执行以下命令,安装atop。 apt-get install -y atop 编辑配置文件,修改采样周期。 vi /etc/default/atop 修改如下配置参数,修改后保存并退出。 LOG INTERVAL默认是600,可以修改成15,单位秒。 默认atop日志保存周期为28天,不支持修改。 LOGINTERVAL=15 启动atop服务。 systemctl start atop 检查是否启动成功,active(running) 表示运行正常。 systemctl status atop atop.service - Atop advanced performance monitor Loaded: loaded (/etc/init.d/atop; bad; vendor preset: disabled) Active: active (running) atop运行会占用额外的系统和磁盘资源,您可在问题排查完成后,执行以下命令停止atop。 systemctl stop atop
  • Ubuntu 20、Debian 10系列操作系统配置atop 执行以下命令,安装atop。 apt-get install -y atop 编辑配置文件,修改采样周期。 vi /etc/default/atop 修改如下配置参数,修改后保存并退出。 LOGINTERVAL默认是600,可以修改成15,单位秒。 默认atop日志保存周期为28天,可以根据实际修改LOGGENERATIONS的值为3,单位为天。 LOGINTERVAL=15 LOGGENERATIONS=3 atop是默认启动,需重启atop服务使配置生效。 systemctl restart atop atopacct 检查是否启动成功,active(running) 表示运行正常。 systemctl status atop atopacct atop.service - Atop advanced performance monitor Loaded: loaded (/etc/init.d/atop; enable; vendor preset: enabled) Active: active (running) atopacct.service - Atop process accounting daemon Loaded: loaded (/usr/lib/systemd/system/atopacct.service; enabled; vendor preset: enabled) Active: active (running) atop运行会占用额外的系统和磁盘资源,您可在问题排查完成后,执行以下命令停止atop。 systemctl disable atop atopacct systemctl stop atop atopacct
  • Ubuntu 22/24系列操作系统配置atop 执行以下命令,安装atop。 apt-get install -y atop 编辑配置文件,修改采样周期。 vi /etc/default/atop 修改如下配置参数,修改后保存并退出。 LOGINTERVAL默认是600,可以修改成15,单位秒。 默认atop日志保存周期为28天,可以根据实际修改LOGGENERATIONS的值为3,单位为天。 LOGINTERVAL=15 LOGGENERATIONS=3 atop是默认启动,需重启atop服务使配置生效。 systemctl restart atop atopacct atop-rotate.timer 检查是否启动成功,atop atopacct是 active(running)表示运行正常,atop-rotate.timer是active(waiting) 表示运行正常。 systemctl status atop atopacct atop-rotate.timer atop.service - Atop advanced performance monitor Loaded: loaded (/usr/lib/systemd/system/atop.service; enabled; vendor preset: enabled) Active: active (running) atopacct.service - Atop process accounting daemon Loaded: loaded (/usr/lib/systemd/system/atopacct.service; enabled; vendor preset: enabled) Active: active (running) atop-rotate.timer - Daily atop restart Loaded: loaded (/usr/lib/systemd/system/atop-rotate.timer; enabled; vendor preset: enabled) Active: active (waiting) atop运行会占用额外的系统和磁盘资源,您可在问题排查完成后,执行以下命令停止atop。 systemctl disable atop atopacct atop-rotate.timer systemctl stop atop atopacct atop-rotate.timer
  • Debian 11/12系列操作系统配置atop 执行以下命令,安装atop。 apt-get install -y atop 编辑配置文件,修改采样周期。 vi /etc/default/atop 修改如下配置参数,修改后保存并退出。 LOGINTERVAL默认是600,可以修改成15,单位秒。 默认atop日志保存周期为28天,可以根据实际修改LOGGENERATIONS的值为3,单位为天。 LOGINTERVAL=15 LOGGENERATIONS=3 atop是默认启动,需重启atop服务使配置生效。 systemctl restart atop atopacct atop-rotate.timer 检查是否启动成功,atop atopacct是 active(running)表示运行正常,atop-rotate.timer是active(waiting) 表示运行正常。 systemctl status atop atopacct atop-rotate.timer atop.service - Atop advanced performance monitor Loaded: loaded (/usr/lib/systemd/system/atop.service; enabled; vendor preset: enabled) Active: active (running) atopacct.service - Atop process accounting daemon Loaded: loaded (/usr/lib/systemd/system/atopacct.service; enabled; vendor preset: enabled) Active: active (running) atop-rotate.timer - Daily atop restart Loaded: loaded (/usr/lib/systemd/system/atop-rotate.timer; enabled; vendor preset: enabled) Active: active (waiting) atop运行会占用额外的系统和磁盘资源,您可在问题排查完成后,执行以下命令停止atop。 systemctl disable atop atopacct atop-rotate.timer systemctl stop atop atopacct atop-rotate.timer
  • SUSE 15、SUSE 12系列操作系统配置atop 下载atop源码安装包。 wget https://www.atoptool.nl/download/atop-2.6.0-1.src.rpm 执行以下命令安装源码atop。 rpm -ivh atop-2.6.0-1.src.rpm 安装编译atop依赖软件包 zypper -n install rpm-build ncurses-devel zlib-devel 执行以下命令编译atop cd /usr/src/packages/SPECS rpmbuild -bb atop-2.6.0.spec 执行以下命令安装atop cd /usr/src/packages/RPMS/x86_64 rpm -ivh atop-2.6.0-1.x86_64.rpm 编辑配置文件,修改采样周期。 vi /etc/default/atop 修改如下配置参数,修改后保存并退出。 LOGINTERVAL默认是600,可以修改成15,单位秒。 默认atop日志保存周期为28天,可以根据实际修改LOGGENERATIONS的值为3,单位为天。 LOGINTERVAL=15 LOGGENERATIONS=3 atop是默认启动,需重启atop服务使配置生效。 systemctl restart atop atopacct atop-rotate.timer 检查是否启动成功,atop atopacct是 active(running)表示运行正常,atop-rotate.timer是active(waiting) 表示运行正常。 systemctl status atop atopacct atop-rotate.timer atop.service - Atop advanced performance monitor Loaded: loaded (/usr/lib/systemd/system/atop.service; enabled; vendor preset: enabled) Active: active (running) atopacct.service - Atop process accounting daemon Loaded: loaded (/usr/lib/systemd/system/atopacct.service; enabled; vendor preset: enabled) Active: active (running) atop-rotate.timer - Daily atop restart Loaded: loaded (/usr/lib/systemd/system/atop-rotate.timer; enabled; vendor preset: enabled) Active: active (waiting) atop运行会占用额外的系统和磁盘资源,您可在问题排查完成后,执行以下命令停止atop。 systemctl disable atop atopacct atop-rotate.timer systemctl stop atop atopacct atop-rotate.timer
  • Ubuntu 18、Debian 9系列操作系统配置atop 执行以下命令,安装atop。 apt-get install -y atop 编辑配置文件,修改采样周期。 vi /usr/share/atop/atop.daily 修改如下配置参数,修改后保存并退出。 LOGINTERVAL默认是600,可以修改成15,单位秒。 默认atop日志保存周期为28天,可以根据实际修改“-mtime”的值为3,单位为天。 LOGINTERVAL=15 …… ( (sleep 3; find $LOGPATH -name 'atop_*' -mtime +3 -exec rm {} \;)& ) atop是默认启动,需重启atop服务使配置生效。 systemctl restart atop atopacct 检查是否启动成功,active(running) 表示运行正常。 systemctl status atop atopacct atop.service - Atop advanced performance monitor Loaded: loaded (/etc/init.d/atop; enable; vendor preset: enabled) Active: active (running) atopacct.service - Atop process accounting daemon Loaded: loaded (/usr/lib/systemd/system/atopacct.service; enabled; vendor preset: enabled) Active: active (running) atop运行会占用额外的系统和磁盘资源,您可在问题排查完成后,执行以下命令停止atop。 systemctl disable atop atopacct systemctl stop atop atopacct
  • 分析atop日志 atop启动后,会将采集记录存放在/var/log/atop目录下的日志文件中。 执行如下命令,查看日志文件。 atop -r /var/log/atop/atop_2024XXXX atop常用命令 打开日志文件后,您可以使用以下命令筛选数据。 c:按照进程CPU使用率进行降序筛选。 m:按照进程内存使用率进行降序筛选。 d:按照进程磁盘使用率进行降序筛选。 a:按照进程资源综合使用率进行降序筛选。 n:按照进程网络使用率进行降序筛选。 t:跳转到下一个监控采集点。 T:跳转到上一个监控采集点。 b:指定时间点,格式为YYYYMMDDhhmm。 系统资源监控字段含义 下图为部分监控字段以及数值,具体数值根据采样周期和atop版本有所不同。下图仅供参考,具体数据以您实际数据为准。 图1 系统资源监控字段 主要参数说明如下: ATOP 行:主机名、信息采样日期和时间点。 PRC 行:进程整体运行情况。 #sys 及 user:内核态和用户态所占 CPU 的时间值。 #proc:进程总数。 #zombie:僵死进程的数量。 #exit:采样周期期间退出的进程数量。 CPU 行:CPU 整体(即多核 CPU 作为一个整体 CPU 资源)的使用情况。CPU 行的各字段数值相加结果为 N*100%,N 为 CPU 核数。 #sys 及 user:内核态和用户态所占 CPU 的时间比例。 #irq:CPU 被用于处理中断的时间比例。 #idle:CPU 处在完全空闲状态的时间比例。 #wait:CPU 处在进程等待磁盘 IO ,导致 CPU 空闲状态的时间比例。 CPL 行:CPU 负载情况。 #avg1、avg5 和 avg15:过去1分钟、5分钟和15分钟内运行队列中的平均进程数量。 #csw:指示上下文交换次数。 #intr:指示中断发生次数。 MEM 行:内存的使用情况。 #tot:物理内存大小。 #free:空闲的物理内存大小 #cache :用于页缓存的内存大小。 #buff:用于文件缓存的内存大小。 #slab:系统内核占用的内存大小。 SWP 行:交换空间的使用情况。 #tot:交换区总量。 #free:空闲交换空间大小。 DSK 行:磁盘使用情况,每一个磁盘设备对应一列。如果有 sdb 设备,那么增加一行 DSK 信息。 #sda:磁盘设备标识。 #busy:磁盘忙时比例。 #read 及 write:读、写请求数量。 NET 行:多列 NET 展示了网络状况,包括传输层(TCP 和 UDP)、IP 层以及各活动的网口信息。 #xxxxxi:各层或活动网口收包数目。 #xxxxxo:各层或活动网口发包数目。
  • 配置kdump操作步骤 查看是否已经安装kexec-tools。 rpm -q kexec-tools 如果没有安装,则执行下面命令安装。 yum install -y kexec-tools 开启kdump默认启动。 systemctl enable kdump 设置crashkernel参数,设置这个参数的目的是预留内存给capture kernel。 首先查看参数是否已经设置。 grep crashkernel /proc/cmdline 如果有显示,则表示已经设置,如果没有显示,则需要重新设置。 设置crashkernel,编辑/etc/default/grub文件。 GRUB_TIMEOUT=5 GRUB_DEFAULT=saved GRUB_DISABLE_SUBMENU=true GRUB_TERMINAL_OUTPUT="console" GRUB_CM DLI NE_LINUX="crashkernel=auto rd.lvm.lv=rhel00/root rd.lvm.lv=rhel00/swap rhgb quiet" GRUB_DISABLE_RECOVERY="true" 找到GRUB_CMDLINE_LINUX参数,添加crashkernel=auto,其他内容不变。 执行grub命令,使以上配置生效。 grub2-mkconfig -o /boot/grub2/grub.cfg 打开/etc/kdump.conf文件中找到“path”参数,添加以下内容。 path /var/crash 默认是保存在/var/crash目录下,如果要保存到其他目录,则改成对应的目录, 例如保存在/home/kdump下,则改成: path /home/kdump 要确保指定的路径有足够的空间保存vmcore,建议剩余空间不小于 RAM 大小;也可以保存在SAN,nfs等共享设备上。 设置转存vmcore级别。 修改/etc/kdump.conf文件,添加如下参数,如果存在则无需添加。 core_collector makedumpfile -d 31 -c -c表示压缩vmcore文件, -d表示过滤掉部分无效的内存数据,可以根据需要调整,一般31即可,31是由如下的值与计算而成。 zero pages = 1 cache pages = 2 cache private = 4 user pages = 8 free pages = 16 执行如下命令重启系统,使以上配置生效。 reboot
  • 操作场景 本节操作介绍atop和kdump的配置方法。 不同的Linux版本使用的atop工具版本不同,因此配置方法稍微有所不同。 配置atop: atop简介 atop安装前准备 CentOS 6系列操作系统配置atop CentOS 7/8、AlmaLinux、 Rocky Linux系列操作系统配置atop Ubuntu 16、Debian8系列操作系统配置atop Ubuntu 18、Debian 9系列操作系统配置atop Ubuntu 20、Debian 10系列操作系统配置atop Ubuntu 22/24系列操作系统配置atop Debian 11/12系列操作系统配置atop SUSE 15、SUSE 12系列操作系统配置atop 使用源码方式安装(适用于CentOS Stream 8/9、openEuler、EulerOS等系列操作系统) 分析atop日志 配置kdump: 配置kdump使用须知 kdump简介 配置kdump操作步骤 检查kdump配置是否生效
  • CentOS 7/8、AlmaLinux、 Rocky Linux系列操作系统配置atop 执行以下命令,安装atop。 yum install -y atop 编辑配置文件,修改采样周期。 vi /etc/default/atop 修改如下配置参数,修改后保存并退出。 LOGINTERVAL默认是600,可以修改成15,单位秒。 默认atop日志保存周期为28天,可以根据实际修改LOGGENERATIONS的值为3,单位为天。 LOGINTERVAL=15 LOGGENERATIONS=3 启动atop服务。 systemctl enable --now atop atopacct atop-rotate.timer 检查是否启动成功,atop atopacct是 active(running)表示运行正常,atop-rotate.timer是active(waiting) 表示运行正常。 systemctl status atop atopacct atop-rotate.timer atop.service - Atop advanced performance monitor Loaded: loaded (/usr/lib/systemd/system/atop.service; enabled; vendor preset: enabled) Active: active (running) atopacct.service - Atop process accounting daemon Loaded: loaded (/usr/lib/systemd/system/atopacct.service; enabled; vendor preset: enabled) Active: active (running) atop-rotate.timer - Daily atop restart Loaded: loaded (/usr/lib/systemd/system/atop-rotate.timer; enabled; vendor preset: enabled) Active: active (waiting) atop运行会占用额外的系统和磁盘资源,您可在问题排查完成后,执行以下命令停止atop。 systemctl disable atop atopacct atop-rotate.timer systemctl stop atop atopacct atop-rotate.timer
  • CentOS 6系列操作系统配置atop 执行以下命令,安装atop。 yum install -y atop 编辑配置文件,修改采样周期。 vi /etc/default/atop 修改如下配置参数,修改后保存并退出。 LOGINTERVAL默认是600,可以修改成15,单位秒。 LOGINTERVAL=15 vi /etc/logrotate.d/atop 修改如下配置参数,修改后保存并退出。 默认atop日志保存周期为40天,可以根据实际修改“-mtime”的值为3,单位为天。 postrotate /usr/bin/find /var/log/atop/ -maxdepth 1 -mount -name atop_\[0-9\]\[0-9\]\[0-9\]\[0-9\]\[0-9\]\[0-9\]\[0-9\]\[0-9\]\* -mtime +3 -exec /bin/rm {} \; endscript 启动atop服务。 service atop start 检查是否启动成功,is running 表示运行正常。 service atop status atop (pid 3170) is running atop运行会占用额外的系统和磁盘资源,您可在问题排查完成后,执行以下命令停止atop。 service atop stop
  • 配置新用户并加入远程桌面用户组 如果配置“多个用户同时登录的多用户登录”,那么在创建完新用户后需要将其加入远程桌面用户组。本小节操作介绍创建新用户并添加用户到远程桌面用户组的操作步骤。 在运行中输入lusrmgr.msc,打开本地用户和组,进行新用户创建。 图15 lusrmgr.msc 单击“用户”,在空白处右键选择新用户。 图16 选择新用户 填写新用户的“用户名”和“密码”信息,单击“创建”。 “密码”和“确认密码”需完全一致。同时,建议您根据业务需要设置密码相关安全性属性。 图17 填写新用户信息 单击“组”,双击打开Remote Desktop Users组,单击“添加”。 图18 Remote Desktop Users组 进入选择用户界面,单击“高级”。 图19 选择用户界面 在新的选择用户界面,单击“立即查找”,在下方搜索结果中选中需要远程登录的用户,并单击“确定”,完成添加,即可远程登录。 图20 选择用户 图21 添加用户 单击“确定”,添加用户到Remote Desktop Users组。 图22 确认成员信息
  • 安装桌面会话主机和远程桌面授权 登录Windows云服务器。 在操作系统界面,单击打开“服务器管理器”,单击“添加角色和功能”。 图1 添加角色和功能 保持默认参数,单击“下一步”,出现如下安装界面,选择“基于角色或基于功能的安装”,单击“下一步”。 图2 添加角色和功能向导 选择“从服务器池中选择服务器”,单击“下一步”。 选择“远程桌面服务”,单击“下一步”。 图3 远程桌面服务 在“功能”页面保持默认参数,单击两次“下一步”。 图4 功能页面 在 “选择角色服务” 界面,依次勾选“远程桌面会话主机”和“远程桌面授权 ”,在弹出的窗口中单击“添加功能”,单击“下一步”。 图5 添加功能 图6 远程桌面授权 确认在云服务器上安装的角色,单击“安装” 。 图7 安装 图8 功能安装 安装完成后,重启服务器。 图9 重启服务器
  • 操作须知 请确保云服务器带宽资源充足,避免由于多用户同时操作负载过高导致云服务器卡顿或登录异常。 所在安全组入方向已开放云服务器登录使用的端口,默认使用3389端口。 云服务器已经绑定弹性公网IP。 配置多用户登录后,不同的用户登录云服务器操作互相之间无影响。 Windows Server 2008版本操作系统安装桌面会话主机和远程桌面授权时操作步骤与Windows Server 2012版本不同,如果您使用的是Windows Server 2008操作系统请参考Windows云服务器如何配置多用户登录?(Windows 2008)。 完成本节操作的配置后可以实现多个用户同时远程登录或同一用户多个远程登录。但是远程桌面授权仅支持120天,过期后将因缺失远程桌面授权服务器许可证而导致多用户登录无法使用。如需激活远程桌面授权请参考申请多用户会话授权的license并激活云服务器。 远程桌面授权仅支持120天,过期后远程连接服务器时会提示“没有远程桌面授权服务器可以提供许可证”,请参考远程连接Windows云服务器云主机报错:没有远程桌面授权服务器可以提供许可证,删除远程桌面服务。 配置多用户登录后,可能会出现多用户登录Windows主机时无法打开浏览器的问题,解决方法请参考多用户登录Windows主机时无法打开浏览器。
  • 方法一:使用ping命令判断访问速度最快的服务器IP地址 以下演示了Windows 2012操作系统、访问www.example.com为例、使用ping命令选择IP地址的示例。 图7 修改hosts文件来优化访问速度 详细的操作步骤如下: 以访问www.example.com为例,在命令行 ping www.example.com,查询ping结果。 图8 回显信息 重复执行多次 ping www.example.com,记录下一条TTL值最小、且稳定的IP地址。 请在ping的过程中执行ipconfig /flushdns刷新DNS解析缓存,否则会持续ping到同一个IP地址。 例如本例中选择的IP地址是93.184.216.34。 修改hosts文件。 打开C:\Windows\System32\drivers\etc\,将之前复制的IP地址以如下方式写入hosts文件末尾。 例如复制的IP地址为93.184.216.34,则将93.184.216.34 www.example.com写入到hosts文件的末尾,保存后关闭。 hosts文件是操作系统的核心文件之一,请根据需要谨慎修改。 建议您备份hosts文件,您可以直接复制粘贴hosts文件生成一个副本。也可以复制hosts文件,将内容备份。 如果hosts文件里写明了DNS解析IP,那么只能使用这个IP解析网站地址。 修改hosts文件后如果再次出现卡顿想要重新替换IP,请先去掉hosts文件里关于网站的配置,然后重复执行本节的操作选取新的IP地址。 重新访问中国大陆外网站,则卡顿或无法访问的问题会有所好转。 修改hosts文件只能优化访问速度,如果重试后问题仍未解决,我们建议您购买“中国-香港”区域的服务器。
  • 方法二:使用Ping检测工具和PingInfoView工具查找访问速度最快的服务器IP地址 您也可以通过修改hosts文件来优化访问速度,具体步骤如下: 使用管理员角色(Administrator)登录您的弹性云服务器。 通过浏览器访问Ping检测工具。我们以http://ping.chinaz.com为例。 输入想要访问的网站,进行Ping检测。我们以访问www.example.com为例,记录检测结果列表中响应时间最低的IP 。 下载PingInfoView,无需安装,解压后运行PingInfoView.exe即可使用。 打开PingInfoView,将通过步骤3获取到的IP地址复制到对应的输入框中,并单击OK。 复制搜索结果中延迟最低的IP地址。 打开C:\Windows\System32\drivers\etc\,将之前复制的IP地址以如下方式写入hosts文件的末尾。 hosts文件是操作系统的核心文件之一,请根据需要谨慎修改。 建议您备份hosts文件,您可以直接复制粘贴hosts文件生成一个副本。也可以复制hosts文件,将内容备份。 如果hosts文件里写明了DNS解析IP,那么只能使用这个IP解析网站地址。 修改hosts文件后如果再次出现卡顿想要重新替换IP,请先去掉hosts文件里关于网站的配置,然后重复执行本节的操作选取新的IP地址。 例如复制的ip地址为99.84.178.238,则将99.84.178.238 www.example.com写入到hosts文件的末尾,保存后关闭。 重新访问中国大陆外网站,则卡顿或无法访问的问题会有所好转。 若问题仍未解决,我们建议您更换中国大陆外区域的弹性云服务器。
  • 检查访问网站的请求是否得到响应 优化访问速度后,请在浏览器中重试打开需要访问的网站地址,如果网站可以正常打开,但仍然存在加载慢的情况,也可能是访问目标服务器存在丢包的情况,可以进一步通过执行ping -t 网站地址确认丢包情况。请参考Ping不通或丢包时如何进行链路测试?。 例如:ping -t www.example.com Windows操作系统也可自行下载安装curl客户端,请单击下载curl客户端,解压后,打开bin文件夹拷贝路径,配置环境变量即可。 如果有响应状态码说明请求已经发送并得到响应,那么推断加载缓慢可能是访问目标服务器丢包等因素导致。 您可以联系客服帮助您检查丢包问题。同时推荐您使用我们云连接服务,访问效果可以有效的改善。详细操作请参考基于云连接服务实现跨区域多VPC互通。
  • 处理方法 重新购买中国大陆外的弹性云服务器,例如“中国-香港”区域的云服务器 从物理距离与网络基础设施等因素考虑方面,如果您有访问中国大陆外网站的需求,我们建议您购买中国大陆外的弹性云服务器。 例如您可以在购买弹性云服务器时选择“中国-香港”区域的弹性云服务器。 图1 选择“中国-香港”区域 优化访问速度 您还可以按照本节的操作步骤优化访问速度。 修改DNS配置 修改hosts文件来优化访问速度 优化访问速度后,您可以进一步通过执行ping -t 网站地址确认丢包情况,详细操作请参考检查访问网站的请求是否得到响应。
  • 修改hosts文件来优化访问速度 选择访问速度最快的服务器,并将其IP地址和 域名 写入hosts文件来优化访问速度。 我们有以下两种方法来判断访问速度最快的服务器IP地址: 使用ping命令判断访问速度最快的服务器IP地址。 具体操作请参考方法一:使用ping命令判断访问速度最快的服务器IP地址。 使用Ping检测工具和PingInfoView工具查找访问速度最快的服务器IP地址。 具体操作请参考方法二:使用Ping检测工具和PingInfoView工具查找访问速度最快的服务器IP地址。
  • 软件包获取地址 软件包名称 软件包说明 获取地址 AscendCloud-6.3.911-xxx.zip 包含 三方大模型训练和推理代码包:AscendCloud-LLM AIGC代码包:AscendCloud-AIGC CV代码包:AscendCloud-CV 算子依赖包:AscendCloud-OPP 获取路径:Support-E,在此路径中查找下载ModelArts 6.3.911 版本。 说明: 如果上述软件获取路径打开后未显示相应的软件信息,说明您没有下载权限,请联系您所在企业的华为方技术支持下载获取。
  • 配套的基础镜像 芯片 镜像地址 获取方式 镜像软件说明 Snt9B PyTorch2.1.0: swr.cn-southwest-2.myhuaweicloud.com/atelier/pytorch_2_1_ascend:pytorch_2.1.0-cann_8.0.rc3-py_3.9-hce_2.0.2409-aarch64-snt9b-20241112192643-c45ac6b PyTorch2.3.1: swr.cn-southwest-2.myhuaweicloud.com/atelier/pytorch_2_3_ascend:pytorch_2.3.1-cann_8.0.rc3-py_3.10-hce_2.0.2409-aarch64-snt9b-20241114095658-d7e26d8 MindSpore: swr.cn-southwest-2.myhuaweicloud.com/atelier/mindspore_2_4_ascend:mindspore_2.4.0-cann_8.0.rc3-py_3.9-hce_2.0.2409-aarch64-snt9b-20241113174059-fcd3700 镜像发布到SWR, region:西南-贵阳一, 从SWR拉取 固件驱动:23.0.6 CANN:cann_8.0.rc3 容器镜像OS:hce_2.0 PyTorch:pytorch_2.1.0、pytorch2.3.1 MindSpore:MindSpore 2.4.0 FrameworkPTAdapter:6.0.RC3 CCE:如果用到CCE,版本要求是 CCE Turbo v1.28及以上 300iDUO PyTorch: swr.cn-southwest-2.myhuaweicloud.com/atelier/pytorch_2_1_ascend:pytorch_2.1.0-cann_8.0.rc3-py_3.9-hce_2.0.2406-aarch64-snt3p-20240906180137-154bd1b 镜像发布到SWR, region:西南-贵阳一, 从SWR拉取 固件驱动: 24.1.rc2.3 CANN:cann_8.0.rc3 容器镜像OS:hce_2.0 PyTorch:pytorch_2.1.0 MindSpore lite: 2.3.0 FrameworkPTAdapter:6.0.RC3
  • 支持的特性 表1 本版本支持的特性说明 分类 软件包特性说明 参考文档 三方大模型,包名:AscendCloud-LLM 支持如下模型适配PyTorch-NPU的训练(ModelLink) llama2-7b llama2-13b llama2-70b qwen-7b qwen-14b qwen-72b baichuan2-13b chatglm3-6b llama3-8b llama3-70b yi-6B yi-34B qwen1.5-7B qwen1.5-14B qwen1.5-32B qwen1.5-72B qwen2-0.5b qwen2-1.5b qwen2-7b qwen2-72b glm4-9b mistral-7b mixtral-8x7b llama3.1-8b llama3.1-70b qwen2.5-0.5b qwen2.5-7b qwen2.5-14b qwen2.5-32b qwen2.5-72b llama3.2-1b llama3.2-3b 支持如下模型适配PyTorch-NPU的训练(LlamaFactory) llama2-7b llama2-13b llama2-70b llama3-8b llama3-70b llama3.1-8b llama3.1-70b qwen1.5-7b qwen1.5-14b qwen1.5-32b qwen1.5-72b yi-6b yi-34b qwen2-0.5b qwen2-1.5b qwen2-7b qwen2-72b qwen2_vl-2b qwen2_vl-7b falcon-11B glm4-9b qwen2.5-0.5b qwen2.5-7b qwen2.5-14b qwen2.5-32b qwen2.5-72b llama3.2-1b llama3.2-3b LLM开源大模型基于DevServer适配ModelLinkPyTorch NPU训练指导 LLM开源大模型基于DevServer适配LLamaFactory PyTorch NPU训练指导 LLM开源大模型基于Standard+OBS适配PyTorch NPU训练指导 LLM开源大模型基于Standard+OBS+SFS适配PyTorch NPU训练指导 LLM开源大模型基于Lite Cluster适配PyTorch NPU训练指导 支持如下模型适配PyTorch-NPU的推理(Ascend-vLLM框架): llama-7B llama-13b llama-65b llama2-7b llama2-13b llama2-70b llama3-8b llama3-70b yi-6b yi-9b yi-34b deepseek-llm-7b deepseek-coder-instruct-33b deepseek-llm-67b qwen-7b qwen-14b qwen-72b qwen1.5-0.5b qwen1.5-7b qwen1.5-1.8b qwen1.5-14b qwen1.5-32b qwen1.5-72b qwen1.5-110b qwen2-0.5b qwen2-1.5b qwen2-7b qwen2-72b qwen2.5-0.5b qwen2.5-1.5b qwen2.5-3b qwen2.5-7b qwen2.5-14b qwen2.5-32b qwen2.5-72b baichuan2-7b baichuan2-13b chatglm2-6b chatglm3-6b glm-4-9b gemma-2b gemma-7b mistral-7b mixtral 8*7B falcon2-11b qwen2-57b-a14b llama3.1-8b llama3.1-70b llama-3.1-405B llama-3.2-1B llama-3.2-3B llava-1.5-7b llava-1.5-13b llava-v1.6-7b llava-v1.6-13b llava-v1.6-34b internvl2-8B internvl2-26B internvl2-40B internVL2-Llama3-76B MiniCPM-v2.6 deepseek-v2-236B deepseek-coder-v2-lite-16B qwen2-vl-2B qwen2-vl-7B qwen2-vl-72B qwen-vl qwen-vl-chat MiniCPM-v2 Ascend-vllm支持如下推理特性: 支持分离部署 支持多机推理 支持大小模型投机推理及eagle投机推理 支持chunked prefill特性 支持automatic prefix caching 支持multi-lora特性 支持W4A16、W8A16和W8A8量化 升级vLLM 0.6.3 说明:具体模型支持的特性请参见大模型推理指导文档 LLM开源大模型基于Lite Server适配PyTorch NPU推理指导 LLM开源大模型基于Standard适配PyTorch NPU推理指导 LLM开源大模型基于Lite Cluster适配PyTorch NPU推理指导 AIGC,包名:AscendCloud-AIGC 支持如下框架或模型基于DevServer的PyTorch NPU推理(PyTorch框架): ComfyUI Diffusers Stable-diffusion-webui Wav2Lip OpenSora1.2 OpenSoraPlan1.0 MiniCPM-V2.6 FLUX.1 Hunyuan-Dit Qwen-VL CogVideoX LLama-VID MiniCPM-V2.0 支持如下框架或模型基于DevServer的PyTorch NPU的训练(PyTorch框架): Qwen-VL Diffusers Kohya_ss Wav2Lip InternVL2 OpenSora1.2 OpenSoraPlan1.0 CogVideoX LLaVA-NeXT LLaVA MiniCPM-V2.0 FLUX.1 Llama-3.2-11b 文生图模型训练推理 文生视频模型训练推理 多模态模型训练推理 数字人模型训练推理 CV,包名:AscendCloud-CV 支持如下模型适配MindSpore Lite的推理: Yolov8 Bert 支持如下模型适配PyTorch NPU的推理: Paraformer 内容审核 模型推理 算子,包名:AscendCloud-OPP Scatter、Gather算子性能提升,满足MoE训练场景 matmul、swiglu、rope等算子性能提升,支持vllm推理场景 支持random随机数算子,优化FFN算子,满足AIGC等场景 支持自定义交叉熵融合算子,满足BMTrain框架训练性能要求 优化PageAttention算子,满足vllm投机推理场景 支持CopyBlocks算子,满足vllm框架beam search解码场景 支持AdvanceStep算子,满足vllm投机推理场景 多个融合算子支持PTA图模式适配,满足AIGC场景 支持两种版本配套算子包(torch2.1.0和python3.9、torch2.3.1和python3.10) 无
  • 支持的特性 表1 本版本支持的特性说明 分类 软件包特性说明 参考文档 三方大模型,包名:AscendCloud-LLM 支持如下模型适配PyTorch-NPU的训练(ModelLink) llama2-7b llama2-13b llama2-70b qwen-7b qwen-14b qwen-72b baichuan2-13b chatglm3-6b llama3-8b llama3-70b yi-6B yi-34B qwen1.5-7B qwen1.5-14B qwen1.5-32B qwen1.5-72B qwen2-0.5b qwen2-1.5b qwen2-7b qwen2-72b glm4-9b mistral-7b mixtral-8x7b llama3.1-8b llama3.1-70b 支持如下模型适配PyTorch-NPU的训练(LlamaFactory) llama2-7b llama2-13b llama2-70b llama3-8b llama3-70b llama3.1-8b llama3.1-70b qwen1.5-0.5b qwen1.5-1.8b qwen1.5-4b qwen1.5-7b qwen1.5-14b yi-6b yi-34b qwen2-0.5b qwen2-1.5b qwen2-7b qwen2-72b qwen2_vl-2b qwen2_vl-7b falcon-11B glm4-9b LLM开源大模型基于DevServer适配ModelLinkPyTorch NPU训练指导 LLM开源大模型基于DevServer适配LLamaFactory PyTorch NPU训练指导 LLM开源大模型基于Standard+OBS适配PyTorch NPU训练指导 LLM开源大模型基于Standard+OBS+SFS适配PyTorch NPU训练指导 LLM开源大模型基于Lite Cluster适配PyTorch NPU训练指导 支持如下模型适配PyTorch-NPU的推理。 llama-7B llama-13b llama-65b llama2-7b llama2-13b llama2-70b llama3-8b llama3-70b yi-6b yi-9b yi-34b deepseek-llm-7b deepseek-coder-instruct-33b deepseek-llm-67b qwen-7b qwen-14b qwen-72b qwen1.5-0.5b qwen1.5-7b qwen1.5-1.8b qwen1.5-14b qwen1.5-32b qwen1.5-72b qwen1.5-110b qwen2-0.5b qwen2-1.5b qwen2-7b qwen2-72b baichuan2-7b baichuan2-13b chatglm2-6b chatglm3-6b glm-4-9b gemma-2b gemma-7b mistral-7b mixtral 8*7B falcon2-11b qwen2-57b-a14b llama3.1-8b llama3.1-70b llama-3.1-405B llava-1.5-7b llava-1.5-13b llava-v1.6-7b llava-v1.6-13b llava-v1.6-34b internvl2-26B MiniCPM-v2.6 deepseek-v2-236B deepseek-coder-v2-lite-16B Ascend-vllm支持如下推理特性: 支持分离部署 支持多机推理 支持大小模型投机推理及eagle投机推理 支持chunked prefill特性 支持automatic prefix caching 支持multi-lora特性 支持W4A16、W8A16和W8A8量化 升级vLLM 0.6.0 LLM开源大模型基于Lite Server适配PyTorch NPU推理指导 LLM开源大模型基于Standard适配PyTorch NPU推理指导 LLM开源大模型基于Lite Cluster适配PyTorch NPU推理指导 AIGC,包名:AscendCloud-AIGC 支持如下框架或模型基于DevServer的PyTorch NPU推理: ComfyUI Diffusers Wav2Lip OpenSora1.2 OpenSoraPlan1.0 MiniCPM-V2.6 FLUX.1 Hunyuan-Dit Qwen-VL 支持如下框架或模型基于DevServer的PyTorch NPU的训练: Qwen-VL Diffusers Kohya_ss Wav2Lip InternVL2 OpenSora1.2 OpenSoraPlan1.0 FLUX.1基于DevServer适配PyTorch NPU推理指导 Hunyuan-DiT基于DevServer部署适配PyTorch NPU推理指导 InternVL2基于DevServer适配PyTorch NPU训练指导 MiniCPM-V2.6基于DevServer适配PyTorch NPU训练指导 Qwen-VL基于DevServer适配PyTorch NPU的Finetune训练指导 Qwen-VL基于DevServer适配PyTorch NPU的推理指导 CV,包名:AscendCloud-CV 支持如下模型适配MindSpore Lite的推理: Yolov8 Yolov8基于DevServer适配MindSpore Lite推理指导 算子,包名:AscendCloud-OPP Scatter、Gather算子性能提升,满足MoE训练场景 matmul、swiglu、rope等算子性能提升,支持vllm推理场景 支持random随机数算子,优化FFN算子,满足AIGC等场景 支持自定义交叉熵融合算子,满足BMTrain框架训练性能要求 优化PageAttention算子,满足vllm投机推理场景 支持CopyBlocks算子,满足vllm框架beam search解码场景 无
  • 软件包获取地址 软件包名称 软件包说明 获取地址 AscendCloud-6.3.909-xxx.zip 包含 三方大模型训练和推理代码包:AscendCloud-LLM AIGC代码包:AscendCloud-AIGC CV代码包:AscendCloud-CV 算子依赖包:AscendCloud-OPP 获取路径:Support-E 说明: 如果上述软件获取路径打开后未显示相应的软件信息,说明您没有下载权限,请联系您所在企业的华为方技术支持下载获取。
  • 配套的基础镜像 芯片 镜像地址 获取方式 镜像软件说明 配套关系 Snt9B 西南-贵阳一 PyTorch: swr.cn-southwest-2.myhuaweicloud.com/atelier/pytorch_2_1_ascend:pytorch_2.1.0-cann_8.0.rc3-py_3.9-hce_2.0.2406-aarch64-snt9b-20240910112800-2a95df3 swr.cn-southwest-2.myhuaweicloud.com/atelier/pytorch_2_2_ascend:pytorch_2.2.0-cann_8.0.rc3-py_3.10-hce_2.0.2406-aarch64-snt9b-20240910150953-6faa0ed 镜像发布到SWR,从SWR拉取 固件驱动:23.0.6 CANN:cann_8.0.rc3 容器镜像OS:hce_2.0 PyTorch:pytorch_2.1.0、pytorch_2.2.0 MindSpore:MindSpore 2.3.0 FrameworkPTAdapter:6.0.RC3 如果用到CCE,版本要求是CCE Turbo v1.28及以上 300iDUO 西南-贵阳一 PyTorch: swr.cn-southwest-2.myhuaweicloud.com/atelier/pytorch_2_1_ascend:pytorch_2.1.0-cann_8.0.rc3-py_3.9-hce_2.0.2406-aarch64-snt3p-20240906180137-154bd1b 镜像发布到SWR,从SWR拉取 固件驱动: 24.1.rc2.3 CANN:cann_8.0.rc3 容器镜像OS:hce_2.0 PyTorch:pytorch_2.1.0 MindSpore lite: 2.3.0 FrameworkPTAdapter:6.0.RC3 -
  • 软件包获取地址 软件包名称 软件包说明 获取地址 AscendCloud-6.3.912-xxx.zip 包含 三方大模型训练和推理代码包:AscendCloud-LLM AIGC代码包:AscendCloud-AIGC CV代码包:AscendCloud-CV 算子依赖包:AscendCloud-OPP 获取路径:Support-E,在此路径中查找下载ModelArts 6.3.912 版本。 说明: 如果上述软件获取路径打开后未显示相应的软件信息,说明您没有下载权限,请联系您所在企业的华为方技术支持下载获取。
  • 支持的特性 表1 本版本支持的特性说明 分类 软件包特性说明 参考文档 三方大模型,包名:AscendCloud-LLM 支持如下模型适配PyTorch-NPU的训练(ModelLink) llama2-7b llama2-13b llama2-70b qwen-7b qwen-14b qwen-72b baichuan2-13b chatglm3-6b llama3-8b llama3-70b yi-6B yi-34B qwen1.5-7B qwen1.5-14B qwen1.5-32B qwen1.5-72B qwen2-0.5b qwen2-1.5b qwen2-7b qwen2-72b glm4-9b mistral-7b llama3.1-8b llama3.1-70b qwen2.5-0.5b qwen2.5-7b qwen2.5-14b qwen2.5-32b qwen2.5-72b llama3.2-1b llama3.2-3b 支持如下模型适配PyTorch-NPU的训练(LlamaFactory) llama2-7b llama2-13b llama2-70b llama3-8b llama3-70b llama3.1-8b llama3.1-70b qwen1.5-7b qwen1.5-14b qwen1.5-32b qwen1.5-72b yi-6b yi-34b qwen2-0.5b qwen2-1.5b qwen2-7b qwen2-72b qwen2_vl-2b qwen2_vl-7b qwen2_vl-72b falcon-11B glm4-9b qwen2.5-0.5b qwen2.5-7b qwen2.5-14b qwen2.5-32b qwen2.5-72b llama3.2-1b llama3.2-3b LLM开源大模型基于DevServer适配ModelLinkPyTorch NPU训练指导 LLM开源大模型基于DevServer适配LLamaFactory PyTorch NPU训练指导 LLM开源大模型基于Standard+OBS适配PyTorch NPU训练指导 LLM开源大模型基于Standard+OBS+SFS适配PyTorch NPU训练指导 LLM开源大模型基于Lite Cluster适配PyTorch NPU训练指导 支持如下模型适配PyTorch-NPU的推理(Ascend-vLLM框架): llama-7B llama-13b llama-65b llama2-7b llama2-13b llama2-70b llama3-8b llama3-70b yi-6b yi-9b yi-34b deepseek-llm-7b deepseek-coder-instruct-33b deepseek-llm-67b qwen-7b qwen-14b qwen-72b qwen1.5-0.5b qwen1.5-7b qwen1.5-1.8b qwen1.5-14b qwen1.5-32b qwen1.5-72b qwen1.5-110b qwen2-0.5b qwen2-1.5b qwen2-7b qwen2-72b qwen2.5-0.5b qwen2.5-1.5b qwen2.5-3b qwen2.5-7b qwen2.5-14b qwen2.5-32b qwen2.5-72b baichuan2-7b baichuan2-13b chatglm2-6b chatglm3-6b glm-4-9b gemma-2b gemma-7b mistral-7b mixtral 8*7B falcon2-11b qwen2-57b-a14b llama3.1-8b llama3.1-70b llama-3.1-405B llama-3.2-1B llama-3.2-3B llava-1.5-7b llava-1.5-13b llava-v1.6-7b llava-v1.6-13b llava-v1.6-34b internvl2-8B internvl2-26B internvl2-40B internVL2-Llama3-76B MiniCPM-v2.6 deepseek-v2-236B deepseek-coder-v2-lite-16B qwen2-vl-2B qwen2-vl-7B qwen2-vl-72B qwen-vl qwen-vl-chat MiniCPM-v2 gte-Qwen2-7B-instruct llava-onevision-qwen2-0.5b-ov-hf llava-onevision-qwen2-7b-ov-hf Ascend-vllm支持如下推理特性: 支持分离部署 支持多机推理 支持大小模型投机推理及eagle投机推理 支持chunked prefill特性 支持automatic prefix caching 支持multi-lora特性 支持W4A16、W8A16和W8A8量化 升级vLLM 0.6.3 支持流水线并行 说明:具体模型支持的特性请参见大模型推理指导文档 LLM开源大模型基于Lite Server适配PyTorch NPU推理指导 LLM开源大模型基于Standard适配PyTorch NPU推理指导 LLM开源大模型基于Lite Cluster适配PyTorch NPU推理指导 AIGC,包名:AscendCloud-AIGC 支持如下框架或模型基于PyTorch NPU推理(PyTorch框架): ComfyUI Diffusers Wav2Lip OpenSora1.2 OpenSoraPlan1.0 FLUX.1 Hunyuan-Dit Qwen-VL CogVideoX LLama-VID MiniCPM-V2.0 SD3 SD3.5 支持如下框架或模型基于PyTorch NPU的训练(PyTorch框架): Qwen-VL Diffusers Kohya_ss Wav2Lip InternVL2 OpenSora1.2 OpenSoraPlan1.0 CogVideoX LLaVA-NeXT LLaVA MiniCPM-V2.0 FLUX.1 Llama-3.2-11b CogVideoX1.5 5b MiniCPM-V2.6 文生图模型训练推理 文生视频模型训练推理 多模态模型训练推理 数字人模型训练推理 CV,包名:AscendCloud-CV 支持如下模型适配MindSpore Lite的推理: Yolov8 Bert 支持如下模型适配PyTorch NPU的推理: Paraformer 内容审核模型推理 算子,包名:AscendCloud-OPP Scatter、Gather算子性能提升,满足MoE训练场景 matmul、swiglu、rope等算子性能提升,支持vllm推理场景 支持random随机数算子,优化FFN算子,满足AIGC等场景 支持自定义交叉熵融合算子,满足BMTrain框架训练性能要求 优化PageAttention算子,满足vllm投机推理场景 支持CopyBlocks算子,满足vllm框架beam search解码场景 支持AdvanceStep算子,满足vllm投机推理场景 多个融合算子支持PTA图模式适配,满足AIGC场景 支持两种版本配套算子包(torch2.1.0和python3.9、torch2.3.1和python3.10) 无
共100000条
提示

您即将访问非华为云网站,请注意账号财产安全