[快速入门]球棍模型矢量图
盘古NLP大模型

718B深度思考模型 高效训推 覆盖全链路的训推工具 负载均衡 多维度负载均衡策略 安全防护 支持模型加密与模型混淆保护 盘古NLP大模型系列 模型规格说明 训练和部署盘古系列模型、三方开源模型请登录 ModelArts Studio控制台 盘古NLP大模型系列 模型规格说明 训练和部署盘古系列模型、三方开源模型请登录

大模型混合云

业,快速孵化大模型场景化应用 大模型混合云十大创新技术 大模型混合云十大创新技术 了解详情 十大创新技术 加速构建企业专属大模型 十大创新技术 加速构建企业专属大模型 围绕企业大模型构建关键过程,聚焦根技术,为AI原生系统性创新 围绕企业大模型构建关键过程,聚焦根技术,为AI原生系统性创新

盘古预测大模型

果辅助分析能力 文档与学习成长 盘古大模型 盘古大模型 什么是盘古大模型 盘古预测大模型能力与规格 盘古大模型快速入门 如何调用盘古大模型API 查看全部 AI Gallery百模千态社区 AI Gallery百模千态社区 优质昇腾云AI模型专区 几行代码自由部署AI应用 丰富多样的AI训练数据集

盘古大模型 panguLM

盘古大模型 PanguLargeModels 盘古大模型 PanguLargeModels 盘古大模型是面向B端行业的大模型,包含L0中5类基础大模型、L1行业大模型及L2场景模型三层架构 盘古大模型是面向B端行业的大模型,包含L0中5类基础大模型、L1行业大模型及L2场景模型三层架构

盘古多模态大模型

生成的大模型,为其端到端仿真高效迭代提供强有力支撑。 文档与学习成长 盘古大模型 盘古大模型 什么是盘古大模型 盘古多模态大模型能力与规格 用户指南 如何调用盘古大模型API 查看全部 AI Gallery百模千态社区 AI Gallery百模千态社区 优质昇腾云AI模型专区 几行代码自由部署AI应用

盘古行业大模型

盘古行业大模型 盘古行业大模型 盘古行业大模型化解行业数据构建难、模型效果调优难、场景能力评测难三大难题,助力行业客户更快、更优构建专业大模型 盘古行业大模型化解行业数据构建难、模型效果调优难、场景能力评测难三大难题,助力行业客户更快、更优构建专业大模型 专家咨询 ModelArts

盘古科学计算大模型

全球模型 提供高精度的全球模型,无需定制和训练,直接订阅即可推理 多种部署形态 支持公有云、混合云、边缘多种形态,满足不同需求 文档与学习成长 盘古大模型 盘古大模型 什么是盘古大模型 盘古科学计算大模型能力与规格 盘古大模型用户指南 如何调用盘古大模型API 查看全部 AI Gallery百模千态社区

ModelArts Studio大模型开发平台

多语种内容审核,平台全面保护 一站式大模型开发平台 一站式大模型开发平台 ModelArts Studio大模型开发平台是集数据管理、模型训练、模型部署于一体的综合平台,专为开发和应用大模型而设计,旨在为开发者提供简单、高效的大模型开发和部署方式 为什么选择大模型开发平台ModelArts Studio

大模型安全护栏 ModelArts Guard

模型安全护栏 ModelArts Guard 大模型安全护栏 ModelArts Guard 大模型安全护栏(ModelArts Guard),做配套大模型的内容安全防线 大模型安全护栏(ModelArts Guard),做配套大模型的安全防线,开放兼容,适用盘古大模型和三方大模型

[相关产品]球棍模型矢量图
模型制作服务

全新的智慧讲解体验,将丰富展区虚拟内容与历史事件的全息再现,打造全国第一家智慧全息讲解纪念馆。模型制作服务Model making service,创新了全新的智慧讲解体验,将丰富展区虚拟内容与历史事件的全息再现,打造智慧全息讲解纪念馆。借助虚实融合的技术,全面提升手机用户在参观

智慧监控AI模型

智慧监控AI模型综合集成了人脸识别模型、安全帽识别模型、口罩佩戴识别模型、车牌识别模型、车辆占道识别模型5种AI模型。一,人脸识别服务 人脸识别模型目前提供授权认证、模型加载、人脸注册、人脸识别、人脸删除、特征提取六个接口服务。 授权认证:需先进行授权认证,才能够正常使用人脸识别服务;

模型咨询服务

性,为销量预测模型提供可靠的数据支持3、指导品牌方利用模型正确输出预测结果。详细讲解销量预测模型的输出原理和方法,让品牌方掌握正确输出及解读预测结果的技巧4、指导品牌方对模型调优,以提高模型预测准确度。指导品牌方进行模型参数调整、数据更新和算法优化等工作,传授模型调优的方法和技巧

盘古大模型专家服务

. 模型更新后,将新模型部署至相应环境。 十一、模型评测1. 设计模型评测方案,对大模型各类指标进行评测。2. 能够按评测标准对大模型各项能力进行打分,输出大模型评测报告。 十二、Agent开发1. 基于场景,设计并开发Agent工具。2. 基于langchain等大模型框架,完

序列猴子大模型

通用API•通用数据•通用模型通用API接口,快速、稳定云服务-专属API+专属CoPilot•企业专有数据•通用模型构建向量数据库云服务-专属模型API•企业专有数据•企业私有模型私有化数据,训练专属模型私有化-初阶模型•企业专有数据•通用模型通用模型+CoPilot的私有化部

AI大模型 算法备案

《互联网信息服务算法推荐管理规定》明确,具有舆论属性或者社会动员能力的算法推荐服务提供者应当在提供服务之日起十个工作日内通过互联网信息服务算法备案系统填报服务提供者的名称、服务形式、应用领域、算法类型、算法自评估报告、拟公示内容等信息  方便

企业级AI模型开发

云坞网络专注于利用先进的AI云计算、大数据和人工智能技术,为企业提供卓越的ChatGPT行业解决方案。帮助企业快速实现数字化、智能化和绿色化转型。 系统定制开发:我们可以为客户提供系统的定制开发服务,帮助客户实现更多的个性化功能和业务流程需求。,数据迁移:我们帮助客户将现有系统的

AI大模型专业服务

质量。4. 模型训练:· 设计调优方案,实施模型训练,并进行模型评测。· 熟悉盘古大模型工作流和云服务操作,确保模型效果优化。5. 应用工程:· 提供基于大模型能力的Agent开发和应用对接服务。· 具备良好的软件开发和沟通能力,实现大模型与应用的无缝对接。6. 模型运维:·  

虎博大模型-70b

虎博大模型(TigerBot) 是一个多语言多任务的大规模语言模型(LLM),它可以处理和生成自然语言文本。  应用于知识检索、内容创作、机器翻译、智能客服、教育辅助、智能问答系统等领域,优于Llama-2-70b,达到业内SOTA,大语言模型(LLM),处理和生成自然语言文本

[相似文章]球棍模型矢量图
ModelArts模型训练_模型训练简介_如何训练模型

ModelArts模型训练 ModelArts模型训练简介 ModelArts模型训练,俗称“建模”,指通过分析手段、方法和技巧对准备好的数据进行探索分析,从中发现因果关系、内部联系和业务规律,为商业目的提供决策参考。训练模型的结果通常是一个或多个机器学习或深度学习模型模型可以应用到新的数据中,得到预测、评价等结果。

GaussDB数据库模型_GaussDB是什么_高斯数据库模型

份恢复,监控告警等关键能力,能为企业提供功能全面,稳定可靠,扩展性强,性能优越的企业级数据库服务。 立即购买 控制台 GaussDB数据库模型 了解云数据库 GaussDB 超高可用 支持跨机房、同城、异地、多活高可用,支持分布式强一致,数据0丢失 支持跨机房、同城、异地、多活高可用,支持分布式强一致,数据0丢失

华为云盘古大模型_华为云AI大模型_盘古人工智能

华为云盘古大模型 华为云盘古大模型 AI for Industries 大模型重塑千行百业 AI for Industries 大模型重塑千行百业 盘古大模型致力于深耕行业,打造金融、政务、制造、矿山、气象、铁路等领域行业大模型和能力集,将行业知识know-how与大模型能力相结合

DeepSeek-R1蒸馏模型部署及体验

DeepSeek-R1蒸馏模型部署及体验 DeepSeek-R1蒸馏模型部署及体验 在MaaS平台上,DeepSeek-R1蒸馏模型已经部署上线,开发者可以通过在线体验或API调用来使用这些模型。开发者可以在MaaS平台上轻松部署和使用这些模型,以满足不同场景下的需求。 在Maa

华为云CodeArts API_API设计支持公共模型

护。 安全模型 安全模型提供“http”、“apikey”、“oauth2”、“openIdConnect”四种类型。选择不同类型的安全模型后,需要在方案内容中填写必要的配置信息,然后用于API设计中“安全方案”的引用。此外,每个安全模型的文档页面展示了所有引用该模型的API清单,便于后期维护。

ModelArts推理部署_模型_AI应用来源-华为云

BS,从OBS导入模型创建为AI应用。 制作模型包,则需要符合一定的模型包规范。模型包里面必需包含“model”文件夹,“model”文件夹下面放置模型文件,模型配置文件,模型推理代码文件。 模型包结构示例(以TensorFlow模型包结构为例) 发布该模型时只需要指定到“ocr”目录。

ModelArts推理部署_OBS导入_模型包规范-华为云

模型包规范 ModelArts推理部署,模型包里面必需包含“model”文件夹,“model”文件夹下面放置模型文件,模型配置文件,模型推理代码文件。 • 模型文件:在不同模型包结构中模型文件的要求不同,具体请参见模型包结构示例。 • 模型配置文件:模型配置文件必需存在,文件名固定为“config

安全云脑_自定义告警模型-华为云

智能建模”,进入智能建模的可用模型页面。 5、在可用模型列表左上角单击新建模型,进入新建告警模型页面。 6、在新增告警模型页面中,配置告警模型基础信息。 告警模型基础配置参数说明: 参数名称 参数说明 管道名称 选择该告警模型的执行管道。 模型名称 自定义该条告警模型的名称。 严重程度 设

ModelArts模型训练_超参搜索简介_超参搜索算法

ModelArts训练中新增了超参搜索功能,自动实现模型超参搜索,为您的模型匹配最优的超参。ModelArts支持的超参搜索功能,在无需算法工程师介入的情况下,即可自动进行超参的调优,在速度和精度上超过人工调优。 ModelArts训练中新增了超参搜索功能,自动实现模型超参搜索,为您的模型匹配最优的超参。Mod

球棍模型矢量图

方案概览

VAD (Vectorized Scene Representation for Efficient Autonomous Driving) 是一种面向自动驾驶的端到端矢量化范式,将驾驶场景建模为完全矢量化的表征。该矢量化范式具有两大显著优势:一方面,VAD利用矢量化的智能体运动轨迹和地图元素作为显式的实例级规划约束,有效提升了规划安全性;另一方面,通过摒弃计算密集的栅格化表征和人工设计的后处理步骤,VAD的运行速度显著快于先前的端到端规划方法。VAD在nuScenes数据集上取得了最先进的端到端规划性能,较先前最佳方法有显著提升。

本方案介绍了在 ModelArts Lite Server上使用昇腾计算资源 Ascend Snt9B 或 Ascend Snt9B23 开展VAD模型的训练过程。

资源规格要求

推荐使用“西南-贵阳一”Region上的Lite Server资源。

表1 环境要求

名称

版本

NPU卡数

Ascend Snt9B:8卡,

Ascend Snt9B23:8卡 或 16卡

Driver

Ascend Snt9B:24.1.0.6,

Ascend Snt9B23:24.1.RC3.5

PyTorch

PyTorch-2.1.0

获取软件和 镜像

表2 获取软件和镜像

分类

名称

获取路径

插件代码包

AscendCloud-ACD-6.5.905-xxx.zip

文件名中的xxx表示具体的时间戳,以包名发布的实际时间为准。

获取路径:Support-E,在此路径中查找下载ModelArts 6.5.905版本。

说明:

如果上述软件获取路径打开后未显示相应的软件信息,说明您没有下载权限,请联系您所在企业的华为方技术支持下载获取。

Snt9B 基础镜像包

swr.cn-southwest-2.myhuaweicloud.com/atelier/pytorch_2_1_ascend:pytorch_2.1.0-cann_8.1.rc1-py_3.10-hce_2.0.2503-aarch64-snt9b-20250513111215-29295f8

SWR 上拉取。

Snt9B23 基础镜像包

swr.cn-southwest-2.myhuaweicloud.com/atelier/pytorch_2_1_ascend:pytorch_2.1.0-cann_8.1.rc1-py_3.10-hce_2.0.2503-aarch64-snt9b23-20250509115535-21587eb

SWR上拉取。

约束限制

  • 本文档适配昇腾云ModelArts 6.5.905版本,请参考表2 获取软件和镜像获取配套版本的软件包和镜像,请严格遵照版本配套关系使用本文档。
  • 确保容器可以访问公网。

步骤一:检查环境

  1. 请参考Lite Server资源开通,购买Lite Server资源,并确保机器已开通,密码已获取,能通过SSH登录,不同机器之间网络互通。

    购买Lite Server资源时如果无可选资源规格,需要联系华为云技术支持申请开通。

    当容器需要提供服务给多个用户,或者多个用户共享使用该容器时,应限制容器访问Openstack的管理地址(169.254.169.254),以防止容器获取宿主机的元数据。具体操作请参见禁止容器获取宿主机元数据

  2. SSH登录机器后,检查NPU卡状态。运行如下命令,返回NPU设备信息。
    npu-smi info                    # 在每个实例节点上运行此命令可以看到NPU卡状态

    如出现错误,可能是机器上的NPU设备没有正常安装,或者NPU镜像被其他容器挂载。请先正常安装固件和驱动,或释放被挂载的NPU。

  3. 检查是否安装docker。
    docker -v   #检查docker是否安装

    如尚未安装,运行以下命令安装docker。

    yum install -y docker-engine.aarch64 docker-engine-selinux.noarch docker-runc.aarch64
  4. 配置IP转发,用于容器内的网络访问。执行以下命令查看net.ipv4.ip_forward配置项的值,如果为1,可跳过此步骤。
    sysctl -p | grep net.ipv4.ip_forward
    如果net.ipv4.ip_forward配置项的值不为1,执行以下命令配置IP转发。
    sed -i 's/net\.ipv4\.ip_forward=0/net\.ipv4\.ip_forward=1/g' /etc/sysctl.conf
    sysctl -p | grep net.ipv4.ip_forward

步骤二:下载镜像并启动容器

  1. 获取基础镜像。建议使用官方提供的镜像部署推理服务。镜像地址{image_url}参见表2 获取软件和镜像
    docker pull {image_url}
  2. 启动 容器镜像 。启动前请先按照参数说明修改${}中的参数。可以根据实际需要增加修改参数。
    export work_dir="自定义挂载的工作目录"  
    export container_work_dir="自定义挂载到容器内的工作目录"  
    export container_name="自定义容器名称"  
    export image_name="镜像名称"  
    docker run -itd \
       -u root \
       --device=/dev/davinci0 \
       --device=/dev/davinci1 \
       --device=/dev/davinci2 \
       --device=/dev/davinci3 \
       --device=/dev/davinci4 \
       --device=/dev/davinci5 \
       --device=/dev/davinci6 \
       --device=/dev/davinci7 \
       --device=/dev/davinci8 \
       --device=/dev/davinci9 \
       --device=/dev/davinci10 \
       --device=/dev/davinci11 \
       --device=/dev/davinci12 \
       --device=/dev/davinci13 \
       --device=/dev/davinci14 \
       --device=/dev/davinci15 \
       --device=/dev/davinci_manager \
       --device=/dev/devmm_svm \
       --device=/dev/hisi_hdc \
       -v /usr/local/sbin/npu-smi:/usr/local/sbin/npu-smi \
       -v /usr/local/dcmi:/usr/local/dcmi \
       -v /etc/ascend_install.info:/etc/ascend_install.info \
       -v /sys/fs/cgroup:/sys/fs/cgroup:ro \
       -v /usr/local/Ascend/driver:/usr/local/Ascend/driver \
       -v /usr/bin/hccn_tool:/usr/bin/hccn_tool \
       -v /etc/hccn.conf:/etc/hccn.conf \
       --shm-size 1024g \
       --net=host \
       -v ${work_dir}:${container_work_dir} \
       --name ${container_name} \
       $image_name \
       /bin/bash

    参数说明:

    • -v ${work_dir}:${container_work_dir}:代表需要在容器中挂载宿主机的目录。宿主机和容器使用不同的文件系统。为方便两个地址可以相同。例如“/home/vad:/home/vad ”

      ${work_dir}为宿主机中工作目录,目录下可存放项目所需代码、数据等文件。请确保容器内用户对此路径有足够的访问权限。

      ${container_work_dir}为要挂载到的容器中的目录。

    • --name ${container_name} 容器名称,进入容器时会用到,此处可以自己定义一个容器名称,例如“vad_test”。
    • --device=/dev/davinci0 :挂载对应卡到容器,请按照机器实际需要使用到的NPU数量来配置,上面给出的是使用16卡NPU训练的例子。
      • 请确保容器内用户对${work_dir}有足够的访问权限。
      • ${container_work_dir}不能为/home/ma-user目录,此目录为ma-user用户家目录。
      • driver及npu-smi需同时挂载至容器。
      • 不要将多个容器绑到同一个NPU上,会导致后续的容器无法正常使用NPU功能。
  3. 进入容器。
    docker exec -u root -it ${container_name} bash

步骤三:容器内训练环境准备

  1. 创建新的虚拟环境
    conda create -n vad --clone PyTorch-2.1.0
    conda activate vad
  2. 创建项目目录
    mkdir -p /home/vad/project
    cd /home/vad/project
    export P_HOME=`pwd`
  3. 将获取到的插件代码包AscendCloud-ACD-6.5.905-*.zip文件上传到容器的${P_HOME}目录下,并解压。
    cd $P_HOME
    unzip -q AscendCloud-ACD-6.5.905-*.zip    # 解压905自动驾驶相关版本包
    cd AscendCloud*
    mv models/VAD $P_HOME/VAD_support
  4. 创建patches目录,并将patch文件移入目录
    cd $P_HOME 
    mkdir patches && cd patches 
    export PATCH_HOME=`pwd` 
    mv $P_HOME/VAD_support/*.patch .    # 将patch相关文件移动到此文件夹
  5. 安装 DrivingSDK
    cd $P_HOME 
    git clone https://gitee.com/ascend/DrivingSDK.git -b master 
    cd DrivingSDK 
    git checkout 059ec6e170152170c407e595e09e0823e44f4ba8 
    pip3 install -r requirements.txt 
    vim CMakePresets.json    # 修改 "ENABLE_ONNX"选项: 为False 
    umask 0027    # 保证文件权限正确 
    bash ci/build.sh --python=3.10    # 按照镜像内python版本指定 
    pip3 install ./dist/mx_driving-1.0.0+git059ec6e-cp310-cp310-linux_aarch64.whl 
    pip3 show mx-driving 
    # Version: 1.0.0+git059ec6e
  6. 安装MindSpeed
    cd $P_HOME 
    git clone https://gitee.com/ascend/MindSpeed.git 
    cd MindSpeed 
    git checkout c3f2f77f58efba69dd21840fcbb758645fa5b579 
    pip3 install -e . 
    pip3 show mindspeed 
    # Version: 0.9.0
  7. 安装mmcv-full 1.x
    # 卸载镜像内原有的mmcv 
    pip3 uninstall mmcv -y  
    
    cd $P_HOME 
    git clone https://github.com/open-mmlab/mmcv.git 
    cd mmcv 
    git checkout 1d8f9285674f2b1f9f2d7758d3f945ebb74fcf82 
    git apply $PATCH_HOME/mmcv.patch 
    MMCV_WITH_OPS=1 FORCE_NPU=1 python setup.py build_ext 
    MMCV_WITH_OPS=1 FORCE_NPU=1 python setup.py develop 
    pip3 show mmcv-full 
    # Version: 1.7.2
  8. 安装 mmdet3d v1.0.0rc6
    cd $P_HOME 
    git clone https://github.com/open-mmlab/mmdetection3d.git 
    cd mmdetection3d 
    git checkout 47285b3f1e9dba358e98fcd12e523cfd0769c876 
    git apply $PATCH_HOME/mmdet3d.patch 
    pip3 install -e . 
    pip3 show mmdet3d 
    # Version: 1.0.0rc6
  9. 安装其它依赖
    pip3 install mmdet==2.28.2 mmsegmentation==0.30.0 timm==1.0.9 nuscenes-devkit==1.1.11 similaritymeasures==1.2.0 numpy==1.23.4
  10. 下载模型代码,将插件代码包内的scripts文件夹移动到模型代码目录
    cd $P_HOME 
    git clone https://github.com/hustvl/VAD.git 
    cd VAD 
    export VAD_HOME=`pwd` 
    git checkout 081473d6e1756a4ecee95425c05fc6644d17bb5f 
    git apply $PATCH_HOME/vad.patch
    mv $P_HOME/VAD_support/scripts .    # 将scripts文件夹移动到此目录

步骤四:准备训练数据集和模型权重

  1. 请参考GitHub项目内数据处理部分的文档下载 nuScenes V1.0 full 和 CAN bus 数据集。
  2. 创建data目录并将下载的数据集做预处理。
    cd $VAD_HOME
    mkdir data && cd data
    # 将下载好的数据集移动到此目录下并解压
    
    # 对数据集做预处理
    cd $VAD_HOME
    python tools/data_converter/vad_nuscenes_converter.py nuscenes --root-path ./data/nuscenes --out-dir ./data/nuscenes --extra-tag vad_nuscenes --version v1.0 --canbus ./data
    • 数据处理耗时较长。
  3. 下载预训练模型权重。
    cd $VAD_HOME
    mkdir ckpts && cd ckpts   
    wget https://download.pytorch.org/models/resnet50-19c8e357.pth
    最终目录结构如下。
    VAD 
    ├── projects/ 
    ├── tools/ 
    ├── configs/ 
    ├── ckpts/ 
    │   ├── resnet50-19c8e357.pth 
    ├── data/ 
    │   ├── can_bus/ 
    │   ├── nuscenes/ 
    │   │   ├── lidarseg/ 
    │   │   ├── maps/ 
    │   │   ├── samples/ 
    │   │   ├── sweeps/ 
    │   │   ├── v1.0-test/ 
    │   │   ├── v1.0-trainval/ 
    │   │   ├── vad_nuscenes_infos_temporal_train.pkl    # 由数据预处理生成
    │   │   ├── vad_nuscenes_infos_temporal_val.pkl      # 由数据预处理生成

步骤五:开始训练与评估

  • 进行8卡训练(精度)
    cd $VAD_HOME
    sh scripts/start_train.sh
  • 进行8卡训练(性能)
    cd $VAD_HOME
    NPUS=8 MODE=performance sh scripts/start_train.sh
  • 进行16卡训练(性能)
    cd $VAD_HOME
    NPUS=16 MODE=performance sh scripts/start_train.sh
  • 进行1卡评估
    cd $VAD_HOME
    # 使用上次训练的最后一个模型做评估 
    sh scripts/start_evl.sh 
    # 指定模型做评估 
    MODEL_PATH="to/model/path.pt" sh scripts/start_evl.sh
  • 输出结果路径
    # 训练结果目录
    $VAD_HOME/scripts/output
    # 评估结果目录
    $VAD_HOME/scripts/evl_result
    • 当前模型训练和评估需要单独进行,无法在训练过程中进行评估。
    • 请勿自行修改配置文件内Batch_Size的值。
    • 当前只能进行单卡评估,多卡会影响评估结果准确性。
    • 如果想使用预训练模型进行评估需要参照项目官网修改配置文件,具体细节可以参考:https://github.com/hustvl/VAD/blob/main/docs/train_eval.md

球棍模型矢量图常见问题

更多常见问题 >>
  • 模型转换,即将开源框架的网络模型(如Caffe、TensorFlow等),通过ATC(Ascend Tensor Compiler)模型转换工具,将其转换成昇腾AI处理器支持的离线模型。

  • ModelArts模型训练旨在提升开发者模型训练的开发效率及训练性能。提供了可视化作业管理、资源管理、版本管理等功能,基于机器学习算法及强化学习的模型训练自动超参调优;预置和调优常用模型,简化模型开发和全流程训练管理。

  • GaussDB是华为自主创新研发的分布式关系型数据库。具备企业级复杂事务混合负载能力,同时支持分布式事务,同城跨AZ部署,数据0丢失,支持1000+节点的扩展能力,PB级海量存储。

  • 逻辑模型和物理模型的对比介绍。

  • SFS的常见问题解答。

  • 包年包月镜像是基于按需镜像包装出的预付费套餐,一个包年包月镜像同一时间只能用于一台云服务器。包年包月镜像支持续费,在到期前用户可以选择续费继续使用。如果到期不对镜像续费,而云服务器继续使用,请在到期前及时更换系统,否则镜像将以按需的方式开始计费。