[快速入门]矢量模型与栅格模型
盘古NLP大模型

行业研发助手 政企会议助手 文档学习成长 盘古大模型 盘古大模型 什么是盘古大模型 盘古NLP大模型能力规格 盘古大模型快速入门 如何调用盘古大模型API 查看全部 AI Gallery百模千态社区 AI Gallery百模千态社区 优质昇腾云AI模型专区 几行代码自由部署AI应用

大模型混合云

域,赋能产业转型升级。 福田区政数局同行 福田区携手华为云基于盘古政务大模型,深化“三个一网”(一网通办、一网统管、一网协同)建设,系统提升了城市治理网格化、标准化、智能化水平。 了解详情 山东能源集团同行 山东能源集团携手华为,打造业界首个矿山大模型,当前已在兴隆庄煤矿、济

盘古预测大模型

要性等结果辅助分析能力 文档学习成长 盘古大模型 盘古大模型 什么是盘古大模型 盘古预测大模型能力规格 盘古大模型快速入门 如何调用盘古大模型API 查看全部 AI Gallery百模千态社区 AI Gallery百模千态社区 优质昇腾云AI模型专区 几行代码自由部署AI应用

盘古大模型 panguLM

《中国政务大模型及应用技术评估,2024》报告,华为云盘古政务大模型模型平台、模型微调、模型能力、内容安全四项技术领域以及服务能力生态合作,共计六项评估指标取得满分。 文档学习成长 盘古大模型 盘古大模型 什么是盘古大模型 盘古NLP大模型能力规格 盘古大模型快速入门 如何调用盘古大模型API

盘古行业大模型

以上数据集均使用了 \\boxed 指令控制模型输出,通过严格的 rule-based verifier 精确判定模型输出结果的正误 文档学习成长 盘古大模型 盘古大模型 什么是盘古大模型 盘古NLP大模型能力规格 盘古大模型快速入门 如何调用盘古大模型API 查看全部 AI Gallery百模千态社区

盘古多模态大模型

生成,提升制作效率创意灵活性。 互动娱乐 智能驾驶 广告营销 文旅宣传 影视制作 客户案例 盘古多模态大模型一起 加速智能创作,极致效率创新,拥抱无尽创意 万兴科技 万兴科技华为云达成战略合作,共同推进AI大模型的技术和应用创新。以华为云盘古多模态大模型为基座,持续优化万兴天幕音视频大模型2

盘古科学计算大模型

速度快 气象大模型单卡可推,分钟级预报,提速百倍 多种部署形态 支持公有云、混合云、边缘多种形态,满足不同需求 文档学习成长 盘古大模型 盘古大模型 什么是盘古大模型 盘古科学计算大模型能力规格 盘古大模型用户指南 如何调用盘古大模型API 查看全部 AI Gallery百模千态社区

ModelArts Studio大模型开发平台

支持盘古NLP、CV、多模态、预测、科学计算五大基础模型能力,支持三方大模型(预置DeepSeek R1/V3、Qwen3系列模型)的推理部署 提供行业服务 提供行业服务 面向金融、政务、医疗、电力等行业,基于盘古基础模型和专业领域数据训练行业大模型,助力企业场景应用高效落地 高性能、低成本 高性能、低成本

大模型安全护栏 ModelArts Guard

可信模块测试,成为业界首个在大模型可信领域获得卓越级(5级)评分的大模型产品。 据悉,盘古安全护栏四道防线的综合拦截率超过90%,能够为企业大模型提供坚实的保障。未来,华为云将持续致力于AI技术行业实践深度融合,护航大模型技术的创新发展,为企业用户提供更加可信的人工智能解决方案,让企业创新安心无忧。

[相关产品]矢量模型与栅格模型
模型制作服务

全新的智慧讲解体验,将丰富展区虚拟内容历史事件的全息再现,打造全国第一家智慧全息讲解纪念馆。模型制作服务Model making service,创新了全新的智慧讲解体验,将丰富展区虚拟内容历史事件的全息再现,打造智慧全息讲解纪念馆。借助虚实融合的技术,全面提升手机用户在参观

同元协同建模与模型数据管理软件

同设计;2.系统模型数据散落于个人计算机上,缺乏统一管理,难以共享和重用;3.系统模型数据具有面向对象等结构化特点,使得传统基于文件的PDM/SDM/SCM系统无法满足系统模型数据的协同设计管理需求。 MWorks.Syslink为基于模型的系统工程环境中的模型、数据及相关工件

智慧监控AI模型

智慧监控AI模型综合集成了人脸识别模型、安全帽识别模型、口罩佩戴识别模型、车牌识别模型、车辆占道识别模型5种AI模型。一,人脸识别服务 人脸识别模型目前提供授权认证、模型加载、人脸注册、人脸识别、人脸删除、特征提取六个接口服务。 授权认证:需先进行授权认证,才能够正常使用人脸识别服务;

模型咨询服务

,帮助品牌方提高模型的适应性和预测能力 购买说明品牌方需商家评估项目所需人天数量,然后按人天进行购买结合品牌方业务特点,引入业内先进的技术和方法论,为品牌方的模型应用提供定制的解决方案

序列猴子大模型

通用API•通用数据•通用模型通用API接口,快速、稳定云服务-专属API+专属CoPilot•企业专有数据•通用模型构建向量数据库云服务-专属模型API•企业专有数据•企业私有模型私有化数据,训练专属模型私有化-初阶模型•企业专有数据•通用模型通用模型+CoPilot的私有化部

AI大模型 算法备案

《互联网信息服务算法推荐管理规定》明确,具有舆论属性或者社会动员能力的算法推荐服务提供者应当在提供服务之日起十个工作日内通过互联网信息服务算法备案系统填报服务提供者的名称、服务形式、应用领域、算法类型、算法自评估报告、拟公示内容等信息  方便

盘古大模型专家服务

注&撰写根据大模型微调数据标注规范,通过配套工具进行数据标注。 八、数据转换导入 完成数据格式的转换,可进行跨网络环境的数据导入。 九、调优方案设计 根据大模型训练及调优工具和平台,输出大模型调优方案。 十、模型训练实施1. 基于大模型训练所需的云服务,完成大模型训练及微调。2

超图禹贡空间数据库管理系统(HCS版)

扩展的模块包括: postgis:数据库适配的 PostGIS 矢量模块postgis_raster:数据库适配的 PostGIS 栅格模块postgis_sfcgal:数据库适配的 PostGIS 三维算法相关模块yukon_geomodel:Yukon自有的三维模型数据模块yukon_

超图禹贡空间数据库管理系统(HCS)

扩展的模块包括:postgis:数据库适配的 PostGIS 矢量模块postgis_raster:数据库适配的 PostGIS 栅格模块postgis_sfcgal:数据库适配的 PostGIS 三维算法相关模块yukon_geomodel:Yukon自有的三维模型数据模块yukon_

[相似文章]矢量模型与栅格模型
ModelArts模型训练_模型训练简介_如何训练模型

华为云ModelArts助力AI开发平台—ModelArts SDK打通本地IDE云端训练资源 【手摸手学ModelArts】两行命令获取ModelArts正版实战教程 【我ModelArts的故事】使用ModelArts搭建"人脸颜值评分"服务 我ModelArts的故事 查看更多 收起

GaussDB数据库模型_GaussDB是什么_高斯数据库模型

器上,且该弹性云服务器GaussDB实例处于同一区域,同一VPC时,建议单独使用内网IP连接弹性云服务器GaussDB实例。 公网连接 不能通过内网IP地址访问GaussDB实例时,使用公网访问,建议单独绑定弹性公网IP连接弹性云服务器(或公网主机)GaussDB实例。 收起

华为云盘古大模型_华为云AI大模型_盘古人工智能

的解决科学计算问题。 了解详情 盘古大模型客户案例 客户一起构建合作共赢的AI生态体系,加速AI应用落地,华为云向客户提供培训、技术、营销和销售的全面支持。 美图 华为云美图围绕影像产品及解决方案设计、AIGC创新应用等领域深度推进合作,打造互联网行业多模态场景服务,提供便捷、高效、高质的影像创作解决方案。

TMS地图服务_企业TMS系统_仓储TMS系统_数据采集

用户无需具备专业知识就能够轻松上手,同时平台也提供了丰富的帮助文档和社区支持,能够为用户提供及时的帮助和解决问题。 除了地图易外,云商店还有哪些类似产品? 云商店还有以下TMS相关的商品:爻览 全场景MR导览定制开发服务,数据地图 SaaS版,阿帕TMS运输管理系统,晶湖科技GIS云平台系统。 地图易的服务商是哪家公司?

DeepSeek-R1蒸馏模型部署及体验

-Qwen-32B。 这些DeepSeek模型在多项能力上OpenAI的o1-mini相当,为开发者提供了强大的AI能力。 在MaaS平台上,DeepSeek-R1蒸馏模型已经部署上线,开发者可以通过在线体验或API调用来使用这些模型。为了帮助开发者快速验证和开发创新的AI应用

云数据库如何选购?

合理评估业务发展进度,提前做好云服务资源采购计划,把钱花在刀刃上,避免云资源业务不匹配的调整带来额外成本 云数据库选购需要考虑哪些因素? 合理评估业务发展进度,提前做好云服务资源采购计划,把钱花在刀刃上,避免云资源业务不匹配的调整带来额外成本 影响因素 选择建议 服务商选择 选择靠谱的服务供应商

华为云CodeArts API_API设计支持公共模型

模板,以此加快开发进程并确保响应信息的标准化。 每项公共响应的文档页面均详尽展示了所有引用该响应的API列表,便于维护升级,从而提升了整个API生态的协同效率信息管理的清晰度。 公共参数 在API设计环节中,公共请求参数扮演着基础而灵活的角色,支持配置于“query”(查询字

ModelArts推理部署_OBS导入_模型包规范-华为云

t_analysis(预测分析)等。 model_type:模型AI引擎,表明模型使用的计算框架,支持常用AI框架和“Image”。 runtime:模型运行时环境,系统默认使用python2.7。runtime可选值model_type相关,当model_type设置为Ima

ModelArts推理部署_模型_AI应用来源-华为云

器学习模型构建,开发者可以使用Workflow开发生产流水线。基于MLOps的概念,Workflow会提供运行记录、监控、持续运行等功能。根据角色的分工概念,产品上将工作流的开发和持续迭代分开。 Workflow(也称工作流)本质是开发者基于实际业务场景开发用于部署模型或应用的

矢量模型与栅格模型

方案概览

VAD (Vectorized Scene Representation for Efficient Autonomous Driving) 是一种面向自动驾驶的端到端矢量化范式,将驾驶场景建模为完全矢量化的表征。该矢量化范式具有两大显著优势:一方面,VAD利用矢量化的智能体运动轨迹和地图元素作为显式的实例级规划约束,有效提升了规划安全性;另一方面,通过摒弃计算密集的栅格化表征和人工设计的后处理步骤,VAD的运行速度显著快于先前的端到端规划方法。VAD在nuScenes数据集上取得了最先进的端到端规划性能,较先前最佳方法有显著提升。

本方案介绍了在 ModelArts Lite Server上使用昇腾计算资源 Ascend Snt9B 或 Ascend Snt9B23 开展VAD模型的训练过程。

资源规格要求

推荐使用“西南-贵阳一”Region上的Lite Server资源。

表1 环境要求

名称

版本

NPU卡数

Ascend Snt9B:8卡,

Ascend Snt9B23:8卡 或 16卡

Driver

Ascend Snt9B:24.1.0.6,

Ascend Snt9B23:24.1.RC3.5

PyTorch

PyTorch-2.1.0

获取软件和 镜像

表2 获取软件和镜像

分类

名称

获取路径

插件代码包

AscendCloud-ACD-6.5.905-xxx.zip

文件名中的xxx表示具体的时间戳,以包名发布的实际时间为准。

获取路径:Support-E,在此路径中查找下载ModelArts 6.5.905版本。

说明:

如果上述软件获取路径打开后未显示相应的软件信息,说明您没有下载权限,请联系您所在企业的华为方技术支持下载获取。

Snt9B 基础镜像包

swr.cn-southwest-2.myhuaweicloud.com/atelier/pytorch_2_1_ascend:pytorch_2.1.0-cann_8.1.rc1-py_3.10-hce_2.0.2503-aarch64-snt9b-20250513111215-29295f8

SWR 上拉取。

Snt9B23 基础镜像包

swr.cn-southwest-2.myhuaweicloud.com/atelier/pytorch_2_1_ascend:pytorch_2.1.0-cann_8.1.rc1-py_3.10-hce_2.0.2503-aarch64-snt9b23-20250509115535-21587eb

SWR上拉取。

约束限制

  • 本文档适配昇腾云ModelArts 6.5.905版本,请参考表2 获取软件和镜像获取配套版本的软件包和镜像,请严格遵照版本配套关系使用本文档。
  • 确保容器可以访问公网。

步骤一:检查环境

  1. 请参考Lite Server资源开通,购买Lite Server资源,并确保机器已开通,密码已获取,能通过SSH登录,不同机器之间网络互通。

    购买Lite Server资源时如果无可选资源规格,需要联系华为云技术支持申请开通。

    当容器需要提供服务给多个用户,或者多个用户共享使用该容器时,应限制容器访问Openstack的管理地址(169.254.169.254),以防止容器获取宿主机的元数据。具体操作请参见禁止容器获取宿主机元数据

  2. SSH登录机器后,检查NPU卡状态。运行如下命令,返回NPU设备信息。
    npu-smi info                    # 在每个实例节点上运行此命令可以看到NPU卡状态

    如出现错误,可能是机器上的NPU设备没有正常安装,或者NPU镜像被其他容器挂载。请先正常安装固件和驱动,或释放被挂载的NPU。

  3. 检查是否安装docker。
    docker -v   #检查docker是否安装

    如尚未安装,运行以下命令安装docker。

    yum install -y docker-engine.aarch64 docker-engine-selinux.noarch docker-runc.aarch64
  4. 配置IP转发,用于容器内的网络访问。执行以下命令查看net.ipv4.ip_forward配置项的值,如果为1,可跳过此步骤。
    sysctl -p | grep net.ipv4.ip_forward
    如果net.ipv4.ip_forward配置项的值不为1,执行以下命令配置IP转发。
    sed -i 's/net\.ipv4\.ip_forward=0/net\.ipv4\.ip_forward=1/g' /etc/sysctl.confsysctl -p | grep net.ipv4.ip_forward

步骤二:下载镜像并启动容器

  1. 获取基础镜像。建议使用官方提供的镜像部署推理服务。镜像地址{image_url}参见表2 获取软件和镜像
    docker pull {image_url}
  2. 启动 容器镜像 。启动前请先按照参数说明修改${}中的参数。可以根据实际需要增加修改参数。
    export work_dir="自定义挂载的工作目录"  export container_work_dir="自定义挂载到容器内的工作目录"  export container_name="自定义容器名称"  export image_name="镜像名称"  docker run -itd \   -u root \   --device=/dev/davinci0 \   --device=/dev/davinci1 \   --device=/dev/davinci2 \   --device=/dev/davinci3 \   --device=/dev/davinci4 \   --device=/dev/davinci5 \   --device=/dev/davinci6 \   --device=/dev/davinci7 \   --device=/dev/davinci8 \   --device=/dev/davinci9 \   --device=/dev/davinci10 \   --device=/dev/davinci11 \   --device=/dev/davinci12 \   --device=/dev/davinci13 \   --device=/dev/davinci14 \   --device=/dev/davinci15 \   --device=/dev/davinci_manager \   --device=/dev/devmm_svm \   --device=/dev/hisi_hdc \   -v /usr/local/sbin/npu-smi:/usr/local/sbin/npu-smi \   -v /usr/local/dcmi:/usr/local/dcmi \   -v /etc/ascend_install.info:/etc/ascend_install.info \   -v /sys/fs/cgroup:/sys/fs/cgroup:ro \   -v /usr/local/Ascend/driver:/usr/local/Ascend/driver \   -v /usr/bin/hccn_tool:/usr/bin/hccn_tool \   -v /etc/hccn.conf:/etc/hccn.conf \   --shm-size 1024g \   --net=host \   -v ${work_dir}:${container_work_dir} \   --name ${container_name} \   $image_name \   /bin/bash

    参数说明:

    • -v ${work_dir}:${container_work_dir}:代表需要在容器中挂载宿主机的目录。宿主机和容器使用不同的文件系统。为方便两个地址可以相同。例如“/home/vad:/home/vad ”

      ${work_dir}为宿主机中工作目录,目录下可存放项目所需代码、数据等文件。请确保容器内用户对此路径有足够的访问权限。

      ${container_work_dir}为要挂载到的容器中的目录。

    • --name ${container_name} 容器名称,进入容器时会用到,此处可以自己定义一个容器名称,例如“vad_test”。
    • --device=/dev/davinci0 :挂载对应卡到容器,请按照机器实际需要使用到的NPU数量来配置,上面给出的是使用16卡NPU训练的例子。
      • 请确保容器内用户对${work_dir}有足够的访问权限。
      • ${container_work_dir}不能为/home/ma-user目录,此目录为ma-user用户家目录。
      • driver及npu-smi需同时挂载至容器。
      • 不要将多个容器绑到同一个NPU上,会导致后续的容器无法正常使用NPU功能。
  3. 进入容器。
    docker exec -u root -it ${container_name} bash

步骤三:容器内训练环境准备

  1. 创建新的虚拟环境
    conda create -n vad --clone PyTorch-2.1.0conda activate vad
  2. 创建项目目录
    mkdir -p /home/vad/projectcd /home/vad/projectexport P_HOME=`pwd`
  3. 将获取到的插件代码包AscendCloud-ACD-6.5.905-*.zip文件上传到容器的${P_HOME}目录下,并解压。
    cd $P_HOMEunzip -q AscendCloud-ACD-6.5.905-*.zip    # 解压905自动驾驶相关版本包cd AscendCloud*mv models/VAD $P_HOME/VAD_support
  4. 创建patches目录,并将patch文件移入目录
    cd $P_HOME mkdir patches && cd patches export PATCH_HOME=`pwd` mv $P_HOME/VAD_support/*.patch .    # 将patch相关文件移动到此文件夹
  5. 安装 DrivingSDK
    cd $P_HOME git clone https://gitee.com/ascend/DrivingSDK.git -b master cd DrivingSDK git checkout 059ec6e170152170c407e595e09e0823e44f4ba8 pip3 install -r requirements.txt vim CMakePresets.json    # 修改 "ENABLE_ONNX"选项: 为False umask 0027    # 保证文件权限正确 bash ci/build.sh --python=3.10    # 按照镜像内python版本指定 pip3 install ./dist/mx_driving-1.0.0+git059ec6e-cp310-cp310-linux_aarch64.whl pip3 show mx-driving # Version: 1.0.0+git059ec6e
  6. 安装MindSpeed
    cd $P_HOME git clone https://gitee.com/ascend/MindSpeed.git cd MindSpeed git checkout c3f2f77f58efba69dd21840fcbb758645fa5b579 pip3 install -e . pip3 show mindspeed # Version: 0.9.0
  7. 安装mmcv-full 1.x
    # 卸载镜像内原有的mmcv pip3 uninstall mmcv -y  cd $P_HOME git clone https://github.com/open-mmlab/mmcv.git cd mmcv git checkout 1d8f9285674f2b1f9f2d7758d3f945ebb74fcf82 git apply $PATCH_HOME/mmcv.patch MMCV_WITH_OPS=1 FORCE_NPU=1 python setup.py build_ext MMCV_WITH_OPS=1 FORCE_NPU=1 python setup.py develop pip3 show mmcv-full # Version: 1.7.2
  8. 安装 mmdet3d v1.0.0rc6
    cd $P_HOME git clone https://github.com/open-mmlab/mmdetection3d.git cd mmdetection3d git checkout 47285b3f1e9dba358e98fcd12e523cfd0769c876 git apply $PATCH_HOME/mmdet3d.patch pip3 install -e . pip3 show mmdet3d # Version: 1.0.0rc6
  9. 安装其它依赖
    pip3 install mmdet==2.28.2 mmsegmentation==0.30.0 timm==1.0.9 nuscenes-devkit==1.1.11 similaritymeasures==1.2.0 numpy==1.23.4
  10. 下载模型代码,将插件代码包内的scripts文件夹移动到模型代码目录
    cd $P_HOME git clone https://github.com/hustvl/VAD.git cd VAD export VAD_HOME=`pwd` git checkout 081473d6e1756a4ecee95425c05fc6644d17bb5f git apply $PATCH_HOME/vad.patchmv $P_HOME/VAD_support/scripts .    # 将scripts文件夹移动到此目录

步骤四:准备训练数据集和模型权重

  1. 请参考GitHub项目内数据处理部分的文档下载 nuScenes V1.0 full 和 CAN bus 数据集。
  2. 创建data目录并将下载的数据集做预处理。
    cd $VAD_HOMEmkdir data && cd data# 将下载好的数据集移动到此目录下并解压# 对数据集做预处理cd $VAD_HOMEpython tools/data_converter/vad_nuscenes_converter.py nuscenes --root-path ./data/nuscenes --out-dir ./data/nuscenes --extra-tag vad_nuscenes --version v1.0 --canbus ./data
    • 数据处理耗时较长。
  3. 下载预训练模型权重。
    cd $VAD_HOMEmkdir ckpts && cd ckpts   wget https://download.pytorch.org/models/resnet50-19c8e357.pth
    最终目录结构如下。
    VAD ├── projects/ ├── tools/ ├── configs/ ├── ckpts/ │   ├── resnet50-19c8e357.pth ├── data/ │   ├── can_bus/ │   ├── nuscenes/ │   │   ├── lidarseg/ │   │   ├── maps/ │   │   ├── samples/ │   │   ├── sweeps/ │   │   ├── v1.0-test/ │   │   ├── v1.0-trainval/ │   │   ├── vad_nuscenes_infos_temporal_train.pkl    # 由数据预处理生成│   │   ├── vad_nuscenes_infos_temporal_val.pkl      # 由数据预处理生成

步骤五:开始训练与评估

  • 进行8卡训练(精度)
    cd $VAD_HOMEsh scripts/start_train.sh
  • 进行8卡训练(性能)
    cd $VAD_HOMENPUS=8 MODE=performance sh scripts/start_train.sh
  • 进行16卡训练(性能)
    cd $VAD_HOMENPUS=16 MODE=performance sh scripts/start_train.sh
  • 进行1卡评估
    cd $VAD_HOME# 使用上次训练的最后一个模型做评估 sh scripts/start_evl.sh # 指定模型做评估 MODEL_PATH="to/model/path.pt" sh scripts/start_evl.sh
  • 输出结果路径
    # 训练结果目录$VAD_HOME/scripts/output# 评估结果目录$VAD_HOME/scripts/evl_result
    • 当前模型训练和评估需要单独进行,无法在训练过程中进行评估。
    • 请勿自行修改配置文件内Batch_Size的值。
    • 当前只能进行单卡评估,多卡会影响评估结果准确性。
    • 如果想使用预训练模型进行评估需要参照项目官网修改配置文件,具体细节可以参考:https://github.com/hustvl/VAD/blob/main/docs/train_eval.md

矢量模型与栅格模型常见问题

更多常见问题 >>
  • 模型转换,即将开源框架的网络模型(如Caffe、TensorFlow等),通过ATC(Ascend Tensor Compiler)模型转换工具,将其转换成昇腾AI处理器支持的离线模型。

  • 本课程主要介绍如何让TensorFlow脚本运行在昇腾910处理器上,并进行精度、性能等方面的调优。通过对教材的解读,使学员能够结合教材+实践,迁移自己的训练脚本到昇腾平台上进行训练。

  • 本课程主要介绍如何将第三方框架训练出来的模型转换成昇腾专用模型,并进行调优。

  • ModelArts模型训练旨在提升开发者模型训练的开发效率及训练性能。提供了可视化作业管理、资源管理、版本管理等功能,基于机器学习算法及强化学习的模型训练自动超参调优;预置和调优常用模型,简化模型开发和全流程训练管理。

  • 云日志服务常见问题-日志搜索与查看类的问题解决。

  • GaussDB是华为自主创新研发的分布式关系型数据库。具备企业级复杂事务混合负载能力,同时支持分布式事务,同城跨AZ部署,数据0丢失,支持1000+节点的扩展能力,PB级海量存储。