云服务器内容精选

  • 在科大讯飞构建同名技能后,导入技能文件 执行本操作前,需要在科大讯飞平台完成账号注册操作。 访问科大讯飞的AIUI开放平台。 单击界面上方的“技能工作室”。进入“技能控制台”页面,如图7所示。 图7 技能控制台 单击“创建技能”,弹出如图8所示的对话框。 参数配置说明,如下所示: 技能名称:技能名称。必须与MetaStudio服务创建的技能一一对应,如6所示。为方便识别和记忆,两边的技能名称可以设置成一样的。 技能标识:需要与MetaStudio服务新能技能的“技能标识”一致,如6所示。 图8 创建技能 输入完成后,单击“创建”。 界面提示“创建成功”,并自动跳转至“意图”页面,如图9所示。 图9 意图页面 单击“批量操作”,从下拉框中选择“批量覆盖”,在弹出的确定对话框中,单击“确定覆盖”。 从本地选择MetaStudio服务中导出的技能文件,如10所示。界面提示“批量覆盖成功”,效果如图10所示。 图10 意图页面 单击界面右上方的“构建技能”,开始构建技能。 界面提示“构建成功”,说明技能构建成功。 在左侧导航栏中,单击“发布”。进入“发布”页面,如图11所示。 图11 发布页面 确认信息无误后,单击“发布上线”。 界面提示“发布成功”,说明技能发布完成。
  • Step3 训练Wav2Lip模型 准备预训练模型。下载需要使用的预训练模型。 人脸检测预训练模型,下载链接。 专家唇形同步鉴别器,下载链接 ,此链接是官方提供的预训练模型。训练Wav2Lip模型时需要使用专家唇形同步鉴别器,用户可以用自己的数据训练,也可以直接使用官方提供的预训练模型。 处理初始视频数据集。 将下载好的人脸检测预训练模型上传到/home/ma-user/Wav2Lip/face_detection/detection/sfd/s3fd.pth目录。 下载LRS2数据集。数据集文件夹结构如下: ├── LRS2_partly | ├── main | │ ├── five-digit numbered video IDs ending with (.mp4) | │ ├── 00001.mp4 | │ ├── 00002.mp4 对数据集进行预处理。具体命令如下。 python preprocess.py --data_root ./LRS2_partly --preprocessed_root lrs2_preprocessed/ data_root参数为原始视频根目录,preprocessed_root参数为处理后生成的数据集目录。 处理后数据目录如下所示。 preprocessed_root (lrs2_preprocessed) ├── main | ├── Folders with five-digit numbered video IDs(00001) | │ ├── *.jpg | │ ├── audio.wav | ├── 00001 | │ ├── *.jpg | │ ├── audio.wav 将LRS2文件列表中的.txt文件(train、val)放入该filelists文件夹中。 图3 filelists文件夹 train.txt和val.txt内容参考如下,为处理后视频数据的目录名字。 图4 train.txt和val.txt内容 训练专家唇形同步鉴别器。 如果使用LRS2数据集,可选择跳过此步骤。如果使用自己的数据集,训练命令参考如下。 python color_syncnet_train.py --data_root ./lrs2_preprocessed/main/ --checkpoint_dir ./savedmodel/syncnet_model/ --checkpoint_path ./checkpoints/lipsync_expert.pth 参数说明: --data_root :处理后的视频数据目录,与train.txt内容拼接后得到单个数据目录,例如:lrs2_preprocessed/main/00001。 --checkpoint_dir :此目录用于保存模型。 -checkpoint_path :(可选)可基于此目录的lipsync_expert模型继续进行训练,如果重新训练则不需要此参数。 默认每10000 step保存一次模型。 训练Wav2Lip模型。 训练Wav2Lip模型时需要使用专家唇形同步鉴别器。可以使用上一步3中的训练结果,也可以直接下载官方提供的预训练权重来使用。 具体训练命令如下。 python wav2lip_train.py --data_root ./lrs2_preprocessed/main/ --checkpoint_dir ./savedmodel --syncnet_checkpoint_path ./checkpoints/lipsync_expert.pth --checkpoint_path ./checkpoints/wav2lip.pth 参数说明: --data_root :处理后的视频数据目录,与train.txt内容拼接后得到单个数据目录,例如:lrs2_preprocessed/main/00001。 --checkpoint_dir :此目录用于保存模型。 --syncnet_checkpoint_path :专家鉴别器的目录。 --checkpoint_path :(可选)可基于此目录的Wav2Lip模型继续进行训练,如果重新训练则不需要此参数。 默认每3000 step保存一次模型。 专家鉴别器的评估损失应降至约 0.25,Wav2Lip评估同步损失应降至约 0.2,以获得良好的结果。
  • 常见问题 如果训练时遇到报错ImportError: /usr/lib64/libc.so.6: version `GLIBC_2.34' not found,是由于编译Python的glibc环境版本过旧导致,建议重新安装python。 重新安装python命令如下。 # 输入如下命令,待conda界面准备完成后输入y,等待自动下载安装 conda create --name py310 python=3.10 参数说明: --name:该参数为新环境名字,可以自定义一个,此处以py310举例。 python=新环境Python版本 # 完成后输入如下命令激活新环境 conda activate py310 激活新conda环境后控制台显示(py310)即为切换成功,如下图所示。 图5 激活新conda环境
  • Step1 准备环境 请参考DevServer资源开通,购买DevServer资源,并确保机器已开通,密码已获取,能通过SSH登录,不同机器之间网络互通。 购买DevServer资源时如果无可选资源规格,需要联系华为云技术支持申请开通。 当容器需要提供服务给多个用户,或者多个用户共享使用该容器时,应限制容器访问Openstack的管理地址(169.254.169.254),以防止容器获取宿主机的元数据。具体操作请参见禁止容器获取宿主机元数据。 检查环境。 SSH登录机器后,检查NPU设备检查。运行如下命令,返回NPU设备信息。 npu-smi info 如出现错误,可能是机器上的NPU设备没有正常安装,或者NPU镜像被其他容器挂载。请先正常安装NPU设备和驱动,或释放被挂载的NPU。 检查docker是否安装。 docker -v #检查docker是否安装 如尚未安装,运行以下命令安装docker。 yum install -y docker-engine.aarch64 docker-engine-selinux.noarch docker-runc.aarch64 配置IP转发,用于容器内的网络访问。执行以下命令查看net.ipv4.ip_forward配置项的值,如果为1,可跳过此步骤。 sysctl -p | grep net.ipv4.ip_forward 如果net.ipv4.ip_forward配置项的值不为1,执行以下命令配置IP转发。 sed -i 's/net\.ipv4\.ip_forward=0/net\.ipv4\.ip_forward=1/g' /etc/sysctl.conf sysctl -p | grep net.ipv4.ip_forward 获取基础镜像。建议使用官方提供的镜像部署推理服务。 镜像地址{image_url}为: 西南-贵阳一:swr.cn-southwest-2.myhuaweicloud.com/atelier/pytorch_2_1_ascend:pytorch_2.1.0-cann_7.0.0-py_3.9-hce_2.0.2312-aarch64-snt9b-20240312154948-219655b docker pull ${image_url} 启动容器镜像。启动前请先按照参数说明修改${}中的参数。可以根据实际需要增加修改参数。 export work_dir="自定义挂载的工作目录" export container_work_dir="自定义挂载到容器内的工作目录" export container_name="自定义容器名称" export image_name="swr.cn-southwest-2.myhuaweicloud.com/atelier/pytorch_2_1_ascend:pytorch_2.1.0-cann_7.0.0-py_3.9-hce_2.0.2312-aarch64-snt9b-20240312154948-219655b" // 启动一个容器去运行镜像 docker run -itd \ --device=/dev/davinci0 \ --device=/dev/davinci_manager \ --device=/dev/devmm_svm \ --device=/dev/hisi_hdc \ -v /usr/local/bin/npu-smi:/usr/local/bin/npu-smi \ -v /usr/local/dcmi:/usr/local/dcmi \ -v /etc/ascend_install.info:/etc/ascend_install.info \ -v /sys/fs/cgroup:/sys/fs/cgroup:ro \ -v /usr/local/Ascend/driver:/usr/local/Ascend/driver \ --shm-size 32g \ --net=bridge \ -v ${work_dir}:${container_work_dir} \ --name ${container_name} \ ${image_name} bash 参数说明: --name ${container_name} 容器名称,进入容器时会用到,此处可以自己定义一个容器名称。 -v ${work_dir}:${container_work_dir} 代表需要在容器中挂载宿主机的目录。宿主机和容器使用不同的文件系统。work_dir为宿主机中工作目录,目录下存放着训练所需代码、数据等文件。container_work_dir为要挂载到的容器中的目录。为方便两个地址可以相同。 ${image_name} 代表 ${image_name}。 通过容器名称进入容器中。 docker exec -it ${container_name} bash
  • Step2 安装依赖和软件包 Python版本要求3.10,如果不满足的话,建议更新容器的conda环境的Python版本。 # 输入如下命令,待conda界面准备完成后输入y,等待自动下载安装 conda create --name py310 python=3.10 参数说明: --name:该参数为新环境名字,可以自定义一个,此处以py310举例。 python=新环境Python版本 # 完成后输入如下命令激活新环境 conda activate py310 激活新conda环境后控制台显示(py310)即为切换成功,如下图所示。 图1 激活新conda环境 从github拉取Wav2Lip代码。 cd /home/ma-user git clone https://github.com/Rudrabha/Wav2Lip.git 如果出现报错SSL certificate problem: self signed certificate in certificate chain 图2 报错SSL certificate problem 可采取忽略SSL证书验证:使用以下命令来克隆仓库,它将忽略SSL证书验证。 git clone -c http.sslVerify=false https://github.com/Rudrabha/Wav2Lip.git 安装Wav2Lip Ascend软件包。 将获取到的Wav2Lip Ascend软件包asscendcloud-aigc-*.tar.gz文件上传到容器的/home/ma-user/Wav2Lip目录下。获取路径:Support网站。 解压asscendcloud-aigc-*.tar.gz文件,解压后将里面文件与对应Wave2Lip文件进行替换。 cd /home/ma-user/Wav2Lip tar -zxvf asscendcloud-aigc-6.3.902-*.tar.gz tar -zxvf asscendcloud-aigc-poc-Wav2Lip_Ascend.tar.gz mv Wav2Lip_code/* ./ rm -rf asscendcloud-aigc-* Wav2Lip_code/ asscendcloud-aigc-6.3.902-*.tar.gz后面的*表示时间戳,请按照实际替换。 要替换的文件目录结构如下所示: |---Wav2Lip_code/ --- color_syncnet_train.py #训练expert discriminator唇形同步鉴别器 --- inference.py #推理代码,可以与任意音频或视频进行口型同步 --- preprocess.py #对初始视频数据进行推理 --- read.txt #关于包版本兼容问题的一些处理方案 --- requirements.txt #建议的依赖包版本 --- wav2lip_train.py #训练 Wav2Lip 模型 安装Python依赖包,文件为requirements.txt文件。 pip install -r requirements.txt 由于librosa、numba、llvmlite包的版本兼容问题,会出现报错ModuleNotFoundError: No module named 'numba.decorators'。 此时进入Python包librosa安装位置,打开文件site-packages/librosa/util/decorators.py,修改文件如下: import warnings from decorator import decorator import six #注释此行 #from numba.decorators import jit as optional_jit #修改此行如下 #__all__ = ['moved', 'deprecated', 'optional_jit'] __all__ = ['moved', 'deprecated']
  • 模板创建 模板创建时有以下几种创建方式: 从菜单栏制作视频触发(已存在模板时,不会触发) 直接进入模板管理页面进行触发 制作视频触发模板创建 首次进入face平台,未创建视频模板时,单击菜单栏中的“播报型业务-制作视频”,就会触发以下弹窗提示 图5 触发模板创建1 单击弹窗中的“去创建模板”,跳转到新建模板页面,可以选择形象、背景、音色、语速等参数,参数配置完成后,单击右侧“保存”按钮进行模板创建 图6 触发模板创建2 模板管理 进入播报型业务中的模板管理,进入模板管理页面,单击页面右上角的“新建模板”,进行模板创建 图7 模板管理1 进入新建模板页面后,可以选择形象、背景、音色、语速等参数,参数配置完成后,单击右侧“保存”按钮进行模板创建 图8 模板管理2 视频管理页面触发模板创建 不存在模板时,进入播报型业务-视频管理页面,单击页面右上角的“制作视频”按钮,触发创建模板提示框;单击提示框中的“去创建模板”,进入新建模板页面,选择参数进行模板创建,该步骤与上述描述一致 图9 模板创建1 环境中已存在模板时,单击视频管理页面中右上角的“制作视频”,进入制作视频页面,可单击页面左下角的“去创建模板”按钮,跳转到新建模板页面,进行模板创建 图10 模板创建2 视频模板编辑 进入播报型业务-模板管理页面,选择视频模板进行编辑 图11 视频模板编辑1 鼠标放置在需编辑模板卡片上,触发模板详情,单击“编辑”按钮,进入修改模板页面,可以重新选择参数,对模板进行编辑 图12 视频模板编辑2
  • 配置应用 在界面上方的主菜单中,单击“我的应用”。 单击新增应用所在行的图标,进入“应用配置”页面。 图9 应用配置页面 配置“自然语言模型”,从下拉框中选择“星火交互认知大模型”。 单击“管理技能配置”,弹出“配置应用需要的技能”对话框,如图10所示。 需要依次打开如下开关: 在“自定义”区域,找到创建的技能。先开启开关,再单击右下角的开关,在弹出的“技能设置”对话框中,选择需要使用的技能版本。 此时,应用已具备基础的对话能力,可以回答已配置的语料内容。 开启问答库(示例:robot)。问答库的创建操作,请参考(可选)创建问答库。 图10 配置应用需要的技能 单击右上方的“保存配置”。界面提示“保存成功”,回到“应用配置”页面。 单击界面右上方的“保存修改”。界面提示“保存成功”,说明应用配置完成。
  • (可选)创建问答库 星火交互认知大模型应用,支持创建问答库。非必须创建,请根据实际情况选择使用。 在界面上方的主菜单中,单击“技能工作室”。 选择“我的问答库”页签,单击“创建问答库”。 弹出“创建问答库”对话框,如图3所示。参数设置说明如下所示: 问答类型:选择“文档问答”。 问答库名称:请自定义名称,示例:robot。 图3 创建问答库 单击“创建”,进入“知识基本信息”页面,如图4所示。 可单击“下载模板”,将模板下载至本地,基于模板修改为实际的内容后上传至当前页面。 注意:MetaStudio服务目前仅支持读取docx(包含图文)、txt和md格式,其他格式暂不支持。 docx格式说明:可以没有标题和分级标题, 如需添加标题和分级标题,请使用word标准格式,如图5和图6所示。 txt格式说明:文档内容当前仅支持纯文本,一行对应一条知识。 星火大模型会理解文档库文档的内容,重新组织语言来回答问题,不会完全按照问答对提供的答案去答复。 图4 知识基本信息 图5 标题 图6 分级标题 单击“保存文档”。等待文档名称右侧的状态,从“解析中”变为“已解析未发布”,如图7所示。 图7 保存文档 单击界面右上方的“构建发布”。发布成功后,文档名称右侧的状态更新为“发布成功”,如图8所示。 图8 构建发布
  • (可选)新增English情景模式 前面的所有操作,都是main情景模式下的配置,如果配置对话时,语言选择“中文”,则main情景模式下的配置生效。 如果配置对话时,语言选择“英文”,当前应用需要新增English情景模式,才能对话成功。 操作步骤,如下所示: 在界面上方的主菜单中,单击“我的应用”。 单击新增应用所在行的图标,进入“应用配置”页面。 图21 应用配置页面 单击“情景模式”右侧的“+”图标,弹出“新增情景模式”对话框。 一个应用可以增加多个情景模式,每个情景模式相互独立,互不干扰。 参数配置说明,如下所示: 情景模式名称:必须配置为“English”。 保持“语音语义”不变。 图22 新增情景模式 单击“确定”,English情景模式新增成功。 界面参数配置说明,如下所示: 语音识别:从下拉框中选择“通用-英文-进场”。 自然语言模型:保持默认值“星火交互认知大模型”。 管理技能配置:English情景模式下,不支持开启系统预置技能,仅支持开启自定义技能,相应操作请参考配置应用需要的技能。 (可选)开启闲聊技能:可选能力,操作请参考(可选)开启闲聊功能。 模拟测试:操作请参考模拟测试。 图23 English情景模式 单击如图23所示界面右上方的“保存修改”。 界面提示“保存成功”,说明应用的English情景模式配置完成。
  • 创建应用 访问科大讯飞的AIUI开放平台。 在界面上方的主菜单中,单击“我的应用”,进入“我的应用”页面。 单击“创建应用”,进入“创建应用”页面,如图1所示。 参数配置说明,如下所示: 应用名称:应用名称。 应用分类:从下拉框中选择当前应用所属分类。应用分类可以任意选择,不影响实际使用。 设备信息:勾选设备具备的条件。 应用描述:应用描述。 图1 创建应用 单击“确定创建”。界面提示“创建成功”,并弹出如图2所示的对话框。 图2 选择设备需要的AI能力 选择并开启设备需要的AI能力后,单击“确定”。 应用创建成功,自动进入新增应用的“应用配置”页面。
  • 操作步骤 登录MetaStudio控制台。 在左侧导航栏中,单击“任务中心”。 选择“分身名片”页签,如图1所示。 在“分身名片”页面,可以查看生成中、生成成功和生成失败的任务,也可以查看全部任务。 下方的名片列表中,可以查看名片封面、名称、性别、提交时间、状态等详细信息。 支持对名片进行如下操作: 单击“查看”,查看名片内容。 单击“下载”,将名片下载至本地查看。下载后的文件为mp4格式。 图1 名片生成任务
  • 查看应用信息 在界面上方的主菜单中,单击“我的应用”。 单击新增应用所在行的图标,进入“应用配置”页面。 在左侧导航栏中,单击“应用信息”。进入“应用信息”页面,如图12所示。 MetaStudio服务创建智能交互时,需要使用如下应用信息: 应用名称 APPID APPKEY APISECRET 如果科大讯飞平台创建的应用,“自然语言理解”配置为“星火交互认知大模型”时,端侧需要将这里的APPID和APPKEY配置到“aiui.cfg”文件中。 图12 应用信息
  • 操作步骤 登录MetaStudio控制台。 在“工作台”界面,单击“分身视频直播”卡片中的“开始创建”。 进入视频直播制作界面,界面详情如视频直播界面说明所示。 操作说明如下所示: 除了系统预置的视频素材外,角色还可以通过自定义定制分身数字人,背景、贴图、视频还支持从本地导入使用。 从素材区域添加到视频直播区域中的贴图、视频和数字人支持进行图层管理,如:上移一层、下移一层、置顶、置底、应用到全局、删除等。还支持设置大小,拖动位置。 视频直播画面创作完成后,需要制作剧本。 “剧本驱动”页签提供了下述两种方式,供用户生成剧本。请根据实际情况,选择其中一种方式。 文本驱动 如果是文本驱动的方式,需要在场景1的段落文本框中输入文本内容,支持单击,增加更多的段落文本。 场景1文本示例,如下所示: 请注意,当前仅为效果演示,实际一个段落需要满足至少200字,不多于2000字的要求。 段落1.1:大家好,今天欢迎来到会议室,我们今天讨论的主题是:如何更好的学习和工作。 段落1.2:我们每个人都有自己的学习和工作,难免会遇到一些问题。当我们遇到问题的时候,应该如何解决的呢? 图1 文本驱动内容 文本内容的操作说明如表1所示。 表1 操作说明 操作 说明 全局声音 有默认全局声音,用户也可以根据实际情况选择其他声音。如果需要使用标注“第三方”的系统声音,请参考购买第三方声音进行操作。 如果设置了全局声音,则所有场景均使用此声音播放语音内容。 试听 单击“试听”,可以试听当前所有场景下文字内容。 也可以单击具体段落区域的,试听当前段落的内容。 段落操作 支持对段落执行下述操作: 单击图标,试听当前段落语音。 单击图标,删除当前段落。 单击并按住图标,拖动当前段落至合适的位置。 单击图标,在当前场景下,新增段落。 音频驱动 如果是音频驱动的方式,可单击“上传音频”,从本地上传已录制好的音频。每个音频不能超过100M,支持WAV、M4A和MP3格式,每个场景的音频总时长不能低于1分钟。音频上传完成后,单击“试听”,可试听音频。 如果还需要制作多场景,即切换多个背景及其展示的内容,可以单击右侧“场景”区域下方的“+”图标,新增场景,并参考前一个场景,设置生成下一个场景的画面布局和剧本内容。 所有场景的画面布局和剧本设置完成后,单击界面右侧的“互动设置”页签,如图2所示。 包含如下4类设置: 弹幕 用户入场 点赞 送礼 上面4类设置的操作基本相同,下面以弹幕为例,进行操作说明,详情参见表2。 图2 互动设置 表2 弹幕设置说明 参数 配置说明 间隔时间 服务扫描弹幕的间隔时间。不能小于60秒。 默认值:120秒。 添加互动 单击“添加互动”,界面下方新增一条语料,如图2所示。用户可以根据实际情况,添加多条语料。 第一行输入框中,需要输入触发关键词,如果有多个,请以“|”分隔。即服务扫描弹幕的时候,如果扫描到此关键词,自动回复当前语料内容。 示例:链接|型号|优惠 第二行输入框中,需要输入相应的回复内容。 示例:关于产品的链接、型号和优惠等问题,请看界面上方的说明,按照说明操作,就可以详细了解了。 单击界面右侧的“直播配置”页签,如图3所示。 直播配置说明,如表3所示。 图3 我的视频 表3 直播配置 区域 参数 说明 开播设置 推流设置 如果需要设置推流地址,请按照界面提示进行操作。 输出设置 直播画面 选择视频直播画面的清晰度。 包含如下选项: 流程 高清 超清 默认值:高清。 播放次数 支持直接设置播放的次数,也可以选择“无限循环”。 风控设置 主播轮换 如果视频场景存在多场景,支持开启主播轮换,最多支持选择5个主播,以实现每轮场景更换时,相应的更换主播形象。 须知: 前面操作过程中,各个场景均已设置了相应的主播,即原主播;如果这里开启了“主播轮换”,且选择了主播,即备主播;那么直播时,可能随机选择原主播和备主播进行播放。所以直播画面的主播不一定是这里设置的备主播。 随机播放 仅“播放次数”选择“无限循环”时展示此参数。 如果开启随机播放,支持设置“随机规则”,包含如下选项: 按场景随机:视频直播过程中,随机选取任一场景进行播放,且确保场景不重复播放。场景中的段落仍按顺序播放。 按段落随机:视频直播过程中,场景播放顺序不变,场景内的段落随机进行播放,且确保段落不重复播放。 场景和段落都随机:视频直播过程中,随机选取任一场景中的任一段落进行播放,且确保所有场景的各个段落不重复播放。 更多设置 直播间ID 无需设置,当前视频直播保存后展示。 上述操作完成后,需要单击界面右上角的图标,保存直播内容。 单击界面右下方的“准备直播”,弹出“风险提示”对话框,如图4所示。 用户需要参照风险提示项,逐一核查并优化视频直播内容。 图4 风险提示 用户可以等直播风险消除后,再开播,也可以选择“承担风险开播”。 在“直播窗口”对话框中,选择“竖屏”或“全屏”,如图5所示。 图5 直播窗口 单击“继续”,等待直播启动,视频制作界面的直播画面区域,会展示直播启动的进度。 等直播启动成功后,效果如图6所示。界面右下方的操作说明,如表4所示。 图6 直播效果 表4 界面说明 界面操作 说明 00:01:20 直播时长计时信息。 请输入互动内容 输入互动内容,并发送成功后,数字人开始读已发送的互动内容,读完后,再接着读原来段落的后续内容。 真人接管 数字人在读段落内容期间,如果真人需要接管发声,可以单击“真人接管”,开启真人接管功能。此时,数字人停止发声,仅保留动作,改由真人发声。真人发声结束后,可以单击“取消真人接管”,关闭真人接管功能。此时,数字人继续读内容。 暂停 单击暂停图标,暂停直播。再次单击图标,可启动直播。 停止 单击停止图标,停止视频直播。
  • 响应参数 状态码: 200 表4 响应Header参数 参数 参数类型 描述 X-Request-Id String 请求ID 表5 响应Body参数 参数 参数类型 描述 count Integer 风格信息总数 styles Array of StyleInfo objects 风格信息列表 表6 StyleInfo 参数 参数类型 描述 name String 数字人风格化名称 description String 数字人风格化描述 project_id String 租户ID status String 状态 sex String 性别 tags Array of strings 标签。单个标签16字节,多个用逗号分隔,最多50个。 style_assets Array of StyleAssetItem objects 风格化素材资产组合。 extra_meta StyleExtraMeta object 数字人风格额外元数据信息 style_id String 数字人风格ID create_time String 数字人风格创建时间,格式遵循:RFC 3339。 例 “2020-07-30T10:43:17Z”。 update_time String 数字人风格更新时间,格式遵循:RFC 3339。 例 “2020-07-30T10:43:17Z”。 state String 数字人风格状态枚举 CREATING:创建中 PUBLISHED:已发布 DELETED:已删除 UNPUBLISHED:未发布 PUBLISHING:发布中 表7 StyleAssetItem 参数 参数类型 描述 asset_id String 资产ID asset_type String 资产类型 ANIMATION:动作 MATERIAL:素材 cover_url String 封面图URL 表8 StyleExtraMeta 参数 参数类型 描述 picture_modeling_enable Boolean 是否支持照片建模 edit_enable Boolean 是否支持模型编辑 edit_engine String 编辑使用引擎 model_id String 照片建模算法调用的模型类型 状态码: 400 表9 响应Body参数 参数 参数类型 描述 error_code String 错误码。 error_msg String 错误描述。 状态码: 500 表10 响应Body参数 参数 参数类型 描述 error_code String 错误码。 error_msg String 错误描述。
  • 响应示例 状态码: 200 查询数字人风格列表请求成功 { "count" : 1, "styles" : [ { "style_id" : "24bad716-87b1-45e5-8912-6102f7693265", "name" : "国风", "description" : "国风风格", "tags" : [ "华为" ], "create_time" : "2021-09-30T10:43:17Z", "update_time" : "2021-10-30T12:30:35Z", "state" : "CREATING", "style_assets" : [ { "asset_type" : "MATERIAL", "asset_id" : "93769b5a-c8c6-4692-9c95-53933a1f0c93" } ], "extra_meta" : { "picture_modeling_enable" : true, "edit_enable" : true, "edit_engine" : "Blender" } } ] } 状态码: 400 { "error_code" : "MSS.00000003", "error_msg" : "Invalid parameter" } 状态码: 500 { "error_code" : "MSS.00000004", "error_msg" : "Internal Error" }