云服务器100元/年| 免费试用云产品



    android工具类 内容精选 换一换
  • Android下打印调试堆栈方法

    来自:博客

    查看更多 →

  • 配置Android Studio工具

    配置Android Studio工具 通过Android Studio工具将本地PC机上的apk应用安装到IdeaHub上前,需要先在本地PC机配置环境变量。 获取工具 请在本地PC机上从https://developer.android.com/studio/releases/

    来自:帮助中心

    查看更多 →

  • android工具类 相关内容
  • GraphEvaluator

    参数值格式:"float32;float64" 使用约束:若模型有多个输入,且数据型不同,则需要分别指定不同输入的数据型,指定的输入数据型必须按照输入节点顺序依次放在双引号中,所有的输入数据型必须放在双引号中,中间使用英文分号分隔。 返回值说明 一个python实例。 函数输出

    来自:帮助中心

    查看更多 →

  • ModelEvaluator

    参数值格式:"float32;float64" 使用约束:若模型有多个输入,且数据型不同,则需要分别指定不同输入的数据型,指定的输入数据型必须按照输入节点顺序依次放在双引号中,所有的输入数据型必须放在双引号中,中间使用英文分号分隔。 返回值说明 一个python实例。 函数输出

    来自:帮助中心

    查看更多 →

  • android工具类 更多内容
  • ModelEvaluator

    参数值格式:"float32;float64" 使用约束:若模型有多个输入,且数据型不同,则需要分别指定不同输入的数据型,指定的输入数据型必须按照输入节点顺序依次放在双引号中,所有的输入数据型必须放在双引号中,中间使用英文分号分隔。 返回值说明 一个python实例。 函数输出

    来自:帮助中心

    查看更多 →

  • 开源网络模型分解数据参考

    ResNet34 分 ImageNet 74.2 54.92 74.15 ResNet50 分 ImageNet 75.6 73.64 75.91 ResNet101 分 ImageNet 78.52 76.97 78.24 InceptionV3 分 ImageNet 77

    来自:帮助中心

    查看更多 →

  • 工具实现的融合功能

    工具实现的融合功能 当前该工具主要实现的融合功能,分为如下几: Conv+BN融合:昇腾模型压缩工具在量化前会对模型中的"Conv2D+BatchNorm"结构做Conv+BN融合,融合后的"BatchNorm"层会被删除。 Depthwise_Conv+BN融合:昇腾模型压缩

    来自:帮助中心

    查看更多 →

  • 工具实现的融合功能

    工具实现的融合功能 当前该工具主要实现的融合功能,分为如下几: Conv+BN融合:昇腾模型压缩工具在量化前会对模型中的"Conv2D+BatchNorm"结构做Conv+BN融合,融合后的"BatchNorm"层会被删除。 Depthwise_Conv+BN融合:昇腾模型压缩

    来自:帮助中心

    查看更多 →

  • save_model

    据量化为INT8,作为卷积层的输入,权重也是使用INT8数据型作为计算,在部署模型中的卷积层的计算是基于INT8,INT32数据型的,输出为INT32数据型经过AscendDequant层转换成Float32数据型转输给下一个网络层。 图1 可部署模型 调用示例 import

    来自:帮助中心

    查看更多 →

  • GraphEvaluator

    参数值格式:"float32;float64" 使用约束:若模型有多个输入,且数据型不同,则需要分别指定不同输入的数据型,指定的输入数据型必须按照输入节点顺序依次放在双引号中,所有的输入数据型必须放在双引号中,中间使用英文分号分隔。 返回值说明 一个python实例。 函数输出

    来自:帮助中心

    查看更多 →

  • 开源网络模型分解数据参考

    ResNet34 分 ImageNet 74.2 54.92 74.15 ResNet50 分 ImageNet 75.6 73.64 75.91 ResNet101 分 ImageNet 78.52 76.97 78.24 InceptionV3 分 ImageNet 77

    来自:帮助中心

    查看更多 →

  • save_model

    用户待量化的原始pb模型文件。 数据型:string outputs 输入 graph中输出算子的列表。 数据型:list,列表中元素型为string record_file 输入 量化因子记录文件路径及名称。通过该文件、量化配置文件以及原始pb模型文件,生成量化后的模型文件。 数据型:string

    来自:帮助中心

    查看更多 →

  • 概览

    air"后缀 目标芯片型 --soc_version 必选 当前只支持配置为Ascend910A和Ascend910B。 功能配置选项 --out_nodes 可选 指定输出节点。 --input_fp16_nodes 可选 设置某个输入是否为fp16型。 调试选项 --log

    来自:帮助中心

    查看更多 →

  • quantize_model

    数据型:string modfied_onnx_file 输入 文件名,用于存储融合后模型的onnx格式。 数据型:string record_file 输入 量化因子记录文件路径及名称。 数据型:string model 输入 待量化的模型,已加载权重。 数据型:torch

    来自:帮助中心

    查看更多 →

  • save_model

    数据量化为INT8,作为卷积层的输入,权重也是使用INT8数据型作为计算,在deploy模型中的卷积层的计算是基于INT8,INT32数据型的,输出为INT32数据型经过DeQuant层转换成Float32数据型转输给下一个网络层。 图2 deploy模型 重新执行量化时,该接口输出的上述文件将会被覆盖。

    来自:帮助中心

    查看更多 →

  • save_quant_retrain_model

    化为INT8,作为卷积层的输入,权重也是使用INT8数据型作为计算,在deploy模型中的卷积层的计算是基于INT8,INT32数据型的,输出为INT32数据型经过AscendDequant层转换成Float32数据型传输给下一个网络层。 图2 deploy模型 调用示例

    来自:帮助中心

    查看更多 →

  • save_quant_retrain_model

    数据量化为INT8,作为卷积层的输入,权重也是使用INT8数据型作为计算,在deploy模型中的卷积层的计算是基于INT8,INT32数据型的,输出为INT32数据型经过DeQuant层转换成Float32数据型转输给下一个网络层。 图2 deploy模型 调用示例 from

    来自:帮助中心

    查看更多 →

  • save_model_ascend

    用户待量化的原始pb模型文件。 数据型:string 使用约束:pb_model必须为推理图模型,图中不能包含训练模式的算子,例如FusedBatchNormV3算子的is_training必须为False。 outputs 输入 graph中输出算子的列表。 数据型:list,列表中元素型为string

    来自:帮助中心

    查看更多 →

  • save_model

    化为INT8,作为卷积层的输入,权重也是使用INT8数据型作为计算,在deploy模型中的卷积层的计算是基于INT8,INT32数据型的,输出为INT32数据型经过AscendDeQuant层转换成Float32数据型传输给下一个网络层。 图2 deploy模型 重新执行

    来自:帮助中心

    查看更多 →

  • save_quant_retrain_model

    化为INT8,作为卷积层的输入,权重也是使用INT8数据型作为计算,在deploy模型中的卷积层的计算是基于INT8,INT32数据型的,输出为INT32数据型经过AscendDeQuant层转换成Float32数据型传输给下一个网络层。 图2 deploy模型 重新执行

    来自:帮助中心

    查看更多 →

  • restore_quant_retrain_model

    量化因子记录文件路径及名称。 数据型:string input_data 输入 模型的输入数据。一个torch.tensor会被等价为tuple(torch.tensor)。 数据型:tuple pth_file 输入 训练过程中保存的权重文件。 数据型:string state_dict_name

    来自:帮助中心

    查看更多 →

  • --output_type

    若在调优时不指定网络具体输出数据型,则以原始网络模型最后一层输出的算子数据型为准;若指定了型,则以该参数指定的型为准,此时--is_output_adjust_hw_layout参数指定的型不生效。 推荐配置及收益 无。 示例 指定网络输出型 --output_type=FP32

    来自:帮助中心

    查看更多 →

  • 工具实现的融合功能

    工具实现的融合功能 当前该工具主要实现的融合功能,分为如下几: Conv+BN融合:昇腾模型压缩工具在量化前会对模型中的"Conv2D+BatchNorm"结构做Conv+BN融合,融合后的"BatchNorm"层会被删除。 Depthwise_Conv+BN融合:昇腾模型压缩

    来自:帮助中心

    查看更多 →

  • 工具实现的融合功能

    工具实现的融合功能 当前该工具主要实现的融合功能,分为如下几: Conv+BN融合:昇腾模型压缩工具在量化前会对模型中的"Conv2D+BatchNorm"结构做Conv+BN融合,融合后的"BatchNorm"层会被删除。 Depthwise_Conv+BN融合:昇腾模型压缩

    来自:帮助中心

    查看更多 →

  • quantize_model

    数据型:string modfied_onnx_file 输入 文件名,用于存储融合后模型的onnx格式。 数据型:string record_file 输入 量化因子记录文件路径及名称。 数据型:string model 输入 待量化的模型,已加载权重。 数据型:torch

    来自:帮助中心

    查看更多 →

  • create_compressed_retrain_model

    模型输出节点的名称。 数据型:list,列表中元素型为string record_file 输入 待记录稀疏和量化因子文件路径及名称。 数据型:string quant_add_ops 返回值 组合压缩插入的算子变量列表。 数据型:list,列表中元素型为tf.Variable

    来自:帮助中心

    查看更多 →

  • 搜索流程

    pass 调用昇腾模型压缩工具工具,进行自动混合精度搜索。 初始化evaluator,可以使用2构造的ModelEvaluator,也可以使用工具提供的GraphEvaluator,请参见昇腾模型压缩工具安装目录/amct_tensorflow/interface/evaluator

    来自:帮助中心

    查看更多 →

  • --data_types

    功能说明 输入数据的型。 关联参数 若未使用--evaluator参数,则该参数必填。 参数取值 参数值:模型输入数据的型。 参数值格式:"float32;float64"。 参数值约束:若模型有多个输入,且数据型不同,则需要分别指定不同输入的数据型,指定的输入数据型必须按照输

    来自:帮助中心

    查看更多 →

  • --data_types

    功能说明 输入数据的型。 关联参数 若未使用--evaluator参数,则该参数必填。 参数取值 参数值:模型输入数据的型。 参数值格式:"float32;float64"。 参数值约束:若模型有多个输入,且数据型不同,则需要分别指定不同输入的数据型,指定的输入数据型必须按照输

    来自:帮助中心

    查看更多 →

  • save_model

    使用INT8数据型作为计算,在deploy模型中的卷积层的计算是基于INT8,INT32数据型的,输出为INT32数据型经过DeQuant层转换成Float32数据型转输给下一个网络层。 图2 deploy模型 量化信息文件:该文件记录了昇腾模型压缩工具插入的量化算子位置

    来自:帮助中心

    查看更多 →

  • create_quant_retrain_model

    用户传入的待量化模型的tf.Graph图。 数据型:tf.Graph config_file 输入 用户生成的量化感知训练配置文件,用于指定模型tf.Graph图中量化感知训练层的配置情况。 数据型:string record_file 输入 量化因子记录文件路径。 数据型:string retrain_ops

    来自:帮助中心

    查看更多 →

  • --data_types

    功能说明 输入数据的型。 关联参数 若未使用--evaluator参数,则该参数必填。 参数取值 参数值:模型输入数据的型。 参数值格式:"float32;float64"。 参数值约束:若模型有多个输入,且数据型不同,则需要分别指定不同输入的数据型,指定的输入数据型必须按照输

    来自:帮助中心

    查看更多 →

  • 配置文件及参数

    跳过bn融合的层。 型 string 取值范围 可融合层的层名。 当前支持融合的层以及融合规则请参见工具实现的融合功能。 参数说明 不需要做融合的层。 推荐配置 - 可选或必选 可选 表5 layer_config参数说明 作用 指定某个网络层的量化配置。 型 object 取值范围

    来自:帮助中心

    查看更多 →

  • 概览

    air"后缀 目标芯片型 --soc_version 必选 当前只支持配置为Ascend910A和Ascend910B。 功能配置选项 --out_nodes 可选 指定输出节点。 --input_fp16_nodes 可选 设置某个输入是否为fp16型。 调试选项 --log

    来自:帮助中心

    查看更多 →

  • save_model

    用户待量化的原始pb模型文件。 数据型:string outputs 输入 graph中输出算子的列表。 数据型:list,列表中元素型为string record_file 输入 量化因子记录文件路径及名称。通过该文件、量化配置文件以及原始pb模型文件,生成量化后的模型文件。 数据型:string

    来自:帮助中心

    查看更多 →

  • save_model

    用户待量化的原始pb模型文件。 数据型:string outputs 输入 graph中输出算子的列表。 数据型:list,列表中元素型为string record_file 输入 量化因子记录文件路径及名称。通过该文件、量化配置文件以及原始pb模型文件,生成量化后的模型文件。 数据型:string

    来自:帮助中心

    查看更多 →

  • save_model_ascend

    用户待量化的原始pb模型文件。 数据型:string 使用约束:pb_model必须为推理图模型,图中不能包含训练模式的算子,例如FusedBatchNormV3算子的is_training必须为False。 outputs 输入 graph中输出算子的列表。 数据型:list,列表中元素型为string

    来自:帮助中心

    查看更多 →

  • 架构

    托管型场景全栈架构 表1 托管型场景各节点说明 名称 说明 Android应用+工具 不同子场景,需要运行的Android应用以及部署的工具不一样,业务按需针对性适配。 设备模拟 开源模拟器,只提供CPU、内存、存储、基础网络等基本模拟。 Android虚拟机/容器 将计算机的各种实体

    来自:帮助中心

    查看更多 →

共380条
相关推荐
看了本文的人还看了