AI开发平台MODELARTS-BERT和YOLO等常用小模型适配MindSpore NPU推理指导:附录:get_onnx.py脚本内容

时间:2024-05-17 18:26:06

附录:get_onnx.py脚本内容

get_onnx.py脚本用于查看onnx模型文件信息,脚步具体内容如下:

from pprint import pprint
import onnxruntime

onnx_path = "./model.onnx"   # 此处的onnx_path值需替换成实际的模型存放路径和模型文件名称

provider = "CPUExecutionProvider"
onnx_session = onnxruntime.InferenceSession(onnx_path, providers=[provider])

print("----------------- 输入部分 -----------------")
input_tensors = onnx_session.get_inputs()  # 该 API 会返回列表
for input_tensor in input_tensors:         # 因为可能有多个输入,所以为列表

    input_info = {
        "name" : input_tensor.name,
        "type" : input_tensor.type,
        "shape": input_tensor.shape,
    }
    pprint(input_info)

print("----------------- 输出部分 -----------------")
output_tensors = onnx_session.get_outputs()  # 该 API 会返回列表
for output_tensor in output_tensors:         # 因为可能有多个输出,所以为列表

    output_info = {
        "name" : output_tensor.name,
        "type" : output_tensor.type,
        "shape": output_tensor.shape,
    }
    pprint(output_info)
support.huaweicloud.com/bestpractice-modelarts/modelarts_10_3001.html