云服务器100元/年| 免费试用云产品



    怎么理解深度学习框架 内容精选 换一换
  • 前言

    概述 本文档介绍如何迁移基于TensorFlow的Python API开发的训练脚本,用于在昇腾AI处器执行训练。 掌握以下经验和技能可以更好地理解本文档: 熟练的Python语言编程能力 熟悉TensorFlow 1.15的API 对机器学习深度学习有一定的了,熟悉训练网络的基本知识与流程

    来自:帮助中心

    查看更多 →

  • 前言

    概述 本文档介绍如何迁移基于TensorFlow的Python API开发的训练脚本,用于在昇腾AI处器执行训练。 掌握以下经验和技能可以更好地理解本文档: 熟练的Python语言编程能力 熟悉TensorFlow 1.15的API 对机器学习深度学习有一定的了,熟悉训练网络的基本知识与流程

    来自:帮助中心

    查看更多 →

  • 怎么理解深度学习框架 相关内容
  • 入门与案例

    Ascend910训练, 支持CPU和GPU推 前往>> 常见问题 基础概念 ModelArts支持哪些AI框架如何配置ModeArts使用权限? 数据上传 如何上传数据至OBS? 如何在Notebook中读写OBS文件? 如何上传本地文件至JupyterLab? 如何从JupyterLab下载大文件到本地?

    来自:产品

    查看更多 →

  • 强化学习

    Inference 强化学习 天筹求器 盘古大模型 模型优化 入门&案例 资源&学习 活动&定价 生态合作 概览 AI Gallery ModelArts Pro IDE Inference 强化学习 天筹求器 盘古大模型 模型优化 入门&案例 资源&学习 活动&定价 生态合作 强化学习 强化学习

    来自:产品

    查看更多 →

  • 怎么理解深度学习框架 更多内容
  • 前言

    成: 了不同框架原始网络模型转成昇腾AI处器离线模型的方法。 能够基于本文档中的参数,转成满足不同定制要求的离线模型。 掌握AIPP配置文件的配置方法,以及如何使能AIPP功能。 掌握以下经验和技能可以更好地理解本文档: 熟悉Linux基本命令。 对机器学习深度学习有一定的了解。

    来自:帮助中心

    查看更多 →

  • 前言

    成: 了不同框架原始网络模型转成昇腾AI处器离线模型的方法。 能够基于本文档中的参数,转成满足不同定制要求的离线模型。 掌握AIPP配置文件的配置方法,以及如何使能AIPP功能。 掌握以下经验和技能可以更好地理解本文档: 熟悉Linux基本命令。 对机器学习深度学习有一定的了解。

    来自:帮助中心

    查看更多 →

  • 前言

    优化等,可以脱离设备完成模型的预处。 读者对象 本文档主要适用于以下工程师: ● 技术支持工程师 ● 软件开发工程师 掌握以下经验和技能可以更好地理解本文档: 熟悉Linux基本命令。 对机器学习深度学习有一定的了。

    来自:帮助中心

    查看更多 →

  • 前言

    成: 了不同框架原始网络模型转成昇腾AI处器离线模型的方法。 能够基于本文档中的参数,转成满足不同定制要求的离线模型。 掌握AIPP配置文件的配置方法,以及如何使能AIPP功能。 掌握以下经验和技能可以更好地理解本文档: 熟悉Linux基本命令。 对机器学习深度学习有一定的了解。

    来自:帮助中心

    查看更多 →

  • 前言

    成: 了不同框架原始网络模型转成昇腾AI处器离线模型的方法。 能够基于本文档中的参数,转成满足不同定制要求的离线模型。 掌握AIPP配置文件的配置方法,以及如何使能AIPP功能。 掌握以下经验和技能可以更好地理解本文档: 熟悉Linux基本命令。 对机器学习深度学习有一定的了解。

    来自:帮助中心

    查看更多 →

  • 前言

    成: 了不同框架原始网络模型转成昇腾AI处器离线模型的方法。 能够基于本文档中的参数,转成满足不同定制要求的离线模型。 掌握AIPP配置文件的配置方法,以及如何使能AIPP功能。 掌握以下经验和技能可以更好地理解本文档: 熟悉Linux基本命令。 对机器学习深度学习有一定的了解。

    来自:帮助中心

    查看更多 →

  • 前言

    本文档您可以达成: 了量化的两种方式,训练后量化和量化感知训练,以及他们的优缺点。 了量化后如果精不达标,如何进行手动量化回退。 了常用的量化算法。 掌握以下经验和技能可以更好地理解本文档: 熟悉Linux基本命令。 对机器学习深度学习有一定的了。 父主题: AMCT工具(MindSpore)

    来自:帮助中心

    查看更多 →

  • 前言

    本文档详细介绍了如何基于安装了TF_Adapter TensorFlow框架的昇腾模型压缩工具,对TensorFlow框架的网络模型进行压缩。昇腾模型压缩工具是一个针对昇腾芯片亲和的深度学习模型压缩工具包,提供量化等多种模型压缩特性,压缩后模型体积变小,部署到昇腾AI处器上后可使能

    来自:帮助中心

    查看更多 →

  • 前言

    前言 概述 在线推是在AI框架内执行推的场景,例如在Tensorflow框架上,加载模型后,通过session.run执行推。相比于离线推场景,使用在线推可以方便将原来基于Tensorflow框架做推的应用快速迁移到昇腾AI处器,适用于数据中心推场景。 读者对象

    来自:帮助中心

    查看更多 →

  • 前言

    本文档您可以达成: 了量化的两种方式,训练后量化和量化感知训练,以及他们的优缺点。 了量化后如果精不达标,如何进行手动量化回退。 了常用的量化算法。 掌握以下经验和技能可以更好地理解本文档: 熟悉Linux基本命令。 对机器学习深度学习有一定的了。 父主题: AMCT工具(MindSpore)

    来自:帮助中心

    查看更多 →

  • 基本概念介绍

    什么是TVM 随着深度学习的广泛应用,大量的深度学习框架深度学习硬件平台应运而生,但不同平台的神经网络模型难以在其他硬件平台便捷的运行,无法充分利用新平台的运算性能。TVM(Tensor Virtual Machine)的诞生决了以上问题,它是一个开源深度学习编译栈,它通过统一的中间表达(Intermediate

    来自:帮助中心

    查看更多 →

  • 基本概念介绍

    什么是TVM 随着深度学习的广泛应用,大量的深度学习框架深度学习硬件平台应运而生,但不同平台的神经网络模型难以在其他硬件平台便捷的运行,无法充分利用新平台的运算性能。TVM(Tensor Virtual Machine)的诞生决了以上问题,它是一个开源深度学习编译栈,它通过统一的中间表达(Intermediate

    来自:帮助中心

    查看更多 →

  • 基本概念介绍

    什么是TVM 随着深度学习的广泛应用,大量的深度学习框架深度学习硬件平台应运而生,但不同平台的神经网络模型难以在其他硬件平台便捷的运行,无法充分利用新平台的运算性能。TVM(Tensor Virtual Machine)的诞生决了以上问题,它是一个开源深度学习编译栈,它通过统一的中间表达(Intermediate

    来自:帮助中心

    查看更多 →

  • 基本概念介绍

    什么是TVM 随着深度学习的广泛应用,大量的深度学习框架深度学习硬件平台应运而生,但不同平台的神经网络模型难以在其他硬件平台便捷的运行,无法充分利用新平台的运算性能。TVM(Tensor Virtual Machine)的诞生决了以上问题,它是一个开源深度学习编译栈,它通过统一的中间表达(Intermediate

    来自:帮助中心

    查看更多 →

  • 基本概念介绍

    什么是TVM 随着深度学习的广泛应用,大量的深度学习框架深度学习硬件平台应运而生,但不同平台的神经网络模型难以在其他硬件平台便捷的运行,无法充分利用新平台的运算性能。TVM(Tensor Virtual Machine)的诞生决了以上问题,它是一个开源深度学习编译栈,它通过统一的中间表达(Intermediate

    来自:帮助中心

    查看更多 →

  • 基本概念介绍

    什么是TVM 随着深度学习的广泛应用,大量的深度学习框架深度学习硬件平台应运而生,但不同平台的神经网络模型难以在其他硬件平台便捷的运行,无法充分利用新平台的运算性能。TVM(Tensor Virtual Machine)的诞生决了以上问题,它是一个开源深度学习编译栈,它通过统一的中间表达(Intermediate

    来自:帮助中心

    查看更多 →

  • 前言

    您可以达成: 了模型压缩的方式:量化(包括训练后量化和量化感知训练)、张量分。 了量化后如果精不达标,如何进行手动或者自动量化回退。 了常用的量化算法。 掌握以下经验和技能可以更好地理解本文档: 熟悉Linux基本命令。 对机器学习深度学习有一定的了。 父主题: AMCT工具(Caffe)

    来自:帮助中心

    查看更多 →

  • 基本概念介绍

    什么是TVM 随着深度学习的广泛应用,大量的深度学习框架深度学习硬件平台应运而生,但不同平台的神经网络模型难以在其他硬件平台便捷的运行,无法充分利用新平台的运算性能。TVM(Tensor Virtual Machine)的诞生决了以上问题,它是一个开源深度学习编译栈,它通过统一的中间表达(Intermediate

    来自:帮助中心

    查看更多 →

  • 基本概念介绍

    什么是TVM 随着深度学习的广泛应用,大量的深度学习框架深度学习硬件平台应运而生,但不同平台的神经网络模型难以在其他硬件平台便捷的运行,无法充分利用新平台的运算性能。TVM(Tensor Virtual Machine)的诞生决了以上问题,它是一个开源深度学习编译栈,它通过统一的中间表达(Intermediate

    来自:帮助中心

    查看更多 →

  • 基本概念介绍

    什么是TVM 随着深度学习的广泛应用,大量的深度学习框架深度学习硬件平台应运而生,但不同平台的神经网络模型难以在其他硬件平台便捷的运行,无法充分利用新平台的运算性能。TVM(Tensor Virtual Machine)的诞生决了以上问题,它是一个开源深度学习编译栈,它通过统一的中间表达(Intermediate

    来自:帮助中心

    查看更多 →

  • 基本概念介绍

    什么是TVM 随着深度学习的广泛应用,大量的深度学习框架深度学习硬件平台应运而生,但不同平台的神经网络模型难以在其他硬件平台便捷的运行,无法充分利用新平台的运算性能。TVM(Tensor Virtual Machine)的诞生决了以上问题,它是一个开源深度学习编译栈,它通过统一的中间表达(Intermediate

    来自:帮助中心

    查看更多 →

  • 《Keras深度学习实战》

    来自:博客

    查看更多 →

  • 前言

    成: 了不同框架原始网络模型转成昇腾AI处器离线模型的方法。 能够基于本文档中的参数,转成满足不同定制要求的离线模型。 掌握AIPP配置文件的配置方法,以及如何使能AIPP功能。 掌握以下经验和技能可以更好地理解本文档: 熟悉Linux基本命令。 对机器学习深度学习有一定的了解。

    来自:帮助中心

    查看更多 →

  • 前言

    成: 了不同框架原始网络模型转成昇腾AI处器离线模型的方法。 能够基于本文档中的参数,转成满足不同定制要求的离线模型。 掌握AIPP配置文件的配置方法,以及如何使能AIPP功能。 掌握以下经验和技能可以更好地理解本文档: 熟悉Linux基本命令。 对机器学习深度学习有一定的了解。

    来自:帮助中心

    查看更多 →

  • 目标和读者

    通过本文档您可以达成: 学习TBE算子基本实现原和实现方法。 能够基于本文档中样例,扩展进行其他自定义算子的开发。 掌握以下经验和技能可以更好地理解本文档: 具备Python/C++/C语言程序开发能力 理解表达式 对机器学习深度学习有一定的了 对TVM及开源Tenso

    来自:帮助中心

    查看更多 →

  • 前言

    成: 了不同框架原始网络模型转成昇腾AI处器离线模型的方法。 能够基于本文档中的参数,转成满足不同定制要求的离线模型。 掌握AIPP配置文件的配置方法,以及如何使能AIPP功能。 掌握以下经验和技能可以更好地理解本文档: 熟悉Linux基本命令。 对机器学习深度学习有一定的了解。

    来自:帮助中心

    查看更多 →

  • 前言

    本文档适用于基于TBE进行算子开发的人员, 掌握以下经验和技能可以更好地理解本文档: 具备Python/C++/C语言程序开发能力 理解表达式 对机器学习深度学习有一定的了 对TVM及开源TensorFlow/Caffe框架有一定的了

    来自:帮助中心

    查看更多 →

  • 前言

    本文档适用于基于TBE进行算子开发的人员, 掌握以下经验和技能可以更好地理解本文档: 具备Python/C++/C语言程序开发能力 理解表达式 对机器学习深度学习有一定的了 对TVM及开源TensorFlow/Caffe框架有一定的了

    来自:帮助中心

    查看更多 →

  • 目标和读者

    通过本文档您可以达成: 学习TBE算子基本实现原和实现方法。 能够基于本文档中样例,扩展进行其他自定义算子的开发。 掌握以下经验和技能可以更好地理解本文档: 具备Python/C++/C语言程序开发能力 理解表达式 对机器学习深度学习有一定的了 对TVM及开源Tenso

    来自:帮助中心

    查看更多 →

  • 前言

    本文档详细介绍了如何基于安装了TF_Adapter TensorFlow框架的昇腾模型压缩工具,对TensorFlow框架的网络模型进行压缩。昇腾模型压缩工具是一个针对昇腾芯片亲和的深度学习模型压缩工具包,提供量化等多种模型压缩特性,压缩后模型体积变小,部署到昇腾AI处器上后可使能

    来自:帮助中心

    查看更多 →

  • 前言

    前言 概述 在线推是在AI框架内执行推的场景,例如在Tensorflow框架上,加载模型后,通过session.run执行推。相比于离线推场景,使用在线推可以方便将原来基于Tensorflow框架做推的应用快速迁移到昇腾AI处器,适用于数据中心推场景。 读者对象

    来自:帮助中心

    查看更多 →

  • 前言

    后可在昇腾AI处器上实现8比特推。 量化可配置,用户可自行修改量化配置文件,调整压缩策略,获取较优的压缩结果。 读者对象 本文档适用于使用昇腾模型压缩工具进行模型压缩的人员,通过本文档您可以达成: 了量化的方式:训练后量化。 了量化后如果精不达标,如何进行手动或者自动量化回退。

    来自:帮助中心

    查看更多 →

  • 前言

    后可在昇腾AI处器上实现8比特推。 量化可配置,用户可自行修改量化配置文件,调整压缩策略,获取较优的压缩结果。 读者对象 本文档适用于使用昇腾模型压缩工具进行模型压缩的人员,通过本文档您可以达成: 了量化的方式:训练后量化。 了量化后如果精不达标,如何进行手动或者自动量化回退。

    来自:帮助中心

    查看更多 →

  • 前言

    您可以达成: 了模型压缩的方式:量化(包括训练后量化和量化感知训练)、张量分。 了量化后如果精不达标,如何进行手动或者自动量化回退。 了常用的量化算法。 掌握以下经验和技能可以更好地理解本文档: 熟悉Linux基本命令。 对机器学习深度学习有一定的了。 父主题: AMCT工具(Caffe)

    来自:帮助中心

    查看更多 →

共380条
相关推荐
看了本文的人还看了