[快速入门]大数据学习框架
数智融合计算服务

Ray支持分布式训练和调优,可以用于处理大规模数据集和模型,使得模型训练更加高效 模型 使用模型实现智能对话、自动摘要、机器翻译、文本分类、图像生成等任务 实时湖仓 提供标准SQL接口,用户仅需使用SQL便可实现海量数据分析 数据工程 高效处理大规模数据,通过并行计算加速数据处理过程,如数据清洗、转换和聚合

ModelArts Studio大模型开发平台

盘古模型 盘古模型 模型开发平台ModelArts Studio 模型开发平台ModelArts Studio 支持百模千态的模型工具链平台,构建规模化可复制的行业大模型解决方案,深入行业解决行业难题 支持百模千态的模型工具链平台,构建规模化可复制的行业大模型解决方案,深入行业解决行业难题

云数据库 RDS for MySQL资源与学习

控制台 文档 数据学习路径 数据学习路径 数据库理论基础 1、数据库介绍 2、数据库基础知识 3、SQL语法入门 4、SQL语法分类 华为云数据库介绍与实战 1、数据库入门与应用 2、数据库进阶学习 3、7天玩转MySQL基础实战营 云数据库方案设计与调优 1、云享读书会《SQL优化核心思想》

数据库安全服务 DBSS资源与学习

数据库安全服务 DBSS 数据库安全服务 DBSS 数据库安全服务 DBSS 资源 数据库安全服务 DBSS 资源 提供数据库审计,SQL注入攻击检测,风险操作识别等功能,保障云上数据库的安全 提供数据库审计,SQL注入攻击检测,风险操作识别等功能,保障云上数据库的安全 购买 智能客服

医疗智能体最新新闻

2022 2022-03-22 华为云盘古模型荣获深圳人工智能科技进步奖 华为云盘古NLP模型是业界首个千亿参数规模的中文模型,中文理解能力接近人类水平。盘古CV模型的小样本学习能力表现优异,在ImageNet 1%、10%数据集上的小样本分类精度上均达到目前业界最高水平(SOTA)。

华为云数据湖探索服务 DLI

空闲期 搭配使用 数据接入服务 DIS 云数据库 RDS for MySQL 企业 日志分析 企业的部门比较多,不同部门在使用云服务时,需要对不同部门的员工的权限进行管理,包括计算资源的创建、删除、使用、隔离等。同时,也需要对不同部门的数据进行管理,包括数据的隔离、共享等 优势

盘古预测大模型

盘古预测模型 盘古预测模型 通过历史数据学习得到的面向结构化任务场景,针对事物发展趋势、状态类别等进行量化预测的预训练模型 通过历史数据学习得到的面向结构化任务场景,针对事物发展趋势、状态类别等进行量化预测 重磅发布盘古统一编码预测模型 跨模态知识融合 专家咨询 ModelArts

云硬盘EVS - 资源与学习

了解API的描述、语法、参数说明及样例等内容 SDK 了解如何获取、安装和调用华为云SDK EVS云小课 带您快速了解并学习购买共享云硬盘 云硬盘论坛 行业资讯、干货分享等一系列内容 博客 汇聚精品内容,云集技术咖 增值服务 增值服务 支持计划 7*24小时全产品技术支持 专业服务 提供上云、用云、管云全生命周期服务

NAT网关 资源与学习

获取海量开发者技术资源、工具 开发者计划 使能开发者基于开放能力进行技术创新 开发支持 专业高效的开发者在线技术支持服务 开发者学堂 云上学习、实验、认证的知识服务中心 开发者活动 开发者实训、热门活动专区 社区论坛 专家技术布道、开发者交流分享的平台 文档下载 NAT网关 NAT文档下载

[相关产品]大数据学习框架
云框架-软件系统框架

使用云框架的两个常见原因: 在表格中安排数据,从而用来呈现数据间的关系;或者在ap上组织图形和文本,也就是用于app布局。1.增大系统容量。我们的业务量越来越大,而要能应对越来越大的业务量,普通框架的性能已经无法满足了,我们需要专业的框架才能应对大规模的应用场景。所以,我们需要垂

应用使能框架专业服务

等AI建模服务。(4)提供多级数据聚合与治理服务、贸易主题指标数据统计分析服务、物流客户价值分析服务、物流客户服务质量分析服务、经营收入&作业量关联分析服务、作业量&成本&效率关联分析服务、生产作业资源合理性分析服务等数据集成服务。3、应用使能框架现场服务,包括:方案咨询规划服务

学习兴企

)通过在线学习文章视频、每日一测可获取系统积分奖励,系统提供员工的学习积分报表,各单位可根据报表情况进行奖惩,以考核来促进学习。       后台管理功能: (1)资料库作为员工学习培训数据支撑基础,包含法律法规、行业标准、规范、规程、规章制度、操作手册、案例等海量学习资料,资料

UbuntuPHP5.6运行环境(ThinkPHP框架)

数据库特性:系统支持多数据库连接和动态切换机制,支持分布式数据库。犹如企业开发的一把利刃,跨数据库应用和分布式支持从此无忧。ThinkPHP是一个快速、简单的基于MVC和面向对象的轻量级PHP开发框架

北交联合云分布式服务框架系统

不再需要F5等负载均衡硬件·运维管理统一RPC调用框架,技术对齐,系统SOA化,满足业务的快速变化需求·开发人员提升开发效率、保证服务质量服务变化主动通知应用,实现应用、服务的横向扩展,服务总线上可监控服务压力,调节负载能力,数据、缓存均可以横向扩展,对服务端来说是透明的,通过服务总线注册、监控、发现应用或服务

深度学习计算服务平台

深度学习计算服务平台是中科弘云面向有定制化AI需求的行业用户,推出的AI开发平台,提供从样本标注、模型训练、模型部署的一站式AI开发能力,帮助用户快速训练和部署模型,管理全周期AI工作流。平台为开发者设计了众多可帮助降低开发成本的开发工具与框架,例如AI数据集、AI模型与算力等。

天冕联邦学习平台

天冕联邦学习平台是天冕利用前沿信息技术打造的高效安全数据合作解决方案,在充分保护各方用户数据安全、非共享数据情况下打破数据孤岛,实现跨数据、跨行业的合作。  天冕联邦学习平台,联邦建模,联合建模,隐私计算,多方安全计算

在线学习系统 Moodle LMS

块、论坛模块、测验模块、资源模块、问卷调查模块、互动评价(workshop)。Moodle具有先进的教学理念,创设的虚拟学习环境中有三个维度:技术管理维度、学习任务维度和社会交往维度,以社会建构主义教学法为其设计的理论基础,它提倡师生或学生彼此间共同思考,合作解决问题。组件Moodle

轻学堂企业学习平台

轻学堂企业学习平台是喜马拉雅旗下专注企业培训和员工成长的品牌,成立于2017年,通过内容、工具、运营三位一体,搭建数字化学习内容平台,助力企业人才成长。严选企业需要员工发展、职业素养提升、专业技能、管理能力等精品书课内容。附:产品区别说明有声书+精品课,内容更丰富、上新更快,赠送学习平台全套工具,无限量上传空间

[相似文章]大数据学习框架
OA协同办公_OA数据库_OA框架

个 物联网设备接入平台_mqtt设备接入_Iot设备接入验证 主机安全扫描报告_主机安全检测报告_主机安全报告 免费数据库GaussDB NoSQL_云数据库_数据库免费吗 查看更多 收起 服务咨询 华为云商店为isv和咨询合作伙伴提供了一个新的销售渠道,以向华为客户销售解决方案。

GaussDB学习_gaussdb数据库_高斯数据库学习_华为云

为什么他们选择了GaussDB “星河”数据库标杆案例!工商银行&华为云GaussDB再创佳绩 全球银行最大分布式核心系统全面上线,邮储银行做到了! 案例集锦|科技赋能,华为云GaussDB助千行百业数字化转型 实时支撑千亿数据,高效出行的背后全因有TA 梦幻联动! 金蝶&华为云面向企业发布数据库联合解决方案

GaussDB学习_gaussdb教程_高斯数据库学习_华为云

实时支撑千亿数据,高效出行的背后全因有TA 梦幻联动! 金蝶&华为云面向企业发布数据库联合解决方案 权威认证 中国首个!华为云GaussDB数据库荣获国际CC EAL4+级别认证 再获认可!华为云GaussDB数据库荣获年度优秀创新软件产品大奖 重磅发布!西骏数据与华为云GaussDB完成兼容互认证

大数据分析学习与微认证

分必要。本课程主要介绍如何搭建一个可视化屏,为企业提供精准、高效的支持。 基于流计算的可视化屏,为企业、政府带来全新的视觉体验 适合人群:面向对实时流计算和可视化感兴趣的从业人员,社会大众和高校师生 培训方案:结合华为云服务搭建基于流计算的可视化平台 技术能力:了解流计算的关

大数据分析学习与微认证

分必要。本课程主要介绍如何搭建一个可视化屏,为企业提供精准、高效的支持。 基于流计算的可视化屏,为企业、政府带来全新的视觉体验 适合人群:面向对实时流计算和可视化感兴趣的从业人员,社会大众和高校师生 培训方案:结合华为云服务搭建基于流计算的可视化平台 技术能力:了解流计算的关

深圳MES系统_MES框架_MES集成

我们专注于五行业(汽车零配件、光伏、光电缆、医疗设备、电子),深耕行业化需求,为客户提供专业的解决方案和产品。 我们专注于五行业(汽车零配件、光伏、光电缆、医疗设备、电子),深耕行业化需求,为客户提供专业的解决方案和产品。 欧软云MES 当地化服务 我们在全国七战区设立20

大数据应用范围有哪些_大数据技术与应用要学习什么课程

数据可视化 数据可视化 数据可视化服务(Data Lake Visualization)是一站式数据可视化平台,适配云上云下多种数据源,提供丰富多样的2D、3D可视化组件,采用拖拽式自由布局,旨在帮助您快速定制和应用属于您自己的数据屏 大数据应用 推荐系统 推荐系统(Recommender

GaussDB数据库计费_华为gaussdb_gaussdb费用_gaussdb学习

华为云分布式关系型数据库是什么 华为数据库GaussDB_GaussDB数据库的优点_【免费】_GaussDB分布式数据库_数据库平台 关系数据库管理系统_数据库管理系统、数据库应用 数据库软件免费版 云数据库免费_云数据库免费试用 免费数据库GaussDB NoSQL_云数据库_数据库免费吗

电商大促用什么数据库_非关系型数据库免费试用

电商促用什么数据库 电商促用什么数据库 该方案基于华为云GeminiDB数据库 ,结合数据三副本存储、高性能存储池和数据强一致性等核心技术,为电商行业客户提供高可靠、高性能和低成本的秒杀数据库解决方案,解决促期间海量用户访问造成业务的卡顿、系统崩溃以及数据不一致导致超卖等痛点问题。

大数据学习框架

场景描述

本文将介绍在GP Ant8 裸金属服务器 中,使用DeepSpeed框架训练GPT-2(分别进行单机单卡和单机多卡训练)。 训练完成后给出自动式生成内容,和交互式对话框模式。

背景信息

  • Megatron-DeepSpeed

    Megatron-DeepSpeed是一个基于PyTorch的深度学习模型训练框架。它结合了两个强大的工具:Megatron-LM和DeepSpeed,可在具有分布式计算能力的系统上进行训练,并且充分利用了多个GPU和深度学习加速器的并行处理能力。可以高效地训练大规模的语言模型。

    Megatron-LM是一个用于大规模语言建模的模型。它基于GPT(Generative Pre-trained Transformer)架构,这是一种基于自注意力机制的神经网络模型,广泛用于自然语言处理任务,如文本生成、 机器翻译 和对话系统等。

    DeepSpeed是开源的加速深度学习训练的库。它针对大规模的模型和分布式训练进行了优化,可以显著提高训练速度和效率。DeepSpeed提供了各种技术和优化策略,包括分布式梯度下降、模型并行化、梯度累积和动态精度缩放等。它还支持优化大模型的内存使用和计算资源分配。

  • GPT2

    GPT2(Generative Pre-trained Transformer 2),是OpenAI组织在2018年于GPT模型的基础上发布的新预训练模型,是一个基于Transformer且非常庞大的语言模型。它在大量数据集上进行了训练,直接运行一个预训练好的GPT-2模型:给定一个预定好的起始单词或者句子,可以让它自行地随机生成后续的文本。

环境准备

ModelArts Server购买相关算力的GPU裸金属服务器,并选择AIGC场景通用的 镜像 ,完成使用Megatron-DeepSpeed训练GPT2模型。本最佳实践使用以下镜像和规格:

  • 镜像选择:Ubuntu 20.04 x86 64bit SDI3 for Ant8 BareMetal with RoCE and NV-525 CUDA-12.0。
  • 裸金属规格选择:GP Ant8,包含8张GPU卡以及8张RoCE网卡。

关于Ant8裸金属服务器的购买,可以提工单至ModelArts云服务, 完成资源的申请。

步骤1 安装模型

  1. 安装Megatron-DeepSpeed框架。

    1. 使用root用户SSH的方式登录GPU裸金属服务器。具体登录方式请参见SSH密钥方式登录裸金属服务器
    2. 拉取PyTorch镜像,可以选择常用的镜像源进行下载。
      docker pull nvcr.io/nvidia/pytorch:21.10-py3
    3. 启动容器。
      docker run -d -t --network=host --gpus all --privileged --ipc=host --ulimit memlock=-1 --ulimit stack=67108864 --name megatron-deepspeed -v /etc/localtime:/etc/localtime -v /root/.ssh:/root/.ssh nvcr.io/nvidia/pytorch:21.10-py3
    4. 执行以下命令,进入容器终端。
      docker exec -it megatron-deepspeed bash
    5. 下载Megatron-DeepSpeed框架。
      git clone https://github.com/bigscience-workshop/Megatron-DeepSpeed

      如果git clone失败,可以尝试先下载至本地,然后复制至服务器中,再docker cp至容器中。

    6. 安装Megatron-DeepSpeed框架。
      cd Megatron-DeepSpeed
      pip install -r requirements.txt -i http://mirrors.myhuaweicloud.com/pypi/web/simple --trusted-host mirrors.myhuaweicloud.com
      pip install mpi4py -i http://mirrors.myhuaweicloud.com/pypi/web/simple --trusted-host mirrors.myhuaweicloud.com
    7. 修改测试代码,注释掉以下文件的断言所在行。
      vim /workspace/Megatron-DeepSpeed/megatron/model/fused_softmax.py +191

      “assert mask is None, "Mask is silently ignored due to the use of a custom kernel"”前加“#”,即:

      # assert mask is None, "Mask is silently ignored due to the use of a custom kernel"

  2. 数据集下载和预处理。

    本实践中选择使用1GB 79K-record的JSON格式的OSCAR数据集。

    1. 下载数据集。
      wget https://huggingface.co/bigscience/misc-test-data/resolve/main/stas/oscar-1GB.jsonl.xz 
      wget https://s3.amazonaws.com/models.huggingface.co/bert/gpt2-vocab.json
      wget https://s3.amazonaws.com/models.huggingface.co/bert/gpt2-merges.txt
    2. 解压数据集。
      xz -d oscar-1GB.jsonl.xz
    3. 预处理数据。
      python3 tools/preprocess_data.py \
          --input oscar-1GB.jsonl \
          --output-prefix meg-gpt2 \
          --vocab gpt2-vocab.json \
          --dataset-impl mmap \
          --tokenizer-type GPT2BPETokenizer \
          --merge-file gpt2-merges.txt \
          --append-eod \
          --workers 8
      如果发生如下“np.float”报错,按照报错提示修改为“float”即可。
      图1 预处理数据报错
    4. 数据预处理完成标识。
      图2 数据预处理完成
    5. 新建data目录并移动处理好的数据。
      mkdir data 
      mv meg-gpt2* ./data 
      mv gpt2* ./data

步骤2 单机单卡训练

本小节使用上文的服务器环境和安装好的模型, 使用GP Ant8裸金属服务器, 完成单机单卡GPT-2 MEDIUM模型的训练。

  1. 创建预训练脚本文件。

    1. 执行以下命令,创建预训练脚本文件。
      vim pretrain_gpt2.sh
    2. 在文件中添加以下信息。
      #! /bin/bash
      
      # Runs the "345M" parameter model
      
      GPUS_PER_NODE=1
      # Change for multinode config
      M AS TER_ADDR=localhost
      MASTER_PORT=6000
      NNODES=1
      NODE_RANK=0
      WORLD_SIZE=$(($GPUS_PER_NODE*$NNODES))
      
      DATA_PATH=data/meg-gpt2_text_document
      CHECKPOINT_PATH=checkpoints/gpt2
      
      DISTRIBUTED_ARGS="--nproc_per_node $GPUS_PER_NODE --nnodes $NNODES --node_rank $NODE_RANK --master_addr $MASTER_ADDR --master_port $MASTER_PORT"
      
      python -m torch.distributed.launch $DISTRIBUTED_ARGS \
             pretrain_gpt.py \
             --tensor-model-parallel-size 1 \
             --pipeline-model-parallel-size 1 \
             --num-layers 24 \
             --hidden-size 1024 \
             --num-attention-heads 16 \
             --micro-batch-size 4 \
             --global-batch-size 8 \
             --seq-length 1024 \
             --max-position-embeddings 1024 \
             --train-iters 5000 \
             --lr-decay-iters 320000 \
             --save $CHECKPOINT_PATH \
             --load $CHECKPOINT_PATH \
             --data-path $DATA_PATH \
             --vocab-file data/gpt2-vocab.json \
             --merge-file data/gpt2-merges.txt \
             --data-impl mmap \
             --split 949,50,1 \
             --distributed-backend nccl \
             --lr 0.00015 \
             --lr-decay-style cosine \
             --min-lr 1.0e-5 \
             --weight-decay 1e-2 \
             --clip-grad 1.0 \
             --lr-warmup-fraction .01 \
             --checkpoint-activations \
             --log-interval 10 \
             --save-interval 500 \
             --eval-interval 100 \
             --eval-iters 10 \
             --fp16

  2. 开始训练。

    本文是单机单卡训练,使用预训练脚本参数控制:

    GPUS_PER_NODE=1
    NNODES=1
    NODE_RANK=0
    1. 执行以下命令,开始预训练。
      nohup sh ./pretrain_gpt2.sh &
      图3 开始预训练
    2. 实时查看训练日志,监控程序。
      tail -f nohup.out

      如果显示如下信息, 表示模型训练完成。

      图4 模型训练完成

      在训练过程中观察单GPU卡的利用率。

  3. 查看生成的模型checkpoint。

    本示例生成的模型checkpoint路径设置在“/workspace/Megatron-DeepSpeed/checkpoints/gpt2”

    ll ./checkpoints/gpt2
    图5 模型checkpoint

步骤3 单机多卡训练

和单机单卡训练相比, 单机多卡训练只需在预训练脚本中设置多卡参数相关即可, 其余步骤与单机单卡相同。

  1. 当前选择GPU裸金属服务器是8卡, 因此需要在预训练脚本中调整如下参数:

    GPUS_PER_NODE=8

  2. 调整全局批处理大小(global batch size)、微批处理大小(micro batch size)、数据并行大小(data_parallel_size)参数。三者的关系为:“global_batch_size”可被“micro_batch_size * data_parallel_size”整除。

    本文设置的参数值如下:

    global_batch_size = 64 
    micro_batch_size = 4 
    data_parallel_size = 8

  3. 单机多卡完整的预训练脚本内容如下:

    #! /bin/bash
    
    # Runs the "345M" parameter model
    
    GPUS_PER_NODE=8
    # Change for multinode config
    MASTER_ADDR=localhost
    MASTER_PORT=6000
    NNODES=1
    NODE_RANK=0
    WORLD_SIZE=$(($GPUS_PER_NODE*$NNODES))
    
    DATA_PATH=data/meg-gpt2_text_document
    CHECKPOINT_PATH=checkpoints/gpt2
    
    DISTRIBUTED_ARGS="--nproc_per_node $GPUS_PER_NODE --nnodes $NNODES --node_rank $NODE_RANK --master_addr $MASTER_ADDR --master_port $MASTER_PORT"
    
    python -m torch.distributed.launch $DISTRIBUTED_ARGS \
           pretrain_gpt.py \
           --tensor-model-parallel-size 1 \
           --pipeline-model-parallel-size 1 \
           --num-layers 24 \
           --hidden-size 1024 \
           --num-attention-heads 16 \
           --micro-batch-size 4 \
           --global-batch-size 64 \
           --seq-length 1024 \
           --max-position-embeddings 1024 \
           --train-iters 5000 \
           --lr-decay-iters 320000 \
           --save $CHECKPOINT_PATH \
           --load $CHECKPOINT_PATH \
           --data-path $DATA_PATH \
           --vocab-file data/gpt2-vocab.json \
           --merge-file data/gpt2-merges.txt \
           --data-impl mmap \
           --split 949,50,1 \
           --distributed-backend nccl \
           --lr 0.00015 \
           --lr-decay-style cosine \
           --min-lr 1.0e-5 \
           --weight-decay 1e-2 \
           --clip-grad 1.0 \
           --lr-warmup-fraction .01 \
           --checkpoint-activations \
           --log-interval 10 \
           --save-interval 500 \
           --eval-interval 100 \
           --eval-iters 10 \
           --fp16

步骤4 使用GPT-2模型生成文本

  1. 自动式生成文本。

    1. 执行以下命令,创建文本生成脚本。
      vim generate_text.sh

      增加内容如下:

      #!/bin/bash
      
      CHECKPOINT_PATH=checkpoints/gpt2
      VOCAB_FILE=data/gpt2-vocab.json
      MERGE_FILE=data/gpt2-merges.txt
      
      python tools/generate_samples_gpt.py \
             --tensor-model-parallel-size 1 \
             --num-layers 24 \
             --hidden-size 1024 \
             --load $CHECKPOINT_PATH \
             --num-attention-heads 16 \
             --max-position-embeddings 1024 \
             --tokenizer-type GPT2BPETokenizer \
             --fp16 \
             --micro-batch-size 2 \
             --seq-length 1024 \
             --out-seq-length 1024 \
             --temperature 1.0 \
             --vocab-file $VOCAB_FILE \
             --merge-file $MERGE_FILE \
             --genfile unconditional_samples.json \
             --num-samples 2 \
             --top_p 0.9 \
             --recompute
    2. 执行以下脚本,生成文本。
      sh ./generate_text.sh

      如果回显信息如下,则表示生成文本完成。

      图6 生成文本完成信息
    3. 查看模型生成的文本文件。
      cat unconditional_samples.json

      回显信息如下:

      图7 文件信息

  2. 开启交互式对话模式。

    1. 执行以下命令,创建文本生成脚本。
      vim interactive_text.sh

      写入如下内容:

      #!/bin/bash
      
      CHECKPOINT_PATH=/workspace/Megatron-DeepSpeed/checkpoints/gpt2_345m
      VOCAB_FILE=/workspace/Megatron-DeepSpeed/data/gpt2-vocab.json
      MERGE_FILE=/workspace/Megatron-DeepSpeed/data/gpt2-merges.txt
      
      deepspeed /workspace/Megatron-DeepSpeed/tools/generate_samples_gpt.py \
             --tensor-model-parallel-size 1 \
             --num-layers 24 \
             --hidden-size 1024 \
             --load $CHECKPOINT_PATH \
             --num-attention-heads 16 \
             --max-position-embeddings 1024 \
             --tokenizer-type GPT2BPETokenizer \
             --fp16 \
             --micro-batch-size 2 \
             --seq-length 1024 \
             --out-seq-length 1024 \
             --temperature 1.0 \
             --vocab-file $VOCAB_FILE \
             --merge-file $MERGE_FILE \
             --genfile unconditional_samples.json \
             --num-samples 0 \
             --top_p 0.9 \
             --recompute
    2. 执行以下脚本,开启交互式对话。
      bash interactive_text.sh

      回显信息如下,输入huawei并回车后生成内容:

      Context prompt (stop to exit) >>> huawei

      回车后自动输出相关文本, 输出内容与模型训练、数据集强相关,这里仅为示例。

      图8 模型输出文本信息

大数据学习框架常见问题

更多常见问题 >>
  • Infima是一个样式框架,专门为内容导向型网站而设计。Infima 与现有 CSS 框架(例如 Bootstrap、Bulma)之间的主要区别在于,它采用现代化的主题化方法(CSS 变量)以及现代化的工具进行构建,并且具有开箱即用的暗模式支持,使其非常适合构建内容导向型网站,例如文档网站。

  • Gatsby 是一个基于 React 的免费、开源框架,可以帮助开发人员构建快速的网站和应用程序。

  • 虽然购买学习卡的操作比较简单,但是同学们还是有可能会遇到一些问题。本文让我们来看看一些常见问题的解决方法。

  • VuePress 是基于 Vue 前端开发框架的静态站点生成工具。

  • 本文让我们来看看一些优学院关于学习卡的常见问题的解决方法。

  • 以当今研究趋势由前馈学习重新转入双向对偶系统为出发点,从解码与编码、识别与重建、归纳与演绎、认知与求解等角度,我们将概括地介绍双向深度学习的历史、发展现状、应用场景,着重介绍双向深度学习理论、算法和应用示例。本课程介绍了双向深度学习理论、算法和应用示例,让你对双向深度学习有初步的认知。