变分自编码器VAE:原来是这么一回事
1天前创建 VAE 的逻辑链 引言 在过去几年里,基于深度学习的生成模型在该领域取得了令人惊叹的进步,因而受到越来越多的关注。依靠海量数据、精心设计的网络架构和智能训练技术,深度生成模型在生成高度逼真的各类 …
掌握Transformer之注意力为什么有效
16天前01 引言 在过去的几年里,Transformer在 NLP 领域掀起了一场风暴。现在,它们在 NLP 之外的应用中也取得了成功。Transformer结构之所以有如此大的能量,是因为注意力模块。 …
Transformer中的编码器详解
23天前👀 前言 Transformer中编码器的构造和运行位置如下图所示,其中编码器内部包含多层,对应下图encoder1…encoder N,每个层内部又包含多个子层:多头自注 …