关于长期主义的理解
只有长期主义者,才能“必然”取得最后的成功;非长期主义者,只能得到“偶然”的成功,然后在一次次基本概率事件下,归于平庸。
本文基于论文《Attention Is All You Need》对其中提出的Transformer模型架构进行了拆解,分析了其设计思路和优势。
介绍Self-Attention和Multi-Head Attention,这两个的深入理解是理解transformer的前提。
分别介绍了Encoder-Decoder框架和Seq2Seq模型的结构,完成的工作,以及两者之间的关系。最后给予Encoder-Decoder的框架实现了Seq2Seq的模型,方便大家理解。
GAN是最近几年最火热的研究方向之一,本文讲解生成对抗网络第一次被提出的论文《Generative Adversarial Nets》