1

BERT课程

 5 months ago
source link: http://fancyerii.github.io/2019/03/05/bert-prerequisites/
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

本文是作者即将在CSDN作直播的课程的预备知识,对课程感兴趣但是没有相关背景知识的同学可以提前学习这些内容。新增课程slides和视频回放地址。

目录

课程视频和slides

回放视频地址是这里。 课程的slides可以在这里下载。

为了理解课程的内容,读者需要以下背景知识。

  • 深度学习基础知识
  • Word Embedding
  • RNN/LSTM/GRU
  • Seq2Seq模型
  • Attention机制
  • Tensorflow基础知识
  • PyTorch基础知识

深度学习基础知识

Word Embedding

  • Word Embedding教程

    理解Word Embedding的概念即可,跳过Word2Vec的推导、Softmax和Negative Sample并不影响后续阅读。

  • 语言模型教程

    理解语言模型的概念即可,N-Gram可以稍微了解一下,平滑和回退等tricky可以跳过,RNN语言模型需要RNN的知识,请参考RNN/LSTM/GRU的部分。

RNN/LSTM/GRU、Seq2Seq和Attention机制

Tensorflow基础知识

  • Tensorflow简明教程

    Tensorflow的基础知识,熟悉的读者也建议读读,也许会有新的收获。

PyTorch基础知识

  • PyTorch简明教程

    来自官网的教程,包含60分钟PyTorch教程、通过例子学PyTorch和迁移学习教程。

下面的内容会在课程上详细讲解,但是建议同学们提前预习一下。



About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK