自然语言处理BERT模型

理论

Word2Vec模型通俗解读

向量一般采用50~300维,一般300维

余弦相似度度量

embeddings look up

神经网络前向传播计算lostfunction,后向传播通过lostfunction更新权重参数

模型

CBOW:预测中间值

Skip-gram:预测上下文

负采样模型

掌握Tensorflow如何实现Word2Vec模型

RNN网络架构与情感分析应用实例

自然语言处理通用框架BERT与案例解读

谷歌开源项目BERT源码解读与应用实例

实战

基于BERT的中文情感分析实战

基于BERT的中文命名实体识别实战

医学糖尿病数据命名实体识别

语言模型 语言模型需要大家熟悉下,后续词向量的基础
使用Gemsim构建词向量dd
基于word2vec的分类任务ddd
NLP-文本特征方法对比 文本特征构造方法这么多,哪一个更好用呢?
LSTM情感分析 用这个项目来理解RNN模型所需的输入长什么样子
NLP-相似度模型
对话机器人 基于tensorlfow框架构建一个聊天机器人
动手打造自己的输入法 能不能构建一款自己的输入法呢?帮你搞定!
机器人写唐诗 看看模型写出的唐诗咋样!
NMT机器翻译框 开源项目,可以进行二次开发
地址邮编多序列任务 经典文本分类任务
自然语言处理通用框架BERT原理 这个就是上面说的BERT了,重点!重点!重点!
谷歌开源项目BERT源码解读 源码非常重要,每一行都需要理解
基于BERT的中文情感分析 基于开源项目进行模型开发
基于BERT的中文命名实体识别 基于开源项目进行命名实体识别