自然语言处理BERT模型
自然语言处理BERT模型
理论
Word2Vec模型通俗解读
向量一般采用50~300维,一般300维
余弦相似度度量
embeddings look up
神经网络前向传播计算lostfunction,后向传播通过lostfunction更新权重参数
模型
CBOW:预测中间值
Skip-gram:预测上下文
负采样模型
掌握Tensorflow如何实现Word2Vec模型
RNN网络架构与情感分析应用实例
自然语言处理通用框架BERT与案例解读
谷歌开源项目BERT源码解读与应用实例
实战
基于BERT的中文情感分析实战
基于BERT的中文命名实体识别实战
医学糖尿病数据命名实体识别
语言模型 | 语言模型需要大家熟悉下,后续词向量的基础 |
---|---|
使用Gemsim构建词向量dd | |
基于word2vec的分类任务ddd | |
NLP-文本特征方法对比 | 文本特征构造方法这么多,哪一个更好用呢? |
LSTM情感分析 | 用这个项目来理解RNN模型所需的输入长什么样子 |
NLP-相似度模型 | |
对话机器人 | 基于tensorlfow框架构建一个聊天机器人 |
动手打造自己的输入法 | 能不能构建一款自己的输入法呢?帮你搞定! |
机器人写唐诗 | 看看模型写出的唐诗咋样! |
NMT机器翻译框 | 开源项目,可以进行二次开发 |
地址邮编多序列任务 | 经典文本分类任务 |
自然语言处理通用框架BERT原理 | 这个就是上面说的BERT了,重点!重点!重点! |
谷歌开源项目BERT源码解读 | 源码非常重要,每一行都需要理解 |
基于BERT的中文情感分析 | 基于开源项目进行模型开发 |
基于BERT的中文命名实体识别 | 基于开源项目进行命名实体识别 |
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 GaryMK!
评论