2. RNN经典案例
以一个人名为输入, 使用模型帮助我们判断它最有可能是来自哪一个国家的人名, 这在某些国际化公司的业务中具有重要意义, 在用户注册过程中, 会根据用户填写的名字直接给他分配可能的国家或地区选项, 以及该国家或地区的国旗, 限制手机号码位数等等.
以一个人名为输入, 使用模型帮助我们判断它最有可能是来自哪一个国家的人名, 这在某些国际化公司的业务中具有重要意义, 在用户注册过程中, 会根据用户填写的名字直接给他分配可能的国家或地区选项, 以及该国家或地区的国旗, 限制手机号码位数等等.
在这里,我们将构造一个把不同图像进行分类的神经网络分类器,对输入的图片进行判别并完成分类。本案例采用 CIFAR10 数据集作为原始图片数据。
HMM(Hidden Markov Model), 中文称作隐含马尔科夫模型, 因俄国数学家马尔可夫而得名. 它一般以文本序列数据为输入, 以该序列对应的隐含序列为输出.CRF(Conditional Random Fields), 中文称作条件随机场, 同HMM一样, 它一般也以文本序列数据为输入, 以该序列对应的隐含序列为输出.
Pytorch 是一个基于 Numpy 的科学计算包, 向它的使用者提供了两大功能: 作为 Numpy 的替代者,向用户提供使用 GPU 强大功能的能力 做为一款深度学习的平台,向用户提供最大的灵活性和速度
Pytorch 是一套成熟的框架,可以通过一个定式来构建神经网络: 1. 定义一个拥有可学习参数的神经网络 2. 遍历训练数据集 3. 处理输入数据使其流经神经网络 4. 计算损失值 5. 将网络参数的梯度进行反向传播 6. 以一定的规则更新网络的权重
2018年10月,Google发出一篇论文《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》, BERT模型横空出世, 并横扫NLP领域11项任务的最佳成绩!而在BERT中发挥重要作用的结构就是Transformer, 之后又相继出现XLNET,roBERT等模型击败了BERT,但是他们的核心没有变,仍然是:Transformer
语言模型能解决哪些问题: 1. 根据语言模型的定义,可以在它的基础上完成机器翻译,文本生成等任务,因为我们通过最后输出的概率分布来预测下一个词汇是什么. 2. 语言模型可以判断输入的序列是否为一句完整的话,因为我们可以根据输出的概率分布查看最大概率是否落在句子结束符上,来判断完整性. 3. 语言模型本身的训练目标是预测下一个词,因为它的特征提取部分会抽象很多语言序列之间的关系,这些关系可能同样对其他语言类任务有效果.因此可以作为预训练模型进行迁移学习.
神经网络训练学习的过程中,一个很重要很关键的步骤是反向传播和求导。在 Pytorch 框架中,通过一个 autograd package(自动求导工具包),提供了一个对 Tensors 上所有的操作进行自动求导的功能。
自然语言处理(Natural Language Processing, 简称NLP)是计算机科学与语言学中关注于计算机与人类语言间转换的领域.
以一段新闻报道中的文本描述内容为输入, 使用模型帮助我们判断它最有可能属于哪一种类型的新闻, 这是典型的文本分类问题, 我们这里假定每种类型是互斥的, 即文本描述有且只有一种类型.