OSCHINA 社区最新专区文章 |
- 生成任务:语言的中外翻译,你应该知道的NLP生成任务
- 深度注意力机制Deep Attention Matching Network
- 用PaddlePaddle实现基于skip-gram的word2vec模型
Posted: 23 Apr 2020 12:03 AM PDT 神经机器翻译 机器翻译的目标是将文本从一种语言自动翻译成另一种语言,给定一个待翻译的语言的文本序列, 不存在一个翻译是当前文本的最佳翻译。 这是因为人类语言天生的模糊性和灵活性.这使得自动机器翻译这一挑战变得困难, 也许这是人工智能中最难的一项挑战。 常规的机器翻译方法有统计机器翻译和神经机器翻译,这里我... |
深度注意力机制Deep Attention Matching Network Posted: 26 Apr 2020 11:56 PM PDT 深度注意力机制模型 深度注意力机制模型(Deep Attention Matching Network)是开放领域多轮对话匹配模型。根据多轮对话历史和候选回复内容,排序出最合适的回复。 网络结构如下 任务定义与建模 多轮对话匹配任务输入是多轮对话历史和候选回复,输出是回复匹配得分,根据匹配得分排序。 模型原理介绍 可以参考论文:http... |
用PaddlePaddle实现基于skip-gram的word2vec模型 Posted: 27 Apr 2020 12:09 AM PDT fork运行方见多文件 项目简介 本项目实现了基于skip-gram的word2vector模型,既下图中的skip-gram部分 以每一个词为中心词X,然后在窗口内和临近的词Y组成样本对(X,Y)用于网络训练。在实际训练过程中还会根据自定义的负采样率生成负样本来加强训练的效果 具体的训练思路如下: 参考论文:Distributed Representations... |
You are subscribed to email updates from OSCHINA 社区最新专区文章. To stop receiving these emails, you may unsubscribe now. | Email delivery powered by Google |
Google, 1600 Amphitheatre Parkway, Mountain View, CA 94043, United States |
No comments:
Post a Comment