让AI知识触手可及

首页 » 【课程总结】Day17(下):初始Seq2Seq模型

前言

"日月忽其不淹兮,春与秋其代序。"
技术更新的车轮在滚滚向前,曾经名噪一时的RNN模型,在新的技术革新下也渐渐落幕,本章我们将初步了解Seq2Seq模型,同时借助Demo代码,对Seq2Seq模型有一个直观了解。

Encoder-Decoder的回顾

回顾【课程总结】Day15(上):图像分割之语义分割,我们曾接触到U-Net模型,它是一种Encoder-Decoder模型。在此,我们重新回顾理解Encoder-Decoder模型。

  • Encoder-Decoder是一个通用的框架。
  • Encoder又称作编码器。它的作用就是:将现实问题转化为数学问题。
  • Decoder又称作解码器,它的作用是:求解数学问题,并转化为现实世界的解决方案。

    只要符合上面的框架,都可以统称为Encoder-Decoder模型,其中sequence-to-sequence就是Encoder-Decoder的一种特例。

Encoder-Decoder的应用

图片 – 图片

应用:U-net系列算法的应用,如肝脏识别

音频 – 文本

应用:语音识别

图片 – 文本

应用:图像描述生成(看图说话)

论文地址:https://arxiv.org/pdf/1505.00487

文本 – 文本

应用:机器翻译,对话机器人,文章摘要,代码补全

其中,文本(RNN) – 文本(RNN)是NLP第一模型!

Seq2Seq模型

模型简介

序列到序列(seq2seq)模型是一种用于处理序列数据的架构,主要用于将一个输入序列转换为一个输出序列。它广泛应用于机器翻译、文本摘要、对话系统等任务。

模型结构

下图所示的是一个典型的机器翻译任务中,输入的文本序列(源语言表述)到输出的文本序列(目标语言表述)之间的变换。

进一步,显示编码器和解码器结构如下图:

进一步,展开编码器和解码器的步骤如下图:

进一步,结合之前所了解RNN知识,展开其结构如下图:

解释说明:

  • Seq – Encoder编码器

    • 作用:解析问句,将其编码为一个中间表达Vector
    • 本质:一个RNN(自动完成循环,一次性得到结果即可)
  • 中间表达

    • 作用:承上启下,既是上句处理的结果,又是下句生成的参考。
    • 本质:编码器RNN的最后一个时间步的隐藏状态 hn
  • Seq – Decoder解码器

    • 作用:把中间表达作为初始化状态,逐个生成下句
    • 本质:一个RNN(单步生成,自回归,即:一次生成一个词)

Seq2Seq的实践

接下来,我们通过运行示例代码,对Seq2Seq模型有一个直观了解。

拉取代码

git clone https://github.com/domonic18/seq2seq_demo.git

安装依赖包

pip install jieba
pip install OpenCC

训练

# 进入seq2seq_demo目录
python main.py

运行结果:

可以看到首次运行的时候,预测结果与真实结果相差甚远,可以说翻译的能力很差。


当训练到第6轮的时候,预测结果与真实结果已经非常接近。

验证翻译能力

输入:Am I wrong?

可以看到经过初步训练,模型可以翻译简单的英语句子。

输入:A word spoken is past recalling.

对比有道词典的翻译结果,其翻译能力还是不足的。原因是当前的demo中data训练集只有3万条数据,如果加大data.txt的训练集数据,模型的能力是可以进一步提升的。

内容小结

  • Encoder-Decoder是一种通用的架构,Encoder-Decoder模型有多种应用,其中文本-文本广泛应用于机器翻译、文本摘要,对话系统等任务,是NLP的第一模型。
  • Seq2Seq模型是Encoder-Decoder模型的一种特例。
  • Encoder编码器的作用是解析问句,将其编码为一个中间表达Vector,其本质是一个RNN。
  • 中间表达承上启下,既是上句处理的结果,又是下句生成的参考,其本质是编码器RNN的最后一个时间步的隐藏状态 hn
  • Decoder解码器的作用是把中间表达作为初始化状态,逐个生成下句,其本质是一个自回归的RNN。

参考资料

CNBlog:Seq2Seq原理详解
CSDN:自然语言处理从零到入门 Encoder-Decoder 与 Seq2Seq

欢迎关注公众号以获得最新的文章和新闻

声明:一起AI技术所有文章,如无特殊说明或标注,均为本站作者原创发布。任何个人或组织,在未征得作者同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。
原创不易,内容版权受保护,感谢您的尊重与支持。
0 0 投票数
Article Rating
订阅评论
提醒
guest的头像


0 评论
内联反馈
查看所有评论
Picture of Dongming
Dongming
见天地,见众生,见自己。

分类文章

推荐活动

推荐文章

新SOTA,AI增强医学蛋白质组数据分析,扩散模型驱动的从头肽测序
反向传播、前向传播都不要,这种无梯度学习方法是Hinton想要的吗?
【模型测试】基于OpenCompass构建Dify应用的自定义评测体系
【模型测试】大模型评测工具OpenCompass使用方法总结
【模型测试】大模型评测工具lm-evaluation-harness的使用方法总结
【模型测试】大模型测评体系的构成
【模型测试】ai-eval-system在线评测系统v0.2预览版本介绍
7B扩散LLM,居然能跟671B的DeepSeek V3掰手腕,扩散vs自回归,谁才是未来?
预测精度达93%,个人电脑可部署,科学家开发Transformer新方法预测结合蛋白
脑波解码延迟仅80毫秒,实时「意念对话」技术登Nature子刊
0
希望看到您的想法,请您发表评论x