新闻快讯新闻快讯

基于 Tensorflow eager 的文本生成,注意力,图像注

广告位API接口通信错误,查看德得广告获取帮助

雷锋网按:本文为 AI 研习社编译的技术博客,原标题 Complete code examples for Machine Translation with Attention, Image Captioning, Text Generation, and DCGAN implemented with tf.keras and eager execution,作者为 Yash Katariyae(开发者项目工程师实习生)。

翻译 | 老赵   审核 |  凡江

我总是发现生成和序列模型令人着迷:他们提出的问题与我们刚开始学习机器学习时常遇到的问题不同。当我第一次开始学习ML时,我学了分类和回归(和大多数人一样)。这些帮助我们提出并回答以下问题:

这是猫还是狗的照片? (分类)

明天会下雨的几率是多少? (回归)

掌握分类和回归是非常有用的技能,并且这些领域的应用对现实问题几乎没有限制。但是,我们可能会问其他不同类型的问题。

我们能生成一首诗吗? (文字生成)

我们可以生成一张猫的照片吗? (GANs)

我们可以将句子从一种语言翻译成另一种语言吗? (NMT)

我们可以描述图像内容吗? (图像注释)

在暑期实习期间,我使用TensorFlow的两个最新API开发了这些示例:tf.keras,以及eager function,我在下面分享了它们。我希望你发现它们有用,有趣。

eager function是一个逐步运行的界面,其中操作在从Python调用时即刻执行。这使得TensorFlow上手容易,并且可以是研究和开发更加直观。

tf.keras是一个定义模型的高级API,就像积木建造的乐高一样。我使用模型子类化实现了这些示例,它允许通过子类化tf.keras.Model并定义自己的前向传递来制作完全可自定义的模型。 当启用eager function时,模型子类化特别有用,因为可以强制写入前向传递。

如果你对这些APIs不了解,你可以通过探索tensorflow.org/tutorials()上的序列来了解更多信息,其中包含最近更新的示例。

以下每个示例都是端到端的,并遵循类似的模式:

自动下载训练数据集。

预处理训练数据,并创建tf.data数据集以在输入管道中使用。

使用tf.keras模型子类API定义模型。

使用eager function训练模型。

演示如何使用训练模型。

示例 1:文本生成

我们的第一个例子(https://colab.research.google/github/tensorflow/tensorflow/blob/master/tensorflow/contrib/eager/python/examples/generative_examples/text_generation.ipynb)是文本生成,我们使用RNN生成与莎士比亚类似的文本。您可以使用上面的链接在Colaboratory上运行它(或者您也可以从GitHub下载它作为Jupyter笔记本)。代码在笔记本中详细解释。

基于莎士比亚的大量作品,这个例子学会了生成听起来和风格相似的文字:

基于 Tensorflow eager 的文本生成,注意力,图像注释的完整代码

在训练莎士比亚写作集合的30个时期的后,笔记本生成了示例文本。 虽然大多数句子没有意义(当然,这个简单的模型还没有学会语言的意义),令人印象深刻的是大多数单词是有效的,并且它生成出的戏剧的结构看起来类似于来自原文的那些。 (这是一个基于角色的模型,在训练的短时间内 - 它已经成功地从头开始学习这两件事)。如果您愿意,可以通过更改单行代码来更改数据集。 了解更多关于RNN的最好方法是Andrej Karpathy的文章,即The Unreasonable Effectiveness of Recurrent Neural Networks。如果您想了解更多关于使用Keras或tf.keras实现RNN的信息,我们推荐由Francois Chollet提供的笔记。

示例 2:DCGAN

在这个例子(https://colab.research.google/github/tensorflow/tensorflow/blob/master/tensorflow/contrib/eager/python/examples/generative_examples/dcgan.ipynb)中,我们使用DCGAN生成手写数字。生成式对抗网络(GAN)由生成器和鉴别器组成。生成器的工作是创建令人信服的图像以欺骗鉴别器。鉴别器的工作是在真实图像和伪图像(由生成器创建)之间进行分类。下面看到的输出是在使用 Unsupervised Representing Learning with Deep Convolutional Generative Adversarial Networks。

这篇文章所述的体系结构和超参数训练150个历元的生成器和鉴别器之后生成的。

基于 Tensorflow eager 的文本生成,注意力,图像注释的完整代码

示例 3:注意力的神经机器翻译

这个例子(https://colab.sandbox.google/github/tensorflow/tensorflow/blob/master/tensorflow/contrib/eager/python/examples/nmt_with_attention/nmt_with_attention.ipynb)训练模型将西班牙语句子翻译成英语句子。训练模型后,您将能够输入西班牙语句子,例如“¿todavia estan en casa?”,并返回英文翻译:“你还在家吗?”