登录

  • 登录
  • 忘记密码?点击找回

注册

  • 获取手机验证码 60
  • 注册

找回密码

  • 获取手机验证码60
  • 找回
毕业论文网 > 开题报告 > 电子信息类 > 通信工程 > 正文

基于生成对抗网络的手写字体生成开题报告

 2020-02-18 18:26:42  

1. 研究目的与意义(文献综述)

1.1 研究目的及意义

生成对抗网络(generative adversarialnetwork,gan)是由谷歌公司在2014年提出的一个网络模型,主要灵感来自于二人博弈中的零和博弈,是近年来复杂分布上无监督学习最具前景的方法之一。模型通过框架中两个模块:生成模型和判别模型的互相博弈学习产生相当好的输出。

mnist(mixed national institute of standards andtechnology)是一个入门级的计算机视觉数据集,数据集中都是美国中学生手写的数字。它的训练集包含6万张图片,测试集包含1万张图片,并且数字已经进行过预处理和格式化,做了大小调整并居中,图片尺寸也固定为28*28。这个数据集很小,但训练速度很快,而且收敛效果也很好,非常适合作为深度学习实战的例子去学习。

剩余内容已隐藏,您需要先支付后才能查看该篇文章全部内容!

2. 研究的基本内容与方案

本文基于一种深度学习模型生成对抗网络,利用配置好的anaconda与tensorflow环境对该生成对抗模型建模,完成手写字体生成。生成对抗网络包含一个生成器和判别器。生成器以高斯噪声作为输入,通过学习真实样本的特征,生成与真实样本高度相似的新的数据样本。判别器的输入为真实样本和生成器生成的样本,用来判断输入数据是真实数据还是生成器生成的数据,判别器的实质是简单的二分类器。我们需要通过单独交替训练的方式来优化生成器和判别器。首先固定生成器参数,将真实数据和生成数据送入判别器,计算得到判别器的损失函数,再通过神经网络中的梯度反传更新判别器参数;然后固定判别器参数,生成器生成数据样本送入判别器,判别器的输出和1之间组成了生成器的损失函数,再通过神经网络中的梯度反传更新生成器参数。通过一定次数这样的单独交替训练,生成器和判别器能够达到或者逼近纳什均衡。在纳什均衡状态下,判别器无法判断输入数据是真实数据还是生成数据,生成器生成的数据很好地模仿了真实数据,达到了以假乱真的目的。

剩余内容已隐藏,您需要先支付后才能查看该篇文章全部内容!

3. 研究计划与安排

(1)第1-4周:查阅相关文献资料,明确研究内容,了解研究所需理论基础。确定方案,完成开题报告。

(2)第5-6周:熟悉掌握基本理论,完成英文资料的翻译,熟悉相关工具软件的使用。

(3)第7-9周:完成anaconda环境以及tensorflow环境的搭建。

剩余内容已隐藏,您需要先支付后才能查看该篇文章全部内容!

4. 参考文献(12篇以上)

[1] 李嘉璇.TensorFlow技术解析与实战.人民邮电出版社,2017.6

[2] 王启明,罗从良.Python 3.6 零基础入门与实战.清华大学出版社,2018

[3] 秦剑.基于生成对抗网络的信号重构.学位论文.2018

[4] 侯学东.基于生成对抗网络的图像翻译.学位论文.2018

[5] 张泽华.基于深度生成对抗网络的手写签名鉴别方法与应用研究.学位论文.2018

[6] 孙博.基于生成对抗网络的文本自动生成方法研究.学位论文.2017

[7] GoodfellowI. NIPS 2016 Tutorial: Generative Adversarial Networks[J]. 2016.

[8] Arjovsky M, Bottou L. Towards Principled Methods forTraining Generative Adversarial Networks[J]. 2017, 1050.

[9] Ulyanov D , Vedaldi A , Lempitsky V . InstanceNormalization: The Missing Ingredient for Fast Stylization[J]. 2016.

[10] BalujaS. Learning Typographic Style[J]. 2016.

[11] Azadi S , Fisher M , Kim V , et al. Multi-Content GAN forFew-Shot Font Style Transfer[J]. 2017.

[12] Dong C , Loy C C , He K , et al. Learning a DeepConvolutional Network for Image Super-Resolution[C]// European Conference onComputer Vision. Springer, Cham, 2014.

[13] Liu M Y, Tuzel O . Coupled Generative Adversarial Networks[J]. 2016.

[14] Salimans T , Goodfellow I , Zaremba W , et al. ImprovedTechniques for Training GANs[J]. 2016.

[15] Li J , Monroe W , Shi T , et al. Adversarial Learning forNeural Dialogue Generation[J]. 2017.

[16] Salakhutdinov, Ruslan. Learning Deep GenerativeModels[J]. Annual Review of Statistics and Its Application, 2015,2(1):361-385.

[17] Denton E , Chintala S , Szlam A , et al. Deep GenerativeImage Models using a Laplacian Pyramid of Adversarial Networks[J]. 2015.

[18] Rajeswar S , Subramanian S , Dutil F , et al. AdversarialGeneration of Natural Language[J]. 2017.

[19] Yu L , Zhang W , Wang J , et al. SeqGAN: SequenceGenerative Adversarial Nets with Policy Gradient[J]. 2016.

[20] Mirza M , Osindero S . Conditional Generative AdversarialNets[J]. Computer Science, 2014:2672-2680.

[21] Mao X ,Li Q , Xie H , et al. Least Squares Generative Adversarial Networks[J]. 2016.

[22] Odena A , Olah C , Shlens J . Conditional Image SynthesisWith Auxiliary Classifier GANs[J]. 2016.

剩余内容已隐藏,您需要先支付 10元 才能查看该篇文章全部内容!立即支付

企业微信

Copyright © 2010-2022 毕业论文网 站点地图