基于卷积神经网络的无参考图像模糊度评估研究开题报告
2021-12-24 15:41:58
全文总字数:4783字
1. 研究目的与意义及国内外研究现状
伴随着智能设备的普及,一系列的天气手机应用应运而生,相比于传统的获取天气状况的方式如收听电视电台天气预报,手机应用在保证天气数据准确性和及时性的前提下,增添了很多社交功能,如用户可以上传当地实时天气图片与在线用户进行交流讨论。很多因素都可以导致由用户端上传至服务器端的天气实景图像质量降低,各式各样的失真方式存在于这些图片当中,并最终在屏幕端呈现出来,这必然就要求图像处理方式的不断提升。
在此研究中,我们通过建立卷积神经网络来对天气实景图片进行无参考的模糊度估计。一般情况而言,若要评价某张图片质量需要一张比较理想的图片来作为参考图片,如果存在该张参考图片,那么可以用选择全参考图片质量评价(full reference(fr)iqa)方式,在很多情况下可以取得比较高的准确率。但是在很多实际情况中是不存在一张完美的参考图片的,因此可以采用无参考图片质量评价(no-reference(nr) iqa)方式,在该种评价方式中图像的清晰度是衡量图像质量优劣的重要指标,它能够较好的与人的主观感受相对应,图像的清晰度不高表现出图像的模糊。与此同时,不同于大多数传统的图片质量评价需要人工标记出图片特征,通过卷积神经网络建立的无参考图片评价(nr-iqa)框架只需要将原始图片中的图片块作为输入,系统输出该图片块准确的质量评价分数,在图片均匀失真的情况下可以根据图片快的质量评价分数推出整张图片的质量评价分数。该种评价方式将特征学习和递归整合到一个优化过程中,是一种针对无参考图像质量评价的端到端的解决方案,能够有效提高图片质量估计研究的准确度和效率。
2. 研究的基本内容
图像质量评价可分为主观评价和客观评价。其中主观评价主要是通过人眼对于目标图像和原图像的对比来获得相应的图片质量评分,如果人眼认为目标图像相对于原图像有着比较明显的失真或者损伤,则认为目标图像质量比较差,反之则认为目标图像质量比较好。如果没有原图像也就是参考图像,人眼可以依据图像中的背景,物体轮廓,纹理等来区分图像质量。主观图像质量评价依赖大量观察者人眼鉴别图像质量,手工添加图像质量标签,在针对海量图片评价的实际应用中,费用极高,耗时极长。但是该种评价方式可以应用于各种图像质量评价的数据集中,如Live数据集,大约20-29观察者评价数据集中的每个图像,最后得出每个失真图像的差异平均意见得分(DMOS)。客观评价是指由机器算法得出图片质量结果,相比于主观质量评价,具有可批量处理,结果可重现等特点。Hamid Rahim Sheikh在其博士论文中指出目前图像质量评价算法都只能取得有限的成功且仍然处于不断的改进当中。研究人员在人类视觉中进行的相关发现都可能导致图像质量评价算法的进一步提升。
在此研究中,我们通过建立卷积神经网络来对天气实景图片进行无参考的模糊度估计。一般情况而言,若要评价某张图片质量需要一张比较理想的图片来作为参考图片,如果存在该张参考图片,那么可以用选择全参考图片质量评价(Full Reference(FR)IQA)方式,在很多情况下可以取得比较高的准确率。但是在很多实际情况中是不存在一张完美的参考图片的,因此可以采用无参考图片质量评价(No-Reference(NR) IQA)方式,在该种评价方式中图像的清晰度是衡量图像质量优劣的重要指标,它能够较好的与人的主观感受相对应,图像的清晰度不高表现出图像的模糊。与此同时,不同于大多数传统的图片质量评价需要人工标记出图片特征,通过卷积神经网络建立的无参考图片评价(NR-IQA)框架只需要将原始图片中的图片块作为输入,系统输出该图片块准确的质量评价分数,在图片均匀失真的情况下可以根据图片快的质量评价分数推出整张图片的质量评价分数。该种评价方式将特征学习和递归整合到一个优化过程中,是一种针对无参考图像质量评价的端到端的解决方案,能够有效提高图片质量估计研究的准确度和效率。
3. 实施方案、进度安排及预期效果
2016.12-2017.01
查新、调研,并初步掌握面向海量天气实景图片的无参考图像模糊度估计的基本原理。
2017.01-2017.03
4. 参考文献
[1] z.wang and a.c.bovik,modern image quality assessment.
[2] h. r. sheikh. image quality assessment using natural scene statistics.
[3] h. r. sheikh, a. c. bovik, and g. de veciana. an information delity criterion for image quality assessment using natural scene statistics.