基于MATLAB的人脸识别方法研究开题报告
2020-02-18 16:22:11
1. 研究目的与意义(文献综述)
人脸识别技术是包括人脸检测和人脸身份认证技术在内的识别技术,人脸检测是根据所获得视频或者图片信息,利用图像处理和计算机视觉相关算法,从图像中判断是否有人脸,并给出存在人脸的数量和位置,更进一步的是通过脸与脸的匹配识别人脸的身份。
人脸识别技术的研究无论在理论上还是在实践中都有很大的意义,它涵盖了数字图像处理、神经网络、心理学、生理学、模式识别、计算机视觉以及人工智能等各方面的知识内容,对推动各个学科领域的发展具有重要的理论意义。在公安、金融、网络安全、物业管理以及考勤等各种领域也都有着巨大的应用价值。如人脸识别技术可以快速地计算出实时采集到脸部数据与人脸图像数据库中已知人员的脸部数据之间的相似度,返回鉴别结果和相对应的可信度。如应用面像捕捉,人脸识别技术可以在监控范围中跟踪一个人并确定他的位置。如在商场、银行、交易所等和金融相关场所,加以人脸识别智能监控,排除不法分子的侵入。利用人脸识别技术,可以进行计算机的登录控制,可以进行应用程序安全使用、数据库安全访问和文件加密,可以实现局域网和广域网的安全控制,可以保护电子商务的安全性。如门禁控制,通过摄像机动态捕获人脸,将人脸信息同数据库中的人脸信息进行检索对比,只有图像信息符合的人才可以进入,否则拒绝进入。在日常生活中,人们识别周围的人用的最多的是人脸。由于人脸识别的非侵犯性,具有直接、友好、方便的特点,是人们最容易接受的身份鉴别方式。
模式识别技术早在上个世纪 60 年代就已经有人提出,由于当时计算机处理速度的限制,只能从理论上证明是可行的。20世纪90年代以来,随着高速度高性能计算机的出现,人脸识别方法有了重大突破,进入了真正的机器自动识别阶段,人脸识别研究也得到了前所未有的重视。欧美等各高校都建立了人脸识别的实验室,其中著名的大学包括麻省理工学院(mit)、卡内基·梅隆大学(cmu)等。在美国主要有麻神理工学院等研究实验室提出的特征人脸对特征空间的投影来实现;在法国已经把人脸识别身份认证技术应用到自助取款机上,在实际使用时需要用一台 3d 摄像机,采集人的立体影像来鉴定身份。目前,美国许多研究小组相继投入到人脸识别方面的研究工作,他们的研究工作得到了美国军方、警方和大公司的资助,进展迅速。美国军方更是在每年组织人脸识别大赛(fert),以促进人脸识别的研究。日本sony公司最新推出的数码相机已经整合了人脸自动识别功能,在拍照时,可以自动检测出人脸区域并进行对焦,并且还具有识别笑脸的功能,能够自动检测出笑脸。2007 年 3 月,美国 nist 报告了 2006 年人脸识别供应商评测(frvt2006)结果,对控制光照条件下的极高分辨率正面人脸图像,最小错误接受率为 0.001时,最小错误拒绝率已达到 0.01,对高分辨率、低分辨率下的正面人脸图像的识别,这个数据也分别达到了 0.021 与 0.024。在一定条件,有些技术甚至超过了人类的人脸识别力。
2. 研究的基本内容与方案
人脸识别技术是基于生物特征的识别方式,利用人类自身所拥有的、并且能够唯一标示其身份的生理特征或行为特征进行身份验证技术。也就是给定一场景的静止或视频图象,利用训算机里存储的人脸数据库,确定场景中的一个或多个人。
人脸识别过程需要完成以下几方面的工作:
人脸检测:从各种场景中检测出人脸的存在,并从场景中准确分离出人脸区域;
3. 研究计划与安排
第1-3周:查阅相关文献资料,明确研究内容,了解研究所需理论基础。确定方案,完成开题报告。
第4-5周:熟悉掌握基本理论,完成英文资料的翻译,熟悉开发环境。
第6-9周:matlab编写人脸识别算法和系统,并进行仿真调试。
4. 参考文献(12篇以上)
[1] fadi dornaika. advances in face image analysis: theory and applications[m].bentham science publishers, 2016.
[2] n soni, p mate. a review on face detection and recognization techniques[j]. international journal of scientific research engineering amp; technology (ijsret), 2017,6(1):63-66.
[3] x. shen, z. lin, j. brandt, and y. wu. detecting and aligning faces by image retrieval. in proc. ieee conference on computer vision and pattern recognition, 2013. 2, 6, 8.