基于uArm Swift机械臂书写技术研究开题报告
2020-03-30 12:16:07
1. 研究目的与意义(文献综述)
1.1背景及国内外研究现状
机械臂作为最早出现的工业机器人,可以代替人类进行繁重的劳动,将人从重复枯燥的工作中解放出来;能在有害的环境下实施各种操作,保护人类的安全,因此被广泛应用于工业生产,科研和生活各个领域。正如人类的手是人获得认知的重要渠道,是人完成灵活操作最重要的器官,机械臂作为模仿人类手臂的一种机器人,即代表了机器人可以参与到人类社会生活生产的方方面面,是智能机器人领域很重要的一项研究课题。随着科技的发展及人们的需求,机械臂的各种应用陆续被开发,如机器视觉识别,机器爆破,机械实施精密手术等等。机械臂书写作为智能机器人的一项重要应用,也得到了广泛的关注。机械臂书写动作主要是靠机械手臂和其他传感装置的协同配合来完成,它能模仿人类手臂的某些动作功能,是一种按固定程序来完成各种动作的自动操作装置[1]。
工业机器人作为先进制造业中不可代替的重要装备手段,已经成为衡量一个国家制造业水平和科技水平的重要标志。国外的机器人研究起步很早,并且发展迅速,德国柏林犹太博物馆里展出可抄写圣经的机器人,sonny推出的手写机器人band,通过特定程序控制的机器人nao,在展会中展示的会写毛笔字的机械臂以及格力写字机械臂等等,类似的写字机械臂在国外已取得了一定成果,有些成果甚至已经投入了实际工业生产中[2]。国外工业机器人已经成为一种标准的自动化设备,工业机器人技术已经非常成熟[3][4][5]。
相对而言,虽然我国工业机器人起步较晚,但是在国家政策的支持和鼓励下,已经取得高速发展。景兴碧采用一种工业型平面关节装配型机器人scara来进行软笔书写,该机器人的结构和与人的手臂及关节接近,采用末端执笔并接收控制命令来完成写字[6];何微应用一个六自由度denso工业型机器人,并添加了机器视觉和计算机作为实验平台,提出了一种基于机器视觉的机器人写字方法[7];薛环振在他的硕士论文里结合了计算机书法[8]的相关技术,以工业机器人motoman为平台设计了夹持毛笔的方法,控制机械臂完成了书写动作[9]。对于机器人控制模型的研究,金英连采用六自由度转动关节机器人结构,是基于坐标变换建立运动学模型,使用三级递阶控制进行书写[10];满翠华对多自由度机器人手臂的结构进行设计,主要通过d-h法和基于旋量理论对动作笔画求运动学正解和逆解,以此控制机械臂的动作[11]。市面上的相关企业公司也已经掌握了机器人控制系统的硬件和软件技术;运动学动力学和轨迹规划技术以及一些机器人部位的制造技术等。但是和国际上先进的机器人相比,仍然有较大的差距,关键部分仍是以进口为主[12]。国内设计和生产的工业机器人普遍存在性能不高,运行不稳定以及重复精度低等问题,生产规模较小,竞争力不足。
2. 研究的基本内容与方案
2.1.研究的基本内容及目标
uarmswift机械臂的书写功能对机械臂的稳定性,准确性及灵活性有极高的要求,虽然有现成的硬件平台,但无论是机械臂的运动学建模还是软件编程控制的实现,都对书写的质量有重大影响,因此每个方面都不能忽视。总的来说,研究主要可以分为两个部分,分别是硬件部分和软件部分。
硬件部分主要是对机械臂建模理论,正运动学及逆运动学的分析,机械臂速度和静力的控制,轨迹规划等内容进行研究[15]。实现机械臂硬件系统的搭建,为软件编程提供可靠的数学和控制模型。软件部分则是基于控制模型,设计软件流程图,并使用python语言,通过编程完成对机械臂的控制,最终实现书写功能。
3. 研究计划与安排
第1周:选定毕业设计题目,并查找相关资料;
第1~3周:学习Python语言,查找资料并撰写开题报告;
第4周:了解uArm Swift机械臂及其控制系统的硬件平台;
第5~6周:掌握机械臂结构与控制的基本概念功能需求,并学习机械臂运动学和逆运动学,掌握机械臂速度和静力的控制;
第7~8周:完成uArm Swift机械臂书写控制系统的控制模型建立和控制测量制定;
第9~11周:基于Python完成机械臂书写功能的代码编程;
第12~13周:完成整个系统,并进行整机调试,修复出现的错误;
第14~16周:撰写并提交毕业论文;
第17周:答辩。
4. 参考文献(12篇以上)
[1]曾华琳.黄雨轩.晁飞等.书写机器人研究综述[j].智能系统学报,2016,15-26.
[2]李俊.王春城.杨晓帅等. 一种写字机械臂的设计与实现[j]. 中国新技术新产品,2017
[3] chao fei, chen fuhai, shenyuhang, et al. robotic free writing of chinese c;harac;ters via human-robotinteractions[j].international journal of humanoidrobotic,2014,11(1):1450007-1-26