成果介绍
本发明涉及计算机视觉领域,尤其是涉及一种基于特征融合与注意力机制的二维人体手臂姿态估计方法,包括以下步骤:步骤一,采集人体动作图像,并通过人体边界范围进行图像裁剪;步骤二,通过基础网络模块对裁剪的图像进行人体手臂关节特征提取;步骤三,通过特征融合与注意力组合模块进行特征融合与聚焦,达到减小特征损失、提升有效信息专注度的目的,得到手臂关节热力图;步骤四,从得到的手臂关节热力图中获取位置坐标。本发明能够从人体动作RGB图像中获取准确的二维手臂关节位置坐标。
成果亮点
本发明提出一种基于特征融合与多维度注意力机制的网络模型,吸收Transformer机制在高层语义信息提取的优势,通过融合多尺度特征以避免信息损失,同时利用多维注意力机制增加模型对有效特征信息的关注度,有效提升包括遮挡关节在内的整体关节位置的检测能力。
团队介绍
浙江大学机器人研究院(以下简称“研究院)是为了贯彻落实浙江省委省政府关于推进工业转型升级的战略部署,在余姚市的大力推动下,于2017年由浙江大学和余姚市合作共建的新型研发机构。
研究院面向科技前沿、面向经济发展主战场,将机器人、智能装备研发及产业化作为主要突破方向;立足余姚、服务浙江、面向全国。以“合作、创新、智能、引领”为理念,以体制机制创新为抓手,以科技研发、成果转化和人才培育为核心,着力构建技术-人才-产业深度融合的创新创业生态;努力建成为国内一流的机器人领域政、产、学、研、用深度融通的新高地。
成果资料