成果介绍
本项目研究的一种基于可穿戴设备的人体姿态感知和追踪技术(简称体感技术)的开发和应用。所谓的体感技术就是借助外部设备将目标人物的肢体动作、移动轨迹转化成计算机能够处理、分析和识别的数据。本项目所开发的体感技术只需在识别对象身体上安装简单的可穿戴设备,克服了现在技术上3D摄像头的部署问题识别算法的抗干扰问题,可极大的拓展体感技术的应用领域和市场空间,从而进一步推动该技术的产业化发展。项目通在人体部署一体系列的数据采集模块,即惯性度量传感器(IMU)收集相应的移动数据,在将所有数据收集之后,终端设备(手机、平板、电脑)通过综合处理所有采集点的数据从而恢复整个人体或者人体局部的姿态,实现高度人机交互。该技术所解决的技术问题有:1、采用惯性传感器,每个数据采集块都是独立的传感器,非常方便的实现动态增减适配,实现对动作捕捉的跟踪,实时传送2、降低传感器成本与大小,达到贴身部署,实现携带方便,降低应用场景的限制,成本低,达到民用化 3、利用高科技纠错技术,实时分析动作的专业和精度;4、项目所开发的惯性度量传感器数据融合算法可实现高精度的数据采集; 项目的技术创新在于:1、自主研发的离线及在线传感哭纠错技术使得低成本的可穿戴设备可用于满足高精度的识别需求2、先进的多传感器融合技术,将布于人体不同位置的传感器综合运秀人体姿态信息的识别3、基于机器学习的传感器数据分析算法用于智能识别运动状态、分析运动数据,从而准备地反应运动细节4、通信模块(低功耗蓝牙)和在线存储器使得传感器既能实时与手机等移动设备通信,也可将数据缓存在传感器设备上等待稍后通信,既能满足对实时反馈要求较高的运动,也能使用于那些不方便携带移动设备的运动项目。目前,项目组已经完成一个手部姿态追踪手套,该手套由12个独立的状态传感器及解算模块构成,并分布在手套的12个关节位置,12个传感器解算出来的数据通过蓝牙模块发送回移动终端或者桌面电脑,并进一步融合出手的动作姿态。单个传感器的旋转是通过四元数来表示,可解算出来的角度误差不超过2度。通过对各传感器的数据进一步融合,可实现对手套旋转及手指关节角度的解算恢复手型。计算所得的旋转角度误差不超过2度,指间和关节间的角度误差不超过5度。作为一种新型的人机交互手段,项目产品可广泛应用于游戏、电影拍摄、远程机械控制、运动数据分析等领域,市场前景非常广阔。
成果亮点
团队介绍
成果资料