行动不便人士的头部控制界面
瘫痪是丧失自愿性肌肉控制,使人失去使用其四肢进行交流的能力。 在某些瘫痪情况下,例如假性昏迷,一个人也失去了说话的能力。 该项目研究了为可以使用颈部肌肉控制界面的人开发人机交互系统的问题和方法。 使用Dlib和OpenCV提取的面部界标点构建系统的初始设计。 使用显式和自动特征选择技术,比较了不同的分类器,例如决策树,随机森林,K-最近邻和神经网络。 该项目为瘫痪者的独立做出了很小的贡献。
如图所示,使用Dlib检测面部标志:
该系统的工作原理如下:
在比较了使用手动功能以及具有自动功能的自动编码器的不同分类器之后,Random Forests在预测对象在屏幕上的3 x 3网格上的位置时达到了100%的准确性。
这样就建立了一个头部控制的人机交互系统的初始设计。