眼睛说了一切刚刚,启用团队 ,微软研究
当您只能移动眼睛时,可能很难进行交流,就像ALS患者(也称为运动神经元疾病)一样 。微软的研究人员开发了一个应用程序 ,可以使您的眼睛更容易说话,称为刚刚涌现。
Gazespeak在智能手机上运行,并使用人工智能将眼动动作转换为语音 ,因此对话伙伴可以实时了解所说的话。
该应用程序在侦听器的设备上运行 。他们将智能手机指向扬声器,好像他们在拍照一样。扬声器可见的手机背面的贴纸显示了一个网格,该网格将字母分组为四个盒子 ,对应于左,右,上下。当演讲者发出不同的眼睛信号时,刺激的注册为字母 。
“例如 ,要说'任务'一词,他们首先看不起,选择包含't'的组 ,然后选择包含'a'的组,等等。”他在Microsoft的实习生时开发了Geaiyi Zhang。
Gazespeak通过预测说话者想根据最常见的英语单词说的单词来选择每个组的适当字母,类似于预测性文本消息传递 。扬声器表示他们已经眨眨眼或直视前向前两秒钟就完成了一个字。该系统还考虑了添加的单词列表 ,例如说话者可能使用的名称或位置。前四个单词的预测在屏幕上显示,顶部大声朗读。
“我们正在利用计算机愿景来识别眼手势,而人工智能进行了预测 , ”华盛顿雷德蒙德的Microsoft Research的Meredith Morris说 。
该应用是为ALS等运动障碍者设计的,因为眼睛运动可能成为患有这些条件的人进行交流的唯一途径。ALS逐渐损害神经细胞,影响一个人说话 ,吞咽并最终呼吸的能力。眼睛肌肉通常是最后一个受到影响的 。
运动神经元疾病协会的马修·霍利斯(Matthew Hollis)说:“人们在尝试交流时可能会感到非常沮丧,因此,如果这个应用程序可以使事情变得更容易,这是一件非常好的事情。”
目前 ,ALS患者进行沟通的选择有限。最常见的是使用板,以不同的组显示字母,一个人在选择字母时跟踪扬声器的眼动 。但是 ,某人可能需要很长时间才能学习如何有效地解释这些眼睛运动。
事实证明,在尝试该应用程序和低科技板的20个人中,使用了更快的速度。用入台完成一句话 ,平均需要78秒,而使用董事会的句子为123秒 。测试中的人没有ALS,但是团队也从某些ALS及其口译员的人那里收到了有关技术的反馈。一位尝试该设备的人在短短62秒内键入了测试句子 ,并说他认为在现实生活中会更快,因为他的口译员可以更轻松地预测他可能会说些什么。
一位口译员说:“我喜欢电话技术;我只是认为那会是如此的光滑 。”
其他系统目前使用软件来跟踪红外摄像机的眼动。但是这些通常昂贵且笨重,红外摄像机在阳光下工作不太好。GeaSpeak应用程序是便携式的 ,相对便宜,因为它只需要安装该应用程序的iOS设备,例如iPhone或iPad。
微软将在5月在科罗拉多州的计算系统中的人为因素会议上展示该应用程序 。研究人员说,它将在会议前在Apple App Store上使用 ,并将免费提供源代码,以便其他人可以帮助改善它。
本文来自作者[lejiaoyi]投稿,不代表言希号立场,如若转载,请注明出处:https://lejiaoyi.cn/leyi/744.html
评论列表(3条)
我是言希号的签约作者“lejiaoyi”
本文概览:眼睛说了一切刚刚,启用团队,微软研究当您只能移动眼睛时,可能很难进行交流,就像ALS患者(也称为运动神经元疾病)一样。微软的研究人员开发了一个应用程序,可以使您的眼睛更容易说话...
文章不错《Microsoft App帮助ALS的人们只用眼睛说话》内容很有帮助