当你长时间玩手机时,如果手累了怎么办?换一只手继续刷?
如果另一只手也累了呢?再换回另一只手?
或许,大可不必这么麻烦。
你只需要通过一个简单的眼神,就可以玩转你的手机。
比如,选择并打开某一个应用程序;
(素材来源:YouTube)
查看手机中的一张照片;
(素材来源:YouTube)
打开或关闭歌手泰勒·斯威夫特(Taylor Swift)的一张音乐专辑;
(素材来源:YouTube)
切歌、查看歌词、调节音量;
(素材来源:YouTube)
又比如,查看、标记老板发给你的电子邮件等。
(素材来源:YouTube)
凡是你的眼神能触及到的地方,手机屏幕上都会呈现出对应的实时反馈。
是不是很酷很帅?但这并不是科幻。
以上场景实现来自来自卡内基梅隆大学(Carnegie Mellon University)人机交互学院的科研团队,他们开发了一种名为 EyeMU 的工具,该工具允许用户通过凝视控制(gaze control)和简单的手势操控智能手机。
相关研究论文以“EyeMU Interactions: Gaze + IMU Gestures on Mobile Devices”为题,发表在 ICMI 2021 会议上。
更自然的人机交互
当前,随着智能手机功能的愈发强大,人们可以使用手机做越来越多、越来愈复杂的事情,而不仅仅是观看影视剧、编辑视频、阅读新闻、社交和打游戏等。
但是,长期不离手的手机,依然需要人们使用单/双手和语音命令来操作。在一定意义上,有时候会显得不是很方便。
那么,有没有一种更自然的人机交互方式呢?
Andy Kong 是卡内基梅隆大学计算机科学专业的一名大四学生,一直以来便对眼球追踪(eye-tracking)技术非常感兴趣,但由于商用版本过于昂贵,就自己动手编写了一个程序,利用笔记本电脑内置的摄像头跟踪用户的眼睛,进而在屏幕上移动光标。
在 Kong 看来,如今的手机只有在我们要求它们做事情时才会做出回应,无论是通过语音、轻敲,还是点击按钮等。如果手机可以通过分析用户的目光,或借助其他生物识别技术来预测用户想要做什么,将大有用处。
正是这一个“廉价”的程序,为 EyeMU 的最终实现打下了基础。
在随后的研究工作中,Kong 及其同事通过使用谷歌的 Face Mesh 工具来研究用户注视屏幕不同区域的注视模式,并绘制出了地图数据,从而改进了这个早期原型。
之后,他们开发了一个凝视预测器(gaze predictor),这一工具使用智能手机的前置摄像头锁定用户正在观看的内容,并将其标记。
图|通过眼睛控制为照片加滤镜(来源:该论文)
最后,他们通过将凝视预测器与智能手机内置的运动传感器相结合来实现命令,从而提高了 EyeMU 的效率。
图|EyeMU 的部分手势(来源:该论文)
例如,用户可以通过长时间查看某一内容,将其标记为目标,然后向左滑动手机来关闭它,或向右滑动手机来响应;同时,用户还可以通过把手机拉得更近来放大图片。
尽管 EyeMU 的功能很酷,但在面向消费者之前,依然还有一些关键限制因素需要克服,比如凝视模块的准确性不足(低于目前专用的眼睛追踪器),仍需在更多设备上进行测试,以及可能比较废电池等。
另外,学术君也不禁想,如此酷炫的操作,会不会更费眼睛呢?
但是,随着未来持续进行的优化设计,这一工具或许真的可以飞入寻常百姓家。
到那时,眼睛一动,就能玩转手机了。
手机的危害有多大?
如今,智能手机的过度使用,已经成为全社会关注、亟需解决的问题。
随着 4G、5G 网络的广泛覆盖,以及智能手机功能的不断强大,“一机在手、无所不能” 已逐渐成为常态,“手机购物、手机拍照、手机查询、手机通信…… ”智能手机无疑已成为当前人们生活中不可或缺的一部分。
但是,很多人也因此经常担心忘记带手机,害怕手机没电,殊不知,这还是一种名为“无手机恐惧症”(Nomophobia)的病,而无手机恐惧症会对健康造成负面危害(比如睡眠质量差)和有害的心理影响(比如脾气变差)。
另有科学研究证实,智能手机的过度使用与身体活动减少、肥胖、颈部疼痛、表现受损和类似成瘾的行为等问题有关,不仅会影响个人的生物钟、视力甚至智力,还会损害个人的皮肤,造成手指麻木、慢性劳损等。
近日的一项研究表明,减少智能手机的日常使用,会对一个人的幸福感会产生积极影响,建议人们减少低头时间,改变手机不离手的习惯,但同时也表示,为拥有更好、更满意的生活,以及更少的焦虑,没有必要完全放弃使用智能手机。
凡事适度就好。
参考资料:
https://dl.acm.org/doi/10.1145/3462244.3479938
https://techxplore.com/news/2022-04-eyes-smartphone-gaze-tracking-tool.html
https://www.youtube.com/watch?v=-HwcmWRAsaA&ab_channel=FutureInterfacesGroup
https://doi.apa.org/doiLanding?doi=10.1037%2Fxap0000430