如何寻找近眼AR应用的交互方式,分享我过去一年在践行的思路。
拿到一个项目/想法后,在没有指定交互设备的情况下,我是按照如下顺序去思考的:
“人事物场”构成的问题语境。
人:用户是谁,认知和行动上有什么特征?
事:交互要解决的问题是什么?
物:存在于场景中有哪些物理对象?(关乎锚定、交互和约束);
场:桌面级/房间级/建筑级/街道级别空间大小,室内/室外,是否存在具体的场景?
如果没有具体的场景,尽可能找到用户高频使用的场景,作为用户在实际的场景中使用,比较容易发现问题。
AR中的交互对象可以分为:2D虚拟对象、3D虚拟对象、3D物理对象。(2D虚拟对象 如传统2D视频;3D虚拟对象 如斧头模型、恐龙模型;3D物理对象 如真实的手机、抽屉、相框)
2D虚拟对象、3D虚拟对象归纳为GUI,3D物理对象为TUI。
实际的交互对象也可以由「2D虚拟对象+3D虚拟对象」、「2D虚拟对象+3D物理对象」、「3D虚拟对象+3D物理对象」组成,所以要考虑交互方式的通用性,或者采用多模态的方式交互。
2D虚拟对象+3D虚拟对象:如果场景中存在同时存在2D虚拟对象和3D虚拟对象,需要旋转、移动3D虚拟对象,那就不能只用注视点交互,而是加上手势、6dof手柄等能对交互对象产生6dof影响的交互方式。
2D虚拟对象:如果是只是2D虚拟对象,因为2D虚拟对象只有X轴和Y轴,所以采用3dof交互方式(鼠标、触摸板、注视点等)会带来更高的交互效率。
3D物理对象(+虚拟对象):对于3D物理对象,往往是通过与3D物理对象(父对象)交互来影响2D虚拟对象或3D虚拟对象(后两者为子对象),最重要的是认知可供性,即让用户知道通过与物理对象的交互能触发/影响虚拟对象,以及具体的触发/影响结果是什么。
然后是识别和连接。让3D物理对象可被系统识别,让操作结果在近眼系统中发生,并可被用户感知。
交互对象往往已经决定了用什么交互动作,但具体的业务场景有其最合适的交互动作。
比如,手术模拟场景中,交互对象是3D虚拟人体器官,3D虚拟人体器官属于3D虚拟对象,前面提到,针对3D虚拟对象更适合的方式6dof交互,而能实现6dof交互的方式有手势、6dof手柄、6dof头部、按钮组合(一个按钮代表一个维度;直接或间接影响虚拟对象)、力量向机械装置(如万向跑步机)、三角光标、巫术玩偶间接交互(基于3D物理对象的识别和同步)等等。
在交互动作的选择中,最重要的是达到产品目标/业务目标。
在手术模拟的AR应用中,如果目标是让受培训者快速掌握某具体手术任务,以达到临床的最终目的,那交互动作就不能只是追求高效和学习成本低(如按钮),而是通过手部交互学习如何拿手术刀、如何对伤口缝线,以达到临场和拟真的目的。
如果只是在AR里刷刷朋友圈,那交互动作就应该尽可能符合「最小的输出换取最大的输入」。「目光所及之处,比任何交互动作都要快」可能就是最好的途径。当然,AR里的朋友圈,何止于当前有边界的2D界面,又何止于2D呢。
交互动作和交互设备互为约束。
已经选定了手势交互的动作,那你的交互设备就不能用手柄,虽然能把虚拟手锚定在手柄上,但是交互自由度不高;已有交互设备的选择约束,则只能在设备功能约束内实现交互动作。
实现手势交互的方式有无需物理设备附着于手上的CV、Tof、结构光、毫米波雷达;需将物理设备附着于手上的动捕手套(如诺亦腾HI5)、EMG手环(捕捉基础手势)等等。
需要用交互精度、准确度、复杂交互能力、鲁棒性、交互反馈需求、拓展性、实现成本角度去选择具体业务场景下的交互设备。
在模拟手术的场景中,对交互精度、复杂交互能力和交互物理反馈的要求是最高的,所以,如果有能够满足这三个要求,甚至能实现力反馈的手套更佳,其次是有物理反馈腕表的裸手交互(起码Meta Hands 2.0精度级别)。
如果是一个AR FPS游戏,那最佳的方式就是模拟真实手枪的交互,给到用户一把仿真手枪,这样学习成本和物理沉浸感相对较高。
在实际交互行动中,进行多维度的评估。
根据埋点数据,评估用户通过交互方式完成目标的时长、错误率、准确性,从而得到系统性能和任务性能的反馈;
根据实际访谈和问卷,得到关于交互方式的学习难度、沉浸性、代入感的主观感知和体验的反馈。
也可根据需求用观察法、专家评估法、生物检测法、边做边说法;如果需要在两种交互方式中做出选择,善用A/B TEXT。
当然也要注意讨好测试用户、用科学的方式记录测试过程、科学选择测试人群、多维度/团队的评估等等,其实都是互联网产品经理常用的测试评估方法。
以上是业务方选择AR交互方式的基本框架,无论是AR、MR还是VR都有共通之处,供大家参考。
如果是基于VST(Video seethrough) 的MR,依然是裸手手势+手柄,只不过下一阶段会有裸手的基础上加上手环/指环,给到用户机械反馈,同时提供「注视点+指环/手环」的新交互模态。
VST MR的交互方式需要在与VR的共存中寻找最大公约数,所以迭代路径比较清晰。几个VR/MR的核心场景中,游戏场景主用手柄,同时VR游戏配件大繁荣;办公场景兼容已有的办公工具,实现办公工具的虚拟化和在线化,键鼠和手势(加上腕表/指环的机械反馈)共存为主流;扁平化产品的场景如观影、浏览网页则用腕表/指环+注视点。
各交互方式在不同场景中相互兼容,兼中取优。
OST(Optical seethrough)AR是基于AR眼镜的AR,其实是被微软带节奏了,AR跟MR是一回事。
混合进现实的虚拟对象,难道不是对现实的增强吗?出现在现实中的虚拟对象,难道不需要跟现实融合吗?
AR跟MR的本质,都是在理解现实世界的基础上,让虚拟对象出现得更合理,让用户详细虚实融合的眼前世界。
AR眼镜的发展方向,一定是随身穿戴,那通用的交互方式也一定是随身可得。
从可得性角度来看,无胜于有,小胜于大,软胜于硬。
但是无任何设备穿戴,则意味着没有触觉反馈,没触觉反馈是反直觉的,所以AR的通用型交互方式一定是基于可穿戴设备,而可穿戴设备是尽可能无穿戴感。
既然AR虚拟对象已经融入现实世界了,而手是我们与这个现实世界交互最自然的方式,所以AR的穿戴设备是基于手部的穿戴。再者,既然AR已经是对双手的解放了,那就没必要在「目标对象-交互介质达到」的实现过程中还以手部移动来完成,而是通过注视点配合指环/手环来确认意图完成交互闭环。
这是AR眼镜的通用型交互方式。
但是不同的业务场景,依然有最适合这个场景的交互方式,如前面提到的手术模拟,所以对AR设备方来说,留出交互接口让下游去适配交互配件、定义业务场景下的交互方式,同样是非常重要。
交互就像搭积木,每个积木都可以完成一个子操作。XR是多模态、多通道交互,挑选合适的积木可以构成新的交互方法,用户可以通过交互技术的可供性清楚地知道,哪些能做,哪些不能做(约束)。
手势交互作为AR/VR的关键交互方式,下一篇具体展开分享下手势交互。
上一篇:AR增强现实技术基本功能全解读