什么是CHI?
今天跟大家分享一个学术会议SIG CHI,全称Special Interest Group on Computer-Human Interaction,顾名思义,这是研究人与计算机互动的一个学术会议。但希望大家别被「学术」两个字吓到,因为这个会议是我见过最有趣的学术会议之一,为什么我会这么说呢?
类似这样的会议也有很多,当时我在念研究生的时候,我们主要投的是CHI,UIST,CSCW,TEI等,他们特点都各不同,CHI的成立成立时间比较早,所以东西都很全,有界面设计,服务设计之类的,其他几个则各有特点,UIST(User Interface Software and Technology)主要聚焦于硬件的界面设计,CSCW( computer-supported cooperative work and social computing)偏向计算机如何服务于日常生活,TEI(Tangible and Embedded Interaction)则是更偏向于有形的交互设计。
交互设计怎么理解?
说到交互设计,其实大家都不陌生,大部分互联网公司都会有交互设计岗,主要关注的是数字产品、环境、系统和服务。引用Alan Cooper在About Face里面说到的一句话是:
交互设计在于如何设计行为。
这是很多传统设计学科不曾探讨的,比如建筑关注的是人民如何使用物理空间;平面设计是为了优化信息传递;工业设计在于优化功能、价值与外观。
交互设计与工业设计其实有千丝万缕的关系,工业设计一开始是设计布局,操作方式和机械,主要聚焦的是物理结构层面的东西。随着产品的操作复杂度变高,汽车,电话到家电,计算机,并非所有的设计都只是聚焦在物理结构上,比如信息,服务等等都没有物理表现的内容。所以随着设备结构的复杂度增加,就需要新的一种设计,通过对界面的设计,去影响人的行为。
那怎么样去设计人的行为呢,有很大一部分是需要用户界面来传递的,所谓交互界面就是一种可以让双方传递信息的边界。以我们人类为例,我们人与这个世界的界面,就是眼睛,鼻子,嘴巴,耳朵,皮肤等。那我们常见的电脑,就是显示器,音响,键盘,鼠标等。
图片来自wiki,user interface:Linux_kernel_INPUT_OUPUT
界面的演变
1945–1968: Batch interface(批处理界面)
早期的计算机计算能力不高,当时的执行方法还是拿着一大叠这样的卡片到当地的电脑中心,一张卡片代表一行程序,然后排队等着自己的程序被电脑中心处理、编译并执行。执行完以后,就把一堆bug信息或者执行结果返回给程序员,然后再执行。
图片来自wiki,user interface:Paper_Tap
1969–现在: Command-line user interface (命令行界面)
这种交互界面是在图形界面普及前,应用最广泛的界面。它一般只是使用键盘输入,计算机接到指令后,予以执行。
图片来自wiki,user interface:DEC_VT100_terminal
1968–现在: Graphical User Interface(图形界面)
图形界面也就是我们现在常用的界面,所见即所得,这里不多做介绍,但是其实图形界面依然和命令行界面有千丝万缕的关系,比如我们常见的搜索框,就是图形界面和命令行界面的很好组合。我们输入一行字,界面能马上反馈输入结果给我们,让我们可以用其他的设备去选择与点击。
CHI2017
讲了一些背景知识,我们回到正题,这次CHI2017 我主要分享的三大块的内容,是近几年比较热门的研究领域,第一个是智能手表的交互设计,第二个是触觉的交互设计,第三个是有形的交互设计。
智能手表的交互设计
关于智能手表,这个离我们已经非常近了,很多公司都推出了自己的主打产品。苹果手表支持触屏交互,Pebble Time watch则是一款不支持触屏的墨水屏手表。但是目前而言关于这种非触屏的手表输入还是非常困难的。
这篇获奖论文 ,COMPASS: Rotational Keyboard on Non-Touch Smartwatches ,这篇讲得是在非触屏的智能手表,仅仅靠旋转和点击来输入文字。但如果只是通过旋转来一个一个选字母显然太太慢,通过实验,他们发现屏幕上有三个光标是最快的。
可以看这个图,一开始有三个光标,旋转来选择,通过点击来选择其中一个字母,然后推荐出接下来可能的字母与可能的单词,通过长按来切换字母和单词的选择,在通过旋转转盘和点击来进行选择。在输入过程中如果想删除,就轻甩手表了删除刚输入的字母或单词。
图片来自COMPASS
这篇论文让我觉得很有趣的就是3个光标的策略选择上,首先他们探究了光标的相对位置,相对位置是静止(S-COMPASS)和动态(D-COMPASS)的,S-COMPASS好处是,用户可以预测下一步旋转后光标会指向什么,D-COMPASS则是根据概率来预测下三个字母是什么,减少旋转距离。在光标的数量上他们也测试了1-5个光标。最后得出3个光标的动态COMPASS是最合适的。
COMPASS这种输入方式,对于新手来说大概是10WPM(WPM,word per minute,单词每分钟),练习了90分钟后,能提高到12.5 WPM。
智能手表的痛点在于屏幕很小,Chris Harrison(这次CHI上了4篇),有一种衡量交互能力的方法,交互能力 = 交互空间 * 交互模态(interaction power = interaction space * interaction modality)。交互空间很好理解,比如iPad>iPhone>iWatch,所以智能手表最蛋疼的就是输入输出空间变小,这时候交互模态的多样性就变得尤为重要。这里先要解释一下啥是输入模态,输入模态就是界面的独立传感输入输出通道,包括视觉,听觉,触觉,味觉,平衡。也可以理解成输入的维度,维度越高,线程就越高。
这次另外一篇关于智能手表的论文,就是尝试去增加智能手表的交互模态,来增强智能手表的交互能力。Float: One-Handed and Touch-Free Target Selection on Smartwatches 。这篇的主打的l两个点是One-Handed和Touch-Free。
图片来自float
为什么是这两个点呢,因为手表移动属性要大于手机,可以提供随时随刻地信息交互。但很多时候手表的输入是得依靠不戴手表的另一只手,而且如果用另外一只手输入,也会遇到fat-finger(手指太粗,挡住了大部分的屏幕)的问题。
图片来自google:Fat_Finger
这样在一定程度就抹杀了手表很方便的属性。所以这篇论文把输入的维度寄予在手腕的倾斜(WristTilt)于手指的手势(Finger Gesture)。手腕的倾斜像控制杆一样负责选择,手指则负责点击。这样的设计在一定程度上增加了输入的维度,拓展了手表的输入能力。解决了我们在外面行走,手里撑着伞,骑车时候的交互问题。
图片来自float
触觉的交互设计
这几年另外一个研究热点就是皮肤上的触觉回馈,触觉这个维度的感知通道有几个好处,它的反馈代表真实物体,它的反馈无处不在,所以这两年的热点都聚焦在当我们带上VR设备的时候,需要触觉反馈。或者当我们非常忙的时候,眼睛没空,环境太嘈杂的情况下,今天主要讲一下第一个方向。
首先是这篇,Fingertip Tactile Devices for Virtual Object Manipulation and Exploration 。这篇探究的是在vr环境下,指尖上的触觉反馈,包括抓、挤、压、抬等。
图片来自Fingertip Tactile Devices
这几年有好多触觉的反馈是通过震动来实现的,但是震动只能让人感知接触事件和材质变化,如果想提供力量的反馈,还是需要新的方法。这篇论文设计了戴在指尖上的设备,提供了3个自由度触觉反馈,可以在指尖上移动和按压。经过实验表明,这东西可以在「欺骗」人感知物体的重量,还甚至会因为这种反馈的欺骗,主动改变自己的握力来适应这样的改变。
有形交互设计
最后一个是Tangible Interaction(有形交互设计),这个是我最最喜欢的一个领域,其实当时去台大有两大块领域可以选,一个是虚拟现实,一个是有形设计,之所以不喜欢虚拟现实,其实是个人的执念,觉得这东西太神奇,就像黑客帝国那种感觉。所以还是选择到有形的交互设计。
这个领域最好的实验是是MIT的tangible media group。他们对未来界面的憧憬是这样的:他们把世界分为虚拟世界与现实世界,他们的最小单位分别为Atoms(原子)与Bits(字节)。而tangibe的目标就是让bits尽量用atoms的方式来表达。
所以图形界面我们只能从水面上看到水面下的一些信息,而有形界面就是让bits突破屏障用atoms来表现,这样我们就可以直接控制真实物体来控制虚拟信息,这让我觉得界面有种返璞归真的感觉,以前的交互设备是遥控杆,旋钮,都是真实的,但这些控件只能针对某种操作无法适应复杂的交互需求。而随着目前传感器,驱动器的能力的变强,体积变小,对真实物体的直接操作又变得有可能了。而Hiroshi Ishii(实验室的老大)希望未来所有的原子都是Radicals Atoms都是可以直接为人所操作,成为现实世界与数据世界的桥梁(界面)。
图片来自mit tangible group
这个领域最出名的一篇论文也是这个实验室在UIST2013发表的inFOMR(Dynamic Physical Affordances and Constraints through Shape and Object Actuation )
图片来自inFORM
这张图就是这篇论文的精髓,第一张图讲得是可以示能的交互控件,这里涉及一个概念叫Affordance(示能),所谓示能就是一个物体的特性来决定这个物欲的预设用途,与它和主体之间的能力。举个例子,门的把手,门可以推也可以拉,那好的门把手应该是,在能推的时候,只提供一个金属门板,在能拉的时候,只提供一个门把手。第二张图讲的是通过对维度的限制,来指导人操作物体,比如一个洞,就意味着要放在上面,比如一个凹槽,就以为这可以在上面移动。 第三张图是一个动态的界面是可以操作物体移动,第四张图是动态的界面可以渲染出真实的物体(虽然像素很低)
这个领域最出名的一篇论文也是这个实验室在UIST2013发表的inFOMR(Dynamic Physical Affordances and Constraints through Shape and Object Actuation )
这张图就是这篇论文的精髓,第一张图讲得是可以示能的交互控件,这里涉及一个概念叫Affordance(示能),所谓示能就是一个物体的特性来决定这个物欲的预设用途,与它和主体之间的能力。举个例子,门的把手,门可以推也可以拉,那好的门把手应该是,在能推的时候,只提供一个金属门板,在能拉的时候,只提供一个门把手。第二张图讲的是通过对维度的限制,来指导人操作物体,比如一个洞,就意味着要放在上面,比如一个凹槽,就以为这可以在上面移动。 第三张图是一个动态的界面是可以操作物体移动,第四张图是动态的界面可以渲染出真实的物体(虽然像素很低)
图片来自google:affordance door
通过界面的物理变化提供affordance这里我在详细讲下,作者这里把TUI与原来的GUI做了一个类比。比如一个凸起来的柱状体,就意味着按钮,让人想要按压。条状带意味着这当做一个触控条。这二维面板意味着像一个触控屏让人可以移动。单独的条状,就像一个把手,让人希望在z轴方向上下移动(挊)。
示能这个概念是一个心理学家吉普森(J.J. Gibson)提出的,他认为这个世界充斥着线索,大家只要用直接知觉就可以把它们捡起来。我的理解是,示能的好处是当我们使用的时候是不需要学习的,很直接,就像门把手一样。但示能的使用还是需要设计师对人类的一些经验很好地总结,因为示能的能其实还是需要之前的学习的。就像这里的2D Touch Surface,如果以前不知道触控板,其实还有一点点难以理解。
图片来自inFORM
今年这个实验室也发了一篇神奇的论文,我还没看,感觉有点超出我的认知,这里我先把视频贴在这里,大家有兴趣可以看看。这篇论文叫Transformative Appetite: Shape-Changing Food Transforms from 2D to 3D by Water Interaction through Cooking 。
我目前对交互设计还有我自己的一个理解。在大学的时候,有一门设计课,老师问设计是什么,我当时的回答是,设计是为了美化,然后老师的回答是设计是为了「传递信息」,这句话当时刷新了我的三观,也一直成为我职业生涯的一个准则。
所以,从这个准则,我同样把它们适用于交互设计,就是交互设计师通过界面来传递两边的信息。不管是现在很多公司的交互设计师,他们是通过GUI界面来传递信息。还是未来VR AR,TUI界面,变得是界面,不变的是信息。
[1]Cooper A, Reimann R, Cronin D, et al. About face: the essentials of interaction design[M]. John Wiley & Sons, 2014.
[2] Yi X, Yu C, Xu W, et al. COMPASS: Rotational Keyboard on Non-Touch Smartwatches[C]//Proceedings of the 2017 CHI Conference on Human Factors in Computing Systems. ACM, 2017: 705-715.
[3] Sun K, Wang Y, Yu C, et al. Float: One-Handed and Touch-Free Target Selection on Smartwatches[C]//Proceedings of the 2017 CHI Conference on Human Factors in Computing Systems. ACM, 2017: 692-704.
[4] Schorr S B, Okamura A M. Fingertip Tactile Devices for Virtual Object Manipulation and Exploration[C]//Proceedings of the 2017 CHI Conference on Human Factors in Computing Systems. ACM, 2017: 3115-3119.
[5] Follmer S, Leithinger D, Olwal A, et al. inFORM: dynamic physical affordances and constraints through shape and object actuation[C]//Uist. 2013, 13: 417-426.
[6] Wang W, Yao L, Zhang T, et al. Transformative Appetite: Shape-Changing Food Transforms from 2D to 3D by Water Interaction through Cooking[C]//Proceedings of the 2017 CHI Conference on Human Factors in Computing Systems. ACM, 2017: 6123-6132.
作者:林龙飞
原创文章,作者:ioued,如若转载,请注明出处:https://www.iamue.com/19623/