第5章 虚拟现实的输出设备 内容与要求 本章介绍虚拟现实的输出设备,输出设备为用户提供仿真过程对输入的反馈。通过输出接口给用户产生反馈的感觉通道,包括视觉(通过图形显示设备)、听觉(通过三维声音显示设备)和触觉(通过触觉反馈设备)。 图形显示设备要求了解图形显示设备的概念; 了解人类视觉系统原理; 掌握头盔显示器的概念和常用头盔显示器; 了解常用沉浸式立体投影系统的原理和应用; 了解立体眼镜的原理。 声音显示设备要求了解声音显示设备的概念; 了解人类听觉系统原理; 了解基于HRTF的三维声音和基于扬声器的三维声音的原理和应用。 触觉反馈设备要求掌握接触反馈和力反馈的概念与区别; 了解人类触觉系统; 掌握触觉鼠标和iMotion触觉反馈手套的原理和应用; 了解力反馈操纵杆和CyberGrasp力反馈手套的原理和应用; 了解触觉反馈在智能医学中的应用。 重点和难点 本章的重点是图形显示设备、声音显示设备、接触反馈设备和力反馈设备的概念和应用; 头盔显示器的概念; 常用沉浸式立体投影显示系统的原理; 基于HRTF的三维声音和基于扬声器的三维声音的原理; 难点是人类视觉系统原理、人类听觉系统原理和人类触觉系统的原理。 人置身于虚拟世界中,要体验到沉浸的感觉,就必须让虚拟世界能模拟人在现实世界中的多种感受,如视觉、听觉、触觉、力觉、痛感、味觉、嗅觉等。输出设备的作用就是将虚拟世界中各种感知信号转变为人所能接受的多通道刺激信号,现在主要应用的输出设备是视觉、听觉和触觉(力觉)的设备。 5.1虚拟现实的图形显示设备 图形显示设备是一种计算机接口设备,它把计算机合成的场景图像展现给虚拟世界中参与交互的用户。在VR系统中,图形显示设备是不可或缺的。 在人的感觉中,视觉摄取的信息量最大,反应最敏锐。所以,视觉感知的质量在用户对环境的主观感知中占有最重要的地位。对于虚拟现实环境而言,实时动态的图形视觉效果是产生现实感觉的首要条件,也是实现交互性的关键。因此,在各种各样的虚拟现实应用环境中,显示设备是最重要的设备。头盔显示器、沉浸式立体投影系统、立体眼镜等都是虚拟现实系统中最常见的显示设备。 5.1.1人类的视觉系统概述 要设计图形显示设备,必须先了解人类的视觉系统。一个有效的图形显示设备需要使它的图像特性与人类观察到的合成场景相匹配。 人眼有126 000 000个感光器,这些感光器不均匀地分布在视网膜上。视网膜的中心区域称为中央凹,它是高分辨率的色彩感知区域,周围是低分辨率的感知区域。被显示的图像中投影到中央凹的部分代表聚焦区。在仿真过程中,观察者的焦点是无意识地动态变化的,如果能跟踪到眼睛的动态变化,就可以探测到焦点的变化。 人类视觉系统的另一个重要特性是视场(Field Of View,FOV)。一只眼睛的水平视场大约150°,垂直视场大约120°,双眼的水平视场大约180°。观察体的中心部分是立体影像区域,在这里两只眼睛定位同一幅图像,水平重叠的部分大约120°。大脑利用两只眼睛看到的图像位置的水平位移测量深度,也就是观察者到场景中虚拟对象的距离。人类立体视觉的生理模型如图5.1所示。 图5.1人类立体视觉的生理模型 在视场中,眼睛定位观察者周围的对象,例如对象A位于对象B的后面。当目光集中在对象B的一个特征点时,聚焦在固定点F上。视轴和固定点的连线之间的夹角确定了会聚角。这个角度同时也依赖于左眼瞳孔和右眼瞳孔之间的距离,这个距离称为内瞳距(Interpupillary Distance,IPD),成年男女的内瞳距为53~73mm。IPD是人们解释真实世界中距离对象远近的基线,IPD越大,会聚角就越大。由于固定点F对于两只眼睛的位置不同,因此在左眼和右眼呈现出水平位移,这个位移称为图像视差。 为了使人脑能理解虚拟世界中的深度,VR的图形显示设备必须能产生同样的图像视差。实现立体图形显示,需要输出两幅有轻微位移的图像。当使用两个设备时(比如头盔显示器),每个设备都为相应的眼睛展示它生成的图像; 当使用一个显示设备时,需要按时间顺序(例如使用快门眼镜)或空间顺序(例如自动立体图像显示)一次产生两幅图像。 立体视觉在图像视差非常大的近场显示中是一个很好的深度线索。当观察对象距离观察者越远,观察体中的水平偏移就越小,因此在距离用户10m以外的地方,立体视差会大幅度降低,这时根据图像中固有的线索也可以感知到深度,例如线性透视、阴影、遮挡(远处的对象被近处的对象挡住)、表面纹理和对象细节等。运动视差在单场深度感知中同样很重要,因此当用户移动头部时,近处的对象看上去比远处的对象移动的更多。即使使用一只眼睛,这些深度仍然是有效的。 设计满足所有这些需要,同时符合人机工程学的要求,并且价格便宜的图形显示设备,是一项非常艰难的技术任务,常见的图形显示设备如下。 5.1.2头盔显示器 头盔显示器(Head Mounted Display,HMD),即头显,是最常见的图形显示设备,利用头盔显示器将人对外界的视觉封闭,引导用户产生一种身在虚拟环境中的感觉。头盔显示器使用方式为头戴式,辅以三个自由度的空间跟踪定位器可进行VR输出效果观察,同时观察者可做空间上的自由移动,如自由行走、旋转等。 1. 头盔显示器的起源与发展趋势 早在1968年,美国ARPA信息处理技术办公室主任Ivan Sutherland建立了“达摩克里斯之剑”头盔显示器,它被认为是世界上第一个头盔显示器。它采用传统的轴对称光学系统,体积和重量都较大的CRT显示器,佩戴者可以看到一个悬浮在空中的立体正方体。“达摩克利斯之剑”头盔显示器如图5.2所示。 图5.2“达摩克利斯之剑”头盔显示器 “达摩克利斯之剑”已经具备了现代虚拟现实头盔显示器的基本要素: 立体显示,用两个一寸的CTR显示器,显示出有深度的立体画面; 虚拟画面生成,图像实时计算渲染立方体的边缘角度变化; 机械连杆和超声波检测的头部位置追踪; 通过空间坐标建立定位立方体的8个顶点,使得立方体可以随着人的视角而变化。 CRT显示器成本低、来源容易、可靠、影像质量良好,但其电源需求、高正极电压、产生高热仍是缺点。所以现在的头盔显示器器件主要为: 平板(Flat Panel)显示器、液晶显示器、场致发光(Electroluminescent)显示器、发光二极管显示器、场致发射(Field Emission)显示器、真空荧光(Vacuum Fluorescent)显示器、等离子(Plasma)显示器、微镜片装置(Micromirror Device)显示器。 在引进人工智能和光纤传输技术后,预计未来头盔显示器会有革命性的发展,头盔显示器和各种传感器间的综合程度会更好,并有更高的资料更新率以及智能型的信息显示。同样,目前飞行员在转动头部时出现了图像迟滞现象,未来应该都会完全克服。 在未来的研究中,实现眼部无疲劳将成为头盔显示器发展的重要趋势; 另外,为了调高用户使用的舒适度,在头盔显示系统中加入手势识别等更加智能的交互技术,也是头盔显示器未来发展的重要趋势。 2. 头盔显示器原理 头盔显示器把图像投影到用户面前1~5m的位置,如图5.3所示。通过放置在HMD小图像面板和用户眼睛之间的特殊光学镜片,能使眼睛聚焦在很近的距离而不易感到疲劳,同时也能起到放大小面板中图像的作用,使它尽可能填满人眼的视场,如图5.3所示。唯一的负面影响是显示器像素之间的距离(A1A2)也同时被放大了。因此,HMD显示器的颗粒度(ArcMinutes/Pixel)在虚拟图像中变得很明显。HMD分辨率越低,FOV越高,眼睛视图中对应于每个像素的ArcMinutes数目也就越大。但是,如果FOV过大会使得出口瞳孔直径变大,从而在图像边缘产生阴影。 图5.3简化的HMD光学模型 3. 头盔显示器的显示技术 普通消费级的HMD使用LCD显示器,主要是为个人观看电视节目和视频游戏设计的,而不是为VR设计的,它们能接收NTSC(在欧洲是PAL)单视场视频输入。当集成到VR系统中时,需要把图形流输出的红绿蓝(RGB)信号格式转换成NTSC/PAL,如图5.4所示。HMD控制器允许手动调节亮度,也允许把同样的信号发送给HMD的所有显示器。 图5.4普通消费级(单视场)HMD 专业级HMD设备则使用CRT的显示器,它能产生更高的分辨率,是专门为VR交互设计的,它接收RGB视频输入。如图5.5所示,在图形流中,两个RGB信号被直接发送给HMD控制单元,用于立体观察。通过跟踪用户的头部运动,把位置数据发送给VR引擎,用于图形计算。 图5.5专业级(立体显示)HMD 4. 常见数字头盔显示器 当今比较流行的数字头盔显示器如下: (1) HTC Vive数字头盔。 HTC Vive是由HTC与Valve联合开发的一款VR头显产品,HTC Vive通过以下三个部分致力于给使用者提供沉浸式体验: 一个头戴式显示器、两个单手持控制器、一个能于空间内同时追踪显示器与控制器的定位系统,如图5.6所示。 图5.6HTC Vive数字头盔 HTC Vive开发者版采用了一块OLED 屏幕,单眼有效分辨率为 1200×1080,双眼合并分辨率为 2160×1200。用户能在佩戴眼镜的同时戴上HTC Vive,即使没有佩戴眼镜,400 度左右近视依然能清楚看到画面的细节。画面刷新率为90Hz,显示延迟为 22ms,实际体验几乎零延迟,也不觉得恶心和眩晕。 HTC Vive从最初给游戏带来沉浸式体验,延伸到可以在更多领域施展想象力和应用开发潜力。一个最现实的例子是,可以通过虚拟现实搭建场景,实现在医疗和教学领域的应用。比如帮助医学院和医院制作人体器官解剖,让学生佩戴VR头显进入虚拟手术室观察人体各项器官、神经元、心脏、大脑等,并进行相关临床试验。 (2) Oculus Rift数字头盔。 Oculus Rift是一款为电子游戏设计的头戴式显示器,如图5.7所示。Oculus Rift具有两个目镜,每个目镜的分辨率为 640×800,双眼的视觉合并之后拥有 1280×800 的分辨率。由于Oculus Rift中配有陀螺仪、加速计等惯性传感器,可以实时感知使用者头部的位置,并对应调整显示画面的视角。Oculus Rift能够使使用者身体感官中“视觉”的部分如同进入游戏中,戴上后几乎没有“屏幕”这个概念,用户看到的是整个世界。设备支持方面,开发者已有 Unity3D、Source引擎、虚幻4引擎提供官方开发支持。 (3) 5DT数字头盔。 5DT头盔显示器具有超高分辨率,可提供清晰的图像和优质的音响效果,产品外形设计简约流畅、表面光洁、舒适、超轻质量,便于携带。用户可根据自己对沉浸感的需求进行不同层级的调节,另外还有可进行大小调节的顶部旋钮、背部旋钮、穿戴式的头部跟踪器以及便于检测的翻盖式设计,如图5.8所示。 图5.7Oculus Rift数字头盔 图5.85DT头盔显示器 5.1.3沉浸式虚拟现实显示系统 沉浸式立体投影系统采是一种最典型、最实用、最高级的沉浸式虚拟现实显示系统。系统以大幅面甚至是超大幅面的虚拟现实立体投影为显示方式,为参与者提供团体式(10~200人)多人参与,集体观看、具有高度临场感的投入型虚拟空间环境,让所要交互的虚拟三维世界高度逼真地浮现于参与者的眼前,再结合必要的虚拟外设(如数据手套、6自由度位置跟踪系统或其他交互设备),参与者可从不同的角度和方位自由的交互、操纵,实现三维虚拟世界的实时交互和实时漫游。 根据沉浸程度的不同,通常可分为大屏幕三维立体显示系统、多通道环幕立体投影系统、沉浸式虚拟现实显示墙系统、洞穴状自动虚拟系统、球面投影系统、桌面互动投影系统等。这类沉浸式显示系统非常适合于军事模拟训练、CAD/CAM(虚拟制造、虚拟装配)、建筑设计与城市规划、虚拟生物医学工程、3D GIS科学可视化、教学演示等诸多领域的虚拟现实应用。 1. 大屏幕三维立体显示系统 大屏幕三维立体显示系统是沉浸式虚拟现实显示系统的初级形式,一套基于高端PC虚拟现实工作站平台的入门级虚拟现实三维投影显示系统,该系统通常以一台图形计算机为实时驱动平台,两台叠加的立体专业LCD或DLP投影机作为投影主体显示一幅高分辨率的立体投影影像,所以通常又称为单通道立体投影系统。与传统的投影相比,该系统最大的优点是能够显示优质的高分辨率三维立体投影影像,为虚拟仿真用户提供一个有立体感的半沉浸式虚拟三维显示和交互环境,同时也可以显示非立体影像,而由于虚拟仿真应用的特性和要求,通常情况下均使用其立体模式,如图5.9所示。 图5.9大屏幕三维立体显示系统 在众多的虚拟现实三维显示系统中,大屏幕三维立体显示系统是一种低成本、操作简便、占用空间较小、具有极好性能价格比的小型虚拟三维投影显示系统,其集成的显示系统使安装、操作使用更加容易,被广泛应用于高等院校和科研院所的虚拟现实实验室中,中国医科大学虚拟实验室就使用了单通道投影系统。 2. 柱面环幕立体投影系统 柱面环幕立体投影系统是目前非常流行的一种具有高度沉浸感的虚拟现实投影显示系统,系统采用环形的投影屏幕作为仿真应用的投射载体,所以通常又称为多通道环幕立体投影显示系统。根据环形幕半径的大小,通常为120°、135°、180°、240°、270°、360°弧度不等,如图5.10所示。由于其屏幕的显示半径巨大,通常用于一些大型的虚拟仿真应用,例如,虚拟战场仿真、虚拟样机、数字城市规划、三维地理信息系统等大型场景仿真环境,近年来开始向展览展示、工业设计、教育培训、会议中心等专业领域发展。 图5.10柱面环幕立体投影系统 3. 沉浸式虚拟现实显示墙系统 沉浸式虚拟现实显示墙系统是目前非常流行的一种高度沉浸的虚拟仿真显示系统,该系统以多通道视景同步技术和数字图像边缘融合技术为支撑,将三维图形计算机生成的实时三维数字影像实时输出并以1∶1的大比例的立体图像显示在一个超大幅面的平面投影幕墙上,使观看和参与者获得一种身临其境的虚拟仿真视觉感受,如图5.11所示。它可根据场地空间的大小灵活地配置两个、三个甚至是若干个投影通道,无缝地拼接成极高分辨率的三维立体图像。 图5.11沉浸式虚拟现实显示墙系统 4. 洞穴状自动虚拟系统 洞穴状自动虚拟系统(Cave Automatic Virtual Environment,CAVE)。CAVE是一种基于投影的沉浸式虚拟现实设备,其特点是分辨率高、沉浸感强、交互性好。如图5.12所示,该系统可提供一个同房间大小的四面(或六面)立方体投影显示空间,供多人参与,所有参与者均完全沉浸在一个被三维立体投影画面包围的高级虚拟仿真环境中,借助相应虚拟现实交互设备(如数据手套、力反馈装置、位置跟踪器等),从而获得一种身临其境的高分辨率三维立体视听影像和六自由度交互感受。由于投影面积能够覆盖用户的所有视野,所以CAVE系统能提供给使用者一种前所未有的沉浸感。这种完全沉浸式的立体显示环境,为科学家带来了空前创新的思考模式。 图5.12洞穴状自动虚拟系统 科学家能通过CAVE直接看到他们的可视化研究对象。例如,大气学家能“钻进”飓风的中心观看空气复杂而混乱无序的结构; 生物学家能检查DNA规则排列的染色体链对结构,并虚拟拆开基因染色体进行科学研究; 理化学家能深入到物质的微细结构或广袤环境中进行试验探索。可以说,CAVE可以应用于任何具有沉浸感需求的虚拟仿真应用领域,是一种全新的、高级的、完全沉浸式的科学数据可视化手段。 5. 球面投影显示系统 球面投影显示系统也是近年来最新出现的沉浸式虚拟现实显示系统,也是采用三维投影显示方式予以实现,其最大的特点是视野非常广阔,能覆盖观察者的所有视野,从而能让观察者感觉完全置身于飞行场景中,给人身临其境的沉浸感,如图5.13所示。 图5.13球面投影显示系统 球面投影系统不仅是普通科研工作者想象的那样简单,其所包括的技术模块有: 球面视锥的科学设计算法; 多通道图像边缘融合曲面几何矫正; PCCluster并行集群同步渲染技术。这其中球面视锥的科学设计算法是球面显示系统的最关键技术门槛,如果不能解决这个问题,即使做好边缘融合和几何校正,最后显示出来的三维效果也是错误的。 6. 桌面互动投影系统 桌面互动投影系统通过小型投影系统将动态图像投影于投影屏上,取代传统的文字、图像展示方式,具有展示新颖,设计独特等特点。用户可以在屏幕进行触控操作,取代传统的触摸屏,让人和数字内容交互变得直接,使用户得到全新的操作体验。多点触摸系统基于先进的计算机视觉技术,获取并识别手指在投影区域上的移动,以自然的手势姿态控制软件,实现图像的单击、缩放、三维旋转、拖曳,是一种极为自然和方便的互动模式,如图5.14所示。 图5.14桌面互动投影系统 5.1.4立体眼镜显示设备 立体眼镜(3D眼镜)种类很多,其中比较先进的一种采用“分时法”,通过3D眼镜与显示器同步的信号来实现。立体眼镜使观众观看的电影或电视节目就像在面前发生的真实三维场景。戴上立体眼镜让你感觉身临其境的感觉。立体眼镜以其结构简单、外形轻巧和价格低廉成为理想的选择,是目前最为流行和经济适用的虚拟现实观察设备,如图5.15所示。 图5.15立体眼镜显示设备 立体眼镜的结构原理: 经过特殊设计的虚拟现实监视器能以120~140f/s或2倍于普通监视器的扫描频率刷新屏幕,与其相连的计算机向监视器发送RGB信号中含有两个交互出现的、略微有所漂移的透视图。与RGB信号同步的红外控制器发射红外线,立体眼镜中红外接收器依次控制正色液晶检波器保护器轮流锁定双眼视觉。因此,大脑中就记录有一系列快速变化的左、右视觉图像,再由人眼视觉的生理特征将其加以融合,就产生了深度效果即三维立体画面。检波器保护器的开/关时间极短,只有几毫秒,而监视器的刷新频率又很高,因此,产生的立体画面无抖动现象。有些立体眼镜也带有头部跟踪器,能够根据用户的位置变化实时做出反应。与HMD相比,立体眼镜结构轻巧、造价较低,而且佩戴很长时间眼睛也不至于疲劳。 5.2虚拟现实的声音显示设备 声音显示设备是一类计算机接口,它把计算机合成的场景声音展现给虚拟世界中参与交互的用户。声音可以是单声道的(两只耳朵听到相同的声音),也可以是双声道的(左右耳朵听到不同的声音)。声音显示设备在增加仿真的真实感中扮演着重要的角色,它是对前面介绍的图形显示设备提供的视觉反馈的补充。 5.2.1人类的听觉系统概述 要了解三维声音显示原理,必须先了解人类在空间中定位声源的方法。声源定位是听觉系统对发声物体位置的判断过程,可以通过以下5个线索对声音进行识别和判断。 1. 纵向极坐标系统 纵向极坐标系统用来表示三维声源位置,为了测量声音的位置,就必须先建立一个附着在头部的坐标系统。 如图5.16所示,声源的位置由三个变量唯一确定,分别称为方位角、仰角和范围。方位角θ(±180°)是鼻子与纵向轴Z和声源的平面之间的夹角; 仰角φ(±90°)是声源和头部中心点的连线与水平面的夹角; 范围r(大于头的半径)是沿这条连线测量出的声源距离。大脑根据声音的强度、频率和时间线索判断声源的位置(方位角、仰角和范围)。 图5.16用于定位三维声音的纵向极坐标系统 2. 方位角线索 声音从声源出发,以不同的方向在空气传播介质中,经过衰减以及人的头脑反射和吸收过程,最后到达人的左右耳,左右耳因此感受到不同的声音。 图5.17两耳时差示意图 声音在空间中的传播速度是固定的,先到达距离声源比较近的那只耳朵。如图5.17所示,声波稍后到达另一只耳朵,因为声音到达另一只耳朵得多走一段距离,这段距离可表示为aθ+asinθ。声音到达两只耳朵的时间差称为两耳时差(Interaural Time Difference,ITD),可用下列公式来表达: ITD=ac(aθ+asinθ) 其中,a是头的半径,c是声音的传播速度,θ是声源的方位角。当θ等于90°时两耳时差最大,当声源位于头的正后方或者正前方时,两耳时差为0。 大脑估计声源方位角的第二个线索是声音到达两只耳朵的强度,称为两耳强度差(Interaural Intensity Difference,IID)。如图5.18所示,声音到达比较近的耳朵的强度比较远的耳朵强度大,这种现象称为“头部阴影效果”。对于高频声音(大于1.5kHz),用户能感觉到这种现象的存在; 对于频率非常低的声音(低于250Hz),用户是感觉不到这种现象的。 图5.18两耳强度差示意图 3. 仰角线索 如果在对头部进行建模时,把耳朵表示成简单的小孔,那么对于时间线索和强度线索都相同的声源,误区圆锥(Cones Of Confusion)会导致感觉倒置或前后混乱。实际上位于用户后面的声源,却被用户感觉到成位于前面,反之一样。但在现实中,耳朵并不是简单的小孔,而是有一个非常重要的外耳(耳廓),声音被外耳反射后进入内耳。如图5.19所示,来自用户前方的声源与头顶的声源有不同的反射路径,一些频率被放大,另一些被削弱。之所以会被削弱,是因为声音和耳廓反射声音之间是有冲突的。既然声音和耳廓反射声音之间的路径差异随仰角的变化而变化,那么耳廓提供了声源仰角的主要线索。 图5.19声音线路变化与声源仰角 4. 距离线索 大脑利用对给定声源的经验知识和感觉到的声音响度估计声源和用户之间的距离。 其中一个距离线索就是运动视差,或者说是当用户平移头部时声音方位角的变化。运动视差大,意味着声源就在附近。而对于距离很远的声源,当头部发生平移时,方位角几乎没有什么变化。 另一个重要距离线索是来自声源的声音与经周围环境(墙、地板或天花板等)第一次反射后的声音之比。声音的能量以距离的平方衰减,而反射的声音不会随距离的变化发生太大变化。 5. 头部相关的传递函数 三维声音的硬件设计假设声源是已知的,需要有一个相应声音到达内耳的模型。但是,由于现象的多维性、个体的差异和对听觉系统的不全面理解,使得建模工作非常复杂。 最简单的方法就是把人放在一个有多个声源(喇叭)的圆屋顶(Dome)下,并且在实验者的内耳放置一个微型麦克风。当喇叭依次打开时,把麦克风的输出存储下来并且进行数字化。这样,就可以用两个函数(分别对应一只耳朵)测量出对喇叭的响应,称为与头部相关的脉冲响应(HeadRelated Impulse Responses,HRIR)。相应的傅里叶变换称为与头部相关的传递函数(HeadRelated Transfer Functions,HRTF),它捕获了声音定位中用到的所有物理线索。正如前面讨论过的,HRTF依赖于声源的方位角、高度、距离和频率。对于远声场声音,HRTF只与方位角、高度和频率有关。每个人都有自己的HRTF,因为任何两个人的外耳和躯干的几何特征都不可能完全相同。 5.2.2基于HRTF的三维声音显示设备 一旦通过实验确定了用户的HRTF,就有可能获得任何声音,将脉冲响应(Finite Impulse Response,FIR)滤波器,通过耳机传递给用户回放声音。这样,用户就会产生听到了声音的感觉,并且能感觉到这个声音来自放置在空间中相应位置的虚拟扬声器。这种信号处理技术称为卷积(Convolution)。实验表明,该技术具有非常高的识别率,特别是当听到的声音是用自己的HRTF生成时,识别率会更高。 通用的方法就是围绕一些通用的HRTF设计硬件。第一个虚拟三维音频输出设备是1988年由Crystal River Engineering为美国航空航天局签约开发的。这个实时数据信号处理器称为Convolvotron,由旋转在分离外壳中的一组与PC兼容的双卡组成。随着数字信号处理(DSP)芯片和微电子技术的进步,现在的Convolvotron更加小巧。它们由处理每个声源的“卷积引擎”组成,如图5.20所示。 图5.20Convolvotron处理器结构图 来自三维跟踪器的头部位置数据,通过RS232总线被发送给主计算机。Convolvotron主板上的每个卷积引擎开始计算相应的模拟声源相对于用户头部的新位置,然后根据脉冲查找相应的数据表,使用这些数据分别为左耳和右耳计算机出新的HRTF。接下来,通过卷积引擎将滤波器作用于输入声音(第一次数字化之后的),再把从卷积器1得到的声音与卷积器2得到的声音累积在一起,以此类推,直到把所有的输出都累加到一起。最后把对应于所有的三维声源的合成声音转换成模拟信号,并发送到耳机。 5.2.3多扬声器听觉系统 最简单的多扬声器听觉系统是立体声格式的,它产生的声音来自两个扬声器所定义的平面。立体声格式可进一步改进为四声道的格式,在用户前面和后面各放两个扬声器。另一种配置是“5.1环绕”格式,即在用户前面放3个扬声器,侧面(左面和右面)放2个扬声器,还有1个是重低音。 这种多通道音频系统能产生出比立体声更丰富的声音,但是价格昂贵、结构复杂,而且占用更多的空间。最重要的是,这个声音显示是从喇叭中发出的,而不是来自周围的环境,听起来像是环绕在房间的四周,由于没有使用HRTF,所以无法实现来自某个位置的声音。 近年来出现了新一代PC三维声卡。这些声卡使用DSP芯片处理立体声或“5.1环绕”格式的声音,并且通过卷积输出真实的三维声音。如图5.21所示,PC的喇叭装在监视器的左右两侧,与监视器方向一致,面向用户。知道了用户头部的相对位置(面向PC,位于最佳区域),就可以从查找表中检索得到HRTF。这样,只要用户保持处于最佳位置区域中,就有可能创建出在用户周围有许多扬声器的假象,并且能设置扬声器的方位角和位置。 图5.21基于扬声器的三维声音 近年来,许多公司已经开发出了能处理6声道数字声音的三维声卡,并用两个喇叭进行播放,如SRS生产的TruSurround(资格虚拟环绕声),SRS TruSurround HD虚拟环绕技术如图5.22所示。TruSurround声卡具有简化三维声音的能力,支持这类声卡的游戏,能让游戏玩家通过听觉感觉对手是从哪个方向靠近自己的,从哪个方向进行攻击的。SRS TruSurround 处理显著特点是保留了这些声源中的原始多声道音频信息,从而能够形成附加幻觉声源,使聆听者感到SRS 3D更加丰富的环绕声场效果。 图5.22SRS TruSurround HD虚拟环绕技术 5.3虚拟现实的触觉反馈设备 触觉反馈这个词来自希腊语的Happen,意思是接触,它们能传送一类非常重要的感官信息,用户能利用触觉来识别虚拟环境中的对象。触觉反馈与前面介绍的视觉反馈和三维听觉反馈结合起来,大大提高虚拟现实系统的真实感。 触觉反馈可以分为接触反馈(Touch Feedback)和力反馈(Force Feedback)。 5.3.1人类的触觉系统概述 人类触觉系统的输入是由感知循环提供的,对环境的输出(对触觉反馈接口而言)是以传感器发动机控制循环为中介的。输入数据由众多的触觉传感器、本体感受传感器和温度传感器收集,输出的是来自肌肉的力和扭矩。这个系统是不平衡的,因为人类产生触觉感知的速度要比做出反应的速度快得多。 1. 触觉 皮肤中有四种触觉传感器: 触觉小体、Merkel细胞小体、潘申尼小体和鲁菲尼小体。当这些触觉传感器受到刺激时,会产生很小的放电,最终被大脑所感知。 皮肤空间分辨率的变化取决于皮肤中感受器的密度。如指尖和手掌,指尖的感受器密度最高,可以区分出距离2.5mm的两个接触点; 手掌却很难分别出距离11mm以内的两个接触点,用户的感觉是只有一个点。当在很短的时间内,在皮肤上连续发生两次接触时,就需要用时间分辨率来补充空间分辨率。皮肤的机械性刺激感受器的连续感知极限仅为5ms,远远小于眼睛的连续感知极限25ms。 本体感受,是用户对自己身体位置和运动的感知。这是因为神经末稍位于骨骼关节中。感受器放电的振幅是关节位置的函数,它的频率对应于关节的速度。身体定位四肢的精确性取决于本体感受的分辨率,或者能检测出的关节位置的最小变化。 肌肉运动知觉是对本体感受的补充,它能感知肌肉的收缩和伸展。这是由位于肌肉和相应的肌腱之间的Golgi器官以及位于单个肌肉中的肌梭实现的。 2. 传感器发动机控制 身体的传感器发动机控制系统使用触觉、本体感受和肌肉运动知觉来影响施加在触觉接口上的力。人类的传感器发动机控制的关键特征是最大施力能力、持续施力、力跟踪分辨率和力控制带宽。 手指的触点压力取决于该动作是有意识的还是一种本能反应、抓握对象的方式以及用户的性别、年龄和技巧。抓握方式可以分为精确抓握和用力抓握,如图5.23所示。精确抓握用于巧妙地操纵对象,对象只与手指接触; 用力抓握,对象被握在手掌和弯曲90°以上的闭合手指指尖,它的稳定性更高,施加的力也更多,但是缺乏灵活性。触觉接口并不需要产生太大的力,因为用户无法维持太长时间的用力。 图5.23人的抓握几何 5.3.2接触反馈设备 接触反馈(Touch Feedback)传送接触表面的几何结构、虚拟对象的表面硬度、滑动和温度等实时信息。它不会主动抵抗用户的触摸运动,不能阻止用户穿过虚拟表面。 接触反馈,就是能够模拟“感觉”的一项技术。举个例子,如果你想推动智能手机上的按钮,你就会真实地感觉到凹槽或者按钮的触感,尽管实际上那里什么也没有,只是一个平面屏幕。想象一下这样的世界,可以随心所欲地将触摸屏“转换”成任何我们想要的屏幕。常用的接触反馈设备如下: 1. 触觉鼠标 计算机鼠标是一种标准接口,可以用做开放回路漫游、指点和选择操作。开放回路意味着信息流是单向的,用户只能从鼠标发送到计算机(X 图5.24iFeel Mouse触觉鼠标 和Y位置增量或按钮状态)。 通常在使用鼠标时用户要一直观看屏幕,以免失去控制。触觉鼠标增加了响应用户动作的另一条线索,从而可以对此做出适当的补偿(即使把脸转过去也能感知到)。 iFeel Mouse就是一种触觉鼠标,如图5.24所示,它的外观和重量都与普通的鼠标相似,不同的是附加的电子激励器可以引起鼠标外壳的振动。 如图5.25所示,随着固定元件产生的磁场,激励器的轴上下移动。轴上有一个质量块,能产生超过1 N的惯性力,使用户的手掌感觉到振动。激励器垂直放在鼠标底座上,产生沿Z方向的振动。这种设计能尽可能减少振动对鼠标在XY平面移动时的影响,避免鼠标指点不精确。鼠标垫要比普通的厚一些,而且最好是碎屑质地,目的是能吸收一些来自桌面的反作用力。安装在鼠标上的微处理器使用光学传感器数据来确定鼠标的平移量,这些数据通过通用串行总线(USB线)发送给主计算机,USB线同时也用于提供电能。主机软件探测鼠标控制的屏幕箭头与具有触觉特性的窗口边框、图标或表面的接触。 图5.25触觉反馈系统 其结果是,指示触觉反馈开始和反馈类型的鼠标命令被发送给鼠标处理器。处理器继而把这些高级命令转换成振动幅度和频率,并通过激励器接口驱动激励器。如果PC只发送了一个脉冲命令,用户感觉到的是一种“脉冲”触觉,如果PC发送的是复杂的调幅脉冲命令,那么用户就能感觉到各种触觉纹理。 2. iMotion触觉反馈手套 Intellect Motion开发了一款名为 iMotion 的触觉反馈手套, 可以为 Oculus Rift 及任何配备摄像头的 Mac、PC 甚至 Android 设备带来动作操控, 图5.26iMotion的触觉反馈手套 如图5.26所示。iMotion 是一款带有触觉反馈的体感控制器,可以通过设定的动作来实现对PC、手机和平板等设备的体感控制,并畅玩相关游戏。在外观上,iMotion控制器的正面拥有三个 LED 灯,用于检测 X、Y、Z 轴的坐标和平面仰角、旋转角度等; 背面拥有四颗力反馈装置,通过“绑带”来戴在手上,甚至腰间; 而控制器内置的陀螺仪和加速计能够精准检测到玩家的任何动作,并最终解析为相关操作指令。 iMotion 采用优雅的机身设计,风格跟苹果的鼠标近似。据官方介绍,iMotion 可以提供精准的 3D 动作控制,并且横跨各大平台和诸多App。该设备在用户面前创建了一个虚拟的触摸空间,并且拥有触觉反馈,迷你是让用户“真实触摸”到游戏或应用中的物体。它能够欺骗你的大脑,让你误以为你的双手正在推、拉,或者进行其他应用(游戏)想要的动作,如图5.27所示。iMotion兼容个人计算机、游戏机,甚至手机和平板。iMotion能够配对Oculus Rift头戴式显示器,因此你可以真正地置身于游戏的场景当中。iMotion虚拟的触觉反馈创造了真实的按钮触感,沉浸式体验就更不用多说了。 图5.27虚拟的触觉反馈 iMotion 内置陀螺仪、加速计,通过表面的三个 LED 灯来判断用户身体在 3D 空间的位置——检测 X、Y、Z 轴的坐标和平面仰角、旋转角度等,如图5.28所示。 图5.28iMotion 内置的陀螺仪和加速计 iMotion里面有四个橘色的部件用来提供触觉反馈,如图5.29所示。iMotion 的触觉反馈技术是通过蓝牙向用户发出信息,提供 5 种不同的反馈模式,对应不同的强度和持续时间。 图5.29iMotion里面有四个橘色的部件用来提供触觉反馈 5.3.3力反馈设备 力反馈(Force Feedback)利用机械表现出的反作用力,将游戏数据通过力反馈设备表现出来,可以让用户身临其境地体验游戏中的各种效果。力反馈设备适用于虚拟会议、虚拟模型、维持路径规划、多媒体和分子模型化等诸多应用领域。 力反馈设备与接触反馈设备的区别: (1) 力反馈要求能提供真实的力来阻止用户的运动,这样就导致使用更大的激励器和更重的结构,从而使得这类设备更复杂、更昂贵; (2) 力反馈需要很牢固地固定在某些支持结构上,以防止滑动和可能的安全事故,比如操纵杆的力反馈接口就是不可以移动的,它们通常固定在桌子或地面上; (3) 力反馈具有一定的机械带宽,机械带宽表示用户(通过手指附件、手柄等)感觉到的力的频率和转矩的刷新率(单位为Hz)。 常用力反馈设备如下: 1. 力反馈操纵杆 力反馈操纵杆的特点: 自由度比较小,外观也比较小巧,能产生中等大小的力,有较高的机械带宽。 图5.30WingMan Force 3D操纵杆 比较有代表性的例子就是WingMan Force 3D操纵杆,如图5.30所示。它有三个自由度,其中两个自由度具有力反馈,游戏中使用的模拟按钮和开关也具有力反馈。这种力反馈结构安装在操纵杆底座上,有两个直流电子激励器,通过并行运动机制连接到中心操作杆上。每个激励器 都有一个绞盘驱动器和滑轮,可以移动一个由两个旋转连杆组成的万向接头机制。这两个激励器与万向接头部件互相垂直,允许中心杆前后 倾斜和侧面(左右)倾斜。操纵杆的倾斜程度通过两个数字解码器测量,这两个数字解码器与发动机传动轴共轴。测量得到的角度值由操纵杆中附带的电子部件(传感器接口)处理后,通过USB线发送给主PC。当数/模转换器完成对模拟信号的转换后,操纵杆按钮的状态信息也被发送给计算机。计算机根据用户的动作改变仿真程序,如果有触觉事件(射击、爆炸、惯性加速)就提供反馈。这些命令继而被操纵杆的模/数转换器转换成模拟信号并放大,然后发送给产生电流的直流激励器。这样就形成了闭合的控制回路,用户就可以感觉到振动和摇晃,或者感觉到由操纵杆产生的弹力。 2. CyberGrasp力反馈手套 力反馈手套是数据手套的一种,借助数据手套的触觉反馈功能,用户能够用双手亲自“触碰”虚拟世界,并在与计算机制作的三维物体进行互动的过程中真实感受到物体的振动。触觉反馈能够营造出更为逼真的使用环境,让用户真实感触到物体的移动和反应。此外,系统也可用于数据可视化领域,能够探测与出地面密度、水含量、磁场强度、危害相似度或光照强度相对应的振动强度。 Immersion CyberGrasp是一款设计轻巧而且有力反馈功能的装置,像是盔甲一样附在Immersion CyberGlove上。使用者可以通过Immersion CyberGrasp的力反馈系统去触摸计算机内所呈现的3D虚拟影像,感觉就像触碰到真实的东西一样,如图5.31所示。Immersion CyberGrasp最初是为了美国海军的远程机器人专项合同进行研发的,可以对远处的机械手臂进行控制,并真实地感觉到被触碰的物体。 图5.31Immersion CyberGrasp力反馈手套 该产品重量很轻,可以作为力反应外骨骼佩戴在Immersion CyberGlove数据手套(有线型)上使用,能够为每根手指添加阻力反馈。使用Immersion CyberGrasp力反馈系统,用户能够真实感受到虚拟世界中计算机3D物体的真实尺寸和形状。 接触3D虚拟物体所产生的感应信号会通过Immersion CyberGrasp特殊的机械装置而产生了真实的接触力,让使用者的手不会因为穿透虚拟的物件而破坏了虚拟实境的真实感。 使用者手部用力时,力量会通过外骨骼传导至与指尖相连的肌腱。共有五个驱动器,每根手指一个,分别进行单独设置,可避免使用者手指触摸不到虚拟物体或对虚拟物体造成损坏。高带宽驱动器位于小型驱动器模块内,可放置在桌面上使用。此外,由于Immersion CyberGrasp系统不提供接地力,所以驱动器模块可以与GrapPack连接使用,具有良好的便携性,极大地扩大了有效的工作区。 在用力过程中,设备发力始终与手指垂直,而且每根手指的力均可以单独设定。Immersion CyberGrasp系统可以完成整手的全方位动作,不会影响佩戴者的运动。 Immersion CyberGrasp系统为真实世界的应用带来巨大的利益,包括医疗、虚拟现实培训和仿真、计算机辅助设计(CAD)和危险物料的遥操作。 5.3.4触觉反馈在医学中的应用 1. 自带触觉反馈的机器人 澳大利亚迪肯大学和哈佛大学联手打造了一款叫作Hero Surg的机器人,外观如图5.32所示。这款机器人是专门为了腹腔镜手术打造的,所以它尤其适用于那些需要缝合微小组织的手术中。Hero Surg和外面那些五花八门的微创手术工具不同,它可以通过触觉反馈机制,将触觉传递给主刀医生以及3D图像处理器,这样一来,医生们就可以看到他们的手术刀到底割到了哪里,可以让手术更加安全、精准度更高。 图5.32Hero Surg机器人外观 Mohsen Moradi Dalvand花了接近十年时间研究医学机器人技术以及触觉系统,研制了Hero Surg机器人,如图5.33所示。Hero Surg是个主从式的手术系统; 当它处于从属地位时,它配置了多重机械臂,上面带有各种手术工具和腹腔镜; 而当它处于主导地位的时候,它就成了为外科医生提供触觉的操控手柄。Hero Surg机器人控制台如图5.34所示。 图5.33Hero Surg机器人 图5.34Hero Surg机器人控制台 另外,有了Hero Surg机器人,医生们可以感受到他们在使用器具的过程中,到底给患者施加了几分力。也就是说,当医生通过手术器具抓到了一些东西,或是在切一些身体组织时,他们可以感受到自己对这个组织施加的力气,他们还可以感受到组织的软硬程度,并对组织的性质做出判断。触觉反馈让外科医生可以分辨各种组织,并且感受一些脆弱的组织是否被感染或是炎症摧残得更弱,然后将它剖析得更彻底。机器人外科手术系统现在势头很强,使用它的医生越来越多。 2. 利用触觉反馈打造VR智能手术系统 英国Fundamental VR公司研发了一套VR智能手术系统,该系统可以通过触觉反馈让医学生感受手术过程中人体的触感。 这套VR智能手术系统包含一台HoloLens头显,以及一支连接到标准机械臂上的触笔。在VR中,这支触笔看起来就是一支注射器,通过一个按钮可以排空注射器,另一个按钮可以重新填满液体。在现实世界中移动触笔就可以在VR中移动注射器。当虚拟的针头接触到虚拟的皮肤、肌肉或者骨头时,不同介质带来的不同的阻力能够通过触笔传导给使用者,让他们对真实的人体有逼真的感受。 Fundamental VR的首个系统用于膝关节内窥镜手术中,这种虚拟膝关节手术系统已经在美国国内多个医学中心获得了使用。通过对膝关节的多角度成像,公司打造出了一个完整的膝关节3D模型,如图5.35所示。现成的触觉设备被用于在系统中替代注射器,当然也可以根据需要替代任何需要的工具。 打造一个真实重现手术体验的系统需要人类智慧和高科技的融合,在建造VR膝关节置换手术时,Fundamental VR在每一个环节都咨询了外科医生的意见。外科医生们还要参与如何将实际的手术经验转换为VR的版本。这就需要使用公司的触觉反馈开发引擎来连接真实和VR的世界。 Stan Dysart是一名关节置换手术专家,他参与了整个在VR中重建手术感觉的过程。他为人体不同的元素分配一个号码,以对应一种触觉的质感。触觉设备有一个打分系统,帮助开发人员决定针头在关节囊中是什么样的感觉、在肌肉、脂肪、骨膜、骨头中是什么感觉。举例说明,如果是在纤维囊中,插入针头的感觉就像插入塑料; 在关节囊中,由于关节囊具有一定的阻力,在针头不断深入时,这种阻力会释放。在VR中能够模拟出这种触觉的变化,并且在膝盖不同部位的触觉还不一样。在对这些不同的触觉编号之后,计算机就能够做出相应的处理: 编号的数值越高就代表医生遇到的阻力越大。如图5.36所示,医生正在用VR智能手术系统进行膝关节手术。 图5.35膝关节3D模型 图5.36利用VR智能手术系统进行膝关节手术 外科医生们都很喜欢这种方式,最重要的一点就是因为医生们可以不断地反复练习,同时不会伤害到患者。在VR中,如果不小心将针头捅的太深,也没关系。医生会知道自己操作不当,然后一遍一遍反复练习来获得正确的技巧。能够在VR中学习到必要的手术技巧,在真实病人的身上操作之前,最大限度地提升自己的手术水平。 除了膝关节手术外,Fundamental VR目前还在开发另外三种手术流程,包括软组织手术和脊椎手术。 本 章 小 结 本章介绍了虚拟现实的输出设备,通过输出接口给用户产生反馈的感觉通道。目前主要应用的输出设备是视觉、听觉和触觉(力觉)的设备,基于味觉、嗅觉等的设备有待开发研究。随着科技的不断进步,将有更便利更智能的虚拟现实设备出现,在未来的研究中,在输出设备中加入手势识别等更加智能的交互技术,将是输出设备未来发展的重要趋势。 【注释】 视场: 天文学术语。指望远镜或双筒望远镜所能看到的天空范围。视场代表着摄像头能够观察到的最大范围,通常以角度来表示,视场越大,观测范围越大。 深度知觉: 指人对物体远近距离即深度的知觉,它的准确性是对于深度线索的敏感程度的综合测定。 LCD显示器: Liquid Crystal Display 的简称,液晶显示器。LCD 的构造是在两片平行的玻璃基板当中放置液晶盒,下基板玻璃上设置TFT(薄膜晶体管),上基板玻璃上设置彩色滤光片,通过TFT上的信号与电压改变来控制液晶分子的转动方向,从而控制每个像素点偏振光出射,达到显示目的。 NTSC: 是National Television Standards Committee的缩写,意思是“美国国家电视标准委员会”。NTSC负责开发一套美国标准电视广播传输和接收协议。此外还有两套标准: 逐行倒像制式(PAL)和顺序与存储彩色电视系统(SECAM),用于世界上其他的国家。NTSC标准从产生以来除了增加了色彩信号的新参数之外没有太大的变化。NTSC信号是不能直接兼容于计算机系统的。 PAL: 电视广播制式,是英文Phase Alteration Line的缩写,意思是逐行倒相,也属于同时制。 SXGA: 高级扩展图形阵列(Super extended Graphics Array、Super XGA或SXGA)。一个分辨率为1280×1024的既成事实显示标准,每个像素用32比特表示(真彩色)。 FLCOS: FLCOS微显示技术面板与LCOS面板同样应用多路时间分割技术机型单色转化,可以每分钟进行360次红绿蓝三原色转换,这样的色彩转换能力是普通电视信号的两倍。在黑色底板上应用红绿蓝像素滤波器的LCOS微显示芯片,亮度表现和相应时间都要比TFT液晶面板更为出色。 OLED: 有机发光二极管又称为有机电激光显示(Organic LightEmitting Diode,OLED),由美籍华裔教授邓青云在实验室中发现,由此展开了对OLED的研究。OLED显示技术具有自发光的特性,采用非常薄的有机材料涂层和玻璃基板,当有电流通过时,这些有机材料就会发光,而且OLED显示屏幕可视角度大,并且能够节省电能。 HTC Vive: 由HTC与Valve联合开发的一款VR虚拟现实头盔产品,于2015年3月在MWC2015上发布。由于有Valve的SteamVR提供的技术支持, 因此在Steam平台上已经可以体验利用Vive功能的虚拟现实游戏。 DLP投影机: 数码光处理投影机是美国德州仪器公司以数字微镜装置 DMD芯片作为成像器件,通过调节反射光实现投射图像的一种投影技术。它与液晶投影机有很大的不同,它的成像是通过成千上万个微小的镜片反射光线来实现的。 边缘融合技术: 分为纯硬件边缘融合(单片机原理)、软件融合(GPU)、集成式边缘融合服务器(集融合矫正、布局窗口、信号输入、中央控制等功能为一体),主要技术特点是将多台投影机投射出的画面进行边缘重叠,并通过融合图像技术将融合亮带进行几何矫正、色彩处理,最终显示出一个没有物理缝隙,并更加明亮、超大、高分辨率的整幅画面,画面的效果就像是一台投影机投射的画面。 色彩平衡: 是图像处理(Photoshop)软件中一个重要环节。通过对图像的色彩平衡处理,既可以校正图像色偏、过饱和或饱和度不足的情况,也可以根据自己的喜好和制作需要,调制需要的色彩,更好地完成画面效果,应用于多种软件和图像、视频制作中。 卷积: 在泛函分析中,卷积、旋积或摺积(Convolution)是通过两个函数f 和g 生成第三个函数的一种数学算子,表征函数f 与g经过翻转和平移的重叠部分的面积。如果将参加卷积的一个函数看作区间的指示函数,卷积还可以被看作是“滑动平均”的推广。 吞吐量: 指对网络、设备、端口、虚电路或其他设施,单位时间内成功地传送数据的数量(以比特、字节、分组等测量)。 RS232: 个人计算机上的通信接口之一,由电子工业协会(Electronic Industries Association,EIA) 所制定的异步传输标准接口。通常 RS232 接口以9个引脚 (DB9) 或是25个引脚 (DB25) 的型态出现,一般个人计算机上会有两组 RS232 接口,分别称为 COM1 和 COM2。 触觉小体(Meissner corpuscle): 又称Tactile 小体,分布在皮肤真皮乳头内,以手指、足趾的掌侧的皮肤居多,感受触觉,其数量可随年龄增长而减少。 Merkel细胞(Merkel Cell): 是树枝状细胞的一种,位于光滑皮肤的基底细胞层及有毛皮肤的毛盘,数量很少。多数情况下,位于神经末梢,因此被称为Merkel神经末梢(Merkel Nerve Endings)。 潘申尼小体(Pacinian corpuscle): 又称环层小体(lamellar corpuscle),体积较大(直径1~4mm),卵圆形或球形,广泛分布在皮下组织、肠系膜、韧带和关节囊等处,感受压觉和振动觉。小体的被囊是由数十层呈同心圆排列的扁平细胞组成,小体中央有一条均质状的圆柱状。有髓神经纤维进入小体失去髓鞘,裸露轴突穿行于小体中央的圆柱体内。 鲁菲尼小体(Ruffini小体): 是机械刺激感受器中的一种触觉感受器。呈长梭形,被膜松弛,位于真皮内,属于本体感觉器,是一种慢适应感受器,也称鲁菲尼小体。 Golgi器官: 最早由Golgi发现,故又名高尔基腱器官(Golgi tendon organ)。腱器官的功能是将肌肉主动收缩的信息编码为神经冲动,传入到中枢,产生相应的本体感觉。 惯性力(inertial force): 是指当物体加速时,惯性会使物体有保持原有运动状态的倾向,若是以该物体为参照物,看起来就仿佛有一股方向相反的力作用在该物体上,因此称为惯性力。因为惯性力实际上并不存在,实际存在的只有原本将该物体加速的力,因此惯性力又称为假想力(fictitious force)。 Oculus Rift: 一款为电子游戏设计的头戴式显示器。这是一款虚拟现实设备。这款设备很可能改变未来人们游戏的方式。Oculus Rift具有两个目镜,每个目镜的分辨率为 640×800,双眼的视觉合并之后拥有 1280×800 的分辨率。 转矩: 机械元件在转矩作用下都会产生一定程度的扭转变形,故转矩有时又称为扭矩 (torsional moment)。转矩是各种工作机械传动轴的基本载荷形式,与动力机械的工作能力、能源消耗、效率、运转寿命及安全性能等因素紧密联系,转矩的测量对传动轴载荷的确定与控制、传动系统工作零件的强度设计以及原动机容量的选择等都具有重要的意义。 DC马达: 为英语motor的音译,即为电动机、发动机。DC马达是直流电动机。