首页 > 文章中心 > web3d技术论文

web3d技术论文

前言:想要写出一篇令人眼前一亮的文章吗?我们特意为您整理了5篇web3d技术论文范文,相信会为您的写作带来帮助,发现更多的写作思路和灵感。

web3d技术论文

web3d技术论文范文第1篇

原文

引言

Flash日益成为主流的网上多媒体形式,越来越多的人尝试使用Flash来设计整个网站。虽然互联网上已经出现了许多用Flash设计的精彩网站,但是目前国内使用Flash和后台数据库结合的技术来开发电子商务网站的应用还比较少。并且目前绝大部分电子商务网站的产品展示只仅仅停留在文字和二维图片上,消费者不能从多角度,全方位接触产品。在本次毕业设计中作者本着探索的精神尝试结合现今热门的FLASH和web3d技术为有意于建立自己电子商务网站的公司提供一个基于后台数据库的多媒体电子商务交易网站的解决方案。使其能在网上建立自己的个性化商业网站,商品信息,为消费者提供服务,凭借Internet接触更广泛的客户,延伸和扩大销售渠道,树立良好的企业形象。

第一章电子商务和电子商务系统的概念

1.1电子商务

1.1.1电子商务的基本概念

所谓“电子商务”就其本质而言仍然是“商务”,其核心仍然是商品的交换,与传统商务活动的差别主要体现在商务活动的形式和手段上。电子商务顾名思义主要是指以电子技术为手段的商务活动,它可以分成两种类型:

广义电于商务:泛指企业利用电子手段实现的商务及运作管理的整个过程,是各参与方通过电子方式而不是直接物理交换或直接物理接触方式来完成的任何业务交易。

狭义电子商务:是指通过Internet或电子数据交换(EDI)进行的交易活动,从这一点出发,也有人将电子商务称为IC(InternetCommerce)。目前,电子商务则主要指狭义的电子商务。

1.1.2电子商务的基本特征

(1)缩短生产商和消费者的距离,使交易双方面临的商业机会扩大。电子商务条件下,供应商及消费者面临更多的机会。从市场角度看,Internet实际是一个虚拟的交易市场,在此市场中参与交易的成员能够覆盖整个世界,由于市场空间增大了,企业能够拥有的客户越多,其商业机会也越多。

......

目录

第一章电子商务和电子商务系统的概念

第二章Flash技术介绍

第三章WEB3D和Cult3D技术介绍

第四章Flash&Web3D电子商务网站实现

第五章开发中使用的关键技术

第六章性能测试与分析

第七章结束语

参考资料

1.《电子商务实用教程》祁明主编高等教育出版社

2.《深入Flash5编程》5D多媒体北京科海集团公司

3.《Flash5撼动网页宝典》赵英杰著科学出版社

4.《FlashActionScript语法参考辞典》郑伯鸿著中国铁道出版社

5.《Flash5高级用户手册》卢骁著机械工业出版社

6.《PHP&MySQL商业网站架设实务》吴佳谚著中国铁道出版社

7.《PHP4.x与电子商务网站开发实战》周浩著人民邮电出版社

......

web3d技术论文范文第2篇

【关键词】微格教学;虚拟交互社区(VIC);远程教学

【中图分类号】G40-057 【文献标识码】B 【论文编号】1009―8097(2009)06―0088―03

微格教学系统是教学技能训练的重要工具,它对于教师教学、人员培训、教师职前培训等都有重要的作用。随着计算机、网络技术和多媒体技术的发展以及教学改革的不断深入,使得微格教学系统逐渐从模拟视、音频信号的采集、处理与存储向数字化的集成处理转变,也为基于数字微格的协作学习提供了技术支撑,并为基于数字微格的远程学习提供了可能。

构想中的远程虚拟微格教学系统,是一个基于Web2.0与Web3D并融合了3D网络虚拟环境(NVE)和虚拟交互社区(VIC)概念的混合平台。它通过三维环境建模真实重现微格训练教室,然后把各种同步的交流工具集成到3D虚拟环境,除了支持文本交谈、音频会话、视频会议以及基于视频的替身交互外,还具有社区支持功能,如:身份认证和授权、学伴名单列表、在场状态呈现(显示谁在线、是什么情绪、追求什么类型的活动)等等。目的是在实现原有微格教学目标的基础上,扩大受益面,系统所提供的沉浸感、临场感(be there),可使在职教师不必亲临培训现场也能感受到学习的氛围,强化微格教学训练过程的体验。

一 虚拟交互社区(VIC)及其社会功能

虚拟交互社区(VIC)定义为3D网络虚拟环境(NVE),在里边许多有相同兴趣和想法的人可以更容易地交流[1]。过去十年,VIC发展很快。当今最流行的VIC是大规模多用户角色扮演游戏(MMORPGs),全球拥趸数以亿计,典型代表有Second Life、World of Warcraft等。这些VIC的共同点是,建立在高速终端PC上,拥有永久进入网络的带宽。而且它们大多数依赖文本交谈作为主要的交流方式(尽管一些已经支持语音交流,但通常需要额外付费)。

大多数的VIC,用户由虚拟动画角色来代表,称作替身,它们代表用户在虚拟世界的位置和动作。学者P. Quax、C. Flerackers、T. Jehaes和W. Lamotte还提出了这些替身的扩展――结合3D世界与实时视频流的视频替身(Video Avatar),将在线用户的面部视频信息融入到虚拟的三维场景中[2]。笔者认为这样的扩展很适合远程虚拟微格教学的开展,因为其实时视频流的传输能够及时反映微格训练的实景,使得学习环境更具探索性和趣味性。

二 构建远程虚拟微格教学系统的整体方案

远程虚拟微格教学系统是一个建立在虚拟交互社区(VIC)概念之上的微格教学系统。

1 逻辑结构

远程虚拟微格教学系统的逻辑结构如图1所示。在系统中,需要构建一个主虚拟微格训练教室和多个子教学训练基地,每一个训练基地都需要VIC的支持。分布于异地的子训练基地的成员可以在本地登录系统进行训练,通过Internet与主控室联系,获得训练指导与交流。

(1) 虚拟环境中的受训人员 VIC提供一个真实再现教学环境的虚拟教室场景。受训人员和指导人员之间的交流通过视频替身进行,将实时视频信息融入到虚拟教室的三维场景中,实现准虚拟会晤。而在会话(包括师生和学伴之间的会话)时则切换到一对一的实时视频双向交互模式,类似于使用一个远程会议系统。[3]因此,受训人员需装备网络摄像机(包括主摄像机与辅助摄像机,用于多角度拍摄)以及带有耳机和话筒的耳麦。

在主控室授权的情况下,受训人员可以通过虚拟微格训练教室的嵌入式终端自主地进行练习,并把训练情况实时地记录在主控电脑的硬盘上。

(2) 虚拟环境中的指导人员与受训人员类似,指导人员通过虚拟环境的导航进入虚拟教室。指导人员通过网络观察每位受训人员的教学过程,针对教学过程中出现的问题,进行单独地指导和评价,或者组织全体受训人员对共性的问题和优秀教学实践进行观摩、交流和评价。另外,指导人员具有获取和传送当前的内容和记录音频、视频消息的权限。

2 主要功能

(1) 即时反馈功能该功能通过对受训人员在虚拟教室内部活动的存取来实现。它可以通过简单的网络摄像机录制,经过采集卡实时采A/V流、再压缩、编码、上传存储到流媒体服务器,再由指导人员添加录像课程,即提取A/V流,播放受训人员自身的表现,使其能够实时了解自身表现,通过自我诊断、反馈调节,实现自我完善。[4]

(2) 即时指导功能指导人员通过观看受训人员的表现,来进行实时指导。最简单的方法可采用Net meeting来实现点到点的音频和视频对话。作为双向可视,受训人员也可看到指导人员的画面。

(3) 双向交流功能实时远程交互可将指导人员的指导与远程受训人员练习的过程实时传输到流媒体编码机,经过采集卡的采集、编码后实时上传到流媒体服务器,再由流媒体服务器实时到终端计算机,从而达到教师和学生、学生和学生之间的双向交流。

(4) 异步功能视频点播传统(VOD)能够为受训人员提供各项教学技能的教学示范以及供观摩见习的优秀教师的课例等视音频学习资源。借助流媒体技术,通过视频采集卡将丰富的电视教材的音、视频信号进行压缩录制成流媒体文件,通过站点进行网络直播,或者保存为相应的流媒体文件后,根据学生的需要进行播放,实现异步教学。[5]

3 网络架构及相关协议

系统的网络架构,其逻辑实体由四个担负不同职责的服务器构成,分别为会话服务器、A/V流媒体服务器、VIC服务器和数据库服务器。会话服务器管理授权用户、注册用户的登录和离开,也用来初始化A/V传输会话。为了传输和管理这些会话,使用了会话发起协议SIP。A/V流媒体服务器用来传输。点对点传输仅在有两个对象参与时才可能。当更多对象参与时,就需要使用传输服务器,因为多个对象之间点对点连接由于带宽限制是不可能建立的。本方案把单个流发给传输服务器,然后再转发给不同对象,这样每个参与者仅需要发送单个A/V流而不是给每个参与者都发一个。会话服务器负责指明客户端使用哪个传输服务器(假如一个以上可用的话)。由于A/V流的实时特点,实时传输协议(RTP)是显然的协议选择。其他更有效的A/V流传输的可能性是使用组播。[6]为了不超过128kbps(或256kbps)的上传带宽限制,我们需要压缩A/V流。目前使用MPEG-4 80Kbit QCIF压缩视频,Speex Narrowband 15Kbit压缩音频,实现可用带宽的最优化。[7]管理3D 虚拟环境的同步化和持续性是VIC服务器的职责。它包括传输虚拟世界本身、物体和用户状态的实时显示以及管理、储存一个连续的世界状态。文件传输通过使用文本传输协议(FTP)。数据库服务器为存储于数据库中的两类数据服务:一类数据包含用户个人信息诸如A/V参数和社区地址列表的配置文件,另一类数据是该服务器传输和存储(共享)的媒体及其他数据文件。底层协议使用了FTP和超文本传输协议(HTTP)。网络架构及使用的相关协议如图2所示。

4 硬件和网络要求

VIC平台可经由语言(如C++)编程运行于大多数的Windows系统。对于网络摄像机,320 x 240 像素、28fps就能提供较舒适的视觉观感,它甚至能拍摄教室内电视上播放的影片。关于音频,可将耳机和话筒集成到网络摄像头,建议无线话筒与固定话筒一起使用,这要求将回音取消(AEC)功能整合到话筒或软件中。最后,为了流畅地渲染3D 虚拟场景,客户端的计算机还需配置3D 图形加速卡。为了保持网络信息流通量的最大化,A/V 流在输出之前要求被压缩,需选择合适的压缩标准。

三 结束语

本文提出了基于虚拟交互社区(VIC)平台的远程虚拟微格教学系统架构方案。这种新型的虚拟教学系统,无疑更有利于创设课堂教学情境,给远程学员带来更多探究性的、有趣的学习氛围。随着系统功能的拓展和完善,其在教师教育培训领域的实际应用价值将凸显。同时,作为一种尝试,系统功能远未完善,尚有许多关键技术有待解决,需进一步深入的研究。

参考文献

[1] JORISSEN Pieter, DI FIORE Fabian, Vansichem G, et al.A virtual interactive community platform supporting education for long-term sick children [EB/OL].

[2] Quax Peter, Flerackers Chris, Jehaes Tom, et al.Scalable transmission of avatar video streams in virtual environments [EB/OL].

[3][7] 李欣.面向远程教育应用的“视频化身虚拟教室”设计[J].电化教育研究,2008,(8):68-73.

[4] 王利兴.微格教室的设计[J].现代教育技术,2002,(4):62-63.

[5] 周剑辉,丁芳.基于网络的微格教学环境设计[J].现代教育技术,2007,(1):62-64.

[6] 饶雨泰.基于流媒体技术的校园网视频点播服务器设计[J].科学技术与工程,2007,(6):1240-1246.

Constituting Long-range Virtual Micro-teaching System

QIANG Hong LI Xin

( College of Teacher Education , Zhejiang Normal University , Jinhua ,Zhejiang,321004,China )

web3d技术论文范文第3篇

【关键词】Kinect;体感人机交互;学习平台;多媒体科普电子书;研发

【中图分类号】G40-057 【文献标识码】B

【论文编号】1671-7384(2013)07/08-0096-06

所谓“体感交互”,就是指人能够以身体最自然(比如手势、体态、表情、语音等)的方式与终端进行信息的交互并完成互动,这是真正意义上的“自然人机交互”。

体感交互技术代表着人机交互技术的发展方向,体现了对人的因素的重视,给人“充分的自由”,标志着人机交互技术从“人适应计算机”向“计算机不断地适应人”的方向发展。传统的人机交互技术构建的交互界面事实上成为隔离物质世界和信息世界之间的屏障[1]。微软公司新近推出的Kinect体感硬件及其交互技术的广泛应用,能有效地消除物理对象和抽象对象、输入装置和输出装置在交互空间中的差别,为人提供多感觉通道的自然临境体验,从而使交互系统能够根据上下文及人的特点主动识别人的身体姿态、手势、语音和表情等各种自然行为,进而判断出人的意图。交互系统的使用和操控更加符合人的习惯,人可以用手势、表情、语言、文字、图像等自然方式与交互系统打交道,恰如与他人交流一样自然。因此,Kinect深受IT教育领域的青睐,Kinect在教育领域的人机交互系统中的应用研究如火如荼。

本文根据课题研究成果,在精要分析Kinect的结构特性及其体感人机交互机理的基础上,详细阐述基于Kinect的儿童体感交式互多媒体电子书及其学习平台(Basic On Kinect Posture Interaction learning System for Children,以下简称KPILSC)的结构功能、系统模型、体态捕捉与识别、体态数据库的构建、学习内容的设计及其开发工具与实现。

Kinect的结构特性及其体感人机交互机理

Kinect工作时,首先是以红外线发出人眼看不见的Class 1雷射光,透过镜头前的光栅扩散片(Diffuser)将雷射光均匀分布投射在侦测空间中,再透过红外线摄影机记录下空间中的每个散斑,撷取原始数据后,透过晶片计算成具有3D深度的图像[3],然后将侦测到的3D深度图像转换到骨架追踪系统。目前该系统最多可同时侦测到6个交互者的精确位置,并同时辨识2个交互者的动作;每个交互可记录包含躯干、四肢以及手指等追踪范围的20组细节,实现全身体感交互操作[4]。

KPILSC的结构功能

1. KPILSC的基本结构

KPILSC是一套运行在X86架构的PC机及Windows操作系统环境中,采用Microsoft Kinect体感硬件,借助Kinect捕捉交互者实时深度图像视频流与人体骨骼点追踪的功能及其人体骨骼数据库和体态捕捉与识别算法,通过人体动作捕捉与识别而实施的儿童体感交互式学习平台。

2. KPILSC的基本功能

在KPILSC平台中可以根据儿童的学习需要设计与开发一系列体感交互式学习产品。比如,(1)开发自然和谐的交互式科普实验室:让儿童在虚实结合的实验室中以手势互动方式解剖青娃、制作氢气、驾驭太空飞船等。(2)构建实时虚拟交互学习课堂:有效地实现学习内容中虚拟世界的事物和儿童周围真实环境的结合,加上体感隔空的互动方式,符合儿童天真、好动的心理,使其脱离呆板的学习模式,全身心融入到学习内容之中,促进其手眼协调,开发其智力、锻炼其脑力,促进儿童绿色地学习与健康成长。(3)制作交互式多媒体电子书:将科普图书中原本用文字描述的情节转换为具象、活灵活现的科普立体场景,儿童采用手指隔空翻页:五指张开,页面放大;手上下挥动,页面移动;双手合拢,页面关闭……使儿童在更加自然的操控界面中进行更加自然的人机交互学习。

采用KPILSC学习平台可有效地使儿童实现以下自然和谐的创新交互学习模式:

(1)实现以儿童为中心(Children-Centered)的多模态交互学习

KPILSC以儿童对人机交互的需求变化为出发点,充分利用人类多种感觉和效应通道的互补特性[5],使之可选择地、充分地并行和协作来捕捉儿童的交互学习意图,从而增进儿童交互学习的自然性,交互学习时实现人机交互的外在形式和内部机制都能符合不同儿童的需要,儿童可利用手势、体态、语音、表情等自然方式,不受地点限制地与计算机进行隔空交互,既能满足儿童个性化的需要,又使得儿童不脱离自然社会关系,从而实现以儿童为中心的多模态交互学习。如通过模拟驾驶太空飞船的手势来进行漫游交互的操作、通过双手的伸展来达到电子图书的放大缩小等。

(2)实现多媒体感知式((Multimdia Perceptive)的交互学习

KPILSC利用其感知及推理能力对来自儿童感觉和效应通道的交互信号进行识别、集成和协调,并获取儿童动作和行为习惯、偏好及其他相关信息,并以人类易理解的多媒体信息方式为儿童输出交互信息,从而提供不受时空限制而又效能最大化的个性化交互计算服务[6]。这种人机交互方式的双向信息流动是以多媒体感知和处理为核心的:儿童通过其感觉和效应通道传递的交互意图在计算机内表示为文本、语音、图形和图像等多媒体信息;人到机(Human to Compute)的信息流动是多媒体信息的获取及识别过程;计算机经过处理的信息是以文本、语音、图形和图像等儿童理解概念所需的多媒体信息形式展现出来;机到人(Computer to Human)的信息流动是多媒体信息的合成和呈现过程,从而使儿童能有效地实现多媒体感知式的交互学习。例如,在KPILSC中儿童可阅读集文本、图形、图像、视频和音频为一体的体感交互式多媒体科普电子书,使儿童沉浸在活灵活现的科普立体场景中,通过手的移动隔空调控实验仪器,通过手势的摆动来达到切换科普立体场景中图形、图像、视频和音频等。

KPILSC的研发

1. 开发工具

KPILSC的开发工具包括C++与C#编程语言、Visual Studio 2010、Kinect for Windows SDK(简称Kinect SDK)、Adobe及Autodesk Maya三维设计软件等。

其中Visual Studio 2010用来开发KPILSC学习系统的基本框架和用户界面;C++与C#编程语言用来编写KPILSC中体感交互的功能模块;Kinect For Windows 1.0版SDK负责控制和读取Kinect捕捉的人体骨骼数据流,Kinect for Windows SDK内含驱动程序、丰富的原始感测数据、自然用户和流程式开发接口(Raw Sensor Streams API)及安装文件和参考数据;Autodesk Maya三维设计软件用来设计和制作KPILSC系统中学习内容所包含的三维模型素材;Adobe多媒体设计软件用来负责KPILSC系统中音频、视频、图片素材的处理。

2. KPILSC的系统模型

3. 肢态捕捉与识别

KPILSC系统结合Kinect的人体骨骼跟踪引擎,采用动态图像序列的识别方法,充分考虑儿童动作图像的运动信息,把肢体变化的时间和空间信息结合起来,注重人体骨骼变化的过程,利用Kinect捕捉儿童姿态,经过图像识别分析、图像跟踪算法,对儿童基本骨骼点的空间位移进行图像信息检索。将采集到的骨骼点的位置信息通过Kinect SDK进行编码,形成一组固定的位移数据。将这组位移数据的特征进行分类,形成一套体态数据库。

4. 体态数据库特征匹配

在KPILSC中预先定义好一部分骨骼坐标数据,并将这些坐标数据与儿童不同类型的体态进行特征匹配,建立一个带触发机制的体态数据库。当Kinect硬件捕捉到儿童骨骼的不同姿态,形成骨骼数据流输入到计算机,骨骼数据流经过体态数据库的时候,数据库会对当前的骨骼数据坐标做出特征匹配,让电脑做出条件判断逻辑,提取相对应的学习内容。我们可以预先针对这些被触发的体态,设计好不同的操作方式或对应的学习内容。图6为体态数据库特征匹配的预设体感控制演示图。

在KPILSC系统中,对体态数据库设计的体态姿势具体有以下几种。

(1)儿童的右手“上”“下”“左”“右”的运动轨迹,分别控制鼠标光标的上下左右位移,功能为选择相应的学习内容。

(2)儿童的左手“向上”运动,定义为鼠标左键确认键。

(3)儿童的左手“向下”运动,定义为键盘上的“ESC”退出键。

5. KPILSC学习内容的交互设计

这里以儿童体感交互式多媒体科普电子书为例,介绍KPILSC中学习内容的交互设计。

(1)肢态动作捕获:儿童挥动双手,进行体感交互操作,Kinect硬件将这个过程进行深度图像流采集。

(2)肢态动作识别:KPILSC系统的体感交互模块处理Kinect体感硬件采集的深度图像流,对图像流中的儿童动作进行体态捕捉与识别,识别出儿童的交互意图。接着将交互意图转换为电脑键盘的操作功能,从而实现儿童隔空对多媒体科普电子书的体感交互式操作功能。

(3) 输出多媒体学习内容:KPILSC系统将多媒体学习内容(电子书)输出到显示设备上,儿童挥动双手隔空操作,能够对多媒体电子书进行翻页浏览及激活并播放其中的视频、音频与动画等多媒体学习内容。

7. KPILSC运行与调试

程序运行后如图9所示,其中红色圆显示为实时跟踪定位的骨骼点状态,绿色圆表示了手部做了运动,按键被触发。经测试,程序能够正确处理手部的追踪与按键的触发。本程序主要的功能为:通过Kinect硬件捕获手部运动,触发键盘上的“Right”、“Left”方向键,从而达到体感人机交互,隔空翻书的目的。

本文研究的“基于Kinect的儿童体感交式互学习平台”可以运行在一般家庭现有的电脑系统中,让活泼好动的儿童在学习时能远离电脑辐射的伤害,通过挥动双手来进行隔空操控,只要在Kinect红外摄像头所能捕捉的有效范围内,儿童手指的任意移动都能被精确地确认位置。由于该学习平台的人机界面是能模拟多种智能和真实环境的虚拟空间,实现“无形而又无处不在,有形而又自然和谐”的普适交互方式,儿童能以最自然和“身临其境”的方式来完成所需要的互动学习,使儿童的双手得到了全身心的解放,从而为儿童创造了激发无限想象力的空间。可以预计,随着体感交互技术的成熟及其应用研究的深入,体感交式互学习平台代表着未来儿童学习媒体研发的新方向。

相关期刊更多

国际公关

部级期刊 审核时间1个月内

中华人民共和国外交部

实用影音技术

省级期刊 审核时间1个月内

成都电子研究所

汽车电器

部级期刊 审核时间1个月内

中国汽车工业工程有限公司