[go: up one dir, main page]

CN111459283A - 一种融合人工智能和Web3D的人机交互实现方法 - Google Patents

一种融合人工智能和Web3D的人机交互实现方法 Download PDF

Info

Publication number
CN111459283A
CN111459283A CN202010264099.1A CN202010264099A CN111459283A CN 111459283 A CN111459283 A CN 111459283A CN 202010264099 A CN202010264099 A CN 202010264099A CN 111459283 A CN111459283 A CN 111459283A
Authority
CN
China
Prior art keywords
human
action recognition
web3d
server
computer interaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010264099.1A
Other languages
English (en)
Inventor
谢宁
罗适
申恒涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202010264099.1A priority Critical patent/CN111459283A/zh
Publication of CN111459283A publication Critical patent/CN111459283A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • G06F9/544Buffers; Shared memory; Pipes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • G06F9/547Remote procedure calls [RPC]; Web services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/54Indexing scheme relating to G06F9/54
    • G06F2209/549Remote execution

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Educational Administration (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Tourism & Hospitality (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Strategic Management (AREA)
  • Multimedia (AREA)
  • Educational Technology (AREA)
  • Biomedical Technology (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本发明涉及人机交互技术领域,其公开了一种融合人工智能和Web3D的人机交互实现方法,实现人机之间更加智能、自然、和谐的交互,提高交互效果。该方法包括以下步骤:a、采集标准设定的动作内容制作数据集;b、采用所述数据集训练深度动作识别模型;c、将深度动作识别模型应用于服务端;d、在web端基于WebGL和Three.js框架构建三维世界,建立好教育课程所需要的场景和对应的教学模型;e、web端采集用户的交互动作并传送给服务端;f、服务端基于深度动作识别模型进行动作识别,并将识别结果反馈给web端;g、web端根据动作识别结果完成对场景和对应教学模型的操作控制。

Description

一种融合人工智能和Web3D的人机交互实现方法
技术领域
本发明涉及人机交互技术领域,具体涉及一种融合人工智能(AI)和Web3D的人机交互实现方法。
背景技术
近年来,随着网络和信息技术的快速发展,计算机多媒体系统已经应用到人们周围生活环境的方方面面。互联网智能交互多媒体是指通过数字媒体和计算机系统来播放和展示多媒体信息的平台。利用多媒体系统可以提供视频、音频、文字、图片等多方面的内容,传统的教育系统也是利用了这些系统进行教学和学生交互。然而单纯的利用键盘、鼠标交互的多媒体引擎由于交互方式枯燥乏味,缺乏参与感,无法沉浸式学习等原因已经不能满足学生们的日常需求。
随着人机交互技术的发展,基于人体动作识别的交互方式以其自然性、通用性以及易用性成为近年来重点研究的技术之一,成为目前一个比较主流的研究方向。
WebGL是一种可以跨平台、无需任何浏览器插件支持的多媒体三维交互引擎,且其3D效果非常好。在Web3D开发平台中,若利用WebGL的强大的场景设计、图形渲染等功能,打造一个拓扑结构类似于实地性逼真的虚拟环境,并结合深度动作识别技术进行交互,可以让用户更加具有沉浸感与真实感,便可以摒弃传统鼠标加键盘的僵化的人机交互方法,这无疑会提高人机交互的智能化、自然化、和谐化,还能让机器的协作能力发挥到极致,营造出真正“机器+人”的共生系统,进一步强化人类改造世界的能力。
因此,本申请有必要提出一种融合人工智能和Web3D的人机交互实现方法,实现人机之间更加智能、自然、和谐的交互,提高交互效果。
发明内容
本发明所要解决的技术问题是:提出一种融合人工智能和Web3D的人机交互实现方法,实现人机之间更加智能、自然、和谐的交互,提高交互效果。
本发明解决上述技术问题采用的技术方案是:
一种融合人工智能和Web3D的人机交互实现方法,包括以下步骤:
a、采集标准设定的动作内容制作数据集;
b、采用所述数据集训练深度动作识别模型;
c、将深度动作识别模型应用于服务端;
d、在web端基于WebGL和Three.js框架构建三维世界,建立好教育课程所需要的场景和对应的教学模型;
e、web端采集用户的交互动作并传送给服务端;
f、服务端基于深度动作识别模型进行动作识别,并将识别结果反馈给web端;
g、web端根据动作识别结果完成对场景和对应教学模型的操作控制。
作为进一步优化,步骤b中,在训练深度动作识别模型之前,采用码本算法预处理数据集中所有图像,提取图像中人体运动的关键区域;然后将彩色图像的四元数矩阵形式作为网络的输入。
作为进一步优化,步骤b中,采用GRU门控循环单元作为网络来训练深度动作识别模型。
作为进一步优化,步骤c中,在将深度动作识别模型应用于服务端时,获取动作节点,并基于开源人体骨骼库OpenPose搭建系统。
作为进一步优化,步骤e中,所述web端采集用户的交互动作并传送给服务端,具体包括:在web端开启摄像头,用户在摄像头前做出交互动作,摄像头获取视频流编码,将视频流编码转码成二进制数据流通过建立的socket通信传输给服务端。
本发明的有益效果是:
(1)从教学应用的角度出发,提出将深度动作识别的智能人机交互算法应用于利用WebGL所研发的三维课件中,使学习者在较为真实、形象的学习环境下学习,让学习环境更加生动化、形象化,有利于提高学习的兴趣;实现随时随地沉浸式学习内容,为未来教育方式提供了开天辟地的新技术。
(2)在Web端无需指定浏览器以及安装插件即可进行在线浏览课程,并进行实时的智能交互,非常简便易用,并且可以跨平台运行,包括手机、平板、家用电脑等任何主流操作系统当中,具有极强的通用性。
附图说明
图1为本发明中的融合人工智能和Web3D的人机交互实现方法原理图;
图2为GRU网络模型结构图。
具体实施方式
本发明旨在提出一种融合人工智能和Web3D的人机交互实现方法,实现人机之间更加智能、自然、和谐的交互,提高交互效果。本发明通过对目前关于三维场景呈现技术的研究与对比,选取了可跨平台的WebGL技术作为主要的技术手段来搭建3D教育平台,WebGL借助系统显卡,为浏览器提供硬件图形加速渲染,学生可以在浏览器里更加流畅地浏览3D场景和模型。WebGL技术的一大特点就是不需要在浏览器上添加任何插件,便能够被运用到网页中去以创建复杂多样的3D结构,在相同硬件条件下提高3D数据的渲染性能与效果,达到较好的三维场景呈现效果。此外,本发明采用深度学习算法,利用动作识别与互联网智能交互多媒体引擎WebGL进行人机交互。从而突破传统的键盘、鼠标等僵化的交互方式,利用动作识别,直接控制Web端3D场景和模型,以此实现与机器之间更加自然、和谐和智能的交互。
本发明在实现上述自然化、和谐化、智能化的人机交互过程中主要采用了以下几个方面的手段:
(1)Web3D场景的构建:基于Three.js库实现在Web上呈现真实的3D场景和模型效果。
(2)深度动作识别:行为识别的前提是需要对人体目标进行识别和跟踪,本发明通过利用GRU门控循环单元模型,训练出自己的深度神经网络以后,基于开源人体骨骼库OpenPose实现人体姿态识别。深度学习网络模型的训练,使用Tensorflow框架,学习相应的理论知识进行设计和优化。
(3)与WebGL智能交互的动作识别的应用开发:将整个研究应用到未来教育中,实现基于“AI-Web3D”技术的教育原型系统,通过动作识别,直接实时控制Web端的3D模型与场景,使得学生能够感受智能交互带来的沉浸感和参与感。
具体而言,如图1所示,本发明中的融合人工智能和Web3D的人机交互实现方法包括:
首先,采集标准设定的动作内容制作数据集,然后利用GRU门控循环单元训练出自己的深度神经网络,为了提高网络对于人体行为识别的准确率,采用码本算法预处理数据集中所有图像,提取图像中人体运动的关键区域;然后将彩色图像的四元数矩阵形式作为网络的输入;在训练深度神经网络后,获取动作节点,基于开源人体骨骼库OpenPose(基于卷积神经网络和监督学习并以caffe为框架写成的开源库,可以实现人的面部表情、躯干和四肢甚至手指的跟踪,适用多人且具有较好的鲁棒性)搭建好服务端系统。
在Web端,基于WebGL和Three.js框架构建三维世界,建立好教育课程所需要的场景和对应的教学模型,然后web端开启摄像头,学生在镜头前做出交互动作,摄像头获取视频流编码,将base64转码成二进制数据流传送给服务端,web端和深度动作识别模型分别搭建好自己的socket进行通信,深度动作识别模型分析动作信息,将结果和对应的指令传送到Web端完成相关的对Web3D场景和模型的操作和控制。
由于Three.js是目前应用最广泛的WebGL框架,其文档资料也是最丰富的,而且完全采用JavaScript编写而成,非常适用于三维网页的开发,因此本发明采用了Three.js框架来构建网页三维世界。Three.js必须依托网页才能发挥作用,所以系统建立在基本HTML结构之上。在把Three.js包含进行基本结构中之后,需要对三维环境进行设置,主要设置内容为渲染器设置、相机设置、设置场景和光源。
在动作识别模型的网络选择上,采用当下流行的深度神经网络,这是考虑到深度神经网络的参数很多,有很强大的表征能力。可以用于图像,语音,文本等抽象特征的提取,而且提取出来的特征要比人为设定的具有更强的泛化性能。
深度神经网络分为应对具有空间性分布数据的CNN(卷积神经网络)和应对具有时间性分布数据的RNN(递归神经网络)。递归神经网络包括结构递归神经网络和时间递归神经网络。比较常用的是时间递归神经网络LSTM(长短期记忆网络)和GRU(门控循环单元)。
GRU作为LSTM的一种变体,将忘记门和输入门合成了一个单一的更新门,如图2所示。同样还混合了细胞状态和隐藏状态,加诸其他一些改动。GRU相对于LSTM少了一个门函数,因此在参数的数量上也是要少于LSTM的,所以整体上GRU的训练速度要快于LSTM的,最终的模型比标准的LSTM模型要简单,但是准确率仍然很高,所以本发明最终选择了使用GRU模型来建立神经网络并且进行训练。
其中GRU向前传播根据图2可知:
γt=σ(Wr·[ht-1,xt])
zt=σ(Wz·[ht-1,xt])
Figure BDA0002440562330000041
Figure BDA0002440562330000042
yt=σ(Wo·ht)
其中[...]表示两个向量相连接,*表示矩阵元素相乘。需要学习的参数就是权重参数WrWzWhWo,其中前三个权重都是拼接的,所以在学习时需要分割出来,即:
Wr=Wrx+Wrh
Wz=Wzx+Wzh
Figure BDA0002440562330000043
输出层的输入yt i=Woh,输出为
Figure BDA0002440562330000044
设某时刻的损失函数为,
Figure BDA0002440562330000045
则样本全局化的损失为:
Figure BDA0002440562330000046
最后通过梯度法,实现损失函数最小化参数估计。
综上,本发明通过深度学习算法,基于WebGL技术构建三维交互平台并加载三维模型,利用动作识别方法实现人类与三维场景中的模型的智能人机交互,并将其应用到实际的应用程序中,从而可以开发出面向WebGL智能交互引擎与深度动作识别结合的符合现代潮流的未来教育课程平台。以此来丰富教学资源的多样性,并对现有教学形式进行补充。虚拟的环境同时还可以让学生参与到现实中教学环境中直接进行交互学习。在该虚拟教育课程中,学生可以在任意设备上通过浏览器直接与教学内容进行交互,实现随时随地沉浸式学习内容。

Claims (5)

1.一种融合人工智能和Web3D的人机交互实现方法,其特征在于,包括以下步骤:
a、采集标准设定的动作内容制作数据集;
b、采用所述数据集训练深度动作识别模型;
c、将深度动作识别模型应用于服务端;
d、在web端基于WebGL和Three.js框架构建三维世界,建立好教育课程所需要的场景和对应的教学模型;
e、web端采集用户的交互动作并传送给服务端;
f、服务端基于深度动作识别模型进行动作识别,并将识别结果反馈给web端;
g、web端根据动作识别结果完成对场景和对应教学模型的操作控制。
2.如权利要求1所述的一种融合人工智能和Web3D的人机交互实现方法,其特征在于,
步骤b中,在训练深度动作识别模型之前,采用码本算法预处理数据集中所有图像,提取图像中人体运动的关键区域;然后将彩色图像的四元数矩阵形式作为网络的输入。
3.如权利要求2所述的一种融合人工智能和Web3D的人机交互实现方法,其特征在于,步骤b中,采用GRU门控循环单元作为网络来训练深度动作识别模型。
4.如权利要求1所述的一种融合人工智能和Web3D的人机交互实现方法,其特征在于,
步骤c中,在将深度动作识别模型应用于服务端时,获取动作节点,并基于开源人体骨骼库OpenPose搭建系统。
5.如权利要求1-4任意一项所述的一种融合人工智能和Web3D的人机交互实现方法,其特征在于,步骤e中,所述web端采集用户的交互动作并传送给服务端,具体包括:在web端开启摄像头,用户在摄像头前做出交互动作,摄像头获取视频流编码,将视频流编码转码成二进制数据流通过建立的socket通信传输给服务端。
CN202010264099.1A 2020-04-07 2020-04-07 一种融合人工智能和Web3D的人机交互实现方法 Pending CN111459283A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010264099.1A CN111459283A (zh) 2020-04-07 2020-04-07 一种融合人工智能和Web3D的人机交互实现方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010264099.1A CN111459283A (zh) 2020-04-07 2020-04-07 一种融合人工智能和Web3D的人机交互实现方法

Publications (1)

Publication Number Publication Date
CN111459283A true CN111459283A (zh) 2020-07-28

Family

ID=71683546

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010264099.1A Pending CN111459283A (zh) 2020-04-07 2020-04-07 一种融合人工智能和Web3D的人机交互实现方法

Country Status (1)

Country Link
CN (1) CN111459283A (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN205068849U (zh) * 2015-11-04 2016-03-02 山东女子学院 一种跆拳道交互式在线教学系统
CN108549863A (zh) * 2018-04-11 2018-09-18 腾讯科技(深圳)有限公司 人体姿态预测方法、装置、设备及存储介质
CN110321833A (zh) * 2019-06-28 2019-10-11 南京邮电大学 基于卷积神经网络和循环神经网络的人体行为识别方法
CN110490109A (zh) * 2019-08-09 2019-11-22 郑州大学 一种基于单目视觉的在线人体康复动作识别方法
CN110503077A (zh) * 2019-08-29 2019-11-26 郑州大学 一种基于视觉的实时人体动作分析方法
CN110610158A (zh) * 2019-09-16 2019-12-24 南京师范大学 一种基于卷积和门控循环神经网络的人体姿态识别方法及系统
CN110826510A (zh) * 2019-11-12 2020-02-21 电子科技大学 一种基于表情情感计算的三维教学课堂实现方法
CN110851760A (zh) * 2019-11-12 2020-02-28 电子科技大学 在web3D环境融入视觉问答的人机交互系统
CN110942040A (zh) * 2019-11-29 2020-03-31 四川大学 一种基于环境光的手势识别系统和方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN205068849U (zh) * 2015-11-04 2016-03-02 山东女子学院 一种跆拳道交互式在线教学系统
CN108549863A (zh) * 2018-04-11 2018-09-18 腾讯科技(深圳)有限公司 人体姿态预测方法、装置、设备及存储介质
CN110321833A (zh) * 2019-06-28 2019-10-11 南京邮电大学 基于卷积神经网络和循环神经网络的人体行为识别方法
CN110490109A (zh) * 2019-08-09 2019-11-22 郑州大学 一种基于单目视觉的在线人体康复动作识别方法
CN110503077A (zh) * 2019-08-29 2019-11-26 郑州大学 一种基于视觉的实时人体动作分析方法
CN110610158A (zh) * 2019-09-16 2019-12-24 南京师范大学 一种基于卷积和门控循环神经网络的人体姿态识别方法及系统
CN110826510A (zh) * 2019-11-12 2020-02-21 电子科技大学 一种基于表情情感计算的三维教学课堂实现方法
CN110851760A (zh) * 2019-11-12 2020-02-28 电子科技大学 在web3D环境融入视觉问答的人机交互系统
CN110942040A (zh) * 2019-11-29 2020-03-31 四川大学 一种基于环境光的手势识别系统和方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
孙正雨: "大屏幕体感三维交互关键技术研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Similar Documents

Publication Publication Date Title
KR102645536B1 (ko) 애니메이션 처리 방법 및 장치, 컴퓨터 저장 매체 그리고 전자 디바이스
US20220068007A1 (en) 3d asset generation from 2d images
KR20230003059A (ko) 2d 이미지로부터 3d 객체 메시의 템플릿 기반 생성
CN110599573B (zh) 一种基于单目相机的人脸实时交互动画的实现方法
JP2023545642A (ja) 目標対象の動作駆動方法、装置、機器及びコンピュータプログラム
CN110851760B (zh) 在web3D环境融入视觉问答的人机交互系统
CN106128196A (zh) 基于增强现实和虚拟现实的网络在线教育系统及其实现方法
Cui et al. Virtual human: A comprehensive survey on academic and applications
CN110826510A (zh) 一种基于表情情感计算的三维教学课堂实现方法
Zhang et al. Introducing massive open metaverse course and its enabling technology
Nikolaevich et al. Placing a custom 3d object in the virtual world environment
CN117933318A (zh) 构建授课数字人方法
CN111459283A (zh) 一种融合人工智能和Web3D的人机交互实现方法
CN117036137A (zh) 基于元宇宙技术的公共安全教育系统、方法、设备及介质
Thalmann The virtual human as a multimodal interface
Zidianakis et al. A cross-platform, remotely-controlled mobile avatar simulation framework for AmI environments
Liu et al. Development of Web3D education platform suitable for schoolchild
Wu et al. [Retracted] Design and Research of Interactive Animation of Immersive Space Scene Based on Computer Vision Technology
Sang [Retracted] Interactive Innovation Research on Film Animation Based on Maya‐Unity Animation Simulation of Visual Sensor
Ye et al. Research on Interactive Design of Virtual Reality Products Based on Artificial Intelligence
Vanden Berghe et al. Art installation “Mirror, Mirror” featuring Deepfake and Neural Style Transfer Technologies
Liang Construction of Animation Story Board Model Based on Genetic Algorithm
Dai Design and implementation of Unity3D virtual reality-based simulation system for dance studies
Lei et al. Design and Construction Method of Interactive Animation Teaching Scene based on CAD
CN117828210A (zh) 一种沉浸式虚拟学习系统及其操作方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200728

RJ01 Rejection of invention patent application after publication