[go: up one dir, main page]

JP6574295B1 - Information processing system, information processing method, and computer program - Google Patents

Information processing system, information processing method, and computer program Download PDF

Info

Publication number
JP6574295B1
JP6574295B1 JP2018191777A JP2018191777A JP6574295B1 JP 6574295 B1 JP6574295 B1 JP 6574295B1 JP 2018191777 A JP2018191777 A JP 2018191777A JP 2018191777 A JP2018191777 A JP 2018191777A JP 6574295 B1 JP6574295 B1 JP 6574295B1
Authority
JP
Japan
Prior art keywords
processing unit
information
user terminal
dimensional data
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2018191777A
Other languages
Japanese (ja)
Other versions
JP2020060945A (en
Inventor
山本 健太郎
健太郎 山本
勇介 高野
勇介 高野
太史 熊谷
太史 熊谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nain Inc
Original Assignee
Nain Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nain Inc filed Critical Nain Inc
Priority to JP2018191777A priority Critical patent/JP6574295B1/en
Priority to PCT/JP2019/035046 priority patent/WO2020075427A1/en
Application granted granted Critical
Publication of JP6574295B1 publication Critical patent/JP6574295B1/en
Publication of JP2020060945A publication Critical patent/JP2020060945A/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/12Geometric CAD characterised by design entry means specially adapted for CAD, e.g. graphical user interfaces [GUI] specially adapted for CAD

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Architecture (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】 本発明は、製品の成形データの生成を自動化するための情報処理システム、処理方法およびコンピュータプログラムを提供することを目的とする。【解決手段】 ユーザ端末と、当該ユーザ端末とネットワークを介して接続されるサーバ装置とを備え、第一処理部または第二処理部は、第一撮像部により撮像された動画または静止画を含む対象情報が、装着対象に対応する部材の三次元データの生成に必要な情報量を満たしているかを判定し、当該判定の結果、対象情報が三次元データの生成に必要な情報量を満たしている場合には、部材の当該三次元データを生成し、第二通信部は、三次元データを外部装置に送信する。【選択図】 図1PROBLEM TO BE SOLVED: To provide an information processing system, a processing method, and a computer program for automating the generation of product molding data. A user terminal and a server device connected to the user terminal via a network are provided, and the first processing unit or the second processing unit includes a moving image or a still image captured by the first imaging unit. It is determined whether the target information satisfies the information amount necessary for generating the three-dimensional data of the member corresponding to the mounting target. As a result of the determination, the target information satisfies the information amount necessary for generating the three-dimensional data. If it is, the 3D data of the member is generated, and the second communication unit transmits the 3D data to the external device. [Selection] Figure 1

Description

本発明は、情報処理システム、情報処理方法およびコンピュータプログラムに関する。   The present invention relates to an information processing system, an information processing method, and a computer program.

近年、耳に装用するウェアラブル機器であるヒアラブルデバイスの発展が著しい。このヒアラブルデバイスの発展に伴って、高度なセンシングデバイスを搭載したモデルが増えていくことが予想される(例えば非特許文献1等)。   In recent years, the development of a wearable device that is a wearable device worn on an ear has been remarkable. With the development of this hearable device, it is expected that the number of models equipped with sophisticated sensing devices will increase (for example, Non-Patent Document 1).

これらセンシングデバイスの大半は人体に密着した状態が望ましく、仮にイヤフォン型のヒアラブルを開発する際には、Custom in-Ear Monitor(IEM)イヤフォン形状を採用するのが適切である。   Most of these sensing devices are desirably in close contact with the human body, and it is appropriate to adopt a Custom in-Ear Monitor (IEM) earphone shape when developing an earphone-type hearable.

日本電気株式会社、“NEC、ヒアラブルデバイスのプロトタイプを開発”、[online]、2017年5月23日、日本電気株式会社プレスリリース、[平成30年6月26日検索]、インターネット<https://jpn.nec.com/press/201705/20170523_01.html>NEC Corporation, “NEC, Prototype of Hearable Device”, [online], May 23, 2017, NEC Corporation Press Release, [Search June 26, 2018], Internet <https: //jpn.nec.com/press/201705/20170523_01.html>

しかしながら、従来、IEMイヤフォンは、スタジオ・ミュージシャンや一部のハイアマチュア向けの高価な製品の位置づけであり、敷居が高いものであった。   However, conventionally, IEM earphones have been positioned as expensive products for studio musicians and some high amateurs, and have a high threshold.

その理由としては、第一に、個人の耳にフィットする形状を作る際に耳型の採取が必要で、専用の測定器がある店舗までユーザが出向くことになり販売機会が限定されるという理由がある。   The reason for this is that, first of all, when making a shape that fits the individual's ear, it is necessary to collect an ear shape, and the user goes to a store with a dedicated measuring instrument, so the sales opportunities are limited There is.

また、第二に、採取した耳型は、そのままの形では製品形状にはできず、3Dスキャナによるデジタルデータへの変換、変換後のデータから成形に不必要なノイズ部分を取り除くデータクレンジング作業など人の手が介する工程が存在しており、量産に不向きであるという理由がある。   Secondly, the collected ear shape cannot be made into a product shape as it is, conversion to digital data by a 3D scanner, data cleansing work to remove noise portions unnecessary for molding from the converted data, etc. There is a reason that there is a process that requires human intervention and is not suitable for mass production.

そこで、本発明の目的は、製品の三次元データを従来よりも容易に生成するための情報処理システム、情報処理方法およびコンピュータプログラムを提供することにある。   Therefore, an object of the present invention is to provide an information processing system, an information processing method, and a computer program for generating three-dimensional data of a product more easily than in the past.

本発明の情報処理システムは、ユーザ端末と、当該ユーザ端末とネットワークを介して接続されるサーバ装置とを備える情報処理システムであって、ユーザ端末は、装着対象を撮像するための第一撮像部と、第一処理部とサーバ装置と情報を送受信するための第一通信部とを備え、サーバ装置は、ユーザ端末および外部装置と情報を送受信するための第二通信部と、第二処理部と、を備え、第一処理部または第二処理部は、第一撮像部により撮像された動画または静止画を含む対象情報が、装着対象に対応する部材の三次元データの生成に必要な情報量を満たしているかを判定し、当該判定の結果、対象情報が三次元データの生成に必要な情報量を満たしている場合には、部材の当該三次元データを生成し、第二通信部は、三次元データを外部装置に送信することを特徴とする。   An information processing system of the present invention is an information processing system including a user terminal and a server device connected to the user terminal via a network, and the user terminal is a first imaging unit for imaging a mounting target A first communication unit for transmitting and receiving information to and from the first processing unit, the server device includes a second communication unit for transmitting and receiving information to and from the user terminal and an external device, and a second processing unit The first processing unit or the second processing unit includes information necessary for generating the three-dimensional data of the member corresponding to the mounting target, the target information including the moving image or the still image captured by the first imaging unit. If the target information satisfies the information amount necessary for generating the three-dimensional data as a result of the determination, the three-dimensional data of the member is generated, and the second communication unit , 3D data outside And transmitting devices.

第一処理部または第二処理部は、判定の結果、対象情報が、三次元データの生成に必要な情報量を満たしていない場合、追加の対象情報を要求する情報を生成することができる。   As a result of the determination, the first processing unit or the second processing unit can generate information for requesting additional target information when the target information does not satisfy the amount of information necessary for generating the three-dimensional data.

三次元データの生成は、第一処理部によって行われることができる。   The generation of the three-dimensional data can be performed by the first processing unit.

三次元データの生成は、第二処理部によって行われることができる。   The generation of the three-dimensional data can be performed by the second processing unit.

第一処理部または第二処理部は、対象情報から装着対象の点群データを生成し、点群データから装着対象のメッシュデータを生成することができる。   The first processing unit or the second processing unit can generate point cloud data to be mounted from the target information, and can generate mesh data to be mounted from the point cloud data.

第一処理部または第二処理部は、メッシュデータから部材の外形を抽出し、部材の外形に基づいて、装着対象に対応する三次元データを生成することができる。   The first processing unit or the second processing unit can extract the outer shape of the member from the mesh data, and generate three-dimensional data corresponding to the mounting target based on the outer shape of the member.

第一処理部または第二処理部は、メッシュデータの深度情報に基づき、メッシュデータの最深箇所を起点として、高さ方向で複数回メッシュをスライスすることによって等高線状の輪郭曲線を得ることにより部材の外形を抽出することができる。   Based on the depth information of the mesh data, the first processing unit or the second processing unit obtains contour contour curves by slicing the mesh multiple times in the height direction starting from the deepest location of the mesh data. Can be extracted.

第一処理部または第二処理部は、輪郭曲線を曲線補間により平滑にし、等高線を通るサーフェスデータを生成して三次元データとすることができる。   The first processing unit or the second processing unit can smooth the contour curve by curve interpolation and generate surface data passing through the contour line to obtain three-dimensional data.

第一処理部または第二処理部は、対象情報に基づいて、予め所定の記憶装置に記憶された、部材のテンプレートデータの中から一のテンプレートデータを選択し、当該選択されたテンプレートデータを拡大または縮小することで、装着対象のメッシュデータと少なくとも一点が接するサイズを決定し、当該サイズのテンプレートデータを三次元データとすることができる。   The first processing unit or the second processing unit selects one template data from the template data of the members stored in advance in a predetermined storage device based on the target information, and expands the selected template data Alternatively, by reducing the size, it is possible to determine a size at which at least one point is in contact with the mesh data to be attached, and use the template data of the size as three-dimensional data.

第一処理部または第二処理部は、第一撮像部により撮像された動画または静止画に対してマスク処理を行い、装着対象を特定して対象情報とすることができる。   The first processing unit or the second processing unit can perform mask processing on the moving image or the still image captured by the first imaging unit, specify the mounting target, and use it as target information.

第一処理部または第二処理部は、装着対象を撮像するためのガイド画像またはガイド音声を生成し、ユーザ端末から出力することができる。   The first processing unit or the second processing unit can generate a guide image or guide sound for imaging the mounting target and output it from the user terminal.

本発明の処理方法は、ユーザ端末と、当該ユーザ端末とネットワークを介して接続されるサーバ装置とを備える情報処理システムにおいて実行される処理方法であって、ユーザ端末は、装着対象を撮像するための第一撮像部と、第一処理部と、サーバ装置と情報を送受信するための第一通信部とを備え、サーバ装置は、ユーザ端末および外部装置と情報を送受信するための第二通信部と、第二処理部とを備え、第一処理部または第二処理部に、第一撮像部により撮像された動画または静止画を含む対象情報が、装着対象に対応する部材の三次元データの生成に必要な情報量を満たしているかを判定させ、当該判定の結果、対象情報が三次元データの生成に必要な情報量を満たしている場合には、部材の当該三次元データを生成させるステップと、第二通信部に、三次元データを外部装置に送信させるステップとを備えることを特徴とする。   The processing method of the present invention is a processing method executed in an information processing system including a user terminal and a server device connected to the user terminal via a network, and the user terminal captures a mounting target. The first imaging unit, the first processing unit, and the first communication unit for transmitting and receiving information to and from the server device, and the server device is a second communication unit for transmitting and receiving information to and from the user terminal and the external device And the second processing unit, and the target information including the moving image or the still image captured by the first imaging unit is included in the first processing unit or the second processing unit of the three-dimensional data of the member corresponding to the mounting target Determining whether the amount of information necessary for generation is satisfied and, as a result of the determination, if the target information satisfies the amount of information necessary for generating three-dimensional data, generating the three-dimensional data of the member , The second communication unit, characterized in that it comprises a step of transmitting three-dimensional data to an external device.

本発明のコンピュータプログラムは、ユーザ端末と、当該ユーザ端末とネットワークを介して接続されるサーバ装置とを備える情報処理システムにおいて実行されるコンピュータプログラムであって、ユーザ端末は、装着対象を撮像するための第一撮像部と、第一処理部とサーバ装置と情報を送受信するための第一通信部とを備え、サーバ装置は、ユーザ端末および外部装置と情報を送受信するための第二通信部と、第二処理部とを備え、第一処理部または第二処理部に、第一撮像部により撮像された動画または静止画を含む対象情報が、装着対象に対応する部材の三次元データの生成に必要な情報量を満たしているかを判定させ、当該判定の結果、対象情報が三次元データの生成に必要な情報量を満たしている場合には、部材の当該三次元データを生成させる機能を実現させ、第二通信部に、三次元データを外部装置に送信させる機能を実現させることを特徴とする。   The computer program of the present invention is a computer program executed in an information processing system including a user terminal and a server device connected to the user terminal via a network, and the user terminal is for imaging a mounting target. The first imaging unit, the first processing unit, and the first communication unit for transmitting and receiving information to and from the server device, and the server device includes a second communication unit for transmitting and receiving information to and from the user terminal and the external device A second processing unit, and target information including a moving image or a still image captured by the first imaging unit is generated in the first processing unit or the second processing unit, and three-dimensional data of a member corresponding to the mounting target is generated. If the target information satisfies the information amount necessary for generating the three-dimensional data as a result of the determination, the three-dimensional To realize the function of generating over data, the second communication unit, characterized in that to realize the function of transmitting three-dimensional data to an external device.

本発明によれば、製品の三次元データの生成を自動化することができるようになる。   According to the present invention, generation of three-dimensional data of a product can be automated.

本発明の情報処理システムのシステム構成を示す概念図である。It is a conceptual diagram which shows the system configuration | structure of the information processing system of this invention. 本発明の情報処理システムに係るユーザ端末の構成を示す構成図である。It is a block diagram which shows the structure of the user terminal which concerns on the information processing system of this invention. 本発明の情報処理システムに係るサーバ装置の構成を示す構成図である。It is a block diagram which shows the structure of the server apparatus which concerns on the information processing system of this invention. 本発明の情報処理システムに係る装着対象と製品の概念を示す概念図である。It is a conceptual diagram which shows the concept of the mounting target and product which concern on the information processing system of this invention. 本発明の情報処理システムに係る対象情報の概念を示す概念図である。It is a conceptual diagram which shows the concept of the target information which concerns on the information processing system of this invention. 本発明の情報処理システムに係る等高線の概念を示す概念図である。It is a conceptual diagram which shows the concept of the contour line which concerns on the information processing system of this invention. 本発明の処理方法を示すフロー図である。It is a flowchart which shows the processing method of this invention. 本発明のコンピュータプログラムに関する機能構成図である。It is a functional block diagram regarding the computer program of this invention.

本発明の情報処理システム、処理方法およびコンピュータプログラムの実施形態について、図面を参照しながら説明する。   Embodiments of an information processing system, a processing method, and a computer program according to the present invention will be described with reference to the drawings.

初めに、本発明の情報処理システムの実施形態について図1を参照しながら説明する。   First, an embodiment of an information processing system of the present invention will be described with reference to FIG.

図1に示されるように、本発明の情報処理システム100は、ユーザ端末200と、当該ユーザ端末200とネットワークを介して接続されるサーバ装置300とを備える。   As shown in FIG. 1, the information processing system 100 of the present invention includes a user terminal 200 and a server device 300 connected to the user terminal 200 via a network.

ユーザ端末200は、スマートフォン、タブレットまたはパーソナルコンピュータ等の情報処理端末とすることができる。   The user terminal 200 can be an information processing terminal such as a smartphone, a tablet, or a personal computer.

ユーザ端末200は、図2に示されるように、第一撮像部210と、第一処理部220と、第一通信部230とを備える。   As shown in FIG. 2, the user terminal 200 includes a first imaging unit 210, a first processing unit 220, and a first communication unit 230.

第一撮像部210は、装着対象を撮像するためのものであって、上記ユーザ端末200に内蔵されるカメラ部、または、上記ユーザ端末200に有線または無線により接続されるカメラ装置とすることができる。   The first imaging unit 210 is for imaging a mounting target, and may be a camera unit built in the user terminal 200 or a camera device connected to the user terminal 200 by wire or wirelessly. it can.

装着対象は、本実施形態においてはユーザの「耳介」であるものとして説明を行うが、これに限られるものではなく、例えば、手首、首、頭、顔または指などのウェアラブルデバイスが装着可能な人体の部位とすることができる。   In this embodiment, the wearing target is described as being the user's “auricle”, but is not limited thereto, and for example, a wearable device such as a wrist, neck, head, face, or finger can be worn. It can be a part of a human body.

この第一撮像部210は、装着対象を動画または静止画の形式で撮像することができる。   The first imaging unit 210 can image the mounting target in the form of a moving image or a still image.

第一処理部220は、各処理を実行するものである。各処理の詳細については後述する。   The first processing unit 220 executes each process. Details of each process will be described later.

第一通信部230は、サーバ装置300と情報を送受信するためのものである。この送受信は、上記ネットワークを介して行われるものとする。   The first communication unit 230 is for transmitting and receiving information to and from the server device 300. This transmission / reception is performed via the network.

サーバ装置300は、図3に示されるように、第二通信部310と、第二処理部320とを備える。   As shown in FIG. 3, the server device 300 includes a second communication unit 310 and a second processing unit 320.

第二通信部310は、ユーザ端末200および外部装置400と情報を送受信するためのものである。これらの送受信は、上記ネットワークを介して行われるものとする。   The second communication unit 310 is for transmitting and receiving information to and from the user terminal 200 and the external device 400. These transmissions / receptions are performed via the network.

外部装置400は、図1に示されるように、サーバ装置300とネットワークを介して接続されることができる。   As shown in FIG. 1, the external device 400 can be connected to the server device 300 via a network.

第二処理部320は、各処理を実行するものである。各処理の詳細については後述する。   The second processing unit 320 executes each process. Details of each process will be described later.

第一処理部220または第二処理部320は、第一撮像部210により撮像された動画または静止画を含む対象情報が、装着対象に対応する部材の三次元データの生成に必要な情報量を満たしているかを判定し、当該判定の結果、対象情報が三次元データの生成に必要な情報量を満たしている場合には、部材の当該三次元データを生成する。   The first processing unit 220 or the second processing unit 320 is configured so that the target information including the moving image or the still image captured by the first imaging unit 210 determines the amount of information necessary for generating the three-dimensional data of the member corresponding to the mounting target. If the target information satisfies the information amount necessary for generating the three-dimensional data as a result of the determination, the three-dimensional data of the member is generated.

三次元データとは、部材を立体形状として製造するために必要なデータであって、後述する外部装置(例えば3Dプリンタ等)により立体形状を製造するために必要なデータとすることができる。   The three-dimensional data is data necessary for manufacturing a member as a three-dimensional shape, and can be data necessary for manufacturing a three-dimensional shape by an external device (for example, a 3D printer or the like) described later.

図4に一例として示されるように、部材は、後述する部材と一体化されて製品(イヤフォン10)となり、装着対象(耳介20)の少なくとも一部に密着可能に構成されるものである。   As shown in FIG. 4 as an example, the member is integrated with a member to be described later to become a product (earphone 10), and is configured to be able to be in close contact with at least a part of the wearing target (auricle 20).

そして、この部材の三次元データの生成に必要な情報量は、静止画であれば、異なるアングルで撮像された10枚程度、動画であれば、移動するアングルで撮像された数秒程度の情報量とすることができる。図5は、異なるアングルで撮像された耳介の写真のイメージを示したものである。なお、図5は、撮像された静止画を画像認識および機械学習技術により耳介の領域だけをマスクしたものである。   The amount of information required for generating the three-dimensional data of this member is about 10 images captured at different angles if it is a still image, and about several seconds captured at a moving angle if it is a movie. It can be. FIG. 5 shows an image of a pinna photograph taken at different angles. Note that FIG. 5 is a photographed still image in which only the region of the auricle is masked by image recognition and machine learning techniques.

部材は、音を発生させるためのスピーカ、ユーザによる電話通話またはコマンド入力等のためのマイクロフォンおよび/またはユーザが指示を与えるためのコントロールボタン等で構成されることができる。   The member can be constituted by a speaker for generating sound, a microphone for a telephone call or command input by the user, and / or a control button for giving an instruction by the user.

マイクロフォンとコントロールボタンは部材と一体化していても、部材とは別の筐体であって、部材と有線または無線で通信を行なう設計であってもよい。部材は、ユーザ端末または所定のサーバ装置との接続のための無線接続機能を備えていることが望ましい。無線接続機能は、Bluetooth(登録商標)またはBLE(Bluetooth Low−Energy)技術を使用することができる。あるいは、部材は、ユーザ端末200と有線で接続される構成とすることもできる。   The microphone and the control button may be integrated with the member, or may be a case separate from the member and designed to communicate with the member in a wired or wireless manner. It is desirable that the member has a wireless connection function for connection with a user terminal or a predetermined server device. For the wireless connection function, Bluetooth (registered trademark) or BLE (Bluetooth Low-Energy) technology can be used. Alternatively, the member may be configured to be connected to the user terminal 200 by wire.

そして、部材は、さらに、センシング部材として、脈波を測定するための血流センサを備えることができる。血流センサは部材の耳穴または耳朶等に圧着される部位に設けられている、あるいは、クリップ等で使用者の耳朶に圧着固定できることが望ましい。このようにすることで、ノイズに妨害されにくく正確な脈波の測定が可能となる。   And a member can be further provided with a blood flow sensor for measuring a pulse wave as a sensing member. It is desirable that the blood flow sensor is provided at a part to be crimped to the ear hole or the earlobe of the member or can be crimped and fixed to the user's earlobe with a clip or the like. By doing so, it is possible to accurately measure pulse waves that are not easily disturbed by noise.

加えて、部材は、使用者の頭の向きを測定するためのジャイロセンサ、並びに、地磁気センサ(コンパス)、および、使用者の動きを測定するための加速度センサを備えることができる。これらのセンシング部材は、部材本体内に固定されているのが好ましい。このようにすることで、部材を装着するユーザの頭の位置と方向を正確に測定することが可能となる。   In addition, the member can include a gyro sensor for measuring the orientation of the user's head, a geomagnetic sensor (compass), and an acceleration sensor for measuring the user's movement. These sensing members are preferably fixed in the member body. In this way, it is possible to accurately measure the position and direction of the head of the user wearing the member.

あるいは、眼鏡や帽子等、ユーザの頭の向きとの位置関係が固定的である物に上記センサを設け、あるいは、クリップ等で固定し、有線または無線接続により、部材、ユーザ端末200、または、サーバ装置300にセンサ情報を提供できるようにしてもよい。   Alternatively, the sensor is provided on an object such as glasses or a hat that has a fixed positional relationship with the orientation of the user's head, or is fixed with a clip or the like, and is connected to the member, the user terminal 200, or The server apparatus 300 may be provided with sensor information.

また、部材は、製品がユーザに着用されているかどうかを検知するための近接センサを備えていてよい。さらに、脳波センサ、GPS等の他のタイプのセンサを備えていてもよい。   The member may include a proximity sensor for detecting whether the product is worn by the user. Furthermore, you may provide other types of sensors, such as an electroencephalogram sensor and GPS.

そして、第二通信部310は、三次元データを外部装置400に送信する。   Then, the second communication unit 310 transmits the three-dimensional data to the external device 400.

外部装置400の例としては3Dプリンタが挙げられるが、三次元データを立体形状に造形可能な装置であれば特に限定されるものではない。   An example of the external device 400 is a 3D printer, but it is not particularly limited as long as it is a device capable of modeling three-dimensional data into a three-dimensional shape.

以上の構成によれば、製品の三次元データの生成を自動化することができるようになる。これにより、例えば、より低価格で一般ユーザ向けのウェアラブルデバイス、特に、IEMイヤフォンなどのヒアラブルデバイスを提供することができるようになる。   According to the above configuration, it is possible to automate the generation of the three-dimensional data of the product. Thereby, for example, a wearable device for general users, particularly a wearable device such as an IEM earphone, can be provided at a lower price.

また、第一処理部220または第二処理部320は、判定の結果、対象情報が、三次元データの生成に必要な情報量を満たしていない場合、追加の対象情報を要求する情報を生成することができる。   In addition, when the target information does not satisfy the information amount necessary for generating the three-dimensional data as a result of the determination, the first processing unit 220 or the second processing unit 320 generates information for requesting additional target information. be able to.

追加の対象情報を要求する情報とは、例えば、ユーザに対して追加の静止画または動画の撮像を要求する情報であって、ユーザ端末の表示部にテキストや画像として表示されるか、および/または、音声として出力されるものとすることができる。   The information that requests additional target information is, for example, information that requests the user to capture an additional still image or moving image, and is displayed as text or an image on the display unit of the user terminal. Alternatively, it can be output as audio.

かかる構成によれば、不完全な三次元データが生成されることを防ぐことができる。   According to this configuration, generation of incomplete three-dimensional data can be prevented.

三次元データの生成は、第一処理部220によって行われることができる。第一処理部220がユーザ端末のものである場合には、ユーザ端末とサーバ装置との通信速度や通信環境に依らず、安定的に処理を行うことができる。   The generation of the three-dimensional data can be performed by the first processing unit 220. When the first processing unit 220 is for the user terminal, the processing can be stably performed regardless of the communication speed and communication environment between the user terminal and the server device.

三次元データの生成は、第二処理部320によって行われることもできる。第二処理部320がサーバ装置のものである場合には、ユーザ端末の処理能力に寄らず高い処理能力を有するサーバ装置で処理されるため、高速で処理を行うことができる。   The generation of the three-dimensional data can also be performed by the second processing unit 320. When the second processing unit 320 is a server device, the processing is performed by the server device having a high processing capability regardless of the processing capability of the user terminal, so that the processing can be performed at high speed.

続いて、対象情報から三次元データを生成する手法の例について説明を行う。なお、以下の例は一例であって他の手法により三次元データを生成することを権利範囲から除外するものではない。   Next, an example of a method for generating three-dimensional data from target information will be described. The following example is an example, and does not exclude from the scope of the right to generate three-dimensional data by other methods.

はじめに、第一処理部220または第二処理部320は、対象情報から装着対象の点群データを生成し、点群データから装着対象のメッシュデータを生成する。   First, the first processing unit 220 or the second processing unit 320 generates point cloud data to be mounted from the target information, and generates mesh data to be mounted from the point cloud data.

そして、第一処理部220または第二処理部320は、メッシュデータから部材の外形を抽出し、部材の外形に基づいて、装着対象に対応する三次元データを生成することができる。   Then, the first processing unit 220 or the second processing unit 320 can extract the outer shape of the member from the mesh data, and generate three-dimensional data corresponding to the mounting target based on the outer shape of the member.

より具体的には、第一処理部220または第二処理部320は、メッシュデータの深度情報に基づき、メッシュデータの最深箇所を起点として、高さ方向で複数回メッシュをスライスすることによって、図6に一例として示されるような等高線状の輪郭曲線を得ることにより部材の外形を抽出することができる。   More specifically, the first processing unit 220 or the second processing unit 320 slices the mesh multiple times in the height direction from the deepest point of the mesh data based on the depth information of the mesh data. The contour of the member can be extracted by obtaining contour lines having contour lines as shown in FIG.

そして、第一処理部220または第二処理部320は、輪郭曲線を曲線補間により平滑にし、等高線を通るサーフェスデータを生成して三次元データとすることができる。   Then, the first processing unit 220 or the second processing unit 320 can smooth the contour curve by curve interpolation, generate surface data passing through the contour line, and obtain three-dimensional data.

あるいは、第一処理部220または第二処理部320は、対象情報に基づいて、予め所定の記憶装置に記憶された、部材のテンプレートデータの中から一のテンプレートデータを選択し、当該選択されたテンプレートデータを拡大または縮小することで、装着対象のメッシュデータと少なくとも一点が接するサイズを決定し、当該サイズのテンプレートデータを三次元データとすることができる。   Alternatively, the first processing unit 220 or the second processing unit 320 selects one template data from template data of members stored in a predetermined storage device in advance based on the target information, and the selected By enlarging or reducing the template data, the size at which at least one point touches the mesh data to be attached can be determined, and the template data of the size can be made into three-dimensional data.

また、第一処理部220または第二処理部320は、第一撮像部210により撮像された動画または静止画に対してマスク処理を行い、装着対象を特定して対象情報とすることができる。   In addition, the first processing unit 220 or the second processing unit 320 can perform mask processing on the moving image or the still image captured by the first imaging unit 210, specify the mounting target, and use it as target information.

かかる構成によれば、より制度の高い三次元データを生成することができるようになる。   According to such a configuration, it is possible to generate three-dimensional data with a higher system.

また、第一処理部220または第二処理部320は、装着対象を撮像するためのガイド画像またはガイド音声を生成し、ユーザ端末から出力することができる。   Moreover, the 1st process part 220 or the 2nd process part 320 can produce | generate the guide image or guide audio | voice for imaging a mounting target, and can output it from a user terminal.

ガイド画像は、例えば、装着対象の外形を示すオブジェクトとすることができる。そして、ユーザは、ユーザ端末200の表示部に表示されたオブジェクトを見ながら、このオブジェクト内に自身の装着対象が収まるように撮像を行うことができる。このとき、第一撮像部210はユーザ端末200の表示部と同じ側に設けられたインカメラとするのが好ましい。   For example, the guide image can be an object indicating the outer shape of the mounting target. Then, while viewing the object displayed on the display unit of the user terminal 200, the user can take an image so that his / her wearing target fits in this object. At this time, the first imaging unit 210 is preferably an in-camera provided on the same side as the display unit of the user terminal 200.

このとき、表示部にはインカメラを通して第一撮像部210が撮像しようとしている装着対象が表示されるが、ユーザから表示部が見えにくい場合(例えば、装着対象が耳や頭である場合など)は、ガイド音声を出力させるのが適切である。   At this time, the display unit displays the mounting target that the first imaging unit 210 is about to capture through the in-camera, but the display unit is difficult to see from the user (for example, when the mounting target is an ear or a head). It is appropriate to output a guide voice.

このガイド音声は、例えば、「カメラを右へ移動させてください」、または、「カメラを遠ざけてください」などの音声とすることができる。   For example, the guide voice may be a voice such as “Please move the camera to the right” or “Please move the camera away”.

続いて、本発明の処理方法の実施形態について図7を参照しながら説明する。   Next, an embodiment of the processing method of the present invention will be described with reference to FIG.

本発明の処理方法は、ユーザ端末と、当該ユーザ端末とネットワークを介して接続されるサーバ装置とを備える情報処理システムにおいて実行される処理方法である。   The processing method of the present invention is a processing method executed in an information processing system including a user terminal and a server device connected to the user terminal via a network.

ユーザ端末は、装着対象を撮像するための第一撮像部と、第一処理部とサーバ装置と情報を送受信するための第一通信部とを備える。この第一通信部の詳細については上述したとおりである。これらの詳細については情報処理システムの説明において記載したとおりである。   The user terminal includes a first imaging unit for imaging a mounting target, and a first communication unit for transmitting and receiving information to and from the first processing unit and the server device. The details of the first communication unit are as described above. These details are as described in the explanation of the information processing system.

サーバ装置は、ユーザ端末および外部装置と情報を送受信するための第二通信部と、第二処理部とを備える。これらの詳細については情報処理システムの説明において記載したとおりである。   The server device includes a second communication unit for transmitting / receiving information to / from the user terminal and the external device, and a second processing unit. These details are as described in the explanation of the information processing system.

そして、本発明の処理方法は、図7に示すように、三次元データを生成させるステップS510と、三次元データを送信させるステップS520とを備える。   As shown in FIG. 7, the processing method of the present invention includes step S510 for generating three-dimensional data and step S520 for transmitting three-dimensional data.

三次元データを生成させるステップS510は、第一処理部または第二処理部に、第一撮像部により撮像された動画または静止画を含む対象情報が、装着対象に対応する部材の三次元データの生成に必要な情報量を満たしているかを判定させ、当該判定の結果、対象情報が三次元データの生成に必要な情報量を満たしている場合には、部材の当該三次元データを生成させる。   In step S510 for generating the three-dimensional data, the target information including the moving image or the still image captured by the first imaging unit is sent to the first processing unit or the second processing unit. Whether or not the amount of information necessary for generation is satisfied is determined. As a result of the determination, if the target information satisfies the amount of information necessary for generating three-dimensional data, the three-dimensional data of the member is generated.

三次元データを送信させるステップS520は、第二通信部に、三次元データを外部装置に送信させる。   In step S520 for transmitting the three-dimensional data, the second communication unit transmits the three-dimensional data to the external device.

以上の構成によれば、製品の三次元データの生成を自動化することができるようになる。これにより、例えば、より低価格で一般ユーザ向けのウェアラブルデバイス、特に、IEMイヤフォンなどのヒアラブルデバイスを提供することができるようになる。   According to the above configuration, it is possible to automate the generation of the three-dimensional data of the product. Thereby, for example, a wearable device for general users, particularly a wearable device such as an IEM earphone, can be provided at a lower price.

最後に、本発明のコンピュータプログラムの実施形態について図8を参照しながら説明する。   Finally, an embodiment of the computer program of the present invention will be described with reference to FIG.

本発明の処理方法は、ユーザ端末と、当該ユーザ端末とネットワークを介して接続されるサーバ装置とを備える情報処理システムにおいて実行されるコンピュータプログラムである。   The processing method of the present invention is a computer program executed in an information processing system including a user terminal and a server device connected to the user terminal via a network.

ユーザ端末は、装着対象を撮像するための第一撮像部と、第一処理部とサーバ装置と情報を送受信するための第一通信部とを備える。これらの詳細については情報処理システムの説明において記載したとおりである。   The user terminal includes a first imaging unit for imaging a mounting target, and a first communication unit for transmitting and receiving information to and from the first processing unit and the server device. These details are as described in the explanation of the information processing system.

サーバ装置は、ユーザ端末および外部装置と情報を送受信するための第二通信部と、第二処理部とを備える。これらの詳細については情報処理システムの説明において記載したとおりである。   The server device includes a second communication unit for transmitting / receiving information to / from the user terminal and the external device, and a second processing unit. These details are as described in the explanation of the information processing system.

そして、本発明のコンピュータプログラムは、第一処理部または第二処理部に、三次元データを生成させる機能を実現させ、第二通信部に、三次元データを送信させる機能を実現させる。これら機能は、図8に示す第一回路510および第二回路520によって実現される。これらの回路はそれぞれ上述した第一処理部220または第二処理部320のいずれかに対応する。   And the computer program of this invention implement | achieves the function which makes a 1st process part or a 2nd process part produce | generate 3D data, and makes the 2nd communication part transmit the 3D data. These functions are realized by the first circuit 510 and the second circuit 520 shown in FIG. Each of these circuits corresponds to either the first processing unit 220 or the second processing unit 320 described above.

三次元データを生成させる機能は、第一処理部または第二処理部に、第一撮像部により撮像された動画または静止画を含む対象情報が、装着対象に対応する部材の三次元データの生成に必要な情報量を満たしているかを判定させ、当該判定の結果、対象情報が三次元データの生成に必要な情報量を満たしている場合には、部材の当該三次元データを生成させる。   The function of generating three-dimensional data is that the first processing unit or the second processing unit generates the three-dimensional data of the member corresponding to the mounting target when the target information including the moving image or the still image captured by the first imaging unit If the target information satisfies the information amount necessary for generating the three-dimensional data as a result of the determination, the three-dimensional data of the member is generated.

三次元データを送信させる機能は、第二通信部に、成形データを外部装置に送信させる。   The function of transmitting three-dimensional data causes the second communication unit to transmit molding data to an external device.

以上の構成によれば、製品の三次元データの生成を自動化することができるようになる。これにより、例えば、より低価格で一般ユーザ向けのウェアラブルデバイス、特に、IEMイヤフォンなどのヒアラブルデバイスを提供することができるようになる。   According to the above configuration, it is possible to automate the generation of the three-dimensional data of the product. Thereby, for example, a wearable device for general users, particularly a wearable device such as an IEM earphone, can be provided at a lower price.

また、上述した実施形態に係るサーバ装置又は端末装置として機能させるために、コンピュータ又は携帯電話などの情報処理装置を好適に用いることができる。このような情報処理装置は、実施形態に係るサーバ装置又は端末装置の各機能を実現する処理内容を記述したプログラムを、情報処理装置の記憶部に格納し、情報処理装置のCPUによって当該プログラムを読み出して実行させることによって実現可能である。   Moreover, in order to function as a server apparatus or a terminal apparatus according to the above-described embodiment, an information processing apparatus such as a computer or a mobile phone can be suitably used. Such an information processing apparatus stores a program describing processing contents for realizing each function of the server apparatus or the terminal apparatus according to the embodiment in a storage unit of the information processing apparatus, and the program is executed by the CPU of the information processing apparatus. This can be realized by reading and executing.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

また、実施形態に記載した手法は、計算機(コンピュータ)に実行させることができるプログラムとして、例えば磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD、MO等)、半導体メモリ(ROM、RAM、フラッシュメモリ等)等の記録媒体に格納し、また通信媒体により伝送して頒布することもできる。なお、媒体側に格納されるプログラムには、計算機に実行させるソフトウェア手段(実行プログラムのみならずテーブルやデータ構造も含む)を計算機内に構成させる設定プログラムをも含む。本装置を実現する計算機は、記録媒体に記録されたプログラムを読み込み、また場合により設定プログラムによりソフトウェア手段を構築し、このソフトウェア手段によって動作が制御されることにより上述した処理を実行する。なお、本明細書でいう記録媒体は、頒布用に限らず、計算機内部あるいはネットワークを介して接続される機器に設けられた磁気ディスクや半導体メモリ等の記憶媒体を含むものである。記憶部は、例えば主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してもよい。   The method described in the embodiment is a program that can be executed by a computer (computer), for example, a magnetic disk (floppy (registered trademark) disk, hard disk, etc.), an optical disk (CD-ROM, DVD, MO, etc.), It can be stored in a recording medium such as a semiconductor memory (ROM, RAM, flash memory, etc.), or transmitted and distributed via a communication medium. Note that the program stored on the medium side includes a setting program that configures in the computer software means (including not only the execution program but also a table and data structure) to be executed by the computer. A computer that implements this apparatus reads a program recorded on a recording medium, constructs software means by a setting program as the case may be, and executes the processing described above by controlling the operation by this software means. The recording medium referred to in this specification is not limited to distribution, but includes a storage medium such as a magnetic disk or a semiconductor memory provided in a computer or a device connected via a network. The storage unit may function as, for example, a main storage device, an auxiliary storage device, or a cache memory.

100 情報処理システム
200 ユーザ端末
210 第一撮像部
220 第一処理部
230 第一通信部
300 サーバ装置
310 第二通信部
320 第二処理装置
400 外部装置

DESCRIPTION OF SYMBOLS 100 Information processing system 200 User terminal 210 1st imaging part 220 1st process part 230 1st communication part 300 Server apparatus 310 2nd communication part 320 2nd process apparatus 400 External apparatus

Claims (13)

ユーザ端末と、当該ユーザ端末とネットワークを介して接続されるサーバ装置とを備える情報処理システムであって、
前記ユーザ端末は、
装着対象を撮像するための第一撮像部と、
第一処理部と
前記サーバ装置と情報を送受信するための第一通信部と
を備え、
前記サーバ装置は、
前記ユーザ端末および外部装置と情報を送受信するための第二通信部と、
第二処理部と
を備え、
前記第一処理部または前記第二処理部は、前記第一撮像部により撮像された動画または静止画を含む対象情報が、前記装着対象に対応する部材の三次元データの生成に必要な情報量を満たしているかを判定し、当該判定の結果、前記対象情報が前記三次元データの生成に必要な情報量を満たしている場合には、前記部材の当該三次元データを生成し、
前記第二通信部は、前記三次元データを前記外部装置に送信し、
前記第一処理部または前記第二処理部は、前記装着対象を撮像するためのガイド音声を生成し、前記ユーザ端末から出力させ、
前記ガイド音声は、前記第一撮像部により撮像された動画または静止画に基づいて、前記ユーザと前記ユーザ端末との位置関係に応じて変化する、前記装着対象と前記ユーザ端末との位置に関する音声である、情報処理システム。
An information processing system comprising a user terminal and a server device connected to the user terminal via a network,
The user terminal is
A first imaging unit for imaging a mounting target;
A first processing unit and a first communication unit for transmitting and receiving information to and from the server device,
The server device
A second communication unit for transmitting and receiving information to and from the user terminal and an external device;
A second processing unit,
The first processing unit or the second processing unit is configured such that the target information including the moving image or the still image captured by the first imaging unit is an amount of information necessary for generating the three-dimensional data of the member corresponding to the mounting target If the target information satisfies the amount of information necessary for generating the three-dimensional data, the three-dimensional data of the member is generated.
The second communication unit transmits the three-dimensional data to the external device ;
The first processing unit or the second processing unit generates a guide voice for imaging the mounting target, and outputs the guide voice from the user terminal.
The guide sound is a sound relating to a position between the wearing target and the user terminal, which changes according to a positional relationship between the user and the user terminal based on a moving image or a still image captured by the first imaging unit. An information processing system.
前記第一処理部または前記第二処理部は、前記判定の結果、前記対象情報が、前記三次元データの生成に必要な情報量を満たしていない場合、追加の対象情報を要求する情報を生成する請求項1に記載の情報処理システム。   The first processing unit or the second processing unit generates information for requesting additional target information when the target information does not satisfy an amount of information necessary for generating the three-dimensional data as a result of the determination. The information processing system according to claim 1. 前記三次元データの生成は、前記第一処理部によって行われることを特徴とする請求項1または2に記載の情報処理システム。   The information processing system according to claim 1, wherein the three-dimensional data is generated by the first processing unit. 前記三次元データの生成は、前記第二処理部によって行われることを特徴とする請求項1または2に記載の情報処理システム。   The information processing system according to claim 1, wherein the three-dimensional data is generated by the second processing unit. 前記第一処理部または前記第二処理部は、
前記対象情報から前記装着対象の点群データを生成し、
前記点群データから前記装着対象のメッシュデータを生成する
ことを特徴とする請求項1から4のいずれか一項に記載の情報処理システム。
The first processing unit or the second processing unit is
Generating point cloud data of the mounting target from the target information;
The information processing system according to any one of claims 1 to 4, wherein the mesh data to be mounted is generated from the point cloud data.
前記第一処理部または前記第二処理部は、前記メッシュデータから前記部材の外形を抽出し、前記部材の外形に基づいて、前記装着対象に対応する三次元データを生成することを特徴とする請求項5に記載の情報処理システム。   The first processing unit or the second processing unit extracts an outer shape of the member from the mesh data, and generates three-dimensional data corresponding to the mounting target based on the outer shape of the member. The information processing system according to claim 5. 前記第一処理部または前記第二処理部は、前記メッシュデータの深度情報に基づき、前記メッシュデータの最深箇所を起点として、高さ方向で複数回メッシュをスライスすることによって等高線状の輪郭曲線を得ることにより前記部材の外形を抽出することを特徴とする請求項6に記載の情報処理システム。   Based on the depth information of the mesh data, the first processing unit or the second processing unit starts contour contour curves by slicing the mesh a plurality of times in the height direction from the deepest point of the mesh data. The information processing system according to claim 6, wherein the outer shape of the member is extracted by obtaining the information. 前記第一処理部または前記第二処理部は、前記輪郭曲線を曲線補間により平滑にし、前記等高線を通るサーフェスデータを生成して前記三次元データとすることを特徴とする請求項7に記載の情報処理システム。   The said 1st process part or said 2nd process part makes the said contour curve smooth by curve interpolation, produces | generates the surface data which passes through the said contour line, It is set as the said three-dimensional data, It is characterized by the above-mentioned. Information processing system. 前記第一処理部または前記第二処理部は、
前記対象情報に基づいて、予め所定の記憶装置に記憶された、前記部材のテンプレートデータの中から一のテンプレートデータを選択し、
当該選択されたテンプレートデータを拡大または縮小することで、前記装着対象のメッシュデータと少なくとも一点が接するサイズを決定し、
当該サイズのテンプレートデータを前記三次元データとする
ことを特徴とする請求項5に記載の情報処理システム。
The first processing unit or the second processing unit is
Based on the target information, select one template data from the template data of the member stored in a predetermined storage device in advance,
By enlarging or reducing the selected template data, the size at which at least one point touches the mesh data to be mounted is determined,
6. The information processing system according to claim 5, wherein the template data of the size is the three-dimensional data.
前記第一処理部または前記第二処理部は、
前記第一撮像部により撮像された動画または静止画に対してマスク処理を行い、前記装着対象を特定して前記対象情報とする
ことを特徴とする請求項1から9のいずれか一項に記載の情報処理システム。
The first processing unit or the second processing unit is
The masking process is performed on the moving image or the still image captured by the first imaging unit, and the mounting target is specified as the target information. Information processing system.
前記第一処理部または前記第二処理部は、
前記装着対象を撮像するためのガイド画像生成し、前記ユーザ端末から出力する
ことを特徴とする請求項1から10のいずれか一項に記載の情報処理システム。
The first processing unit or the second processing unit is
Said mounting object generates a guide image for imaging the information processing system according to claim 1, any one of 10, wherein the output from the user terminal.
ユーザ端末と、当該ユーザ端末とネットワークを介して接続されるサーバ装置とを備える情報処理システムにおいて実行される処理方法であって、
前記ユーザ端末は、
装着対象を撮像するための第一撮像部と、
第一処理部と
前記サーバ装置と情報を送受信するための第一通信部と
を備え、
前記サーバ装置は、
前記ユーザ端末および外部装置と情報を送受信するための第二通信部と、
第二処理部と
を備え、
前記第一処理部または前記第二処理部に、前記第一撮像部により撮像された動画または静止画を含む対象情報が、前記装着対象に対応する部材の三次元データの生成に必要な情報量を満たしているかを判定させ、当該判定の結果、前記対象情報が前記三次元データの生成に必要な情報量を満たしている場合には、前記部材の当該三次元データを生成させるステップと、
前記第二通信部に、前記三次元データを前記外部装置に送信させるステップと
前記第一処理部または前記第二処理部に、前記装着対象を撮像するためのガイド音声を生成させ、前記ユーザ端末から出力させるステップと
を備え
前記ガイド音声は、前記第一撮像部により撮像された動画または静止画に基づいて、前記ユーザと前記ユーザ端末との位置関係に応じて変化する、前記装着対象と前記ユーザ端末との位置に関する音声である処理方法。
A processing method executed in an information processing system including a user terminal and a server device connected to the user terminal via a network,
The user terminal is
A first imaging unit for imaging a mounting target;
A first processing unit and a first communication unit for transmitting and receiving information to and from the server device,
The server device
A second communication unit for transmitting and receiving information to and from the user terminal and an external device;
A second processing unit,
The amount of information necessary for the target information including the moving image or the still image captured by the first imaging unit in the first processing unit or the second processing unit to generate the three-dimensional data of the member corresponding to the mounting target If the target information satisfies the information amount necessary for generating the three-dimensional data, the step of generating the three-dimensional data of the member;
Causing the second communication unit to transmit the three-dimensional data to the external device ;
Causing the first processing unit or the second processing unit to generate a guide voice for imaging the mounting target and outputting from the user terminal ;
The guide sound is a sound relating to a position between the wearing target and the user terminal, which changes according to a positional relationship between the user and the user terminal based on a moving image or a still image captured by the first imaging unit. der Ru processing method.
ユーザ端末と、当該ユーザ端末とネットワークを介して接続されるサーバ装置とを備える情報処理システムにおいて実行されるコンピュータプログラムであって、
前記ユーザ端末は、
装着対象を撮像するための第一撮像部と、
第一処理部と
前記サーバ装置と情報を送受信するための第一通信部と
を備え、
前記サーバ装置は、
前記ユーザ端末および外部装置と情報を送受信するための第二通信部と、
第二処理部と
を備え、
前記第一処理部または前記第二処理部に、前記第一撮像部により撮像された動画または静止画を含む対象情報が、前記装着対象に対応する部材の三次元データの生成に必要な情報量を満たしているかを判定させ、当該判定の結果、前記対象情報が前記三次元データの生成に必要な情報量を満たしている場合には、前記部材の当該三次元データを生成させる機能を実現させ、
前記第二通信部に、前記三次元データを前記外部装置に送信させる機能を実現させ
前記第一処理部または前記第二処理部に、前記装着対象を撮像するためのガイド音声を生成させ、前記ユーザ端末から出力させる機能を実現させ、
前記ガイド音声は、前記第一撮像部により撮像された動画または静止画に基づいて、前記ユーザと前記ユーザ端末との位置関係に応じて変化する、前記装着対象と前記ユーザ端末との位置に関する音声であるコンピュータプログラム。
A computer program executed in an information processing system including a user terminal and a server device connected to the user terminal via a network,
The user terminal is
A first imaging unit for imaging a mounting target;
A first processing unit and a first communication unit for transmitting and receiving information to and from the server device,
The server device
A second communication unit for transmitting and receiving information to and from the user terminal and an external device;
A second processing unit,
The amount of information necessary for the target information including the moving image or the still image captured by the first imaging unit in the first processing unit or the second processing unit to generate the three-dimensional data of the member corresponding to the mounting target If the target information satisfies the amount of information necessary for generating the three-dimensional data, the function of generating the three-dimensional data of the member is realized. ,
The second communication unit realizes a function of transmitting the three-dimensional data to the external device ,
Causing the first processing unit or the second processing unit to generate a guide voice for imaging the mounting target, and realizing a function of outputting from the user terminal;
The guide sound is a sound relating to a position between the wearing target and the user terminal, which changes according to a positional relationship between the user and the user terminal based on a moving image or a still image captured by the first imaging unit. der Ru computer program.
JP2018191777A 2018-10-10 2018-10-10 Information processing system, information processing method, and computer program Expired - Fee Related JP6574295B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018191777A JP6574295B1 (en) 2018-10-10 2018-10-10 Information processing system, information processing method, and computer program
PCT/JP2019/035046 WO2020075427A1 (en) 2018-10-10 2019-09-05 Information processing system, information processing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018191777A JP6574295B1 (en) 2018-10-10 2018-10-10 Information processing system, information processing method, and computer program

Publications (2)

Publication Number Publication Date
JP6574295B1 true JP6574295B1 (en) 2019-09-11
JP2020060945A JP2020060945A (en) 2020-04-16

Family

ID=67909567

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018191777A Expired - Fee Related JP6574295B1 (en) 2018-10-10 2018-10-10 Information processing system, information processing method, and computer program

Country Status (2)

Country Link
JP (1) JP6574295B1 (en)
WO (1) WO2020075427A1 (en)

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0273471A (en) * 1988-09-09 1990-03-13 Nippon Telegr & Teleph Corp <Ntt> Estimating method for three-dimensional form
JPH09185709A (en) * 1995-12-28 1997-07-15 Olympus Optical Co Ltd 3D space image information input system
JPH11134517A (en) * 1997-11-04 1999-05-21 Minolta Co Ltd Three-dimensional shape data processor
US7050876B1 (en) * 2000-10-06 2006-05-23 Phonak Ltd. Manufacturing methods and systems for rapid production of hearing-aid shells
JP2003345839A (en) * 2002-05-24 2003-12-05 Honda Motor Co Ltd Method and system for generating three-dimensional model
JP5206366B2 (en) * 2008-11-27 2013-06-12 カシオ計算機株式会社 3D data creation device
WO2012077662A1 (en) * 2010-12-08 2012-06-14 株式会社コンピュータシステム研究所 Cad information generating system, cad information generating program, and cad information generating method
JP2012239566A (en) * 2011-05-18 2012-12-10 Nikon Corp Measuring apparatus for glasses, and three-dimensional measuring apparatus
US20150382123A1 (en) * 2014-01-16 2015-12-31 Itamar Jobani System and method for producing a personalized earphone
JP6191727B1 (en) * 2016-05-06 2017-09-06 富士ゼロックス株式会社 Modeling image management system, modeling image management device, modeling image management program

Also Published As

Publication number Publication date
JP2020060945A (en) 2020-04-16
WO2020075427A1 (en) 2020-04-16

Similar Documents

Publication Publication Date Title
US11706582B2 (en) Calibrating listening devices
JP6747538B2 (en) Information processing equipment
CN103455824B (en) System and method for determining head-related transfer function
CN1778143B (en) Design tool for sound and image control device and sound and image control device
US20160269849A1 (en) Calibrating listening devices
CN108881568B (en) Method, device, electronic device and storage medium for sound from display screen
JP2020532914A (en) Virtual audio sweet spot adaptation method
CN113228615B (en) Information processing apparatus, information processing method, and computer-readable recording medium
US11893997B2 (en) Audio signal processing for automatic transcription using ear-wearable device
US11297456B2 (en) Moving an emoji to move a location of binaural sound
US11064284B2 (en) Transparent sound device
EP2611216B1 (en) Systems and methods for determining head related transfer functions
JP7487663B2 (en) Information processing device, information processing method, and program
JP2024096996A (en) System and method for generating head-related transfer function
KR20220052922A (en) Information processing devices, information processing methods and information processing programs
JP2019040005A (en) Reading aloud system and reading aloud method
US10861228B2 (en) Optical otoscope device
CN109088980A (en) Sound production control method and device, electronic device and computer readable medium
JP6574295B1 (en) Information processing system, information processing method, and computer program
CN112330793A (en) Acquiring method of ear mold 3D model, earphone customization method and computing device
CN114630240B (en) Direction filter generation method, audio processing method, device and storage medium
CN118786676A (en) Motion picture transceiver system, transmission terminal, program and method
CN118975274A (en) Sound augmented reality object reproduction device and information terminal system
CN115914948A (en) Data processing method and related equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181025

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190318

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190415

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190522

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190724

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190815

R150 Certificate of patent or registration of utility model

Ref document number: 6574295

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees