[go: up one dir, main page]

JP7609513B2 - Interaction-based information providing method and system - Google Patents

Interaction-based information providing method and system Download PDF

Info

Publication number
JP7609513B2
JP7609513B2 JP2023036148A JP2023036148A JP7609513B2 JP 7609513 B2 JP7609513 B2 JP 7609513B2 JP 2023036148 A JP2023036148 A JP 2023036148A JP 2023036148 A JP2023036148 A JP 2023036148A JP 7609513 B2 JP7609513 B2 JP 7609513B2
Authority
JP
Japan
Prior art keywords
motion
providing
submotion
interaction
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023036148A
Other languages
Japanese (ja)
Other versions
JP2024098134A (en
Inventor
惠眞 高
宣周 李
承穆 白
ミンギュ キム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Naver Corp
Original Assignee
Naver Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020230002795A external-priority patent/KR102917248B1/en
Application filed by Naver Corp filed Critical Naver Corp
Publication of JP2024098134A publication Critical patent/JP2024098134A/en
Application granted granted Critical
Publication of JP7609513B2 publication Critical patent/JP7609513B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/44Browsing; Visualisation therefor
    • G06F16/444Spatial browsing, e.g. 2D maps, 3D or virtual spaces
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3325Reformulation based on results of preceding query
    • G06F16/3326Reformulation based on results of preceding query using relevance feedback from the user, e.g. relevance feedback on documents, documents sets, document terms or passages
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/438Presentation of query results
    • G06F16/4387Presentation of query results by the use of playlists
    • G06F16/4393Multimedia presentations, e.g. slide shows, multimedia albums
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/44Browsing; Visualisation therefor
    • G06F16/447Temporal browsing, e.g. timeline
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/955Retrieval from the web using information identifiers, e.g. uniform resource locators [URL]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

特許法第30条第2項適用 2022年3月18日、ウェブサイト http://www.navercorp.com/promotion/pressReleasesView/30830 に掲載Application of Article 30, Paragraph 2 of the Patent Act Published on March 18, 2022, on the website http://www. navercorp. com/promotion/pressReleasesView/30830

特許法第30条第2項適用 2022年3月18日、ウェブサイト http://blog.naver.com/naver_search/222675572949 に掲載Application of Article 30, Paragraph 2 of the Patent Act Posted on March 18, 2022, on the website http://blog.naver.com/naver_search/222675572949

特許法第30条第2項適用 2022年6月13日、ウェブサイト http://channelsearch.naver.com/tech/issue01_3/ に掲載Application of Article 30, Paragraph 2 of the Patent Act Posted on June 13, 2022 on the website http://channelsearch.naver.com/tech/issue01_3/

特許法第30条第2項適用 2022年6月20日、ウェブサイト http://www.youtube.com/watch?v=zsB2XQyC2J0 に掲載Applicable under Article 30, Paragraph 2 of the Patent Act Posted on June 20, 2022 on the website http://www.youtube.com/watch?v=zsB2XQyC2J0

以下の説明は、インタラクション基盤の情報提供方法およびシステムに関する。 The following description relates to an interaction-based information provision method and system.

検索サービスは、通信網で提供する相互作用式または対話式サービスの1つであり、データベースセンタに記録されている情報にアクセスする能力を提供するサービスである。一例として、検索サービスは、ユーザが入力した検索語に対する検索結果を提供する。より具体的な例として、検索サービスは、入力された検索語に対応して、多種類のデータベースからの検索結果を含む検索結果ページをユーザに提供する。 A search service is an interactive or dialogue service provided over a communication network that provides the ability to access information stored in a database center. As an example, a search service may provide search results for search terms entered by a user. As a more specific example, a search service may provide a user with a search result page that includes search results from multiple databases in response to the entered search terms.

韓国公開特許第10-2022-0108611号公報Korean Patent Publication No. 10-2022-0108611

特定の主題に対応して予め設定されたインタラクション検索語に対する応答として当該主題に対するインタラクション機能を提供し、ユーザとのインタラクションに従って当該主題に関する情報を提供する、情報提供方法およびシステムを提供する。 We provide an information provision method and system that provides an interaction function for a specific subject in response to a preset interaction search term corresponding to the subject, and provides information on the subject in accordance with the interaction with the user.

少なくとも1つのプロセッサを含むコンピュータ装置の情報提供方法であって、前記少なくとも1つのプロセッサにより、入力される検索語に基づいて検索結果を提供するための検索インタフェースを提供する段階、および前記少なくとも1つのプロセッサにより、前記検索インタフェースに入力された検索語が、任意の主題に対応して予め設定されたインタラクション検索語を含む場合、前記インタラクション検索語に対する応答として、ユーザとのインタラクションによって前記主題と関連する情報を提供するインタラクション機能を提供する段階を含む、情報提供方法を提供する。 A method for providing information for a computer device including at least one processor, the method including: providing, by the at least one processor, a search interface for providing search results based on an input search term; and, by the at least one processor, providing, when the search term input to the search interface includes a preset interaction search term corresponding to a given subject, an interaction function for providing information related to the subject through interaction with a user in response to the interaction search term.

一側面によると、前記インタラクション機能を提供する段階は、前記インタラクション機能が含むビューアを利用して前記主題と関連する客体を表示する段階を含むことを特徴としてよい。 According to one aspect, the step of providing the interaction function may include a step of displaying an object related to the subject using a viewer included in the interaction function.

他の側面によると、前記インタラクション機能を提供する段階は、前記ユーザとのインタラクションによって、前記ビューアに表示される前記客体のビューまたは前記客体のモーションを制御する段階をさらに含むことを特徴としてよい。 In another aspect, the step of providing the interaction function may further include controlling a view of the object displayed in the viewer or a motion of the object through an interaction with the user.

また他の側面によると、前記制御する段階は、前記客体のモーションに対する再生速度を調節するための機能を提供する段階を含むことを特徴としてよい。 In another aspect, the controlling step may include providing a function for adjusting a playback speed for the motion of the object.

また他の側面によると、前記制御する段階は、前記コンピュータ装置が含むカメラにリアルタイムで入力される映像を背景として前記客体のモーションを再生するためのAR(拡張現実:Augmented Reality)機能を提供する段階を含むことを特徴としてよい。 In another aspect, the controlling step may include providing an AR (Augmented Reality) function for reproducing the motion of the object against a background of an image input in real time to a camera included in the computer device.

また他の側面によると、前記インタラクション機能を提供する段階は、前記客体のモーションを分離した複数のサブモーションごとにサブモーション情報を提供する段階をさらに含むことを特徴としてよい。 In another aspect, the step of providing the interaction function may further include a step of providing sub-motion information for each of a plurality of sub-motions obtained by separating the motion of the object.

また他の側面によると、前記サブモーション情報を提供する段階は、前記複数のサブモーションのうちから1つのサブモーションを選択するためのサブモーション選択インタフェースを提供する段階、および前記ビューアを利用して前記サブモーション選択インタフェースから選択されたサブモーションを再生する段階を含むことを特徴としてよい。 In another aspect, the step of providing the submotion information may include a step of providing a submotion selection interface for selecting one submotion from the plurality of submotions, and a step of playing the submotion selected from the submotion selection interface using the viewer.

また他の側面によると、前記サブモーション情報は、対応するサブモーションに関する映像情報、音声情報、およびテキスト情報を含み、前記選択されたサブモーションを再生する段階は、前記映像情報で前記選択されたサブモーションを再生しながら、前記音声情報および前記テキスト情報のうちの少なくとも1つを出力することを特徴としてよい。 According to another aspect, the submotion information may include video information, audio information, and text information related to the corresponding submotion, and the step of playing the selected submotion may include outputting at least one of the audio information and the text information while playing the selected submotion in the video information.

また他の側面によると、前記サブモーション選択インタフェースは、前記複数のサブモーションのための複数のサブモーションボタンを含み、前記選択されたサブモーションを再生する段階は、前記複数のサブモーションボタンのうちから選択されたサブモーションボタンに対応するサブモーションを再生することを特徴としてよい。 According to another aspect, the submotion selection interface may include a plurality of submotion buttons for the plurality of submotions, and the step of playing the selected submotion may include playing a submotion corresponding to a submotion button selected from the plurality of submotion buttons.

また他の側面によると、前記複数のサブモーションボタンは順に羅列され、前記複数のサブモーションボタンに対して入力されるドラッグジェスチャーによって表示位置が変更され、前記選択されたサブモーションを再生する段階は、前記複数のサブモーションボタンのうちで予め設定された表示位置のサブモーションボタンに対応するサブモーションを再生するが、前記ドラッグジェスチャーの方向および速度に基づいて前記再生中のサブモーションの再生方向および再生速度を決定することを特徴としてよい。 According to another aspect, the plurality of sub-motion buttons are arranged in order, and a display position is changed by a drag gesture input on the plurality of sub-motion buttons, and the step of playing the selected sub-motion may be characterized in that a sub-motion corresponding to a sub-motion button at a preset display position among the plurality of sub-motion buttons is played, and a playback direction and a playback speed of the sub-motion being played are determined based on a direction and a speed of the drag gesture.

また他の側面によると、前記選択されたサブモーションを再生する段階は、前記客体の特定のポイントと関連する詳細情報を提供するためのアノテーションボタンを前記特定のポイントの位置に表示する段階、前記選択されたサブモーションの再生によって前記客体の特定のポイントの位置が移動することによって前記アノテーションボタンの表示位置を移動させる段階、および前記アノテーションボタンが選択される場合、前記選択されたサブモーションを変更して前記詳細情報を提供する段階を含むことを特徴としてよい。 In another aspect, the step of playing the selected submotion may include a step of displaying an annotation button at a position of a specific point of the object to provide detailed information related to the specific point, a step of moving a display position of the annotation button as the position of the specific point of the object moves by playing the selected submotion, and a step of changing the selected submotion to provide the detailed information when the annotation button is selected.

また他の側面によると、前記選択されたサブモーションを再生する段階は、前記客体上の少なくとも2つのポイントと前記2つのポイントを連結するリンクを含むアノテーションガイドの表示する段階を含むことを特徴としてよい。 In another aspect, the step of playing the selected submotion may include a step of displaying an annotation guide including at least two points on the object and a link connecting the two points.

また他の側面によると、前記客体は3次元人体モデルを含み、前記少なくとも2つのポイントは、前記3次元人体モデルの関節位置に対応することを特徴としてよい。 According to another aspect, the object may include a three-dimensional human body model, and the at least two points may correspond to joint positions of the three-dimensional human body model.

また他の側面によると、前記インタラクション機能を提供する段階は、前記インタラクション検索語を利用して生成された検索結果ページを通じて前記ビューアを提供する段階を含むことを特徴としてよい。 In another aspect, the step of providing the interaction functionality may include providing the viewer through a search result page generated using the interaction search term.

また他の側面によると、前記インタラクション機能を提供する段階は、前記検索結果ページまたは前記ビューアを通じて、前記客体のモーションを分離した複数のサブモーションごとにサブモーション情報を提供するページへのアクセスのためのリンクを提供する段階を含むことを特徴としてよい。 In another aspect, the step of providing the interaction function may include providing, via the search result page or the viewer, a link for accessing a page that provides submotion information for each of a plurality of submotions obtained by separating the motion of the object.

また他の側面によると、前記インタラクション機能を提供する段階は、前記ユーザの音声またはテキストを基盤としたクエリが入力され、前記クエリに対する前記主題と関連する応答を提供するための質疑応答インタフェースを提供する段階を含むことを特徴としてよい。 In another aspect, providing the interaction functionality may include providing a question and answer interface for receiving a voice or text-based query from the user and providing a subject-specific response to the query.

さらに他の側面によると、前記応答は、前記客体のモーションを分離した複数のサブモーションのうちの1つを含むか、または前記クエリに基づいて検索された文書の内容を人工知能によって分析して生成した結果を含むことを特徴としてよい。 In yet another aspect, the response may include one of a plurality of submotions obtained by separating the motion of the object, or may include a result generated by analyzing the contents of the documents searched based on the query using artificial intelligence.

前記方法をコンピュータ装置に実行させるためのコンピュータプログラムを提供する。 A computer program is provided for causing a computer device to execute the method.

前記方法をコンピュータ装置に実行させるためのプログラムが記録されている、コンピュータ読み取り可能な記録媒体を提供する。 A computer-readable recording medium is provided that stores a program for causing a computer device to execute the method.

コンピュータ装置で読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサにより、ユーザの端末から検索語を受信し、前記受信した検索語が、任意の主題に対応して予め設定されたインタラクション検索語を含む場合、前記インタラクション検索語に対応する検索結果および前記ユーザとのインタラクションによって前記主題と関連する情報を提供するインタラクション機能を含む検索結果ページを生成し、前記生成された検索結果ページを前記ユーザの端末に提供することを特徴とする、コンピュータ装置を提供する。 A computer device is provided, the computer device including at least one processor that is implemented to execute instructions readable by the computer device, and that receives search terms from a user's terminal by the at least one processor, and if the received search terms include interaction search terms that are preset corresponding to any subject, generates a search result page that includes search results corresponding to the interaction search terms and an interaction function that provides information related to the subject through interaction with the user, and provides the generated search result page to the user's terminal.

特定の主題に対応して予め設定されたインタラクション検索語に対する応答として主題に対するインタラクション機能を提供し、ユーザとのインタラクションによって主題に関する情報を提供することができる。 A subject interaction function is provided in response to a preset interaction search term corresponding to a particular subject, and information about the subject can be provided through interaction with the user.

本発明の一実施形態における、ネットワーク環境の例を示した図である。FIG. 1 illustrates an example of a network environment in accordance with an embodiment of the present invention. 本発明の一実施形態における、コンピュータ装置の例を示したブロック図である。FIG. 2 is a block diagram illustrating an example of a computing device in accordance with an embodiment of the present invention. 本発明の一実施形態における、情報提供システムを概括的に示した図である。1 is a diagram illustrating an overview of an information providing system according to an embodiment of the present invention. 本発明の一実施形態における、サブモーション情報を提供するページの例を示した図である。FIG. 13 is a diagram showing an example of a page providing sub-motion information in accordance with an embodiment of the present invention. 本発明の一実施形態における、モーションを再生する過程の例を示した図である。11A to 11C are diagrams illustrating an example of a process of playing a motion according to an embodiment of the present invention. 本発明の一実施形態における、モーションを再生する過程の例を示した図である。11A to 11C are diagrams illustrating an example of a process of playing a motion according to an embodiment of the present invention. 本発明の一実施形態における、モーションの再生を停止した場合の例を示した図である。FIG. 13 is a diagram showing an example of a case where the playback of a motion is stopped in one embodiment of the present invention. 本発明の一実施形態における、モーションの再生を停止した場合の例を示した図である。FIG. 13 is a diagram showing an example of a case where the playback of a motion is stopped in one embodiment of the present invention. 本発明の一実施形態における、モーションの再生を停止した場合の例を示した図である。FIG. 13 is a diagram showing an example of a case where the playback of a motion is stopped in one embodiment of the present invention. 本発明の一実施形態における、レッスンポイントグラフィックの表示状態を制御するためのユーザインタフェースの例を示した図である。11A and 11B are diagrams showing examples of user interfaces for controlling the display state of lesson point graphics in one embodiment of the present invention. 本発明の一実施形態における、特定のサブモーションに対するレッスンポイントグラフィックを表示する例を示した図である。FIG. 13 illustrates an example of displaying a lesson point graphic for a particular submotion in accordance with an embodiment of the present invention. 本発明の一実施形態における、アノテーションボタンの例を示した図である。11A and 11B are diagrams showing examples of annotation buttons in one embodiment of the present invention. 本発明の一実施形態における、全体サブモーションのリストを提供する例を示した図である。FIG. 13 illustrates an example of providing a list of all submotions in accordance with an embodiment of the present invention. 本発明の一実施形態における、ビューア拡張の例を示した図である。FIG. 13 illustrates an example of a viewer extension in accordance with an embodiment of the present invention. 本発明の一実施形態における、ユーザ端末の情報提供方法の例を示したフローチャートである。1 is a flowchart showing an example of an information providing method of a user terminal in an embodiment of the present invention. 本発明の一実施形態における、サーバの情報提供方法の例を示したフローチャートである。10 is a flowchart showing an example of an information providing method of a server in an embodiment of the present invention. 本発明の一実施形態における、インタラクション機能を利用してインタラクション検索語に対応する主題と関連する情報を提供する例を示した図である。FIG. 13 illustrates an example of using the interaction feature to provide topic-related information corresponding to an interaction search term in one embodiment of the present invention. 本発明の一実施形態における、インタラクション機能を利用してインタラクション検索語に対応する主題と関連する情報を提供する例を示した図である。FIG. 13 illustrates an example of using the interaction feature to provide topic-related information corresponding to an interaction search term in one embodiment of the present invention. 本発明の一実施形態における、インタラクション機能を利用してインタラクション検索語に対応する主題と関連する情報を提供する例を示した図である。FIG. 13 illustrates an example of using the interaction feature to provide topic-related information corresponding to an interaction search term in one embodiment of the present invention. 本発明の一実施形態における、クエリに対する応答を提供する例を示した図である。FIG. 2 illustrates an example of providing a response to a query in accordance with an embodiment of the present invention.

以下、実施形態について、添付の図面を参照しながら詳しく説明する。 The following describes the embodiments in detail with reference to the attached drawings.

本発明の実施形態に係る情報提供システムは、少なくとも1つのコンピュータ装置によって実現されてよい。このとき、コンピュータ装置においては、本発明の一実施形態に係るコンピュータプログラムがインストールされて実行されてよく、コンピュータ装置は、実行されたコンピュータプログラムの制御に従って本発明の実施形態に係る情報提供方法を実行してよい。上述したコンピュータプログラムは、コンピュータ装置と結合して情報提供方法をコンピュータに実行させるためにコンピュータ読み取り可能な記録媒体に記録されてよい。 The information provision system according to an embodiment of the present invention may be realized by at least one computer device. In this case, a computer program according to an embodiment of the present invention may be installed and executed in the computer device, and the computer device may execute the information provision method according to an embodiment of the present invention according to the control of the executed computer program. The above-mentioned computer program may be recorded on a computer-readable recording medium in combination with the computer device to cause the computer to execute the information provision method.

図1は、本発明の一実施形態における、ネットワーク環境の例を示した図である。図1のネットワーク環境は、複数の電子機器110、120、130、140、複数のサーバ150、160、およびネットワーク170を含む例を示している。このような図1は、発明の説明のための一例に過ぎず、電子機器の数やサーバの数が図1のように限定されることはない。 Figure 1 is a diagram showing an example of a network environment in one embodiment of the present invention. The network environment in Figure 1 shows an example including multiple electronic devices 110, 120, 130, 140, multiple servers 150, 160, and a network 170. Figure 1 is merely an example for explaining the invention, and the number of electronic devices and the number of servers are not limited to those shown in Figure 1.

複数の電子機器110、120、130、140は、コンピュータシステムによって実現される固定端末や移動端末であってよい。複数の電子機器110、120、130、140の例としては、スマートフォン、携帯電話、ナビゲーション、PC(personal computer)、ノート型PC、デジタル放送用端末、PDA(Personal Digital Assistant)、PMP(Portable Multimedia Player)、タブレット、ゲームコンソール(game console)、ウェアラブルデバイス(wearable device)、IoT(internet of things)デバイス、VR(仮想現実:virtula reality)デバイス、AR(拡張現実:augmented reality)デバイスなどがある。一例として、図1では、電子機器110の例としてスマートフォンを示しているが、本発明の実施形態において、電子機器110は、実質的に無線または有線通信方式を利用し、ネットワーク170を介して他の電子機器120、130、140および/またはサーバ150、160と通信することができる多様な物理的なコンピュータシステムのうちの1つを意味してよい。 The electronic devices 110, 120, 130, and 140 may be fixed terminals or mobile terminals realized by a computer system. Examples of the electronic devices 110, 120, 130, and 140 include smartphones, mobile phones, navigation systems, personal computers (PCs), notebook PCs, digital broadcasting terminals, personal digital assistants (PDAs), portable multimedia players (PMPs), tablets, game consoles, wearable devices, internet of things (IoT) devices, virtual reality (VR) devices, and augmented reality (AR) devices. As an example, FIG. 1 shows a smartphone as an example of the electronic device 110, but in an embodiment of the present invention, the electronic device 110 may refer to one of a variety of physical computer systems that can communicate with other electronic devices 120, 130, 140 and/or servers 150, 160 via a network 170 using a substantially wireless or wired communication method.

通信方式が限定されることはなく、ネットワーク170が含むことのできる通信網(一例として、移動通信網、有線インターネット、無線インターネット、放送網)を利用する通信方式だけではなく、機器間の近距離無線通信が含まれてもよい。例えば、ネットワーク170は、PAN(personal area network)、LAN(local area network)、CAN(campus area network)、MAN(metropolitan area network)、WAN(wide area network)、BBN(broadband network)、インターネットなどのネットワークのうちの1つ以上の任意のネットワークを含んでよい。さらに、ネットワーク170は、バスネットワーク、スターネットワーク、リングネットワーク、メッシュネットワーク、スター-バスネットワーク、ツリーまたは階層的ネットワークなどを含むネットワークトポロジのうちの任意の1つ以上を含んでもよいが、これらに限定されることはない。 The communication method is not limited, and may include not only a communication method using a communication network that the network 170 can include (for example, a mobile communication network, a wired Internet, a wireless Internet, or a broadcasting network), but also short-range wireless communication between devices. For example, the network 170 may include any one or more of a personal area network (PAN), a local area network (LAN), a campus area network (CAN), a metropolitan area network (MAN), a wide area network (WAN), a broadband network (BBN), the Internet, and the like. Furthermore, the network 170 may include any one or more of a network topology including, but not limited to, a bus network, a star network, a ring network, a mesh network, a star-bus network, a tree or a hierarchical network, and the like.

サーバ150、160それぞれは、複数の電子機器110、120、130、140とネットワーク170を介して通信して命令、コード、ファイル、コンテンツ、サービスなどを提供する1つ以上のコンピュータ装置によって実現されてよい。例えば、サーバ150は、ネットワーク170を介して接続した複数の電子機器110、120、130、140に第1サービスを提供するシステムであってよく、サーバ160も、ネットワーク170を介して接続した複数の電子機器110、120、130、140に第2サービスを提供するシステムであってよい。より具体的な例として、サーバ150は、複数の電子機器110、120、130、140においてインストールされて実行されるコンピュータプログラムであるアプリケーションを通じて、アプリケーションが目的とするサービスを第1サービスとして複数の電子機器110、120、130、140に提供してよい。他の例として、サーバ160は、上述したアプリケーションをインストールして実行するためのファイルを複数の電子機器110、120、130、140に配布するサービスを第2サービスとして提供してよい。 Each of the servers 150 and 160 may be realized by one or more computer devices that communicate with the multiple electronic devices 110, 120, 130, and 140 via the network 170 to provide instructions, code, files, content, services, and the like. For example, the server 150 may be a system that provides a first service to the multiple electronic devices 110, 120, 130, and 140 connected via the network 170, and the server 160 may also be a system that provides a second service to the multiple electronic devices 110, 120, 130, and 140 connected via the network 170. As a more specific example, the server 150 may provide the multiple electronic devices 110, 120, 130, and 140 with a service targeted by the application as a first service through an application, which is a computer program installed and executed in the multiple electronic devices 110, 120, 130, and 140. As another example, the server 160 may provide, as the second service, a service of distributing files for installing and executing the above-mentioned application to multiple electronic devices 110, 120, 130, and 140.

図2は、本発明の一実施形態における、コンピュータ装置の例を示したブロック図である。上述した複数の電子機器110、120、130、140それぞれやサーバ150、160それぞれは、図2に示したコンピュータ装置200によって実現されてよい。 Figure 2 is a block diagram showing an example of a computer device in one embodiment of the present invention. Each of the multiple electronic devices 110, 120, 130, and 140 and each of the servers 150 and 160 described above may be realized by the computer device 200 shown in Figure 2.

このようなコンピュータ装置200は、図2に示すように、メモリ210、プロセッサ220、通信インタフェース230、および入力/出力インタフェース240を含んでよい。メモリ210は、コンピュータ読み取り可能な記録媒体であって、RAM(random access memory)、ROM(read only memory)、およびディスクドライブのような永続的大容量記録装置を含んでよい。ここで、ROMやディスクドライブのような永続的大容量記録装置は、メモリ210とは区分される別の永続的記録装置としてコンピュータ装置200に含まれてもよい。また、メモリ210には、オペレーティングシステムと、少なくとも1つのプログラムコードが記録されてよい。このようなソフトウェア構成要素は、メモリ210とは別のコンピュータ読み取り可能な記録媒体からメモリ210にロードされてよい。このような別のコンピュータ読み取り可能な記録媒体は、フロッピー(登録商標)ドライブ、ディスク、テープ、DVD/CD-ROMドライブ、メモリカードなどのコンピュータ読み取り可能な記録媒体を含んでよい。他の実施形態において、ソフトウェア構成要素は、コンピュータ読み取り可能な記録媒体ではない通信インタフェース230を通じてメモリ210にロードされてもよい。例えば、ソフトウェア構成要素は、ネットワーク170を介して受信されるファイルによってインストールされるコンピュータプログラムに基づいてコンピュータ装置200のメモリ210にロードされてよい。 Such a computer device 200 may include a memory 210, a processor 220, a communication interface 230, and an input/output interface 240, as shown in FIG. 2. The memory 210 is a computer-readable recording medium and may include a RAM (random access memory), a ROM (read only memory), and a permanent mass storage device such as a disk drive. Here, a permanent mass storage device such as a ROM or a disk drive may be included in the computer device 200 as a separate permanent storage device separate from the memory 210. In addition, the memory 210 may store an operating system and at least one program code. Such software components may be loaded into the memory 210 from a computer-readable recording medium separate from the memory 210. Such a separate computer-readable recording medium may include a computer-readable recording medium such as a floppy drive, a disk, a tape, a DVD/CD-ROM drive, or a memory card. In other embodiments, the software components may be loaded into the memory 210 through a communication interface 230 that is not a computer-readable recording medium. For example, the software components may be loaded into the memory 210 of the computer device 200 based on a computer program that is installed by a file received via the network 170.

プロセッサ220は、基本的な算術、ロジック、および入出力演算を実行することにより、コンピュータプログラムの命令を処理するように構成されてよい。命令は、メモリ210または通信インタフェース230によって、プロセッサ220に提供されてよい。例えば、プロセッサ220は、メモリ210のような記録装置に記録されたプログラムコードに従って受信される命令を実行するように構成されてよい。 The processor 220 may be configured to process computer program instructions by performing basic arithmetic, logic, and input/output operations. The instructions may be provided to the processor 220 by the memory 210 or the communication interface 230. For example, the processor 220 may be configured to execute instructions received according to program code recorded in a recording device such as the memory 210.

通信インタフェース230は、ネットワーク170を介してコンピュータ装置200が他の装置(一例として、上述した記録装置)と互いに通信するための機能を提供してよい。一例として、コンピュータ装置200のプロセッサ220がメモリ210のような記録装置に記録されたプログラムコードに従って生成した要求や命令、データ、ファイルなどが、通信インタフェース230の制御に従ってネットワーク170を介して他の装置に伝達されてよい。これとは逆に、他の装置からの信号や命令、データ、ファイルなどが、ネットワーク170を経てコンピュータ装置200の通信インタフェース230を通じてコンピュータ装置200に受信されてよい。通信インタフェース230を通じて受信された信号や命令、データなどは、プロセッサ220やメモリ210に伝達されてよく、ファイルなどは、コンピュータ装置200がさらに含むことのできる記録媒体(上述した永続的記録装置)に記録されてよい。 The communication interface 230 may provide a function for the computer device 200 to communicate with other devices (for example, the above-mentioned recording device) via the network 170. As an example, requests, commands, data, files, etc. generated by the processor 220 of the computer device 200 according to program code recorded in a recording device such as the memory 210 may be transmitted to other devices via the network 170 under the control of the communication interface 230. Conversely, signals, commands, data, files, etc. from other devices may be received by the computer device 200 through the communication interface 230 of the computer device 200 via the network 170. The signals, commands, data, etc. received through the communication interface 230 may be transmitted to the processor 220 or the memory 210, and the files, etc. may be recorded on a recording medium (the above-mentioned permanent recording device) that the computer device 200 may further include.

入力/出力インタフェース240は、入力/出力装置250とのインタフェースのための手段であってよい。例えば、入力装置は、マイク、キーボード、またはマウスなどの装置を、出力装置は、ディスプレイ、スピーカのような装置を含んでよい。他の例として、入力/出力インタフェース240は、タッチスクリーンのように入力と出力のための機能が1つに統合された装置とのインタフェースのための手段であってもよい。入力/出力装置250は、コンピュータ装置200と1つの装置で構成されてもよい。 The input/output interface 240 may be a means for interfacing with the input/output device 250. For example, the input device may include devices such as a microphone, keyboard, or mouse, and the output device may include devices such as a display and a speaker. As another example, the input/output interface 240 may be a means for interfacing with a device that integrates functions for input and output into one, such as a touch screen. The input/output device 250 may be configured as a single device together with the computer device 200.

また、他の実施形態において、コンピュータ装置200は、図2の構成要素よりも少ないか多くの構成要素を含んでもよい。しかし、大部分の従来技術的構成要素を明確に図に示す必要はない。例えば、コンピュータ装置200は、上述した入力/出力装置250のうちの少なくとも一部を含むように実現されてもよいし、トランシーバ、データベースなどのような他の構成要素をさらに含んでもよい。 Also, in other embodiments, the computing device 200 may include fewer or more components than those of FIG. 2. However, most of the prior art components need not be explicitly shown in the figures. For example, the computing device 200 may be implemented to include at least some of the input/output devices 250 described above, and may further include other components such as a transceiver, a database, etc.

図3は、本発明の一実施形態における、情報提供システムを概括的に示した図である。本実施形態に係る情報提供システムは、サーバ310およびユーザ端末320を含んでよい。複数のユーザ端末が存在することもあるが、図3では1つのユーザ端末320を表示した。 Figure 3 is a diagram showing an overview of an information provision system according to one embodiment of the present invention. The information provision system according to this embodiment may include a server 310 and a user terminal 320. There may be multiple user terminals, but Figure 3 shows one user terminal 320.

ユーザ端末320は、ユーザ端末320にインストールされたアプリケーションの制御に従ってネットワーク(一例として、図1および図2のネットワーク170)を介してサーバ310にアクセスし、サーバ310からサービスの提供を受けてよい。本実施形態では、サーバ310がユーザ端末320に検索サービスを提供すると仮定する。ユーザ端末320のユーザが、ユーザ端末320においてインストールされて実行されたアプリケーションが提供する検索インタフェースに検索語を入力すれば、ユーザ端末320は、入力された検索語をサーバ310に伝達してよく、サーバは、入力された検索語に対する検索結果ページを生成してユーザ端末320に提供してよい。実質的には、サーバ310は、ユーザ端末320で検索結果ページをレンダリングして表示するようにするための情報をユーザ端末320に提供するが、以下では、サーバ310がユーザ端末320に検索結果ページを提供するとして説明する。 The user terminal 320 may access the server 310 via a network (for example, the network 170 in FIG. 1 and FIG. 2) according to the control of an application installed on the user terminal 320, and may receive services from the server 310. In this embodiment, it is assumed that the server 310 provides a search service to the user terminal 320. When a user of the user terminal 320 inputs a search term into a search interface provided by an application installed and executed on the user terminal 320, the user terminal 320 may transmit the input search term to the server 310, and the server may generate a search result page for the input search term and provide it to the user terminal 320. In practice, the server 310 provides the user terminal 320 with information for rendering and displaying the search result page on the user terminal 320, but the following description will be given assuming that the server 310 provides the search result page to the user terminal 320.

このとき、検索語が任意の主題に対応して予め設定されたインタラクション検索語を含む場合、サーバ310は、ユーザとのインタラクションによって当該主題と関連する情報を提供するインタラクション機能を提供してよい。図3は、このようなインタラクション機能が含まれるページのインタラクション機能領域330を示している。実施形態によって、インタラクション機能領域330は、検索結果ページに含まれてユーザ端末320に提供されてもよいし、インタラクション検索語に対する個別の応答ページ(一例として、以下で説明するサブモーション情報を提供するページ)に含まれてユーザ端末320に提供されてもよい。検索結果ページが提供される場合、サーバ310は、インタラクション検索語に対応する検索結果と上述したインタラクション機能を含む検索結果ページを生成してユーザ端末320に提供してよい。 In this case, if the search term includes a preset interaction search term corresponding to a given subject, the server 310 may provide an interaction function that provides information related to the subject through interaction with the user. FIG. 3 shows an interaction function area 330 of a page including such an interaction function. Depending on the embodiment, the interaction function area 330 may be included in a search result page and provided to the user terminal 320, or may be included in a separate response page for the interaction search term (for example, a page providing submotion information described below) and provided to the user terminal 320. When a search result page is provided, the server 310 may generate a search result page including search results corresponding to the interaction search term and the above-mentioned interaction function, and provide it to the user terminal 320.

このとき、インタラクション機能領域330は、第1点線枠340に示すように、主題と関連する客体を表示するためのビューア(viewer)を含んでよい。この場合、ユーザ端末320は、ユーザとのインタラクションによって、ビューアに表示される客体のビューまたは客体のモーションを制御してよい。本実施形態では「ゴルフ」をインタラクション検索語として利用し、「アイアンフルスイング」という客体のモーションを提供する例を示している。本実施形態において、客体は3次元人体モデルを含んでよく、このような3次元人体モデルの「アイアンフルスイング」モーションがビューアによって再生されてよい。上述したように、インタラクション検索語は、任意の主題に対応して予め設定されてよく、客体もこのような主題と関連して予め設定されてよい。言い換えれば、ユーザがインタラクション検索語を入力する場合、インタラクション検索語の主題による客体のビューおよび/またはモーションがビューアによって再生されるのである。この場合、ユーザとのインタラクションによって、客体のビューおよび/またはモーションの表示が制御されてよい。 At this time, the interaction function area 330 may include a viewer for displaying an object related to a subject, as shown in a first dotted frame 340. In this case, the user terminal 320 may control the view of the object or the motion of the object displayed in the viewer according to the interaction with the user. In this embodiment, an example is shown in which "golf" is used as an interaction search term to provide an object motion of "iron full swing". In this embodiment, the object may include a three-dimensional human body model, and the "iron full swing" motion of such a three-dimensional human body model may be reproduced by the viewer. As described above, the interaction search term may be preset corresponding to any subject, and the object may also be preset in association with such a subject. In other words, when the user inputs an interaction search term, the view and/or motion of the object according to the subject of the interaction search term is reproduced by the viewer. In this case, the display of the view and/or motion of the object may be controlled according to the interaction with the user.

また、インタラクション機能領域330は、ビューアの他にも、第2点線枠350に示すように、インタラクション検索語および/または客体のモーションと関連する基本情報をさらに含んでよい。 In addition to the viewer, the interaction function area 330 may further include basic information related to interaction search terms and/or object motion, as shown in the second dotted frame 350.

また、検索結果ページやインタラクション機能領域330、および/またはビューアは、客体のモーションを分離した複数のサブモーションごとにサブモーション情報を提供するページへのリンクを含んでよい。図3の実施形態では、第3点線枠360に示すように、ビューアがサブモーション情報を提供するページへのリンクを含む例を示している。 The search result page, the interaction function area 330, and/or the viewer may include links to pages that provide submotion information for each of a plurality of submotions that separate the motion of the object. In the embodiment of FIG. 3, as shown in the third dotted frame 360, an example is shown in which the viewer includes links to pages that provide submotion information.

図4は、本発明の一実施形態における、サブモーション情報を提供するページの例を示した図である。ユーザ端末320は、サブモーション情報を提供するページ410を画面に表示してよく、ページ410の第1点線枠420に現れるビューアを利用して客体のビューおよび/またはモーションを表示してよい。 Figure 4 is a diagram showing an example of a page providing sub-motion information in one embodiment of the present invention. The user terminal 320 may display a page 410 providing sub-motion information on a screen, and may display a view and/or motion of an object using a viewer appearing in a first dotted frame 420 of the page 410.

また、上述したように、客体のモーションを、複数のサブモーションに分離してよい。この場合、ユーザ端末320は、ページ410を通じて、個別のサブモーションごとにサブモーション情報を提供してよい。図4の実施形態では、モーション「アイアンフルスイング」を、「アドレス」サブモーション(P1)、「テイクバック」サブモーション(P2)、「ハーフバックスイング」サブモーション(P3)、「トップオブスイング」サブモーション(P4)、「ダウンスイング」サブモーション(P5)、「インパクト」サブモーション(P6)、「フォロースルー」サブモーション(P7)、および「フィニッシュ」サブモーション(P8)の8つのサブモーションに分離した例を示している。この場合、ユーザ端末320は、ページ410を通じて、8つのサブモーションのための8つのサブモーションボタンを提供してよい。図4では1つのモーションを8つのサブモーションに分離した例を示しているが、同一のモーションがより多くのサブモーションまたはより少ないサブモーションに分離されることも可能である。例えば、「アイアンフルスイング」モーションは、モーションの分け方によって10つのサブモーションに分離されてもよい。 Also, as described above, the motion of the object may be separated into a plurality of sub-motions. In this case, the user terminal 320 may provide sub-motion information for each individual sub-motion through the page 410. In the embodiment of FIG. 4, an example is shown in which the motion "iron full swing" is separated into eight sub-motions, namely, an "address" sub-motion (P1), a "take back" sub-motion (P2), a "half back swing" sub-motion (P3), a "top of swing" sub-motion (P4), a "down swing" sub-motion (P5), an "impact" sub-motion (P6), a "follow through" sub-motion (P7), and a "finish" sub-motion (P8). In this case, the user terminal 320 may provide eight sub-motion buttons for the eight sub-motions through the page 410. Although FIG. 4 shows an example in which one motion is separated into eight sub-motions, it is also possible for the same motion to be separated into more or fewer sub-motions. For example, the "iron full swing" motion may be separated into ten sub-motions depending on how the motions are divided.

図4の実施形態で、第2点線枠430は、8つのサブモーションボタンのうちで「アドレス」サブモーション(P1)に対するサブモーションボタンと「テイクバック」サブモーション(P2)に対するサブモーションボタンが表示された例を示している。図4には示されていないが、8つのサブモーションボタンは順に羅列されてよく、ユーザのドラッグジェスチャーによって表示位置の変更が可能となる。一例として、ユーザが第2点線枠430の領域を左側にドラッグする場合、ユーザ端末320は、「アドレス」サブモーション(P1)に対するサブモーションボタンが左側に消えるように制御すると同時に、「ハーフバックスイング」サブモーション(P3)に対するサブモーションボタンが右側から登場するように表示を制御してよい。ユーザが第2点線枠430の領域を左側にドラッグし続ける場合、ユーザ端末320は、「トップオブスイング」サブモーション(P4)、「ダウンスイング」サブモーション(P5)、「インパクト」サブモーション(P6)、「フォロースルー」サブモーション(P7)、および「フィニッシュ」サブモーション(P8)それぞれのためのサブモーションボタンが第2点線枠430の領域に順に登場するように表示を制御してよい。 In the embodiment of FIG. 4, the second dotted frame 430 shows an example in which the sub-motion button for the "address" sub-motion (P1) and the sub-motion button for the "take back" sub-motion (P2) are displayed among the eight sub-motion buttons. Although not shown in FIG. 4, the eight sub-motion buttons may be listed in order, and the display position can be changed by the user's drag gesture. As an example, when the user drags the area of the second dotted frame 430 to the left, the user terminal 320 may control the sub-motion button for the "address" sub-motion (P1) to disappear to the left, and at the same time, control the display of the sub-motion button for the "half back swing" sub-motion (P3) to appear from the right side. If the user continues to drag the area of the second dotted frame 430 to the left, the user terminal 320 may control the display so that submotion buttons for each of the "top of swing" submotion (P4), "downswing" submotion (P5), "impact" submotion (P6), "follow-through" submotion (P7), and "finish" submotion (P8) appear in sequence in the area of the second dotted frame 430.

ユーザが特定のサブモーションボタンを選択(一例として、タッチスクリーン環境でサブモーションボタンが表示された領域を指やタッチツールを利用してタッチ)する場合、ユーザ端末320は、選択されたサブモーションボタンに該当するサブモーションを第1点線枠420のビューアによって再生してよい。したがって、ユーザは、モーションのサブモーションごとにモーションの再生を制御することが可能となる。 When the user selects a particular sub-motion button (for example, by touching an area where the sub-motion button is displayed using a finger or a touch tool in a touch screen environment), the user terminal 320 may play the sub-motion corresponding to the selected sub-motion button using the viewer in the first dotted frame 420. Thus, the user can control the playback of the motion for each sub-motion of the motion.

また、ユーザ端末320は、複数のサブモーションボタンのうちで予め設定された表示位置に位置するサブモーションボタンに対応するサブモーションを再生してよい。このとき、第2点線枠430の領域にユーザのドラッグジェスチャーが入力されると、ユーザ端末320は、入力されたドラッグジェスチャーの方向および速度に基づいて再生中のサブモーションの再生方向および再生速度を決定してよい。例えば、図4において、ユーザが「アドレス」サブモーション(P1)に対するサブモーションボタンを左側にドラッグする場合、ユーザ端末320は、「アドレス」サブモーション(P1)を正方向に再生してよい。これとは逆に、ユーザが「アドレス」サブモーション(P1)に対するサブモーションボタンを右側にドラッグする場合、ユーザ端末320は、「アドレス」サブモーション(P1)を逆方向に再生してよい。このとき、再生速度は、ユーザのドラッグ速度によって決定されてよい。 The user terminal 320 may also play a submotion corresponding to a submotion button located at a preset display position among the multiple submotion buttons. At this time, when a user's drag gesture is input in the area of the second dotted frame 430, the user terminal 320 may determine the playback direction and playback speed of the submotion being played based on the direction and speed of the input drag gesture. For example, in FIG. 4, when the user drags the submotion button for the "address" submotion (P1) to the left, the user terminal 320 may play the "address" submotion (P1) in the forward direction. Conversely, when the user drags the submotion button for the "address" submotion (P1) to the right, the user terminal 320 may play the "address" submotion (P1) in the reverse direction. At this time, the playback speed may be determined by the user's dragging speed.

また、ページ410は、レッスンポイントグラフィックの表示状態を制御するためのユーザインタフェース440と、ARサービスへの移動のためのユーザインタフェース450を含んでよい。このようなユーザインタフェース440、450については、以下でより詳しく説明する。 The page 410 may also include a user interface 440 for controlling the display state of the lesson point graphic and a user interface 450 for navigating to an AR service. Such user interfaces 440, 450 are described in more detail below.

再生ボタン460は、客体の全体モーション(図4の実施形態では「アイアンフルスイング」モーション)をサブモーションの段階別に再生するためのユーザインタフェースであってよい。ユーザが再生ボタン460を選択する場合、ユーザ端末320は、「アドレス」サブモーション(P1)、「テイクバック」サブモーション(P2)、「ハーフバックスイング」サブモーション(P3)、「トップオブスイング」サブモーション(P4)、「ダウンスイング」サブモーション(P5)、「インパクト」サブモーション(P6)、「フォロースルー」サブモーション(P7)、および「フィニッシュ」サブモーション(P8)の8つのサブモーションを第1点線枠420のビューアによって順に再生しながら「アイアンフルスイング」モーションを再生してよい。 The play button 460 may be a user interface for playing the entire motion of the object (the "iron full swing" motion in the embodiment of FIG. 4) by sub-motion stage. When the user selects the play button 460, the user terminal 320 may play the "iron full swing" motion by playing the eight sub-motions, namely, the "address" sub-motion (P1), the "take back" sub-motion (P2), the "half back swing" sub-motion (P3), the "top of swing" sub-motion (P4), the "down swing" sub-motion (P5), the "impact" sub-motion (P6), the "follow through" sub-motion (P7), and the "finish" sub-motion (P8), in order through the viewer of the first dotted frame 420.

図5および図6は、本発明の一実施形態における、モーションを再生する過程の例を示した図である。図5のページ510は、図4のページ410でユーザが再生ボタン460を選択した場合に提供されてよい。図5の実施形態では、再生ボタン460が選択されることによって、ユーザ端末320が、第1点線枠520とともに、モーションの再生の停止状態で再生速度を調節するための再生速度調節機能と再生のリフレッシュ機能を提供する例を示している。一例として、ユーザは、再生速度調節機能を利用してモーションの再生速度を制御してよく、リフレッシュ機能を利用してモーションが最初から再生されるように制御してよい。 FIGS. 5 and 6 are diagrams illustrating an example of a process of playing a motion in an embodiment of the present invention. Page 510 of FIG. 5 may be provided when a user selects play button 460 on page 410 of FIG. 4. In the embodiment of FIG. 5, an example is shown in which, when play button 460 is selected, user terminal 320 provides a first dotted frame 520 as well as a playback speed adjustment function for adjusting the playback speed when playback of the motion is stopped and a playback refresh function. As an example, a user may use the playback speed adjustment function to control the playback speed of the motion, and may use the refresh function to control the motion to be played from the beginning.

現在再生中のサブモーションのサブモーションボタンは、他のボタンとは異なるように強調されてよい。図5の実施形態では、「アドレス」サブモーション(P1)のためのサブモーションボタン530の枠が強調して表示された例を示している。ボタンの強調がより多様になされてもよいことは容易に理解することができるであろう。例えば、ボタンの内部を他のボタンとは異なる色で満たすことによって特定のボタンを強調してもよい。 The submotion button for the currently playing submotion may be highlighted differently from the other buttons. In the embodiment of FIG. 5, an example is shown in which the frame of the submotion button 530 for the "address" submotion (P1) is highlighted. It will be readily apparent that the buttons may be highlighted in a more diverse manner. For example, a particular button may be highlighted by filling the inside of the button with a color different from the other buttons.

一方、それぞれのサブモーションに関する情報(サブモーション情報)は、ビューアによって再生されるサブモーションに関する映像情報の他にも、テキスト情報および/または音声情報をさらに含んでよい。図5の実施形態では、「アドレス」サブモーション(P1)の再生中に、第2点線枠540の領域に「アドレス」サブモーション(P1)に対応するテキスト情報が表示された例を示している。テキスト情報は、テキストの長さによる制約を減らすために一定の単位(単語、行、句など)であってよく、第2点線枠540の領域において表示されたり除去されたりしてよい。また、ページ510は、音声情報の提供を制御するための機能550を提供してよい。音声情報は、テキスト情報の内容をTTS(Text-To-Speech)機能によって変換した音声情報を含んでよく、ユーザ端末320は、機能550がアクティブ化されることによってスピーカから音声情報を出力してよい。 Meanwhile, the information on each submotion (submotion information) may further include text information and/or audio information in addition to the video information on the submotion played by the viewer. In the embodiment of FIG. 5, an example is shown in which text information corresponding to the "Address" submotion (P1) is displayed in the area of the second dotted frame 540 during playback of the "Address" submotion (P1). The text information may be a certain unit (word, line, phrase, etc.) to reduce the constraint due to the length of the text, and may be displayed or removed in the area of the second dotted frame 540. The page 510 may also provide a function 550 for controlling the provision of audio information. The audio information may include audio information obtained by converting the contents of the text information using a TTS (Text-To-Speech) function, and the user terminal 320 may output the audio information from the speaker by activating the function 550.

また、ユーザ端末320は、ページ510のビューアを利用してサブモーションを再生しながら、客体の特定のポイントと関連する詳細情報を提供するためのアノテーションボタン560を表示してよい。ユーザ端末320は、アノテーションボタン560を客体の特定のポイントの位置に表示してよく、サブモーションの再生によって客体の特定のポイントの位置が移動することに伴って、アノテーションボタン560の表示位置も、移動した特定のポイントの位置に移動させてよい。このとき、ユーザがアノテーションボタン560を選択する場合、ユーザ端末320は、サブモーションを変更して詳細情報を提供してよい。サブモーションごとに少なくとも1つのアノテーションボタンが予め設定されていてよい。 Furthermore, the user terminal 320 may display an annotation button 560 for providing detailed information related to a specific point of the object while playing the submotion using the viewer of the page 510. The user terminal 320 may display the annotation button 560 at the position of the specific point of the object, and as the position of the specific point of the object moves as the submotion is played, the display position of the annotation button 560 may also move to the position of the moved specific point. In this case, when the user selects the annotation button 560, the user terminal 320 may change the submotion and provide detailed information. At least one annotation button may be preset for each submotion.

図6の実施形態において、ユーザ端末320は、ページ610で「アイアンフルスイング」モーションを、デフォルト再生速度または再生速度調節機能によって選択された再生速度でサブモーションごとに再生する例を示している。このとき、図6の実施形態は、「フォロースルー」サブモーション(P7)を再生しながら、「フォロースルー」サブモーション(P7)に対して設定されたアノテーションボタン620を表示する例を示している。また、ページ610の再生ボタン630は、ページ410の再生ボタン460とは異なる形態であって、モーションが現在再生中であることを示している。このとき、現在再生中のサブモーションのサブモーションボタンが特定の位置に配置されるようにサブモーションボタンの位置が変更されてよい。図6は、特定の位置が図6で再生ボタン630の次の右側の位置である例を示している。 In the embodiment of FIG. 6, the user terminal 320 shows an example of playing back the "Iron Full Swing" motion on page 610 for each submotion at a default playback speed or a playback speed selected by the playback speed adjustment function. At this time, the embodiment of FIG. 6 shows an example of displaying an annotation button 620 set for the "Follow Through" submotion (P7) while playing the "Follow Through" submotion (P7). Also, the play button 630 on page 610 has a different form from the play button 460 on page 410, and indicates that the motion is currently being played. At this time, the position of the submotion button may be changed so that the submotion button of the currently played submotion is located at a specific position. FIG. 6 shows an example where the specific position is the position next to the right of the play button 630 in FIG. 6.

図7~図9は、本発明の一実施形態における、フリックの例を示した図である。図7は、モーションが再生中の状態で、ユーザが特定のサブモーションボタンをフリック(一例として、指でタッチしてドラッグ)する場合の例を示している。この場合、ユーザ端末320は、既存のモーションの再生を一時停止してよい。図7は、一時停止のための停止ボタン710の様子を示している。フリック(ドラッグ)の方向および速度によって対応するサブモーションの再生方向および再生速度の調節が可能であることは、上述したとおりである。 FIGS. 7 to 9 are diagrams showing examples of flicks in one embodiment of the present invention. FIG. 7 shows an example in which a user flicks (for example, touches and drags a finger) a specific sub-motion button while a motion is being played. In this case, the user terminal 320 may pause the playback of the existing motion. FIG. 7 shows a stop button 710 for pausing. As described above, the playback direction and playback speed of the corresponding sub-motion can be adjusted depending on the direction and speed of the flick (drag).

図8は、ユーザが特定のサブモーションボタンを選択した場合の例を示している。この場合、ユーザ端末320は、選択されたサブモーションボタンを強調して表示してよく、選択されたサブモーションボタンのサブモーション情報を出力してよい。上述したように、サブモーションボタンのサブモーション情報を再生することは、少なくとも、対応するサブモーションをビューアによって再生することを含んでよく、テキスト情報および/または音声情報を出力することをさらに含んでよい。ユーザが特定のサブモーションボタンを再びフリックする場合、図7のように、フリックの方向および速度によって対応するサブモーションの再生方向および再生速度が調節された状態でサブモーションが再生されてよい。 Figure 8 shows an example where the user selects a specific sub-motion button. In this case, the user terminal 320 may highlight the selected sub-motion button and output sub-motion information of the selected sub-motion button. As described above, playing the sub-motion information of the sub-motion button may include at least playing the corresponding sub-motion by a viewer, and may further include outputting text information and/or audio information. When the user flicks the specific sub-motion button again, the sub-motion may be played with the playback direction and playback speed of the corresponding sub-motion adjusted according to the direction and speed of the flick, as in Figure 7.

図9は、ユーザが停止ボタン910を押す場合、再生速度調節機能とリフレッシュ機能を提供する例を示している。この場合、図7で一時停止となったモーションが、停止となった区間から順に再生されてよい。 Figure 9 shows an example in which a playback speed adjustment function and a refresh function are provided when a user presses the stop button 910. In this case, the motion paused in Figure 7 may be played back in sequence from the section where it was stopped.

図10は、本発明の一実施形態における、レッスンポイントグラフィックの表示を制御するためのユーザインタフェースの例を示した図である。図10は、モーションの再生中に第1点線枠1010のユーザインタフェースをユーザが選択することにより、第2点線枠1020の客体にスケルトンを表示する例を示している。スケルトンは、客体上の少なくとも2つのポイントと2つのポイントを連結するリンクを含むアノテーションガイドの一種であってよい。この場合、モーションの再生は一時停止が可能であり、第1点線枠1010のユーザインタフェースが再び選択される場合、モーションは再生されてよい。 FIG. 10 is a diagram showing an example of a user interface for controlling the display of a lesson point graphic in one embodiment of the present invention. FIG. 10 shows an example in which a skeleton is displayed on an object in a second dotted frame 1020 by a user selecting the user interface in a first dotted frame 1010 during playback of a motion. The skeleton may be a type of annotation guide that includes at least two points on an object and a link connecting the two points. In this case, playback of the motion can be paused, and when the user interface in the first dotted frame 1010 is selected again, the motion may be played.

図11は、本発明の一実施形態における、特定のサブモーションに対するレッスンポイントグラフィックを表示する例を示した図である。特定のサブモーションが再生中の場合、ユーザ端末320は、当該サブモーションに対して予め設定されたレッスンポイントグラフィックであるアノテーションガイドを表示してよい。 Figure 11 is a diagram showing an example of displaying a lesson point graphic for a specific submotion in one embodiment of the present invention. When a specific submotion is being played, the user terminal 320 may display an annotation guide, which is a lesson point graphic that has been preset for that submotion.

図12は、本発明の一実施形態における、アノテーションボタンの例を示した図である。上述したように、複数のサブモーションそれぞれに対してアノテーションボタンが設定されてよい。このようなアノテーションボタンは、該当となるサブモーションに関する詳細情報の提供のために使用されてよい。図12の実施形態では、第1点線枠1210のアノテーションボタンをユーザが選択する場合、ユーザ端末320は、第2点線枠1220とともに、当該サブモーションの詳細情報を提供する例を示している。アノテーションボタンは、客体の特定のポイントと連携して表示されてよく、詳細情報は、この特定のポイントと関連する詳細情報であってよい。第3点線枠1230のボタンは、アノテーションボタンが選択される前のプロセスに戻すためのユーザインタフェースであってよい。例えば、戻るボタンが選択される場合、ユーザ端末320は、アノテーションボタンが選択される前に再生されていたサブモーションの続きを再生してよい。 FIG. 12 is a diagram showing an example of an annotation button in an embodiment of the present invention. As described above, an annotation button may be set for each of a plurality of submotions. Such an annotation button may be used to provide detailed information about the corresponding submotion. In the embodiment of FIG. 12, when a user selects the annotation button in the first dotted frame 1210, the user terminal 320 provides detailed information about the submotion together with the second dotted frame 1220. The annotation button may be displayed in association with a specific point of the object, and the detailed information may be detailed information related to the specific point. The button in the third dotted frame 1230 may be a user interface for returning to a process before the annotation button was selected. For example, when the back button is selected, the user terminal 320 may play the rest of the submotion that was being played before the annotation button was selected.

図13は、本発明の一実施形態における、全体サブモーションのリストを提供する例を示した図である。図13の実施形態では、ユーザが第1点線枠1310の領域をタッチして上方向にドラッグすることにより、第2点線枠1320のようにサブモーションリストが提供される例を示している。このとき、ユーザがサブモーションリストから第3点線枠1330のような特定のサブモーションを選択する場合、ユーザ端末320は、選択されたサブモーションを再生してよい。 Figure 13 is a diagram showing an example of providing a list of all submotions in one embodiment of the present invention. In the embodiment of Figure 13, an example is shown in which a submotion list is provided as shown in the second dotted line frame 1320 when the user touches the area of the first dotted line frame 1310 and drags it upward. At this time, if the user selects a specific submotion from the submotion list as shown in the third dotted line frame 1330, the user terminal 320 may play the selected submotion.

図14は、本発明の一実施形態における、ビューア拡張の例を示した図である。図14は、ユーザが第1点線枠1410の領域を選択することにより、ビューアが第2点線枠1420の領域に拡張された例を示している。ユーザが第2点線枠1420の領域を選択すれば、ビューアは第1点線枠1410の領域に縮小する。再生中のモーションおよび/または出力中の音声ガイドは、そのまま再生および/または出力されてよい。 Figure 14 is a diagram showing an example of viewer expansion in one embodiment of the present invention. Figure 14 shows an example in which the viewer is expanded to the area of the second dotted frame 1420 by the user selecting the area of the first dotted frame 1410. If the user selects the area of the second dotted frame 1420, the viewer shrinks to the area of the first dotted frame 1410. Motion being played and/or audio guidance being output may be played and/or output as is.

図15は、本発明の一実施形態における、サーバの情報提供方法の例を示したフローチャートである。本実施形態に係る情報提供方法は、サーバ310を実現するコンピュータ装置200によって実行されてよい。このとき、コンピュータ装置200のプロセッサ220は、メモリ210が含むオペレーティングシステムのコードと、少なくとも1つのコンピュータプログラムのコードとによる制御命令(instruction)を実行するように実現されてよい。ここで、プロセッサ220は、コンピュータ装置200に記録されたコードが提供する制御命令に従ってコンピュータ装置200が図15の方法に含まれる段階1510~段階1540を実行するようにコンピュータ装置200を制御してよい。 Figure 15 is a flowchart showing an example of a server information provision method according to an embodiment of the present invention. The information provision method according to this embodiment may be executed by a computer device 200 that realizes the server 310. In this case, the processor 220 of the computer device 200 may be realized to execute control instructions according to the operating system code and at least one computer program code contained in the memory 210. Here, the processor 220 may control the computer device 200 so that the computer device 200 executes steps 1510 to 1540 included in the method of Figure 15 according to the control instructions provided by the code recorded in the computer device 200.

段階1510において、コンピュータ装置200は、ユーザの端末から検索語を受信してよい。ここで、ユーザの端末は、上述したユーザ端末320に対応してよい。上述したように、サーバ310はユーザ端末320に検索サービスを提供してよく、ユーザ端末320はこのような検索サービスを利用してサーバ310に検索語を送信してよい。 At step 1510, the computer device 200 may receive a search term from a user's terminal. Here, the user's terminal may correspond to the user terminal 320 described above. As described above, the server 310 may provide a search service to the user terminal 320, and the user terminal 320 may use such a search service to send the search term to the server 310.

段階1520において、コンピュータ装置200は、受信した検索語が、任意の主題に対応して予め設定されたインタラクション検索語を含む場合、インタラクション検索語に対応する検索結果およびユーザとのインタラクションによって主題と関連する情報を提供するインタラクション機能を含む検索結果ページを生成してよい。一例として、コンピュータ装置200は、検索サービスとして、ユーザからの検索語に対する検索結果が表示される領域だけでなく、インタラクション機能を提供するための領域をさらに含ませて検索結果ページを生成してよい。 In step 1520, if the received search term includes a preset interaction search term corresponding to a given subject, the computer device 200 may generate a search result page including search results corresponding to the interaction search term and an interaction function for providing information related to the subject through interaction with the user. As an example, the computer device 200 may generate a search result page as a search service that includes not only an area for displaying search results for the search term from the user, but also an area for providing an interaction function.

段階1530において、コンピュータ装置200は、生成された検索結果ページをユーザの端末に提供してよい。ユーザの端末は、このような検索結果ページに含まれるインタラクション機能を利用して、インタラクション検索語に対応する主題に関する情報を、ユーザとのインタラクションによってユーザに提供してよい。 In step 1530, the computer device 200 may provide the generated search result page to the user's terminal. The user's terminal may utilize an interaction function included in such a search result page to provide the user with information on the subject corresponding to the interaction search term by interacting with the user.

段階1540において、コンピュータ装置200は、ユーザの端末からの検索結果ページまたはインタラクション機能を利用した要請に従って、インタラクション機能のための個別のページをユーザの端末に提供してよい。一例として、図3の第3点線枠360を参照しながら、サブモーション情報を提供するためのページへのリンクを提供する例について説明した。ユーザの端末は、サブモーション情報を提供するためのページを通じてサブモーションごとに詳細な客体のモーションを再生してよく、各サブモーションの情報を出力してよい。実施形態によって、インタラクション機能のための個別のページは、ユーザとのインタラクションによって多様な情報を提供するページであってよい。一例として、インタラクション機能を提供する別途のページは、ユーザの音声および/またはテキストを基盤としたクエリの入力を受けて、クエリに対する主題と関連する応答を提供するための質疑応答インタフェースを含んでよい。この場合、応答は、客体のモーションを分離した複数のサブモーションのうちの1つを含むか、クエリに基づいて検索された文書の内容を人工知能によって分析して生成した結果を含んでよい。人工知能を利用して検索結果を分析した結果を提供する例については、図17~図20を参照しながらより詳しく説明する。 In step 1540, the computer device 200 may provide a separate page for the interaction function to the user's terminal according to a search result page or a request using the interaction function from the user's terminal. As an example, an example of providing a link to a page for providing sub-motion information has been described with reference to the third dotted frame 360 of FIG. 3. The user's terminal may play detailed object motions for each sub-motion through the page for providing sub-motion information and output information for each sub-motion. According to an embodiment, the separate page for the interaction function may be a page that provides various information through interaction with the user. As an example, the separate page providing the interaction function may include a question and answer interface for receiving a query based on a user's voice and/or text and providing a response related to the subject of the query. In this case, the response may include one of a plurality of sub-motions obtained by separating the motion of the object, or may include a result generated by analyzing the contents of the document searched based on the query using artificial intelligence. An example of providing a result of analyzing search results using artificial intelligence will be described in more detail with reference to FIGS. 17 to 20.

図16は、本発明の一実施形態における、ユーザ端末の情報提供方法の例を示したフローチャートである。本実施形態に係る情報提供方法は、ユーザ端末320を実現するコンピュータ装置200によって実行されてよい。このとき、コンピュータ装置200のプロセッサ220は、メモリ210が含むオペレーティングシステムのコードと、少なくとも1つのコンピュータプログラムのコードとによる制御命令(instruction)を実行するように実現されてよい。ここで、プロセッサ220は、コンピュータ装置200に記録されたコードが提供する制御命令に従ってコンピュータ装置200が図16の方法に含まれる段階1610、1620を実行するようにコンピュータ装置200を制御してよい。 Figure 16 is a flowchart showing an example of an information provision method for a user terminal in one embodiment of the present invention. The information provision method according to this embodiment may be executed by a computer device 200 that realizes a user terminal 320. In this case, the processor 220 of the computer device 200 may be implemented to execute control instructions from the operating system code and at least one computer program code contained in the memory 210. Here, the processor 220 may control the computer device 200 to execute steps 1610 and 1620 included in the method of Figure 16 according to the control instructions provided by the code recorded in the computer device 200.

段階1610において、コンピュータ装置200は、入力される検索語に基づいて検索結果を提供するための検索インタフェースを提供してよい。一例として、コンピュータ装置200は、コンピュータ装置200においてインストールされて実行されたアプリケーションを通じて検索インタフェースを提供してよい。このようなアプリケーションは、一例として、サーバ310が提供するサービスと連携するコンピュータプログラムであってよい。 In step 1610, the computer device 200 may provide a search interface for providing search results based on the input search term. As an example, the computer device 200 may provide the search interface through an application installed and executed on the computer device 200. As an example, such an application may be a computer program that cooperates with a service provided by the server 310.

段階1620において、コンピュータ装置200は、検索インタフェースに入力された検索語が、任意の主題に対応して予め設定されたインタラクション検索語を含む場合、インタラクション検索語に対する応答として、ユーザとのインタラクションによって主題と関連する情報を提供するインタラクション機能を提供してよい。実施形態によって、インタラクション機能は、インタラクション検索語に対応する検索結果ページに含まれて提供されてもよいし、インタラクション機能のための個別のページに含まれて提供されてもよい。 In step 1620, the computer device 200 may provide an interaction function that provides information related to the subject through interaction with the user in response to the interaction search term when the search term entered in the search interface includes a preset interaction search term corresponding to a given subject. Depending on the embodiment, the interaction function may be provided by being included in a search result page corresponding to the interaction search term, or may be provided by being included in a separate page for the interaction function.

このような段階1620は、実施形態によって、図16に示すように段階1621、段階1622を含んでよい。 Depending on the embodiment, such step 1620 may include steps 1621 and 1622 as shown in FIG. 16.

段階1621において、コンピュータ装置200は、インタラクション機能に含まれるビューアを利用して主題と関連する客体を表示してよい。客体のモーションは、一例として、人間のように実存する客体に対するモーションの場合にはモーションをキャプチャして生成されてよいが、実存しない客体やモーションキャプチャが困難な客体に対しては3Dモデリングによって生成されてよい。このとき、各モーションに対して、サブモーションと、各サブモーションの詳細情報などが予め生成されてよい。生成された各モーションに関する情報は、サーバを経てコンピュータ装置200に提供されてよい。 In step 1621, the computer device 200 may display an object related to the subject using a viewer included in the interaction function. For example, the motion of the object may be generated by capturing the motion in the case of a motion for an object that exists, such as a human, and may be generated by 3D modeling for a non-existent object or an object for which motion capture is difficult. In this case, sub-motions and detailed information of each sub-motion may be generated in advance for each motion. Information regarding each generated motion may be provided to the computer device 200 via a server.

段階1622において、コンピュータ装置200は、ユーザとのインタラクションによって、ビューアに表示される客体のビューまたは客体のモーションを制御してよい。一実施形態として、コンピュータ装置200は、ビューアに表示された客体に対するユーザの入力に従って客体を回転させてビューを制御してもよいし、上述したサブモーション選択インタフェースを利用して客体のモーションを制御してもよい。客体のモーションを制御するためのより具体的な例として、コンピュータ装置200は、客体のモーションを分離した複数のサブモーションごとにサブモーション情報を提供してよい。この場合、サブモーションボタンのようにサブモーションを選択するためのインタフェースがユーザに提供されてよく、コンピュータ装置200は、複数のサブモーションボタンのうちから選択されたサブモーションボタンに対応するサブモーションが、ビューアを利用して再生されるようにしてよい。他の例として、コンピュータ装置200は、ユーザの音声またはテキストを基盤としたクエリの入力を受け、クエリに対する客体の特定のモーション(一例として、複数のサブモーションのうちの1つ)を再生する方式で客体のモーションを制御してもよい。 In step 1622, the computer device 200 may control the view of the object or the motion of the object displayed in the viewer according to an interaction with the user. As an embodiment, the computer device 200 may control the view by rotating the object according to a user's input for the object displayed in the viewer, or may control the motion of the object using the sub-motion selection interface described above. As a more specific example for controlling the motion of the object, the computer device 200 may provide sub-motion information for each of a plurality of sub-motions obtained by separating the motion of the object. In this case, an interface for selecting a sub-motion such as a sub-motion button may be provided to the user, and the computer device 200 may play a sub-motion corresponding to a sub-motion button selected from the plurality of sub-motion buttons using the viewer. As another example, the computer device 200 may control the motion of the object by receiving a query based on the user's voice or text and playing a specific motion of the object (for example, one of a plurality of sub-motions) for the query.

サブモーション情報は、対応するサブモーションに関する映像情報、音声情報、およびテキスト情報を含んでよい。この場合、コンピュータ装置200は、映像情報によって選択されたサブモーションを再生しながら、音声情報および/またはテキスト情報を出力してよい。 The submotion information may include video information, audio information, and text information related to the corresponding submotion. In this case, the computer device 200 may output the audio information and/or the text information while playing the submotion selected by the video information.

また、実施形態によって、複数のサブモーションボタンは順に羅列され、複数のサブモーションボタンに対して入力されるドラッグジェスチャーに従って表示位置が変更されるようにしてよい。この場合、コンピュータ装置200は、複数のサブモーションボタンのうちで予め設定された表示位置のサブモーションボタンに対応するサブモーションを再生するが、ドラッグジェスチャーの方向および速度に基づいて再生中のサブモーションの再生方向および再生速度を決定してよい。 Also, depending on the embodiment, the multiple sub-motion buttons may be arranged in order, and the display positions may be changed according to a drag gesture input to the multiple sub-motion buttons. In this case, the computer device 200 plays a sub-motion corresponding to a sub-motion button at a preset display position among the multiple sub-motion buttons, and may determine the playback direction and playback speed of the sub-motion being played based on the direction and speed of the drag gesture.

また、実施形態によって、コンピュータ装置200は、客体の特定のポイントと関連する詳細情報を提供するためのアノテーションボタンを、特定のポイントの位置に表示してよい。このとき、コンピュータ装置200は、サブモーションの再生に伴って客体の特定のポイントの位置が移動することによってアノテーションボタンの表示位置を移動させてよい。アノテーションボタンが選択される場合、コンピュータ装置200は、サブモーションを変更して詳細情報を提供してよい。 In addition, according to an embodiment, the computer device 200 may display an annotation button at the position of a specific point of an object to provide detailed information related to the specific point. In this case, the computer device 200 may move the display position of the annotation button as the position of the specific point of the object moves with the playback of the submotion. When the annotation button is selected, the computer device 200 may change the submotion to provide detailed information.

また、実施形態によって、コンピュータ装置200は、客体上の少なくとも2つのポイントと2つのポイントを連結するリンクを含むアノテーションガイドを表示してよい。実施形態によって、客体は3次元人体モデルを含んでよく、少なくとも2つのポイントは3次元人体モデルの関節位置に対応してよい。 In addition, according to an embodiment, the computer device 200 may display an annotation guide including at least two points on the object and a link connecting the two points. According to an embodiment, the object may include a 3D human body model, and the at least two points may correspond to joint positions of the 3D human body model.

また、実施形態によって、コンピュータ装置200は、客体のモーションに対する再生速度を調節するための機能を提供してよい。また、コンピュータ装置200は、コンピュータ装置200に含まれるカメラにリアルタイムで入力される映像を背景として客体のモーションを再生するためのAR(Augmented Reality)機能を提供してよい。 In addition, according to an embodiment, the computer device 200 may provide a function for adjusting a playback speed for the motion of an object. In addition, the computer device 200 may provide an AR (Augmented Reality) function for playing back the motion of an object against a background of an image input in real time to a camera included in the computer device 200.

また、実施形態によって、コンピュータ装置200は、インタラクション機能によってユーザの音声および/またはテキストを基盤としたクエリの入力を受け、クエリに対する主題と関連する応答を提供するための質疑応答インタフェースを提供してよい。この場合、応答は、客体のモーションを分離した複数のサブモーションのうちの1つを含んでもよいし、クエリに基づいて検索された文書の内容を人工知能によって分析して生成された結果を含んでもよい。このような人工知能によって分析して生成された結果を提供する実施形態については、図17~図20を参照しながらさらに詳しく説明する。 In addition, according to an embodiment, the computer device 200 may provide a question and answer interface for receiving a user's voice and/or text-based query input through an interaction function and providing a response related to the subject of the query. In this case, the response may include one of a plurality of sub-motions obtained by separating the motion of an object, or may include a result generated by analyzing the contents of a document searched based on the query using artificial intelligence. Such an embodiment for providing a result generated by analyzing using artificial intelligence will be described in more detail with reference to FIGS. 17 to 20.

上述した実施形態では、人間がゴルフをするモーションを例に挙げて説明したが、モーションは多様であってよく、客体も多様であってよい。例えば、主題「恐竜」に関する情報を提供するために、恐竜客体とのユーザインタラクションによって恐竜と関連する情報を提供することも可能である。 In the above embodiment, the motion of a human playing golf is used as an example, but the motions may be diverse and the objects may also be diverse. For example, to provide information on the theme "dinosaurs," it is possible to provide information related to dinosaurs through user interaction with a dinosaur object.

図17~図19は、本発明の一実施形態における、インタラクション機能を利用してインタラクション検索語に対応する主題と関連する情報を提供する例を示した図である。 Figures 17 to 19 show an example of using the interaction feature to provide information related to a subject that corresponds to an interaction search term in one embodiment of the present invention.

図17は、検索結果ページ1710を示している。例えば、ユーザ端末320から伝達されるモーション検索語「ティラノサウルス」に基づいて、サーバ310は、モーション検索語「ティラノサウルス」に対する検索結果と、恐竜客体のモーションを再生するためのビューアが含まれる検索結果ページ1710を生成してユーザ端末320に送信してよい。ビューアは、第1点線枠1720に示されている。また、検索結果ページ1710および/またはビューアは、インタラクション機能を提供するためのページへのリンク1730、1740、1750を含んでよい。 FIG. 17 shows a search result page 1710. For example, based on the motion search term "Tyrannosaurus" transmitted from the user terminal 320, the server 310 may generate a search result page 1710 including search results for the motion search term "Tyrannosaurus" and a viewer for playing the motion of the dinosaur object, and transmit the search result page 1710 to the user terminal 320. The viewer is shown in a first dotted frame 1720. In addition, the search result page 1710 and/or the viewer may include links 1730, 1740, 1750 to pages for providing interaction functions.

図18は、検索結果ページ1710でリンク1730を選択することによって提供されるインタラクション機能を提供するためのページ1810の例を示している。このとき、ページ1810は、第1点線枠1820に示すように、客体を表示するためのビューアを含んでよい。このようなビューアを利用して、ユーザとのインタラクションによって客体のビューやモーションが制御されてよい。また、ページ1810は、第2点線枠1830に示すように、ユーザの音声および/またはテキストを基盤としたクエリを入力するためのユーザインタフェース1820を含んでよい。一例として、ユーザが第2点線枠1830の領域を選択する場合、ユーザ端末320はキーパッドをユーザに提供してよく、ユーザは提供されたキーパッドを利用してテキストを基盤としたクエリを入力してよい。また、ユーザ端末320は、第3点線枠1840に示すようにテキスト表示領域を含んでよい。テキスト表示領域にはクエリのサンプルが表示されてよく、ユーザは表示されたクエリのサンプルのうちからクエリを選択してよい。また、テキスト表示領域には、音声情報に関するテキスト情報、参照資料、検索、および返答履歴などがさらに表示されてよい。一方、テキスト表示領域に表示されるテキストの大きさは、テキスト表示領域に表示される情報量によって自動で調節されてよい。言い換えれば、ユーザ端末320は、テキスト表示領域に表示される情報の量によってテキストの大きさを自動で調節してよい。 FIG. 18 illustrates an example of a page 1810 for providing an interaction function provided by selecting a link 1730 on the search result page 1710. In this case, the page 1810 may include a viewer for displaying an object, as shown in a first dotted frame 1820. Using the viewer, the view and motion of the object may be controlled by user interaction. The page 1810 may also include a user interface 1820 for inputting a user's voice and/or text-based query, as shown in a second dotted frame 1830. As an example, when a user selects the area of the second dotted frame 1830, the user terminal 320 may provide a keypad to the user, and the user may input a text-based query using the provided keypad. The user terminal 320 may also include a text display area, as shown in a third dotted frame 1840. Sample queries may be displayed in the text display area, and the user may select a query from the displayed sample queries. In addition, the text display area may further display text information related to the voice information, reference materials, search, and response history. Meanwhile, the size of the text displayed in the text display area may be automatically adjusted depending on the amount of information displayed in the text display area. In other words, the user terminal 320 may automatically adjust the size of the text depending on the amount of information displayed in the text display area.

図19は、図17でリンク1740を選択したり、図18で第2点線枠1830の領域にクエリ「走れ」を入力したり、図18で第3点線枠1840の領域からクエリ「走って」を選択することによる応答を提示した例を示している。図19のページ1910は、第1点線枠1920に示すように、客体のモーションまたはサブモーションを再生するためのビューアを含んでよい。このとき、ビューアでは、クエリ「走って」に対応するサブモーションが再生されてよい。また、このようなサブモーションに対応するテキスト情報および/または音声情報が出力されてよい。第2点線枠1930は、テキスト情報が出力された例を示している。また、第3点線枠1940は、既に使用されたクエリ「走って」を強調して表示した例を示している。 19 shows an example of a response presented by selecting link 1740 in FIG. 17, inputting the query "run" in the area of the second dotted line box 1830 in FIG. 18, or selecting the query "run" from the area of the third dotted line box 1840 in FIG. 18. Page 1910 in FIG. 19 may include a viewer for playing a motion or submotion of an object as shown in the first dotted line box 1920. In this case, the viewer may play a submotion corresponding to the query "run". Also, text information and/or audio information corresponding to such a submotion may be output. The second dotted line box 1930 shows an example of the text information being output. Also, the third dotted line box 1940 shows an example of the query "run" that has already been used being highlighted.

このように、ユーザ端末320は、複数のサブモーションのうちからユーザの音声および/またはテキストを基盤としたクエリ入力に対応するサブモーションを応答として選択するためのインタフェースをサブモーション選択インタフェースとして提供することができる。 In this manner, the user terminal 320 may provide a submotion selection interface as an interface for selecting a submotion corresponding to a user's voice and/or text-based query input from among a plurality of submotions as a response.

このとき、クエリは極めて多様であるため、入力されたクエリに対応するサブモーションが存在しない場合、ユーザ端末320は、該当となるサブモーションが存在しないことに関する情報を出力してよい。例えば、クエリ「ジャンプ」に対応する恐竜客体のサブモーションがない場合、「ジャンプはできません」、「私には難解な質問です」、「ジャンプはお見せできません」などのように、このサブモーションや応答は不可であることに関する情報を出力してよい。 At this time, since queries are extremely diverse, if there is no submotion corresponding to the input query, the user terminal 320 may output information regarding the absence of a corresponding submotion. For example, if there is no submotion of a dinosaur object corresponding to the query "jump", information regarding the impossibility of this submotion or response may be output, such as "You can't jump", "That's a difficult question for me", or "I can't show you the jump".

一方、ユーザからのクエリに従って客体の大きさや位置、動作、ビュー角度などを変更して客体のサブモーションを再生してもよい。例えば、上述したゴルフモーションの例においても、ユーザがクエリを入力するためのユーザインタフェースが提供された。この場合、このようなユーザからのクエリに従って、3次元人体客体の大きさや位置、動作、ビュー角度などを変更してモーションを再生してもよい。 Meanwhile, the size, position, movement, view angle, etc. of the object may be changed according to a query from the user, and the submotion of the object may be played. For example, in the golf motion example described above, a user interface is provided for the user to input a query. In this case, the size, position, movement, view angle, etc. of the three-dimensional human object may be changed according to such a query from the user, and the motion may be played.

また、ユーザからのクエリに対する応答は、該当となる客体と関連する検索によって得られるようにすることも可能である。 Responses to user queries can also be provided through searches related to the relevant objects.

図20は、本発明の一実施形態における、クエリに対する応答を提供する例を示した図である。図20の第1画面2010は、クエリ「恐竜滅亡時期」に対する応答を提供した例を示している。このとき、クエリに対する応答が検索によって得られた場合、応答は、第1点線枠2011のように参照資料に関する情報を提供してよい。図20は、ユーザが第1点線枠2011の領域を選択することによって、第2画面2020の第2点線枠2021のように参照資料に関する情報を提供した例を示している。このとき、参照資料に関する情報は、第3点線枠2022のように情報のソース文書に対するリンクを含んでよい。ユーザが第3点線枠2022の領域を選択する場合、第3画面2030のようにリンクアドレスのソース文書が提供されてよい。 20 is a diagram showing an example of providing a response to a query in an embodiment of the present invention. The first screen 2010 of FIG. 20 shows an example of providing a response to the query "when did the dinosaurs go extinct". In this case, if a response to the query is obtained by a search, the response may provide information about the reference material as shown in the first dotted box 2011. FIG. 20 shows an example of providing information about the reference material as shown in the second dotted box 2021 of the second screen 2020 by the user selecting the area of the first dotted box 2011. In this case, the information about the reference material may include a link to a source document of the information as shown in the third dotted box 2022. If the user selects the area of the third dotted box 2022, the source document of the link address may be provided as shown in the third screen 2030.

このように、本発明の実施形態によると、特定の主題に対応して予め設定されたインタラクション検索語に対する応答として主題と関連するインタラクション機能を提供し、ユーザとのインタラクションによって主題に関する情報を提供することができる。 Thus, according to an embodiment of the present invention, a subject-related interaction function is provided in response to a preset interaction search term corresponding to a particular subject, and information about the subject can be provided through interaction with a user.

上述した装置は、ハードウェア構成要素、またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)およびOS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを記録、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者であれば、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。 The above-mentioned devices may be realized by hardware components or a combination of hardware and software components. For example, the devices and components described in the embodiments may be realized using one or more general-purpose or special-purpose computers, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), a programmable logic unit (PLU), a microprocessor, or various devices capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications that run on the OS. The processing device may also respond to the execution of the software and access, record, manipulate, process, and generate data. For ease of understanding, the description may be given as if one processing device is used, but one skilled in the art will understand that the processing device may include multiple processing elements and/or multiple types of processing elements. For example, a processing unit may include multiple processors or one processor and one controller. Other processing configurations, such as parallel processors, are also possible.

ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、仮想装置(virtual equipmet)、コンピュータ記録媒体または装置に具現化されてよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で記録されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータ読み取り可能な記録媒体に記録されてよい。 The software may include computer programs, codes, instructions, or a combination of one or more of these, and may configure or instruct the processing device to operate as desired, either independently or collectively. The software and/or data may be embodied in any type of machine, component, physical device, virtual device, computer storage medium, or device to be interpreted based on the processing device or to provide instructions or data to the processing device. The software may be distributed and stored or executed in a distributed manner on computer systems connected by a network. The software and data may be stored on one or more computer-readable storage media.

実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータ読み取り可能な媒体に記録されてよい。コンピュータで読み取り可能な媒体は、プログラム命令、データファイル、データ構造などを単独でまたは組み合わせて含んでよい。媒体は、コンピュータ実行可能なプログラムを継続して記録するものであっても、実行またはダウンロードのために一時記録するものであってもよい。また、媒体は、単一または複数のハードウェアが結合した形態の多様な記録手段または格納手段であってよく、あるコンピュータシステムに直接接続する媒体に限定されることなく、ネットワーク上に分散して存在するものであってもよい。媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク、および磁気テープのような磁気媒体、CD-ROMおよびDVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、およびROM、RAM、フラッシュメモリなどを含み、プログラム命令が記録されるように構成されたものであってよい。また、媒体の他の例として、アプリケーションを配布するアプリケーションストアやその他の多様なソフトウェアを供給または配布するサイト、サーバなどで管理する記録媒体または格納媒体が挙げられる。プログラム命令の例は、コンパイラによって生成されるもののような機械語コードだけではなく、インタプリタなどを使用してコンピュータによって実行される高級言語コードを含む。 The method according to the embodiment may be realized in the form of program instructions executable by various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc., alone or in combination. The medium may be one that continuously records a computer-executable program, or one that temporarily records it for execution or download. The medium may be one that is a recording or storage means in the form of a single or multiple hardware devices, and may be distributed over a network without being limited to a medium directly connected to a certain computer system. Examples of the medium include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, and ROMs, RAMs, flash memories, etc., configured to record program instructions. Other examples of the medium include recording media or storage media managed by application stores that distribute applications, or sites, servers, etc. that supply or distribute various other software. Examples of program instructions include not only machine code, such as that produced by a compiler, but also high-level language code that is executed by a computer using an interpreter or the like.

以上のように、実施形態を、限定された実施形態および図面に基づいて説明したが、当業者であれば、上述した記載から多様な修正および変形が可能であろう。例えば、説明した技術が説明した方法とは異なる順序で実行されたり、かつ/あるいは、説明したシステム、構造、装置、回路などの構成要素が説明した方法とは異なる形態で結合されたりまたは組み合わされたり、他の構成要素または均等物に対置されたり置換されたとしても、適切な結果を達成することができる。 Although the embodiments have been described above based on limited embodiments and drawings, those skilled in the art will appreciate that various modifications and variations may be made from the above description. For example, suitable results may be achieved even if the described techniques are performed in a different order than described, and/or the components of the described systems, structures, devices, circuits, etc. are combined or combined in a different manner than described, or are contrasted or substituted with other components or equivalents.

したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付される特許請求の範囲に属する。 Therefore, different embodiments that are equivalent to the scope of the claims are within the scope of the attached claims.

110、120、130、140:電子機器
150、160:サーバ
170:ネットワーク
110, 120, 130, 140: Electronic devices 150, 160: Server 170: Network

Claims (17)

情報提供方法をコンピュータ装置に実行させるためのコンピュータプログラムであって、
前記情報提供方法は、
入力される検索語に基づいて検索結果を提供するための検索インタフェースを提供する段階、および
前記検索インタフェースに入力された検索語が、任意の主題に対応して予め設定されたインタラクション検索語を含む場合、前記インタラクション検索語に対する応答として、ユーザとのインタラクションによって前記主題と関連する情報を提供するインタラクション機能を提供する段階
を含み、前記インタラクション機能を提供する段階は、
前記インタラクション機能が含むビューアを利用して前記主題と関連する客体を表示し、前記客体のモーションを分割した複数のサブモーションごとにサブモーション情報を提供する段階をさらに含むことを特徴とする、コンピュータプログラム。
A computer program for causing a computer device to execute an information providing method,
The information providing method includes:
providing a search interface for providing search results based on an input search term; and, when the search term input to the search interface includes a preset interaction search term corresponding to a given subject, providing an interaction function for providing information related to the subject through an interaction with a user in response to the interaction search term , the step of providing the interaction function includes:
The computer program further comprises displaying an object related to the subject using a viewer included in the interaction function, and providing submotion information for each of a plurality of submotions obtained by dividing a motion of the object .
前記インタラクション機能を提供する段階は、
前記ユーザとのインタラクションによって、前記ビューアに表示される前記客体のビューまたは前記客体のモーションを制御する段階
をさらに含むことを特徴とする、請求項に記載のコンピュータプログラム。
The step of providing an interaction function includes:
The computer program product of claim 1 , further comprising: controlling a view of the object displayed on the viewer or a motion of the object according to an interaction with the user.
前記制御する段階は、
前記客体のモーションに対する再生速度を調節するための機能を提供する段階
を含むことを特徴とする、請求項に記載のコンピュータプログラム。
The controlling step includes:
The computer program product of claim 2 , further comprising: providing a function for adjusting a playback speed of the motion of the object.
前記制御する段階は、
前記コンピュータ装置が含むカメラにリアルタイムで入力される映像を背景として前記客体のモーションを再生するためのAR(Augmented Reality)機能を提供する段階
を含むことを特徴とする、請求項に記載のコンピュータプログラム。
The controlling step includes:
The computer program product of claim 2 , further comprising: providing an augmented reality (AR) function for reproducing the motion of the object against a background of an image input in real time to a camera included in the computer device.
前記サブモーション情報を提供する段階は、
前記複数のサブモーションのうちから1つのサブモーションを選択するためのサブモーション選択インタフェースを提供する段階、および
前記ビューアを利用して前記サブモーション選択インタフェースで選択されたサブモーションを再生する段階
を含むことを特徴とする、請求項に記載のコンピュータプログラム。
The step of providing the sub-motion information includes:
The computer program product of claim 1 , further comprising: providing a submotion selection interface for selecting one submotion from the plurality of submotions; and playing the submotion selected in the submotion selection interface using the viewer.
前記サブモーション情報は、対応するサブモーションに関する映像情報、音声情報、およびテキスト情報を含み、
前記選択されたサブモーションを再生する段階は、
前記映像情報に基づいて前記選択されたサブモーションを再生しながら、前記音声情報および前記テキスト情報のうちの少なくとも1つを出力することを特徴とする、請求項に記載のコンピュータプログラム。
The submotion information includes video information, audio information, and text information related to the corresponding submotion;
The step of playing the selected sub-motion includes:
6. The computer program according to claim 5 , further comprising: outputting at least one of the audio information and the text information while reproducing the selected sub-motion based on the video information.
前記サブモーション選択インタフェースは、前記複数のサブモーションのための複数のサブモーションボタンを含み、
前記選択されたサブモーションを再生する段階は、
前記複数のサブモーションボタンのうちから選択されたサブモーションボタンに対応するサブモーションを再生することを特徴とする、請求項に記載のコンピュータプログラム。
the sub-motion selection interface includes a plurality of sub-motion buttons for the plurality of sub-motions;
The step of playing the selected sub-motion includes:
6. The computer program according to claim 5 , further comprising: playing a submotion corresponding to a submotion button selected from the plurality of submotion buttons.
前記複数のサブモーションボタンは順に羅列され、前記複数のサブモーションボタンに対して入力されるドラッグジェスチャーに従って表示位置が変更され、
前記選択されたサブモーションを再生する段階は、
前記複数のサブモーションボタンのうちで予め設定された表示位置のサブモーションボタンに対応するサブモーションを再生するが、前記ドラッグジェスチャーの方向および速度に基づいて再生中の前記サブモーションの再生方向および再生速度を決定することを特徴とする、請求項に記載のコンピュータプログラム。
the plurality of sub-motion buttons are arranged in order, and display positions of the plurality of sub-motion buttons are changed according to a drag gesture input to the plurality of sub-motion buttons;
The step of playing the selected sub-motion includes:
The computer program product according to claim 7, characterized in that a submotion corresponding to a submotion button at a preset display position among the plurality of submotion buttons is played, and a playback direction and a playback speed of the submotion being played are determined based on a direction and a speed of the drag gesture.
前記選択されたサブモーションを再生する段階は、
前記客体の特定のポイントと関連する詳細情報を提供するためのアノテーションボタンを前記特定のポイントの位置に表示する段階、
前記選択されたサブモーションの再生によって前記客体の特定のポイントの位置が移動することによって前記アノテーションボタンの表示位置を移動させる段階、および
前記アノテーションボタンが選択される場合、前記選択されたサブモーションを変更して前記詳細情報を提供する段階
を含むことを特徴とする、請求項に記載のコンピュータプログラム。
The step of playing the selected sub-motion includes:
displaying an annotation button at a position of a specific point of the object to provide detailed information related to the specific point;
8. The computer program product of claim 7, further comprising: moving a display position of the annotation button by moving a position of a specific point of the object by playing the selected sub-motion; and, when the annotation button is selected , changing the selected sub-motion to provide the detailed information.
前記選択されたサブモーションを再生する段階は、
前記客体上の少なくとも2つのポイントと前記少なくとも2つのポイントを連結するリンクを含むアノテーションガイド表示する段階
を含むことを特徴とする、請求項に記載のコンピュータプログラム。
The step of playing the selected sub-motion includes:
The computer program product of claim 7 , further comprising: displaying an annotation guide including at least two points on the object and a link connecting the at least two points.
前記客体は3次元人体モデルを含み、
前記少なくとも2つのポイントは、前記3次元人体モデルの関節位置に対応することを特徴とする、請求項10に記載のコンピュータプログラム。
The object includes a three-dimensional human body model,
The computer program product of claim 10 , wherein the at least two points correspond to joint positions of the three-dimensional human model.
前記インタラクション機能を提供する段階は、
前記インタラクション検索語を利用して生成された検索結果ページを通じて前記ビューアを提供する段階
を含むことを特徴とする、請求項に記載のコンピュータプログラム。
The step of providing an interaction function includes:
The computer program product of claim 1 , further comprising: providing the viewer with a search result page generated using the interaction search term.
前記インタラクション機能を提供する段階は、
前記検索結果ページまたは前記ビューアを通じて、前記客体のモーションを分割した複数のサブモーションごとにサブモーション情報を提供するページにアクセスするためのリンクを提供する段階
を含むことを特徴とする、請求項12に記載のコンピュータプログラム。
The step of providing an interaction function includes:
The computer program product of claim 12, further comprising: providing, through the search result page or the viewer, a link for accessing a page providing sub-motion information for each of a plurality of sub-motions obtained by dividing the motion of the object .
前記インタラクション機能を提供する段階は、
前記ユーザの音声またはテキストを基盤としたクエリの入力を受け、前記クエリに対する前記主題と関連する応答を提供するための質疑応答インタフェースを提供する段階
を含むことを特徴とする、請求項1に記載のコンピュータプログラム。
The step of providing an interaction function includes:
2. The computer program product of claim 1, further comprising: providing a question and answer interface for receiving a voice or text-based query from the user and providing responses to the query that are related to the subject matter.
前記応答は、前記主題と関連する客体のモーションを分割した複数のサブモーションのうちの1つを含むか、または前記クエリに基づいて検索された文書の内容を人工知能によって分析して生成した結果を含むことを特徴とする、請求項14に記載のコンピュータプログラム。 15. The computer program product of claim 14, wherein the response includes one of a plurality of submotions obtained by dividing a motion of an object related to the subject, or includes a result generated by analyzing the contents of a document searched based on the query using artificial intelligence . 少なくとも1つのプロセッサを含むコンピュータ装置の情報提供方法であって、
前記少なくとも1つのプロセッサが、入力される検索語に基づいて検索結果を提供するための検索インタフェースを提供する段階、および
前記少なくとも1つのプロセッサが、前記検索インタフェースに入力された検索語が、任意の主題に対応して予め設定されたインタラクション検索語を含む場合、前記インタラクション検索語に対する応答として、ユーザとのインタラクションによって前記主題と関連する情報を提供するインタラクション機能を提供する段階
を含み、前記インタラクション機能を提供する段階は、
前記インタラクション機能が含むビューアを利用して前記主題と関連する客体を表示し、前記客体のモーションを分割した複数のサブモーションごとにサブモーション情報を提供する段階をさらに含む、情報提供方法。
1. A method for providing information in a computer device including at least one processor, comprising:
providing a search interface for providing search results based on an input search term by the at least one processor; and providing an interaction function for providing information related to a subject by interaction with a user in response to an interaction search term when the search term input to the search interface includes an interaction search term preset corresponding to the subject, the at least one processor comprising:
The information providing method further includes displaying an object related to the subject using a viewer included in the interaction function, and providing submotion information for each of a plurality of submotions obtained by dividing a motion of the object .
コンピュータ装置で読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサを含み、
前記少なくとも1つのプロセッサにより、
ユーザの端末から検索語を受信し、
前記受信した検索語が、任意の主題に対応して予め設定されたインタラクション検索語を含む場合、前記インタラクション検索語に対応する検索結果および前記ユーザとのインタラクションによって前記主題と関連する情報を提供するインタラクション機能を含む検索結果ページを生成し、
前記生成された検索結果ページを前記ユーザの端末に提供し、
前記生成された検索結果ページは、
前記インタラクション機能が含むビューアを利用して前記主題と関連する客体を表示し、前記客体のモーションを分割した複数のサブモーションごとにサブモーション情報を提供することを特徴とする、コンピュータ装置。
at least one processor implemented to execute computer readable instructions;
by said at least one processor,
receiving a search term from a user's device;
If the received search term includes a preset interaction search term corresponding to a given subject, generate a search result page including a search result corresponding to the interaction search term and an interaction function for providing information related to the subject through an interaction with the user;
providing the generated search result page to the user's terminal ;
The generated search result page includes:
The computer device further comprising: a viewer including an interaction function that displays an object related to the subject; and provides submotion information for each of a plurality of submotions obtained by dividing a motion of the object .
JP2023036148A 2023-01-09 2023-03-09 Interaction-based information providing method and system Active JP7609513B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020230002795A KR102917248B1 (en) 2023-01-09 Method and system for providing information based on interaction
KR10-2023-0002795 2023-01-09

Publications (2)

Publication Number Publication Date
JP2024098134A JP2024098134A (en) 2024-07-22
JP7609513B2 true JP7609513B2 (en) 2025-01-07

Family

ID=91954216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023036148A Active JP7609513B2 (en) 2023-01-09 2023-03-09 Interaction-based information providing method and system

Country Status (1)

Country Link
JP (1) JP7609513B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006509300A (en) 2002-12-06 2006-03-16 サムスン エレクトロニクス カンパニー リミテッド Applet execution apparatus and method
JP2012192019A (en) 2011-03-16 2012-10-11 Nintendo Co Ltd Information processing system, information processing apparatus, information processing program, and image display method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006509300A (en) 2002-12-06 2006-03-16 サムスン エレクトロニクス カンパニー リミテッド Applet execution apparatus and method
JP2012192019A (en) 2011-03-16 2012-10-11 Nintendo Co Ltd Information processing system, information processing apparatus, information processing program, and image display method

Also Published As

Publication number Publication date
KR20240111111A (en) 2024-07-16
JP2024098134A (en) 2024-07-22

Similar Documents

Publication Publication Date Title
US10452223B2 (en) Three-dimensional space for navigating objects connected in hierarchy
EP1784709B1 (en) Multi-planar three-dimensional user interface
JP5372518B2 (en) Voice and video control of an interactive electronically simulated environment
US9092437B2 (en) Experience streams for rich interactive narratives
JP3762243B2 (en) Information processing method, information processing program, and portable information terminal device
US11558666B2 (en) Method, apparatus, and non-transitory computer readable record medium for providing content based on user reaction related to video
KR101949493B1 (en) Method and system for controlling play of multimeida content
EP2950274B1 (en) Method and system for generating motion sequence of animation, and computer-readable recording medium
US20120229391A1 (en) System and methods for generating interactive digital books
CN113392260B (en) Interface display control method, device, medium and electronic equipment
US20180246871A1 (en) Multiplane animation system
JP7712043B2 (en) Method, system, and computer program for providing an experience of simultaneously consuming video and commentary
Walter et al. Learning MIT app inventor: A hands-on guide to building your own android apps
KR102648288B1 (en) Methods and systems for presenting media content with multiple media elements in an editorial environment
WO2015138451A1 (en) Optimized presentation of multimedia content
KR102533209B1 (en) Method and system for creating dynamic extended reality content
JP7609513B2 (en) Interaction-based information providing method and system
KR102917248B1 (en) Method and system for providing information based on interaction
KR102895493B1 (en) A system and a method for creating extended reality
JP2017182649A (en) Program, device and method for supporting creation of presentation document
KR102433903B1 (en) Method for displaying media contents in a personalized way
KR102276816B1 (en) Method and system for providing content composed of spatial unit
KR20140078083A (en) Method of manufacturing cartoon contents for augemented reality and apparatus performing the same
KR102257442B1 (en) Augmented reality service providing method for providing user interaction and the system thereof
KR102172611B1 (en) Augmented reality service providing method using still image or video recognition and the system thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230309

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20230406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241216

R150 Certificate of patent or registration of utility model

Ref document number: 7609513

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150