WO2020075647A1 - 情報処理装置 - Google Patents
情報処理装置 Download PDFInfo
- Publication number
- WO2020075647A1 WO2020075647A1 PCT/JP2019/039355 JP2019039355W WO2020075647A1 WO 2020075647 A1 WO2020075647 A1 WO 2020075647A1 JP 2019039355 W JP2019039355 W JP 2019039355W WO 2020075647 A1 WO2020075647 A1 WO 2020075647A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- user
- information
- avatar
- message
- service
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F13/00—Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
Definitions
- the present invention relates to an information processing device.
- Patent Document 1 There is already a system that supports the process of establishing a marriage by enriching the knowledge necessary for a conversation between men and women on a date and supporting the conversation (see Patent Document 1). Further, there is already a memo pad for replacement for the purpose of enabling both a passive person and an active person to have a conversation with an intended partner equally (see Patent Document 2). In addition, there is already a server device that aims to support the user's marriage activity to proceed more smoothly (see Patent Document 3).
- the unsuccessful matching is often caused by any of the following four problems. That is, matching may fail due to at least one of (1) communication ability problem, (2) appearance problem, (3) residence problem, and (4) time problem. Many. That is, (1) is a problem that matching is not established due to a lack of communication ability, a misunderstanding not being transmitted to the other party, or a dark personality. (2) is a problem that matching fails because the appearance of the other party deviates from his / her ideal. (3) is a problem that matching fails because the other party's residence is too far away. (4) is a problem that matching fails because the other person's living time does not match his / her own living time.
- the present invention has been made in view of such a situation, and contributes to improvement of a user's real life by solving the problem of communication ability, the problem of appearance, the problem of residence, and the problem of time.
- the purpose is to provide a method.
- an information processing device of one embodiment of the present invention is Acquisition means for acquiring information about the user as user information, Message management means for managing messages sent and received interactively via a user terminal operated by the user, In an information processing device including The message management means, When there is a message from the user, a message to be transmitted to the user is generated based on the content of the message and the user information, and when there is no message from the user, based on the user information. And generate a message to convey to the user.
- a space management unit that generates a virtual space accessible via the user terminal and manages the generated virtual space
- Avatar management means for managing one or more avatars that can exist in the virtual space
- the avatar management means may generate a first avatar whose main subject is the user and a second avatar whose subject is completely created.
- the present invention by solving the problem of communication ability, the problem of appearance, the problem of residence, and the problem of time, it is possible to contribute to the improvement of the real life of the user.
- FIG. 2 is a block diagram illustrating a hardware configuration of the management server in FIG. 1. It is a functional block diagram which shows an example of a functional structure of the management server of FIG.
- FIG. 1 is an image diagram showing an outline of this service provided by the service provider P.
- the present service when it is determined that the cause of unsuccessful matching in the male and female matching service is at least one of the following four problems, various types of solutions for the target user U to eliminate the cause are provided. It provides sub-services. That is, when the cause of the failure of matching is (1) communication ability problem, (2) appearance problem, (3) residence problem, and (4) time problem, Various sub-services are provided to solve this.
- Dialogue service When the unsuccessful matching is caused by the problem of the communication ability described in (1), the target user U is provided with the “dialogue service” which is a sub-service of this service.
- the interactive service is a service in which the target user U can interact with the concierge C or the advisor D via the user terminal.
- dialogue means exchanging messages between a plurality of persons, and “via a user terminal” means message input processing and message output processing in a smartphone or the like operated by the user U. And to do.
- “Inputting a message” means inputting voice with a microphone or inputting with a touch panel to a smartphone or the like operated by the user U.
- “Outputting a message” means outputting a message from the concierge C, the advisor D, or the like from the speaker or screen of the smartphone or the like operated by the user U.
- “Concierge” C interacts with user U in a position like a so-called caretaker. For example, in response to the message “I'm hungry" of the user U, the concierge C returns a message “It's about lunch”. Then, when the user U inputs the message "Eat meat?", The concierge C returns the message “Eating out? Delivery”. On the other hand, when the user U inputs a message “Would you like to eat out?", The concierge C returns a message "Would you like to reserve somewhere?" And automatically searches for and reserves a nearby restaurant.
- Advisor D like Concierge C, interacts with user U, but in addition to this, interacts with user U from the standpoint of an advisor who gives advice and lectures. For example, Advisor D sends a message that also serves as advice, such as "I ate meat yesterday, so I wonder if I should eat fish today.” On the other hand, when the user U inputs the message “Well, book a restaurant that considers calories and insufficient nutrients", the advisor D asks "OK. Restaurant at 12:30. I made a reservation for ⁇ . The recommended menu for restaurant ⁇ is ⁇ , but the account balance of Mr. ⁇ (the name of user U) is insufficient, so it is better to sell the ⁇ ⁇ shares that I have. A message that also serves as advice, such as "OK" is returned.
- the user U uses the interactive service to interact with the concierge C and the advisor D in every scene of daily life.
- the concierge C and the advisor D are virtual beings and are not real human beings, so that even a user U who lacks communication ability can actively and actively interact.
- the communication ability of the user U is unknowingly improved, and even if the other party of the dialogue is not a virtual existence but a real person, the dialogue can be carried out without any problem.
- the concierge C and the advisor D are provided with genders, for example, when a male user U wants to improve his / her communication ability with a woman, the female concierge C and the advisor D should have a dialogue. it can. Therefore, the male user U can communicate with a real female without any problem.
- the content of the message actively issued from the advisor D side and the timing of the message are reflected by the content of the user information separately provided from the information providing server 3 that provides the information providing service.
- the advisor D can include the personal information of the user U and the professional and accurate information in the content of the dialogue with the user U.
- “User information” includes all information related to the daily life of user U.
- information on the financial transaction of the user U hereinafter referred to as “user financial information”
- information on the insurance transaction of the user U hereinafter referred to as “user insurance information”
- information on medical treatment of the user U hereinafter referred to as “ The user biometric information”
- the user biometric information and the daily biometric information of the user U are information included in the user information.
- the user information includes the usage record of the matching service for men and women and the content thereof (hereinafter referred to as “matching information”).
- the matching information includes the comment of the other party when the matching is unsuccessful, the result of the questionnaire, and the like.
- the user financial information includes, for example, information on the deposit balance of the user U, the record of transfer and transfer, and the like.
- the user insurance information includes, for example, information on insurance premiums contracted by the user U, contents of compensation, and the like.
- the user medical information includes, for example, the content of the illness of the user U, information on medical treatment results, doctor's findings, prescription history of medicines, and the like.
- the user biometric information includes body temperature from birth of the user U, pulse rate, heart rate, meal content, meal timing, meal time, exercise content and amount, exercise time, sleep time, sleep timing, blood. Components, genetic information, etc. are included.
- the specific method for acquiring the user biometric information is not particularly limited. What the user U recorded by himself / herself may be user biometric information, or information measured by a predetermined measuring device controlled by the information providing server may be user biometric information.
- the user financial information, the user insurance information, and the user medical information are information managed by the financial institution, the insurance company, and the medical institution, respectively, and part or all of them are shared with the user U.
- the user biometric information is information managed by the information providing service, and a part or all of the user biometric information is shared with the user U.
- FIG. 2 is an image diagram showing the flow of various information provided from the information providing service to this service.
- each of the user financial information, the user insurance information, and the user medical information is shared between the financial institution, the insurance company, and the medical institution and the information providing service.
- User financial information, user insurance information, user medical information, and user biometric information are provided from the information providing service to the dialogue service as user information.
- the amount of the menu of the reserved restaurant, the balance of the deposit account of the user U, and the selling price of the stock (asset) held by the user U are combined as in the dialog between the advisor D and the user U described above. It is possible to have a dialogue that is considered.
- the user U1 who uses the interactive service to which the information providing service is applied can also follow the life of the user U2 who uses only the information providing service.
- the following cases can be assumed, for example.
- the user U2 is a single-living mother and the user U1 is the child.
- the dialogue service uses the user biometric information for the mother (user U2) in the dialogue between the child (user U1) and the advisor D.
- User medical information and the like can be reflected.
- the advisor D can send a message to the child (user U1) that also serves as a status report of the mother (user U2), such as "Mom looks like a cold".
- the child (user U1) replies, "I'm not quite in touch, I'll contact you", which means that at least the situation of the mother (user U2) has been transmitted to the child. This can also contribute to solving the problem of lonely death caused by the fact that the child does not notice the physical condition change of the parent living alone.
- the user U2 does not have to be a human.
- the user U2 since it may be a pet, it can be assumed that the user U2 is a pet and the user U1 is its owner.
- the dialogue service uses the user biometric information for the pet (user U2) in the dialogue between the owner (user U1) and the advisor D. Can be reflected.
- the advisor D can send a message that also serves as a pet status report, such as "Isn't XX (pet name) stressed recently due to lack of exercise?"
- the owner (user U1) replies, "I understand, I'll return soon today", it can contribute to the longevity of the pet, a member of the family.
- the user U2 does not need to be a living being like a human being or a pet.
- the user U2 since it may be a car, it is possible to envisage a case where the user U2 is a car and the user U1 is its owner.
- the dialogue service is used for the dialogue between the owner (user U1) and the advisor D in addition to the user information of the owner (user U1).
- User information for (user U2) can be reflected. Specifically, for example, if the owner (user U1) tries to drive a car (user U2) while drinking alcohol, the advisor D determines that the owner (user U1) 's user information (particularly the user biometric).
- Advisor D further told the owner (user U1) that "drinking driving is prohibited by Article 65 of the Road Traffic Act. If you are drunk driving, not only your license will be revoked but also 5 years. You will be punished with the following imprisonment or a fine of 1,000,000 yen or less! ", So that the owner (user U1) can recognize the size of the cost of drinking and driving.
- the information providing service can be linked with a control unit (not shown) that controls driving of the automobile (user U2), when the owner (user U1) drinks from the user information, It is also possible to control so that the engine of the automobile (user U2) does not start. This can forcibly prevent the owner (user U1) from drinking and driving.
- the interaction service can reflect the respective user information for both the interaction between the male (user U1) and the advisor D and the conversation between the female (user U2) and the advisor D.
- the advisor D sends a message to the man (user U1), which also serves as a status report of the woman (user U2), such as "She seems to be depressed due to the quarrel during this time.” be able to.
- the advisor D can further send a message that also serves as advice, such as “please allow it now?”.
- the virtual space service is a service that enables the target user U to interact with the 3D avatar A existing in the virtual space VS via the user terminal.
- “Virtual space” VS refers to a virtual space that includes at least one of augmented reality (AR) and virtual reality (VR).
- “Avatar” refers to electronic information that represents the alter ego of the user U generated for each user U based on the user information of the user U
- “3D avatar” refers to the altercation of the user U in three dimensions. Refers to electronic information that is expressed.
- the “3D avatar” is also simply referred to as “avatar” A unless it is necessary to distinguish between the two.
- the avatar A includes an augmented reality (AR) avatar Aa and a virtual reality (VR) avatar Av.
- An augmented reality (AR) avatar Aa is one whose subject is the user U.
- a virtual reality (VR) avatar Av is one whose subject is completely created by AI (artificial intelligence). In the following, both of them will be simply referred to as “avatars” A unless it is necessary to distinguish them.
- the user U who uses the virtual space service interacts with the augmented reality (AR) avatar Aa and the virtual reality (VR) avatar Av while acting in the virtual space as the augmented reality (AR) avatar Aa.
- the user U may interact with the augmented reality (AR) avatar Aa and the virtual reality (VR) avatar Av existing in the virtual space VS, instead of the avatar Aa. Since a large number of avatars A exist in the virtual space VS, the user U has a chance to interact with the avatar A. Accordingly, the user U can improve the communication ability of the user U by being spoken by another avatar A or by actively speaking to the avatar A.
- production service In the virtual space service, it is also possible to provide the user U with a service (hereinafter, referred to as “production service”) that introduces the avatar A that is a candidate for a relationship partner.
- the avatar A introduced to the user U by the production service is referred to as “talent” T.
- the talent T introduced to the user U may be an augmented reality (AR) avatar Aa or a virtual reality (VR) avatar Av. Therefore, the talent T with whom the user U interacts may be the augmented reality (AR) avatar Va or the virtual reality (AR) avatar Av.
- AR augmented reality
- VR virtual reality
- the user information of the user U is considered.
- the user information also includes matching information.
- the matching information includes the comment of the other party and the result of the questionnaire when the matching fails. That is, the matching information includes negative information and some positive information about the relationship between the user U and the opposite sex.
- Negative information and some positive information about user U's relationship with the opposite sex will be important information for the success of user U's next relationship. Therefore, in the production service, the matching information is analyzed, and based on the analysis result, a suitable talent T for the user U to succeed in the relationship is selected and introduced.
- the specific method of analyzing the usage content of the matching service of the user U is not particularly limited, but it can be analyzed using the following methods (1) to (3), for example. That is, (1) a comparison with other cases in which matching is established is performed. (2) The problem of the user U is grasped by collecting the impressions of the other party for whom the matching is unsuccessful, the questionnaire results and the like. (3) To grasp the personality, the type of preference, etc., based on the past relationship history of the user U. As a result, it is possible to analyze the negative information and a part of the positive information about the relationship of the user U with the opposite sex in detail, so that a suitable talent T is selected in order to succeed the next relationship of the user U. be able to.
- FIG. 3 is a diagram showing an example of a pattern of the talent T introduced to the user U1 in the production service.
- patterns 1 to 3 there are three patterns (patterns 1 to 3) shown in FIG. Each pattern will be described below.
- Pattern 1 is a pattern in which an augmented reality (AR) avatar Va mainly composed of another user U2 is introduced to the user U1 as a talent T.
- AR augmented reality
- Aa an avatar A suitable for the user U1 to succeed in the next interaction is selected as the talent T.
- the selected talent T is processed and set by the production service (hereinafter, referred to as “production side setting”).
- production side setting the production service
- details of specific processing and setting in the production side setting are not particularly limited, in the present embodiment, processing and setting of the following elements (1) to (3) are performed in the production side setting. That is, based on the prototype of the talent T created by the production service, processing (1) appearance, (2) character, and (3) knowledge level are processed and set by the production service.
- the portrait right of the user U2 is taken into consideration when creating the prototype of the talent T by the production service. Specifically, (1) For the appearance, the face and style of the talent T are processed and set. As for (2) personality, as the personality of the talent T, an outward personality, an inward personality, a thoughtful personality, an emotional personality, a personality that values intuition, a personality that relies on senses, and the like are set. (3) With respect to the knowledge level, the hobbies and preferences of the talent T are set. The talent T of the pattern 1 is introduced to the user U1 after the above processing and setting are performed.
- the user U1 who has been introduced with the talent T performs processing and setting (hereinafter, referred to as “user side setting”) targeting the introduced talent T.
- user side setting processing and setting
- the specific contents of processing and setting in the user side setting are not particularly limited, in the present embodiment, the following processing (1) to (3) are performed in the user side setting. That is, based on the introduced talent T, the user U1 processes and sets each of (1) appearance, (2) voice, and (3) language.
- the (3) language is set to any language such as Japanese or English. Also, even in the same Japanese language, it can be set at the level used in local dialects (Kansai dialect, Fukushima dialect, Akita dialect). In this way, by allowing the user U1 to set the language used by the talent T, the user U1 can set the language he / she wants to use everyday as well as the language he / she wants to learn. . As a result, the user U1 can interact with the talent T in the language he / she wants to learn, and can be expected to actively engage in conversation in the language he / she wants to learn. As a result, it is possible to learn multiple languages in a shorter period of time and improve communication ability.
- Pattern 2 similarly to Pattern 1, an augmented reality (AR) avatar Aa mainly composed of another user U2 is introduced as a talent T, but as shown in FIG. 3, the talent T is not selected. Instead, the "model” M is provided.
- the “model” M is, among the talents T provided by the user U2, the talent T that the user U1 has actually contacted in the past, or a person or animal or the like having some relationship. .
- the person or animal targeted by the model M may or may not be alive.
- the one-to-one relationship between the user U1 and the model M introduced as the talent T is maintained. That is, since the model M is treated as a unique existence for the user U1, the users U other than the user U1 cannot interact.
- the father (user U2) can also provide the model M mainly including the dead mother of his / her dead wife, that is, the dead mother of the child (user U1). .
- the child (user U1) can interact with the avatar A (model M) of the dead mother introduced as the talent T in the virtual space VS.
- the child (user U1) originally had a high communication ability, but lost the communication ability due to some event (for example, the death of the mother), it may be an opportunity to regain the communication ability. .
- the husband (user U2) can also provide the model M for the dead pet that was loved by the wife (user U1).
- the wife (user U1) can interact with the avatar A (model M) of the dead pet introduced as the talent T in the virtual space VS. That is, in the virtual space VS, even if the subject of the avatar A is an animal, it is possible to have a dialogue by anthropomorphization. Therefore, for example, if the wife (user U1) originally had a high communication ability, but lost the communication ability due to some event (for example, the death of a pet), it may be an opportunity to regain the communication ability. .
- the augmented reality (AR) or virtual reality (VR) avatar Av generated by an external portal site PS2 different from the portal site PS1 used by the user U1 to receive the provision of the virtual space service is talented T.
- the talent T introduced in the pattern 3 is the complete avatar Au generated in the external portal site PS2, the production-side setting and the user-side setting that are performed in the pattern 1 are not performed. That is, the already existing avatar Au is directly introduced to the user U1 as a talent.
- the complete avatar Au generated in the external portal site PS2 is introduced to the user U1 as the talent T, so that the user U1 can interact with the talent T having various personalities.
- the talent T introduced by the above-mentioned pattern 1 intentionally tries to approach the type desired by the user U1 by going through the production side setting and the user side setting. That is, in the pattern 1, the user U1 actively talks with the talent T by bringing the talent T close to the user U1's favorite type.
- the already existing avatar Au is introduced as it is as the talent T, so that avatars Au of various personalities are introduced as the talent T regardless of the preference of the user U1. .
- the user U1 can get an opportunity to interact with the avatars Au of any personality regardless of his / her preference.
- the user U1 can acquire the correspondence power required in the dialogue through the dialogue with the talents T having various personalities, and thus can improve the practical communication ability.
- the talent T introduced to the user U1 is managed by, for example, the following method at the portal site PS1 operated by the service provider P to provide the virtual space service.
- the augmented reality (AR) avatar Aa of the talent T is managed based on the content of the exclusive management contract concluded with the service provider P.
- the virtual reality (VR) avatar Av of the talent T is managed as follows. That is, with respect to the virtual reality (VR) avatar Av, a technique such as machine learning, deep learning, or AI (artificial intelligence) is used to give an opportunity to interact with the user U as the concierge C or the advisor D described above. Then, deep learning progresses due to the accumulation of dialogues with the user U, the communication ability continues to change while being refined, and the character as an ideal avatar is gradually formed.
- the fact that the communication ability of the virtual reality (VR) avatar Av is improved means that the communication ability of the user U who is the partner of the dialogue is also improved. That is, by accumulating the dialogue between the user U and the virtual reality (VR) avatar Av, both of them can have an ideal personality.
- the virtual reality (VR) avatar Av which has many opportunities to interact with the user U, is accessed by as many users U as possible.
- the virtual reality (VR) avatar Av which is rarely accessed, has few opportunities to interact with the user U. If the amount of dialogue with the user U is small, it means that the deep learning is not so advanced. In other words, such a personality of the virtual reality (VR) avatar Av is generally unique because the personality characteristics of the specific user U who has been the other party of the dialogue are deeply expressed.
- a user U who is recognized to have changed his / her personality by accumulating dialogues with the talent T in the virtual space VS will be treated as follows. That is, based on the user information of the user U who is recognized to have changed his / her personality, an eligible partner (actual opposite sex) in which the hobbies and preferences of the user U are considered is introduced.
- the service provider P manages the avatar Av of various virtual reality (VR) as the talent T as described above, and operates the portal site PS1 that provides the virtual space service.
- VR virtual reality
- FIG. 4 is a diagram showing an outline of the configuration of the information processing system IS including the management server 1 according to the embodiment of the information processing apparatus of the present invention.
- the information processing system IS shown in FIG. 4 includes a management server 1, user terminals 2-1 to 2-n (n is an arbitrary integer value of 1 or more), an information providing server 3, a financial institution terminal 4, and the like.
- the medical institution terminal 5 is configured to be connected to each other via a predetermined network N such as the Internet.
- An external server 6 is connected to the information processing system IS via the network N.
- the management server 1 is an information processing device managed by a service provider P who provides this service.
- the management server 1 executes various processes in order to manage the operations of the user terminals 2-1 to 2-n, the information providing server 3, the financial institution terminal 4, and the medical institution terminal 5.
- Each of the user terminals 2-1 to 2-n is an information processing device operated by each of the users U1 to Un, and is configured by, for example, a personal computer, a smartphone, a tablet, or the like. Note that, hereinafter, when it is not necessary to individually distinguish the users U1 to Un and the user terminals 2-1 to 2-n, they are collectively referred to as "user U" and "user terminal 2". However, the user U does not necessarily operate the user terminal 2, and for example, when the user U is not a human, the user U may not operate the user terminal 2.
- the information providing server 3 is an information processing device managed by a person who provides various information as a service.
- the information providing server 3 manages various information applied to the dialogue service and the virtual space service.
- the financial institution terminal 4 is an information processing device managed by each of the financial institution and the insurance company used by the user U.
- the financial institution terminal 4 manages financial information and insurance information that can be applied to the dialogue service and the virtual space service.
- the medical institution terminal 5 is an information processing device managed by a medical institution used by the user U.
- the medical institution terminal 5 manages medical information that can be applied to the dialogue service and the virtual space service.
- the external server 6 is an information processing device managed by a person who operates the external portal site PS2.
- FIG. 5 is a block diagram showing a hardware configuration of the management server 1 of FIG.
- the management server 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a bus 14, an input / output interface 15, an output unit 16, and an input unit 17.
- the storage unit 18, the communication unit 19, and the drive 20 are provided.
- the CPU 11 executes various processes according to the program recorded in the ROM 12 or the program loaded from the storage unit 18 into the RAM 13.
- the RAM 13 also stores data and the like necessary for the CPU 11 to execute various processes.
- the CPU 11, the ROM 12, and the RAM 13 are connected to each other via the bus 14.
- An input / output interface 15 is also connected to the bus 14.
- An output unit 16, an input unit 17, a storage unit 18, a communication unit 19, and a drive 20 are connected to the input / output interface 15.
- the output unit 16 is composed of various liquid crystal displays and outputs various information.
- the input unit 17 is made of various hardware such as lead, and inputs various information.
- the storage unit 18 is configured by a DRAM (Dynamic Random Access Memory) or the like, and stores various data.
- the communication unit 19 includes other devices (for example, the user terminals 2-1 to 2-n in FIG. 1, the information providing server 3, the financial institution terminal 4, the medical institution terminal 5, and the external server) via the network N including the Internet. 6) Control communication with and.
- the drive 20 is provided as needed.
- a removable medium 30 including a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately mounted on the drive 20.
- the program read from the removable medium 30 by the drive 20 is installed in the storage unit 18 as needed.
- the removable medium 30 can also store various data stored in the storage unit 18 similarly to the storage unit 18.
- FIG. 6 is a functional block diagram showing an example of the functional configuration of the management server 1 of FIG.
- the information acquisition unit 101 and the message management unit 102 function.
- the information acquisition unit 101, the space management unit 103, and the avatar management unit 104 function.
- the information acquisition unit 101 and the avatar management unit 104 function.
- a user DB 401, an avatar DB 402, a dialogue DB 403, and an auxiliary DB 404 are provided in one area of the storage unit 18.
- Dialog processing means a series of processes for realizing the above-mentioned dialogue service. By executing the interaction process, the user U can interact with the concierge C or the advisor D.
- Virtual space provision processing means a series of processing for realizing the above-mentioned virtual space service.
- the user U can interact with the avatar in the virtual space.
- Production process means a series of processes for realizing the above-mentioned production service. By executing the production process, it becomes possible to introduce the talent to the user U.
- the information acquisition unit 101 acquires information about a user as user information. Specifically, the information acquisition unit 101 acquires user information managed by the information providing server 3. As described above, the user information includes user financial information, user insurance information, user medical information, user biometric information, and matching information. The user information acquired by the information acquisition unit 101 is stored and managed in the user DB 401.
- the message management unit 102 manages a message transmitted / received as a dialogue via the user terminal 2. Messages transmitted and received as dialogues via the user terminal 2 are stored and managed in the dialogue DB 403. Specifically, in the message management unit 102, the reception control unit 121, the message generation unit 122, and the transmission control unit 123 function. The reception control unit 121 executes control for receiving the message transmitted from the user terminal 2. When there is a message from the user, the message generation unit 122 generates a message to be transmitted to the user based on the content of the message and the user information. If there is no message from the user, a message to be transmitted to the user is generated based on the user information.
- the message generation unit 122 transmits the message to the user terminal 2 based on the content of the message and the user information of the user U. Generate a message.
- a message to be transmitted to the user terminal 2 is generated based on the user information of the user U.
- Techniques such as machine learning, deep learning, and AI (artificial intelligence) can be used for the message generation by the message generation unit 122.
- the transmission control unit 123 executes control for transmitting the message generated by the message generation unit 112 to the user terminal 2.
- the above-described processing executed by the message management unit 102 may be executed in real time or may be executed at predetermined time intervals.
- the space management unit 103 generates a virtual space VS accessible via the user terminal 2 and manages the generated virtual space VS.
- the avatar management unit 104 manages one or more avatars A that can exist in the virtual space VS. Specifically, in the avatar management unit 104, the avatar generation unit 141, the selection unit 142, the processing setting unit 143, the setting reception unit 144, and the model reception unit 145 function.
- the avatar generation part 141 produces
- the avatars A1 to Am (m is an arbitrary integer value of 1 or more) generated by the avatar generation unit 141 are stored and managed in the avatar DB 402.
- the selection unit 142 selects, as the talent, an avatar that is a candidate for a companionship partner of the user in the virtual space from the one or more avatars. Specifically, the selection unit 142 selects, as the talent T, an avatar A that is a candidate for a contact partner of the user U in the virtual space VS among the avatars A1 to Am.
- the process setting unit 143 processes and sets one or more elements of the avatar selected as the talent. Specifically, the processing setting unit 143 performs processing and settings for each element such as the appearance, character, and knowledge level of the avatar A selected as a talent. For example, as described above, the face and the style of the appearance of the avatar A are processed and set. Further, the personality of the avatar A is set such as an outward personality, an inward personality, a thoughtful personality, an emotional personality, a personality that values intuition, and a personality that relies on feelings. Further, hobbies and preferences are set for the intellectual level of the avatar A.
- the setting reception unit 144 receives processing and setting by the user for the avatar introduced to the user as a talent. Specifically, the setting reception unit 144 receives processing and setting by the user U for the avatar A introduced to the user U as the talent T. The received processing and setting contents are reflected in the target avatar A.
- the model reception unit 145 receives, as a model, an avatar that is provided by a second user different from the first user and that has a strong relationship with the first user. Specifically, the model receiving unit 145 receives, as a model M, an avatar A that is provided by the user U2 and mainly has a strong relationship with the user U1. For example, as described above, when the user U2 is the father of the user U1, the father (user U2) provides the model M that targets his or her late wife, that is, the mother of the child (user U1). You can also do it.
- the user information of the user U registered as a user in this service is stored and managed in the user UDB 401.
- the user information includes user financial information, user insurance information, user medical information, user biometric information, matching information, and the like.
- the avatar DB 402 stores and manages the augmented reality (AR) avatar Aa, the virtual reality (VR) avatar Av, and the avatar Au provided from the external portal site PS2, which are generated by the avatar generation unit 141. Has been done.
- AR augmented reality
- VR virtual reality
- Au provided from the external portal site PS2
- the dialogue DB 403 stores and manages the contents of dialogues between the user U, the concierge C, the advisor D, and the avatar A. Specifically, for example, each message that constitutes the dialogue, such as "Mother looks like a cold” or “I'm not quite in touch with you” mentioned above, and the person who issued the message and the message It is stored in association with information indicating the target time and the like.
- the auxiliary DB 404 stores and manages various kinds of information other than user information among various kinds of information provided from the information providing server 3. Specifically, for example, the information that the drunk driving is prohibited by Article 65 of the Road Traffic Act, which is included in the content of the above-mentioned dialogue, is stored in the auxiliary DB 404 because it is included in various information other than the user information. .
- the management server 1 having the above-described functional configuration, the problem of communication ability, the problem of appearance, the problem of residence, and the problem of time are solved, and the real life of the user U is improved. Can be contributed.
- the virtual reality (VR) avatar Av of the talent T learns by techniques such as machine learning, deep learning, and AI (artificial intelligence) by repeating the conversation with the user U. Go. That is, the avatar Av of the talent T continues to change while refining communication ability. Eventually, the personality of the avatar Av of the talent T is gradually formed as an ideal one. Such an avatar whose personality is formed while talking is not limited to the virtual reality (VR) avatar Av of the talent T.
- the user U may learn the avatar of the user U by repeating communication with the server. That is, the avatar Aa of the user U may continue to change while refining the communication ability. And finally, the avatar Aa may be gradually formed to have an ideal personality. As a result, the avatar Av as a copy having the personality of the user U is generated.
- the avatar Aa of the user U learns using the user information acquired and accumulated mainly through the communication between the user U and the server before the user U is alive, and after the death of the user U, The user becomes himself by mainly performing deep learning. That is, the avatar, which is the copy of the user U in the virtual space, can be an advisor, an intermediary, an waiverer, and a family while the user U is alive. Then, the avatar of the user U continues to exist even if the human life of the user U itself is cut off. This means that the consciousness of the user U can live forever in the virtual space. In other words, this avatar, which is a copy of the user U, can be said to be an evolved version of humankind.
- a person in the real world uses the VR device to communicate with the avatar of the user U in the virtual space, so that the user U (a copy of the avatar) returns to the real world even after the user U dies. It will be possible. In this way, since the copy (avatar) of the user U can continue to operate in the real world (real world) even after the death of the user U, it is possible to put an end to the property right discussion of personal information.
- the avatars of individuals (all human beings) in the world that is, a copy of the user U who can freely take in and out user information
- user information of individuals (all human beings) in the world is stored as big data on the cloud or the like. That is, in contrast to the conventional information management method in which personal information is stored in each company or each national institution, user information of individuals (all human beings) in the world is stored in a server equipped with AI. As a result, companies and national institutions will be able to use these big data. Furthermore, since the collected big data becomes collective unconscious, the use of this big data will widely contribute to society. Therefore, it is preferable that the server is incorporated into public infrastructure.
- the user information is said to include user financial information, user insurance information, user medical information, user biometric information, and matching information, but these are merely examples.
- Other information about the user U can be the user information.
- the dialogue between the user U and the concierge C or the advisor D is performed by exchanging voice information via the microphone of the user terminal 2 and the speaker. Further, the dialogue between the user U and the talent T or the model M is performed by exchanging information obtained by adding image information displayed on the screen of the user terminal 2 to voice information. That is, in the above-described embodiment, it is assumed that the user terminal 2 is a smartphone, a tablet terminal, or a personal computer. However, the user terminal 2 is not limited to these, and may be a combination of, for example, a speaker having only a function of outputting sound, a projector having only a function of displaying an image, and a telephone having only a communication function by sound. Good.
- the “dialogue” in the above-described embodiment is supposed to exchange messages in real time, but this is merely an example.
- the dialogue between the user U and the concierge C, the talent T, or the like may be a mail-type dialogue in which it is selected that a time interval occurs in exchanging messages.
- the target of the production setting in the production service is three types of elements including the appearance, character, and knowledge level of the selected talent T, but this is merely an example.
- Various elements indicating the selected talent T can be set.
- the voice or language which is the target of the user setting, may be the target of setting, or the family structure, family pattern, etc. may be the target of setting.
- the avatar Au generated on the portal site operated by the external server is introduced to the user U as the talent as it is, but the invention is not limited to this.
- the above-mentioned production-side setting may be performed, or the user-side setting may be performed.
- the hardware configuration shown in FIG. 5 is merely an example for achieving the object of the present invention, and is not particularly limited.
- the functional block diagram shown in FIG. 6 is merely an example and is not particularly limited. That is, it is sufficient if the information processing system has a function capable of executing the above-described series of processing as a whole, and what kind of functional block is used to realize this function is not particularly limited to the example of FIG. .
- the location of the functional block is not limited to that shown in FIG. 6 and may be arbitrary. Further, one functional block may be configured by hardware alone, software alone, or a combination thereof.
- the program forming the software is installed in a computer or the like from a network or a recording medium.
- the computer may be a computer embedded in dedicated hardware. Further, the computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose smartphone or a personal computer other than a server.
- a recording medium including such a program is provided separately from the apparatus main body to provide the program to each user. It is composed of provided recording media and the like.
- steps for describing a program to be recorded on a recording medium are not limited to processing performed in chronological order according to the order, but are not necessarily performed in chronological order. This also includes the processing to be executed.
- system refers to an entire device including a plurality of devices and a plurality of means.
- the information processing apparatus to which the present invention is applied may have various configurations as long as it has the following configuration. That is, the information processing apparatus (for example, the management server 1) to which the present invention is applied is An acquisition unit (for example, the information acquisition unit 101 in FIG. 6) that acquires information about a user (for example, the user U1 in FIG. 4) as user information, Message management means (for example, message management unit 102 in FIG. 6) that manages messages (for example, dialog) transmitted and received as a dialog via the user terminal operated by the user (for example, user terminal 2-1 in FIG.
- an information processing device including The message management means, When there is a message from the user, a message to be transmitted to the user is generated based on the content of the message and the user information, and when there is no message from the user, based on the user information And generate a message to convey to the user. This can solve the problem of communication ability and contribute to the improvement of the real life of the user U.
- a space management unit (for example, space management unit 103 in FIG. 6) that generates a virtual space (for example, virtual space VS) accessible through the user terminal and manages the generated virtual space
- Avatar management means (for example, avatar management unit 104 in FIG. 6) that manages one or more avatars (for example, avatar A) that can exist in the virtual space
- the avatar management means includes a first avatar (e.g., augmented reality (AR) avatar Aa) whose subject is the user, and a second avatar (e.g., virtual reality (VR) avatar Av) in which the subject is completely created. And can be generated. This can solve the problem of appearance, the problem of the place of residence, and the problem of time, and contribute to the improvement of the real life of the user U.
- AR augmented reality
- VR virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Economics (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Transfer Between Computers (AREA)
Abstract
コミュニケーション能力の問題、容姿の問題、居住地の問題、及び時間の問題を解消することで、ユーザの実生活の向上に寄与させる手法を提供すること。 情報取得部101は、ユーザUに関するユーザ情報を取得する。メッセージ管理部102は、ユーザ端末2を介して送受信されるメッセージを管理するとともに、ユーザUからのメッセージがある場合には、そのメッセージの内容と、ユーザ情報とに基づいて、ユーザUに伝えるメッセージを生成し、ユーザUからのメッセージがない場合には、ユーザ情報に基づいて、ユーザUに伝えるメッセージを生成する。これにより、上記課題を解決する。
Description
本発明は、情報処理装置に関する。
男女のデートの際の会話に必要な知識を豊富にし、会話を支援することで、結婚成立までのプロセスを支援するシステムは既に存在する(特許文献1参照)。また、消極的な人も積極的な人も平等に意中の相手と会話ができるようにすることを目的とした交換用メモ用紙は既に存在する(特許文献2参照)。また、ユーザの結婚活動がより円滑に進行するように支援することを目的としたサーバ装置は既に存在する(特許文献3参照)。
しかしながら、特許文献1乃至3に記載された技術を含む、従来からあるユーザの結婚活動を支援するための技術では、ユーザが異性との交際を開始できなかった場合(以下、「マッチング不成立」と呼ぶ)の事後的な手当てについては何ら考慮されていなかった。このため、マッチング不成立に終わったユーザは、新しい出会いのチャンスを求めるしかなかった。
しかしながら、マッチング不成立に終わったユーザは、その原因を明確化させないまま新しい出会いのチャンスを求めたとしても、同じ失敗を繰り返すことが多い。
しかしながら、マッチング不成立に終わったユーザは、その原因を明確化させないまま新しい出会いのチャンスを求めたとしても、同じ失敗を繰り返すことが多い。
マッチング不成立は、以下の4つの問題のいずれかが原因になっていることが多い。即ち、(1)コミュニケーション能力の問題、(2)容姿の問題、(3)居住地の問題、及び(4)時間の問題、のうち少なくとも1つ以上が原因となり、マッチングが不成立になることが多い。
つまり、(1)は、コミュニケーション能力の不足により、相手に真意が伝わらず勘違いが生じたり、暗い性格であると思われたりして、マッチング不成立になるという問題である。(2)は、相手の容姿が自分の理想と乖離することにより、マッチング不成立になるという問題である。(3)は、相手の居住地が遠すぎることにより、マッチング不成立になるという問題である。(4)は、相手の生活時間が自分の生活時間に合わないことにより、マッチング不成立になるという問題である。
つまり、(1)は、コミュニケーション能力の不足により、相手に真意が伝わらず勘違いが生じたり、暗い性格であると思われたりして、マッチング不成立になるという問題である。(2)は、相手の容姿が自分の理想と乖離することにより、マッチング不成立になるという問題である。(3)は、相手の居住地が遠すぎることにより、マッチング不成立になるという問題である。(4)は、相手の生活時間が自分の生活時間に合わないことにより、マッチング不成立になるという問題である。
本発明は、このような状況に鑑みてなされたものであり、コミュニケーション能力の問題、容姿の問題、居住地の問題、及び時間の問題を解消することで、ユーザの実生活の向上に寄与させる手法を提供することを目的とする。
上記目的を達成するため、本発明の一態様の情報処理装置は、
ユーザに関する情報をユーザ情報として取得する取得手段と、
前記ユーザが操作するユーザ端末を介し対話として送受信されるメッセージを管理するメッセージ管理手段と、
を備える情報処理装置において、
前記メッセージ管理手段は、
前記ユーザからのメッセージがある場合には、当該メッセージの内容と、前記ユーザ情報とに基づいて、前記ユーザに伝えるメッセージを生成し、前記ユーザからのメッセージがない場合には、前記ユーザ情報に基づいて、ユーザに伝えるメッセージを生成する。
ユーザに関する情報をユーザ情報として取得する取得手段と、
前記ユーザが操作するユーザ端末を介し対話として送受信されるメッセージを管理するメッセージ管理手段と、
を備える情報処理装置において、
前記メッセージ管理手段は、
前記ユーザからのメッセージがある場合には、当該メッセージの内容と、前記ユーザ情報とに基づいて、前記ユーザに伝えるメッセージを生成し、前記ユーザからのメッセージがない場合には、前記ユーザ情報に基づいて、ユーザに伝えるメッセージを生成する。
また、前記ユーザ端末を介してアクセス可能な仮想空間を生成し、生成した前記仮想空間を管理する空間管理手段と、
前記仮想空間に存在可能とする1以上のアバターを管理するアバター管理手段と、
をさらに備え、
前記アバター管理手段は、前記ユーザを主体とする第1のアバターと、主体が完全創造された第2のアバターとを生成することができる。
前記仮想空間に存在可能とする1以上のアバターを管理するアバター管理手段と、
をさらに備え、
前記アバター管理手段は、前記ユーザを主体とする第1のアバターと、主体が完全創造された第2のアバターとを生成することができる。
本発明によれば、コミュニケーション能力の問題、容姿の問題、居住地の問題、及び時間の問題を解消することで、ユーザの実生活の向上に寄与させることができる。
以下、本発明の実施形態について図面を用いて説明する。
[サービス内容]
図1は、サービス提供者Pが提供する、本サービスの概要を示すイメージ図である。
図1は、サービス提供者Pが提供する、本サービスの概要を示すイメージ図である。
本サービスは、男女のマッチングサービスにおけるマッチングの不成立の原因が、次の4つの問題の少なくとも1つにあると判断された場合に、対象となるユーザUに対し、その原因を解消するための各種サブサービスを提供するものである。即ち、マッチングの不成立の原因が、(1)コミュニケーション能力の問題、(2)容姿の問題、(3)居住地の問題、及び(4)時間の問題にある場合に、対象ユーザUに対し、これを解消するための各種サブサービスが提供される。
(対話サービス)
マッチングの不成立が、上記(1)のコミュニケーション能力の問題に起因するものである場合には、対象となるユーザUに対し、本サービスのサブサービスである「対話サービス」が提供される。
対話サービスは、対象となるユーザUが、ユーザ端末を介して、コンシェルジュC又はアドバイザDと対話することができるサービスである。
ここで、「対話」とは、複数者間でメッセージのやり取りを行うことをいい、「ユーザ端末を介する」とは、ユーザUが操作するスマートフォン等において、メッセージの入力処理と、メッセージの出力処理とを行うことをいう。
「メッセージを入力する」とは、ユーザUが操作するスマートフォン等に対し、マイクによる音声の入力や、タッチパネルによる入力を行うことをいう。
「メッセージを出力する」とは、ユーザUが操作するスマートフォン等のスピーカや画面から、コンシェルジュCやアドバイザD等からのメッセージを出力することをいう。
マッチングの不成立が、上記(1)のコミュニケーション能力の問題に起因するものである場合には、対象となるユーザUに対し、本サービスのサブサービスである「対話サービス」が提供される。
対話サービスは、対象となるユーザUが、ユーザ端末を介して、コンシェルジュC又はアドバイザDと対話することができるサービスである。
ここで、「対話」とは、複数者間でメッセージのやり取りを行うことをいい、「ユーザ端末を介する」とは、ユーザUが操作するスマートフォン等において、メッセージの入力処理と、メッセージの出力処理とを行うことをいう。
「メッセージを入力する」とは、ユーザUが操作するスマートフォン等に対し、マイクによる音声の入力や、タッチパネルによる入力を行うことをいう。
「メッセージを出力する」とは、ユーザUが操作するスマートフォン等のスピーカや画面から、コンシェルジュCやアドバイザD等からのメッセージを出力することをいう。
「コンシェルジュ」Cは、ユーザUに対し、いわゆる世話役のような立場で対話する。例えばユーザUの「おなかすいたね」というメッセージに対しては、コンシェルジュCは、「そろそろお昼だね」というメッセージを返す。そこで、ユーザUが、「お肉でも食べようか」というメッセージを入力すると、コンシェルジュCは、「外食?出前?」というメッセージを返す。これに対し、ユーザUが「外食にしようか」というメッセージを入力すると、コンシェルジュCは「どこか予約しようか?」というメッセージを返すとともに、近くにあるレストランの検索と予約とを自動で行う。
「アドバイザ」Dは、コンシェルジュCと同じように、ユーザUと対話するが、これに加え、ユーザUに対し、アドバイスやレクチャーをする助言者の立場で対話する。例えばアドバイザDは、「昨日はお肉を食べたので、今日は魚料理がいいんじゃない?」といった、アドバイスを兼ねたメッセージを送る。これに対し、ユーザUが、「じゃあ、カロリーと、不足している栄養素が考慮されたレストランを予約して」というメッセージを入力した場合には、アドバイザDは、「OK。12時半にレストラン○○を予約したよ。レストラン○○のお勧めメニューは□□だけど、○○さん(ユーザUの名前)の口座残高が不足しているから、保有している□○株を売却した方がいいよ」といった、アドバイスを兼ねたメッセージを返す。
ユーザUは、対話サービスを利用することで、日常生活のあらゆる場面で、コンシェルジュCやアドバイザDと対話することになる。コンシェルジュCやアドバイザDは、上述したように仮想の存在であり、実在する人間ではないので、コミュニケーション能力が不足しているユーザUであっても、気兼ねなく積極的に対話することができる。
これにより、ユーザUのコミュニケーション能力は、知らず知らずのうちに向上するので、対話の相手が仮想の存在ではなく、実在する人間に代わったとしても、問題なく対話できるようになる。
なお、コンシェルジュCやアドバイザDには性別が設けられているため、例えば男性のユーザUが、対女性とのコミュニケーション能力を向上させたい場合には、女性のコンシェルジュCやアドバイザDが対話するようにできる。
このため、男性のユーザUは、実在する女性に対しても、問題なく対話できるようになる。
これにより、ユーザUのコミュニケーション能力は、知らず知らずのうちに向上するので、対話の相手が仮想の存在ではなく、実在する人間に代わったとしても、問題なく対話できるようになる。
なお、コンシェルジュCやアドバイザDには性別が設けられているため、例えば男性のユーザUが、対女性とのコミュニケーション能力を向上させたい場合には、女性のコンシェルジュCやアドバイザDが対話するようにできる。
このため、男性のユーザUは、実在する女性に対しても、問題なく対話できるようになる。
ユーザU側から発せられたメッセージに対する返答の内容、コンシェルジュC側から積極的に発せられるメッセージの内容、及びメッセージが発せられるタイミングの如何については、機械学習、深層学習、AI(人工知能)等の技術が適用されている。
これにより、あたかも生身の人間同士が対話しているような自然なメッセージのやり取りを実現させることができる。
これにより、あたかも生身の人間同士が対話しているような自然なメッセージのやり取りを実現させることができる。
(情報提供サービス)
アドバイザD側から積極的に発せられるメッセージの内容、及びその発せられるタイミングについては、情報提供サービスを提供する情報提供サーバ3から別途提供される、ユーザ情報の内容が反映される。
これにより、アドバイザDは、ユーザUとの対話の内容に、ユーザUの個人的な情報や、専門的かつ正確な情報を含めることができる。
アドバイザD側から積極的に発せられるメッセージの内容、及びその発せられるタイミングについては、情報提供サービスを提供する情報提供サーバ3から別途提供される、ユーザ情報の内容が反映される。
これにより、アドバイザDは、ユーザUとの対話の内容に、ユーザUの個人的な情報や、専門的かつ正確な情報を含めることができる。
「ユーザ情報」には、ユーザUの日常生活に関するあらゆる情報が含まれる。例えば、ユーザUの金融取引に関する情報(以下、「ユーザ金融情報」と呼ぶ)、ユーザUの保険取引に関する情報(以下、「ユーザ保険情報」と呼ぶ)、ユーザUの医療に関する情報(以下、「ユーザ医療情報」と呼ぶ)、ユーザUの日々の生体情報(以下、「ユーザ生体情報」と呼ぶ)は、いずれもユーザ情報に含まれる情報である。また、ユーザ情報には、男女のマッチングサービスの利用実績及びその内容(以下、「マッチング情報」と呼ぶ)も含まれる。マッチング情報には、マッチングが不成立となった場合における、相手方のコメントや、アンケートの結果等が含まれる。
ユーザ金融情報には、例えばユーザUの預金残高、振込や振替の実績等の情報が含まれる。ユーザ保険情報には、例えばユーザUが契約する保険の掛金、補償内容等の情報が含まれる。ユーザ医療情報には、例えばユーザUの疾病の内容、診療結果に関する情報、医師の所見、薬の処方実績等の情報が含まれる。ユーザ生体情報には、ユーザUの出生からの体温、脈拍、心拍数、食事の内容、食事をとるタイミング、食事の時間、運動の内容や量、運動時間、睡眠時間、睡眠をとるタイミング、血液の成分、遺伝子情報等が含まれる。なお、ユーザ生体情報を取得する具体的手法は特に限定されない。ユーザUが自ら記録したものをユーザ生体情報としてもよいし、情報提供サーバが制御する所定の測定機器により計測された情報をユーザ生体情報としてもよい。
ユーザ金融情報、ユーザ保険情報、及びユーザ医療情報の夫々は、金融機関、保険会社、及び医療機関の夫々により管理されている情報であり、その一部又は全部がユーザUと共有されている。また、ユーザ生体情報は、情報提供サービスにより管理されている情報であり、その一部又は全部がユーザUと共有されている。
図2は、情報提供サービスから本サービスに提供される各種情報の流れを示すイメージ図である。
図2に示すように、ユーザ金融情報、ユーザ保険情報、及びユーザ医療情報の夫々は、金融機関、保険会社、及び医療機関の夫々と情報提供サービスとの間で共有されている。
ユーザ金融情報、ユーザ保険情報、ユーザ医療情報、及びユーザ生体情報は、ユーザ情報として、情報提供サービスから対話サービスに提供される。これにより、上述したアドバイザDとユーザUとの対話のように、予約したレストランのメニューの金額と、ユーザUの預金口座の残高と、ユーザUが保有する株(資産)の売却価額とが総合的に考慮された対話が可能となる。
ここで、情報提供サービスの適用がある対話サービスを利用するユーザU1は、情報提供サービスのみを利用するユーザU2の生活をフォローすることもできる。この場合、例えば以下のようなケースを想定することができる。
即ち、ユーザU2が1人暮らしの母親であり、ユーザU1がその子供であるケースを想定することができる。このケースでは、母親(ユーザU2)が情報提供サービスを利用しているため、対話サービスは、子供(ユーザU1)とアドバイザDとの対話に、母親(ユーザU2)を対象とするユーザ生体情報やユーザ医療情報等を反映させることができる。
具体的には例えば、アドバイザDは、子供(ユーザU1)に対し、「お母さんが風邪気味みたい」といったような、母親(ユーザU2)の状況報告を兼ねたメッセージを送ることができる。これに対し、子供(ユーザU1)が、「だいぶ合ってないなあ連絡してみる」と返答すれば、少なくとも母親(ユーザU2)の状況が子供に伝わったことになる。
これにより、1人暮らしの親の体調の変化に子供が気付かないことを原因とする孤独死の問題を解決することに寄与させることもできる。
具体的には例えば、アドバイザDは、子供(ユーザU1)に対し、「お母さんが風邪気味みたい」といったような、母親(ユーザU2)の状況報告を兼ねたメッセージを送ることができる。これに対し、子供(ユーザU1)が、「だいぶ合ってないなあ連絡してみる」と返答すれば、少なくとも母親(ユーザU2)の状況が子供に伝わったことになる。
これにより、1人暮らしの親の体調の変化に子供が気付かないことを原因とする孤独死の問題を解決することに寄与させることもできる。
また、ユーザU2は人間である必要はない。例えばペットであってもよいので、ユーザU2がペットであり、ユーザU1がその飼い主であるケースを想定することもできる。このケースでは、ペット(ユーザU2)が情報提供サービスを利用しているため、対話サービスは、飼い主(ユーザU1)とアドバイザDとの対話に、ペット(ユーザU2)を対象とするユーザ生体情報等を反映させることができる。
具体的には例えば、アドバイザDは、「○○(ペットの名前)は最近運動不足でストレスがたまっているんじゃない?」といったような、ペットの状況報告を兼ねたメッセージを送ることができる。これに対し、飼い主(ユーザU1)が、「わかった、今日は早く帰るよ」と返答すれば、家族の一員であるペットの長寿に寄与させることもできる。
具体的には例えば、アドバイザDは、「○○(ペットの名前)は最近運動不足でストレスがたまっているんじゃない?」といったような、ペットの状況報告を兼ねたメッセージを送ることができる。これに対し、飼い主(ユーザU1)が、「わかった、今日は早く帰るよ」と返答すれば、家族の一員であるペットの長寿に寄与させることもできる。
また、ユーザU2は、人間やペットのように生物である必要もない。例えば自動車であってもよいので、ユーザU2が自動車であり、ユーザU1がそのオーナーであるケースを想定することもできる。このケースでは、自動車(ユーザU2)が情報提供サービスを利用しているため、対話サービスは、オーナー(ユーザU1)とアドバイザDとの対話に、オーナー(ユーザU1)のユーザ情報の他に、自動車(ユーザU2)を対象とするユーザ情報を反映させることもできる。
具体的には例えば、オーナー(ユーザU1)が飲酒しているにも関わらず自動車(ユーザU2)の運転を試みた場合には、アドバイザDは、オーナー(ユーザU1)のユーザ情報(特にユーザ生体情報)に基づいて、「飲酒しているから自動車の運転は控えて!」といったような、オーナー(ユーザU1)の体調に関する状況報告を兼ねたアドバイスを送ることができる。また、アドバイザDは、オーナー(ユーザU1)に対しさらに、「飲酒運転は道路交通法第65条で禁止されているよ。酒酔い運転に該当すれば、免許が取り消されるだけじゃなく、5年以下の懲役又は100万円以下の罰金に処されるよ!」とレクチャーすれば、オーナー(ユーザU1)は飲酒運転による代償の大きさを認識することができる。さらに、情報提供サービスは、自動車(ユーザU2)の駆動を制御する制御部(図示せず)と連携することができるので、ユーザ情報からオーナー(ユーザU1)の飲酒が認められた場合には、自動車(ユーザU2)のエンジンがかからないように制御することもできる。これにより、オーナー(ユーザU1)の飲酒運転を強制的に阻止することができる。
具体的には例えば、オーナー(ユーザU1)が飲酒しているにも関わらず自動車(ユーザU2)の運転を試みた場合には、アドバイザDは、オーナー(ユーザU1)のユーザ情報(特にユーザ生体情報)に基づいて、「飲酒しているから自動車の運転は控えて!」といったような、オーナー(ユーザU1)の体調に関する状況報告を兼ねたアドバイスを送ることができる。また、アドバイザDは、オーナー(ユーザU1)に対しさらに、「飲酒運転は道路交通法第65条で禁止されているよ。酒酔い運転に該当すれば、免許が取り消されるだけじゃなく、5年以下の懲役又は100万円以下の罰金に処されるよ!」とレクチャーすれば、オーナー(ユーザU1)は飲酒運転による代償の大きさを認識することができる。さらに、情報提供サービスは、自動車(ユーザU2)の駆動を制御する制御部(図示せず)と連携することができるので、ユーザ情報からオーナー(ユーザU1)の飲酒が認められた場合には、自動車(ユーザU2)のエンジンがかからないように制御することもできる。これにより、オーナー(ユーザU1)の飲酒運転を強制的に阻止することができる。
また、情報提供サービスの適用がある対話サービスを利用するユーザU1が複数存在する場合には、例えば以下のようなケースを想定することができる。
即ち、男性(ユーザU1)と、女性(ユーザU2)とが交際しているケースを想定することができる。このケースでは、対話サービスは、男性(ユーザU1)とアドバイザDとの対話、及び女性(ユーザU2)とアドバイザDとの会話の両方について、夫々のユーザ情報を反映させることができる。
具体的には例えば、アドバイザDは、男性(ユーザU1)に対し、「彼女この間の喧嘩でだいぶ落ち込んでいるみたいだよ」といったような、女性(ユーザU2)の状況報告を兼ねたメッセージを送ることができる。これに対し、男性(ユーザU1)が、「へぇ」と返答した場合には、アドバイザDはさらに、「そろそろ許してあげれば?」といったような、アドバイスを兼ねたメッセージを送ることができる。アドバイザDからのアドバイスに対し、男性(ユーザU1)が、「うん、わかったよ。しょうがないなあ。君から連絡しておいて」と返答した場合には、アドバイザDは、男性(ユーザU1)に対して、「OK、任せて」といったメッセージを送ることができる。
このように、男性(ユーザU1)と女性(ユーザU2)との両方が、情報提供サービスの適用がある対話サービスを利用していることにより、両者の夫々の状況を把握したアドバイザDが、あたかも両者共通の友人のように、喧嘩を仲裁することができる。
具体的には例えば、アドバイザDは、男性(ユーザU1)に対し、「彼女この間の喧嘩でだいぶ落ち込んでいるみたいだよ」といったような、女性(ユーザU2)の状況報告を兼ねたメッセージを送ることができる。これに対し、男性(ユーザU1)が、「へぇ」と返答した場合には、アドバイザDはさらに、「そろそろ許してあげれば?」といったような、アドバイスを兼ねたメッセージを送ることができる。アドバイザDからのアドバイスに対し、男性(ユーザU1)が、「うん、わかったよ。しょうがないなあ。君から連絡しておいて」と返答した場合には、アドバイザDは、男性(ユーザU1)に対して、「OK、任せて」といったメッセージを送ることができる。
このように、男性(ユーザU1)と女性(ユーザU2)との両方が、情報提供サービスの適用がある対話サービスを利用していることにより、両者の夫々の状況を把握したアドバイザDが、あたかも両者共通の友人のように、喧嘩を仲裁することができる。
(仮想空間サービス)
男女間のマッチング不成立が、上記(2)の乃至(4)の問題に起因するものである場合には、本サービスのサブサービスである仮想空間サービスが提供される。即ち、ユーザUにおけるマッチングの不成立が、容姿の問題、居住地の問題、及び時間の問題に起因するものである場合には、ユーザUは、仮想空間サービスを利用することができる。
仮想空間サービスは、対象となるユーザUが、ユーザ端末を介して、仮想空間VSに存在する3DアバターAとの対話ができるようにするサービスである。
男女間のマッチング不成立が、上記(2)の乃至(4)の問題に起因するものである場合には、本サービスのサブサービスである仮想空間サービスが提供される。即ち、ユーザUにおけるマッチングの不成立が、容姿の問題、居住地の問題、及び時間の問題に起因するものである場合には、ユーザUは、仮想空間サービスを利用することができる。
仮想空間サービスは、対象となるユーザUが、ユーザ端末を介して、仮想空間VSに存在する3DアバターAとの対話ができるようにするサービスである。
「仮想空間」VSとは、拡張現実(AR)と、仮想現実(VR)とのうち少なくとも一方を含む仮想の空間のことをいう。
「アバター」とは、ユーザUのユーザ情報に基づいてユーザU毎に生成される、ユーザUの分身を表す電子情報のことをいい、「3Dアバター」とは、ユーザUの分身を3次元で表す電子情報のことをいう。なお、以下、両者を特に区別する必要がない限り、「3Dアバター」についても単に「アバター」Aと呼ぶ。
アバターAには、拡張現実(AR)のアバターAaと、仮想現実(VR)のアバターAvとが含まれる。拡張現実(AR)のアバターAaは、その主体がユーザUであるものをいう。仮想現実(VR)のアバターAvは、その主体がAI(人工知能)により完全創造されたものをいう。なお、以下、両者を特に区別する必要がない限り、両者いずれについても単に「アバター」Aと呼ぶ。
「アバター」とは、ユーザUのユーザ情報に基づいてユーザU毎に生成される、ユーザUの分身を表す電子情報のことをいい、「3Dアバター」とは、ユーザUの分身を3次元で表す電子情報のことをいう。なお、以下、両者を特に区別する必要がない限り、「3Dアバター」についても単に「アバター」Aと呼ぶ。
アバターAには、拡張現実(AR)のアバターAaと、仮想現実(VR)のアバターAvとが含まれる。拡張現実(AR)のアバターAaは、その主体がユーザUであるものをいう。仮想現実(VR)のアバターAvは、その主体がAI(人工知能)により完全創造されたものをいう。なお、以下、両者を特に区別する必要がない限り、両者いずれについても単に「アバター」Aと呼ぶ。
仮想空間サービスを利用するユーザUは、自らが拡張現実(AR)のアバターAaとして仮想空間を行動しながら、拡張現実(AR)のアバターAaや、仮想現実(VR)のアバターAvと対話してもよい。また、ユーザUは、自らはアバターAaにならずに、仮想空間VSに存在する拡張現実(AR)のアバターAaや、仮想現実(VR)のアバターAvと対話してもよい。
仮想空間VSには、アバターAが多数存在するため、ユーザUはアバターAとの対話の機会に恵まれることになる。これにより、ユーザUは、他のアバターAから話しかけられたり、自ら積極的にアバターAに話しかけたりすることにより、ユーザUのコミュニケーション能力を向上させることができる。
仮想空間VSには、アバターAが多数存在するため、ユーザUはアバターAとの対話の機会に恵まれることになる。これにより、ユーザUは、他のアバターAから話しかけられたり、自ら積極的にアバターAに話しかけたりすることにより、ユーザUのコミュニケーション能力を向上させることができる。
(プロダクションサービス)
仮想空間サービスでは、ユーザUに対し、交際相手の候補となるアバターAを紹介するサービス(以下、「プロダクションサービス」と呼ぶ)を提供することもできる。以下、プロダクションサービスによりユーザUに紹介されるアバターAのことを「タレント」Tと呼ぶ。
ユーザUに紹介されるタレントTは、拡張現実(AR)のアバターAaであってもよいし、仮想現実(VR)のアバターAvであってもよい。このため、ユーザUの交際相手となるタレントTは、拡張現実(AR)のアバターVaになる場合もあれば、仮想現実(AR)のアバターAvになる場合もある。
仮想空間サービスでは、ユーザUに対し、交際相手の候補となるアバターAを紹介するサービス(以下、「プロダクションサービス」と呼ぶ)を提供することもできる。以下、プロダクションサービスによりユーザUに紹介されるアバターAのことを「タレント」Tと呼ぶ。
ユーザUに紹介されるタレントTは、拡張現実(AR)のアバターAaであってもよいし、仮想現実(VR)のアバターAvであってもよい。このため、ユーザUの交際相手となるタレントTは、拡張現実(AR)のアバターVaになる場合もあれば、仮想現実(AR)のアバターAvになる場合もある。
プロダクションサービスにおいて、ユーザUにタレントTを紹介する場合、ユーザUのユーザ情報が考慮される。上述したように、ユーザ情報には、マッチング情報も含まれる。そして、マッチング情報には、マッチング不成立になった場合の、相手方のコメントや、アンケートの結果が含まれる。つまり、マッチング情報には、ユーザUの異性との関係についてのネガティブな情報や一部のポジティブな情報が含まれる。
ユーザUの異性との関係についてのネガティブな情報や一部のポジティブな情報は、ユーザUの次の交際を成功させるための重要な情報となる。このため、プロダクションサービスでは、マッチング情報が分析され、その分析結果に基づいて、ユーザUが交際を成功させるために好適なタレントTが選出されて紹介される。
ユーザUのマッチングサービスの利用内容を分析する具体的手法は特に限定されないが、例えば以下の(1)乃至(3)の手法を用いて分析することができる。即ち、(1)マッチングが成立した他のケースとの対比を行う。(2)マッチングが不成立となった相手の感想や、アンケート結果等を収集することにより、ユーザUの問題点を把握する。(3)ユーザUの過去の交際履歴により、性格や好みのタイプ等を把握する。
これにより、ユーザUの異性との関係についてのネガティブな情報や一部のポジティブな情報を詳細に分析することができるので、ユーザUの次の交際を成功させるために好適なタレントTを選出することができる。
これにより、ユーザUの異性との関係についてのネガティブな情報や一部のポジティブな情報を詳細に分析することができるので、ユーザUの次の交際を成功させるために好適なタレントTを選出することができる。
図3は、プロダクションサービスでユーザU1に紹介されるタレントTのパターンの例を示す図である。
プロダクションサービスで紹介されるタレントTのパターンとしては、例えば図3に示す3つのパターン(パターン1乃至3)がある。以下、各パターンについて説明する。
パターン1は、他のユーザU2を主体とする拡張現実(AR)のアバターVaを、タレントTとしてユーザU1に紹介するパターンである。このパターンでは、まず、複数の拡張現実(AR)のアバターAaのうち、ユーザU1が次回の交際を成功させるために好適なアバターAがタレントTとして選出される。次に、選出されたタレントTを対象として、プロダクションサービスによる加工及び設定(以下、「プロダクション側設定」と呼ぶ)が行われる。プロダクション側設定における具体的な加工及び設定の内容は特に限定されないが、本実施形態では、プロダクション側設定において、次の(1)乃至(3)の要素についての加工及び設定が行われる。
即ち、プロダクションサービスにより作成されたタレントTのプロトタイプをベースとして、(1)容姿、(2)性格、及び(3)知識レベルの夫々について、プロダクションサービスによる加工及び設定が行われる。なお、プロダクションサービスによるタレントTのプロトタイプの作成においては、ユーザU2の肖像権が考慮される。
具体的には、(1)容姿については、タレントTの顔やスタイルについての加工及び設定が行われる。また、(2)性格については、タレントTの性格として、外向きな性格、内向きな性格、思慮深い性格、感情的な性格、直感を重んじる性格、感覚に頼る性格等が設定される。(3)知識レベルについては、タレントTの趣味や嗜好の設定が行われる。パターン1のタレントTは、以上のような加工及び設定が行われた後にユーザU1に紹介される。
即ち、プロダクションサービスにより作成されたタレントTのプロトタイプをベースとして、(1)容姿、(2)性格、及び(3)知識レベルの夫々について、プロダクションサービスによる加工及び設定が行われる。なお、プロダクションサービスによるタレントTのプロトタイプの作成においては、ユーザU2の肖像権が考慮される。
具体的には、(1)容姿については、タレントTの顔やスタイルについての加工及び設定が行われる。また、(2)性格については、タレントTの性格として、外向きな性格、内向きな性格、思慮深い性格、感情的な性格、直感を重んじる性格、感覚に頼る性格等が設定される。(3)知識レベルについては、タレントTの趣味や嗜好の設定が行われる。パターン1のタレントTは、以上のような加工及び設定が行われた後にユーザU1に紹介される。
タレントTを紹介されたユーザU1は、紹介されたタレントTを対象とする加工及び設定(以下、「ユーザ側設定」と呼ぶ)を行う。ユーザ側設定における具体的な加工及び設定の内容は特に限定されないが、本実施形態では、ユーザ側設定において、次の(1)乃至(3)の加工及び設定が行われる。
即ち、紹介されたタレントTをベースとして、(1)容姿、(2)声、及び(3)言語の夫々についてユーザU1による加工及び設定が行われる。
即ち、紹介されたタレントTをベースとして、(1)容姿、(2)声、及び(3)言語の夫々についてユーザU1による加工及び設定が行われる。
具体的には、(1)容姿については、タレントTの服装、髪型、スタイル、及び肌の色についての加工及び設定が行われる。また、(2)声については、プロダクションサービスにより自動生成されたものをベースとした加工及び設定が行われる。
このように、容姿や声についてユーザU1側で加工や設定が行えるようにすることにより、ユーザU1は、紹介されたタレントTを自分の好みのタイプに近づけることができる。その結果、ユーザU1は、タレントTとの対話に積極的に取り組むことが期待できるので、より短期間でコミュニケーション能力を向上させることができるようになる。
このように、容姿や声についてユーザU1側で加工や設定が行えるようにすることにより、ユーザU1は、紹介されたタレントTを自分の好みのタイプに近づけることができる。その結果、ユーザU1は、タレントTとの対話に積極的に取り組むことが期待できるので、より短期間でコミュニケーション能力を向上させることができるようになる。
また、(3)言語については、日本語や英語等の任意の言語に設定される。また、同じ日本語でも、地方で使われる方言(関西弁、福島弁、秋田弁等)レベルで設定することできる。
このように、タレントTが使用する言語についてユーザU1側で設定が行えるようにすることにより、ユーザU1は、自分が日常的に使用する言語はもちろんのこと、習得したい言語に設定することができる。これにより、ユーザU1は、習得したい言語でタレントTと対話することができるので、習得したい言語による会話に積極的に取り組むようになることが期待できる。その結果、より短期間で複数言語を習得することができるとともに、コミュニケーション能力を向上させることもできる。
このように、タレントTが使用する言語についてユーザU1側で設定が行えるようにすることにより、ユーザU1は、自分が日常的に使用する言語はもちろんのこと、習得したい言語に設定することができる。これにより、ユーザU1は、習得したい言語でタレントTと対話することができるので、習得したい言語による会話に積極的に取り組むようになることが期待できる。その結果、より短期間で複数言語を習得することができるとともに、コミュニケーション能力を向上させることもできる。
パターン2は、パターン1と同様に、他のユーザU2を主体とする拡張現実(AR)のアバターAaが、タレントTとして紹介されるが、図3に示すようにタレントTの選出は行われず、それに代えて「モデル」Mの提供が行われる。
「モデル」Mとは、ユーザU2から提供されるタレントTのうち、ユーザU1が過去に実際に接したことや、何らかの関係性があった人や動物等を対象とするタレントTのことをいう。モデルMの対象となる人や動物は生存していてもよいし、生存していなくともよい。
なお、パターン2の場合、ユーザU1と、タレントTとして紹介されたモデルMとは、1対1の関係が維持される。即ち、モデルMは、ユーザU1にとって特有の存在として取り扱われることになるため、ユーザU1以外のユーザUが対話することはできない。
「モデル」Mとは、ユーザU2から提供されるタレントTのうち、ユーザU1が過去に実際に接したことや、何らかの関係性があった人や動物等を対象とするタレントTのことをいう。モデルMの対象となる人や動物は生存していてもよいし、生存していなくともよい。
なお、パターン2の場合、ユーザU1と、タレントTとして紹介されたモデルMとは、1対1の関係が維持される。即ち、モデルMは、ユーザU1にとって特有の存在として取り扱われることになるため、ユーザU1以外のユーザUが対話することはできない。
具体的には例えば、ユーザU2がユーザU1の父親である場合、父親(ユーザU2)は、自分の亡き妻、つまり子供(ユーザU1)の亡き母親を主体とするモデルMを提供することもできる。この場合、子供(ユーザU1)は、タレントTとして紹介された亡き母親のアバターA(モデルM)と、仮想空間VSで対話することができる。
これにより、例えば子供(ユーザU1)が、元来高いコミュニケーション能力を有していたものの、何らかの事象(例えば母親の死)によりコミュニケーション能力を失っていたのであれば、これを取り戻すきっかけにもなり得る。
これにより、例えば子供(ユーザU1)が、元来高いコミュニケーション能力を有していたものの、何らかの事象(例えば母親の死)によりコミュニケーション能力を失っていたのであれば、これを取り戻すきっかけにもなり得る。
また例えば、ユーザU2がユーザU1の夫である場合には、夫(ユーザU2)は、妻(ユーザU1)と一緒に可愛がっていた亡きペットを対象とするモデルMを提供することもできる。この場合、妻(ユーザU1)は、タレントTとして紹介された亡きペットのアバターA(モデルM)と仮想空間VSで対話することができる。つまり、仮想空間VSであれば、アバターAの主体が動物であっても擬人化による対話が可能となる。このため、例えば妻(ユーザU1)が、元来高いコミュニケーション能力を有していたものの、何らかの事象(例えばペットの死)によりコミュニケーション能力を失っていたのであれば、これを取り戻すきっかけにもなり得る。
パターン3は、ユーザU1が仮想空間サービスの提供を受けるために利用するポータルサイトPS1とは異なる外部のポータルサイトPS2で生成された拡張現実(AR)又は仮想現実(VR)のアバターAvをタレントTとしてユーザU1に紹介するパターンである。即ち、パターン3で紹介されるタレントTは、外部のポータルサイトPS2で生成された完成型のアバターAuとなるため、パターン1で行われるようなプロダクション側設定やユーザ側設定は行われない。つまり、既に存在するアバターAuがそのままタレントとしてユーザU1に紹介される。
このように、パターン3では、外部のポータルサイトPS2で生成された完成型のアバターAuがタレントTとしてユーザU1に紹介されるので、ユーザU1は、様々な人格のタレントTと対話することができるようになる。即ち、上述のパターン1により紹介されるタレントTは、プロダクション側設定やユーザ側設定を経ることで、敢えてユーザU1の好みのタイプに近づけようとするものであった。つまり、パターン1は、タレントTをユーザU1の好みのタイプに近づけることで、ユーザU1がタレントTと積極的に対話しようさせるものであった。
これに対して、パターン3は、既に存在するアバターAuがそのままタレントTとして紹介されるため、ユーザU1の好みの如何にかかわらず、様々な人格のアバターAuがタレントTとして紹介されることになる。これにより、ユーザU1は、自分の好みとは無関係にあらゆる人格のアバターAuと対話をする機会を得ることができる。つまり、より現実社会に近い環境で、対話のトレーニングを積むことができる。その結果、ユーザU1は、様々な人格のタレントTとの対話を通じて、対話で必要とされる対応力を身に付けることができるので、より実践的なコミュニケーション能力の向上を図ることができる。
ここで、ユーザU1に紹介されるタレントTは、サービス提供者Pが仮想空間サービスを提供するために運営するポータルサイトPS1において、例えば以下のような手法によって管理される。
タレントTのうち拡張現実(AR)のアバターAaについては、サービス提供者Pとの間で締結される専属マネジメント契約の内容に基づいて管理される。
また、タレントTのうち仮想現実(VR)のアバターAvは、以下のように管理される。即ち、仮想現実(VR)のアバターAvについては、機械学習、深層学習、AI(人工知能)等の技術を用いることにより、上述のコンシェルジュC又はアドバイザDとして、ユーザUと対話する機会を与える。すると、ユーザUとの対話の積み重ねによって深層学習が進み、コミュニケーション能力に磨きをかけながら変化し続け、次第に理想的なアバターとしての人格が形成されていく。仮想現実(VR)のアバターAvのコミュニケーション能力が向上しているということは、その対話の相手であるユーザUのコミュニケーション能力も向上しているということになる。つまり、ユーザUと仮想現実(VR)のアバターAvとの対話が積み重ねられることで、両者が共に理想的な人格を備えることができるようになる。
タレントTのうち拡張現実(AR)のアバターAaについては、サービス提供者Pとの間で締結される専属マネジメント契約の内容に基づいて管理される。
また、タレントTのうち仮想現実(VR)のアバターAvは、以下のように管理される。即ち、仮想現実(VR)のアバターAvについては、機械学習、深層学習、AI(人工知能)等の技術を用いることにより、上述のコンシェルジュC又はアドバイザDとして、ユーザUと対話する機会を与える。すると、ユーザUとの対話の積み重ねによって深層学習が進み、コミュニケーション能力に磨きをかけながら変化し続け、次第に理想的なアバターとしての人格が形成されていく。仮想現実(VR)のアバターAvのコミュニケーション能力が向上しているということは、その対話の相手であるユーザUのコミュニケーション能力も向上しているということになる。つまり、ユーザUと仮想現実(VR)のアバターAvとの対話が積み重ねられることで、両者が共に理想的な人格を備えることができるようになる。
ここで、ユーザUとの対話の機会が多い仮想現実(VR)のアバターAvは、それだけ多くのユーザUからアクセスさせていることになる。換言すると、アクセスの少ない仮想現実(VR)のアバターAvは、それだけユーザUとの対話の機会が少ないということになる。ユーザUとの対話の積み重ねが少ないのであれば、それだけ深層学習が進んでいないとうことになる。つまり、このような仮想現実(VR)のアバターAvの人格には、これまでに対話の相手方となった特定のユーザUの性格的特徴が色濃く表れるので、一般的に個性的となる。
仮想空間VSにおいて、タレントTとの対話を積み重ねたことにより、人格に変化が生じたと認められたユーザUは、以下のように取り扱われることになる。即ち、人格に変化が生じたと認められるユーザUのユーザ情報に基づいて、ユーザUの趣味や嗜好が考慮された適格な相手(現実の異性)が紹介される。
サービス提供者Pは、以上のように多種多様な仮想現実(VR)のアバターAvをタレントTとして管理しながら、仮想空間サービスを提供するポータルサイトPS1を運営する。
[システム構成]
図4は、本発明の情報処理装置の一実施形態に係る管理サーバ1を含む情報処理システムISの構成の概要を示す図である。
図4は、本発明の情報処理装置の一実施形態に係る管理サーバ1を含む情報処理システムISの構成の概要を示す図である。
図4に示す情報処理システムISは、管理サーバ1と、ユーザ端末2-1乃至2-n(nは1以上の任意の整数値)と、情報提供サーバ3と、金融機関等端末4と、医療機関端末5とがインターネット等の所定のネットワークNを介して相互に接続されることで構成される。
また、情報処理システムISには、ネットワークNを介して、外部サーバ6が接続されている。
また、情報処理システムISには、ネットワークNを介して、外部サーバ6が接続されている。
管理サーバ1は、本サービスを提供するサービス提供者Pが管理する情報処理装置である。管理サーバ1は、ユーザ端末2-1乃至2-n、情報提供サーバ3、金融機関等端末4、及び医療機関端末5の各動作を管理すべく、各種処理を実行する。
ユーザ端末2-1乃至2-nの夫々は、ユーザU1乃至Unの夫々が操作する情報処理装置であって、例えばパーソナルコンピュータ、スマートフォン、タブレット等で構成される。なお、以下、ユーザU1乃至Un、ユーザ端末2-1乃至2-nの夫々を個々に区別する必要がない場合、これらをまとめて、「ユーザU」、「ユーザ端末2」の夫々と呼ぶ。ただし、ユーザUは、必ずしもユーザ端末2を操作するわけではなく、例えばユーザUが人間ではない場合には、ユーザ端末2を操作しない場合がある。
情報提供サーバ3は、サービスとして各種情報の提供を行う者が管理する情報処理装置である。情報提供サーバ3は、対話サービスや仮想空間サービスに適用される各種情報を管理する。
金融機関等端末4は、ユーザUが利用する金融機関及び保険会社の夫々が管理する情報処理装置である。金融機関等端末4は、対話サービスや仮想空間サービスに適用され得る金融情報や保険情報を管理する。
医療機関端末5は、ユーザUが利用する医療機関が管理する情報処理装置である。医療機関端末5は、対話サービスや仮想空間サービスに適用され得る医療情報を管理する。
外部サーバ6は、外部のポータルサイトPS2を運営する者が管理する情報処理装置である。
[ハードウェア構成]
次に、本サービスを提供するために各種処理を実行する管理サーバ1のハードウェア構成について説明する。
図5は、図1の管理サーバ1のハードウェア構成を示すブロック図である。
次に、本サービスを提供するために各種処理を実行する管理サーバ1のハードウェア構成について説明する。
図5は、図1の管理サーバ1のハードウェア構成を示すブロック図である。
管理サーバ1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、出力部16と、入力部17と、記憶部18と、通信部19と、ドライブ20とを備えている。
CPU11は、ROM12に記録されているプログラム、又は、記憶部18からRAM13にロードされたプログラムに従って各種の処理を実行する。
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、出力部16、入力部17、記憶部18、通信部19及びドライブ20が接続されている。
出力部16は各種液晶ディスプレイ等で構成され、各種情報を出力する。
入力部17は、各種ハードウェア鉛等で構成され、各種情報を入力する。
記憶部18は、DRAM(Dynamic Random Access Memory)等で構成され、各種データを記憶する。
通信部19は、インターネットを含むネットワークNを介して他の装置(例えば図1のユーザ端末2-1乃至2-n、情報提供サーバ3、金融機関等端末4、医療機関端末5、及び外部サーバ6)との間で行う通信を制御する。
入力部17は、各種ハードウェア鉛等で構成され、各種情報を入力する。
記憶部18は、DRAM(Dynamic Random Access Memory)等で構成され、各種データを記憶する。
通信部19は、インターネットを含むネットワークNを介して他の装置(例えば図1のユーザ端末2-1乃至2-n、情報提供サーバ3、金融機関等端末4、医療機関端末5、及び外部サーバ6)との間で行う通信を制御する。
ドライブ20は、必要に応じて設けられる。ドライブ20には磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア30が適宜装着される。ドライブ20によってリムーバブルメディア30から読み出されたプログラムは、必要に応じて記憶部18にインストールされる。またリムーバブルメディア30は、記憶部18に記憶されている各種データも、記憶部18と同様に記憶することができる。
[機能的構成]
次に、管理サーバ1の機能について、図6を参照して説明する。
図6は、図5の管理サーバ1の機能的構成の一例を示す機能ブロック図である。
次に、管理サーバ1の機能について、図6を参照して説明する。
図6は、図5の管理サーバ1の機能的構成の一例を示す機能ブロック図である。
図5に示すように、管理サーバ1のCPU11においては、対話処理が実行される場合には、情報取得部101と、メッセージ管理部102とが機能する。仮想空間提供処理が実行される場合には、情報取得部101と、空間管理部103と、アバター管理部104と、が機能する。プロダクション処理が実行される場合には、情報取得部101と、アバター管理部104とが機能する。
記憶部18の一領域には、ユーザDB401と、アバターDB402と、対話DB403と、補助DB404とが設けられている。
記憶部18の一領域には、ユーザDB401と、アバターDB402と、対話DB403と、補助DB404とが設けられている。
「対話処理」とは、上述の対話サービスを実現させるための一連の処理をいう。対話処理が実行されることにより、ユーザUと、コンシェルジュC又はアドバイザDとが対話できるようになる。
「仮想空間提供処理」とは、上述の仮想空間サービスを実現させるための一連の処理をいう。仮想空間提供処理が実行されることにより、ユーザUは、仮想空間でアバターと対話できるようになる。
「プロダクション処理」とは、上述のプロダクションサービスを実現させるための一連の処理をいう。プロダクション処理が実行されることにより、ユーザUに対するタレントの紹介が可能となる。
(CPU)
情報取得部101は、ユーザに関する情報をユーザ情報として取得する。具体的には、情報取得部101は、情報提供サーバ3により管理されているユーザ情報を取得する。上述したように、ユーザ情報には、ユーザ金融情報、ユーザ保険情報、ユーザ医療情報、ユーザ生体情報、及びマッチング情報が含まれる。情報取得部101により取得されたユーザ情報は、ユーザDB401に記憶されて管理される。
情報取得部101は、ユーザに関する情報をユーザ情報として取得する。具体的には、情報取得部101は、情報提供サーバ3により管理されているユーザ情報を取得する。上述したように、ユーザ情報には、ユーザ金融情報、ユーザ保険情報、ユーザ医療情報、ユーザ生体情報、及びマッチング情報が含まれる。情報取得部101により取得されたユーザ情報は、ユーザDB401に記憶されて管理される。
メッセージ管理部102は、ユーザ端末2を介して対話として送受信されるメッセージを管理する。ユーザ端末2を介して対話として送受信されるメッセージは、対話DB403に記憶されて管理される。
具体的には、メッセージ管理部102では、受信制御部121と、メッセージ生成部122と、送信制御部123とが機能する。
受信制御部121は、ユーザ端末2から送信されてきたメッセージを受信する制御を実行する。
メッセージ生成部122は、ユーザからのメッセージがある場合には、そのメッセージの内容と、ユーザ情報とに基づいて、ユーザに伝えるメッセージを生成する。ユーザからのメッセージがない場合には、ユーザ情報に基づいて、ユーザに伝えるメッセージを生成する。
具体的には、メッセージ生成部122は、受信制御部121の制御により受信されたメッセージがある場合には、そのメッセージの内容と、ユーザUのユーザ情報とに基づいて、ユーザ端末2に送信するメッセージを生成する。受信制御部121の制御により受信されたメッセージがない場合には、ユーザUのユーザ情報に基づいて、ユーザ端末2に送信するメッセージを生成する。メッセージ生成部122によるメッセージの生成には、機械学習、深層学習、AI(人工知能)等の技術を用いることができる。
送信制御部123は、メッセージ生成部112により生成されたメッセージをユーザ端末2に送信する制御を実行する。
メッセージ管理部102において実行される上述の処理は、リアルタイムで実行されてもよいし、所定の時間的間隔をおいて実行されてもよい。
具体的には、メッセージ管理部102では、受信制御部121と、メッセージ生成部122と、送信制御部123とが機能する。
受信制御部121は、ユーザ端末2から送信されてきたメッセージを受信する制御を実行する。
メッセージ生成部122は、ユーザからのメッセージがある場合には、そのメッセージの内容と、ユーザ情報とに基づいて、ユーザに伝えるメッセージを生成する。ユーザからのメッセージがない場合には、ユーザ情報に基づいて、ユーザに伝えるメッセージを生成する。
具体的には、メッセージ生成部122は、受信制御部121の制御により受信されたメッセージがある場合には、そのメッセージの内容と、ユーザUのユーザ情報とに基づいて、ユーザ端末2に送信するメッセージを生成する。受信制御部121の制御により受信されたメッセージがない場合には、ユーザUのユーザ情報に基づいて、ユーザ端末2に送信するメッセージを生成する。メッセージ生成部122によるメッセージの生成には、機械学習、深層学習、AI(人工知能)等の技術を用いることができる。
送信制御部123は、メッセージ生成部112により生成されたメッセージをユーザ端末2に送信する制御を実行する。
メッセージ管理部102において実行される上述の処理は、リアルタイムで実行されてもよいし、所定の時間的間隔をおいて実行されてもよい。
空間管理部103は、ユーザ端末2を介してアクセス可能な仮想空間VSを生成し、生成した仮想空間VSを管理する。
アバター管理部104は、仮想空間VSに存在可能とする1以上のアバターAを管理する。
具体的には、アバター管理部104では、アバター生成部141と、選出部142と、加工設定部143と、設定受付部144と、モデル受付部145とが機能する。
具体的には、アバター管理部104では、アバター生成部141と、選出部142と、加工設定部143と、設定受付部144と、モデル受付部145とが機能する。
アバター生成部141は、ユーザを主体とする第1のアバターを生成する。また、アバター生成部141は、主体が完全創造された第2のアバターを生成する。
具体的には、アバター生成部141は、ユーザUを主体とする拡張現実(AR)のアバターAaを生成する。また、アバター生成部141は、その主体がAI(人工知能)により完全創造された仮想現実(VR)のアバターAvを生成する。
アバター生成部141により生成されたアバターA1乃至Am(mは1以上の任意の整数値)は、アバターDB402に記憶されて管理される。
具体的には、アバター生成部141は、ユーザUを主体とする拡張現実(AR)のアバターAaを生成する。また、アバター生成部141は、その主体がAI(人工知能)により完全創造された仮想現実(VR)のアバターAvを生成する。
アバター生成部141により生成されたアバターA1乃至Am(mは1以上の任意の整数値)は、アバターDB402に記憶されて管理される。
選出部142は、1以上のアバターのうち、仮想空間におけるユーザの交際相手の候補となるアバターをタレントとして選出する。
具体的には、選出部142は、アバターA1乃至Amのうち、仮想空間VSにおけるユーザUの交際相手の候補となるアバターAをタレントTとして選出する。
具体的には、選出部142は、アバターA1乃至Amのうち、仮想空間VSにおけるユーザUの交際相手の候補となるアバターAをタレントTとして選出する。
加工設定部143は、タレントとして選出されたアバターの1以上の要素について、加工及び設定を行う。
具体的には、加工設定部143は、タレントとして選出されたアバターAの容姿、性格、知識レベル等の各要素について、加工及び設定を行う。例えば、上述したように、アバターAの容姿について、顔やスタイルの加工及び設定が行われる。また、アバターAの性格について、外向きな性格、内向きな性格、思慮深い性格、感情的な性格、直感を重んじる性格、感覚に頼る性格等の設定が行われる。また、アバターAの知的レベルについて、趣味や嗜好の設定が行われる。
具体的には、加工設定部143は、タレントとして選出されたアバターAの容姿、性格、知識レベル等の各要素について、加工及び設定を行う。例えば、上述したように、アバターAの容姿について、顔やスタイルの加工及び設定が行われる。また、アバターAの性格について、外向きな性格、内向きな性格、思慮深い性格、感情的な性格、直感を重んじる性格、感覚に頼る性格等の設定が行われる。また、アバターAの知的レベルについて、趣味や嗜好の設定が行われる。
設定受付部144は、タレントとしてユーザに紹介されたアバターに対する、ユーザによる加工及び設定を受け付ける。
具体的には、設定受付部144は、タレントTとしてユーザUに紹介されたアバターAに対する、ユーザUによる加工及び設定を受け付ける。受け付けられた加工及び設定の内容は、対象となるアバターAに反映される。
具体的には、設定受付部144は、タレントTとしてユーザUに紹介されたアバターAに対する、ユーザUによる加工及び設定を受け付ける。受け付けられた加工及び設定の内容は、対象となるアバターAに反映される。
モデル受付部145は、第1ユーザとは異なる第2ユーザから提供された、第1ユーザとの関係性が深い存在を主体とするアバターを、モデルとして受け付ける。
具体的には、モデル受付部145は、ユーザU2から提供された、ユーザU1との関係性が深い存在を主体とするアバターAを、モデルMとして受け付ける。例えば、上述したように、ユーザU2が、ユーザU1の父親である場合には、父親(ユーザU2)は、自分の亡き妻、即ち子供(ユーザU1)の亡き母親を対象とするモデルMを提供することもできる。
具体的には、モデル受付部145は、ユーザU2から提供された、ユーザU1との関係性が深い存在を主体とするアバターAを、モデルMとして受け付ける。例えば、上述したように、ユーザU2が、ユーザU1の父親である場合には、父親(ユーザU2)は、自分の亡き妻、即ち子供(ユーザU1)の亡き母親を対象とするモデルMを提供することもできる。
(記憶部)
ユーザUDB401には、本サービスにユーザ登録されたユーザUのユーザ情報が記憶され管理されている。上述したように、ユーザ情報には、ユーザ金融情報、ユーザ保険情報、ユーザ医療情報、ユーザ生体情報、及びマッチング情報等が含まれる。
ユーザUDB401には、本サービスにユーザ登録されたユーザUのユーザ情報が記憶され管理されている。上述したように、ユーザ情報には、ユーザ金融情報、ユーザ保険情報、ユーザ医療情報、ユーザ生体情報、及びマッチング情報等が含まれる。
アバターDB402には、アバター生成部141により生成された、拡張現実(AR)のアバターAaと、仮想現実(VR)のアバターAvと、外部のポータルサイトPS2から提供されたアバターAuとが記憶され管理されている。
対話DB403には、ユーザUと、コンシェルジュC、アドバイザD、及びアバターAとの間で交わされた対話の内容が記憶されて管理されている。
具体的には例えば、上述の「お母さんが風邪気味みたい」、「だいぶ合ってないなあ連絡してみる」といった、対話を構成する各メッセージが、メッセージを発した者と、メッセージが発せられた具体的時刻等を示す情報に対応付けられて記憶されている。
具体的には例えば、上述の「お母さんが風邪気味みたい」、「だいぶ合ってないなあ連絡してみる」といった、対話を構成する各メッセージが、メッセージを発した者と、メッセージが発せられた具体的時刻等を示す情報に対応付けられて記憶されている。
補助DB404には、情報提供サーバ3から提供された各種情報のうち、ユーザ情報以外の各種情報が記憶されて管理されている。
具体的には例えば、上述の対話の内容に含まれる、飲酒運転が道路交通法第65条で禁止されているという情報は、ユーザ情報以外の各種情報に含まれるため、補助DB404に記憶される。
具体的には例えば、上述の対話の内容に含まれる、飲酒運転が道路交通法第65条で禁止されているという情報は、ユーザ情報以外の各種情報に含まれるため、補助DB404に記憶される。
上述のような機能的構成を有する管理サーバ1により実行される各種処理により、コミュニケーション能力の問題、容姿の問題、居住地の問題、及び時間の問題を解消し、ユーザUの実生活の向上に寄与させることができる。
以上、本発明の一実施形態について説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
例えば、上述の実施形態において、タレントTの仮想現実(VR)のアバターAvは、ユーザUとの会話を繰り返すことで、機械学習、深層学習、AI(人工知能)等の技術により学習をしていく。つまり、タレントTのアバターAvは、コミュニケーション能力に磨きをかけながら変化し続けていく。そして最終的には、タレントTのアバターAvは、次第に理想的なものとしての人格が形成されていく。
このような、会話をしながら人格が形成されていくアバターは、タレントTの仮想現実(VR)のアバターAvに限定されない。
このような、会話をしながら人格が形成されていくアバターは、タレントTの仮想現実(VR)のアバターAvに限定されない。
例えば、ユーザUが、サーバとの間でコミュニケーションを繰り返すことにより、そのユーザUのアバターを学習させてもよい。つまり、ユーザUのアバターAaが、コミュニケーション能力に磨きをかけながら変化し続けていくようにしてもよい。そして最終的に、アバターAaが、次第に理想的なものとしての人格が形成されていくようにしてもよい。これにより、ユーザUの人格を持つコピーとしてのアバターAvが生成されることになる。
具体的には例えばユーザUのアバターAaは、ユーザUの生前では、主としてユーザUとサーバとの間のコミュニケーションを通じて取得及び集積されたユーザ情報を用いて学習をし、ユーザUの死亡後では、主として深層学習をしていくことにより、ユーザ自身と化す。
つまり、仮想空間におけるユーザUのコピーたるアバターは、ユーザU自身の生存中には助言者となり、仲介者となり、庇護者となり、そして家族となり得る。そして、ユーザUのアバターは、ユーザU自身の人間としての生命が途絶えても存在し続ける。このことは、仮想空間においてユーザUの意識は永遠に生き続けることができることを意味する。換言すると、このユーザUのコピーたるアバターは、一種の人類の進化版といえる。
つまり、仮想空間におけるユーザUのコピーたるアバターは、ユーザU自身の生存中には助言者となり、仲介者となり、庇護者となり、そして家族となり得る。そして、ユーザUのアバターは、ユーザU自身の人間としての生命が途絶えても存在し続ける。このことは、仮想空間においてユーザUの意識は永遠に生き続けることができることを意味する。換言すると、このユーザUのコピーたるアバターは、一種の人類の進化版といえる。
さらにまた、実世界の人間がVRデバイスを用いて仮想空間内でユーザUのアバターとコミュニケーションを取ること等により、ユーザUの死亡後も、ユーザU(のコピーたるアバター)を現実社会に復帰させることが可能になる。
このように、ユーザUの死亡後も、ユーザUのコピー(アバター)が、実世界(現実社会)で活動し続けることができるため、個人情報の財産権議論にも終止符を打つことができる。
このように、ユーザUの死亡後も、ユーザUのコピー(アバター)が、実世界(現実社会)で活動し続けることができるため、個人情報の財産権議論にも終止符を打つことができる。
このようにして、サーバ等には、全世界の個人(全人類)のアバター(つまり、ユーザ情報を自在に出し入れできる存在たるユーザUのコピー)が存在するようになる。このことは、全世界の個人(全人類)のユーザ情報がビッグデータとしてクラウド上等に保管されることになる。
つまり、各企業や各国家機関に対して個人情報が夫々保管されていた従来の情報管理の手法に対し、AIが搭載されたサーバに全世界の個人(全人類)のユーザ情報が保管されるようになるため、企業や国家機関がこれらのビッグデータを利用することができるようになる。
さらにまた、収集されたビッグデータは集合的無意識と化すため、このビッグデータを利用することは広く社会に貢献することとなる。したがって、当該サーバは公共インフラに組み込まれることが好ましい。
つまり、各企業や各国家機関に対して個人情報が夫々保管されていた従来の情報管理の手法に対し、AIが搭載されたサーバに全世界の個人(全人類)のユーザ情報が保管されるようになるため、企業や国家機関がこれらのビッグデータを利用することができるようになる。
さらにまた、収集されたビッグデータは集合的無意識と化すため、このビッグデータを利用することは広く社会に貢献することとなる。したがって、当該サーバは公共インフラに組み込まれることが好ましい。
例えば、上述の実施形態において、ユーザ情報には、ユーザ金融情報、ユーザ保険情報、ユーザ医療情報、ユーザ生体情報、及びマッチング情報が含まれるとされているが、これらは例示にすぎない。ユーザUに関する他の情報をユーザ情報とすることができる。例えば、上述の対話の例に含まれる、ユーザUの母親が風邪気味であるという情報や、ユーザUのペットである○○(ペットの名前)が最近運動不足であるという情報も、ユーザ情報に含まれる。
また例えば、上述の実施形態では、ユーザUと、コンシェルジュCやアドバイザDとの対話は、ユーザ端末2のマイクと、スピーカとを介した音声情報のやり取りにより行われる。また、ユーザUと、タレントTやモデルMとの対話は、音声情報に、ユーザ端末2の画面に表示される画像情報を加えた情報のやり取りにより行われる。即ち、上述の実施形態では、ユーザ端末2がスマートフォン、タブレット端末、又はパーソナルコンピュータであることを前提としている。
しかしながら、ユーザ端末2は、これらに限定されず、例えば音声を出力する機能のみを有するスピーカ、映像を映し出す機能のみを有する映写機、音声による通信機能のみを有する電話機等を組み合せたものであってもよい。
しかしながら、ユーザ端末2は、これらに限定されず、例えば音声を出力する機能のみを有するスピーカ、映像を映し出す機能のみを有する映写機、音声による通信機能のみを有する電話機等を組み合せたものであってもよい。
また例えば、上述の実施形態における「対話」は、リアルタイムによるメッセージのやり取りが想定されているが、これは例示にすぎない。例えばユーザUと、コンシェルジュCやタレントT等との対話は、メッセージのやり取りにおいて時間的間隔が生じることが選定となるメール形式の対話であってもよい。
また、上述の実施形態において、プロダクションサービスにおけるプロダクション設定の対象は、選出されたタレントTの容姿、性格、及び知識レベルからなる3種類の要素としているが、これは例示にすぎない。選出されたタレントTを示す様々な要素を設定の対象とすることができる。例えばユーザ側設定の対象となっている、声、言語を設定の対象とすることもできるし、家族構成や家柄等を設定の対象とすることもできる。
また例えば、上述の実施形態において、外部サーバが運営するポータルサイトで生成されたアバターAuは、そのままタレントとしてユーザUに紹介されるが、これに限定されない。上述のプロダクション側設定が行われてもよいし、ユーザ側設定が行われてもよい。
また、図5に示すハードウェア構成は、本発明の目的を達成するための例示に過ぎず、特に限定されない。
また、図6に示す機能ブロック図は、例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が情報処理システムに備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは、特に図6の例に限定されない。
また、機能ブロックの存在場所も、図6に限定されず、任意でよい。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
各機能ブロックの処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えばサーバの他汎用のスマートフォンやパーソナルコンピュータであってもよい。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えばサーバの他汎用のスマートフォンやパーソナルコンピュータであってもよい。
このようなプログラムを含む記録媒体は、各ユーザにプログラムを提供するために装置本体とは別に配布される、リムーバブルメディアにより構成されるだけではなく、装置本体に予め組み込まれた状態で各ユーザに提供される記録媒体等で構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に添って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものである。
以上まとめると、本発明が適用される情報処理装置は、次のような構成を取れば足り、各種各様な実施形態を取ることができる。
即ち、本発明が適用される情報処理装置(例えば管理サーバ1)は、
ユーザ(例えば図4のユーザU1)に関する情報をユーザ情報として取得する取得手段(例えば図6の情報取得部101)と、
前記ユーザが操作するユーザ端末(例えば図4のユーザ端末2-1)を介し対話として送受信されるメッセージ(例えば対話)を管理するメッセージ管理手段(例えば図6のメッセージ管理部102)と、
を備える情報処理装置において、
前記メッセージ管理手段は、
前記ユーザからのメッセージがある場合には、当該メッセージの内容と、前記ユーザ情報とに基づいて、前記ユーザに伝えるメッセージを生成し、前記ユーザからのメッセージがない場合には、前記ユーザ情報に基づいて、ユーザに伝えるメッセージを生成する。
これにより、コミュニケーション能力の問題を解消し、ユーザUの実生活の向上に寄与させることができる。
即ち、本発明が適用される情報処理装置(例えば管理サーバ1)は、
ユーザ(例えば図4のユーザU1)に関する情報をユーザ情報として取得する取得手段(例えば図6の情報取得部101)と、
前記ユーザが操作するユーザ端末(例えば図4のユーザ端末2-1)を介し対話として送受信されるメッセージ(例えば対話)を管理するメッセージ管理手段(例えば図6のメッセージ管理部102)と、
を備える情報処理装置において、
前記メッセージ管理手段は、
前記ユーザからのメッセージがある場合には、当該メッセージの内容と、前記ユーザ情報とに基づいて、前記ユーザに伝えるメッセージを生成し、前記ユーザからのメッセージがない場合には、前記ユーザ情報に基づいて、ユーザに伝えるメッセージを生成する。
これにより、コミュニケーション能力の問題を解消し、ユーザUの実生活の向上に寄与させることができる。
また、前記ユーザ端末を介してアクセス可能な仮想空間(例えば仮想空間VS)を生成し、生成した前記仮想空間を管理する空間管理手段(例えば図6の空間管理部103)と、
前記仮想空間に存在可能とする1以上のアバター(例えばアバターA)を管理するアバター管理手段(例えば図6のアバター管理部104)と、
をさらに備え、
前記アバター管理手段は、前記ユーザを主体とする第1のアバター(例えば拡張現実(AR)のアバターAa)と、主体が完全創造された第2のアバター(例えば仮想現実(VR)のアバターAv)とを生成することができる。
これにより、容姿の問題、居住地の問題、及び時間の問題を解消し、ユーザUの実生活の向上に寄与させることができる。
前記仮想空間に存在可能とする1以上のアバター(例えばアバターA)を管理するアバター管理手段(例えば図6のアバター管理部104)と、
をさらに備え、
前記アバター管理手段は、前記ユーザを主体とする第1のアバター(例えば拡張現実(AR)のアバターAa)と、主体が完全創造された第2のアバター(例えば仮想現実(VR)のアバターAv)とを生成することができる。
これにより、容姿の問題、居住地の問題、及び時間の問題を解消し、ユーザUの実生活の向上に寄与させることができる。
1:管理サーバ、2、2-1、2-n:ユーザ端末、3:情報提供サーバ、4:金融機関等端末、5:医療機関端末、6:外部サーバ、11:CPU、12:ROM、13:RAM、14:バス、15:入出力インターフェース、16:出力部、17:入力部、18:記憶部、19:通信部、20:ドライブ、30:リムーバブルメディア、101:情報取得部、102:メッセージ管理部、103:空間管理部、104:アバター管理部、121:受信制御部、122:メッセージ生成部、123:送信制御部、141:アバター生成部、142:選出部、143:加工設定部、144:設定受付部、145:モデル受付部、401:ユーザDB、402:アバターDB、403:対話DB、404:補助DB、P:サービス提供者、M:モデル、N:ネットワーク、T:タレント、U1,U2,Un:ユーザ、PS1,PS2:ポータルサイト
Claims (2)
- ユーザに関する情報をユーザ情報として取得する取得手段と、
前記ユーザが操作するユーザ端末を介し対話として送受信されるメッセージを管理するメッセージ管理手段と、
を備える情報処理装置において、
前記メッセージ管理手段は、
前記ユーザからのメッセージがある場合には、当該メッセージの内容と、前記ユーザ情報とに基づいて、前記ユーザに伝えるメッセージを生成し、前記ユーザからのメッセージがない場合には、前記ユーザ情報に基づいて、ユーザに伝えるメッセージを生成する、
情報処理装置。 - 前記ユーザ端末を介してアクセス可能な仮想空間を生成し、生成した前記仮想空間を管理する空間管理手段と、
前記仮想空間に存在可能とする1以上のアバターを管理するアバター管理手段と、
をさらに備え、
前記アバター管理手段は、前記ユーザを主体とする第1のアバターと、主体が完全創造された第2のアバターとを生成する、
請求項1に記載の情報処理装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020511828A JP7002085B2 (ja) | 2018-10-12 | 2019-10-04 | 情報処理装置 |
JP2021203938A JP7468850B2 (ja) | 2018-10-12 | 2021-12-16 | 情報処理装置 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018-193394 | 2018-10-12 | ||
JP2018193394 | 2018-10-12 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020075647A1 true WO2020075647A1 (ja) | 2020-04-16 |
Family
ID=70164607
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2019/039355 WO2020075647A1 (ja) | 2018-10-12 | 2019-10-04 | 情報処理装置 |
Country Status (2)
Country | Link |
---|---|
JP (2) | JP7002085B2 (ja) |
WO (1) | WO2020075647A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009134394A (ja) * | 2007-11-29 | 2009-06-18 | Sony Corp | 情報処理装置、情報処理方法、及びプログラム |
JP2015194864A (ja) * | 2014-03-31 | 2015-11-05 | Kddi株式会社 | 遠隔操作方法ならびにシステムならびにそのユーザ端末および視聴端末 |
JP2016071604A (ja) * | 2014-09-30 | 2016-05-09 | 株式会社日本総合研究所 | 情報処理装置、情報処理プログラムおよび情報処理方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003067474A (ja) | 2001-08-22 | 2003-03-07 | Hiroyuki Tarumi | 物故者データ処理システム |
US20080262786A1 (en) | 2007-04-19 | 2008-10-23 | The University Of Houston System | Non-exercise activity thermogenesis (neat) games as ubiquitous activity based gaming |
JP2012168862A (ja) * | 2011-02-16 | 2012-09-06 | Nomura Research Institute Ltd | 行動情報記録装置 |
JP2012168863A (ja) | 2011-02-16 | 2012-09-06 | Nomura Research Institute Ltd | 行動情報記録装置 |
US9489679B2 (en) | 2012-10-22 | 2016-11-08 | Douglas E. Mays | System and method for an interactive query utilizing a simulated personality |
JP2016045815A (ja) * | 2014-08-26 | 2016-04-04 | 泰章 岩井 | 仮想現実提示システム、仮想現実提示装置、仮想現実提示方法 |
-
2019
- 2019-10-04 JP JP2020511828A patent/JP7002085B2/ja active Active
- 2019-10-04 WO PCT/JP2019/039355 patent/WO2020075647A1/ja active Application Filing
-
2021
- 2021-12-16 JP JP2021203938A patent/JP7468850B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009134394A (ja) * | 2007-11-29 | 2009-06-18 | Sony Corp | 情報処理装置、情報処理方法、及びプログラム |
JP2015194864A (ja) * | 2014-03-31 | 2015-11-05 | Kddi株式会社 | 遠隔操作方法ならびにシステムならびにそのユーザ端末および視聴端末 |
JP2016071604A (ja) * | 2014-09-30 | 2016-05-09 | 株式会社日本総合研究所 | 情報処理装置、情報処理プログラムおよび情報処理方法 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2020075647A1 (ja) | 2021-02-15 |
JP7468850B2 (ja) | 2024-04-16 |
JP2022027940A (ja) | 2022-02-14 |
JP7002085B2 (ja) | 2022-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11431660B1 (en) | System and method for collaborative conversational AI | |
CN105912848B (zh) | 一种基于app的医疗服务系统 | |
Bulla et al. | A review of AI based medical assistant chatbot | |
US10831866B2 (en) | Systems and methods for facilitating remote care services | |
Serafica et al. | The use of mobile health to assist self-management and access to services in a rural community | |
WO2019104411A1 (en) | System and method for voice-enabled disease management | |
WO2020075647A1 (ja) | 情報処理装置 | |
US11848110B2 (en) | Secure patient messaging | |
Perez et al. | CMSA’s integrated case management: A manual for case managers by case managers | |
Postolache et al. | Contextual design of ICT for physiotherapy: toward knowledge and innovation ecosystem | |
WO2016172665A1 (en) | Systems and methods for facilitating remote care services | |
Ferreira | How To Be A Digital Doctor | |
Hansen | Shaping aged care work through technology: A senior manager affordance perspective | |
US20240355470A1 (en) | System for condition tracking and management and a method thereof | |
Carreiro | Patient relationship management (PRM) and Ai: The role of affective computing | |
US20240177085A1 (en) | Systems and methods for ensuring quality of care services | |
Hinckley | Facilitating life participation in severe aphasia with limited treatment time | |
Kukoryte | The impact of digital technologies on the UK Healthcare: A Human-Centered Study | |
Zhang et al. | Exploring the Acceptance of Wearable Technology Among the Elderly | |
Fedestus | M-Health application for malaria health care workers | |
Hughes | Family and staff perspectives on quality of life, well-being and human rights for people with advanced dementia living in care homes: a case study approach | |
Li et al. | Persuading Chronically Ill Patients to Subscribe to Medical Services in Physician-Driven Online Health Communities | |
da Silva | Creating a Brand Strategy for Careceiver-Careceiver´ s Segmentation, Targeting and Positioning | |
Kruger | Evaluating Health Reform With Publicly Available Data: Establishing a Methodological Framework to Assess Over-the-Counter Hearing Aids | |
Chen | Older Chinese Migrants in Auckland City: Language, Coping Strategies, and Well-Being |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
ENP | Entry into the national phase |
Ref document number: 2020511828 Country of ref document: JP Kind code of ref document: A |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19870622 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 19870622 Country of ref document: EP Kind code of ref document: A1 |