[go: up one dir, main page]

WO2012081194A1 - 医療支援装置、医療支援方法および医療支援システム - Google Patents

医療支援装置、医療支援方法および医療支援システム Download PDF

Info

Publication number
WO2012081194A1
WO2012081194A1 PCT/JP2011/006802 JP2011006802W WO2012081194A1 WO 2012081194 A1 WO2012081194 A1 WO 2012081194A1 JP 2011006802 W JP2011006802 W JP 2011006802W WO 2012081194 A1 WO2012081194 A1 WO 2012081194A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
information
medical support
image
viewpoint
Prior art date
Application number
PCT/JP2011/006802
Other languages
English (en)
French (fr)
Inventor
増田 健司
幸 堀井
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2012507522A priority Critical patent/JPWO2012081194A1/ja
Priority to US13/515,030 priority patent/US20120256950A1/en
Priority to CN2011800049421A priority patent/CN102668556A/zh
Publication of WO2012081194A1 publication Critical patent/WO2012081194A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0004Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
    • A61B5/0013Medical image data
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to a medical support system in which a plurality of people including users such as doctors and the like located at a remote place share the field of view of other users and perform medical support by sharing operations.
  • Patent Document 1 provides a home medical support system in which a plurality of doctors obtain medical data of home patients at remote locations in real time, and make a diagnosis while talking through interactive communication using images and sound. This is useful in remote diagnosis.
  • Conventional techniques can also be applied in treatment. In particular, applications such as patient information sharing and surgical advice under the direction of authority in remote locations are expected.
  • the position of the display device is fixed, and the screen is a plane having a finite size.
  • the line-of-sight direction is restricted.
  • an expert participating in a video conference from a remote location gives advice based on an image to a participant who is performing treatment on-site
  • the conference participant who is performing the treatment is advised with screen confirmation.
  • the action of listening to the voice and the treatment are repeated alternately, and the line of sight must be diverted from the affected area. This is a problem because it hinders treatment when smooth treatment is required.
  • the present invention solves the above-described conventional problems, and provides a medical support system that provides medical support by sharing the view of other users and operations by a plurality of persons including users such as doctors at remote locations. With the goal.
  • a medical support device for sharing a user's field of view or operation between users, and performs shooting according to the user's field of view.
  • the attitude observation unit that acquires information about the attitude of the imaging unit
  • the position observation unit that acquires information about the imaging position of the imaging unit
  • the imaging signal acquired by the imaging unit A viewpoint for managing the operation of the user wearing the medical support apparatus and the operation detection unit that detects the operation position where the operation is performed, the imaging signal, the information about the posture, and the information about the imaging position in association with each other
  • the superimposition content is determined based on the management unit and the operation detected by the operation detection unit, and the operation position is determined based on the signal and information managed by the viewpoint management unit.
  • a superimposition information configuration unit that determines information, generates superimposition information including information regarding the superimposition content and the operation position, generates a viewpoint image from the shooting signal, and synthesizes the superimposition content with the operation position in the viewpoint image
  • a display management unit that generates and displays the image and a communication unit that transmits the superimposition information to at least one other medical support device.
  • the information related to the operation position is represented by an independent system different from the information related to the posture, the information related to the photographing position, and the operation position detected by the operation detection unit.
  • the communication unit receives an imaging signal captured by the other medical support device, and the medical support device further includes an arbitrary position and two or more other existing in the vicinity of the arbitrary position.
  • a virtual viewpoint generation unit that generates virtual viewpoint information based on information indicating the position of the medical support apparatus, and the imaging signals received from the two or more other medical support apparatuses existing in the vicinity of the arbitrary position, and You may make it provide the image synthetic
  • the superimposition information is managed in association with display attribute information indicating a display mode of the superimposition content included in the superimposition information, and the medical support device further includes the superimposition content generated by the display management unit. May be provided with a screen adjustment unit that processes the image synthesized in accordance with the display attribute information.
  • This configuration makes it possible to perform more detailed display control, such as displaying an arbitrary point in the field of view in an enlarged manner and hiding information other than a specific type of superimposition information.
  • each functional block of the medical support apparatus according to the present invention can be realized as a program executed by a computer.
  • a program can be distributed via a recording medium such as a CD-ROM or a transmission medium such as the Internet.
  • LSI which is an integrated circuit.
  • Each of these functional blocks may be individually made into one chip, or may be made into one chip so as to include a part or all of them.
  • the name used here is LSI, but it may also be called IC, system LSI, super LSI, or ultra LSI depending on the degree of integration.
  • the method of circuit integration is not limited to LSI, and implementation with a dedicated circuit or a general-purpose processor is also possible.
  • An FPGA Field Programmable Gate Array
  • a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.
  • a remote person exists as if in the same space, and the current movement of the remote person is expressed in an appropriate positional relationship with the real object in front of the eyes. It is possible to perform more intuitive instructions and collaborative work.
  • FIG. 1 is a functional block diagram showing the configuration of the medical support apparatus according to Embodiment 1 of the present invention.
  • FIG. 2 is a diagram showing the relationship between the indoor medical support apparatus and other nodes in the first embodiment.
  • FIG. 3 is a diagram showing coordinate transformation in the three-dimensional space in the first embodiment.
  • FIG. 4 is a diagram illustrating operation detection information issued by the operation detection unit according to the first embodiment.
  • FIG. 5 is a diagram illustrating superimposition information recorded by the superimposition information storage unit in the first embodiment.
  • FIG. 6A is a flowchart illustrating a process of generating superimposition information in response to a request from the user and displaying the viewpoint image and the superimposition information in a superimposed manner in the first embodiment.
  • FIG. 1 is a functional block diagram showing the configuration of the medical support apparatus according to Embodiment 1 of the present invention.
  • FIG. 2 is a diagram showing the relationship between the indoor medical support apparatus and other nodes in the first embodiment.
  • FIG. 3 is
  • FIG. 6B is a flowchart illustrating a process of generating superimposition information in response to a request from the user and superimposing and displaying the viewpoint image and the superimposition information in Embodiment 1.
  • FIG. 7 is an explanatory diagram for explaining an example of a display in which the superimposed content is superimposed on the viewpoint image in the first embodiment.
  • FIG. 8 is a functional block diagram of the medical support apparatus according to Embodiment 2 of the present invention.
  • FIG. 9 is a flowchart showing processing for generating a virtual viewpoint in the second embodiment.
  • FIG. 10 is an explanatory diagram for explaining an example of a display in which the superimposed content is superimposed on the viewpoint image in the second embodiment.
  • FIG. 11 is an explanatory diagram for explaining an example of a display in which the superimposed content is superimposed on the viewpoint image in the second embodiment.
  • FIG. 12 is a flowchart illustrating processing for displaying a viewpoint image from a viewpoint that is virtually located in the second embodiment.
  • FIG. 13 is a functional block diagram of the medical support apparatus according to Embodiment 3 of the present invention.
  • FIG. 14 is a diagram showing the types of display attributes according to Embodiment 3 of the present invention.
  • FIG. 15A is a diagram showing an example of display attributes according to Embodiment 3 of the present invention.
  • FIG. 15B is a diagram showing an example of display attributes according to Embodiment 3 of the present invention.
  • FIG. 16 is a flowchart showing a process of reflecting the set display attribute on the display screen according to the third embodiment of the present invention.
  • FIG. 1 is a functional block diagram showing the configuration of the medical support apparatus according to Embodiment 1 of the present invention.
  • the medical support device 100 is a device for sharing the field of view or operation of a user such as a doctor among users, and as illustrated in FIG. 1, an imaging unit 101, a posture observation unit 102, a position observation unit 103, an operation detection unit 104, A superimposition information configuration unit 105, a viewpoint management unit 108, a coordinate conversion unit 109, a superimposition information storage unit 110, a communication unit 111, a display management unit 112, and a display unit 113 are provided.
  • the superimposition information configuration unit 105 includes a superposition position determination unit 106 and a superimposition image generation unit 107.
  • the medical support apparatus 100 converts the imaging unit 101 into a small camera, a position observation unit 103, an operation detection unit 104, a superimposition information configuration unit 105, a viewpoint management unit 108, a coordinate conversion unit 109, a communication unit 111, and a display management unit 112.
  • a recording medium such as a memory and a hard disk for recording a corresponding program
  • a recording medium such as a memory and a hard disk corresponding to the superimposition information storage unit 110, and the program recorded in the memory are executed.
  • a computer having a processor such as a CPU (not shown) and the display unit 113 can be realized by a head-mounted display.
  • the medical support device 100 can also be realized by incorporating all the above-described elements in a head mounted display.
  • the medical support device 100 on which some of the above components are mounted is called a subset.
  • the medical support device 100 that does not hold the head-mounted display as the display unit 113 can be referred to as a subset.
  • another node 130 is a device equivalent to or a subset of the medical support device 100.
  • the position observation unit 103, the operation detection unit 104, the superimposition information configuration unit 105, the viewpoint management unit 108, the coordinate conversion unit 109, the communication unit 111, and the display management unit 112 each include a memory included in a computer as a program, A configuration stored in a recording medium (not shown) such as a hard disk and executed by a CPU is illustrated.
  • a recording medium not shown
  • the present invention is not limited to this.
  • a computer may be configured by using a dedicated processing circuit (for example, LSI) (not shown) or the like for a part or all of the unit 112.
  • a dedicated processing circuit for example, LSI
  • a program corresponding to an operation realized using a dedicated processing circuit is not necessarily stored in a recording medium such as a memory or a hard disk provided in the computer.
  • this computer is small enough to be built into a head mounted display.
  • the computer also includes a communication circuit (not shown) for performing communication (for example, transmission, reception, etc.) wirelessly or by wire.
  • the communication unit 111 has, for example, a configuration having a recording medium (not shown) such as a memory and a hard disk that records the communication circuit and a program for controlling the communication circuit.
  • a recording medium such as a memory and a hard disk that records the communication circuit
  • a program for controlling the communication circuit may be configured using a dedicated processing circuit (for example, an LSI) (not shown).
  • a program for controlling a communication circuit corresponding to an operation realized using a dedicated processing circuit is stored in a recording medium such as a memory or a hard disk included in the computer. There is no necessity.
  • the other node 130 is worn by a person different from the user 120.
  • Other nodes 130 and devices worn by other nodes 130 are the same as the relationship between the user 120 and the medical support device 100.
  • Each node communicates with each other to share information and field of view superimposed on the field of view and support medical work.
  • FIG. 2 is a diagram showing the relationship between the medical support apparatus 100 indoors and another node 130.
  • the upper part is a view looking down on the room from above and the lower part is a view looking down on the room from directly above.
  • an indoor operating room is assumed, and the user is a doctor who is indoors and in a remote place.
  • a bed for placing a person as a patient is arranged. However, it is not shown here for simplicity.
  • the users 201 and 202 such as doctors corresponding to the user 120 shown in FIG. 1 are equipped with medical support devices 211 and 212 corresponding to the medical support device 100, respectively. In this manner, the users 201 and 202 such as doctors in the operating room use the functions of the medical support apparatus 100 by the medical support apparatuses 211 and 212 attached to the user.
  • the medical support devices 213, 214, and 215 are medical support devices that are not worn by the user, and are equivalent to or a subset of the medical support device 100.
  • the medical support apparatus 100 is not necessarily worn as a pair with a person.
  • the medical support devices 213, 214, and 215 that are not worn by the user can be installed indoors at any point.
  • 211 to 215 are installed so as to surround the center (the place where the bed is located).
  • 213 is installed vertically below the ceiling, and installed so that the entire indoor area including the medical support apparatuses 211, 212, 214, and 215 attached to other users can be seen as shown in the lower diagram of FIG.
  • the present invention is not limited to this. Although it is desirable that there are many points that can be photographed, the amount of processing increases as the number of nodes increases, so that the number that can be set can be arbitrarily designated according to the situation.
  • each node shares at least one piece of information such as a character string to be displayed on the display unit 113 of the medical support device 100 to be attached to each other, and displays the information superimposed on each field of view.
  • Displaying on each field of view means that information to be displayed is arranged in a unique coordinate space with the viewpoint of each node as the origin. Therefore, even if the same information is used for each node, the representation of coordinate values representing the arrangement location is different. Therefore, in order to share one piece of information, information management is necessary on a common coordinate system.
  • each node is the medical support apparatus 100 attached to a person's head or the like
  • the position of the head of each node changes with medical work. Therefore, in order to grasp the position of the head of the node for each time, it is necessary to simultaneously track the unique coordinate system that changes along the time series. That is, it is necessary to acquire the coordinate value of the common coordinate system from the coordinate value of the unique coordinate system at a certain point in time or vice versa.
  • the relationship between the unique coordinate system and the common coordinate system will be described.
  • FIG. 3 is a diagram for explaining coordinate conversion in a general three-dimensional space.
  • the transformation matrix Qn between the common coordinate system 301 at a certain time and the unique coordinate system A302 after N hours have elapsed from the certain time.
  • the unique coordinate system B303 is an independent coordinate system that can be moved individually and freely, it is assumed that the unique coordinate system B303 overlaps the unique coordinate system A after n hours from the unique coordinate system B203.
  • the positional relationship between the unique coordinate system B303 and the common coordinate system 301 is represented by a transformation matrix Q0.
  • the positional relationship between the intrinsic coordinate system B303 and the intrinsic coordinate system A302 after n hours may be expressed as a conversion matrix Qab by a translation amount p and a rotation angle ⁇ by which the intrinsic coordinate system B303 moves to the intrinsic coordinate system A302. it can.
  • the positional relationship Qn between the unique coordinate system A302 and the common coordinate system 301 at the time point n is Q0 indicating the positional relationship between the common coordinate system 301 and the initial position (unique coordinate system B303) of the unique coordinate system, It can be obtained from the parallel movement amount p from the initial position of the coordinate system and the rotation angle ⁇ change amount.
  • the imaging unit 101 acquires a shooting signal by shooting according to the user's field of view. That is, the imaging unit 101 acquires an imaging signal obtained by converting an optical image in the line-of-sight direction of the user 120 and an optical image of a part of the user 120 or the user 120 into an electrical signal.
  • the imaging signal becomes input information for the operation detection unit 104 and the viewpoint management unit 108.
  • the imaging signal is used by the operation detection unit 104 to detect an operation request from the user 120 to the medical support apparatus 100. A specific method will be described later. Further, the photographing signal is used in the viewpoint management unit 108 to acquire an image in the direction of the line of sight of the user 120. It is assumed that the imaging signal acquired by the imaging unit 101 in the first embodiment is obtained from two cameras.
  • the two cameras are installed on the head of the user 120 and are handled as shooting signals from the viewpoints of the left eye and the right eye.
  • the configuration is not limited to that assumed in the first embodiment as long as it satisfies the requirements of obtaining input information for detecting an operation request of the user 120 and acquisition of an image that matches the line-of-sight direction.
  • the posture observation unit 102 acquires a viewpoint angle that is information regarding a posture indicating a posture in the line-of-sight direction such as a yaw, a roll, and a pitch angle of the user 120 wearing the medical support apparatus 100.
  • a viewpoint angle is used to estimate the viewing direction of the user 120.
  • the position observing unit 103 acquires a viewpoint position that is information regarding the imaging position indicating the position of the head of the user 120 wearing the medical support apparatus 100.
  • the viewpoint position is used to estimate at which point the user 120 is located indoors.
  • the medical support device 100 of FIG. 2 or the medical support device 213 shown as a subset is used as an indoor reference device, the relative positions of the medical support device 213 and the other medical support devices 100 or the subset are expressed as follows. By calculating, it is possible to grasp where the vehicle is located indoors.
  • the operation detection unit 104 analyzes an imaging signal acquired by the imaging unit 101 and detects an operation representing an operation request of the user 120.
  • an example of the detection process is shown.
  • the body part that the user 120 mainly makes an operation request is extracted from the acquired imaging signal.
  • the hand in the imaging signal is estimated by skin color extraction, extraction of a strong curved portion, or model matching of the hand shape held in advance by the medical support apparatus 100.
  • the recognition method is generally known.
  • the extracted operation site is monitored in time series.
  • the operation detection information includes at least information indicating the type of operation detected by the operation detection unit 104 and information indicating the position where the operation in the imaging signal is performed.
  • FIG. 4 is a diagram showing an example of operation detection information issued by the operation detection unit 104.
  • the operation detection information includes at least an operation type 401 and an operation detection position 402.
  • the operation type 401 represents the type of operation detected by the operation detection unit 104, and represents an operation such as selection of an arbitrary location or generation of an image to be superimposed according to the operation.
  • the operation detection position 402 represents a position where the operation detection unit 104 has detected an operation in the imaging signal of the imaging unit 101.
  • the operation type 401 indicates an arbitrary point on the field of view, “push” operation for selecting a graphic that is virtually installed on the field of view, or graphic data displayed in the field of view.
  • the operation detection position 402 stores the values of the X coordinate and the Y coordinate indicating the point where the operation indicated by the operation type 401 is performed in the photographing signal. Further, the operation type 401 and the operation detection position 402 may hold information such as a type other than the variations given as an example and Z coordinates.
  • the superimposition information configuration unit 105 receives the notification of the operation detection information from the operation detection unit 104 and generates or updates information for the operation.
  • the information with respect to the operation is superimposition information composed of information indicating a position where the operation acts and visual information (superimposition content) when displayed on the screen.
  • a graphic display of text such as a memo, a description, and a guide used for the purpose of enhancing information with respect to an arbitrary point in the field of view of the user 120 is the superimposition information.
  • New superimposition information is saved by requesting recording to the superimposition information storage unit 110.
  • the superimposition information configuration unit 105 transmits a superposition information generation notification or update notification to the other node 130 via the communication unit 111 to notify the other node 130 of the superimposition information generation or update. It becomes possible. Furthermore, the superimposition information configuration unit 105 issues a screen update notification to the display management unit 112 in order to reflect information generation or update for the operation on the screen.
  • the superposition position determination unit 106 calculates the position where the operation indicated by the operation detection information is performed. In order to share certain superimposition information with other nodes 130, it is necessary to hold coordinate positions on a common coordinate system. However, an operation representing an operation request detected by each medical support apparatus 100 is detected based on an image captured by each imaging unit 101. That is, the position detected by the operation detection unit 104 is based on the coordinate system of each imaging unit 101 and is not a common coordinate system in each node. The superposition position determination unit 106 determines the coordinate value of the common coordinate system, which is information regarding the operation position, based on the coordinate value obtained in the coordinate system of each node.
  • the superimposition position determination unit 106 Upon receiving a position generation request from the superimposition information configuration unit 105, the superimposition position determination unit 106 calculates a coordinate value of the common coordinate system. Here, the calculation procedure of the coordinate value of the common coordinate system will be described.
  • the superimposition position determination unit 106 requests the viewpoint management unit 108 to acquire viewpoint information, and acquires the current viewpoint position and viewpoint angle.
  • a coordinate value in the common coordinate system is calculated from the viewpoint position, the viewpoint angle, and the operation position detected by the operation detection unit 104. At this time, the coordinate conversion process requests the coordinate conversion unit 109 to obtain coordinate values.
  • the superimposed image generation unit 107 generates an image corresponding to the type of operation indicated by the operation detection information notified from the operation detection unit 104. For example, when an operation for giving an instruction to superimpose a text on an arbitrary point in the visual field described above is notified, a process for generating text graphic information is performed.
  • the superimposed image generation unit 107 receives an image generation request from the superimposed information configuration unit 105, the superimposed image generation unit 107 determines the type of operation, and creates shape, color, character, size, and graphic information according to the operation.
  • FIG. 5 is a diagram showing an example of superimposition information recorded by the superimposition information storage unit.
  • the superimposition information includes at least a data ID 501, a superimposition information type 502, and a superimposition information display position 503.
  • the data ID 501 is a unique code assigned to each piece of superimposition information. In the present embodiment, a unique value as shown by the data ID 501 in FIG. 5 is given.
  • the superimposition information type 502 represents the type of superimposition information. For example, when certain superimposition information is the medical support apparatus 100 and a subset, a type of node is given as indicated by a superimposition information type 502 in FIG.
  • the other nodes 130 can be managed by a superimposition information type 502 called a node.
  • the superimposition information display position 503 indicates the display position of superimposition information in the common coordinate system. For this, coordinate values on the X, Y, and Z axes of the common coordinate system as shown at the superimposition information display position 503 in FIG. 5 are set.
  • the superimposition information may hold information other than the above.
  • the superimposition information displays text
  • the character string information, font information, size information, color, font information, and the like can be given.
  • shape information representing each vertex group, transmittance information, and texture image information used for the surface of the shape may be included.
  • data to be processed in handling as superimposition information or data related to display may be included as superimposition information.
  • the viewpoint management unit 108 acquires and distributes current viewpoint information.
  • viewpoint information an image (viewpoint image) seen from the viewpoint, an XYZ3 axis (roll, pitch, yaw) angle (viewpoint angle) of the viewpoint in the unique coordinate system, and an XYZ3 axis coordinate value (viewpoint position) ) Is acquired and distributed.
  • An image seen from the viewpoint (viewpoint image) is acquired from the imaging unit 101.
  • the XYZ 3-axis (viewpoint angle) of the viewpoint in the intrinsic coordinate system is acquired from the attitude observation unit 102.
  • the position observation unit 103 acquires the coordinate values (viewpoint positions) of the XYZ three axes of the viewpoint in the intrinsic coordinate system.
  • the viewpoint management unit 108 Upon receiving an acquisition request for at least one or all of a viewpoint image, a viewpoint angle, and a viewpoint position, the viewpoint management unit 108 acquires the requested information and notifies it as viewpoint information.
  • the superimposition position determination unit 106 requests acquisition of viewpoint information.
  • what the viewpoint management unit 108 acquires and distributes is not necessarily a viewpoint image, a viewpoint angle, and a viewpoint position.
  • Information on at least one or more or other viewpoints may be used.
  • Information on other viewpoints includes, for example, depth information from a viewpoint by a depth sensor, special light information such as infrared rays, and the like.
  • the coordinate conversion unit 109 performs conversion in the coordinate system of each node individually from the common coordinate system or vice versa.
  • the superimposition position determination unit 106 determines the values of (p, ⁇ ) so as to satisfy the above expressions (1) and (2) based on the current viewpoint position and orientation information acquired from the viewpoint management unit 108. Is set in the coordinate conversion unit 109.
  • the coordinate conversion unit 109 performs a coordinate conversion process by applying the positional relationship Q0 representing the initial position of each node with the common coordinate system.
  • the superimposition information storage unit 110 stores superimposition information such as the coordinate value in the common coordinate system of the superimposition information generated by the superposition position determination unit 106 and the image information generated by the superimposition image generation unit 107 in response to the image generation request.
  • the superimposition information is recorded by an information update request from the superimposition information configuration unit 105.
  • the stored superimposition information is acquired by the display management unit 112 and used for generating a screen to be displayed on the display unit 113.
  • the communication unit 111 communicates with other nodes 130.
  • the communication unit 111 receives a superimposition information generation / update notification request from the superimposition information configuration unit 105 and notifies the other node 130 of the request.
  • the communication unit 111 that has received the notification notifies the superimposition information configuration unit 105 of the notification content. Thereby, communication between mutual nodes is performed.
  • the display management unit 112 configures a screen to be displayed upon receiving a screen update notification from the superimposition information configuration unit 105.
  • the screen to be displayed is composed of superimposition information stored in the superimposition information storage unit 110 and an image that can be seen from the current viewpoint.
  • the display management unit 112 requests the viewpoint management unit 108 to acquire viewpoint information, and acquires the left eye right eye image of the current viewpoint.
  • the display management unit 112 acquires the viewpoint position and viewpoint angle in the common coordinate system from the superimposition information storage unit 110. Further, the visual field range is calculated based on the viewpoint position and the viewpoint angle in the common coordinate system, and the superimposition information existing in the area is acquired from the superimposition information storage unit 110.
  • the display management unit 112 uses the coordinate conversion unit 109 to place the acquired coordinate values of each superimposition information in the coordinate system of each node, and generates a screen to be superimposed on the current viewpoint image. Furthermore, the display management unit 112 requests the display unit 113 to superimpose the generated screen and the left-eye right-eye image that is the viewpoint image acquired from the viewpoint management unit 108 and display the screen.
  • the display unit 113 receives a screen display request from the display management unit 112 and superimposes and displays a screen composed of superimposition information on the left eye right eye image.
  • 6A and 6B are flowcharts showing a process in which the medical support apparatus 100 shown in FIG. 1 receives a request from the user 120, creates superposition information, and superimposes the viewpoint image and the superposition content for display.
  • processing is started (S600), and operation detection processing representing an operation request from the user 120 is entered (S601).
  • the operation detection unit 104 acquires a shooting signal from the imaging unit 101 (S602).
  • the operation detection unit 104 extracts an operation part where the user 120 represents an operation request from the acquired imaging signal (S603).
  • the operation site is assumed to be a hand.
  • a method for estimating and recognizing a hand in a photographic signal by extracting a skin color or extracting a strong curved portion is generally known.
  • the operation site to be extracted is not limited to the hand.
  • a part of the operator's body other than the hand, such as the line of sight of the user 120, or a tool such as a scalpel held by the user 120 may be extracted as an operation part and used for operation recognition.
  • the operation detection unit 104 monitors the extracted operation site (S604), and when an operation indicating an operation request is detected, the operation detection unit 104 operates the superimposition information configuration unit 105 together with the position where the operation in the imaging signal is detected. The detection information is notified (S605).
  • the process returns to the process of acquiring the photographing signal from the imaging unit 101 and repeats until the operation representing the operation request is detected.
  • the superimposition information configuration unit 105 Upon receiving the notification of the operation detection information, the superimposition information configuration unit 105 requests the superimposition position determination unit 106 to calculate the position in order to obtain a coordinate value on the common coordinate system of the operation position received from the operation detection unit 104 (S606). ).
  • the superposition position determination unit 106 that has received the request requests the viewpoint management unit 108 to acquire the current viewpoint position and viewpoint angle (S607).
  • the superimposition position determination unit 106 notifies the coordinate conversion unit 109 of the acquired viewpoint position and viewpoint angle, and the operation position notified from the operation detection unit 104, and requests conversion to a common coordinate value (S608). ).
  • the coordinate conversion unit 109 sets (p, ⁇ ) satisfying the above expressions (1) and (2), sets the viewpoint position acquired from the viewpoint management unit as p, and sets the viewpoint angle as ⁇ , and obtains the transformation matrix Qn. Then, the coordinate value on the common coordinate system is calculated (S609).
  • the superimposition information configuration unit 105 requests the superimposition image generation unit 107 to generate a superimposition image in order to generate an image to be displayed at the operation position received from the operation detection unit 104 (S610).
  • the superimposed image generation unit 107 refers to the operation type 401 of the operation detection information notified from the operation detection unit 104, and generates a superimposed image corresponding to the operation type 401 (S611).
  • the superimposed image to be generated can be generated using the character string information, font information, size information, color, and font information described with reference to FIG. .
  • the order of the superposition position determination processing of S606 to S609 and the superposition image generation processing of S610 to S611 is not limited as long as the requirements for preparing elements constituting superposition information are satisfied.
  • the superimposition information configuration unit 105 generates the superimposition information shown in FIG. 5 from the operation position calculated by the superposition position determination unit 106 and the superimposition image that is graphic information such as text to be superimposed on any one point in the field of view described above. To do.
  • the superimposition information configuration unit 105 updates and stores the generated superimposition information in the superimposition information storage unit 110 (S612).
  • the superimposition information configuration unit 105 requests the communication unit 111 to perform superimposition information generation notification or update notification (S613).
  • the communication unit 111 Upon receiving the notification, the communication unit 111 issues superimposition information and a superimposition information generation notification or update notification to the other nodes 130 (S614).
  • the communication unit 111 of the other node 130 that has received the generation notification or the update notification notifies the superimposition information configuration unit 105 of the update, and the superimposition information configuration unit 105 transmits the superimposition information generated and updated to the superimposition information configuration unit 105. Recorded in the storage unit 110. Note that other methods, paths, and methods may be used as long as the requirement for updating superimposition information is satisfied for other nodes 130.
  • the superimposition information configuration unit 105 requests the display management unit 112 to update the screen (S615).
  • the display management unit 112 arranges an actual image from the viewpoint and a superimposed image to be superimposed on the actual image in order to update the display screen.
  • the display management unit 112 acquires the left eye right eye image from the viewpoint management unit 108 (S616).
  • the display management unit 112 acquires the viewpoint position and viewpoint angle in the common coordinate system recorded in the superimposition information storage unit 110 (S617).
  • the display management unit 112 calculates a visual field range using, for example, a perspective projection method based on the viewpoint position and viewpoint angle in the acquired common coordinate system (S618).
  • the display management unit 112 uses the coordinate conversion unit 109 to convert the acquired coordinate values of each superimposition information into a unique coordinate system for each node. (S620).
  • the display management unit 112 places the superimposed image indicated by the superimposition information on the display screen at the position indicated by the coordinate value converted into the unique coordinate system, and generates a screen to be superimposed on the current viewpoint image (S621).
  • the display management unit 112 requests the display unit 113 to superimpose the generated screen and the left-eye right-eye image that is the viewpoint image acquired from the viewpoint management unit 108 and display the screen (S622).
  • the display unit 113 When receiving the request from the display management unit 112, the display unit 113 superimposes a screen to be superimposed on the viewpoint image (S623).
  • the medical support apparatus 100 receives a request from the user 120 to create superimposition information, and the process of superimposing and displaying the viewpoint image and the superimposition image is completed (S625).
  • the screen which became one by superimposition in this way can also be transmitted to the display apparatus (not shown) which a doctor in another node or a remote place uses via the communication part 111.
  • the communication unit 111 of the other node 130 Upon receiving the generation notification or update notification, the communication unit 111 of the other node 130 notifies the superimposition information configuration unit 105 of generation or update of the superimposition information.
  • the superimposition information configuration unit 105 records the generated or updated superimposition information in the superimposition information storage unit 110.
  • the processing from the screen update request processing (S615) by the superimposition information configuration unit 105 to the display processing (S624) by the display unit 113 is performed, so that the viewpoint image of the node 130 and the user 120 are received.
  • the superimposed image based on the superimposed information is superimposed and displayed.
  • FIG. 7 is an explanatory diagram for explaining an example of a display in which the superimposed content is superimposed on the viewpoint image in the medical support device 100.
  • a user A 710 wearing the medical support apparatus 100 and a user B 720 wearing the node 130 are standing with the patient 730 in between.
  • the display unit of the medical support device 100 worn by the user A 710 In 113, a graphic indicating a marker 750 corresponding to the movement of the finger indicated by the dotted line 740 is superimposed and displayed on the viewpoint image of the user A 710 as shown in the A field of view 712.
  • a graphic showing the marker 760 corresponding to the finger movement indicated by the dotted line 740 in the viewpoint image of the user B 720. are superimposed and displayed as a superimposed image.
  • the medical support device worn by the user or a subset thereof transmits the superimposition information for generating an image in which the additional information is superimposed on the object in the user's field of view, thereby sharing the operation among the users. It can be performed.
  • by transmitting superimposition information and viewpoint images it is possible to share the field of view and operations at the medical site from the viewpoint of the user at the medical site, so that medical work can be supported more accurately at remote locations. Is possible.
  • FIG. 8 is a functional block diagram showing the configuration of the medical support apparatus according to Embodiment 2 of the present invention.
  • the medical support apparatus 200 includes a virtual viewpoint generation unit 114 and an image composition unit 115 in addition to the blocks indicated by the same reference numerals as in FIG. 1.
  • the medical support device 200 and the subset are present in the same space as the indoor space, and the current movement of the remote person is expressed in an appropriate positional relationship with the real object in front of the eyes. It is possible to perform more intuitive instructions and collaborative work.
  • the virtual viewpoint generation unit 114 generates a virtual viewpoint having a virtual viewpoint at any point in the same space where the medical support apparatus 200 and the subset are installed. Generation of the virtual viewpoint is requested by the superimposition information configuration unit 105.
  • the virtual viewpoint generation unit 114 acquires the superimposition information recorded in the superimposition information storage unit 110 in order to create a virtual viewpoint.
  • the virtual viewpoint generation unit 114 generates a virtual viewpoint from the acquired superimposition information. A specific example of the virtual viewpoint generation processing will be described later.
  • the generated virtual viewpoint requests the superimposition information storage unit 110 to record.
  • the superimposition information configuration unit 105 sets a virtual viewpoint display for the viewpoint management unit 108.
  • the virtual viewpoint display set in the viewpoint management unit 108 is a flag that separates the operation request processing of the user 120 described in the first embodiment and the virtual viewpoint setting operation.
  • the virtual viewpoint is treated as one type of superimposition information.
  • a flag representing a virtual node is set in the superimposition information type 502.
  • the superimposition information also holds an array of data IDs 501 indicating the nodes near the left and right. This is for use in generating an image from a virtual viewpoint described later.
  • a virtually existing viewpoint image is generated by combining a plurality of node images.
  • left and right neighboring nodes are used as a plurality of nodes.
  • a data ID 501 is held to identify the left and right neighboring nodes to be referred to.
  • the image composition unit 115 generates a viewpoint image from a virtual viewpoint.
  • the viewpoint image from the virtual viewpoint is used as a viewpoint image that the display management unit 112 acquires from the viewpoint management unit 108.
  • the viewpoint management unit 108 switches the shooting signal from the imaging unit 101 and the viewpoint image from the virtual viewpoint generated by the image synthesis unit 115 to generate a viewpoint image. Since the image composition unit 115 needs to acquire viewpoint images from a plurality of other nodes 130 in order to generate a viewpoint image from a virtual viewpoint, each viewpoint image is received from another node 130 through the communication unit 111. get.
  • FIG. 9 is a flowchart showing processing for generating a virtual viewpoint in the medical support apparatus 200 according to the second embodiment.
  • the user 120 is assumed to be a remote user in order to explain the processing flow for generating a virtual viewpoint. It is assumed that the remote user 120 is wearing the medical support apparatus 200 in the same manner as the above-described user.
  • the user 120 inputs generation of a virtual viewpoint as an operation request to the medical support apparatus 200 by a flow equivalent to the operation detection process (S600 to S606) of FIG.
  • the superimposition information configuration unit 105 receives the detected operation position as a virtual viewpoint generation position (S800).
  • S800 virtual viewpoint generation position
  • an example of a method for specifying a virtual viewpoint will be described. By displaying an image from the node 213 capable of capturing an image of the entire indoor room as shown in FIG. 2 on the screen, a screen for overlooking the local point is displayed.
  • a method of setting the position of the virtual viewpoint by selecting a desired point from the displayed screen can be adopted.
  • the presenting method and setting method are not limited to this method, and the virtual position may be specified by another method as long as the user satisfies the requirement for setting an arbitrary point.
  • the superimposition information configuration unit 105 requests the virtual viewpoint generation unit 114 to generate a virtual viewpoint (S801).
  • the virtual viewpoint generation unit 114 Upon receiving the request, acquires the position information of the virtual viewpoint from the superimposition information configuration unit 105 (S802).
  • the virtual viewpoint generation unit 114 searches for other nodes 130 located in the vicinity of the left and right in the position information of the acquired virtual viewpoint in order to generate an image from the virtual viewpoint by combining the shooting signals of the other nodes (S803). ).
  • the virtual viewpoint generation unit 114 acquires data having the superimposition information type 502 of “node” one by one from the superimposition information storage unit 110 (S804).
  • an image from a virtual viewpoint is generated by synthesizing from the imaging signals of other nodes, and therefore, only the superimposition information to be acquired has a code representing “node” in the superimposition information type 502. That's fine.
  • the distance from the virtual viewpoint position information is calculated, and the degree of proximity is determined (S805).
  • the reason for detecting the neighborhood is to determine the base node of the viewpoint image when generating the viewpoint image from the virtual viewpoint.
  • Image Based Rendering is known as a technique for generating an image from an intermediate viewpoint based on images taken from a plurality of viewpoints. This intermediate viewpoint corresponds to the virtual viewpoint in the second embodiment, and it is necessary to detect another node 130 in the vicinity in order to generate an image from the virtual viewpoint.
  • one or more closest distance values being searched may be selected as the threshold value.
  • a certain fixed value may be used.
  • an arbitrary value may be set by the user.
  • the position set as the virtual viewpoint may overlap with a fixed node such as the node 214 or the node 215.
  • a fixed node such as the node 214 or the node 215.
  • the superimposition information display position 503 of the superimposition information acquired by the superimposition information storage unit 110 is a coordinate value in the common coordinate system, and may be different from the position of the virtual viewpoint input by the user 120.
  • the coordinate conversion unit 109 it is possible to unify the coordinate space and determine the distance to each node.
  • the determination process is repeated until a node near the virtual viewpoint is found in the superposition information of the node recorded in the superposition information storage unit 110 (S806).
  • the virtual viewpoint generation unit 114 generates superimposition information composed of a data ID 501 group of superimposition information of nodes existing in the vicinity of the found virtual viewpoint and position information in the shared coordinate system of the virtual viewpoint (S807). At this time, the superimposition information type 502 of the superimposition information is generated as a type “virtual node”.
  • the created superimposition information is recorded in the superimposition information storage unit 110 via the superimposition information configuration unit 105 (S808).
  • the superimposition information configuration unit 105 requests the viewpoint management unit 108 to set virtual viewpoint display (S809).
  • notification processing to other nodes 130 is performed.
  • the communication unit 111 of the other node 130 that has received the generation notification or the update notification notifies the superimposition information configuration unit 105 of the generation or update of the superimposition information.
  • the superimposition information configuration unit 105 records the generated or updated superimposition information in the superimposition information storage unit 110. Then, as shown in FIG. 6B of the first embodiment, by performing processing from the screen update request processing (S615) by the superimposition information configuration unit 105 to the display processing (S624) by the display unit 113, another node 130 is obtained. Then, the remote user 120 can be displayed at the position of the virtual viewpoint.
  • FIG. 10 and 11 are explanatory diagrams for explaining an example of the display in which the superimposed content is superimposed on the viewpoint image in the medical support device 200.
  • FIG. 10 and 11 are explanatory diagrams for explaining an example of the display in which the superimposed content is superimposed on the viewpoint image in the medical support device 200.
  • a user A 910 wearing the medical support apparatus 200 and a user B 920 wearing the medical support apparatus 200 are standing with the patient 930 in between, and the medical support apparatus 200 is mounted in a remote place.
  • the viewpoint image of the user A 910 is displayed on the display unit 113 of the medical support apparatus 200 worn by the user A 910 as shown in the field of view 911 of the user A.
  • the viewpoint image of the user B 920 is displayed on the display unit 113 of the medical support apparatus 200 worn by the user B 920.
  • the medical support device worn by the user C 940 is displayed on the display unit 113 of the medical support device 200 worn by the user A 910 as shown in FIG.
  • the graphic indicating the user C indicated by the dotted line 941 is superimposed and displayed as a superimposed image on the viewpoint image of the user A910 as indicated by the field of view 912 of A.
  • the display unit 113 of the medical support apparatus 200 worn by the user B 920 similarly shows the B view 922 using the superimposition information indicating the virtual viewpoint transmitted from the medical support apparatus 200 worn by the user C 940.
  • a graphic indicating the user C indicated by a dotted line 942 is superimposed and displayed on the viewpoint image of the user B 920 as a superimposed image.
  • the virtual viewpoint setting person can transmit a body movement such as the movement of his / her hand to a remote person. That is, the node of the virtual viewpoint always tracks information such as the position of the hand and the finger not only when the operation is detected in the flow shown in FIGS. 6A and 6B but continuously records the information as superimposition information in real time. As a result, it is possible to display a remote person continuously to a person who performs treatment at the site, and it can be expressed as if the emphasis work is being performed at the site.
  • FIG. 12 is a flowchart showing a process of displaying a viewpoint image from a virtually positioned viewpoint in the medical support apparatus 200 shown in FIG.
  • the display management unit 112 requests the viewpoint management unit 108 to acquire a viewpoint image in order to create an update screen (S901).
  • the viewpoint management unit 108 determines the setting state by confirming whether or not the virtual viewpoint display is set from the superimposition information configuration unit 105 by the virtual viewpoint display setting process (S809) described above. .
  • this node is a node arranged at the virtual viewpoint, and the virtual viewpoint display is set in the viewpoint management unit 108 by the virtual viewpoint display setting process (S809). Therefore, the determination is a virtual viewpoint display (S902).
  • the case where the virtual viewpoint display is not set in the viewpoint management unit 108 is a case where an operation other than the virtual viewpoint setting operation is received.
  • the flowchart shown in FIG. 6A and FIG. 6B described in the first embodiment corresponds to this case, and the subsequent processing when the virtual viewpoint display is not set in the viewpoint management unit 108 follows the same flow as that after S616. To do.
  • the viewpoint management unit 108 requests the image synthesis unit 115 to acquire a viewpoint image instead of acquiring the viewpoint image in front of the imaging unit 101 (S903).
  • the image composition unit 115 acquires the superimposition information of the virtual viewpoint from the superimposition information storage unit 110 (S904).
  • the virtual viewpoint superimposition information includes a data ID 501 group of superimposition information of nodes existing in the vicinity of the virtual viewpoint.
  • the medical support device 200 and the subset indicated by the data ID 501 of the superimposition information in the vicinity of the virtual viewpoint are specified (S905), and the communication unit 111 is requested to acquire the viewpoint images of the other nodes 130 specified in the vicinity of the virtual viewpoint. (S906).
  • viewpoint image acquisition is repeated for the recorded data ID 501 group of superimposition information in the vicinity of the virtual viewpoint (S907).
  • the communication unit 111 of the other node 130 that has received the request performs the viewpoint image acquisition process according to the request. However, if the requirement for acquiring the viewpoint image is satisfied, wired communication and wireless communication are performed.
  • the form of communication between the nodes is not limited.
  • the image composition unit 115 synthesizes the obtained viewpoint images of the other nodes 130 to generate one viewpoint image (S908).
  • the virtual viewpoint overlaps with a fixed node such as the node 214 or the node 215 as described in the above processing (S806)
  • the visual field image of the node may be used as it is.
  • a viewpoint image from a virtual viewpoint is generated by performing three-dimensional modeling by using a method such as Image Based Rendering.
  • the image composition unit 115 notifies the created viewpoint image to the viewpoint management unit 108, and the display management unit 112 acquires the viewpoint image (S909).
  • the viewpoint management unit 108 and the display management unit 112 receive the viewpoint image regardless of whether or not it is a virtual viewpoint, the subsequent processing is a screen display in the same processing flow as FIG. 6B of the first embodiment. (S910).
  • a medical support device or a subset thereof worn by a plurality of users cooperates to generate and transmit an image viewed from an arbitrary viewpoint, so that a view and operation from an arbitrary viewpoint at the medical site can be performed. Since it can be shared, medical work can be supported more accurately in a remote place.
  • FIG. 13 is a functional block diagram showing the configuration of the medical support apparatus 300 according to Embodiment 3 of the present invention. The relationship between blocks will be described with reference to FIG. In FIG. 13, the same components as those in FIGS. 1 and 8 are denoted by the same reference numerals, and the description thereof is omitted.
  • the medical support apparatus 300 includes a screen adjustment unit 116 in addition to the blocks indicated by the same reference numerals as those in FIGS. 1 and 8.
  • the operation detection unit 304 recognizes an operation that allows the user 120 to individually set the display attribute type shown in FIG. .
  • the recognized operation type 401 is notified to the superimposition information configuration unit 105 as operation detection information.
  • the superimposition information configuration unit 305 generates a code representing a display attribute in addition to the function of the superimposition information configuration unit 105 shown in FIGS. With reference to the operation detection information notified from the operation detection unit 304, a display attribute corresponding to the operation is generated and stored in the superimposition information storage unit 110.
  • the display management unit 312 acquires display attribute information from the superimposition information storage unit 110 in addition to the function of the display management unit 112 shown in FIGS.
  • the display management unit 312 configures a display screen according to the code indicated by the display attribute, and requests the screen adjustment unit 116 to adjust the screen.
  • the screen adjustment unit 116 processes the display screen according to the display attribute.
  • the screen adjustment unit 116 receives a request from the superimposition information configuration unit 305 to generate a virtual viewpoint, the screen adjustment unit 116 processes the display screen according to the code indicated by the display attribute.
  • the individual user 120 designates the medical support apparatus 300 to be worn so as to enlarge and display an arbitrary point of the visual field, or to display a visual field image that is not displayed other than a specific type of superimposition information. Things will be possible.
  • FIG. 14 is a diagram showing variations of display attribute types constituting information stored as display attributes in the superimposition information storage unit 110.
  • the type of display attribute is represented by a code indicating how to display.
  • the display attribute type is referred to when the display management unit 312 and the screen adjustment unit 116 perform screen processing, thereby realizing a desired screen display of the user 120.
  • Various types of display attributes will be described.
  • the enlarged display 1101 and the reduced display 1102 are display attributes for displaying a part or the whole of the screen that should be displayed in an enlarged or reduced manner. This is a display method that is useful when performing work that requires more visual acuity.
  • the partial enlarged display 1103 displays a part of the viewpoint image in an enlarged manner similar to the enlarged display 1101, but has a display attribute such that only an arbitrary part is enlarged and displayed with a magnifying glass. This is useful for enlarging and displaying a certain portion while confirming the positional relationship with the visual field image other than the enlarged portion. In particular, when performing a medical act such as surgery, it can be used for confirming the affected area for the first time.
  • the transparent display 1104 and the filtering display 1105 are display attributes for displaying only the superimposed information, the information that is desired to be displayed only at that time, the information that is desired to be hidden, or the transparent display.
  • the transparent display 1104 and the filtering display 1105 can be displayed by an easy-to-view display method for each individual.
  • the viewpoint switching 1106 and the two-viewpoint simultaneous display 1107 are display attributes for sharing the field of view with other nodes 130. As long as it is a collaborative work, a plurality of persons work in the field of view from each viewpoint, and the operations of the collaborators are estimated from the field of view of each individual and the timing, speed, target location, etc. are adjusted. In addition, it is possible to give more accurate indications for cases where remote doctors perform treatment while giving guidance while confirming the visual field from the surgeon himself.
  • the display attributes are not limited to 1101 to 1107 shown in the figure, and it is possible to add and reduce modes desired by the user 120. In addition to the display attributes described above, other methods that satisfy the purpose of display attributes that support work may be used.
  • FIGS. 15A and 15B are diagrams showing examples of display attributes stored in the superimposition information storage unit 110.
  • the display attribute is data generated by the superimposition information configuration unit 305 and recorded in the superimposition information storage unit 110.
  • the display attribute includes at least a display attribute type 1201, position information 1202, target superimposition information ID 1203, a size ratio 1204, and a transmission ratio 1205.
  • the display attribute type 1201 will be described with reference to FIG.
  • the display attribute type 1201 is a value indicating a display method in which any of the codes representing the display attribute types shown in FIG. 14 is set.
  • the position information 1202 is a value indicating the screen position that is the target of screen processing. For example, two variations are shown in FIGS. 15A and 15B.
  • Reference numerals 1201 to 1205 shown in FIG. 15A show display attributes for enlarged display, and reference numerals 1206 to 1210 shown in FIG. 15B show display attributes for transparent display. These will be described in order.
  • the display attribute type 1201 is assigned a code indicating the enlarged display 1101 of FIG.
  • the position information 1202 is set with the center coordinates of the portion of the screen to be enlarged.
  • the target superimposition information ID 1203 indicates the data ID 501 of the superimposition information when there is superimposition information to be screen processed.
  • an arbitrary value can be separately secured as a sign when target superimposition information to which the display attribute type 1201 is applied is not specified or when all superimposition information stored in the superimposition information storage unit 110 is applied.
  • the target superimposition information ID 1204 is not specified and 0 is given.
  • a size ratio 1204 sets a ratio for enlarged display.
  • the transmission ratio 1205 is a value indicating the degree of transmission of display. In this example, since only enlargement is performed, the same magnification is set.
  • display attributes for transparently displaying arbitrary superimposition information for 1206 to 1210 shown in FIG. 15B will be described. Reference numerals indicating the transparent display 1104 of FIG. 14 of the display attribute type 1206 are given.
  • the position information 1207 is not used because arbitrary superposition information is fixed in this example. Here, the position information 1207 may be set and used as necessary.
  • the operation to be transmitted is not the superimposition information but designates a certain range on the field of view, it is conceivable to store the vertex coordinates of the four corners of the rectangle enclosed by the range.
  • the target superimposition information ID 1208 stores the ID of the superimposition information to be transmitted.
  • the size ratio 1209 is a value indicating the degree of vertical and horizontal size. In this example, since only the transparent operation is performed, the same magnification is set.
  • the transmission ratio 1210 is a value indicating the degree of transmission of the display, and 0.7 is set as semi-transmission.
  • the superimposition information data ID 501 representing the viewpoint of each of the other nodes 130 to be displayed is designated as the target superimposition information ID. Further, it is assumed that the size ratios 1204 and 1209 are similarly used for the reduced display 1102.
  • FIG. 16 is a flowchart showing a process of reflecting the set display attribute on the display screen in the medical support apparatus 300 shown in FIG.
  • the operation detection unit 304 notifies the superimposition information configuration unit 305 of operation detection (S1301).
  • the user operation detection process is performed in the same processing flow as the operation detection process (S601 to S604) in FIG. 6A.
  • the superimposition information configuration unit 305 refers to the operation detection information and determines whether the operation type 401 shown in FIG. 4 is an operation for a display attribute (S1302). For example, when the operation type 401 of the operation detection information is an operation request for instructing the processing display secured in the display attribute type 1201 of the display attribute, the superimposition information configuration unit 305 sets the operation type 401 of the operation detection information to the display attribute. Treat as an operation.
  • the types of display attributes include viewpoint switching 1106 shown in FIG. If the operation type 401 is not a display attribute operation, the process according to the specified operation type 401 is continued. For example, in the case of the superimposition information generation operation as shown in FIG. 6A of the first embodiment, the processing after the processing (S606) is performed.
  • the superimposition information configuration unit 305 When the operation type 401 is a display attribute operation, the superimposition information configuration unit 305 records the display attribute in the superimposition information storage unit 110 (S1303). At this time, the superimposition information configuration unit 305 notifies the viewpoint management unit 108 of the display attribute. For example, when the display attribute type 1201 is the viewpoint switching 1106, the virtual viewpoint display is set in the same manner as the processing of FIG. 9 (S809) of the second embodiment, and the switching destination viewpoint image is used in the subsequent display processing. can do. Further, it is assumed that the information recorded as the display attribute includes one of the values 01 to 05 shown in FIG.
  • the superimposition information configuration unit 305 converts the coordinate information into a coordinate value in the shared coordinate system using the same process as in S606 to S609.
  • the superimposition information arranged at the point indicated by the calculated coordinate value of the shared coordinate system is searched from the superimposition information storage unit, and the superimposition information that is the target of the transmissive display is specified.
  • the superimposition information storage unit 110 records the data ID 501 of the specified superimposition information as a display attribute together with the input display attribute type 1201 of the transparent display 1104 and the transmittance. This can also be applied to the display attribute type 1201 of other display attributes. Similarly, the position information 1202 and the target superimposition information ID 1203 may be determined and set.
  • the superimposition information configuration unit 305 requests the display management unit 312 to update the screen (S1304).
  • the display management unit 312 generates a display screen (S1305).
  • the configuration of the display screen is to generate a screen by performing processing equivalent to the processing (S616 to S621) shown in FIG. 6B of the first embodiment.
  • the display management unit 312 requests the screen adjustment unit 116 to adjust the screen (S1306). This request is made to process the screen according to the display attribute recorded in the superimposition information storage unit 110.
  • the screen adjustment unit 116 When the screen adjustment unit 116 receives a request from the display management unit 312, the screen adjustment unit 116 acquires display attributes from the superimposition information storage unit 110 (S1307).
  • the screen adjustment unit 116 processes the display screen according to the value set in the acquired display attribute (S1308).
  • display attribute type 1201, position information 1202, and size ratio 1204 are set as display attributes.
  • the screen adjustment unit 116 determines from the display attribute type 1201 that the display is the enlarged display 1101, the screen adjustment unit 116 reconstructs the display screen with the enlargement ratio indicated by the value of the size ratio 1204 around the point of the display image indicated by the position information 1202. .
  • the screen is processed using one or more of the position information 1202, the target superimposition information ID 1203, the size ratio 1204, and the transmission ratio 1205.
  • each processing method is not limited to a unique method, and it is only necessary to satisfy the requirements represented by each display attribute type 1201.
  • the screen adjustment unit 116 requests the display unit 113 to display the screen, and the display unit 113 that has received the request performs the same processing as the processing (S624) and displays the screen (S1309). Thus, the process of reflecting the set display attribute on the display screen is completed.
  • a medical support device or a subset thereof worn by a plurality of users cooperates to generate and transmit an image viewed from an arbitrary viewpoint, so that a view and operation from an arbitrary viewpoint at the medical site can be performed. Since it can be shared, medical work can be supported more accurately in a remote place. Further, it is possible to perform more detailed display control such as enlarging and displaying an arbitrary point in the field of view, or hiding other than the specific type of superimposition information.
  • the medical support device has data sharing with a remote place, two-way voice communication, or image communication including gesture gesture, and is useful not only for remote diagnosis but also for remote treatment such as surgery.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physiology (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Processing Or Creating Images (AREA)

Abstract

 遠隔地にいる者を含む複数人が、あたかも同じ空間上に存在し、現時点での遠隔地にいる人の動作が目の前の現実物体と適切な位置関係で表現する。 医療支援装置は、ユーザの視界に応じた撮影信号を取得する撮像部(101)と、撮像部の姿勢を取得する姿勢観測部(102)と、撮像部の位置を取得する位置観測部(103)と、撮影信号からユーザの操作および当該操作が行われた操作位置を検出する操作検出部(104)と、操作の種類に応じて、重畳内容および操作位置に関する情報を含む重畳情報を生成する重畳情報構成部(105)と、撮像部(101)の位置と姿勢から表示する画面を生成する表示管理部(112)と、撮像部(101)の視点画像に表示管理部(112)が生成した画面を重畳して表示する表示部(113)と、重畳情報を他の医療支援装置に送信する通信部(111)とを備える。

Description

医療支援装置、医療支援方法および医療支援システム
 本発明は遠隔地にいる医師等のユーザを含む複数人で、他のユーザの視界や、操作の共有を行い医療支援行う医療支援システムに関するものである。
 近年、高齢化社会への問題が大きく取りざたされている。特に地方では高齢化の進行が著しく、高齢化は都市部より過疎地域で加速すると推測されている。また一方、高度な医療設備を備えた医療機関は都市部に集中する傾向にあり、現状充分な医療を受けるには都市部の医療機関への依存を余儀なくされている。しかし、それは患者本人のみならず家族にとっても、肉体的・経済的・時間的に大きな負担を強いる。そこで、情報通信機器を活用した遠隔医療が注目されている。遠隔医療はテレビ会議装置の利用が一般的である。このテレビ会議装置は、コンピュータに接続された周辺機器があり、複数の医師が遠隔地の在宅患者の医療データをリアルタイムで入手し、画像と音声を用いた双方向通信により会話しながら診察している。このような従来の技術としては、例えば特許文献1に記載されたものが知られている。特許文献1は複数の医者が遠隔地の在宅患者の医療データをリアルタイムで入手し、画像と音声を用いた双方向通信により、会話しながら診察する在宅医療支援システムを提供するものである。これは遠隔診断において有用である。治療においても従来技術は応用可能である。特に遠隔地にいる権威の指揮の下患者の情報共有や、手術のアドバイスといった応用が期待される。
特開平8-215158号公報
 しかしながら、従来のテレビ会議システムでは、表示装置の位置は固定されており、且つその画面は有限の大きさの平面である。会議の参加者は、表示装置の画面を確認する際、視線方向が拘束される事となる。また、遠隔からテレビ会議に参加している有識者が、現場で処置を行っている参加者に対し、画像をベースに助言を行う場合、処置を行っている会議参加者は、画面確認を伴う助言を聞くという動作と処置とを交互に繰り返すこととなり、患部から視線をそらさなければならない。これは円滑な処置を行う必要がある場合では、処置の妨げとなり問題となる。
 本発明は、前記従来の課題を解決するもので、遠隔地にいる医師等のユーザを含む複数人で、他のユーザの視界や、操作の共有を行い医療支援行う医療支援システムを提供することを目的とする。
 前記従来の課題を解決するために、本発明に係る医療支援装置は、ユーザの視界または操作をユーザ間で共有するための医療支援装置であって、ユーザの視界に応じた撮影を行って撮影信号を取得する撮像部と、前記撮像部の姿勢に関する情報を取得する姿勢観測部と、前記撮像部の撮影位置に関する情報を取得する位置観測部と、前記撮像部が取得した前記撮影信号から当該医療支援装置を装着したユーザの操作および当該操作が行われた操作位置を検出する操作検出部と、前記撮影信号と、前記姿勢に関する情報と、前記撮影位置に関する情報とを対応付けて管理する視点管理部と、前記操作検出部が検出した前記操作に基づいて重畳内容を決定するとともに、前記視点管理部が管理する信号および情報に基づいて前記操作位置に関する情報を決定し、前記重畳内容および前記操作位置に関する情報を含む重畳情報を生成する重畳情報構成部と、前記撮影信号から視点画像を生成し、当該視点画像における前記操作位置に前記重畳内容を合成した画像を生成して表示する表示管理部と、前記重畳情報を少なくとも一つの他の医療支援装置に送信する通信部とを備える。
 ここで、前記操作位置に関する情報は、前記姿勢に関する情報、前記撮影位置に関する情報、および前記操作検出部が検出する操作位置とは、別の独立した系で表される。
 この構成により、遠隔地にいる医師等のユーザを含む複数人で、他のユーザの視界や操作を共有することにより、視線方向の拘束や円滑な作業への妨げが軽減される。また、遠隔者の助言は実際の患部ベースに行う事で、より分かりやすい指示提示が可能となる。
 また、前記通信部は、前記他の医療支援装置で撮影された撮影信号を受信し、前記医療支援装置は、さらに、任意の位置と、当該任意の位置の近傍に存在する2以上の前記他の医療支援装置の位置を示す情報に基づいて仮想視点情報を生成する仮想視点生成部と、前記任意の位置の近傍に存在する2以上の前記他の医療支援装置から受信した前記撮影信号、および前記仮想視点情報に基づいて前記任意の位置を仮想視点とする画像を生成する画像合成部とを備えるようにしてもよい。
 この構成により、遠隔地にいる医師を含む複数人で、任意の位置での医師の視界や操作を共有することにより、視線方向の拘束や円滑な作業への妨げが軽減される。また、遠隔者の助言は実際の患部ベースに行う事で、より分かりやすい指示提示が可能となる。
 また、前記重畳情報は、当該重畳情報に含まれる重畳内容の表示の態様を示す表示属性情報と対応づけて管理され、前記医療支援装置は、さらに、前記表示管理部で生成された前記重畳内容が合成された画像を、前記表示属性情報に応じて加工する画面調整部を備えるようにしてもよい。
 この構成により、視野の任意の地点を拡大表示する、特定の種類の重畳情報以外を非表示にするといった、より詳細な表示制御が可能となる。
 また、本発明に係る医療支援装置の各機能ブロックはコンピュータに実行させるプログラムとして実現することもできる。そして、そのようなプログラムは、CD-ROM等の記録媒体あるいはインターネット等の伝送媒体を介して配信することができる。
 また、本発明は、集積回路であるLSIで実現してもよい。これらの各機能ブロックは個別に1チップ化されていてもよいし、一部または全てを含むように1チップ化されていてもよい。ここではLSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSIまたはウルトラLSIと呼称されることもある。
 また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
 さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。
 本発明の医療支援装置によれば、遠隔地の人が、あたかも同じ空間上に存在し、現時点での遠隔の人の動作が目の前の現実物体と適切な位置関係で表現される事により、より直感的な指示や、協調作業を行う事が可能となる。
図1は、本発明の実施の形態1における医療支援装置の構成を示す機能ブロック図である。 図2は、実施の形態1における屋内の医療支援装置と他のノードの関係を示した図である。 図3は、実施の形態1における3次元空間の座標変換を示した図である。 図4は、実施の形態1における操作検出部が発行する操作検出情報を示した図である。 図5は、実施の形態1における重畳情報記憶部により記録される重畳情報を示した図である。 図6Aは、実施の形態1におけるユーザから要求を受け重畳情報を作成し視点画像と重畳情報を重畳して表示する処理を示したフローチャートである。 図6Bは、実施の形態1におけるユーザから要求を受け重畳情報を作成し視点画像と重畳情報を重畳して表示する処理を示したフローチャートである。 図7は、実施の形態1における視点画像に重畳内容を重畳した表示の一例を説明するための説明図である。 図8は、本発明の実施の形態2における医療支援装置の機能ブロック図である。 図9は、実施の形態2における仮想視点を生成する処理を示したフローチャートである。 図10は、実施の形態2における視点画像に重畳内容を重畳した表示の一例を説明するための説明図である。 図11は、実施の形態2における視点画像に重畳内容を重畳した表示の一例を説明するための説明図である。 図12は、実施の形態2における仮想的に位置している視点からの視点画像を表示する処理を示したフローチャートである。 図13は、本発明の実施の形態3における医療支援装置の機能ブロック図である。 図14は、本発明の実施の形態3における表示属性の種別を示した図である。 図15Aは、本発明の実施の形態3における表示属性の一例を示した図である。 図15Bは、本発明の実施の形態3における表示属性の一例を示した図である。 図16は、本発明の実施の形態3における設定された表示属性を表示画面に反映する処理を示したフローチャートである。
 以下本発明の実施の形態について、図面を参照しながら説明する。
 (実施の形態1)
 図1は、本発明の実施の形態1における医療支援装置の構成を示す機能ブロック図である。
 医療支援装置100は、医師等ユーザの視界または操作をユーザ間で共有するための装置であり、図1に示すように撮像部101、姿勢観測部102、位置観測部103、操作検出部104、重畳情報構成部105、視点管理部108、座標変換部109、重畳情報記憶部110、通信部111、表示管理部112および表示部113を備える。また、重畳情報構成部105は、重畳位置決定部106および重畳画像生成部107により構成される。医療支援装置100は、例えば、撮像部101を小型カメラ、位置観測部103、操作検出部104、重畳情報構成部105、視点管理部108、座標変換部109、通信部111、表示管理部112に対応するプログラムをそれぞれ記録するメモリ、ハードディスクなど記録媒体(図示せず)と、重畳情報記憶部110に対応するメモリ、ハードディスクなど記録媒体(図示せず)と、メモリに記録されたプログラムを実行するCPU(図示せず)などのプロセッサを有するコンピュータ、表示部113をヘッドマウント型のディスプレイにより構成して実現することができる。また、医療支援装置100は、前述したすべての要素をヘッドマウントディスプレイに内蔵することにより実現することもできる。以下の説明では、上記構成要素のうち一部の要素を搭載した医療支援装置100をサブセットと呼ぶ。例えば、前述した医療支援装置100の構成例においては、表示部113であるヘッドマウントディスプレイを保持しない医療支援装置100をサブセットと呼ぶことができる。図1において、他のノード130は、医療支援装置100と同等もしくは、そのサブセットの装置である。
 上述の例では、位置観測部103、操作検出部104、重畳情報構成部105、視点管理部108、座標変換部109、通信部111、表示管理部112はそれぞれ、プログラムとして、コンピュータが備えるメモリ、ハードディスクなどの記録媒体(図示せず)に格納されCPUにて、実行される構成を例示した。しかしながら、これに限定される必要はなく、例えば位置観測部103、操作検出部104、重畳情報構成部105、視点管理部108、座標変換部109、重畳情報記憶部110、通信部111、表示管理部112の一部又は全部を図示しない専用の処理回路(例えばLSI)などを用いてコンピュータを構成しても良い。このような構成を採用した場合、専用の処理回路(図示せず)を用いて実現した動作に対応するプログラムは、コンピュータが備えるメモリ、ハードディスクなどの記録媒体に格納する必要は必ずしもない。
 また、このコンピュータはヘッドマウントディスプレイに内蔵できる程度に小型であることが望ましい。
 またこのコンピュータは、無線、または有線にて通信(例えば送信、受信など)するための通信回路(図示せず)を備える。
 通信部111は、例えば、この通信回路とこの通信回路を制御するためのプログラムを記録するメモリ、ハードディスクなど記録媒体(図示せず)を有する構成を有する。または通信回路を制御するためのプログラムをCPUにて実行したときの動作を図示しない専用の処理回路(例えばLSI)などを用いて構成をしても良い。
 このような構成を採用した場合、専用の処理回路(図示せず)を用いて実現した動作に対応する通信回路を制御するためのプログラムは、コンピュータが備えるメモリ、ハードディスクなどの記録媒体に格納する必要は必ずしもない。
 他のノード130はユーザ120とは別の人物により装着されている。他のノード130と、他のノード130が装着する装置は、ユーザ120と医療支援装置100関係と同様である。各ノードが互いに通信することにより、視野に重畳する情報や視界を共有し医療作業を支援する。
 図2は、屋内での医療支援装置100と他のノード130の関係を示した図である。ここで上段は屋内を斜め上方から見下ろした図であり、下段は屋内を真上から見下ろした図である。本実施の形態1では、屋内の手術室を想定しており、ユーザは屋内及び遠隔地にいる医師とする。図2に示す屋内の中央には、患者である人物を載せる寝台が配置される。しかし、ここでは簡略化のため図示はしない。
 図1に示すユーザ120にあたる医師などのユーザ201、202は、医療支援装置100に相当する医療支援装置211、212をそれぞれ装着している。この様に、手術室内にいる医師などのユーザ201、202は、ユーザに装着される医療支援装置211、212により、医療支援装置100の機能を利用する。
 医療支援装置213、214、215はユーザに装着されない医療支援装置であり、医療支援装置100と同等もしくは、そのサブセットの装置である。医療支援装置100は、必ずしも人と対となって装着されるものとは限らない。ユーザに装着されない医療支援装置213、214、215は屋内に任意の地点に設置可能である。本実施の形態1では、中央(寝台がある地点)を取り囲む様に211~215が設置される。このとき213は、天井に対して鉛直下方に設置され、図2の下図の様に他のユーザに装着される医療支援装置211、212、214、215を含む屋内全体が見渡せるように設置する。ここで本実施の形態1では、屋内全体を見渡せる様に213を設置したがこれに限るものではない。撮影可能なポイントが多い事は望ましいが、ノードの増加により処理量も増大するため状況に応じて設置可能な数を任意に指定できるものとする。
 医療支援装置100において、各ノードは互いに装着する医療支援装置100の表示部113上に表示する文字列などの情報を少なくとも1つ以上共有し、それぞれの視野に重畳表示する。それぞれの視野上に表示するということは、表示する情報を各ノードの視点を原点とする固有の座標空間上に配置することを意味する。よって、それぞれのノードによって、同じ情報であっても、その配置場所を表す座標値の表現は異なる。よって、1つの情報を共有するためには、互いに共通な座標系上で情報管理が必要となる。
 また、各ノードが人の頭部等に装着された医療支援装置100である場合、各ノードは医療作業に伴って頭部の位置は刻々と変化する事になる。そのため、ノードの頭部位置を時間毎に把握するためには、時系列に沿って変化する固有座標系の追跡も同時に必要となる。つまり、ある時点での固有座標系の座標値から共通座標系の座標値を取得する、もしくはその逆を実行できる必要がある。ここで、固有座標系と共通座標系の関係について説明する。
 図3は、一般的な3次元空間の座標変換を説明するための図である。図3において、ある時刻における共通座標系301と、ある時刻からN時間経過後の固有座標系A302間の変換行列Qnを知りたいとする。ここで、固有座標系B303は、個別で自由に動く事が出来る独立した座標系である場合、固有座標系B203のn時間後に固有座標系Aに重なるときを考える。図に示される様に、共通座標系301において、固有座標系B303と共通座標系301との位置関係は変換行列Q0で表される。また、固有座標系B303とn時間後の固有座標系A302との位置関係は、固有座標系B303が固有座標系A302に移動する平行移動量p、回転角度θにより変換行列をQabと表す事ができる。このとき、(1)Qn=Q0+Qab、(2)Qab=P(θ、p)、という関係が成立する。
 つまり、n時間時点の固有座標系A302と共通座標系301との位置関係Qnは、共通座標系301と、固有座標系の初期位置(固有座標系B303)との位置関係を示すQ0と、固有座標系の初期位置からの並行移動量pおよび、回転角度θ変化量により求めることができる。
 次に本発明の実施の形態1における医療支援装置の機能ブロック図を用いて各ブロックとブロック間の関係を説明する。
 撮像部101は、ユーザの視界に応じた撮影を行って撮影信号を取得する。すなわち、撮像部101は、ユーザ120の視線方向にある光学像、ユーザ120またはユーザ120の体の一部の光学像を電気的信号に変換した撮影信号を取得する。撮影信号は、操作検出部104、視点管理部108の入力情報となる。撮影信号は、操作検出部104においては、ユーザ120から医療支援装置100に対する操作要求を検出するために用いられる。具体的な方法は後述する。また、撮影信号は視点管理部108においては、ユーザ120の視線方向にある画像を取得するために用いられる。本実施の形態1において撮像部101が取得する撮影信号は、2台のカメラから得ることを想定する。2台のカメラはユーザ120の頭部に設置され左眼、右眼のそれぞれの視点からの撮影信号として扱われる。ただし、ユーザ120の操作要求を検出ための入力情報と、視線方向と一致する画像の取得という要件を満たすものであれば、本実施の形態1で想定する構成に限るものではない。
 姿勢観測部102は、医療支援装置100を装着したユーザ120のヨー、ロール、ピッチ角といった視線方向の姿勢を示す姿勢に関する情報である視点角度を取得する。本実施の形態1では、姿勢観測部102は、3軸の角度取得が可能なセンサで構成され、医療支援装置100を装着したユーザ120の頭部に位置することを想定する。視点角度は、ユーザ120の視線方向を推定するために用いる。
 位置観測部103は、医療支援装置100を装着したユーザ120の頭部の位置を示す撮影位置に関する情報である視点位置を取得する。視点位置は、ユーザ120が屋内に対してどの地点に位置しているか推定するために用いる。例えば、図2の医療支援装置100もしくは、サブセットとして示される医療支援装置213を屋内の基準となる装置とした場合の、医療支援装置213と、他の医療支援装置100もしくは、サブセットの相対位置を算出する事で屋内に対してどの地点に位置しているかを把握することが可能となる。
 操作検出部104は、撮像部101が取得した撮影信号を解析しユーザ120の操作要求を表す動作を検出する。ここで検出処理の一例を示す。取得した撮影信号からユーザ120が操作要求を主に行う体の部位を抽出する。例えば検出部位として一般的に用いられる手から操作要求を検出する場合、肌色抽出や強い曲線部分の抽出もしくは医療支援装置100が予め保持する手形状のモデルマッチングにより、撮影信号中の手を推定、認識する方法が一般的に知られている。次に抽出した操作部位を時系列で追尾監視する。ここで例えば指差しの手形状を一定時間検出し続けた場合、撮影信号中の任意の一点を選択したという操作を検出したとし、操作要求を重畳情報構成部105に対して操作検出情報として通知する。操作要求を表す動作を検出しなかった場合は都度、撮像部101が取得した撮影信号を解析し操作要求を表す動作検出処理を繰り返す。ここで、操作検出情報とは少なくとも操作検出部104が検出した操作の種類を表す情報と撮影信号中の操作が行われた位置を表す情報からなる。
 図4は操作検出部104が発行する操作検出情報の一例を示した図である。操作検出情報は少なくとも、操作種別401と操作検出位置402からなる。操作種別401は、操作検出部104が検出した動作の種類を表すもので、動作に応じて任意箇所の選択、重畳する画像の生成といった操作を表すことになる。操作検出位置402は、操作検出部104が撮像部101の撮影信号内の操作を検出した位置を表すものである。例えば、操作種別401は視野上の任意の点を指し示す為や、視野上に仮想的に設置されたボタンといたグラフィックを選択するための「押す」という動作や、視野内に表示されたグラフィックデータの位置を変更する為に、位置変更するグラフィックデータを「掴む」といった動作などがある。また、操作には、例えばマーカを付けるといったグラフィックを描画するような動作も含まれる。また、操作検出位置402は、撮影信号内において操作種別401が示す動作が行われた地点を示す、X座標およびY座標の値が保存される。さらに操作種別401および、操作検出位置402は例として挙げたバリエーション以外の種別や、Z座標といった情報を保持してもよい。
 重畳情報構成部105は、操作検出部104の操作検知情報の通知を受け操作に対する情報生成、もしくは更新を行う。ここで、操作に対する情報とは、その操作が作用する位置を示す情報と、画面に表示される場合の視覚情報(重畳内容)から構成される重畳情報である。例えば、ユーザ120の視野内の任意の一点に対して情報を強化する目的で用いられる、メモや説明、ガイドといったテキストのグラフィック表示などが重畳情報となる。新たな重畳情報は重畳情報記憶部110に記録要求することにより保存される。また、重畳情報構成部105は通信部111を経由して重畳情報の生成通知または更新通知を他のノード130へ送信することにより、他のノード130に対しても重畳情報の生成、更新を知らせることが可能となる。さらに、重畳情報構成部105は、操作に対する情報生成、もしくは更新を画面に反映させるために表示管理部112に対して画面更新通知を行う。
 重畳位置決定部106は操作検出情報が示す操作が行われた位置を算出する。他のノード130と、ある1つの重畳情報を共有するためには、共通の座標系上の座標位置を保持する必要がある。しかし、それぞれの医療支援装置100が検出する操作要求を表す動作は、それぞれの撮像部101が撮影した画像を基に検出される。すなわち、操作検出部104が検出する位置はそれぞれの撮像部101の座標系が基準となり、各ノードにおいて共通の座標系とはなっていない。重畳位置決定部106は、各ノード個別の座標系で得られる座標値を基に、操作位置に関する情報である共通座標系の座標値を決定する。重畳位置決定部106は、重畳情報構成部105から位置生成の要求を受けると共通座標系の座標値を算出する。ここで共通座標系の座標値の算出手順を説明する。重畳位置決定部106は、視点管理部108に視点情報の取得を要求し、現時点の視点位置、及び視点角度を取得する。視点位置、視点角度、及び操作検出部104で検出された操作位置から共通座標系での座標値を算出する。このとき、座標変換処理は座標変換部109に依頼する事により座標値を得る。
 重畳画像生成部107は、操作検出部104から通知された操作検出情報が示す操作の種類に応じた画像を生成する。例えば、前述した視野内の任意の一点に対するテキストの重畳表示を指示する操作が通知された場合、テキストのグラフィック情報の生成処理を行う。重畳画像生成部107は重畳情報構成部105から画像生成要求を受けると、操作の種類を判定し、操作に応じた形状、色、文字、サイズ、グラフィック情報を作成する。
 図5は、重畳情報記憶部により記録される重畳情報の一例を示した図である。重畳情報は少なくとも、データID501と、重畳情報種別502と、重畳情報表示位置503から構成される。データID501は、重畳情報個別に付与される一意な符号である。本実施の形態では図5のデータID501に示す様な一意な値が付与される。重畳情報種別502は、重畳情報の種別を表す。例えば、ある重畳情報が医療支援装置100およびサブセットである場合、図5の重畳情報種別502に示す様にノードという種別が付与される。また、視野に重畳される例えば患者の情報やメモなどのテキストグラフィックはラベル、例えばレントゲン画像などの画像データは画像という種別が付与される事で、それぞれの重畳情報の種類を分別する事ができる。さらに、ある任意のノードにとって、他のノード130も重畳情報の一種とみなすことが出来る。この場合、他のノード130はノードという重畳情報種別502により管理されてもよい。重畳情報表示位置503は、共通座標系における重畳情報の表示位置を示したものである。これは、図5の重畳情報表示位置503に示す様な共通座標系のX,Y,Z軸での座標値が設定される。ここで、重畳情報は上記以外の情報を保持してもよい。例えば、重畳情報がテキストを表示するものである場合、その文字列情報、フォント情報や、サイズ情報、色、字体情報などが挙げられる。また、任意の形状を持つ画像である場合は各頂点群を表した形状情報や、透過率の情報、形状の表面に使用するテクスチャ画像情報も含んでもよい。いずれも、重畳情報として扱う上で処理対象となるデータ、もしくは表示に関するデータは重畳情報として含めてよいものとする。
 視点管理部108は、現時点の視点情報の取得、配信を行う。本実施の形態1では、視点情報として、視点から見える画像(視点画像)、固有座標系における視点のXYZ3軸(ロール、ピッチ、ヨー)角度(視点角度)、及びXYZ3軸の座標値(視点位置)の取得、配信を行う。視点から見える画像(視点画像)は撮像部101より取得する。固有座標系における視点のXYZ3軸(視点角度)は姿勢観測部102より取得する。固有座標系における視点のXYZ3軸の座標値(視点位置)は位置観測部103により取得する。視点管理部108は視点画像、視点角度、視点位置の少なくとも1つもしくは、すべての取得要求を受けると要求された情報を取得して視点情報として通知する。本実施の形態1では、重畳位置決定部106により視点情報の取得が要求される。ここで、視点管理部108が取得、配信するものは、必ずしも視点画像、視点角度、視点位置である必要はない。少なくとも1つ以上または、他の視点に関する情報であってもよい。他の視点に関する情報とは、たとえば深度センサによる視点からの奥行き情報や、赤外線といった特別な光線情報などがある。
 座標変換部109は、共通座標系から各ノード個別の座標系での変換、もしくはその逆変換を行う。例えば、重畳位置決定部106は、視点管理部108から取得した現時点での視点の位置、姿勢情報を基に、上述の(1)、(2)式を満たすように(p、θ)の値を座標変換部109に設定する。このとき、各ノードの共通座標系との初期位置を表す位置関係Q0を当てはめることにより、座標変換部109は座標変換処理を行う。
 重畳情報記憶部110は、重畳位置決定部106で生成された重畳情報の共通座標系における座標値、および重畳画像生成部107が画像生成要求により生成した画像情報といった重畳情報を記憶する。重畳情報は重畳情報構成部105からの情報更新依頼により記録される。これらの記憶される重畳情報は、表示管理部112により取得され表示部113で表示する画面生成に用いられる。
 通信部111は、他のノード130と通信を行う。通信部111は、重畳情報構成部105より、重畳情報の生成、更新通知要求を受け取り、他のノード130に通知する。また、通知を受けた通信部111は、通知内容を重畳情報構成部105に通知する。これにより相互のノード間での通信を行う。
 表示管理部112は、重畳情報構成部105より画面更新通知をうけ表示する画面を構成する。表示する画面は、重畳情報記憶部110に蓄積された重畳情報と現時点での視点から見える画像とから構成される。表示管理部112は、視点管理部108に視点情報取得を要求し、現時点の視点の左眼右眼画像を取得する。表示管理部112は、重畳情報記憶部110から共通座標系における視点位置、視点角度を取得する。さらに、共通座標系における視点位置、視点角度に基づいて視野範囲を算出し、そのエリア内に存在する重畳情報を、重畳情報記憶部110から取得する。表示管理部112は、座標変換部109を用いて、取得した各重畳情報の座標値を各ノード個別の座標系に配置し、現時点の視点画像に重畳される画面を生成する。さらに、表示管理部112は生成した画面と、視点管理部108から取得した視点画像である左眼右眼画像の重畳および画面表示を表示部113に依頼する。
 表示部113は、表示管理部112から画面表示依頼を受け、左眼右眼画像に重畳情報により構成される画面を重畳して表示する。
 図6Aおよび図6Bは図1に示された医療支援装置100が、ユーザ120から要求を受け重畳情報を作成し視点画像と重畳内容を重畳して表示する処理を示すフローチャートである。
 まず、処理が開始され(S600)、ユーザ120からの操作要求を表す動作の検出処理に入る(S601)。検出処理は、まず操作検出部104が撮像部101から撮影信号を取得する(S602)。
 操作検出部104は、取得した撮影信号からユーザ120が操作要求を表す操作部位を抽出する(S603)。本実施の形態1において、操作部位は手を想定する。手は、肌色抽出や強い曲線部分の抽出を行う事により、撮影信号中の手を推定、認識する方法が一般的に知られている。ここで、抽出する操作部位は手に限定するものではない。例えば、ユーザ120の視線といった、手以外の操作者の体の一部や、ユーザ120が手に持っているメスなどの道具を操作部位として抽出し操作認識に用いてもよい。
 次に、操作検出部104は、抽出した操作部位を監視し(S604)、操作要求を表す動作を検出した場合は、撮影信号中の操作を検出した位置と共に重畳情報構成部105に対して操作検出情報を通知する(S605)。
 操作要求を表す動作を検出しなかった場合は都度、撮像部101から撮影信号を取得する処理に戻り、操作要求を表す動作を検出するまで繰り返す。
 操作検出情報の通知を受けた重畳情報構成部105は、操作検出部104から受け取った操作位置の共通座標系上で座標値を求めるために、重畳位置決定部106に位置算出を要求する(S606)。
 要求を受けた重畳位置決定部106は、視点管理部108に対して現時点での視点位置、視点角度の取得を要求する(S607)。
 重畳位置決定部106は、取得した視点位置、視点角度と、操作検出部104から通知された操作位置とを、座標変換部109に対して通知し、共通座標値への変換要求を行う(S608)。
 座標変換部109は上述の式(1)、(2)を満たす(p、θ)として、視点管理部から取得した視点位置をp、視点角度をθと設定し、変換行列Qnを求めることで、共通座標系上での座標値を算出する(S609)。
 重畳情報構成部105は、操作検出部104から受け取った操作位置に表示する画像を生成するために、重畳画像生成部107に対して重畳画像生成を要求する(S610)。
 重畳画像生成部107は、操作検出部104から通知された操作検出情報の操作種別401を参照し、操作種別401に応じた重畳画像を生成する(S611)。ここで、重畳情報がテキストを表示するものである場合、生成する重畳画像は、図5で説明した、文字列情報、フォント情報や、サイズ情報、色、字体情報を用いて生成することができる。
 ここでS606~S609の重畳位置決定処理と、S610~S611の重畳画像生成処理は、重畳情報を構成する要素を準備する要件を満たす限り順序は問わない。
 重畳情報構成部105は、重畳位置決定部106により算出した操作位置と、前述した視野内の任意の一点に重畳するテキスト等のグラフィック情報である重畳画像とで、図5に示す重畳情報を生成する。重畳情報構成部105は生成した重畳情報を重畳情報記憶部110に更新し保存する(S612)。
 この生成または更新を、他のノード130に対しても反映するために、重畳情報構成部105は通信部111に対して、重畳情報の生成通知または更新通知を行うよう要求する(S613)。
 通信部111は通知を受けると、他のノード130に対して重畳情報と重畳情報の生成通知または更新通知を発行する(S614)。ここで、生成通知または更新通知を受けた他のノード130の通信部111は、重畳情報構成部105に対し更新を通知し、生成、更新された重畳情報が重畳情報構成部105により、重畳情報記憶部110に記録される。なお、他のノード130に対して、重畳情報の更新という要件が満たしていれば、他の方式、経路、方法であってもよい。
 次に、重畳情報構成部105は、表示管理部112に対して画面更新を要求する(S615)。
 表示管理部112は、表示画面を更新するために、視点からの実際の画像と、この実際の画像に重畳する重畳画像の配置を行う。表示管理部112は、視点管理部108から左眼右眼画像を取得する(S616)。
 表示管理部112は、重畳情報記憶部110に記録されている共通座標系における視点位置、視点角度を取得する(S617)。
 表示管理部112は、取得した共通座標系における視点位置、視点角度に基づいて、例えば透視投影法などを用いて視野範囲を算出する(S618)。
 さらに重畳情報記憶部110に記録されている重畳情報の共通座標値が、表示管理部112で算出した視野範囲内に存在するか否かを判定し、視野範囲内に収まる重畳情報のみを、重畳情報記憶部110から取得する(S619)。
 取得した重畳情報の位置座標は共通座標系における座標値であるため、表示管理部112は、座標変換部109を用いて、取得した各重畳情報の座標値を各ノード個別の固有座標系に変換する(S620)。
 表示管理部112は、固有座標系に変換された座標値で示される位置に重畳情報で示される重畳画像を表示画面に配置し、現時点の視点画像に重畳される画面を生成する(S621)。
 表示管理部112は生成した画面と、視点管理部108から取得した視点画像である左眼右眼画像の重畳および画面表示を表示部113に依頼する(S622)。
 表示部113は表示管理部112から要求を受けると、視点画像に重畳される画面を重畳する(S623)。
 そして、重畳により1つになった画面が表示される(S624)。以上により医療支援装置100がユーザ120から要求を受け重畳情報を作成し、視点画像と重畳画像を重畳して表示する処理が終了する(S625)。なお、このようにして重畳により1つになった画面は、通信部111を介して他のノードや遠隔地にいる医師が使用する表示装置(図示せず)に送信することも可能である。
 次に、上記に説明した通信部111による他のノード130に対する生成通知または更新通知の発行処理(S614)が行われ、他のノード130が生成通知または更新通知を受けた場合の動作について説明する。なお、他のノード130の構成要素についても医療支援装置100と同様であるので同じ符号を用いて説明する。
 生成通知または更新通知を受けた他のノード130の通信部111は、重畳情報構成部105に対して重畳情報の生成または更新を通知する。重畳情報構成部105は、生成または更新された重畳情報を、重畳情報記憶部110に記録する。
 そして、上記と同様に、重畳情報構成部105による画面更新の要求処理(S615)から表示部113による表示処理(S624)までの処理を行うことで、ノード130の視点画像と、ユーザ120から受信した重畳情報に基づいた重畳画像を重畳して表示することになる。
 図7は、医療支援装置100において視点画像に重畳内容を重畳した表示の一例を説明するための説明図である。
 ここで、例えば図7に示すように医療支援装置100を装着したユーザA710と、ノード130を装着したユーザB720とが患者730を挟んで立っている場合を想定する。そして、ユーザA710が、例えばマーカを選択した上で、患者730の体の一部分をAの視界711の点線740で示すように指を動かした場合、ユーザA710が装着した医療支援装置100の表示部113には、Aの視界712に示すようにユーザA710の視点画像に、点線740で示された指の動きに応じたマーカ750を示すグラフィックが重畳画像として重畳されて表示される。一方、ユーザB720が装着した医療支援装置100の表示部113には、Bの視界721に示すようにユーザB720の視点画像に、点線740で示された指の動きに応じたマーカ760を示すグラフィックが重畳画像として重畳されて表示される。
 以上のように、ユーザが装着した医療支援装置またはそのサブセットが、そのユーザの視野にある物体に付加情報を重畳した画像を生成するための重畳情報を送信することにより、ユーザ間で操作の共有を行うことができる。また、重畳情報および視点画像を送信することにより、医療現場にいるユーザの視点で、その医療現場での視界や操作を共有することができるので、遠隔地においてより正確に医療作業を支援することが可能となる。
 (実施の形態2)
 図8は、本発明の実施の形態2の医療支援装置の構成を示す機能ブロック図である。図8において、図1と同じ構成要素については同じ符号を用い、説明を省略する。図8において、医療支援装置200は、図1と同じ符号で示されるブロックに加え仮想視点生成部114、画像合成部115を備える。本構成により、医療支援装置200およびサブセットが設置される屋内のあたかも同じ空間上に存在し、現時点での遠隔の人の動作が目の前の現実物体と適切な位置関係で表現される事により、より直感的な指示や、協調作業を行う事が可能となる。
 次に本発明の実施の形態2における医療支援装置の機能ブロック図を用いてブロック間の関係を説明する。
 仮想視点生成部114は、医療支援装置200および、サブセットが設置される同じ空間内の任意の地点を仮想的な視点とする仮想視点を生成する。仮想視点の生成は重畳情報構成部105より要求される。仮想視点生成部114は、仮想視点を作成するために、重畳情報記憶部110に記録されている重畳情報を取得する。仮想視点生成部114は、取得した重畳情報から仮想視点を生成する。仮想視点の生成処理の具体例については後述する。生成した仮想視点は重畳情報記憶部110に記録を要求する。ここで、仮想視点生成部114で、仮想視点が作られた場合、重畳情報構成部105は、視点管理部108に対して仮想視点表示を設定する。視点管理部108に設定される仮想視点表示は、実施の形態1で説明したユーザ120の操作要求処理と、仮想視点設定操作を切り分けるフラグとなる。仮想視点は、重畳情報の1種として扱われる。具体的には重畳情報種別502に仮想ノードを表すフラグが設定されたものである。このとき、重畳情報は、左右近傍のノードを示すデータID501の配列も保持する。これは、後述する仮想視点からの画像を生成する際に使用する為である。本実施の形態2では、複数のノード画像を合成する事により仮想的に存在する視点画像を生成する。このとき、複数のノードに左右近傍のノードを使用する。参照する左右近傍のノードを特定する為にデータID501を保持する。
 画像合成部115は、仮想視点からの視点画像を生成する。仮想視点からの視点画像は、表示管理部112が視点管理部108から取得する視点画像として用いられる。ただし、これは、視点管理部の108で仮想視点モードが設定されている場合である。つまり、仮想視点モードの有無により、視点管理部108は、撮像部101からの撮影信号と、画像合成部115で生成された仮想視点からの視点画像とを切り換えて視点画像とする。画像合成部115は、仮想視点からの視点画像を生成するために、複数の他のノード130からの視点画像を取得する必要があるため、通信部111を通じて、他のノード130から各視点画像を取得する。
 図9は実施の形態2に係る医療支援装置200において、仮想視点を生成する処理を示すフローチャートである。
 本実施の形態2は仮想視点を生成する処理フローを説明するためユーザ120を遠隔地に存在するユーザとする。遠隔地のユーザ120は前述のユーザと同様に医療支援装置200を装着しているとする。ユーザ120は、実施の形態1の図6Aの操作検出の処理(S600~S606)と同等のフローにより仮想視点の生成を医療支援装置200への操作要求として、インプットし、操作検出部104はが検出した操作位置を仮想視点の生成位置として重畳情報構成部105が受け取る(S800)。ここで、仮想視点の指定方法の一例を示す。図2に示すような屋内全体の画像を撮影できるノード213からの画像を画面に表示することで現地点の俯瞰するような画面を表示する。表示した画面から所望の地点を選択する事で仮想視点の位置を設定するといった方法とることができる。ただし、この方法に限らずユーザが任意の地点を設定する要件を満たせば、その提示方法、設定方法は他の方法により仮想位置を指定してもよい。
 重畳情報構成部105は仮想視点生成部114に仮想視点生成を依頼する(S801)。
 依頼を受けた仮想視点生成部114は、重畳情報構成部105から仮想視点の位置情報を取得する(S802)。
 仮想視点生成部114は、仮想視点からの画像を他のノードの撮影信号を合成して生成する為に、取得した仮想視点の位置情報を左右近傍に位置する他のノード130を検索する(S803)。
 仮想視点生成部114は、重畳情報記憶部110から「ノード」の重畳情報種別502をもつデータを1つずつ取得する(S804)。本実施の形態2では仮想視点からの画像を他のノードの撮影信号から合成して生成するため、取得する重畳情報は、重畳情報種別502に「ノード」を表す符号を持つものみを取得すればよい。
 取得した重畳情報の重畳情報表示位置503を参照し、仮想視点の位置情報との距離を算出し近傍度合いを判定する(S805)。近傍を検出する理由は、仮想視点からの視点画像生成する際に、視点画像の基になるノードを確定することにある。一般的には、複数の視点から撮影した画像を基にして、それらの中間の視点からの画像を生成する手法として、Image Based Renderingが知られている。この中間視点が本実施の形態2での仮想視点にあたり、仮想視点からの画像を生成するために、近傍の他のノード130を検出する必要がある。ここで、閾値となる距離値は検索中の一番近いものを1つ以上選択してもよい。また、ある一定の固定値を用いてもよい。さらにユーザにより任意の値を設定してもよい。さらに、仮想視点として設定された位置には、ノード214やノード215といった固定的なノードと重なる可能性もある。この場合は近傍ノードを検索する必要はなく、ノード214やノード215といったノードを1つ選択する事でその地点からの視野画像を取得することができる。また、重畳情報記憶部110により取得した重畳情報の重畳情報表示位置503は共通座標系の座標値であり、ユーザ120により入力された仮想視点の位置とは異なる場合がある。その場合、図6AのS608と同様に、座標変換部109を用いることにより座標空間を統一し各ノードとの距離を判定することができる。
 重畳情報記憶部110に記録されているノードの重畳情報において仮想視点近傍のノードが見つかるまで判定処理を繰り返す(S806)。
 見つかった仮想視点近傍に存在するノードの重畳情報のデータID501群と、仮想視点の共用座標系での位置情報より構成される重畳情報を仮想視点生成部114が作成する(S807)。このとき重畳情報の重畳情報種別502は「仮想ノード」という種別で生成される。
 作成した重畳情報は、重畳情報構成部105経由で重畳情報記憶部110に記録される(S808)。
 重畳情報構成部105は視点管理部108に対して、仮想視点表示を設定する依頼を行う(S809)。
 以上により、仮想視点を重畳情報として生成する処理を終了する(S810)。
 その後、実施の形態1の図6Aに示ように他のノード130への通知処理(S613~S614)行われる。
 そして、生成通知または更新通知を受けた他のノード130の通信部111は、重畳情報構成部105に対して重畳情報の生成または更新を通知する。重畳情報構成部105は、生成または更新された重畳情報を、重畳情報記憶部110に記録する。そして、実施の形態1の図6Bに示すように、重畳情報構成部105による画面更新の要求処理(S615)から表示部113による表示処理(S624)までの処理を行うことによって、他のノード130では、仮想視点の位置に遠隔地のユーザ120を表示することが可能になる。
 図10および図11は、医療支援装置200において視点画像に重畳内容を重畳した表示の一例を説明するための説明図である。
 ここで、例えば図10に示すように医療支援装置200を装着したユーザA910と、医療支援装置200を装着したユーザB920とが患者930を挟んで立っており、遠隔地に医療支援装置200を装着したユーザC940が存在する場合を想定する。ここで、仮想視点が設定される前は、ユーザAの視界911に示すようにユーザA910が装着した医療支援装置200の表示部113には、ユーザA910の視点画像が表示される。一方、ユーザBの視界921に示すようにユーザB920が装着した医療支援装置200の表示部113には、ユーザB920の視点画像が表示される。
 そして、ユーザC940が、例えば図10に示す点Dを仮想地点に選択した場合、図11に示すようにユーザA910が装着した医療支援装置200の表示部113には、ユーザC940が装着した医療支援装置200から送信された仮想視点を示す重畳情報を用いて、Aの視界912に示すようにユーザA910の視点画像に、点線941で示されるユーザCを示すグラフィックが重畳画像として重畳されて表示される。一方、ユーザB920が装着した医療支援装置200の表示部113には、同様にユーザC940が装着した医療支援装置200から送信された仮想視点を示す重畳情報を用いて、Bの視界922に示すようにユーザB920の視点画像に、点線942で示されるユーザCを示すグラフィックが重畳画像として重畳されて表示される。
 以上のように、仮想視点も重畳情報として登録することにより、他の重畳情報と同様に扱うことが可能となる。また、仮想視点設定者は自分の手の動きといった体の動きも遠隔の人に伝えることが可能となる。つまり、仮想視点のノードは、図6Aおよび図6Bに示すフローを操作検出時だけでなく、手や指の位置といった情報を常時トラッキングし、リアルタイムで重畳情報として記録し続ける。これにより、現場で処置を行う人物へ、連続的に遠隔の人物を表示する事が可能となり、あたかも現場で強調作業を行っている様に表現する事が出来る。
 図12は図8に示された医療支援装置200において、仮想的に位置している視点からの視点画像を表示する処理を示すフローチャートである。
 まず、実施の形態1の図6Aの操作検出の処理(S600~S606)と同様に、ユーザ操作の検出などが行われる。その後、図9のフローチャートと同様の処理が実行され仮想視点が生成される。さらに、その処理を表示部113である表示画面へ反映する為に、表示管理部112に対して画面更新の依頼が行われる(S900)。
 表示管理部112は更新画面を作成する為に、視点管理部108へ視点画像の取得を依頼する(S901)。
 依頼を受けた視点管理部108は上記に説明した仮想視点表示の設定処理(S809)により重畳情報構成部105から仮想視点表示が設定されているか否かを確認する事により設定状態の判定を行う。現状このノードは仮想視点に配置されているノードであり、仮想視点表示の設定処理(S809)により視点管理部108には仮想視点表示が設定されている。よって、判定は仮想視点表示となる(S902)。ここで、視点管理部108に仮想視点表示が設定されていない場合とは、仮想視点設定操作以外の操作を受けたケースである。実施の形態1で説明した、図6Aおよび図6Bに示すフローチャートがこのケースにあたり、視点管理部108に仮想視点表示が設定されていない場合の以降の処理はS616以降と同様のフローをとるものとする。
 視点管理部108は、設定状態が仮想視点表示であるため、撮像部101から眼前の視点画像を取得するのではなく、画像合成部115に対して視点画像取得を要求する(S903)。
 画像合成部115は重畳情報記憶部110から仮想視点の重畳情報を取得する(S904)。
 仮想視点の重畳情報は上記処理(S807)で説明したように、仮想視点近傍に存在するノードの重畳情報のデータID501群が含まれる。これらの仮想視点近傍の重畳情報のデータID501が示す医療支援装置200および、サブセットを特定し(S905)、通信部111に対して、仮想視点近傍の特定した他のノード130の視点画像取得を依頼する(S906)。なお、記録されている仮想視点近傍の重畳情報のデータID501群に対して視点画像取得は繰り返されるものとする(S907)。なお、本実施の形態2では依頼を受けた他のノード130の通信部111は依頼に従い視点画像取得処理を実施する事になるが、視点画像を取得する要件を満たせば、有線通信、無線通信といった、各ノード間の通信の形態は限定しないものとする。
 つぎに、画像合成部115は、取得した複数の他のノード130の視点画像を合成し1枚の視点画像を生成する(S908)。ここで、上記処理(S806)で述べたようにノード214や、ノード215の様な固定のノードと仮想視点が重なる場合は、そのノードの視野画像をそのまま使用してもよい。他のノード130の視点画像が複数枚存在する場合は、Image Based Renderingといった手法を用いることにより、3次元モデリングを行い仮想視点からの視点画像を生成する。
 画像合成部115は作成した視点画像を視点管理部108に通知し、表示管理部112が視点画像を取得する(S909)。このとき、視点管理部108、および表示管理部112は、仮想視点であるか否かの区別なく視点画像を受け取るため、以降の処理は実施の形態1の図6Bと同様の処理フローで画面表示される(S910)。
 以上のように、複数のユーザが装着した医療支援装置またはそのサブセットが協調して任意の視点から見た画像を生成、送信することにより、その医療現場での任意の視点からの視界や操作を共有することができるので、遠隔地においてより正確に医療作業を支援することが可能となる。
 (実施の形態3)
 図13は、本発明の実施の形態3における医療支援装置300の構成を示す機能ブロック図である。図13を用いてブロック間の関係を説明する。なお、図13は、図1および図8と同じ構成要素については同じ符号を用い、説明を省略する。また、医療支援装置300は、図1および図8と同じ符号で示されるブロックに加え、画面調整部116を備える。
 操作検出部304は、図1および図8で示した操作検出部104の機能に加え、ユーザ120が操作要求を行う動作において、図14に示す表示属性の種別を個々に設定できる動作を認識する。認識した操作種別401は、操作検出情報として重畳情報構成部105に通知される。
 重畳情報構成部305は、図1および図8で示した重畳情報構成部105の機能に加え、表示属性を表す符号を生成する。操作検出部304より通知された操作検出情報を参照し、操作に対応する表示属性を生成し、重畳情報記憶部110に保存する。
 表示管理部312は図1および図8で示した表示管理部112の機能に加え、重畳情報記憶部110から表示属性情報を取得する。表示管理部312は、表示属性が示す符号に応じて表示画面を構成し、画面調整部116に対して画面調整を依頼する。
 画面調整部116は、表示属性に応じて表示画面を加工する。画面調整部116は仮想視点の生成は重畳情報構成部305より依頼を受けると、表示属性に示される符号にしたがって、表示画面の加工を行う。本構成により、個々のユーザ120は装着する医療支援装置300に対し、視野の任意の地点を拡大表示する、特定の種類の重畳情報以外を非表示にするといった、視野画像の加工表示を指定する事が可能となる。
 図14は、重畳情報記憶部110に表示属性として保存される情報を構成する表示属性の種別のバリエーションを示した図である。表示属性の種別は、表示の仕方を示した符号で表される。表示属性の種別は、表示管理部312、および画面調整部116が画面加工を行う際に参照することで、ユーザ120の所望の画面表示を実現する。表示属性の各種別について説明する。拡大表示1101、縮小表示1102は、本来表示すべき画面の一部分、または全体を拡大、縮小して表示する表示属性である。これは、視力以上の見え方が必要な作業をする場合に有用な表示方法となる。部分拡大表示1103は、拡大表示1101と同様視点画像の一部を拡大表示するものだが、虫眼鏡で任意の部分だけ拡大表示する様な表示属性である。これは、拡大部分以外の視野画像との位置関係を確認しながら、ある箇所を拡大表示するのに有用である。特に手術といった医療行為を行う場合、初見の患部確認などに利用できる。透過表示1104、フィルタリング表示1105は、重畳されている情報の内、その時だけ表示したいもの、または非表示にしたいものあるいは、透過表示を分けて表示する表示属性である。視野に情報を重畳する以上本来の視野で見えるべき箇所が隠れてしまう場合がある。透過表示1104、フィルタリング表示1105は個人毎に見やすい表示方法で表示することが可能となる。視点切替え1106、および2視点同時表示1107は、他のノード130との視野共有を行う表示属性である。協調作業である以上、複数の人物が各視点からの視界で作業し、協調作業者の動作は各個人の視野から推定してタイミングや、スピードやターゲット箇所などを調整している。また、遠隔医師が指導しながらの施術するケースなどは、術者自身からの視野を確認しながら助言をする事でより的確な指摘を行う事が可能となる。ここで、表示属性は図に示す1101~1107に限るものでなく、ユーザ120が所望するモードを追加、削減することが可能であるものとする。また、上記で説明した表示属性以外にも、作業をサポートする表示属性という目的を満たす他の方法を用いてもよい。
 図15Aおよび図15Bは、重畳情報記憶部110に格納される表示属性の一例を示した図である。表示属性は、重畳情報構成部305により生成され、重畳情報記憶部110に記録されるデータである。表示属性は、少なくとも、表示属性種別1201、位置情報1202、対象重畳情報ID1203、サイズ比率1204、透過比率1205から構成される。表示属性種別1201について図14を用いて説明する。表示属性種別1201は、図14で示される表示属性の種別を表す符号のうちいずれかが設定され表示の仕方を示した値である。位置情報1202は、画面加工の対象となっている画面位置を示した値である。例えば図15Aおよび図15Bでは2つのバリエーションを示している。図15Aに示す1201~1205は拡大表示に対する表示属性を示したものであり、図15Bに示す1206~1210は透過表示に対する表示属性を示したものである。順に説明する。表示属性の種別1201には、図14の拡大表示1101を示す符号が付与されている。このとき位置情報1202には、拡大する画面の部分の中心座標が設定される。対象重畳情報ID1203は、画面加工の対象となる重畳情報がある場合にその重畳情報のデータID501を示したものである。ここで、表示属性の種別1201を適応する対象重畳情報を特定しない場合や、重畳情報記憶部110に格納される重畳情報すべてに適応する場合の符号は任意の値を別途確保できるものとする。本例では画面全体を位置情報1202の示す地点を中心に拡大表示する場合を想定する為、対象重畳情報ID1204を特定しないものとし0を付与している。サイズ比率1204は拡大表示するための比率を設定する。透過比率1205は表示の透過度合いを示す値である。本例では拡大のみを行うものとしているため、等倍を設定している。次に図15Bに示す1206~1210について任意の重畳情報を透過表示する為の表示属性について説明する。表示属性の種別1206の図14の透過表示1104を示す符号が付与されている。位置情報1207は本例では任意の重畳情報が確定している為使用しない。ここで、位置情報1207は必要に応じて設定し使用してもよい。例えば、透過対象とする操作が重畳情報ではなく、視野上のある範囲を指定する場合、その範囲の囲む矩形の4隅の頂点座標を格納する事などが考えられる。対象重畳情報ID1208は、透過対象となる重畳情報のIDが格納される。サイズ比率1209は表示のサイズ比率1204同様、縦横サイズの度合いを示す値である。本例では透過操作のみを行うものとしているため、等倍を設定している。最後に透過比率1210は表示の透過度合いを示す値であり、0.7と半透過を設定している。また、表示属性の種別1201、1206が2視点同時表示1107の場合、それぞれ表示する他のノード130の視点を表す重畳情報のデータID501が対象重畳情報IDに指定される。さらに、サイズ比率1204、1209は、縮小表示1102に対しても同様にサイズ比率1204が用いられるものとする。
 図16は図13に示された医療支援装置300において、設定された表示属性を表示画面に反映する処理を示すフローチャートである。
 まず、ユーザ操作の検出処理が開始されると、操作検出部304は、重畳情報構成部305に対して操作検出を通知する(S1301)。なお、ユーザ操作検出の処理は、図6Aの操作検出の処理(S601からS604)と同様の処理フローで行われる。
 重畳情報構成部305は、操作検出情報を参照し、図4に示す操作種別401が表示属性に対する操作か否かを判定する(S1302)。例えば、操作検出情報の操作種別401が表示属性の表示属性種別1201に確保されている加工表示を指示する操作要求である場合、重畳情報構成部305は操作検出情報の操作種別401を表示属性に対する操作として扱う。表示属性の種別には図14に示す視点切替え1106などがある。操作種別401が表示属性操作でない場合は、指定された操作種別401に応じた処理を継続する。例えば、実施の形態1の図6Aに示すような重畳情報生成操作である場合は、処理(S606)以降の処理を行う。操作種別401が表示属性操作である場合、重畳情報構成部305は表示属性を重畳情報記憶部110に記録する(S1303)。このとき重畳情報構成部305は、視点管理部108に対して表示属性を通知する。例えば、表示属性種別1201が視点切替え1106の場合、実施の形態2の図9の処理(S809)と同様に仮想視点表示を設定すること、この後の表示処理において、切換え先の視点画像を使用することができる。また、表示属性として記録される情報は、図14に示す01~05の値のうちいずれかが含まれるものとする。例えば、表示属性種別1201が透過表示1104である場合は、操作検出部304から通知された操作検出情報に含まれる操作検出位置402を参照し、操作検出位置402が示す重畳情報を確定する必要がある。操作検出位置402が示す位置情報はノードの固有座標系における座標値であるため、重畳情報構成部305は、S606~S609と同様の処理を用いて共用座標系の座標値に変換する。次に、算出した共用座標系の座標値が示す地点に配置されている重畳情報を重畳情報記憶部から検索し、透過表示の対象とされている重畳情報を特定する。特定された重畳情報のデータID501を、入力された透過表示1104という表示属性種別1201と、透過率と共に表示属性として重畳情報記憶部110記録する。これは、他の表示属性の表示属性種別1201に対しても応用でき、同様に位置情報1202や、対象重畳情報ID1203を決定して設定してもよい。
 重畳情報構成部305は、表示管理部312に対して画面更新を要求する(S1304)。
 表示管理部312は、表示画面を生成する(S1305)。ここで、表示画面の構成は、実施の形態1の図6Bに示す処理(S616~S621)と同等の処理を行って画面を生成するものとする。
 表示管理部312は画面生成後、画面調整部116に対して画面調整を依頼する(S1306)。この要求は、重畳情報記憶部110が記録している表示属性に応じた画面に加工する為に行われる。
 画面調整部116は、表示管理部312から要求を受けると、重畳情報記憶部110から表示属性を取得する(S1307)。
 画面調整部116は、取得した表示属性に設定されている値に応じて、表示画面を加工する(S1308)。例えば、拡大表示1101である場合、表示属性には、表示属性種別1201、位置情報1202、サイズ比率1204が設定されている。画面調整部116は、表示属性種別1201から拡大表示1101である事を判断すると、位置情報1202が示す表示画像の地点を中心に、サイズ比率1204の値が示す拡大率で表示画面を再構成する。なお、表示属性種別1201の他の値においても、位置情報1202、対象重畳情報ID1203、サイズ比率1204、透過比率1205内いずれか、もしくは複数個使用して画面を加工するものとする。さらに、各加工方法について固有の手法に限定するものでなく、各表示属性種別1201が表す要件を満たせればよい。
 次に画面調整部116は、表示部113に対して画面表示を要求し、要求を受けた表示部113は処理(S624)と同様の処理を行い、画面を表示する(S1309)。これにより設定された表示属性を表示画面に反映する処理が終了する。
 以上のように、複数のユーザが装着した医療支援装置またはそのサブセットが協調して任意の視点から見た画像を生成、送信することにより、その医療現場での任意の視点からの視界や操作を共有することができるので、遠隔地においてより正確に医療作業を支援することが可能となる。また、視野の任意の地点を拡大表示する、特定の種類の重畳情報以外を非表示にするといった、より詳細な表示制御が可能となる。
 本発明による医療支援装置は、遠隔地とのデータ共有、双方向の音声通信もしくは、身振り手振りを含めた画像通信を有し、遠隔診断だけでなく、手術等の遠隔治療として有用である。
 100、200、300  医療支援装置
 101  撮像部
 102  姿勢観測部
 103  位置観測部
 104、304  操作検出部
 105、305  重畳情報構成部
 106  重畳位置決定部
 107  重畳画像生成部
 108  視点管理部
 109  座標変換部
 110  重畳情報記憶部
 111  通信部
 112、312  表示管理部
 113  表示部
 114  仮想視点生成部
 115  画像合成部
 116  画面調整部
 120  ユーザ
 130  他のノード
 201、202  ユーザ
 211、212  ユーザに装着される医療支援装置
 213、214、215  ユーザに装着されない医療支援装置

Claims (14)

  1.  ユーザの視界または操作をユーザ間で共有するための医療支援装置であって、
     ユーザの視界に応じた撮影を行って撮影信号を取得する撮像部と、
     前記撮像部の姿勢に関する情報を取得する姿勢観測部と、
     前記撮像部の撮影位置に関する情報を取得する位置観測部と、
     前記撮像部が取得した前記撮影信号から当該医療支援装置を装着したユーザの操作および当該操作が行われた操作位置を検出する操作検出部と、
     前記撮影信号と、前記姿勢に関する情報と、前記撮影位置に関する情報とを対応付けて管理する視点管理部と、
     前記操作検出部が検出した前記操作に基づいて重畳内容を決定するとともに、前記視点管理部が管理する信号および情報に基づいて前記操作位置に関する情報を決定し、前記重畳内容および前記操作位置に関する情報を含む重畳情報を生成する重畳情報構成部と、
     前記撮影信号から視点画像を生成し、当該視点画像における前記操作位置に前記重畳内容を合成した画像を生成して表示する表示管理部と、
     前記重畳情報を少なくとも一つの他の医療支援装置に送信する通信部と、
     を備える医療支援装置。
  2.  前記位置観測部は、前記撮影位置に関する情報を、前記撮像部における固有座標系を用いて取得し、
     前記操作検出部は、前記操作位置に関する情報を、前記撮像部における固有座標系を用いて取得する
     請求項1に記載の医療支援装置。
  3.  前記医療支援装置は、さらに、
     前記固有座標系を用いて示される情報を、他の前記医療支援装置と共通する共通座標系を用いて示される情報に変換する座標変換部とを備え、
     前記重畳情報構成部は、
     前記重畳内容を表示する位置を、前記共通座標系を用いて示された前記操作位置に関する情報で示される位置に決定する重畳位置決定部と、
     前記重畳内容を、前記操作の種類に応じた視覚情報として生成する重畳画像生成部と、
     を備える請求項2に記載の医療支援装置。
  4.  前記重畳情報構成部が新たに前記重畳情報を生成または更新した場合、
     前記通信部は、前記重畳情報に加えて前記重畳情報の生成通知または更新通知を、前記他の医療支援装置に送信する
     請求項1に記載の医療支援装置。
  5.  前記通信部は、前記他の医療支援装置から前記重畳情報を受信し、
     前記表示管理部は、受信した前記重畳情報に基づいて、前記視点画像における前記操作位置に前記重畳内容を合成した画像を生成して表示する
     請求項1に記載の医療支援装置。
  6.  前記通信部は、前記他の医療支援装置から前記重畳情報に加えて前記重畳情報の生成通知または更新通知を受信し、
     前記表示管理部は、前記生成通知または前記更新通知により前記重畳内容を合成した画像を生成して表示する
     請求項5に記載の医療支援装置。
  7.  前記通信部は、前記撮影信号を前記他の医療支援装置に送信する
     請求項1に記載の医療支援装置。
  8.  前記通信部は、前記他の医療支援装置で撮影された撮影信号を受信し、
     前記医療支援装置は、さらに、
     任意の位置と、当該任意の位置の近傍に存在する2以上の前記他の医療支援装置の位置を示す情報に基づいて仮想視点情報を生成する仮想視点生成部と、
     前記任意の位置の近傍に存在する2以上の前記他の医療支援装置から受信した前記撮影信号、および前記仮想視点情報に基づいて前記任意の位置を仮想視点とする画像を生成する画像合成部と、
     を備える請求項1に記載の医療支援装置。
  9.  前記重畳情報は、当該重畳情報に含まれる重畳内容の表示の態様を示す表示属性情報と対応づけて管理され、
     前記医療支援装置は、さらに、
     前記表示管理部で生成された前記重畳内容が合成された画像を、前記表示属性情報に応じて加工する画面調整部
     を備える請求項1に記載の医療支援装置。
  10.  前記操作検出部は、前記撮像部により取得される前記撮影信号から、当該医療支援装置を装着するユーザの所定の部位の動きに基づいて前記操作を検出する
     請求項1に記載の医療支援装置。
  11.  前記医療支援装置は、さらに、
     前記重畳情報を格納する重畳情報記憶部
     を備える請求項1に記載の医療支援装置。
  12.  前記表示管理部は、観察者の左眼用画像及び右眼用画像を生成する
     請求項1に記載の医療支援装置。
  13.  ユーザの視界または操作をユーザ間で共有するための医療支援システムであって、
     第1の医療支援装置および第2の医療支援装置は、
     ユーザの視界に応じた撮影を行って撮影信号を取得する撮像部と、
     前記撮像部の姿勢に関する情報を取得する姿勢観測部と、
     前記撮像部の撮影位置に関する情報を取得する位置観測部と、
     前記撮像部が取得した前記撮影信号から当該医療支援装置を装着したユーザの操作および当該操作が行われた操作位置を検出する操作検出部と、
     前記撮影信号と、前記姿勢に関する情報と、前記撮影位置に関する情報とを対応付けて管理する視点管理部と、
     前記操作検出部が検出した前記操作に基づいて重畳内容を決定するとともに、前記視点管理部が管理する信号および情報に基づいて前記操作位置に関する情報を決定し、前記重畳内容および前記操作位置に関する情報を含む重畳情報を生成する重畳情報構成部と、
     前記撮影信号から視点画像を生成し、当該視点画像における前記操作位置に前記重畳内容を合成した画像を生成して表示する表示管理部と、
     少なくとも一つの他の医療支援装置との間で通信を行う通信部とを備え、
     前記第1の医療支援装置の前記通信部は、前記重畳情報を前記第2の医療支援装置に送信し、
     前記第2の医療支援装置の前記通信部は、前記第1の医療支援装置から前記重畳情報を受信し、
     前記第2の医療支援装置の前記表示管理部は、受信した前記重畳情報に基づいて、前記視点画像における前記操作位置に前記重畳内容を合成した画像を生成する
     医療支援システム。
  14.  ユーザの視界または操作をユーザ間で共有するための医療支援装置における医療支援方法であって、
     ユーザの視界に応じた撮影を行って撮影信号を取得する撮像部と、
     前記撮像部の姿勢に関する情報を取得し、
     前記撮像部の撮影位置に関する情報を取得し、
     前記撮像部が取得した前記撮影信号から当該医療支援装置を装着したユーザの操作および当該操作が行われた操作位置を検出し、
     前記撮影信号と、前記姿勢に関する情報と、前記撮影位置に関する情報とを対応付けて管理し、
     検出した前記操作に基づいて重畳内容を決定するとともに、前記撮影信号、前記姿勢に関する情報、および前記撮影位置に関する情報に基づいて前記操作位置に関する情報を決定し、前記重畳内容および前記操作位置に関する情報を含む重畳情報を生成し、
     前記撮影信号から視点画像を生成し、当該視点画像における前記操作位置に前記重畳内容を合成した画像を生成して表示し、
     前記重畳情報を少なくとも一つの他の医療支援装置に送信する
     医療支援方法。
PCT/JP2011/006802 2010-12-17 2011-12-05 医療支援装置、医療支援方法および医療支援システム WO2012081194A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012507522A JPWO2012081194A1 (ja) 2010-12-17 2011-12-05 医療支援装置、医療支援方法および医療支援システム
US13/515,030 US20120256950A1 (en) 2010-12-17 2011-12-05 Medical support apparatus, medical support method, and medical support system
CN2011800049421A CN102668556A (zh) 2010-12-17 2011-12-05 医疗支援装置,医疗支援方法以及医疗支援系统

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010281586 2010-12-17
JP2010-281586 2010-12-17

Publications (1)

Publication Number Publication Date
WO2012081194A1 true WO2012081194A1 (ja) 2012-06-21

Family

ID=46244314

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/006802 WO2012081194A1 (ja) 2010-12-17 2011-12-05 医療支援装置、医療支援方法および医療支援システム

Country Status (4)

Country Link
US (1) US20120256950A1 (ja)
JP (1) JPWO2012081194A1 (ja)
CN (1) CN102668556A (ja)
WO (1) WO2012081194A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016512658A (ja) * 2012-12-26 2016-04-28 ビパール, エルエルシー 多重現実環境における役割切り替えのためのシステムおよび方法
JP2018018315A (ja) * 2016-07-28 2018-02-01 セイコーエプソン株式会社 表示システム、表示装置、情報表示方法、及び、プログラム
JP2018106499A (ja) * 2016-12-27 2018-07-05 株式会社コロプラ 仮想空間における画像の表示を制御するためにコンピュータによって実行される方法、当該方法をコンピュータに実現させるためのプログラム、および、コンピュータ装置
WO2018230160A1 (ja) * 2017-06-12 2018-12-20 ソニー株式会社 情報処理システム、情報処理方法、およびプログラム
US10359916B2 (en) 2015-02-16 2019-07-23 Fujifilm Corporation Virtual object display device, method, program, and system
CN110769743A (zh) * 2017-06-13 2020-02-07 海上医疗应用有限公司 用于远程医疗辅助的无线通信系统
JP2020065229A (ja) * 2018-10-19 2020-04-23 西日本電信電話株式会社 映像通信方法、映像通信装置及び映像通信プログラム
US10642564B2 (en) 2015-09-25 2020-05-05 Seiko Epson Corporation Display system, display device, information display method, and program
JP2022068215A (ja) * 2016-05-09 2022-05-09 マジック リープ, インコーポレイテッド ユーザ健康分析のための拡張現実システムおよび方法
WO2022168242A1 (ja) * 2021-02-04 2022-08-11 リバーフィールド株式会社 情報処理装置、支援システム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9075906B2 (en) * 2013-06-28 2015-07-07 Elwha Llc Medical support system including medical equipment case
RU2642941C2 (ru) * 2013-07-16 2018-01-29 Сейко Эпсон Корпорейшн Устройство обработки информации, способ обработки информации и система обработки информации
JP6397269B2 (ja) * 2013-09-06 2018-09-26 キヤノン株式会社 画像処理装置、画像処理方法
JP7011391B2 (ja) * 2013-10-25 2022-01-26 レスメド・インコーポレイテッド 睡眠関連データの電子管理
US20160300030A1 (en) * 2015-04-08 2016-10-13 Medprodigy, Inc. System, method, and computer program for supplying medical equipment support
US10388069B2 (en) 2015-09-09 2019-08-20 Futurewei Technologies, Inc. Methods and systems for light field augmented reality/virtual reality on mobile devices
US11068699B2 (en) * 2017-06-07 2021-07-20 Sony Corporation Image processing device, image processing method, and telecommunication system to generate an output image for telecommunication
JP7372061B2 (ja) * 2019-07-01 2023-10-31 株式会社日立製作所 遠隔作業支援システム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3631151B2 (ja) * 2000-11-30 2005-03-23 キヤノン株式会社 情報処理装置、複合現実感提示装置及びその方法並びに記憶媒体
JP4065507B2 (ja) * 2002-07-31 2008-03-26 キヤノン株式会社 情報提示装置および情報処理方法
US7427996B2 (en) * 2002-10-16 2008-09-23 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP4262011B2 (ja) * 2003-07-30 2009-05-13 キヤノン株式会社 画像提示方法及び装置
US7057637B2 (en) * 2004-04-21 2006-06-06 White Peter Mcduffie Reflected backdrop for communications systems
US7843470B2 (en) * 2005-01-31 2010-11-30 Canon Kabushiki Kaisha System, image processing apparatus, and information processing method
JP4738870B2 (ja) * 2005-04-08 2011-08-03 キヤノン株式会社 情報処理方法、情報処理装置および遠隔複合現実感共有装置
JP4933164B2 (ja) * 2005-07-01 2012-05-16 キヤノン株式会社 情報処理装置、情報処理方法、プログラムおよび記憶媒体
CN101554037A (zh) * 2006-09-22 2009-10-07 彼得·麦克达菲·怀特 3d显示以及远程呈现系统和其方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
ATSUSHI NISHIKAWA ET AL.: "Mutual View Sharing System for Real-Time Tele-Communication", THE TRANSACTIONS OF THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS, vol. J-88-D-I, no. 2, 1 February 2005 (2005-02-01), pages 292 - 304 *
HIDEAKI KATSUOKA ET AL.: "Gesture o Riyo shita Enkaku Iryo Shiji Shien no Teian", IMAGE LAB, vol. 14, no. 1, 1 January 2003 (2003-01-01), pages 1 - 4 *
KATSUYUKI KAMEI ET AL.: "Scene Synthesis by Assembling Parts of Source Images", ITEJ TECHNICAL REPORT, vol. 20, no. 31, 28 May 1996 (1996-05-28), pages 25 - 34 *
MINATANI, S. ET AL.: "Face-to-Face Tabletop Remote Collaboration in Mixed Reality", PROC. OF 6TH IEEE AND ACM INT. SYMP. ON MIXED AND AUGMENTED REALITY (ISMAR 2007), November 2007 (2007-11-01), pages 43 - 46, XP031269872 *
SHIN'YA MINATANI ET AL.: "Remote Collaborative Tabletop Mixed-Reality by Using Deformed Billboard Technique", TRANSACTIONS OF THE VIRTUAL REALITY SOCIETY OF JAPAN, vol. 13, no. 3, 30 September 2008 (2008-09-30), pages 363 - 373 *
YUTA OKAJIMA ET AL.: "An Instructional Method for the Remote MR Collaboration on the Basis of Viewpoint Coordinates", TRANSACTIONS OF INFORMATION PROCESSING SOCIETY OF JAPAN, vol. 51, no. 2, 15 February 2010 (2010-02-15), pages 564 - 573 *

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016512658A (ja) * 2012-12-26 2016-04-28 ビパール, エルエルシー 多重現実環境における役割切り替えのためのシステムおよび方法
US10359916B2 (en) 2015-02-16 2019-07-23 Fujifilm Corporation Virtual object display device, method, program, and system
US10642564B2 (en) 2015-09-25 2020-05-05 Seiko Epson Corporation Display system, display device, information display method, and program
US11617559B2 (en) 2016-05-09 2023-04-04 Magic Leap, Inc. Augmented reality systems and methods for user health analysis
JP7333432B2 (ja) 2016-05-09 2023-08-24 マジック リープ, インコーポレイテッド ユーザ健康分析のための拡張現実システムおよび方法
JP2022068215A (ja) * 2016-05-09 2022-05-09 マジック リープ, インコーポレイテッド ユーザ健康分析のための拡張現実システムおよび方法
JP2018018315A (ja) * 2016-07-28 2018-02-01 セイコーエプソン株式会社 表示システム、表示装置、情報表示方法、及び、プログラム
JP2018106499A (ja) * 2016-12-27 2018-07-05 株式会社コロプラ 仮想空間における画像の表示を制御するためにコンピュータによって実行される方法、当該方法をコンピュータに実現させるためのプログラム、および、コンピュータ装置
JP7143847B2 (ja) 2017-06-12 2022-09-29 ソニーグループ株式会社 情報処理システム、情報処理方法、およびプログラム
US11048326B2 (en) 2017-06-12 2021-06-29 Sony Corporation Information processing system, information processing method, and program
WO2018230160A1 (ja) * 2017-06-12 2018-12-20 ソニー株式会社 情報処理システム、情報処理方法、およびプログラム
JP2022188081A (ja) * 2017-06-12 2022-12-20 ソニーグループ株式会社 情報処理装置、情報処理システム、および情報処理方法
JPWO2018230160A1 (ja) * 2017-06-12 2020-04-16 ソニー株式会社 情報処理システム、情報処理方法、およびプログラム
US11703941B2 (en) 2017-06-12 2023-07-18 Sony Corporation Information processing system, information processing method, and program
JP7468588B2 (ja) 2017-06-12 2024-04-16 ソニーグループ株式会社 情報処理装置、情報処理システム、および情報処理方法
CN110769743A (zh) * 2017-06-13 2020-02-07 海上医疗应用有限公司 用于远程医疗辅助的无线通信系统
JP2020065229A (ja) * 2018-10-19 2020-04-23 西日本電信電話株式会社 映像通信方法、映像通信装置及び映像通信プログラム
WO2022168242A1 (ja) * 2021-02-04 2022-08-11 リバーフィールド株式会社 情報処理装置、支援システム
JP7156751B1 (ja) * 2021-02-04 2022-10-19 リバーフィールド株式会社 情報処理装置、支援システム
US12340710B2 (en) 2021-02-04 2025-06-24 Riverfield Inc. Information processing device and assistance system

Also Published As

Publication number Publication date
CN102668556A (zh) 2012-09-12
JPWO2012081194A1 (ja) 2014-05-22
US20120256950A1 (en) 2012-10-11

Similar Documents

Publication Publication Date Title
WO2012081194A1 (ja) 医療支援装置、医療支援方法および医療支援システム
US11197722B2 (en) Surgical navigation inside a body
RU2740259C2 (ru) Позиционирование датчика ультразвуковой визуализации
CA2896240C (en) System and method for role-switching in multi-reality environments
Van Krevelen et al. A survey of augmented reality technologies, applications and limitations
TWI617279B (zh) 資訊處理裝置、資訊處理方法、及資訊處理系統
AU2013266488B2 (en) System and method for managing spatiotemporal uncertainty
JP6336930B2 (ja) 仮想オブジェクト表示装置、方法、プログラムおよびシステム
WO2016132822A1 (ja) 仮想オブジェクト表示装置、方法、プログラムおよびシステム
US12210667B2 (en) Medical image overlays for augmented reality experiences
CN106980383A (zh) 一种虚拟模型展示方法、模块及基于该模块的虚拟人体解剖模型展示系统
JP2023526716A (ja) 外科手術ナビゲーションシステムおよびそのアプリケーション
WO2017068925A1 (ja) 情報処理装置及び情報処理装置の制御方法、並びにコンピュータ・プログラム
CN114207557B (zh) 虚拟和物理相机的位置同步
Dewitz et al. Real-time 3D scans of cardiac surgery using a single optical-see-through head-mounted display in a mobile setup
CN117826976A (zh) 一种基于xr的多人协同方法及系统
US20030179249A1 (en) User interface for three-dimensional data sets
JP2021034744A (ja) 映像提示装置およびプログラム
EP4325476A1 (en) Video display system, information processing method, and program
US11771506B2 (en) Method and system for controlling dental machines
WO2022129646A1 (en) Virtual reality environment
EP4250744A1 (en) Display terminal, communication system, method for displaying, method for communicating, and carrier means
CN114049951A (zh) 手术辅助的数据处理方法、装置、系统

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2012507522

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13515030

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11849780

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11849780

Country of ref document: EP

Kind code of ref document: A1