[go: up one dir, main page]

WO2017010547A1 - ロボットおよびロボットシステム - Google Patents

ロボットおよびロボットシステム Download PDF

Info

Publication number
WO2017010547A1
WO2017010547A1 PCT/JP2016/070848 JP2016070848W WO2017010547A1 WO 2017010547 A1 WO2017010547 A1 WO 2017010547A1 JP 2016070848 W JP2016070848 W JP 2016070848W WO 2017010547 A1 WO2017010547 A1 WO 2017010547A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
cartilage
ear
hand
cartilage conduction
Prior art date
Application number
PCT/JP2016/070848
Other languages
English (en)
French (fr)
Inventor
裕司 細井
陽司 細井
田中 雅英
Original Assignee
ローム株式会社
株式会社ファインウェル
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2015141168A external-priority patent/JP6667172B2/ja
Priority claimed from JP2016138187A external-priority patent/JP6783451B2/ja
Application filed by ローム株式会社, 株式会社ファインウェル filed Critical ローム株式会社
Priority to EP16824527.2A priority Critical patent/EP3323567B1/en
Priority to US15/743,723 priority patent/US10967521B2/en
Priority to CN201680041763.8A priority patent/CN107848125B/zh
Priority to KR1020187000808A priority patent/KR102056550B1/ko
Publication of WO2017010547A1 publication Critical patent/WO2017010547A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/009Nursing, e.g. carrying sick persons, pushing wheelchairs, distributing drugs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/0009Gripping heads and other end effectors comprising multi-articulated fingers, e.g. resembling a human hand
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0009Constructional details, e.g. manipulator supports, bases
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/10Programme-controlled manipulators characterised by positioning means for manipulator elements
    • B25J9/1005Programme-controlled manipulators characterised by positioning means for manipulator elements comprising adjusting means
    • B25J9/101Programme-controlled manipulators characterised by positioning means for manipulator elements comprising adjusting means using limit-switches, -stops
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1016Earpieces of the intra-aural type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/40Arrangements for obtaining a desired directivity characteristic
    • H04R25/407Circuits for combining signals of a plurality of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/027Spatial or constructional arrangements of microphones, e.g. in dummy heads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1041Mechanical or electronic switches, or control elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1058Manufacture or assembly
    • H04R1/1075Mountings of transducers in earphones or headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R17/00Piezoelectric transducers; Electrostrictive transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/09Non-occlusive ear tips, i.e. leaving the ear canal open, for both custom and non-custom tips
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/11Aspects relating to vents, e.g. shape, orientation, acoustic properties in ear tips of hearing devices to prevent occlusion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/13Hearing devices using bone conduction transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/11Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R7/00Diaphragms for electromechanical transducers; Cones
    • H04R7/02Diaphragms for electromechanical transducers; Cones characterised by the construction
    • H04R7/04Plane diaphragms
    • H04R7/045Plane diaphragms using the distributed mode principle, i.e. whereby the acoustic radiation is emanated from uniformly distributed free bending wave vibration induced in a stiff panel and not from pistonic motion

Definitions

  • the present invention relates to a robot and a robot system.
  • Patent Document 1 proposes a humanoid robot that can utter with the voice of a specific individual recorded and simultaneously operate its limbs based on a registered person's habit to produce affection and the like.
  • Patent Document 2 proposes a single-person monitoring system, in Patent Document 2, data detected from both a human sensor installed in a residence of a resident to be watched over and an acceleration sensor worn by the resident is received. It has been proposed to determine the behavior, state, and event that occurred in the resident's residence.
  • Patent Document 3 proposes counting the number of mastications based on a detection waveform from a detection unit that is inserted into the ear canal and detects the deformation amount of the ear canal. Further, in addition to air conduction and bone conduction that have been known for a long time, the cartilage conduction newly discovered as a third conduction route is disclosed in Patent Document 4 in which a vibration source is brought into contact with the ear cartilage around the ear canal entrance. It is described that air conduction sound is generated from the cartilage surface inside the ear canal due to the vibration of the ear, and travels through the ear canal to reach the eardrum.
  • an object of the present invention is to provide a robot capable of appropriately communicating with a human and a robot system using the robot.
  • the present invention provides a robot characterized by having a hand and a cartilage conduction vibration source provided on the hand for transmitting vibration to a human ear cartilage. As a result, it is possible to communicate by cartilage conduction between the robot and a human by natural movement.
  • the robot has both hands, and the cartilage conduction vibration source is provided in each of the both hands.
  • the robot and the person can communicate with each other by cartilage conduction with a healing effect that gently wraps the face of the person with both hands of the robot.
  • listening in stereo becomes possible.
  • the robot has a finger on the hand, and the cartilage conduction vibration source is provided on the finger. Thereby, more efficient cartilage conduction becomes possible.
  • it has an articulation mechanism that guides the entire hand to contact the ear cartilage and adjusts the finger to guide the tragus. This allows adjustment for proper cartilage conduction.
  • the robot controls the two hands to keep their relative positions and not restrain the movement of the face.
  • a control unit thereby, cartilage conduction without a feeling of restraint becomes possible.
  • the robot has an eye whose appearance is movable and is moved in synchronism so that the line of sight of the eye faces between the hands. This enables intimate communication with the robot through cartilage conduction.
  • the robot has a mouth mechanism whose appearance is movable, and the mouth mechanism is controlled to move in conjunction with the sound transmitted by the vibration of the cartilage conduction vibration source. This enables communication by natural cartilage conduction.
  • the robot has a limiter for limiting the contact pressure when the hand contacts the ear cartilage so as to transmit the vibration of the cartilage conduction vibration source to the ear cartilage. This enables communication by safe cartilage conduction.
  • the robot has communication means for asking for consent when the hand contacts the ear cartilage so as to transmit the vibration of the cartilage conduction vibration source to the ear cartilage. Thereby, communication by cartilage conduction without discomfort is possible.
  • the robot has a control unit that performs safety confirmation in advance when the hand is brought into contact with the ear cartilage so as to transmit the vibration of the cartilage conduction vibration source to the ear cartilage.
  • the robot has an abnormality detection means, and when the hand contacts the ear cartilage to transmit the vibration of the cartilage conduction vibration source to the ear cartilage, the abnormality detection means detects the abnormality. When detected, contact with the ear cartilage of the hand is released. This avoids problems in the event of an emergency.
  • the robot has a joint mechanism for holding the arm of the robot so as not to resist the external force that guides the hand to the ear cartilage. This allows a person who wants to contact the robot to easily guide the robot's hand to his / her ear cartilage with his / her hand.
  • the robot has follow-up means for causing the cartilage conduction vibration source to transmit vibrations to one ear of the person and to follow the hand with the movement of the person's head. Accordingly, even when vibration is transmitted to the ear on one side, it is possible to prevent the contact from being cut off by the movement of the human head.
  • the hand of the robot has a first finger provided with the cartilage conduction vibration source and a second finger supporting the weight of the human head.
  • a robot having a hand and a heater for heating the hand to human skin. This makes it possible for the robot and the person to touch each other without an unpleasant cooling sensation.
  • a cartilage conduction vibration source for transmitting vibrations to a human ear cartilage is provided in a hand and is shared by a large number of persons, and the large number of persons individually
  • An accessory that covers at least a portion of the ear cartilage, and indirectly transmits the vibration of the cartilage conduction vibration source via the accessory to one ear cartilage of the multiple persons.
  • the accessory is any one of, for example, an ear warmer, a hair band, an ear cuff, and an ear wearing character goods.
  • an information holding unit for holding information for identifying a wearer is provided in the accessory, and means for reading the information is provided in the robot.
  • an accessory that is individually worn by a large number of wearers and that is provided with an information holding unit that holds information for identifying the wearers, and means for reading the information
  • a robot system is provided.
  • the robot can take a suitable action for each individual wearer.
  • a robot capable of appropriately communicating with a human and a robot system using the robot are provided.
  • Example 1 It is a system configuration figure of Example 1 of the present invention.
  • Example 1 It is a block diagram of the detailed structure of Example 1 of FIG. It is sectional drawing of the ear
  • 3 is a flowchart illustrating functions of an ear wearing unit according to the first embodiment. 3 is a flowchart illustrating functions of the mobile phone according to the first embodiment. It is a flowchart which shows the function of the residence monitor part in Example 1.
  • FIG. It is a system configuration
  • Example 3 It is a block diagram of the robot of Example 3 of FIG. 12 is a flowchart illustrating functions of a control unit 240 of the robot according to the third embodiment. It is a flowchart which shows the detail of step S140 of FIG. It is a system configuration
  • Example 4 FIG. 10 is a block diagram of Example 4. 10 is a flowchart illustrating a part of functions of a control unit according to the fourth embodiment. It is a system configuration
  • FIG. 10 is a flowchart illustrating functions of a control unit according to a fifth embodiment. It is a flowchart which shows the detail of step S258 of FIG.
  • Example 5 it is a side view which shows the mode of the contact through jewelry. It is a system block diagram of the whole bank in Example 5. It is a flowchart which shows the function of the bank control part of FIG. It is a perspective view regarding Example 6 of this invention. (Example 6)
  • FIG. 1 is a system configuration diagram of Example 1 according to the embodiment of the present invention.
  • the first embodiment constitutes a watch system in the house 2 and is put on an ear that comes in contact with the cartilage around the hole of the ear 4 of the watch target person by being sandwiched between the antiauricle and the tragus and being placed in the concha cavity.
  • a part 6 illustrated with a broken line to distinguish it from the ear structure
  • a mobile phone 10 of the person to be watched are included.
  • the mobile phone 10 exchanges information with the ear wearing unit 6 and the in-house monitor unit 8 by short-range communication.
  • the ear wearing unit 6 functions as a headset of the mobile phone 10 by short-range communication with the mobile phone 10, and can make a call even when the mobile phone 10 is kept in a pocket of clothes, for example.
  • the ear wearing part 6 also functions as a hearing aid alone.
  • the function as a headset and the function as a hearing aid utilize cartilage conduction described later.
  • the ear wearing unit 6 further includes a mastication sensor, and detects movement of the tragus or the like or deformation of the external auditory canal due to mastication.
  • the ear mounting portion 6 has a ring shape having a hole 6a, and the ear canal entrance is open even when the ear mounting portion 6 is mounted, so that sounds of the outside world can be heard through the hole 6a, and the ear canal has a feeling of obstruction. Allows no comfortable wearing. Further, as described later, by closing the hole 6a with a finger or covering with a palm as necessary, it is possible to obtain an external ear canal closing effect in cartilage conduction and to hear a louder sound.
  • the in-housing monitor unit 8 includes a near field communication unit 12 for performing near field communication with the ear wearing unit 6 and the mobile phone 10 and a digital communication unit 14 for performing always-on Internet communication with the outside.
  • the control unit 16 controls the entire residential monitor unit 8 including the short-range communication unit 12 and the digital communication unit 14.
  • the storage unit 18 stores programs necessary for the control of the control unit 16 and temporarily stores various data related to control and the like.
  • the in-housing monitor unit 8 receives the detection result of the mastication movement from the ear wearing unit 6 by short-range communication, and when the mastication movement predicted in daily life is not detected, there is a possibility of an abnormal state. There is a report from the digital communication unit 14 to the monitoring company. In addition, the in-house monitor unit 8 receives information on the presence or absence of the voice of the person being watched over, which is detected by the headset function of the ear wearing unit 6, by short-range communication, and when no sound is detected for a predetermined period, or screaming, etc. When an urgent voice signal is detected, the digital communication unit 14 notifies the monitoring company that there is a possibility of an abnormal state.
  • the mobile phone 10 receives the detection result of the mastication movement from the ear wearing unit 6 through near field communication, and registers in advance that there is a possibility of an abnormal state when the mastication movement predicted in daily life is not detected. Calls are automatically made to a mobile phone of a remote family member, etc., and if there is a response, a notification to that effect is made by automatic voice.
  • the mobile phone 10 receives information on the presence or absence of the voice of the person being watched over, which is detected by the headset function of the ear wearing unit 6, by short-range communication, and when no voice is detected for a predetermined period of time or an emergency such as a scream
  • a sound signal having a characteristic is detected, it is assumed that there is a possibility of an abnormal state, and an automatic call is made to a mobile phone of a remote family member or the like, and if there is a response, a notification to that effect is made.
  • the mobile phone 10 automatically calls a mobile phone of a remote family or the like even if a chewing motion predicted in daily life is detected, and if there is a response, there is no abnormality in the automatic voice. Report to that effect. Also, based on detection of the normal voice of the person being watched over, automatic calling is appropriately made to the mobile phone of the remote family or the like, and if there is a response, a notification that there is no abnormality is made by automatic voice. As a result, a remote family member, etc., can regularly watch three meals, have daily conversations expected, or have regular utterances in a preset time zone (daily You can feel safe knowing that you are talking about traditional shopping and daily life.
  • the mobile phone 10 is automatically called even if the person being watched over is not intended, and the content of the conversation is heard. This is undesirable from the viewpoint of privacy for the person being watched over even though it is a family, so that only the fact of the presence or absence of voice is reported and the content of the conversation cannot be determined, as will be described later.
  • FIG. 2 is a block diagram of the detailed configuration of the first embodiment of the present invention shown in FIG. Portions common to those in FIG. 1 are denoted by the same reference numerals, and description thereof is omitted unless necessary.
  • the configuration of the in-resident monitor unit 8 is as shown in FIG. 1, but includes a power supply unit 20 that supplies power to the entire in-house monitor unit 8.
  • the power source unit 20 receives power from a household power source in the house 2.
  • the mobile phone 10 has a mobile phone function unit 22 as shown in FIG.
  • the near field communication unit 26 communicates with the near field communication units 36 and 12 of the ear wearing unit 6 and the dwelling monitor unit 8, respectively.
  • the GPS unit 28 detects the position when the person to be watched wearing the ear wearing unit 6 goes out with the mobile phone 10, and if necessary, with a mobile phone or a watch trader such as the above-mentioned remote family Provide location information of the person being watched over by communicating.
  • the control unit 30 controls the entire mobile phone 10 including the mobile phone function unit 22, the short-range communication unit 26, and the GPS unit 28.
  • the storage unit 32 stores a program necessary for the control of the control unit 30 and temporarily stores various data related to control and the like.
  • a power supply unit 34 having a rechargeable storage battery supplies power to the entire mobile phone 10.
  • FIG. 2 for the sake of simplicity, illustrations of configurations normally provided in the mobile phone 10 such as a large touch panel type liquid crystal display unit, a microphone, a speaker, a proximity sensor, and an inner camera illustrated in FIG. 1 are omitted.
  • the ear wearing unit 6 includes a short-range communication unit 36 that performs short-range communication with the short-range communication unit 26 of the mobile phone 10 and the short-range communication unit 12 of the residential monitor unit 8.
  • the mastication sensor 38 detects the movement of the tragus or the like due to the mastication movement of the person to be watched wearing the ear wearing part 6 or the deformation of the external auditory canal, and detects the presence or absence of mastication by the person to be watched.
  • the mastication sensor 38 is composed of a strain gauge or a piezoelectric element.
  • the control unit 40 transmits the fact to the mobile phone 10 via the short-range communication unit 36 and the short-range communication unit 26.
  • the short-range communication unit 36 transmits the short-distance communication unit 26 to the mobile phone 10, and the short-range communication unit The information is transmitted from 36 to the dwelling monitor 8 via the short-range communication unit 12.
  • the cartilage conduction vibration source 42 (for example, adopting a piezoelectric bimorph element) of the ear wearing unit 6 vibrates by the voice signal of the communication partner received from the mobile phone 10 by short-range communication, and this vibration comes into contact with the ear wearing unit 6.
  • the bone conduction microphone 44 picks up his / her voice by bone conduction and transmits a voice signal of his / her voice to the mobile phone 10 by short-range communication, thereby establishing a conversation. In this way, the ear wearing unit 6 functions as a headset of the mobile phone 10.
  • the external air conduction sound microphone 46 vibrates the cartilage conduction vibration source 42 by an audio signal obtained by picking up a live air conduction sound of a nearby conversation partner.
  • the ear wearing part 6 functions as a hearing aid alone.
  • the control unit 40 also controls the ear wearing unit 6 for the function of the headset and the function of the hearing aid.
  • the bone conduction microphone 44 in the headset function also functions as a voice sensor for watching whether or not the person to be watched is making a voice expected in daily life.
  • a power supply unit 48 having a rechargeable storage battery supplies power to the entire ear wearing unit 6.
  • Cartilage conduction is a phenomenon discovered by the present inventor, and is a phenomenon in which the cartilage surface of the external auditory canal vibrates due to vibration transmitted to the cartilage around the entrance to the external ear canal such as tragus and generates air conduction sound in the external auditory canal. .
  • the air conduction sound generated in the ear canal travels further back in the ear canal and reaches the eardrum.
  • the main part of the sound heard by cartilage conduction is the sound heard through the tympanic membrane.
  • what is heard through the eardrum is not a sound that enters the ear canal from outside the external auditory canal, but a sound that is generated inside the ear canal.
  • FIG. 3 is a cross-sectional view of the ear for explaining the above, and shows the relationship between the structure of the ear 4 and the ear mounting portion 6 used in the present invention.
  • An arrow 52 illustrates a path through which the vibration of the ear mounting portion 6 that is vibrated by the cartilage conduction vibration source 42 is transmitted to the eardrum 50.
  • the vibration generated from the ear mounting portion 6 is first conducted from the contact portion to the cartilage 54 around the ear canal entrance portion.
  • the vibration of the cartilage 54 generates air conduction sound from the surface (cartilage part external auditory canal) into the ear canal.
  • the air conduction sound travels through the external auditory canal and reaches the eardrum 50 through the bone external auditory canal 56.
  • the ear mounting part 6 can be comfortably mounted without a feeling of obstruction of the external auditory canal.
  • FIG. 4 is a graph showing an example of actually measured data showing the effect of cartilage conduction.
  • the graph of FIG. 4 shows the inside of the ear canal 1 cm from the ear canal entrance when the outer wall surface of the vibrating body vibrated by the cartilage conduction vibration source is brought into contact with at least a part of the ear cartilage around the ear canal entrance without contacting the ear ring. Is shown in relation to the frequency.
  • the vertical axis of the graph is the sound pressure (dBSPL), and the horizontal axis is the logarithmic scale frequency (Hz).
  • the graph shows the sound pressure in a non-contact state (a state where only the air conduction sound generated from the outer wall surface of the vibrating body can be heard) in a solid line in relation to the contact pressure between the outer wall surface of the vibrating body and the cartilage around the ear canal entrance.
  • the sound pressure at a contact pressure of 10 gram is indicated by a broken line
  • the sound pressure at a contact pressure of 250 gram is indicated by a one-dot chain line
  • the sound pressure when the ear canal is closed by increasing the contact pressure (contact pressure of 500 gram) is indicated by two points. Each is indicated by a chain line.
  • the sound pressure is increased by contact at a contact pressure of 10 weight grams from the non-contact state, further increased by increasing the contact pressure to 250 weight grams, and the contact pressure is further increased from this state to 500 weight grams. As a result, the sound pressure further increases.
  • the contact pressure in the ear canal at a depth of 1 cm varies by at least 5 dB in the main frequency band (500 Hz to 2500 Hz) of speech. (Refer to the comparison between the slight contact state indicated by the broken line and the contact state indicated by the alternate long and short dash line.)
  • the necessary sound can be obtained by transmitting the vibration of the cartilage conduction vibration source 42 to the ear cartilage by contact. It can be seen that pressure is obtained.
  • the ear mounting portion 6 can be formed in a ring shape or the like having a hole 6a, and the outside sound can be heard through the hole 6a even during mounting. It can be seen that the device can be worn comfortably without the occlusion of the ear canal.
  • the outer ear canal entrance is closed by bringing the outer wall surface of the vibrator into stronger contact with at least a part of the ear cartilage (in the actual measurement of FIG.
  • the sound pressure in the ear canal is 1 cm behind the ear canal, compared to the non-contact state. It can be seen that there is an increase of at least 20 dB at 300 Hz to 1800 Hz. This is due to the effect of closing the ear canal. (Refer to the comparison between the non-contact state indicated by the solid line and the state where the ear canal indicated by the two-dot chain line is closed.)
  • all the measurements in FIG. 4 are in a state where the output of the cartilage conduction vibration source is not changed. Further, in the state in which the outer wall surface of the vibrating body is brought into contact with at least a part of the ear cartilage around the entrance part of the ear canal without contact with the ear ring, the measurement in FIG. Is going. Moreover, the measurement in the state in which the external auditory canal is closed in FIG. 4 is performed by creating a state in which the external auditory canal is folded back by pressing the tragus more strongly from the outside as described above. .
  • Example 1 the outer ear canal closing effect as described above can be realized by closing the hole 6a by pressing the finger 6 against the hole 6a and increasing the contact pressure of the ear mounting portion 6 to the cartilage.
  • the effect of closing the ear canal can be obtained by covering the entire ear 4 with a palm instead.
  • the measurement graph of FIG. 4 is merely an example, and there are individual differences if you look closely.
  • the measurement graph of FIG. 4 is measured in a state where the outer wall surface of the vibrating body is in contact with a small area only on the outer side of the tragus in order to simplify and standardize the phenomenon.
  • the increase in sound pressure due to contact also depends on the contact area with the cartilage, and when the outer wall surface of the vibrator is brought into contact with the ear cartilage around the ear canal entrance without contact with the ear ring, it is wider around the ear canal entrance. If the cartilage part is brought into contact, the increase in sound pressure is further increased. Considering the above, the numerical values shown in the measurement graph of FIG.
  • the measurement graph of FIG. 4 is based on the result that the tragus is folded back by increasing the contact pressure by pressing the tragus from the outside when closing the ear canal entrance. A similar result can be obtained when it is pushed into and closed.
  • FIG. 5 is a flowchart showing the function of the control unit 40 of the ear wearing unit 6 in the watching system of the first embodiment.
  • the flow starts by removing the ear wearing part 6 connected to a charger (not shown) for charging from the charger.
  • the pairing status for short-distance communication with the mobile phone 10 is confirmed in step S2, and if not set, the pairing setting is automatically performed.
  • step S4 the external air conduction microphone 46 and the bone conduction microphone 44 are turned on.
  • the ear wearing unit 6 functions as a hearing aid, and enters a state of waiting for voice detection of the person being watched over by the bone conduction microphone 44.
  • the mastication sensor 38 is always in the on state from the start to the end of the flow and is in the mastication detection standby state.
  • step S6 it is checked whether or not the mastication sensor 38 has detected a mastication movement. If there is a detection, the process proceeds to step S8, and a detection signal is transmitted to the mobile phone 10 by short-range communication, and a detection signal is transmitted to the in-house monitoring unit 8 by short-range communication in step S10, and the process proceeds to step S12. To do. On the other hand, if the mastication movement is not detected in step S6, the process proceeds directly to step S12.
  • step S12 it is checked whether the bone-conduction microphone 44 has detected the target person's voice. And if there exists detection, it will progress to step S14, and while transmitting the audio
  • Steps S12 to S16 are illustrated in a simplified manner. Actually, however, in these steps, bone conduction is performed for a predetermined time (for example, 10 seconds) after the sound is detected by the bone conduction microphone 44. The audio signal from the microphone 44 is continuously transmitted to the mobile phone 10 and the in-house monitor unit 8 in parallel.
  • step S12 the transmission is stopped at the predetermined time, and conversely, even if the sound is silenced within the predetermined time, the output transmission of the bone-conduction microphone 44 is continued within the predetermined time.
  • step S20 whether or not the person to be watched makes a call operation from the mobile phone 10 and the other party has responded to this, or there is an incoming call to the mobile phone 10 from the outside, and whether or not the person to be watched has made a response operation To check. If either of them is true, the process proceeds to step S22, the external air conduction microphone 46 is turned off and the bone conduction microphone 44 is kept on, and the process proceeds to step S24. As a result, the ear wearing unit 6 functions as a headset of the mobile phone 10, and prevents unnecessary sounds from entering the call from the external air conduction microphone 46.
  • step S24 it is checked whether or not the call started in step S20 is terminated by hanging up the telephone.
  • the process proceeds to step S26, the external air conduction sound microphone 46 is turned on and the bone conduction microphone 44 is kept on, and the process proceeds to step S28.
  • step S24 is repeated to wait for the end of the call. If no outgoing call response or incoming call response is detected in step S20, the process proceeds directly to step S28.
  • step S28 it is checked whether or not the storage battery of the power supply unit 48 is exhausted. If the storage battery is not consumed, the process proceeds to step S30, and it is checked whether the ear wearing unit 6 is connected to a charger (not shown) for charging. This step corresponds to the case where the ear mounting portion 6 is detached from the ear 4 and charged even when the storage battery is not consumed.
  • step S30 the process proceeds to step S32, and an end process is performed to end the flow. This has the significance of preventing the ear wearing unit 6 from being erroneously maintained in the operating state despite being in a state where it is removed from the ear 4 and cannot perform the watching function.
  • step S30 if the charging connection is not detected in step S30, the process returns to step S6. Thereafter, unless the storage battery is consumed or the charging connection is performed, step S6 to step S30 are repeated, and the ear wearing unit 6 The hearing aid function, the watch function, and the headset function of the mobile phone 10 are maintained. In addition, also when the consumption of a storage battery is detected by step S28, it transfers to step S32, complete
  • FIG. 6 is a flowchart illustrating functions of the control unit 30 of the mobile phone 10 according to the first embodiment. Note that the flow of FIG. 6 is illustrated by extracting operations with a focus on functions related to watching, and the mobile phone 10 includes a control unit 30 that is not shown in the flow of FIG. 6 including normal mobile phone functions. There are behaviors.
  • the hardware configuration itself of the mobile phone 10 is normal, and the functions extracted in FIG. 6 are installed as software attached to the ear wearing unit 6.
  • step S44 the pairing status for near field communication with the ear wearing unit 6 is checked. And if pairing is set, since it can watch over by the mobile telephone 10 cooperated with the ear mounting part 6, it transfers to step S46.
  • step S46 it is checked whether or not a new mastication detection signal has been received from the ear wearing unit 6, and if received, the process proceeds to step S48, and the watcher's mobile phone such as a remote family member registered in advance is checked. Automatically send a safety email. Further, in step S48, automatic voice calls are made to a remote family mobile phone registered in advance instead of e-mail by setting in advance, and if there is a response, an automatic voice that informs the safety of the watcher Send. It can also be configured to send both mail and calls.
  • mastication detection it is considered that it is basically three times a day and is not complicated, so every time a mastication detection signal is detected, a remote family member is informed of the safety and reassured. If a remote family thinks that such a safe notification is complicated, it can be set in advance to omit step S48.
  • step S50 the reception history of the mastication detection signal in the storage unit 32 is updated with date and time information based on new reception, and the GPS signal at that time is also stored, and the process proceeds to step S52.
  • step S50 the reception history of the mastication detection signal in the storage unit 32 is updated with date and time information based on new reception, and the GPS signal at that time is also stored, and the process proceeds to step S52.
  • the process directly proceeds to step S52.
  • step S52 based on the reception history of the storage unit 32, it is checked whether a new mastication detection signal has been received within a predetermined period from the previous reception of the mastication detection signal. If a new mastication detection signal is not received within a predetermined period, the process proceeds to step S54, where an automatic call is made to a mobile phone of a remote family member registered in advance, and if there is a response, there is a possibility of abnormality. An automatic voice to that effect is transmitted and the process proceeds to step S56. In step S54, an automatic voice for notifying the current position of the watcher is further transmitted based on the GPS information at that time. On the other hand, if it can be confirmed in the reception history that a new mastication detection signal has been received within the predetermined period in step S52, the process directly proceeds to step S56.
  • step S56 it is checked whether or not an audio signal picked up by the bone-conduction microphone 44 of the ear attachment unit 6 has been received. If a voice signal is received, the process proceeds to step S58, where the received voice is a scream or a rescue request based on the voice identification of the contents of the voice signal (including words etc.), the strength of the voice signal, the tone pattern, etc. Check whether it is urgent. When there is a high possibility that the voice is a scream or rescue request voice (when it is determined that the urgency is high), the process proceeds to step S60, and an automatic call is made to a mobile phone of a remote family member registered in advance. If there is a response, the received voice itself is transferred and the process proceeds to step S62. On the other hand, if it is determined in step S58 that the received voice is a normal conversation voice and not a scream or a rescue request (less urgent), the process directly proceeds to step S62.
  • step S62 it is checked whether or not the received audio signal is received in a time zone set in advance based on a regular life pattern (for example, a time zone in which daily shopping or sutra is advocated). Then, if applicable, the process proceeds to step S64, and a mail notifying the safety of the watcher is automatically transmitted to a mobile phone of a remote family registered in advance, and the process proceeds to step S66. On the other hand, if it is determined in step S62 that the received audio signal is not received in a preset time zone, the process directly proceeds to step S66. As in step S48, automatic calling and automatic voice transmission may be performed instead of e-mail, or both may be set to be performed.
  • a regular life pattern for example, a time zone in which daily shopping or sutra is advocated.
  • step S62 and step S64 when a remote family thinks that such a safe notification is complicated, it can be set in advance so as to omit step S62 and step S64.
  • the voice transmitted in step S64 is not a voice signal actually picked up by the bone-conduction microphone 44 but only a fact that a voice signal has been received.
  • step S60 the voice of the person being watched over is notified.
  • the content of the conversation is unknown and privacy is preserved.
  • step S66 the reception history of the audio signal in the storage unit 32 is updated with date and time information based on new reception, and the GPS signal at that time is also stored, and the process proceeds to step S68.
  • step S68 the reception history of the audio signal picked up by the bone-conduction microphone 44 is not confirmed in step S56, the process directly proceeds to step S68.
  • step S68 based on the reception history of the storage unit 32, it is checked whether or not a new audio signal has been received within a predetermined period from the previous reception of the audio signal. If no new audio signal is received within a predetermined period, the process proceeds to step S70, where an automatic call is made to the previously registered mobile phone of a remote family or the like, and if there is a response, there is a possibility of abnormality. An automatic voice to that effect is transmitted and the process proceeds to step S72. Also in step S70, an automatic voice for notifying the current position of the watcher is transmitted based on the GPS information at that time.
  • step S68 when it is confirmed in the reception history that a new audio signal has been received within the predetermined period in step S68, the process directly proceeds to step S72. If the pairing setting with the ear wearing unit 6 is not confirmed in step S44, the process directly proceeds to step S72, and the steps for watching are not executed, and functions as a normal mobile phone.
  • step S72 it is checked whether or not the storage battery of the power supply unit 34 is exhausted. If the storage battery is not exhausted, the process returns to step S44. Hereinafter, unless the storage battery is exhausted, step S44 to step S72 are repeated, and the mobile phone 10 responds to various situations in watching. On the other hand, when the consumption of the storage battery is detected in step S72, the process proceeds to step S74, the end process is performed, and the flow is ended.
  • FIG. 7 is a flowchart illustrating the function of the control unit 16 of the in-resident monitoring unit 8 according to the first embodiment.
  • the flow starts by installing the in-house monitor unit 8 and connecting it to a household power source or by turning on the power source of the in-house monitor unit 8.
  • the Internet is constantly connected for communication with the watchmaker.
  • the automatic setting is performed, and an automatic test for cooperation such as near field communication with the ear wearing unit 6 is performed, and the process proceeds to step S84.
  • step S84 it is checked whether or not the state where the near field communication with the ear wearing unit 6 is possible is changed to the impossible state. This is equivalent to checking whether or not the person being watched over has gone out of the near field communication range. If not, the process proceeds to step S86, and it is checked whether or not the state where the near field communication with the ear wearing unit 6 is impossible is changed to the possible state. This corresponds to checking whether or not the person to be watched returns home and returns to the near field communication range. If applicable, in step S88, automatic mail transmission to the previously registered mobile phone of a remote family or the like is performed to notify that the person to be watched has returned home.
  • step S90 automatic short-range communication is performed with the mobile phone 10, and processing for confirming that the short-range communication state has returned to the system configuration state shown in FIG. This is because it is assumed that the mobile phone 10 was also carried by the watching target person and went out of the near field communication area of the in-resident monitor unit 8 while the watching target person was out. If it cannot be confirmed in step S90 that short-distance communication with the mobile phone 10 can be performed, in step S90, the mobile phone such as a contractor or a remote family is notified.
  • step S90 cross check and information exchange of the reception history from the ear wearing unit 6 in the storage unit 18 of the in-house monitor unit 8 and the storage unit 32 of the mobile phone 10 are further performed to match the information of both.
  • This is mainly due to reception information being lost while the monitoring target person goes out and the in-housing monitor unit 8 cannot receive from the ear wearing unit 6, so that the received information is received from the mobile phone 10.
  • in-house monitor unit 8 can prevent inconvenience such as misidentifying that there is no transmission from ear wearing unit 6 for a predetermined time or longer, although transmission is actually performed from ear wearing unit 6. it can.
  • the function of matching both information by the cross check of the reception history as described above is that the storage information of the mobile phone 10 is consumed in the residence 2 and the reception information from the ear wearing unit 6 is missing until charging. It is also meaningful as a response to the case.
  • step S90 the process proceeds to step S92, and it is checked whether a new mastication detection signal has been received from the ear wearing unit 6. If there is reception, the process proceeds to step S94, the reception history of the mastication detection signal in the storage unit 18 is updated with date information based on the new reception, and the process proceeds to step S96. On the other hand, when the reception of the mastication detection signal cannot be confirmed in step S92, the process directly proceeds to step S96.
  • step S96 based on the reception history of the storage unit 18, it is checked whether a new mastication detection signal has been received within a predetermined period from the previous reception of the mastication detection signal. If no new mastication detection signal is received within the predetermined period, the process proceeds to step S98, where an automatic notification that there is a possibility of abnormality is given to the pre-contracted watchmaker, and the process proceeds to step S100. On the other hand, if it can be confirmed from the reception history that a new mastication detection signal has been received within the predetermined period in step S96, the process proceeds directly to step S100 with no abnormality.
  • step S100 it is checked whether an audio signal picked up by the bone conduction microphone 44 of the ear mounting unit 6 has been received. If a voice signal is received, the process proceeds to step S102, where the received voice is a scream or a rescue request based on the voice identification of the contents (such as contained words) of the voice signal, the intensity of the voice signal, the tone pattern, etc. Check whether or not. If there is a high possibility that it is a scream or a rescue request voice, the process proceeds to step S104, and the received voice itself is transferred to the watcher and the process proceeds to step S106. On the other hand, when it is determined in step S102 that the received voice is a normal conversation voice and not a scream or a rescue request, the process directly proceeds to step S106.
  • step S106 the reception history of the audio signal in the storage unit 18 is updated with date information based on the new reception, and the process proceeds to step S108.
  • step S108 the reception history of the audio signal picked up by the bone-conduction microphone 44 is not confirmed in step S100, the process directly proceeds to step S108.
  • step S108 based on the reception history of the storage unit 18, it is checked whether a new audio signal has been received within a predetermined period from the previous reception of the audio signal. If no new audio signal is received within the predetermined period, the process proceeds to step S110, where the watcher is automatically notified that there is a possibility of abnormality, and the process proceeds to step S112. On the other hand, when it can be confirmed from the reception history that a new audio signal has been received within the predetermined period in step S108, the process directly proceeds to step S112. When it is detected in step S84 that the short-range communication with the ear wearing unit 6 has been changed to the impossible state, the process proceeds to step S114 and the previously registered remote location is registered.
  • Automatic mail transmission to a cellular phone such as a family is performed to notify that the person to be watched has gone out, and the process proceeds to step S112.
  • a signal cannot be received from the ear wearing unit 6 and watching cannot be performed
  • execution of the watching function is entrusted to the mobile phone 10 carried by the watching target person, and execution of the watching function as the in-house monitoring unit 8 is performed. Absent.
  • step S112 it is checked whether or not the power source of the in-resident monitor unit 8 is turned off. Power off includes power interruption due to power failure. If the power is not turned off, the process returns to step S84. Hereinafter, unless the power is turned off, steps S84 to S114 are repeated, and the dwelling monitor unit 8 responds to various situations in watching. On the other hand, when the power-off is detected in step S112, the process proceeds to step S116, the end process is performed, and the flow is ended.
  • FIG. 8 is a system configuration diagram of Example 2 according to the embodiment of the present invention.
  • the second embodiment also constitutes a monitoring system in the house, and uses a glasses-type ear mounting unit 106. Since other configurations are the same as those of the first embodiment shown in FIGS. 1 and 2, common portions are denoted by the same reference numerals and description thereof is omitted.
  • FIG. 8 for the sake of simplicity, illustration of the dwelling 2 and the dwelling monitor unit 8 is omitted, but the configuration is the same as that of the first embodiment of FIGS.
  • the common piezoelectric element can be used as the cartilage conduction vibration source, bone conduction microphone, and mastication sensor. It is.
  • the piezoelectric bimorph element 142 that is also used as the cartilage conduction vibration source, the bone conduction microphone, and the mastication sensor is provided in a portion where the eyeglass vine rests on the cartilage at the base of the ear 4. With this configuration, the vibration of the piezoelectric bimorph element 142 is transmitted to the cartilage at the base of the ear 4 to cause cartilage conduction.
  • the sound by bone conduction is picked up by the piezoelectric bimorph element 142. Furthermore, the movement near the base of the ear 4 due to mastication is detected by the piezoelectric bimorph element 142. In the combined use, input / output signals of the piezoelectric bimorph element 142 are extracted and separated by signal processing of the control unit 140. At that time, the sound of the person to be watched is picked up by air conduction using the external air conduction microphone 46 originally provided for picking up the voice of the other party for the function of the hearing aid, and the piezoelectric bimorph element This is used as information for extraction and separation of input / output signals at 142.
  • the external auditory canal entrance is opened so that the sound of the outside world can be heard, and the comfortable ear mounting part 106 without the occlusion of the external auditory canal can be mounted. Further, if necessary, the ear canal entrance is closed with a finger or the entire ear 4 is covered with a palm, so that the effect of closing the ear canal in cartilage conduction can be obtained and a larger sound can be heard.
  • any one of the functions of the cartilage conduction vibration source, the bone conduction microphone, and the mastication sensor may be combined with one piezoelectric bimorph element.
  • the cartilage conduction vibration source, the bone conduction microphone, and the mastication sensor may be configured by different optimum elements, respectively, and may be configured to be distributed and arranged at the optimum positions.
  • the bone conduction microphone is used to pick up the voice of the person being watched over.
  • this may be constituted by an air conduction sound microphone (for example, also used as the external air conduction sound microphone 46). Good.
  • FIG. 9 is a system configuration diagram of Example 3 according to the embodiment of the present invention.
  • the third embodiment is configured as a robot capable of communicating with a person by cartilage conduction, and configures a monitoring system in a residence in the same manner as in the first embodiment and enables human communication with a monitoring target person.
  • Example 3 in FIG. 9 is the same as Example 1 except that the part of the ear mounting portion 6 in Example 1 in FIG. 1 is the robot 206 in Example 3, the robot 206 and the person being watched over are shown in FIG. Illustrations other than 201 are omitted, and descriptions of common parts are also omitted unless necessary.
  • the robot 206 exchanges information with the in-house monitoring unit 8 shown in FIG. 1 and the mobile phone 10 of the person to be watched 201 by short-range communication through short-range communication.
  • the robot 206 has a pair of stereo external air conduction microphones in the left and right ears 205 of the head 203, picks up the voice of the watching target 201, and pairs of left and right eyes 207 in the head 203. It has a 3D camera and takes an image of the watching target person 201.
  • the stereo external air conduction sound microphone and the 3D camera each function as a sensor for watching over the person 201 to be watched over, and the detection result is transmitted to the in-house monitor unit 8 and the mobile phone 10 shown in FIG.
  • an air conduction sound speaker is provided in the mouth mechanism 209 portion of the head 203 of the robot 206 so that it is possible to speak to the watching target person 201. At this time, the mouth mechanism 209 of the robot 206 moves in conjunction with the speech. Further, the external air conduction microphone and the air conduction speaker provided on the head 203 of the robot 206 also function as an external transmission / reception device of the mobile phone 10 shown in FIG.
  • the middle finger 213 of the right hand 211 of the robot 206 is provided with a cartilage conduction vibration source composed of a piezoelectric bimorph element or the like, so that the fingertip of the middle finger 213 vibrates efficiently.
  • cartilage conduction vibration source since the vibration of the cartilage conduction vibration source is transmitted to the entire right hand 211, cartilage conduction is possible from any part of the right hand 211.
  • FIG. 9 shows a state where the fingertip of the middle finger 213 is in contact with the tragus 232 of the left ear of the person 201 to be watched to realize the best cartilage conduction.
  • a similar cartilage conduction vibration source is also arranged on the middle finger of the left hand of the robot 206 and is in contact with the tragus of the right ear of the person 201 to be watched.
  • cartilage conduction in stereo in the same way as normal air conduction sound is heard with both ears.
  • the mouth mechanism 209 of the robot 206 moves in conjunction with the voice transmitted by cartilage conduction in the same manner as in the case of speech from the air conduction sound speaker.
  • the robot 206 gently wraps the face of the watching target person 201 with both hands and talks in a charitable atmosphere. Can hear.
  • the right arm 215 and the left arm 217 of the robot 206 are provided with pressure limiters so that the pressure with which both hands of the robot 206 watch over the face of the subject 201 is not excessive.
  • the left and right hands keep the relative distance and the face of the watching target person 201 moves freely.
  • the joints of the right arm 215 and the left arm 217 of the robot 206 are controlled with respect to the body 219 of the robot 206 so as to follow without resistance.
  • both hands of the robot 206 are warmed to the human skin before entering the operation of wrapping the face of the watching target person 201 so that the robot 206 does not feel cold when it first touches the watching target person 201.
  • the left and right eyes 207 of the robot 206 are movable so that there is no discrepancy with the effect of gently wrapping the face of the person 201 to be watched with both hands and talking, the orientation of the head 203 and the left and right eyes 207.
  • the line of sight on the outside of the person does not inadvertently remove the line of sight of the person 201 to be watched over, and moves and follows naturally within a range without intimidation.
  • a bone conduction microphone is provided on the thumb 221 of the right hand 211 of the robot 206 so as to pick up bone conduction sound from the cheekbone or the like. Is done.
  • a similar bone conduction microphone is provided on the left hand of the robot 206 to pick up bone conduction sound in a complementary manner to the bone conduction microphone on the right hand 211 side.
  • a cartilage conduction vibration source composed of a piezoelectric bimorph element may be used as the bone conduction microphone in the same manner as in the second embodiment.
  • FIG. 10 is a block diagram of the robot 206 according to the third embodiment of the present invention shown in FIG. Portions common to those in FIG. 9 are denoted by the same reference numerals, and description thereof is omitted unless necessary.
  • the third embodiment is the same as the first embodiment in communication with the in-resident monitor unit 8 and the mobile phone 10 as shown in FIG. 1, and the short-range communication unit 236 in FIG. The description is omitted only for illustration.
  • the robot 206 has a pair of stereo external air conduction microphones 246 at the left and right ears 205 (see FIG. 9) of the head 203, and includes external sound including the sound of the watching target person 201.
  • Pick up in stereo The head 203 has a 3D camera (a pair of cameras) 238 in the left and right eyes 207 and takes an image of the watching target person 201.
  • the orientation of the head 203 and the tracking of the line of sight of the left and right eyes 207 are performed by recognizing the face and eyes of the watching target 201 based on the analysis of the image of the 3D camera 238.
  • an air conduction sound speaker 223 is provided in the mouth mechanism 209 portion of the head 203 of the robot 206 so that the user can speak to the watching target 201 as described above.
  • the mouth mechanism 209 moves in conjunction with the speech of the robot 206 by the air conduction speaker 223.
  • a cartilage conduction vibration source 242a made of a piezoelectric bimorph element or the like is arranged on the middle finger 213a of the right hand 211 of the robot so that the fingertip of the middle finger 213a vibrates efficiently.
  • the vibration of the cartilage conduction vibration source 242a is transmitted to the entire right hand 211, so that cartilage conduction is possible regardless of which part of the right hand 211 contacts the ear cartilage.
  • the mouth mechanism 209 of the robot 206 moves in conjunction with the voice transmitted by the vibration of the cartilage conduction vibration source 242a.
  • the middle finger 213a is further provided with a tactile sensor 231a including a pressure-sensitive sensor, which will be described later.
  • a bone conduction microphone 244a is provided on the thumb 221a of the right hand 211 of the robot, and picks up bone conduction sound from the cheekbone or the like.
  • the cartilage conduction vibration source 242a made of a piezoelectric bimorph element may be used as the bone conduction microphone in the same manner as in the second embodiment.
  • the thumb 221a is provided with a touch sensor similar to the touch sensor 231a of the middle finger 213a, which will be described later.
  • the right hand 211 is further provided with a heater 225a. The switch is turned on to heat the entire right hand 211 to the human skin before the operation of wrapping the face of the watching target person 201 is started.
  • the right arm 215 is provided with a right joint mechanism 227a, and performs operations such as wrapping the face of the watching target person 201 from the right side (left side when viewed from the watching target person 201).
  • the right joint mechanism 227a is illustrated only in the shoulder joint portion for simplicity, but the joints of the right hand 211 and the right arm 215 including the elbow joint, wrist joint, and finger joint are representatively shown.
  • the right joint mechanism 227a is linked with the left joint mechanism 227b as will be described later, and an appropriate pressure between the left and right hands is determined when performing an effect of gently wrapping the face of the person 201 to be watched with both hands. After being done, the left and right hands are controlled so as to follow the movement of the face of the person 201 being watched over without any resistance while keeping the relative distance therebetween.
  • the cartilage conduction vibration sources 242a and 242b can perform stereo listening based on the principle of cartilage conduction via the tympanic membrane.
  • the bone conduction microphones 244a and 244b are not provided as a stereo microphone because they pick up the same vibration of the skull due to the nature of bone conduction, and are provided on the left and right sides to complement each other. It is. Therefore, as will be described later, when the bone conduction contact position of the best thumb can be sufficiently secured by finely correcting the contact position of one thumb, the bone conduction microphone on the other thumb may be omitted.
  • each of the right joint mechanism 227a and the left joint mechanism 227b is provided with a load detection sensor, and detects whether a load other than movement in a free state is applied when something hits an arm, hand, or finger. When a load is applied, it is identified in what part of the joint the load is applied with what strength.
  • the pressure limiter is actuated to limit the pressure sandwiching the face of the person 201 to be watched over. Then, while monitoring the outputs of the tactile sensors 231a and 231b provided at the fingertips of the left and right middle fingers 213a and 213b and the image by the 3D camera 238, the positions of the right hand 211 and the left hand 229 and the bending state of the left and right middle fingers 213a and 213b, respectively. Minor correction.
  • the left and right middle fingers 213a and 213b are brought into contact with the tragus of the person 201 to be watched over.
  • the left and right thumbs 221a and 221b are monitored while monitoring the output of the tactile sensors (not shown) provided on the respective fingertips and the image by the 3D camera 238.
  • the bending state of 221a and 221b is finely corrected so as to come into contact with the cheekbone of the watching target 201.
  • the right joint mechanism 227a and the left joint mechanism 227b move in parallel with the left and right hands maintaining the relative distance after the appropriate pressure between the left and right hands is determined, so that the face 201 Control to follow the free movement without resistance.
  • This follow-up is based on a state in which the right arm 215 and the left arm 217 are lifted and stopped against the weight of the right arm 215 and the left arm 217 when they are in a free state, so the load of the right arm 215 and the left arm 217 is applied to the face. There is nothing.
  • the above functions are achieved by the control unit 240 based on a program stored in the storage unit 218.
  • the control unit 240 includes a dedicated image processing function unit connected to the 3D camera 238.
  • the control unit 240 further includes a dedicated piezoelectric bimorph drive function unit connected to the cartilage conduction vibration sources 242a and 242b, and is connected to the piezoelectric bimorph drive function unit, the air conduction sound speaker 223, and the bone conduction microphones 244a and 244b.
  • the storage unit 218 temporarily stores various data for the function of the control unit 240.
  • a power supply unit 248 including a rechargeable battery supplies power to each component of the robot 206 at a voltage required for each. Note that the control unit 240, the storage unit 218, the power supply unit 248, and the short-range communication unit 236 may be incorporated in the body 219 of the robot 206, for example.
  • FIG. 11 is a flowchart illustrating functions of the control unit 240 in the robot 206 according to the third embodiment illustrated in FIG.
  • the flow starts when power supply from the power supply unit 248 is started by the main power switch of the robot 206.
  • step S122 the pairing status for short-distance communication with the monitor unit 8 in the house and the mobile phone 10 (see FIG. 1) of the person 201 to be watched is confirmed. To do.
  • step S124 a process for starting the normal watching function is performed.
  • This normal watching function basically conforms to the watching function in the first or second embodiment described with reference to FIGS. 1 to 8, and in the case of the third embodiment, the stereo external air conduction sound microphone 246 is used.
  • the 3D camera 238 functions as a watching sensor.
  • step S126 whether or not there is an abnormality is checked. If there is no abnormality, the process proceeds to step S128 to check whether or not it is a regular report timing. If it is not the regular report timing, the process proceeds to step S130. On the other hand, if it is confirmed in step S128 that the regular report timing is reached, the process proceeds to step S132, normal report processing is performed, and the process proceeds to step S130. This normal report processing is common to the first embodiment or the second embodiment.
  • step S130 it is determined whether or not a conversation with the watching target person 201 should be started. For example, when the watching target person 201 and the robot 206 face each other after a long time such as when the watching target person 201 returns from day care or when the robot 206 returns from repair, or the watching target person 201 "When the person watching over 201 talks to the robot 206, or when the robot 206 tries to speak spontaneously by observing the state of the person under monitoring 201. In this case, it is determined that the conversation should be started.
  • step S134 the stereo external air conduction microphone 246 and the air conduction speaker 223 are turned on, and a normal air conduction sound conversation is prepared.
  • step S136 it is checked whether or not the watching target person 201 is a registrant who should have a conversation by cartilage conduction. This registration can be performed in advance when the hearing ability is low due to the elderly or the like, or according to the preference of the 201 person to be watched over. If it is not confirmed in step S136 that the person is a cartilage conduction registrant, the process proceeds to step S138, where it is checked whether the surrounding air conduction sound is equal to or higher than a predetermined value.
  • step S138 If it is determined in step S138 that the ambient air conduction sound is equal to or higher than the predetermined level, the process proceeds to step S140. On the other hand, if it is determined in step S136 that the watching target person 201 is a registrant who should have a conversation by cartilage conduction, the process immediately proceeds to step S140.
  • step S140 a process for watching both hands of the robot 206 and contacting both ears of the subject 201 for cartilage conduction is performed. Details thereof will be described later.
  • the process proceeds to step S142, where the middle fingers 213a and 213b of the robot 206 are on the tragus of both ears of the watching target person 201, and the thumbs 221a and 221b are on both cheekbones of the watching person 201. Each is confirmed to be in contact.
  • step S144 the stereo external air conduction sound microphone 246 and the air conduction sound speaker 223 are turned off, and the bone conduction microphones 244a and 244b and the cartilage conduction vibration sources 242a and 242b are turned on, respectively.
  • step S146 the conversation by the air conduction sound is switched to the conversation by the cartilage conduction and the bone conduction microphone.
  • step S142 the process proceeds directly to step S146.
  • the cartilage conduction can be achieved by touching any part of the cartilage of both ears of the subject 201 while watching the hand and finger of the robot 206.
  • the bone conduction microphones 244a and 244b and the cartilage conduction vibration sources 242a and 242b are turned on while the stereo external air conduction sound microphone 246 and the air conduction sound speaker 223 are kept on.
  • step S140 the process of watching over both hands of the robot 206 and extending toward the target person 201 is not performed. Since the bone conduction microphones 244a and 244b and the cartilage conduction vibration sources 242a and 242b are not turned on, the conversation by the stereo external air conduction sound microphone 246 and the air conduction sound speaker 223 is continued. Details of the two-hand contact process in step S140 will be described later.
  • step S138 if it is not determined that the ambient air conduction sound is equal to or higher than the predetermined level, the process proceeds directly to step S146. In this case, the process of watching over both hands of the robot 206 and extending it toward the subject 201 is not performed, and the conversation by the stereo external air conduction microphone 246 and the air conduction speaker 223 is continued.
  • step S146 it is checked whether there is an abnormality. This corresponds to the occurrence of an unexpected situation during the conversation started as normal in step S126.
  • the cartilage conduction by the hand of the robot 206 is executed, so that the sensor function for watching in the robot 206 is increased.
  • the bone-conduction microphones 244a and 244b, the tactile sensors 231a and 231b, etc. contribute to abnormality detection.
  • the joint mechanisms 227a and 227b can be connected through the hands that wrap the face. Since an abnormal load is applied to the load detection sensor, fine abnormality detection can be performed together with an image by the 3D camera 238.
  • step S148 determines whether or not the conversation has ended. This determination is comprehensively performed by checking whether or not each other's silent state has continued for a predetermined time or longer, analyzing the contents of the conversation, and the presence or absence of a keyword unique to the end of the conversation. If it is not determined that the conversation is ended, the process returns to step S136, and steps S136 to S148 are repeated until it is determined that the conversation is ended. As a result of this repetition, when the surrounding sound volume becomes a predetermined level or higher in step S138 in a state where the cartilage conduction has not yet been executed, the transition to the cartilage conduction becomes possible. The transition from communication by air conduction sound to communication from cartilage conduction is one-way.
  • step S138 even if the surrounding sound volume is reduced in step S138 in the above repetition, there is no function to return the communication based on the cartilage conduction once started to the communication based on the air conduction sound. Therefore, no troublesome reciprocal switching between cartilage conduction communication and air conduction sound communication is performed during a series of conversations.
  • step S146 corresponds to this in the above repetition. Details thereof will be described later.
  • step S148 If it is determined in step S148 that the conversation has ended, the process proceeds to step S150, and it is checked whether the cartilage conduction state is present. If it is in the cartilage conduction state, the process proceeds to step S152, where both hands of the robot 206 are retracted to release the face of the watching target person 201, and the process proceeds to step S154. On the other hand, if the cartilage conduction state is not detected in step S150, the conversation is based on normal air conduction sound, and the watching target person 201 is not restrained.
  • step S126 If an abnormal state is detected in step S126, the process proceeds to step S156, an abnormality handling process is performed, and the process proceeds to step S150.
  • This abnormality handling process is basically a notification process common to the first embodiment or the second embodiment. However, since the third embodiment includes the robot 206, it corresponds to the situation of the watching target person 201 grasped by the robot 206. If possible and urgency exceeds risk, pre-programmed first aid is performed. In addition, when an abnormality is detected during the conversation in step S146, the process proceeds to step S156 to perform an abnormality handling process and the process proceeds to step S150.
  • step S146 if any abnormal state occurs when the conversation is performed by cartilage conduction, if the hand of the robot 206 keeps covering the face of the person 201 to be watched, It is a danger.
  • step S150 if an abnormality is detected in step S146, even if it is not determined that the conversation has ended, the process repeats the loop from step S136 to step S148, and reaches step S150 via the abnormality handling process in step S156.
  • step S150 the cartilage conduction state is established, the process proceeds to step S152, where both hands of the robot 206 are retracted to release the face of the watching target person 201.
  • step S154 it is checked whether or not the power supply to the robot 206 is stopped by turning off the main power switch of the robot 206 or exhausting the rechargeable battery of the power supply unit 248. If power supply stoppage is not confirmed, the process returns to step S126. If no conversation start is detected in step S130, the process immediately returns to step S126.
  • step S126 to step S154 are repeated until it is confirmed in step S154 that the power supply is stopped, to cope with various situation changes of the robot 206.
  • step S158 performs a predetermined end process, and ends the flow. Note that this end processing includes a function of evacuating the robot 206 when both hands of the robot 206 remain in contact with the watched person's face as a fail safe.
  • FIG. 12 is a flowchart showing details of the two-hand contact process in step S140 of FIG.
  • step S140 is already executed in step S162, and it is checked whether or not the hand has been in contact with the watching target person 201.
  • the flow is immediately terminated, and nothing is performed in step S140.
  • step S140 even if it is detected in step S138 that the ambient volume is greater than or equal to the predetermined value, nothing is performed in steps S140 to S144 in the middle, and is substantially equivalent to having reached step S146 directly. Result.
  • step S140 is repeated in the middle of the conversation to change the state or repeatedly repeat the same process. It is done.
  • step S166 contact consent communication processing is performed.
  • skinship in this case, the robot 206 is the other party
  • step S140 through various judgments from step S130 to step S138 in FIG. 11, it does not take any unilateral action, respecting the intention of the watching target 201 and in FIG.
  • step S166 consent to contact is prompted.
  • step S166 the communication performed in step S166 is not limited to the straightforward “can you touch the face” based only on the language information of the air conduction sound, for example, after spreading both hands so as to hug first.
  • Body language such as shifting to a gentle wrapping action to surprise the opponent, may be used.
  • you may be made to try the total communication which added implicit hints, such as "Let's talk quietly” to such operation
  • the other party is observed with the 3D camera 238 and the stereo external air conduction microphone 246 while performing such an action, and the process proceeds to step S168.
  • step S168 it is checked whether or not there is an intention display of the person to be watched 201 due to a refusal action such as turning away the word or face of refusal of the person to be watched 201, and if it can be determined that there is no contact refusal intention display, the process proceeds to step S170.
  • step S170 it is checked whether or not the watching target person 201 is a wheelchair user. This is because if the user is a wheelchair user, the position of the face is relatively stable, and even if contact pressure is applied with the hand of the robot 206, there is little risk of falling. If it is not confirmed in step S170 that the user is a wheelchair user, the process proceeds to the seating guidance process in step S172.
  • step S174 a final confirmation is made as to whether there is no danger even if the hand is brought into contact with the face of the person 201 to be watched over.
  • This confirmation is best to confirm the seating of the person to be watched 201, but even if the person is standing, there is no anxiety on the legs and legs of the person to be watched 201 through the seating guidance process, and the risk of falling even if some pressure is applied to the face This includes cases where it is confirmed that there are few.
  • step S174 If the safety can be confirmed in step S174, the process proceeds to step S176, and the line-of-sight synchronization is started to match the direction of extending both hands to the face and the direction of the line of sight, and the process proceeds to step S178.
  • step S178 a two-hand adjustment process for driving the right joint mechanism 227a and the left joint mechanism 227b is executed based on information from the 3D camera 238 in order to wrap the face with both hands, and the process proceeds to step S180.
  • step S180 it is checked whether or not the load due to the contact of both hands with the face is detected by the load detection sensors of the right joint mechanism 227a and the left joint mechanism 227b.
  • step S178 If there is no detection, the process returns to step S178, and steps S178 and S180 are repeated until both hands touch the face.
  • step S180 the process proceeds to step S182, where the pressure limiter is turned on and restriction is started so that the pressure sandwiching the face of the watching target person 201 does not become excessive.
  • step S184 it can be determined that somewhere on both hands (including the fingers) of the robot 206 is in contact with somewhere on the binaural cartilage of the subject 201, and thus the process proceeds to step S184 and the bone-conducting microphones 244a and 244b and the cartilage
  • the conduction vibration sources 242a and 242b are turned on and the process proceeds to step S186.
  • the air conduction sound speaker 223 and the bone conduction microphones 244a and 244b are also used in the on state.
  • step S186 in the same manner as in the case of speech from the air conduction sound speaker 223, the synchronization is continued so that the mouth mechanism 209 moves in conjunction with the sound generated by the vibration of the cartilage conduction vibration sources 242a and 242b.
  • the tuning in step S186 is continued even if the air conduction sound speaker 223 is turned off in step S144 in FIG.
  • step S188 the two-hand interval holding / joint weakening process in step S188 is started.
  • the right joint mechanism 227a and the left joint mechanism 227b move so that both hands move in parallel while maintaining the relative distance and follow the free movement of the face of the watching target 201 without resistance. In other words, it is a process of controlling to follow in a weak state. This process is continued even if the flow proceeds from step S188.
  • step S190 while slightly correcting the bending of the left and right middle fingers 213a and 213b, the fingertips are in contact with the tragus of the watching target 201, and the bending of the left and right thumbs 221a and 221b is slightly corrected. Then, the process of making contact with the cheekbone of the watching target person 201 is started.
  • step S192 it is checked whether or not the middle fingers 213a and 213b are in contact with the tragus and the thumbs 221a and 221b are in contact with the cheekbones as a result of the above, and if the contact cannot be confirmed, the process proceeds to step S194.
  • step S194 it is checked whether or not a predetermined time has elapsed since the start of step S190. If the predetermined time has not elapsed, the process returns to step S190. Thereafter, steps S190 to S194 are repeated. In the repetition, when the finger contact with the tragus and cheekbone is confirmed in step S192, the flow is ended, and the process proceeds to step S142 in FIG. In this case, as described above, the process proceeds from step S142 to step S144, and the stereo external air conduction microphone 246 and the air conduction speaker 223 are turned off. On the other hand, also when it is confirmed that the predetermined time has elapsed in step S194, the flow is ended, and the process proceeds to step S142 in FIG. In this case, the process proceeds to step S146 without passing through step S144 in FIG. 11 while the stereo external air conduction microphone 246 and the air conduction speaker 223 are kept on and used together.
  • step S168 determines whether there is any intention to refuse contact. If it is determined in step S168 that there is any intention to refuse contact, the process proceeds to step S196, the heating of the human skin by the hand heaters 225a, 225b is stopped, and the flow ends. Similarly, when the safety check cannot be performed in step S174, the process proceeds to step S196, the heating of the human skin by the hand heaters 225a and 225b is stopped, and the flow is ended. In any of these cases, cartilage conduction due to contact between the hand of the robot 206 and the watching target person 201 is not performed, and communication using air conduction sound is continued.
  • the bone conduction microphone is provided on the thumb and the cartilage conduction vibration source is provided on the middle finger.
  • the cartilage conduction vibration source may be provided on the index finger.
  • a plurality of cartilage conduction vibration sources for one hand may be provided on each of a plurality of fingers of one hand.
  • the heating of the hand heater to the human skin is started when entering cartilage conduction, but the heater is always turned on to keep the temperature of the robot hand on the human skin. It is also possible to avoid feeling cold when touching the person being watched over.
  • step S140 the two-hand contact process of step S140 is entered only when it is confirmed that the registered cartilage conduction registrant is obtained in step S136 or when the surrounding sound volume is increased in step S138.
  • a free intention display from the watching target person 201 for example, when a statement that the monitoring target person 201 desires is confirmed with the stereo external air conduction microphone 246, Or when it is confirmed that the person 201 to be watched is performing an operation for obtaining cartilage conduction with the 3D camera 238, or when the person 201 to be watched takes the hand of the robot 206 and leads it to his / her ear
  • An interrupt may be issued based on the above and the process may proceed to step S140 in FIG.
  • the robot hand of Example 3 is provided with a tactile sensor for confirming the contact between the tragus of the person being watched over and the fingertip.
  • this may be replaced with an optical proximity sensor.
  • a sensor and an optical proximity sensor may be used in combination.
  • FIG. 13 is a system configuration diagram of Example 4 according to the embodiment of the present invention.
  • the fourth embodiment is configured as a robot 306 that can communicate with humans by cartilage conduction in the same manner as the third embodiment shown in FIGS.
  • the monitoring system in the residence is configured in the same manner as in the first embodiment, and human communication with the watching target person 201 is possible in the same manner as the robot 206 in the third embodiment. Since Example 4 of FIG. 13 has many common parts with Example 3, the same parts are denoted by the same reference numerals and description thereof is omitted unless necessary.
  • the robot 306 according to the fourth embodiment can wake up the watching target person 201 lying on the bed 350 and communicate by cartilage conduction as shown in FIG. Note that the robot 306 according to the fourth embodiment can communicate with the watching target person 201 who is independent as in the robot 206 according to the third embodiment.
  • the robot 306 wakes up the person 201 to be watched a little with both hands so as to face the face of the robot 306.
  • the robot 306 wakes up the person 201 to be watched a little with both hands so as to face the face of the robot 306.
  • the middle finger 313, the ring finger 351, and the little finger 352 inserted into the back of the head and neck of the watching target 201 mainly support the weight of the upper body of the watching target 201.
  • the thumb 321 provided with the cartilage conduction vibration source comes into contact with the tragus 232 of the person 201 to be watched, and transmits the voice from the robot 306 by cartilage conduction.
  • the index finger 354 provided with the bone conduction microphone comes into contact with the milky process of the watching target person 201, and picks up the voice of the watching target person 201 by the bone guide.
  • FIG. 14 is a block diagram of the robot 306 according to the fourth embodiment of the present invention shown in FIG. Portions common to those in FIG. 13 are denoted by the same reference numerals, and description thereof is omitted unless necessary.
  • the configuration of the right hand 211 different from the third embodiment is illustrated in relation to the control unit 340.
  • FIG. 10 which is a block diagram of the third embodiment and the description thereof are used, and the illustration is omitted or simplified in FIG. Further, with respect to the portions illustrated in FIG. 14, portions common to FIG. 10 are denoted by the same reference numerals and description thereof is omitted.
  • the middle finger 313 of the right hand 211 of the robot 306 is provided with a first cartilage conduction vibration source 242a and a first tactile sensor 231a.
  • a first bone-conducting microphone 244a is provided on the thumb 321 of the right hand 211 of the robot 306 to pick up bone conduction sound from the cheekbone or the like.
  • the thumb 321 is provided with a second cartilage conduction vibration source 342a, which conveys sound from the robot 306 by cartilage conduction by contacting the tragus 232 of the person 201 to be watched. Further, the thumb 321 is provided with a second tactile sensor 331a for monitoring the contact state of the person 201 to be watched with the tragus 232 to realize and maintain good cartilage conduction.
  • the index finger 354 is provided with a second bone-conduction microphone 344a, and picks up the voice of the watching target 201 by bone guide by contacting the milky process of the watching target 201.
  • the second cartilage conduction vibration source 342a, the second tactile sensor 331a, and the second bone conduction microphone 344a are switched to the first cartilage conduction vibration source 242a, the first tactile sensor 231a, and the first bone conduction microphone 244a described above. One of them will function.
  • a finger adjustment mechanism 355 for raising is provided between the middle finger 313, ring finger 351, little finger 352 and the right hand 211, and these are inserted into the back head and neck of the person 201 to be watched.
  • Each finger is supported so that the finger can support the weight of the upper body of the person 201 to be watched over.
  • the right joint mechanism 227a also supports the right hand 211 and the right arm 215 so that the weight of the upper body of the person 201 to be watched can be supported.
  • the right joint mechanism 227 follows in a horizontal direction without resistance in accordance with the free movement of the watched person 201's head while maintaining the vertical position so that the watched person 201's head is not excessively restrained. Control as follows. Further, in the vertical direction, when there is a movement of the head of the watching target person 201 exceeding a predetermined level, the weight of the upper body of the watching target person 201 is comfortably supported by following without resisting.
  • Example 4 As shown in FIG. 13, the person 201 to be watched lying on the bed 350 is naturally held up, and communication by cartilage conduction is taken in a more comfortable and comfortable state. Can do.
  • FIG. 15 is a flowchart showing a part of the function of the control unit 340 in the robot 306 of the fourth embodiment shown in FIG.
  • the flowchart of the overall function of the control unit 340 is the same as that of the third embodiment in FIG.
  • the flowchart in FIG. 15 will be described as details of the two-hand contact process in step S140 in the flowchart in FIG.
  • the head of the subject 201 is slowly returned to the bed 350 prior to releasing the face of the subject 201 in the two-hand retracting process of step S152.
  • the heating of the hand heater 225a is also stopped when the two-hand retracting process in step S152 is completed.
  • the flow chart of FIG. 15 starts when the flow of FIG. 11 reaches Step S140, and checks whether or not Step S140 has already been executed in Step S202 and the hand of the robot 306 has contacted the watching target person 201. When it is detected that contact has been made, it is determined that cartilage conduction has already been achieved, and the flow is immediately terminated. In this case, nothing is performed in step S140.
  • step S204 the rapid heating of the hand heaters 225a, 225b to the human skin is started, and the process proceeds to step S206.
  • step S206 contact consent communication processing is performed, and the intention of the person to be watched 201 is respected and the consent to the lifting contact is promoted. Communication at this time is the same as in the third embodiment. Then, the state is observed by the 3D camera 238 and the stereo external air conduction sound microphone 246 while waiting for the other party's response, and the process proceeds to step S208.
  • step S208 it is checked whether or not there is an intention display of the watching target person 201 due to the word or words of refusal of the watching target person 201, and if it can be determined that there is no contact refusing intention display, the process proceeds to step S210.
  • step S210 it is checked whether or not the watching target person 201 is a lying person. If it can be confirmed in step S210 that the person 201 to be watched is a lying person, the first cartilage conduction vibration source 242a, the first tactile sensor 231a, and the first bone-conduction microphone 244a are deactivated, and the second cartilage The conduction vibration source 342a, the second tactile sensor 331a, and the second bone-conducting microphone 344a are set in the operating state. As a result, switching to a state in which cartilage conduction is performed by the thumb 321 is completed, and the process proceeds to step S214.
  • step S214 line-of-sight synchronization is started to match the direction of extending both hands to the face and the line of sight, and the process proceeds to step S216.
  • step S216 the left and right joint mechanisms 227a and 227b and the lifting finger adjustment mechanism 355 are driven based on the information of the 3D camera 238 to watch the little finger 352 from the middle finger 313 of the robot 306 and A process of waking up and hugging is executed, and the process proceeds to step S218.
  • step S218 the degree of bending of the thumb 321 and the index finger 354 is finely adjusted in accordance with information from the second tactile sensor 331a (the first tactile sensor 231a is used in combination, as well as the following) and the 3D camera 238, The process which contacts each tragus and milky process is performed, and it transfers to step S220.
  • step S220 it is checked whether or not the above contact has been realized based on information from the second tactile sensor 331a and the 3D camera 238. If there is no confirmation, the process returns to step S218, and steps S218 and S220 are repeated until contact is confirmed.
  • step S220 the process proceeds to step S222, where the pressure limiter is turned on and restriction is started so that the pressure to pinch the face of the watching target person 201 with both thumbs 321 and index finger 354 does not become excessive.
  • step S224 the process proceeds to step S224, the second bone conduction microphone 344a and the second cartilage conduction vibration source 342a are turned on, and the process proceeds to step S226.
  • step S226 the mouth mechanism 209 is tuned to move in conjunction with the sound generated by the vibration of the second cartilage conduction vibration source 342a, and the process proceeds to step S228.
  • step S2208 a process of de-energizing the joint is started so that both hands can move in parallel in the horizontal direction while maintaining the distance between the thumbs of both hands and the distance between the two index fingers.
  • this is a process of controlling the fingers of the robot 306 so that both hands follow in a weak state in accordance with the free movement of the head without restraining the person 201 to be watched over. This process is continued even if the flow proceeds from step S228.
  • step S228 When the process of step S228 is started, the process proceeds to step S230, and it is reconfirmed whether the thumb 321 and the index finger 354 are in contact with the tragus and the mastoid process according to the information of the second tactile sensor 331a and the 3D camera 238, respectively.
  • step S230 the flow ends. As a result, the flow moves to step S142 in FIG.
  • step S232 it is checked whether or not a predetermined time has elapsed since the start of step S218. If the predetermined time has not elapsed, the process returns to step S218.
  • step S218 to step S232 are repeated.
  • the flow is finished, and the step of FIG. The process proceeds to S142.
  • step S142 is read as “confirmation of contact with tragus / milky protrusion?” In the case of dealing with a lying person.
  • step S208 when it is determined in step S208 that the person 201 to be watched has made the intention to refuse contact even a little, the process proceeds to step S234 to stop the heating of the human skin by the hand heater 225a and execute the flow. Exit. In this case, cartilage conduction by contact between the hand of the robot 306 and the watching target person 201 is not performed, and communication by air conduction sound is continued.
  • step S210 If it is not confirmed in step S210 that the person 201 to be watched is a lying person, the process proceeds to step S236, and the second cartilage conduction vibration source 342a, the second tactile sensor 331a, and the second bone conduction microphone 344a are not connected.
  • the operation state is set, and the first cartilage conduction vibration source 242a, the first tactile sensor 231a, and the first bone conduction microphone 244a are set in the operation state.
  • step S238 switching to the state in which cartilage conduction is performed by the middle finger 313 is completed, so the process proceeds to the independent process in step S238, and when the process is completed, the flow ends.
  • the independent person process of step S238 is the same as step S170 to step S196 of FIG.
  • FIG. 16 is a system configuration diagram of Example 5 according to the embodiment of the present invention.
  • the fifth embodiment is configured as a robot 406 that can communicate with a person by cartilage conduction in the same manner as the third embodiment shown in FIGS. 9 to 12.
  • the robot 406 is configured as a customer reception system in the bank.
  • it enables smooth communication with a specific customer under the noise of a bank where many customers are visiting, and provides a useful system from the viewpoint of privacy protection. Since Example 5 of FIG. 16 has many common parts with Example 3, the same number is attached
  • Example 5 shown in FIG. 16 differs from Example 3 shown in FIG. 9 in that the robot 406 can maintain good cartilage conduction even if it touches the customer's ear with one hand. It is a point to deal with the hygiene problem at the time of sequential contact and to enable a fine-tuned response to customers.
  • the robot 406 is in contact with the left ear of the customer 401 with only the right hand 211.
  • the middle finger 413 is in contact with the tragus 232 and the thumb 421 is in contact with the cheekbone, as in the third embodiment of FIG.
  • FIG. 17 is a block diagram of the robot 406 according to the fifth embodiment of the present invention shown in FIG. Portions common to those in FIG. 16 are denoted by the same reference numerals, and description thereof is omitted unless necessary.
  • the configuration of the right hand 211 different from the third embodiment is related to the control unit 440 in the same manner as the fourth embodiment. It is shown.
  • FIG. 10 which is a block diagram of the third embodiment and the description thereof are used, and the illustration is omitted or simplified in FIG. Further, with respect to the portions illustrated in FIG. 17, portions common to FIG. 10 are denoted by the same reference numerals and description thereof is omitted.
  • the middle finger 413 of the right hand 211 of the robot 406 is provided with an acceleration sensor 456 in addition to the cartilage conduction vibration source 442a and the tactile sensor 431a.
  • the acceleration sensor 456 detects the acceleration of the middle finger 413 dragged by the movement of the head due to contact friction.
  • the control unit 440 determines the head movement by combining the acceleration information detected by the acceleration sensor 456, the contact pressure change information detected by the tactile sensor 431a, and the head movement information detected by the 3D camera 238. To do. Based on this determination, the right joint mechanism 227 is driven to cause the movement of the right hand 211 to follow the movement of the head. Thereby, even if the customer 401's head moves, the contact between the middle finger 413 and the tragus and the contact between the thumb 421 and the cheekbone are maintained.
  • the ring finger 451 is provided with an IC tag reader 457. This is for reading the information of the IC tag provided on the accessory when the right hand 211 of the robot 406 touches the accessory distributed to the customer 401 (described later). As shown in FIG. 16, when the robot 406 directly touches the ear of the customer 401, the IC tag reader 457 does not read the customer information. The jewelry and its significance will be described later.
  • FIG. 18 is a flowchart showing functions of the control unit 440 in the robot 406 of the fifth embodiment shown in FIG.
  • the flow starts when power supply is started by the main power switch of the robot 406.
  • the pairing status for short-range communication with the bank management unit is confirmed in step S242, and if it is not set, pairing setting is automatically performed.
  • step S246 a process for starting the normal reception function is performed.
  • This normal reception function is a function in which the robot 406 interacts with the customer 401 by normal air conduction sound in the bank.
  • step S248 it is determined whether or not the conversation with the customer 401 should be started. If it is determined in step S248 that the conversation starts, the process proceeds to step S250. First, the stereo external air conduction microphone 246 and the air conduction speaker 223 (see FIG. 10) are turned on, and a normal air conduction sound conversation is prepared. The Next, in step S252, it is checked whether or not the customer 401 is a registrant (discussed below) who should have a conversation by cartilage conduction. If it is not confirmed in step S252 that the person is a cartilage conduction registrant, the process proceeds to step S254 to check whether or not the surrounding air conduction sound is equal to or higher than a predetermined level.
  • step S254 the process proceeds to step S256.
  • step S256 it is checked whether or not the customer 401 agrees that the robot 406 touches the ear for cartilage conduction. If the consent can be confirmed, the process proceeds to step S258. On the other hand, if it is determined in step S252 that the customer 401 is a registrant, the process immediately proceeds to step S258.
  • step S258 a process for bringing one hand of the robot 406 into contact with one ear of the customer 401 for cartilage conduction and maintaining it is started. Details thereof will be described later.
  • step S260 confirmation is made that the middle finger 413 of the robot 406 is in contact with the watch 401 of the customer 401 and the thumb 421 is in contact with the cheekbone of the customer 401. Done.
  • step S262 the stereo external air conduction sound microphone 246 and the air conduction sound speaker 223 (see FIG. 10) are turned off, and the bone conduction microphone 244a and the cartilage conduction vibration source 442a are turned on.
  • step S264 Thereby, the conversation by the air conduction sound is switched to the conversation by the cartilage conduction and the bone conduction microphone 244a.
  • step S264 it is checked whether or not the customer 401 is a registrant (to be described later) who should have a conversation by cartilage conduction. If it is confirmed that the customer is a registrant, the process proceeds to step S266 to perform IC tag management processing. Transition. The contents of the IC tag management process in step S266 will be described later. On the other hand, if it is not confirmed in step S264 that the customer 401 is a registrant, the process proceeds to step S270, and general menu processing is performed in a state where the hand of the robot 406 directly touches the customer 401 (state shown in FIG. 16), and the process proceeds to step S268. Transition.
  • step S260 if the contact with the tragus and cheekbones cannot be confirmed in step S260, the process directly proceeds to step S268. Further, in step S254, if the surrounding air conduction sound is not determined to be greater than or equal to the predetermined value, or in step S256, the customer 401's consent for the robot 406 to touch the ear for cartilage conduction could not be confirmed. Also in this case, the process directly proceeds to step S268.
  • step S268 it is determined whether or not the conversation with the customer 401 by the robot 406 has been completed. Similar to the third embodiment, this determination is comprehensively performed by checking whether or not each other's silent state has continued for a predetermined time or more, analyzing the contents of the conversation, and the presence or absence of a keyword unique to the end of the conversation. If it is not determined in step S268 that the conversation reception has ended, the process returns to step S252, and steps S252 to S268 are repeated until it is determined that the conversation reception has ended. By repeating this process, when the surrounding sound volume becomes equal to or higher than the predetermined level in step S254 in a state where the cartilage conduction has not yet been executed, the transition to the cartilage conduction becomes possible.
  • step S268 when it is determined in step S268 that the conversation response has been completed, the process proceeds to step S272, where it is checked whether the cartilage conduction state is present. If it is in the cartilage conduction state, the process proceeds to step S274, the one hand of the robot 406 is retracted, and the process proceeds to step S276. At this time, as described later, when the customer 401 is holding the hand of the robot 406 with his / her hand as described later, the customer 401 naturally moves while monitoring the load of the customer 401's hand so that the customer's 401 hand cannot be repelled. Perform gentle evacuation until you release your hand. On the other hand, if it is confirmed in step S272 that the cartilage conduction state is not established, the process directly proceeds to step S276.
  • step S276 it is checked whether or not the power supply to the robot 406 is stopped by turning off the main power switch of the robot 406 or exhausting the rechargeable battery of the power supply unit 248 (see FIG. 10). If power supply stoppage is not confirmed, the process returns to step S248. Hereinafter, step S248 to step S276 are repeated until it is confirmed in step S276 that the power supply is stopped, and various changes in the situation of the robot 406 are dealt with. On the other hand, when power supply stoppage is confirmed in step S276, the process reaches step S278, where a predetermined end process is performed and the flow is ended.
  • this termination processing includes a function of evacuating the robot 406 in the event that one hand of the robot 406 is still extending in the direction of the face of the customer 406 as fail-safe. In the evacuation, safety measures are taken such that the customer 406 cannot be repelled as described in step S274.
  • FIG. 19 is a flowchart showing details of the one-hand contact / maintenance process in step S258 of FIG.
  • step S282 it is checked in step S282 whether or not the hand of the robot 406 has contacted the customer 401. If it is not detected that the contact has been made, the process proceeds to step S284, where rapid heating of the human skin by the hand heater 225a is started, and the process proceeds to step S286.
  • step S286 contact guidance communication processing is performed. The guidance is mainly performed by air conduction sound, but may be visually performed by providing a display unit on the chest of the robot 406.
  • the content is basically an explanation of the communication itself by cartilage conduction, but the method of taking the hand of the robot 406 with the customer 401's own hand and guiding it to the ear, or the robot 406 automatically puts on the face of the customer 401. It introduces specific contact methods such as reaching out and trying to contact, and includes communication that asks for a choice. After such communication, the process proceeds to step S288.
  • step S288 it is determined whether or not the customer 401 has selected a method of taking the hand of the robot 406 with his / her hand and guiding it to the ear. This determination includes not only the selection response of the customer 401 but also a case of detecting that the customer 401 has suddenly started to take the hand of the robot 406 and lead it to his / her ear. If it is determined in step S288 that the customer 401 has not selected the touch contact, the process proceeds to step S290, and the line-of-sight synchronization is started to match the direction of extending the one hand of the robot 406 to the face of the customer 401 and the line of sight of the robot 406. Then, the process proceeds to step S292.
  • step S292 one-hand adjustment processing for driving the right joint mechanism 227a (or the left joint mechanism 227b) based on information from the 3D camera 238 is performed in order to automatically extend one hand and bring the finger into contact with the customer 401's ear. Execute, and proceed to step S294. In step S294, it is checked whether or not a load due to the contact of one hand with the face is detected by the load detection sensor of the right joint mechanism 227a. If there is no detection, the process returns to step S292, and steps S292 and S294 are repeated until one hand contacts the face.
  • step S294 When a load is detected in step S294, the pressure limiter is turned on to start restriction so that the pressure with which the hand of the robot 406 pushes the face of the customer 401 from one side does not become excessive, and the process proceeds to step S296.
  • the above pressure limiter prevents an accident in which the robot 406 pushes the customer 401 sideways.
  • step S288 if it is determined in step S288 that the customer 401 has selected the method of taking the hand of the robot 406 with his / her hand and guiding it to the ear, the process proceeds to the joint weakening process in step S298 and does not resist the movement of the customer 401's hand.
  • the hand of the robot 406 is left guided. This weakening process balances the vertical direction of the arm of the robot 406 in a weightless state and moves it up, down, left and right without resistance so that the load of the weight of the hand of the robot 406 is not applied to the hand of the customer 401.
  • the robot 406 is supported on the body 219 (see FIG. 10). If it is confirmed in step S298 that one hand of the robot 406 has touched the face with the customer 401's own hand, the process proceeds to step S296.
  • step S296 the bone conduction microphone 244a and the cartilage conduction vibration source 442a are turned on, and the process proceeds to step S300.
  • the air conduction sound speaker 223 see FIG. 10
  • the bone conduction microphone 244a are also used in the on state.
  • step S300 as in the case of the utterance from only the air conduction sound speaker 223, the synchronization is continued so that the mouth mechanism 209 (see FIG. 10) moves in conjunction with the sound generated by the vibration of the cartilage conduction vibration source 442a.
  • the tuning in step S300 is continued even if the air conduction sound speaker 223 is turned off in step S262 in FIG.
  • step S302 finger adjustment processing in step S302 is started.
  • This is a process in which the fingertip comes into contact with the tragus of the customer 401 while finely correcting the bending state of the middle finger 413 and the bending state of the thumb 421 is finely corrected so as to contact the cheekbone of the customer 401.
  • step S304 it is checked whether or not the middle finger 413 has come into contact with the tragus as a result of the above, and the thumb 421 has come into contact with the cheekbone. It registers as a pressure of 431a and an image of the 3D camera 238 (see FIG. 10). Then, the process proceeds to step S308, and monitoring of output changes of the acceleration sensor 456 and the contact sensor 431a is started.
  • step S310 monitoring of the change of the face recognition position by the 3D camera 238 is started.
  • step S312 it is checked whether there is a change in output of the acceleration sensor 456 and the contact sensor 431a and a change in the face recognition position by the 3D camera 238. If there is any change, the process proceeds to step S314, and a follow-up process is performed in which the hand of the robot 406 follows the detected head movement, and the flow ends. As described above, these processes are performed by detecting the acceleration of the middle finger 413 moved by the movement of the head by contact friction with the acceleration sensor 456 and changing the contact pressure detected by the tactile sensor 431a (the head is the robot 406).
  • the control unit 440 comprehensively takes into account information on the movement of the head detected by the 3D camera 238, in addition to detecting pressure reduction when the head moves away from the hand, and pressure increase when the head moves in the direction of pressing the hand of the robot 406.
  • the movement of the head is determined by following the direction of the robot 406 in the direction to compensate for the movement, so that the contact of the middle finger 413 and the tragus and the contact of the thumb 421 and the cheekbone can be performed even when the head of the customer 401 moves. It is a process to maintain. If none of the output changes of the acceleration sensor 456 and the contact sensor 431a and the change of the face recognition position by the 3D camera 238 are detected in step S312, the head is considered to be stationary and the flow is immediately terminated.
  • step S316 it is checked whether or not a predetermined time has elapsed since the start of step S302. If the predetermined time has not elapsed, the process returns to step S302, and the loop of step S302, step S304 and step S316 is repeated until contact is detected in step S304 or until the elapse of the predetermined time is detected in step S316. If the passage of a predetermined time is detected in step S316, the flow is immediately terminated. When the flow in FIG. 19 is terminated by any of the above, the process proceeds to step S260 in FIG.
  • FIG. 20 is a side view showing a state in which the middle finger 413 of the robot 406 is in contact with the tragus 232 of the customer 401 via the accessory in the fifth embodiment described with reference to FIGS. 16 to 19. Although the entire system is the same as that in FIG. 16, illustrations other than the contact portion are omitted.
  • ear warmers 461 are attached to both ears as an example of an accessory. The tragus 232 is hidden under the ear warmer 461, and the middle finger 413 of the robot 406 is indirectly in contact with the tragus 232 of the customer 401 via the ear warmer 461.
  • a hair band 462 is attached to the head as an example of the accessory.
  • the tragus 232 is hidden under the hair band 462, and the middle finger 413 of the robot 406 is indirectly in contact with the tragus 232 of the customer 401 via the hair band 462.
  • an ear cuff 463 is attached to the tragus as an example of an accessory.
  • the middle finger 413 of the robot is in contact with the tragus of the customer 401 indirectly from the top of the ear cuff 463.
  • a child character goods 464 is attached to the ear as an example of the accessory.
  • the tragus is hidden under the children's character goods 464, and the middle finger 413 of the robot 406 is indirectly in contact with the tragus of the customer 401 via the children's character goods 464.
  • These accessories are distributed to the customers 401 as gifts in exchange for the customers 401 visiting the bank registering their personal information and consultation requirements.
  • the jewelry is provided with an IC tag, and the customer ID is written by the bank management unit.
  • an IC tag reader 457 is provided in the hand of the robot 406 (for example, the ring finger 451). When the hand of the robot 406 comes close to the accessory as shown in FIG. 20, the ID of the customer 401 can be read. .
  • the jewelry shown in FIG. 20 is significant as a hygiene measure. An unspecified number of customers visit the bank, and the hands of the robot 406 touch the ears of many customers. At this time, from the viewpoint of hygiene, the hands of the robot 406 who do not know who touched it can be touched. Some customers dislike it.
  • the jewelry shown in FIG. 20 prevents the hand of the robot 406 from directly touching the customer's skin by covering the ear, and can meet such a customer's request. Wearing the accessory has the advantage that the customer 401 can be specified by the IC tag, and appropriate and fine-tuned response can be made for each customer according to the consultation requirements registered in advance. Therefore, since the customer can receive the gift of jewelry and enjoy the benefits of hygiene and receiving a more appropriate response, the incentive to visit the bank for contact with the robot 406 is further increased.
  • FIG. 21 is a system block diagram of the entire bank in the fifth embodiment, in which a portion related to the function of the IC tag is extracted and illustrated.
  • the same parts as those in FIGS. 17 and 20 are denoted by the same reference numerals, and description thereof is omitted unless necessary.
  • the bank management unit 472 responds to the customer before the customer contacts the robot 406. Then, the customer is specified by the reception data input unit 476 (keyboard or bank card reader input by the reception operator), and the requirement information that the customer wants to consult is input.
  • the bank control unit 478 stores the information input as described above in the customer database 480 and writes the customer ID into the IC tag 470 of the accessory 461 (represented by the ear warmer 461) by the IC tag reader 482, The accessories 461 are distributed as gifts to the received customers.
  • the IC tag reader 457 provided on the ring finger 451 is written to the IC tag 470 provided on the accessory 461.
  • the customer ID is read, and the specific information of the customer 401 currently in contact is transmitted from the short-range communication unit 213a to the short-range communication unit 474 of the bank management unit 472.
  • the bank management unit 472 reads the requirement information of the corresponding customer 401 stored in the customer database 480 and sends it back from the short-range communication unit 474 to the short-range communication unit 213a of the robot 406.
  • the robot 406 can communicate with a specific customer 401 in accordance with consultation requirements registered in advance.
  • the vibration of the cartilage conduction vibration source 442a provided on the middle finger 413 of the robot 406 is indirectly transmitted to the tragus 232 via the accessory 461, and the bone-conduction microphone 244a transmits the remarks of the customer 401. This is done by picking up.
  • FIG. 22 is a flowchart showing functions of the bank control unit 478 of FIG. The flow starts with the opening of the bank on the day, and in step 320 it is checked whether a response related to customer registration is required. If there is a request, the process proceeds to step S322, and it is checked whether or not the request is a new registration of the customer. If it is new registration, mutual consent processing regarding privacy protection is performed with the customer in step S324, and the process proceeds to step S326. In step S326, a customer ID is assigned.
  • step S328 it is checked whether or not the input of customer information is completed. If it is completed, it is checked in step S330 whether or not the input of customer information is completed. And if this is also completed, it will transfer to step S332, will store customer information and business information for every assigned ID in the customer database 480, and will transfer to step S334.
  • step S334 it is checked whether or not the ID writing to the IC tag of the accessory distributed to the registered customer is completed, and if the completion is confirmed, the process proceeds to step S336. At this time, accessories are distributed to customers. On the other hand, if new registration is not requested in step S322, it is determined that registration has been completed and the accessory has been distributed, and the process directly proceeds to step S336.
  • step S336 it is checked whether or not the robot 406 has read and transmitted the customer ID of the customer 401 in contact with the IC tag reader 457. If there is a transmission, the process proceeds to step S338, and the customer information corresponding to the received customer ID is read from the customer database 480. In step S340, the business information corresponding to the received customer ID is read from the customer database 480. In step S342, the read data is transmitted to the robot 406.
  • step S344 it is checked whether or not a conversation record based on cartilage conduction is received from the robot 406. If there is a received conversation record, the process proceeds to step S346, where it is analyzed as conversation information for each customer ID, organized and written into the customer database 480, and the process proceeds to step S348. If reception is not confirmed in step S344, the process proceeds directly to step S348. In step S348, it is checked whether or not the response to the customer 401 by the robot 406 has been completed. If not, the process returns to step S344, and steps S344 to S348 are repeated until the reception is completed. When the end of the response is detected in step S348, the flow ends.
  • step S336 if it is not confirmed in step S336 that the robot 406 has read and transmitted the customer ID, the flow is immediately terminated. If a request for reception related to customer registration is not confirmed in step 320, the process proceeds to step S 350, a general reception process not involving the process by the IC tag 470 is performed, and the flow is terminated.
  • FIG. 23 is a perspective view regarding Example 6 according to the embodiment of the present invention, and is configured as a reception system in a bank similar to Example 5.
  • Example 5 is a system using a humanoid robot
  • Example 6 is equipped with a display facing the customer and the side of the display, and the expansion / contraction that the customer can guide to his / her ear with his / her hand. It is configured as a system having a free cartilage conduction transmitter / receiver.
  • FIG. 23A is a front view of the installation type response apparatus 701, and the installation type reception apparatus 701 includes a large screen display unit 705 that also serves as a touch panel.
  • the installation type response device 701 is provided with a telescopic cartilage transmission / reception unit 781 connected by a universal joint 703 on the right side thereof.
  • the cartilage conduction transmitter / receiver 781 has a cartilage conduction portion 724 at the upper end and a microphone 723 at the middle portion.
  • the cartilage conduction transmitter / receiver 781 has a telescopic structure that allows the cartilage conduction part 724 to be drawn upward as will be described later.
  • FIG. 23 (A) shows a state in which the cartilage transmission / reception unit 781 is basically stored in the right side of the installation type response device 701 without using it.
  • FIG. 23 (B) shows a state in which the cartilage conduction transmitter / receiver 781 of the stationary response device 701 is used.
  • the customer's own hand slides the slide part 781c in the direction of the arrow 781a to pull the cartilage conduction part 724 upward, and moves the cartilage conduction part 724 forward in the direction of the arrow 781b. It is possible to defeat.
  • the cartilage conduction transmitter / receiver 781 is connected to the installation type response device 701 by the universal joint 703, the direction of the tilt is not limited to the front, but can be tilted in any direction.
  • the pulled cartilage conduction unit 724 is applied to the ear cartilage with the customer's own hand, and the bank information is heard by voice even under bank noise. be able to.
  • one's own voice can be picked up by the microphone 723 that comes near the mouth in such a state.
  • the cartilage conduction portion 724 is balanced so as not to fall down due to its own weight or apply a load to the customer, and is supported in a weak state so as not to resist the movement of the customer's hand. This point is common to the fifth embodiment.
  • a method of pulling out the cartilage conduction unit 724 is displayed on the large screen display unit 705 so that the first customer can correctly communicate with the bank by cartilage conduction.
  • the IC tag is shown as means for holding the customer ID in the fifth embodiment, what can be adopted as such information holding means is not limited to the IC tag but may be a barcode or a two-dimensional barcode.
  • the information holding means is not limited to the configuration in which the customer ID is directly held, but the accessory ID that can distinguish the accessory is held, and the information that associates which accessory is distributed to which customer is held in the customer database. The wearer can be indirectly specified by reading the accessory ID.
  • the one-hand contact / maintenance process described in FIG. 19 of the fifth embodiment is also effective in the case of transmitting vibrations indirectly to the tragus etc. via the accessory as shown in FIG. Absent.
  • a feature of the embodiment disclosed in the present specification is that between the watch detection device and the watch detection device that is mounted on the ear with the cartilage conduction vibration source and the watch detection sensor open and the ear canal entrance is opened.
  • a watch system characterized by having a watch notification device that receives watch information from the watch detection sensor by short-range communication. This makes it possible to mount a comfortable watching detection device.
  • the watching detection device has an external air conduction sound microphone, and functions as a hearing aid by vibrating the cartilage conduction vibration source by an audio signal picked up by the external air conduction sound microphone. Thereby, it can watch over using the hearing aid used on a daily basis.
  • the watch detection device vibrates the cartilage conduction vibration source by an audio signal received from the watch notification device by short-range communication. Thereby, watching can be performed using a device that listens to an audio signal from another device such as a mobile phone.
  • the watching detection sensor is a mastication movement sensor.
  • the watch detection sensor is an audio sensor.
  • the voice sensor is a bone conduction microphone or an air conduction microphone.
  • the monitoring notification device notifies the outside when the detection signal cannot be received from the monitoring detection sensor for a predetermined time.
  • a plurality of watch notifications that receive watch information from the watch detection device by short-range communication between the watch detection device and the watch detection device.
  • a watching system characterized by exchanging watch information received between the plurality of watch notification devices.
  • a plurality of watch notifications that receive watch information from the watch detection device by short-range communication between the watch detection device and the watch detection device.
  • a monitoring system wherein the plurality of monitoring notification devices perform different notifications based on the monitoring information.
  • the plurality of monitoring notification devices include a mobile phone and a notification device installed in a residence.
  • the monitoring information is received from the monitoring sensor by short-range communication between the monitoring sensor having an audio sensor and the monitoring sensor.
  • the monitoring notification device notifies the outside of the presence or absence of a voice signal picked up by the voice sensor and does not report the contents of the voice signal. This protects the privacy of the person being watched over.
  • the monitoring notification device determines the urgency of the audio signal picked up by the audio sensor, and reports the content of the audio signal as an exception when the urgency is high. As a result, for example, a specific report by a live voice can be obtained in a scream or a rescue request.
  • the apparatus has a cartilage conduction vibration source and a monitoring sensor, and is mounted on the ear with the ear canal entrance open.
  • a monitoring device is provided. This makes it possible to mount a comfortable watching detection device.
  • the watching detection device has an external air conduction sound microphone, and functions as a hearing aid by vibrating the cartilage conduction vibration source by an audio signal picked up by the external air conduction sound microphone.
  • the cartilage conduction vibration source is vibrated by a voice signal received from the watch notification device by short-range communication, and functions as a device that listens to a voice signal from another device such as a mobile phone. .
  • the watching detection sensor is a mastication movement sensor.
  • the mastication motion sensor can also be used as the cartilage conduction vibration source.
  • the watch detection sensor is an audio sensor. More specifically, the voice sensor is a bone conduction microphone. More specifically, the bone-conduction microphone can also be used as the cartilage conduction vibration source.
  • the watching detection sensor includes an air conduction sound microphone for a hearing aid function, and turns off the air conduction sound microphone when the bone conduction microphone is used.
  • said voice sensor is an air conduction microphone.
  • the acquisition unit of the monitoring information from the audio sensor, and the outside of the presence or absence of the audio signal acquired by the acquisition unit and the content of the audio signal There is provided a watching and reporting device characterized by having a reporting unit that does not report. This protects the privacy of the person being watched over.
  • the reporting unit determines the urgency of the audio signal acquired by the acquiring unit, and reports the content of the audio signal as an exception when the urgency is high.
  • the embodiment disclosed in the present specification provides a robot characterized by having a hand and a cartilage conduction vibration source provided in the hand. As a result, it is possible to communicate by cartilage conduction between the robot and a human by natural movement.
  • the robot has both hands, and the cartilage conduction vibration source is provided in each of the both hands.
  • the cartilage conduction vibration source is provided in each of the both hands.
  • the robot has a finger on the hand, and the cartilage conduction vibration source is provided on the finger. Thereby, more efficient cartilage conduction becomes possible.
  • it has a joint mechanism that guides the entire hand to contact the ear cartilage and adjusts the finger to guide the tragus. This allows adjustment for proper cartilage conduction.
  • a control unit that controls the two hands to keep the relative positions of both hands and not restrain the movement of the face.
  • the robot has. Thereby, cartilage conduction without a feeling of restraint becomes possible.
  • the robot has an eye whose appearance is movable and is moved in synchronism so that the line of sight of the eye faces between the hands. This enables intimate communication with the robot through cartilage conduction.
  • the robot has a mouth mechanism whose appearance is movable, and the mouth mechanism is controlled to move in conjunction with the sound transmitted by the vibration of the cartilage conduction vibration source. This enables communication by natural cartilage conduction.
  • the robot has a limiter for limiting the contact pressure when the hand contacts the ear cartilage so as to transmit the vibration of the cartilage conduction vibration source to the ear cartilage. This enables communication by safe cartilage conduction.
  • the robot has a communication means for requesting consent when the hand contacts the ear cartilage so as to transmit the vibration of the cartilage conduction vibration source to the ear cartilage.
  • a communication means for requesting consent when the hand contacts the ear cartilage so as to transmit the vibration of the cartilage conduction vibration source to the ear cartilage.
  • the robot has a control unit for confirming safety in advance when the hand is brought into contact with the ear cartilage so as to transmit the vibration of the cartilage conduction vibration source to the ear cartilage.
  • a control unit for confirming safety in advance when the hand is brought into contact with the ear cartilage so as to transmit the vibration of the cartilage conduction vibration source to the ear cartilage.
  • the robot has an abnormality detection means, and when the hand contacts the ear cartilage to transmit the vibration of the cartilage conduction vibration source to the ear cartilage, the abnormality detection means detects the abnormality. When detected, contact with the ear cartilage of the hand is released. This avoids problems in the event of an emergency.
  • a robot characterized by having a hand and a heater for heating the hand to human skin. This makes it possible to realize a comfortable skinship.
  • an embodiment disclosed in the present specification includes a cartilage conduction part for transmitting vibration to a human ear cartilage, and a jewelry worn by the person and covering at least a part of the ear cartilage.
  • a cartilage conduction listening system is provided, wherein vibration of the cartilage conduction part is transmitted to the ear cartilage indirectly through the accessory.
  • the cartilage conduction part is shared by a large number of people, and the accessory is individually worn by the large number of people. Accordingly, it is possible to realize a listening system that can hygienically enjoy the benefits of cartilage conduction despite sharing a cartilage conduction portion that does not know who touched it.
  • the accessory is configured as any one of an ear warmer, a hair band, an ear cuff, and an ear wearing character goods. As a result, the motivation to wear the accessory naturally becomes possible.
  • the cartilage conduction listening system of the present embodiment is configured as a bank response system.
  • the advantage of the listening system of the present invention that can enjoy the advantage of cartilage conduction in a sanitary manner, even though the cartilage conduction part that does not know who has touched it, can be suitably used.
  • an information holding unit that holds information for specifying a wearer is provided in the accessory, and the cartilage conduction unit is connected to the accessory. Means for reading the information in a state in which vibration of the cartilage conduction portion can be transmitted to the ear cartilage via This makes it possible to provide a listening system that can respond precisely to the wearer's request, so that motivation to wear the accessory is possible.
  • the information is wearer information.
  • the information is information for specifying an accessory, and a relationship information holding means for holding information indicating a relationship between the wearer and the accessory is provided.
  • the cartilage conduction part is provided on the finger of the robot. As a result, contact with the ear cartilage is increased and cartilage conduction can be effectively utilized.
  • the robot is provided with a joint mechanism for holding the arm of the robot so as not to resist when the person guides the finger of the robot to the ear cartilage.
  • the cartilage conduction portion can be reliably guided to the ear cartilage, and smooth cooperation for cartilage conduction can be performed between the human and the robot.
  • the cartilage conduction part transmits vibration to the ear on one side of the person, and a follow-up means is provided for causing the robot's finger to follow the movement of the person's head. Accordingly, it is possible to prevent the vibration transmission from being interrupted by the movement of the person's head even though the vibration is transmitted to the ear on one side.
  • the present embodiment has a cartilage conduction part for transmitting vibration to the human ear cartilage, and a support part that movably supports the cartilage conduction part, and the support part includes the human cartilage conduction part.
  • a cartilage conduction listening system is provided, wherein the cartilage conduction part is supported so as not to resist the cartilage when it is guided to the ear cartilage. Thereby, the cartilage conduction part can be reliably guided to the ear cartilage without causing discomfort to the user.
  • the cartilage conduction part is provided on a robot finger.
  • the cartilage conduction listening system of the present embodiment has a display screen, and the cartilage conduction part is supported on the display screen by the support part.
  • a cartilage conduction portion provided on a finger of a robot for transmitting vibration to a human ear cartilage, and when the cartilage conduction portion transmits vibration to one ear of the person
  • a cartilage conduction listening system comprising: follower means provided on the robot for causing the robot's finger to follow the movement of the human head. Accordingly, it is possible to prevent the vibration transmission from being interrupted by the movement of the person's head even though the vibration is transmitted to the ear on one side.
  • the robot has a cartilage conduction portion provided on the first finger of the robot to transmit vibration to the human ear cartilage, and the second finger of the robot A cartilage conduction listening system characterized by supporting the head is provided.
  • the first fingers of the left and right hands of the robot are respectively provided with vibrations to the left and right ear cartilages of the person, and the second hands of the left and right hands of the robot are provided.
  • the person's head is supported by a finger.
  • the first finger is a thumb and the second finger is a middle finger.
  • a suitable robot used for the various cartilage conduction listening systems as described above is provided.
  • the present invention can be applied to a robot that can communicate with humans or a response system in a bank or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Neurosurgery (AREA)
  • Otolaryngology (AREA)
  • Nursing (AREA)
  • Telephone Function (AREA)
  • Telephone Set Structure (AREA)

Abstract

軟骨伝導振動源を設けたロボットの両手で人の顔を包むか、後頭部を抱くか、片手で耳軟骨に触れる。両耳の軟骨に接触する両手の相対位置は維持しつつ顔の動きを拘束しない。ロボットの視線方向にロボットの手を伸ばす。ロボットの口の動きと軟骨伝導音声を連動させる。手の接触圧にリミッタをかける。同意を求めて接触する。安全確認して接触する。異常時、手の接触を解除する。手を人肌に加温する。耳軟骨の一部を覆う装身具を装着した人に間接的に接触する。装着者を特定するための情報を装身具に保持させ、ロボットが読取る。人がロボットの手を導く際、それに抗さない。片側の耳に振動を伝達するとき、頭の動きにロボットの手を追従させる。ロボットの第一の指に軟骨伝導振動源を設け、第二の指で人の頭部を支える。

Description

ロボットおよびロボットシステム
 本発明は、ロボットおよびロボットシステムに関する。
 人とのコミュニケーションが可能な種々のロボットが提案されている。例えば特許文献1では、収録した特定個人の声で発話するとともに登録しておいた同人の癖に基づいて同時に四肢を動作させ、愛情などを演出できる人型ロボットが提案されている。一方、独居者の見守りシステムとしては、特許文献2において、見守り対象となる居住者の住居に設置した人感センサ、居住者が装着する加速度センサの双方から検出したデータを受信し、居住者の行動や状態、居住者の住居に発生したイベントを判断することが提案されている。さらに、咀嚼状態認識装置として、特許文献3では、外耳道内に挿入されて外耳道の変形量を検知する検知部からの検知波形に基づき咀嚼回数をカウントすることが提案されている。また、古くから知られていた気導および骨導に加え、第三の伝導ルートとして新たに発見された軟骨伝導については、特許文献4において、外耳道入口部周りの耳軟骨に接触させた振動源の振動により外耳道内部の軟骨表面から気導音が発生し、外耳道内を進んで鼓膜に達することが説明されている。
特開2010-94799号公報 特開2014-89494号公報 特開2011-10791号公報 特開2013-81047号公報
 しかしながらロボットおよびロボットを活用したロボットシステムに関しては、さらに検討すべき課題が多い。
 本発明の課題は、上記に鑑み、人との適切なコミュニケーションができるなロボットおよびロボットを活用したロボットシステムを提供することにある。
 上記の課題を解決するため、本発明は、手と、前記手に設けられ人の耳軟骨に振動を伝達するための軟骨伝導振動源とを有することを特徴とするロボットを提供する。これにより自然な動作によるロボットと人との軟骨伝導によるコミュニケーションが可能となる。
 具体的な特徴によれば、ロボットは両手を有し、前記両手のそれぞれに前記軟骨伝導振動源が設けられる。これにより、例えばロボットの両手で人の顔をやさしく包むような癒しのある演出で軟骨伝導によるロボットと人のコミュニケーションが可能となる。さらにステレオによる聴取も可能となる。他の具体的な特徴によれば、ロボットは、前記手に指を有し、前記軟骨伝導振動源は前記指に設けられる。これにより、より効率の良い軟骨伝導が可能となる。より詳細な特徴によれば、前記手全体を耳軟骨に接触するよう導くとともに、前記指を耳珠に導くよう調整する関節機構を有する。これにより適切な軟骨伝導のための調節が可能となる。
 他の具体的な特徴によれば、ロボットは、前記両手が軟骨伝導のためにそれぞれ両耳の軟骨に接触するとき、前記両手が両者の相対位置は維持しつつ顔の動きを拘束しないよう制御する制御部を有する。これにより、束縛感のない軟骨伝導が可能となる。
 他の具体的な特徴によれば、ロボットは外観が可動の目を有し、前記目の視線が前記両手の間を向くよう同調して動かされる。これにより、ロボットとの間でより親密な軟骨伝導によるコミュニケーションが可能となる。他の具体的な特徴によれば、ロボットは外観が可動の口機構を有し、前記口機構は前記軟骨伝導振動源の振動によって伝達される音声と連動して動くよう制御される。これによって、自然な軟骨伝導によるコミュニケーションが可能となる。
 他の具体的な特徴によれば、ロボットは、前記軟骨伝導振動源の振動を耳軟骨に伝達するよう前記手が耳軟骨に接触するときその接触圧を制限するリミッタを有する。これにより安全な軟骨伝導によるコミュニケーションが可能となる。他の具体的な特徴によれば、ロボットは、前記軟骨伝導振動源の振動を耳軟骨に伝達するよう前記手を耳軟骨に接触させる際、同意を求めるコミュニケーション手段を有する。これによって、不快感のない軟骨伝導によるコミュニケーションが可能となる。
 他の具体的な特徴によれば、ロボットは、前記軟骨伝導振動源の振動を耳軟骨に伝達するよう前記手を耳軟骨に接触させる際、事前に安全確認を行う制御部を有する。これによって、安全性の高い軟骨伝導によるコミュニケーションが可能となる。他の具体的な特徴によれば、ロボットは異常検知手段を有し、前記軟骨伝導振動源の振動を耳軟骨に伝達するよう前記手を耳軟骨に接触させる際、前記異常検知手段が異常を検知したとき、前記手の耳軟骨への接触が解除される。これによって万一の場合における不具合を回避できる。
 他の具体的な特徴によれば、ロボットは前記手を耳軟骨に導く外力に抗さないようロボットの腕を保持する関節機構を有する。これによってロボットと接触しようとする人が、自分の手でロボットの手を自分の耳軟骨に容易に導くことが出来る。他の具体的な特徴によれば、ロボットは、前記軟骨伝導振動源が人の片側の耳に振動を伝達するとともに、前記人の頭の動きに対し前記手を追従させる追従手段を有する。これにより片側の耳に振動を伝える場合でも人の頭の動きで接触が断たれることを防止できる。
 他の具体的な特徴によれば、ロボットの前記手は、前記軟骨伝導振動源が設けられる第一の指と、人の頭部の重量を支える第二の指を有する。これにより、例えば横臥している人の頭を抱き起こすロボットの動作に伴って軟骨伝導による自然なコミュニケーションが可能となる。
 本発明の他の具体的な特徴によれば、手と、前記手を人肌に加温するヒータとを有することを特徴とするロボットが提供される。これによって不快な冷感を伴わずにロボットと人との触れ合いが可能となる。
 本発明の他の具体的な特徴によれば、人の耳軟骨に振動を伝達するための軟骨伝導振動源が手に設けられるとともに多数の人に共用されるロボットと、前記多数の人に個別に装着されるためのものであって少なくとも前記耳軟骨の一部を覆う装身具とを有し、前記装身具を介して間接的に前記軟骨伝導振動源の振動を前記多数の人の一人の耳軟骨に伝達することを特徴とするロボットシステムが提供される。これによって、誰が触れたのかわからないロボットの手を共用するにもかかわらず、衛生的に軟骨伝導の利点を享受できる聴取システムが実現できる。前記装身具は、具体的には例えばイヤーウォーマ、ヘヤバンド、イヤーカフおよび耳装着用キャラクターグッズのいずれか一つである。
 本発明の他の具体的な特徴によれば、装着者を特定するための情報を保持する情報保持部を前記装身具に設けられるとともに、前記ロボットに前記情報を読取る手段が設けられる。これによって、装身具の装着者の要望にきめ細かく対応できるロボットシステムが実現するので装身具を装着する動機付けが可能となる。
 本発明の他の具体的な特徴によれば、多数の装着者に個別に装着されるとともに装着者を特定するための情報を保持する情報保持部が設けられた装身具と、前記情報を読取る手段が設けられたロボットとを有することを特徴とするロボットシステムが提供される。これによってロボットは個別の装着者それぞれ適した対応をとることができる。
 上記のように、本発明によれば、人との適切なコミュニケーションができるなロボットおよびロボットを活用したロボットシステムが提供される。
本発明の実施例1のシステム構成図である。(実施例1) 図1の実施例1の詳細構成のブロック図である。 軟骨伝導を説明する耳の断面図である。 軟骨伝導の効果を示す実測データの一例を示すグラフである。 実施例1における耳装着部の機能を示すフローチャートである。 実施例1における携帯電話の機能を示すフローチャートである。 実施例1における住居内モニタ部の機能を示すフローチャートである。 本発明の実施例2のシステム構成図である。(実施例2) 本発明の実施例3のシステム構成図である。(実施例3) 図9の実施例3のロボットのブロック図である。 実施例3のロボットの制御部240の機能を示すフローチャートである。 図11のステップS140の詳細を示すフローチャートである。 本発明の実施例4のシステム構成図である。(実施例4) 実施例4のブロック図である。 実施例4の制御部の機能の一部を示すフローチャートである。 本発明の実施例5のシステム構成図である。(実施例5) 実施例5のブロック図である。 実施例5の制御部の機能を示すフローチャートである。 図18のステップS258の詳細を示すフローチャートである。 実施例5において装身具を介する接触の様子を示す側面図である。 実施例5における銀行全体のシステムブロック図である。 図21の銀行制御部の機能を示すフローチャートである。 本発明の実施例6に関する斜視図である。(実施例6)
 図1は、本発明の実施の形態に係る実施例1のシステム構成図である。実施例1は、住居2内の見守りシステムを構成しており、対耳輪と耳珠に挟まれて耳甲介腔に納まることによって見守り対象者の耳4の穴の周辺軟骨に接触する耳装着部6(耳構造と区別するため破線で図示)、耳装着部6と近距離通信により情報交換する住居内モニタ部8、および見守り対象者の携帯電話10を含む。携帯電話10は、耳装着部6および住居内モニタ部8と近距離通信により情報交換する。
 耳装着部6は、携帯電話10との近距離通信により携帯電話10のヘッドセットとして機能し、携帯電話10を例えば衣服のポケットに入れたままの状態でも通話が可能である。耳装着部6はまた単独で補聴器としても機能する。このヘッドセットとしての機能および補聴器としての機能は、後述する軟骨伝導を利用したものである。耳装着部6はさらに咀嚼センサを備え、咀嚼運動による耳珠等の移動または外耳道の変形を検知する。なお、耳装着部6は、穴6aを有するリング状の形状をしていて装着時においても外耳道入口は開放しており、穴6aを通して外界の音を聞くことができるとともに、外耳道の閉塞感のない快適な装着を可能とする。また、後述のように、必要に応じ穴6aを指で閉鎖するかまたは掌で覆うことにより、軟骨伝導における外耳道閉鎖効果を得て、より大きな音を聞くことができる。
 住居内モニタ部8は、耳装着部6および携帯電話10と近距離通信するための近距離通信部12および外部と常時接続のインターネット通信を行うデジタル通信部14を有する。制御部16は、近距離通信部12およびデジタル通信部14を含む住居内モニタ部8全体の制御を行う。記憶部18は、制御部16の制御に必要なプログラムを記憶するとともに、制御等に関連する種々のデータを一時記憶する。
 以上の構成により、住居内モニタ部8は、耳装着部6からの咀嚼運動の検知結果を近距離通信により受信し、日常生活にて予測される咀嚼運動が検知されないときは異常状態の可能性があるとしてデジタル通信部14から見守り業者にその旨の通報を行う。また、住居内モニタ部8は、耳装着部6のヘッドセット機能により検知される見守り対象者の音声の有無に関する情報を近距離通信にて受信し、所定期間音声が検知されない場合、または悲鳴等の緊急性のある音声信号を検知した場合に、異常状態の可能性があるとしてデジタル通信部14から見守り業者にその旨の通報を行う。
 また、携帯電話10は、耳装着部6からの咀嚼運動の検知結果を近距離通信により受信し、日常生活にて予測される咀嚼運動が検知されないときは異常状態の可能性があるとして予め登録しておいた遠隔地の家族等の携帯電話への自動発呼を行い、応答があれば自動音声にてその旨の通報を行う。さらに、携帯電話10は、耳装着部6のヘッドセット機能により検知される見守り対象者の音声の有無に関する情報を近距離通信にて受信し、所定期間音声が検知されない場合、または悲鳴等の緊急性のある音声信号を検知した場合に、異常状態の可能性があるとして上記遠隔地の家族等の携帯電話への自動発呼を行い、応答があればその旨の通報を行う。
 なお、携帯電話10では、日常生活にて予測される咀嚼運動が検知された場合でも、上記遠隔地の家族等の携帯電話への自動発呼を行い、応答があれば自動音声にて異常なしの旨の通報を行う。また、見守り対象者の通常音声の検知に基づいても、上記遠隔地の家族等の携帯電話への自動発呼を適宜行い、応答があれば自動音声にて異常なしの旨の通報を行う。これによって遠隔地の家族等は、見守り対象者が三度の食事を規則的にとっていることや、日常的に期待される会話の存在、または予め設定された時間帯における規則的な発声状況(日常的な買い物での会話や日々のお経を唱えていることなど)を知り、安心することができる。なお、この場合、見守り対象者が意図していないのに携帯電話10の自動発呼が行われ、会話の内容が聞かれてしまうことになる。これは、家族とはいえ見守り対象者にとってはプライバシー上望ましくないので、後述のように、音声の存否という事実のみ通報し、会話の内容は判別できないようにする。
 図2は、図1に示した本発明の実施例1の詳細構成のブロック図である。図1と共通する部分には同一の番号を付し、必要のない限り説明を省略する。住居内モニタ部8の構成は、図1に示した通りであるが、住居内モニタ部8全体に給電する電源部20を有する。電源部20は住居2内の家庭用電源から給電を受ける。
 一方、携帯電話10は、図2に示すように、携帯電話機能部22を有し、アンテナ24により無線電話回線にて通話を行う。近距離通信部26は、耳装着部6および住居内モニタ部8それぞれの近距離通信部36及び12と通信する。また、GPS部28は、耳装着部6を装着した見守り対象者が携帯電話10を持って外出した時の位置を検知し、必要に応じ上記の遠隔地の家族等の携帯電話または見守り業者と通信することで見守り対象者の位置情報を提供する。制御部30は、携帯電話機能部22、近距離通信部26およびGPS部28を含む携帯電話10全体の制御を行う。記憶部32は、制御部30の制御に必要なプログラムを記憶するとともに、制御等に関連する種々のデータを一時記憶する。充電可能な蓄電池を有する電源部34は、携帯電話10全体に給電する。なお、図2では、簡単のため、図1に図示されている大型タッチパネル型液晶表示部、マイク、スピーカ、近接センサ、内側カメラなど、携帯電話10が通常備える構成の図示を省略している。
 図2に示すように、耳装着部6は、携帯電話10の近距離通信部26および住居内モニタ部8の近距離通信部12と近距離通信する近距離通信部36を有する。そして咀嚼センサ38は、耳装着部6を装着した見守り対象者の咀嚼運動による耳珠等の移動または外耳道の変形を検知し、見守り対象者の咀嚼の有無を検出する。咀嚼センサ38としては、ばストレインゲージ又は圧電素子等で構成する。制御部40は、咀嚼運動を検出すると近距離通信部36および近距離通信部26を介して携帯電話10にその旨を伝達する。また、日常生活にて予測される咀嚼運動が検知されないときは異常状態の可能性があるとして、近距離通信部36から近距離通信部26を介して携帯電話10に、また、近距離通信部36から近距離通信部12を介して住居内モニタ部8にその旨を伝達する。
 耳装着部6の軟骨伝導振動源42(例えば圧電バイモルフ素子を採用)は、近距離通信により携帯電話10から受信した通話相手の音声信号により振動し、この振動を耳装着部6に接触している耳軟骨に伝えることで後述の軟骨伝導により通話相手の声を聞くことを可能とする。骨導マイク44は、骨導による自分の声を拾い、近距離通信により携帯電話10に自分の声の音声信号を送信することで、会話を成立させる。このようにして、耳装着部6は、携帯電話10のヘッドセットとして機能する。外部気導音マイク46は、近くにいる話し相手の生の気導音を拾って得た音声信号により軟骨伝導振動源42を振動させる。これによって耳装着部6は、単独で補聴器としても機能する。制御部40は、このようなヘッドセットの機能および補聴器の機能についても耳装着部6を制御する。なお、ヘッドセット機能における骨導マイク44は、上記のように、見守り対象者が日常生活のなかで想定される声を出しているか否かを見守るための音声センサとしても機能する。充電可能な蓄電池を有する電源部48は、耳装着部6全体に給電する。
 ここで軟骨伝導について説明する。軟骨伝導は、本願発明者によって発見された現象であり耳珠等の外耳道入口部周りの軟骨に伝えられた振動により軟骨部外耳道表面が振動し、外耳道内で気導音を発生させる現象である。そして外耳道内で発生した気導音は外耳道内をさらに奥に進んで鼓膜に達する。このように軟骨伝導により聞こえる音の主要部は鼓膜を介して聞こえる音である。ただし、鼓膜で聞こえるのは通常の気導音のように外耳道外部から外耳道に侵入した音ではなく、あくまで外耳道内部で発生した気導音である。
 図3は、上記のことを説明するための耳の断面図であって、耳4の構造と本発明に用いられる耳装着部6との関係を示す。矢印52は、軟骨伝導振動源42によって振動する耳装着部6の振動が鼓膜50に伝わる経路を図示している。耳装着部6から発生する振動は、矢印52で示すように、まず接触部分から外耳道入口部周りの軟骨54に伝導する。軟骨54の振動は、その表面(軟骨部外耳道)から外耳道内に気導音を発生させる。そしてこの気導音は外耳道内を進み、骨部外耳道56を経て鼓膜50に達する。なお、耳装着部6の穴6aからは、矢印58(通常の音が聞こえる経路)で示すように穴6aを通して外界の気導音が外耳道に侵入し、鼓膜50に達する。これによって、外耳道の閉塞感なしに快適に耳装着部6を装着することができる。
 図4は、軟骨伝導の効果を示す実測データの一例を示すグラフである。図4のグラフは軟骨伝導振動源により振動する振動体の外壁表面を耳輪への接触なしに外耳道入口部周辺の耳軟骨の少なくとも一部に接触させたときの外耳道入口部から1cm奥の外耳道内の音圧を周波数との関係で示すものである。グラフの縦軸は音圧(dBSPL)であり、横軸は対数目盛の周波数(Hz)である。また、グラフには、振動体の外壁表面と外耳道入口部周辺軟骨の接触圧の関係において、非接触状態(振動体の外壁表面から発生する気導音のみが聞こえる状態)の音圧を実線で、接触圧10重量グラムにおける音圧を破線で、接触圧250重量グラムにおける音圧を一点鎖線で、接触圧の増加により外耳道が閉鎖された状態(接触圧500重量グラム)における音圧を二点鎖線で、それぞれ図示している。図示のように、音圧は非接触状態から接触圧10重量グラムでの接触により増加し、さらに250重量グラムへの接触圧増加により増加し、この状態からさらに500重量グラムに接触圧を増加させることで、音圧がさらに増加する。
 図4のグラフから明らかなように、振動体の外壁表面を耳輪への接触なしに外耳道入口部周辺の耳軟骨の少なくとも一部に接触させたとき、非接触状態に比べ、外耳道入口部から1cm奥の外耳道内における音圧が音声の主要な周波数帯域(500Hz~2300Hz)において少なくとも10dB増加していることがわかる。(実線で示す非接触状態と、一点鎖線で示す状態とを比較参照。)
 また、図4のグラフから明らかなように、振動体の外壁表面を耳輪への接触なしに外耳道入口部周辺の耳軟骨の少なくとも一部に接触させたとき、接触圧の変化によって外耳道入口部から1cm奥の外耳道内における音圧が音声の主要な周波数帯域(500Hz~2500Hz)において少なくとも5dB変化していることがわかる。(破線で示すわずかな接触状態と一点鎖線で示す状態での接触状態とを比較参照。)
 以上から、耳装着部6に気導音を発生させるための構造(例えば通常イヤホンの振動板)がなくても、軟骨伝導振動源42の振動を接触により耳軟骨に伝達することで必要な音圧が得られることがわかる。また、気導音を発生させるための構造が不要なため、耳装着部6は、穴6aを有するリング状等の形状とすることができ、装着時においても穴6aを通して外界の音を聞くことができるとともに、外耳道の閉塞感のない快適な装着が可能となることがわかる。
 さらに、図4のグラフから明らかなように、振動体の外壁表面を耳軟骨の少なくとも一部により強く接触させることにより外耳道入口部を閉鎖(図4の実測では、耳珠の外側から振動体の外壁表面を押し付け、耳珠が折れ曲がることにより外耳道入口を閉鎖する状態にして測定)したとき、非接触状態に比べ、外耳道入口部から1cm奥の外耳道内における音圧が音声の主要な周波数帯域(300Hz~1800Hz)において少なくとも20dB増加していることがわかる。これは外耳道閉鎖効果による。(実線で示す非接触状態と、二点鎖線で示す外耳道が閉鎖された状態とを比較参照。)
 なお、図4における測定は、すべて軟骨伝導振動源の出力を変化させない状態におけるものである。また 耳輪への接触なしに振動体の外壁表面を外耳道入口部周辺の耳軟骨の少なくとも一部に接触させる状態として、図4における測定は、振動体の外壁表面を耳珠外側から接触させる状態で行っている。また、図4における外耳道が閉鎖された状態での測定は、上記のように耳珠を外側からより強く押圧することで耳珠が折り返ることにより外耳道を閉鎖する状態を作ることにより行っている。
 上記のような外耳道閉鎖効果は、実施例1の場合、穴6aに指を当てて押すことにより穴6aが閉鎖するとともに耳装着部6の軟骨への接触圧を高めることにより実現できる。又は、これに代えて掌で耳4全体を覆うことによっても外耳道閉鎖効果を得ることができる。このように、実施例1においても、必要に応じ穴6aを指で閉鎖するかまたは掌で覆うことにより、より大きな音を聞くことができるのがわかる。
 なお、図4の測定グラフは、あくまでも一例であって、細かく見れば個人差がある。また、図4の測定グラフは現象の単純化および標準化のために振動体の外壁表面を耳珠外側に限って少ない面積で接触させる状態にて測定を行っている。しかしながら接触による音圧の増加は、軟骨との接触面積にも依存し、耳輪への接触なしに振動体の外壁表面を外耳道入口部周辺の耳軟骨に接触させる場合、外耳道入口部周りのより広い軟骨部分に接触させれば音圧の増加はさらに高まる。以上のことを考慮すれば、図4の測定グラフに示した数値は軟骨伝導を利用した構成を示す一般性を持つものであって、不特定多数の被験者による再現性のあるものである。さらに、図4の測定グラフは、外耳道入口部を閉鎖する際に耳珠を外側から押圧することで接触圧を増して耳珠を折り返すことによるものであるが、振動体の外壁を外耳道入口部に押し入れてこれを閉鎖した場合にも同様の結果が得られる。
 図5は、実施例1の見守りシステムにおける耳装着部6の制御部40の機能を示すフローチャートである。フローは、充電のために不図示の充電器に接続されていた耳装着部6を充電器から取り外すことによってスタートする。フローがスタートすると、ステップS2で携帯電話10との近距離通信のためのペアリング状況を確認し、未設定ならペアリング設定を自動で行う。次いで、ステップS4で外部気導音マイク46および骨導マイク44をオンにする。これにより、耳装着部6は補聴器として機能するようになるとともに、骨導マイク44による見守り対象者の音声検知待機状態になる。なお、フローでは省略しているが、咀嚼センサ38はフロースタートから終了までの間、常にオン状態にあり咀嚼検知待機状態にある。
 次にステップS6において咀嚼センサ38が咀嚼運動を検知したか否かチェックする。そして検知があればステップS8に進み、近距離通信にて携帯電話10に検知信号を送信するとともに、ステップS10で近距離通信にて住居内モニタ部8に検知信号を送信し、ステップS12に移行する。一方、ステップS6で咀嚼運動が検知されない場合は、直接ステップS12に移行する。
 ステップS12では、骨導マイク44が見守り対象者の音声を検知したか否かチェックする。そして検知があればステップS14に進み、近距離通信にて携帯電話10に検知した音声信号を送信するとともに、これと並行してステップS16で近距離通信にて住居内モニタ部8に検知した音声信号を送信する。ステップS12からステップS16は、簡易化した図示になっているが、実際には、これらのステップにおいては、骨導マイク44に音声が検知され始めてからその後の所定時間(例えば10秒)、骨導マイク44からの音声信号を携帯電話10および住居内モニタ部8に並行して送信し続ける。このとき、音声が所定時間以上続いていても所定時間で送信を打ち切り、逆に所定時間内に無音となっても所定時間内は骨導マイク44の出力送信を継続する。上記のようなステップS12からステップS16による所定時間の音声信号送信が終了するとステップS20に移行する。一方、ステップS12で音声信号の検知がなければ直ちにステップS20に移行する。
 ステップS20では、見守り対象者により携帯電話10から発呼操作が行われ相手がこれに応答したか否か、または外部から携帯電話10への着信があり、見守り対象者が応答操作をしたか否かをチェックする。そしてそのいずれかに該当する場合はステップS22に進み外部気導音マイク46をオフするとともに骨導マイク44のオンは継続し、ステップS24に移行する。これにより、耳装着部6は携帯電話10のヘッドセットとして機能するようになり、外部気導音マイク46から通話に不要な音が入らないようにする。
 ステップS24では、電話を切ることによりステップS20で始まった通話が終了したか否かチェックする。そして通話終了が検知されたときは、ステップS26に進み、外部気導音マイク46をオンするとともに骨導マイク44のオン状態を継続してステップS28に移行する。これにより、耳装着部6は補聴器としての機能に復帰するとともに、骨導マイク44による見守り対象者の音声検知待機状態が継続される。一方、ステップS24で通話終了が検知されない場合は、ステップS24が繰り返され、通話終了を待つ。また、ステップS20で発呼応答または着信応答が検知されない場合は直接ステップS28に移行する。
 ステップS28では、電源部48の蓄電池が消耗しているか否かチェックする。蓄電池が消耗していなければステップS30に移行し、耳装着部6が充電のために不図示の充電器に接続されたか否かチェックする。このステップは、蓄電池が消耗していなくても耳装着部6を耳4から取り外して充電する場合に対応している。ステップS30で充電接続が検知されるとステップS32に移行し、終了処理を行ってフローを終了する。これは、耳装着部6が耳4から取り外され見守り機能を果たすことができなくなっている状態であるにもかかわらず誤って動作状態に維持されることを防止する意義がある。一方、ステップS30で充電接続が検知されなければ、ステップS6に戻り、以下、蓄電池が消耗するか充電接続が行われるかしないかぎり、ステップS6からステップS30が繰り返され、耳装着部6は適宜、補聴器機能、見守り機能、携帯電話10のヘッドセット機能を維持する。なお、ステップS28で蓄電池の消耗が検知された場合もステップS32に移行し、終了処理を行ってフローを終了する。
 図6は、実施例1における携帯電話10の制御部30の機能を示すフローチャートである。なお、図6のフローは、見守りに関する機能を中心に動作を抽出して図示しており、携帯電話10には通常の携帯電話機能をはじめとする図6のフローに表記していない制御部30の動作が存在する。携帯電話10のハード構成自体は通常のものであって、図6で抽出している機能は、耳装着部6に付属のソフトウエアとしてインストールされるものである。
 携帯電話10の電源スイッチをオンすることにより図6のフローがスタートし、ステップS42で通常携帯電話モードを設定する。次いでステップS44で耳装着部6との近距離通信のためのペアリング状況をチェックする。そしてペアリングが設定されていれば耳装着部6と連携した携帯電話10による見守りが可能なのでステップS46に移行する。
 ステップS46では、耳装着部6から新たな咀嚼検知信号を受信したか否かチェックし、受信があればステップS48に進み、予め登録しておいた遠隔地の家族等の携帯電話に見守り者の無事を知らせるメールを自動送信する。また、ステップS48では予め設定しておくことによりメールに代えて予め登録しておいた遠隔地の家族等の携帯電話への自動発呼を行い、応答があれば見守り者の無事を知らせる自動音声の送信を行う。メールと発呼の両方を行うよう設定することもできる。咀嚼検知については基本的に日に三度で煩雑ではないと考えられるので、このように咀嚼検知信号を検知する毎に遠隔地の家族等に無事を報知し安心させる。なお、このような無事の報知が煩雑であると遠隔地の家族が考える場合は、ステップS48を省略するよう予め設定しておくことができる。
 次いでステップS50に移行し、記憶部32における咀嚼検知信号の受信履歴を新たな受信に基づいて日時情報付で更新するとともに、その時点のGPS信号を併せて記憶し、ステップS52に進む。一方、ステップS46で咀嚼検知信号の受信が確認できなかったときは直接ステップS52に移行する。
 ステップS52では、記憶部32の受信履歴に基づき、前回の咀嚼検知信号の受信から所定期間内に新たな咀嚼検知信号の受信があったか否かチェックする。所定期間内の新たな咀嚼検知信号の受信がなければステップS54に進み、予め登録しておいた遠隔地の家族等の携帯電話に自動発呼を行い、応答があれば異常の可能性がある旨の自動音声を送信してステップS56に移行する。ステップS54では、さらにその時点のGPS情報に基づき見守り者の現在位置を通報する自動音声を送信する。一方、ステップS52で所定期間内に新たな咀嚼検知信号の受信があったことがの受信履歴で確認できたときは直接ステップS56に移行する。
 ステップS56では、耳装着部6の骨導マイク44が拾った音声信号の受信があったか否かチェックする。そして音声信号の受信があればステップS58に進み、音声信号の内容(含まれる単語など)の音声識別、音声信号の強度やトーンのパターン等に基づき、受信した音声が悲鳴や救助要請であるか否か(緊急性)をチェックする。そして、悲鳴又は救助要請音声である可能性が高いとき(緊急性が高いと判断されたとき)はステップS60に進み、予め登録しておいた遠隔地の家族等の携帯電話に自動発呼を行って応答があれば受信した音声そのものを転送してステップS62に移行する。一方、ステップS58において、受信した音声が通常の会話音声であり悲鳴や救助要請ではない(緊急性が低い)と判断されたときは、直接ステップS62に移行する。
 ステップS62では、受信した音声信号が規則的な生活パターンに基づいて予め設定される時間帯(例えば、日常の買い物やお経を唱える時間時間帯)において受信したものか否かチェックする。そして該当すれば、ステップS64に進み、予め登録しておいた遠隔地の家族等の携帯電話に見守り者の無事を知らせるメールを自動送信してステップS66に移行する。一方、ステップS62において、受信した音声信号が予め設定された時間帯において受信したものでなかったときは、直接ステップS66に移行する。なお、ステップS48と同様にしてメールに代えて自動発呼と自動音声の送信が行われるようにするかまたは両者が行われるよう設定しておくこともできる。また、このような無事の報知が煩雑であると遠隔地の家族が考える場合は、ステップS62およびステップS64を省略するよう予め設定しておくこともできる。ステップS64において送信される音声は、実際に骨導マイク44が拾った音声信号ではなく、音声信号の受信があったという事実だけを報知するものであり、ステップS60とは異なって見守り対象者の会話の内容はわからず、プライバシーが保たれる。
 ステップS66では、記憶部32における音声信号の受信履歴を新たな受信に基づいて日時情報付で更新するとともに、その時点のGPS信号を併せて記憶し、ステップS68に進む。一方、ステップS56で骨導マイク44が拾った音声信号の受信が確認されなかった場合は直接ステップS68に移行する。
 ステップS68では、記憶部32の受信履歴に基づき、前回の音声信号の受信から所定期間内に新たな音声信号の受信があったか否かチェックする。所定期間内の新たな音声信号の受信がなければステップS70に進み、予め登録しておいた上記の遠隔地の家族等の携帯電話に自動発呼を行い、応答があれば異常の可能性がある旨の自動音声を送信してステップS72に移行する。ステップS70においても、さらにその時点のGPS情報に基づき見守り者の現在位置を通報する自動音声を送信する。一方、ステップS68で所定期間内に新たな音声信号の受信があったことが受信履歴で確認できたときは直接ステップS72に移行する。なお、ステップS44で耳装着部6とのペアリングの設定が確認されない場合は直接ステップS72に移行し、見守りのための諸ステップは実行せず、通常携帯電話として機能する。
 ステップS72では、電源部34の蓄電池が消耗しているか否かチェックする。蓄電池が消耗していなければステップS44に戻り、以下、蓄電池の消耗が検知されないかぎり、ステップS44からステップS72が繰り返され、携帯電話10は、見守りにおける種々の事態に対応する。一方、ステップS72で蓄電池の消耗が検知された場合はステップS74に移行し、終了処理を行ってフローを終了する。
 図7は、実施例1における住居内モニタ部8の制御部16の機能を示すフローチャートである。フローは住居内モニタ部8を設置して家庭用電源に接続することまたは住居内モニタ部8の電源をオンすることによりスタートし、ステップS82で見守り業者との通信のためのインターネットの常時接続を自動設定するとともに耳装着部6との近距離通信など連携の自動テストを行ってステップS84に移行する。
 ステップS84では、耳装着部6との近距離通信が可能な状態から不可能な状態に遷移したか否かチェックする。これは、見守り対象者が外出して近距離通信圏外に出たか否かのチェックに相当する。該当しなければステップS86に進み、耳装着部6との近距離通信が不可能な状態から可能な状態に遷移したか否かチェックする。これは、見守り対象者が帰宅して近距離通信圏内に復帰したか否かのチェックに相当する。該当すれば、ステップS88で上記の予め登録しておいた遠隔地の家族等の携帯電話への自動メール送信を行い、見守り対象者が帰宅したことを通知する。
 さらにステップS90では携帯電話10との間で自動近距離通信を行い、近距離通信状態が図2に示すシステム構成状態に復帰したことを確認する処理を行う。これは、見守り対象者の外出中、携帯電話10も見守り対象者に携帯されて住居内モニタ部8の近距離通信圏外に出ていたことが想定されるからである。万一、ステップS90において携帯電話10と近距離通信できることが確認できないときは、ステップS90内において、その旨を見守り業者および遠隔地の家族等の携帯電話に通知する。
 ステップS90では、さらに、住居内モニタ部8の記憶部18と携帯電話10の記憶部32における耳装着部6からの受信履歴のクロスチェックと情報交換を行い、両者の情報を一致させる。これは、主に、見守り対象者が外出して住居内モニタ部8が耳装着部6からの受信ができない間、受信情報が欠落するので、その間の受信情報を携帯電話10から受け取ることに該当する。これによって、実際は耳装着部6から送信が行われたのに、住居内モニタ部8では、耳装着部6から所定時間以上送信がない異常状態であると誤認する等の不都合を防止することができる。上記のような受信履歴のクロスチェックによる両者の情報を一致させる機能は、逆に住居2内において携帯電話10の蓄電池が消耗していて充電までの間、耳装着部6からの受信情報が欠落する場合への対応としても意義がある。
 ステップS90の処理が終わるとステップS92に進み、耳装着部6から新たな咀嚼検知信号を受信したか否かチェックする。受信があればステップS94に進み、記憶部18における咀嚼検知信号の受信履歴を新たな受信に基づいて日時情報付で更新し、ステップS96に進む。一方、ステップS92で咀嚼検知信号の受信が確認できなかったときは直接ステップS96に移行する。
 ステップS96では、記憶部18の受信履歴に基づき、前回の咀嚼検知信号の受信から所定期間内に新たな咀嚼検知信号の受信があったか否かチェックする。所定期間内の新たな咀嚼検知信号の受信がなければステップS98に進み、予め契約している見守り業者に異常の可能性がある旨の自動通報を行ってステップS100に移行する。一方、ステップS96で所定期間内に新たな咀嚼検知信号の受信があったことがの受信履歴で確認できたときは異常なしとして直接ステップS100に移行する。
 ステップS100では、耳装着部6の骨導マイク44が拾った音声信号の受信があったか否かチェックする。そして音声信号の受信があればステップS102に進み、音声信号の内容(含まれる単語など)の音声識別、音声信号の強度やトーンのパターン等に基づき、受信した音声が悲鳴や救助要請であるか否かをチェックする。そして、悲鳴又は救助要請音声である可能性が高いときはステップS104に進み、上記見守り業者に受信した音声そのものを転送してステップS106に移行する。一方、ステップS102において、受信した音声が通常の会話音声であり悲鳴や救助要請ではないと判断されたときは、直接ステップS106に移行する。
 ステップS106では、記憶部18における音声信号の受信履歴を新たな受信に基づいて日時情報付で更新して、ステップS108に進む。一方、ステップS100で骨導マイク44が拾った音声信号の受信が確認されなかった場合は直接ステップS108に移行する。
 ステップS108では、記憶部18の受信履歴に基づき、前回の音声信号の受信から所定期間内に新たな音声信号の受信があったか否かチェックする。所定期間内の新たな音声信号の受信がなければステップS110に進み、上記見守り業者に異常の可能性がある旨の自動通報を行ってステップS112に移行する。一方、ステップS108で所定期間内に新たな音声信号の受信があったことが受信履歴で確認できたときは直接ステップS112に移行する。なお、ステップS84で耳装着部6との近距離通信が可能な状態から不可能な状態に遷移したことが検知された時は、ステップS114に移行し上記の予め登録しておいた遠隔地の家族等の携帯電話への自動メール送信を行い、見守り対象者が外出したことを通知してステップS112に移行する。この場合、耳装着部6から信号をうけることができず見守りはできないので、見守り機能の実行は見守り対象者が携帯する携帯電話10に委ねられ、住居内モニタ部8としての見守り機能の実行はない。
 ステップS112では、住居内モニタ部8の電源がオフされたか否かチェックする。電源オフには停電等における給電の断絶も含まれる。電源のオフがなければステップS84に戻り、以下、電源がオフされないかぎり、ステップS84からステップS114が繰り返され、住居内モニタ部8は見守りにおける種々の事態に対応する。一方、ステップS112で電源オフが検知された場合はステップS116に移行し、終了処理を行ってフローを終了する。
 図8は、本発明の実施の形態に係る実施例2のシステム構成図である。実施例2も、住居内の見守りシステムを構成しており、眼鏡型の耳装着部106を用いたものである。その他の構成は図1、2の実施例1と共通であるので、共通部分には同一の番号を付し説明を省略する。図8では簡単のため、住居2および住居内モニタ部8の図示を省略しているが、その構成は図1、2の実施例1と共通である。
 本発明における軟骨伝導振動源、骨導マイク、および咀嚼センサはいずれも圧電素子を用いて構成できるので、共通の圧電素子を軟骨伝導振動源、骨導マイク、および咀嚼センサとして兼用することが可能である。図8の実施例2において、軟骨伝導振動源、骨導マイク、および咀嚼センサとして兼用される圧電バイモルフ素子142は、眼鏡のツルが耳4の付け根の軟骨に乗る部分に設けられている。このような構成により、圧電バイモルフ素子142の振動が耳4の付け根の軟骨に伝わり軟骨伝導を起こす。また、骨導による音声が圧電バイモルフ素子142によって拾われる。さらに咀嚼による耳4の付け根近辺の動きが圧電バイモルフ素子142によって検知される。兼用にあたっては、制御部140の信号処理により圧電バイモルフ素子142の入出力信号の抽出や分離が行われる。その際、本来は補聴器の機能のために話相手の音声を拾うために設けられている外部気導音マイク46を利用して見守り対象者自身の音声を気導で拾うようにし、圧電バイモルフ素子142における入出力信号の抽出や分離のための情報として利用する。実施例2においても外耳道入口は開放されていて外界の音を聞くことができるとともに、外耳道の閉塞感のない快適な耳装着部106の装着を可能とする。また、必要に応じ外耳道入口を指で閉鎖するかまたは耳4全体を掌で覆うことにより、軟骨伝導における外耳道閉鎖効果を得て、より大きな音を聞くことができる。
 以上の各実施例に示した種々の特徴の実施は、個々の実施例に限るものではなく、その利点を享受できる限り、他の実施例でも実施可能である。また、各実施例に示した種々の特徴は、種々変形して実施することが可能である。これらの変形は適宜組合せて実施することが可能であるとともに、一部変形前の状態と組み合わせて実施することも可能である。
 例えば、実施例1のような構成において、実施例2のように軟骨伝導振動源、骨導マイク、および咀嚼センサのいずれか機能を一つの圧電バイモルフ素子で兼用するよう構成してもよい。逆に、実施例2において、軟骨伝導振動源、骨導マイク、および咀嚼センサをそれぞれ最適の別素子で構成し、それぞれ最適の位置に分散配置するよう構成してもよい。
 また、各実施例では、見守り対象者の声を拾うのに骨導マイクを採用しているが、これを気導音マイクで構成(例えば外部気導音マイク46と兼用)するようにしてもよい。
 図9は、本発明の実施の形態に係る実施例3のシステム構成図である。実施例3は、軟骨伝導により人とコミュニケーション可能なロボットとして構成され、実施例1と同様にして住居内の見守りシステムを構成するとともに、見守り対象者との人間的なコミュニケーションが可能となっている。図9の実施例3は、図1の実施例1における耳装着部6の部分が実施例3ではロボット206となっている点を除き実施例1と共通であるので、ロボット206および見守り対象者201以外の図示を省略するとともに、共通部分の説明についても必要のない限り省略する。
 ロボット206は、実施例1と同様にして近距離通信により図1に示す住居内モニタ部8、および見守り対象者201の携帯電話10と近距離通信により情報交換する。ロボット206は、頭部203の左右の耳205の部分に一対のステレオ外部気導音マイクを有し、見守り対象者201の音声を拾うとともに、頭部203の左右の目207の部分に一対の3Dカメラを有し、見守り対象者201の画像を撮像する。ステレオ外部気導音マイクおよび3Dカメラはそれぞれ見守り対象者201を見守るためのセンサとして機能し、検知結果は図1に示す住居内モニタ部8、携帯電話10に送信される。さらに、ロボット206の頭部203の口機構209の部分には気導音スピーカが設けられており、見守り対象者201への発話が可能となっている。このとき、ロボット206の口機構209は発話と連動して動くようになっている。また、ロボット206の頭部203に設けられた外部気導音マイクおよび気導音スピーカは、図1に示す携帯電話10の外部送受話装置としても機能する。
 次に、ロボット206を用いた軟骨伝導について説明する。ロボット206の右手211の中指213には圧電バイモルフ素子等からなる軟骨伝導振動源が配置されており、中指213の指先が効率よく振動するようになっている。なお、軟骨伝導振動源の振動は右手211全体にも伝わるので右手211のどの部分からでも軟骨伝導は可能である。図9では、中指213の指先が見守り対象者201の左耳の耳珠232に接触し最良の軟骨伝導を実現している状態を示す。なお図9には図示されないが、ロボット206の左手の中指にも同様の軟骨伝導振動源が配置されており、見守り対象者201の右耳の耳珠に接触している。これによって通常のように両耳で気導音を聞くのと同様のステレオでの軟骨伝導が可能となる。また、ロボット206の口機構209は、気導音スピーカからの発話の場合と同様にして、軟骨伝導によって伝えられる音声と連動してロボット206の口機構209が動くようになっている。
 図9に示すように、ロボット206は、見守り対象者201の顔を両手で優しく包み、慈愛に満ちた雰囲気で話しかける状態となるので、見守り対象者201は癒された心理状態でロボット206の声を聞くことができる。この演出のため、ロボット206の両手が見守り対象者201の顔を挟む圧力が過度にならないようロボット206の右腕215および左腕217は加圧リミッタが設けられている。
 さらに、見守り対象者201が拘束感を感じないよう、左右の手の間の適切な圧力が決定されたあとは左右の手がその相対間隔を保ったまま見守り対象者201の顔の自由な動きに合わせて抵抗なく追従するよう、ロボット206の胴体219に対してロボット206の右腕215および左腕217の関節が制御される。また、最初にロボット206が見守り対象者201に触れるときに冷たさを感じないよう、ロボット206の両手は、見守り対象者201の顔を包む動作に入る前に人肌に加温される。さらに、見守り対象者201の顔を両手で優しく包んで話しかける演出との齟齬が生じないよう、ロボット206の左右の目207は外観が可動となっており、頭部203の向きおよび左右の目207の外観上の視線は、見守り対象者201の視線を不用意に外さず、威圧感のない範囲で自然に動いて追従する。
 以上のような、軟骨伝導による発話は、見守り対象者201の聴力が高齢等のため低下している場合や、周囲の騒音が大きい場合に有用であり、気導音スピーカが、がなり立てるような状況を避けることができる。また、周囲の音量が大きい場合等において見守り対象者201の声を拾うため、ロボット206の右手211の親指221には骨導マイクが設けられており、頬骨などからの骨伝導音を拾うよう構成される。後述のようにロボット206の左手にも同様の骨導マイクが設けられ右手211側の骨導マイクと相補的に骨導音を拾う。なお、骨導マイクについては、実施例2と同様にして圧電バイモルフ素子からなる軟骨伝導振動源を骨導マイクとして兼用してもよい。
 図10は、図9に示した本発明の実施例3のロボット206のブロック図である。図9と共通する部分には同一の番号を付し、必要のない限り説明を省略する。なお、上記のように、実施例3は、図1に示すような住居内モニタ部8、および携帯電話10との通信については実施例1と共通であり、図10では近距離通信部236を図示するに留めて説明を省略する。
 図10に示すように、ロボット206は、頭部203の左右の耳205(図9参照)の部分に一対のステレオ外部気導音マイク246を有し、見守り対象者201の音声を含む外部音声をステレオで拾う。また、頭部203は、左右の目207の部分に3Dカメラ(一対のカメラ)238を有し、見守り対象者201の画像を撮像する。なお、上述の頭部203の向きおよび左右の目207の視線の追従は、3Dカメラ238の画像の分析に基づいて見守り対象者201の顔および目の認識をすることによって行う。さらに、ロボット206の頭部203の口機構209の部分には気導音スピーカ223が設けられ、上述のように見守り対象者201への発話が可能となっている。口機構209は気導音スピーカ223によるロボット206の発話と連動して動くようになっている。
 図10に示すように、ロボットの右手211の中指213aには圧電バイモルフ素子等からなる軟骨伝導振動源242aが配置されており、中指213aの指先が効率よく振動するようになっている。上述のように、軟骨伝導振動源242aの振動は右手211全体にも伝わるので右手211のどの部分が耳軟骨に接触しても軟骨伝導は可能である。なお、上述のように、ロボット206の口機構209は、軟骨伝導振動源242aの振動によって伝えられる音声と連動して動くようになっている。中指213aには更に感圧センサ等からなる触覚センサ231aが設けられているがこれについては後述する。また、ロボットの右手211の親指221aには骨導マイク244aが設けられており、頬骨などからの骨伝導音を拾う。なお、上述のように骨導マイク244aについては、実施例2と同様にして圧電バイモルフ素子からなる軟骨伝導振動源242aを骨導マイクとして兼用してもよい。なお、煩雑を避けるため図示を省略しているが、親指221aにも中指213aの触覚センサ231aと同様の触覚センサが設けられているがこれについても後述する。右手211にはさらにヒータ225aが設けられており、見守り対象者201の顔を包む動作に入る前にスイッチが入って右手211全体を人肌に加温する。
 図10に示すように、右腕215には右関節機構227aが設けられており、見守り対象者201の顔を右側(見守り対象者201から見れば左側)から包んで話しかける等の動作を行う。右関節機構227aは簡単のため肩関節の部分にのみ図示しているが、肘関節、手首関節および指関節を含む右手211及び右腕215の諸関節全体を代表的に示すものとする。また、右関節機構227aは、後述するように左関節機構227bと連動し、見守り対象者201の顔を両手で優しく包んで話しかける演出を行う際に、左右の手の間の適切な圧力が決定されたあとは左右の手がその相対間隔を保ったまま見守り対象者201の顔の自由な動きに合わせて抵抗なく追従するよう制御される。
 図10における左腕217および左手229の構成は、右腕215および右手211の構成と同様なので、右側において中指213aのごとくそれぞれ「a」を付していた構成を左側においては中指213bのごとく対応する構成にそれぞれ「b」を付して図示し、説明を省略する。なお、左右に設けられた構成要素のうち、軟骨伝導振動源242a、242bは鼓膜を経由する軟骨伝導の原理に基づきステレオ聴取が可能である。これに対し、骨導マイク244a、244bについては、骨導の性質上、頭蓋骨の同じ振動を拾うのでステレオマイクを構成するわけではなく、接触状態を相互補完するため、左右に設けられているものである。従って、後述のように、片方の親指の接触位置を微修正することによってベストの骨導接触位置が充分確保できる場合には、他方の親指における骨導マイクを省略してもよい。
 右関節機構227aおよび左関節機構227bは、軟骨伝導による見守り対象者201とのコミュニケーションを行う際、3Dカメラ238による画像の分析に基づいて認識される見守り対象者201の顔に向かって右手211および左手229を伸ばす。なお、右関節機構227aおよび左関節機構227bにはそれぞれ負荷検知センサが設けられており、腕、手、指が何かに当たってフリーな状態での動き以外の負荷がかかったかどうかを検知する。そして負荷がかかった場合、その負荷が関節のどの部分においてどの程度の強さでかかっているかを識別する。
 右関節機構227aおよび左関節機構227bの負荷検知センサが負荷を検知し、3Dカメラ238による画像から、その原因が両手により見守り対象者201の顔が包まれたからであると判断されると、加圧リミッタが作動して見守り対象者201の顔を挟む圧力を制限する。そして、左右の中指213aおよび213bのそれぞれ指先に設けられた触覚センサ231aおよび231bの出力と3Dカメラ238による画像をモニタしながら、右手211および左手229の位置および左右の中指213aおよび213bの曲がり具合を微修正する。これによって、左右の中指213aおよび213bが見守り対象者201の耳珠に接触するようにする。(図9図示の状態の実現)同様に、左右の親指221aおよび221bについても、それぞれの指先に設けられた触覚センサ(図示省略)の出力と3Dカメラ238による画像をモニタしながら、左右の親指221aおよび221bの曲がり具合を微修正し、見守り対象者201の頬骨に接触するようにする。
 また、右関節機構227aおよび左関節機構227bは、左右の手の間の適切な圧力が決定されたあとは左右の手がその相対間隔を保ったまま平行移動し、見守り対象者201の顔の自由な動きに合わせて抵抗なく追従するよう制御する。この追従は右腕215および左腕217が自由状態にあるときそれらの重量に抗して右腕215および左腕217を持ち上げ静止させている状態を基準としているので、右腕215および左腕217の荷重が顔にかかることもない。そして、このような状態において、右関節機構227aおよび左関節機構227bの負荷検知センサが顔の動きに基づく上下左右方向の負荷を検知すると、それに応答して左右の手の相対間隔を保ったまま従属的に左右の右関節機構227aおよび左関節機構227bを駆動するようにする。これによって、見守り対象者201はロボット206の両手に顔を包まれつつも拘束されることなく軟骨伝導状態を継続したまま顔を動かすことができる。
 以上の機能は、記憶部218に格納されたプログラムに基づき制御部240によって達成される。なお、制御部240は、3Dカメラ238に接続された専用の画像処理機能部を含む。制御部240は、さらに、軟骨伝導振動源242a、242bに接続された専用の圧電バイモルフ駆動機能部を含むとともに、この圧電バイモルフ駆動機能部、気導音スピーカ223ならびに骨導マイク244a、244bに接続された専用の音声処理機能部を含む。また、記憶部218は、制御部240の機能のための種々のデータを一次的に格納する。充電池を含む電源部248はロボット206の各構成要素に対し、それぞれに必要な電圧にて給電を行う。なお、上記の制御部240、記憶部218、電源部248、及び、近距離通信部236は、例えば、ロボット206の胴体219に組み込んでおくとよい。
 図11は、図10の実施例3のロボット206における制御部240の機能を示すフローチャートである。フローは、ロボット206の主電源スイッチによる電源部248からの給電開始によりスタートする。フローがスタートすると、ステップS122で住居内モニタ部8および見守り対象者201の携帯電話10(図1参照)との近距離通信のためのペアリング状況を確認し、未設定ならペアリング設定を自動で行う。次いで、ステップS124で通常見守り機能を開始する処理を行う。この通常見守り機能は、基本的には、図1から図8で説明した実施例1または実施例2における見守り機能に準じたものであり、実施例3の場合は、ステレオ外部気導音マイク246および3Dカメラ238が見守りセンサとして機能する。
 次いで、ステップS126で異常の有無をチェックし、異常がなければステップS128に移行して定常報告タイミングか否かをチェックする。そして定常報告タイミングで無ければステップS130に移行する。一方、ステップS128で定常報告タイミングであることが確認されるとステップS132に移行し、正常報告処理を行ってステップS130に移行する。この正常報告処理は実施例1または実施例2と共通である。
 ステップS130では、見守り対象者201との会話を開始すべきか否かの判断がなされる。例えば、見守り対象者201がデイケアから帰宅したときやロボット206が修理から返ってきたときなどのように見守り対象者201とロボット206が時間を置いて顔を合わせたとき、または、見守り対象者201がロボット206に近づいてきたとき、または、見守り対象者201がロボット206に話しかけたとき、または、見守り対象者201の様子を観察してロボット206が自発的に話しかけようとするとき、などが「会話を開始すべき」との判断がなされるケースである。
 ステップS130で会話開始の判断がなされるとステップS134に進み、まずは、ステレオ外部気導音マイク246および気導音スピーカ223がオンされ、通常の気導音による会話が準備される。次いで、ステップS136において、見守り対象者201が軟骨伝導により会話をすべき登録者か否かチェックする。この登録は、聴力が高齢等のため低下している場合や、見守り対象者201本人の好みにより予め行っておくことができる。ステップS136で軟骨伝導登録者であることが確認できない場合は、ステップS138に進み、周囲の気導音が所定以上であるか否かチェックする。見守り環境では、通常の騒音が存在する可能性は小さいが、居室内において多人数が随所で談笑しているような場合、周囲の気導音が所定以上となって、ロボット206と見守り対象者201による気導音による個人的な会話が困難になる場合がある。ステップS138において、周囲の気導音が所定以上であると判断されるとステップS140に移行する。一方、ステップS136において、見守り対象者201が軟骨伝導により会話をすべき登録者であると判断された場合は、直ちにステップS140に移行する。
 ステップS140では、軟骨伝導のためにロボット206の両手を見守り対象者201の両耳に接触させるための処理が行われる。その詳細は後述する。ステップS140の両手接触処理が完了するとステップS142に進み、ロボット206の両手中指213a、213bが見守り対象者201の両耳の耳珠に、両手親指221a、221bが見守り対象者201の両頬骨に、それぞれ接触していることの確認が行われる。そして、この確認ができるとステップS144に進み、ステレオ外部気導音マイク246および気導音スピーカ223をオフするとともに、骨導マイク244a、244bおよび軟骨伝導振動源242a、242bをそれぞれオンしてステップS146に移行する。これによって、気導音による会話が軟骨伝導および骨導マイクによる会話に切換えられる。
 一方、ステップS142において上記の耳珠および頬骨への接触が確認できない場合は、直接ステップS146に移行する。既述のように、軟骨伝導はロボット206の手および指のどこかが見守り対象者201の両耳の軟骨のいずれかの部分に接触すれば可能となるので、ステップS140の両手接触処理内においてこの状態が確認された場合、ステレオ外部気導音マイク246および気導音スピーカ223のオン状態を維持したまま、骨導マイク244a、244bおよび軟骨伝導振動源242a、242bがそれぞれオンされる。これに対し、ステップS140の両手接触処理内においてロボット206の手と見守り対象者201との接触が実行されなかった場合は、ロボット206の両手を見守り対象者201の方に伸ばす処理は行われず、骨導マイク244a、244bおよび軟骨伝導振動源242a、242bのオンも行われないので、ステレオ外部気導音マイク246および気導音スピーカ223による会話が続行されることになる。これらのステップS140の両手接触処理の詳細については後述する。
 また、ステップS138において、周囲の気導音が所定以上であると判断されない場合は、直接ステップS146に移行する。この場合は、ロボット206の両手を見守り対象者201の方に伸ばす処理は行われず、ステレオ外部気導音マイク246および気導音スピーカ223による会話が続行されることになる。
 ステップS146では、異常の有無がチェックされる。これはステップS126において異常なしとして開始された会話中において不測の事態が生じることに対応するものである。この段階では、ロボット206の手による軟骨伝導が実行されている可能性があるので、ロボット206における見守りのためのセンサ機能が増加することになる。具体的には、骨導マイク244a、244b、触覚センサ231a、231b等が異常検知に寄与すると共に、例えば見守り対象者201が倒れたりした場合、顔を包んでいる手を通じて関節機構227a、227bの負荷検知センサに異常な負荷がかかるので3Dカメラ238による画像とともにきめ細かな異常検知が可能となる。
 ステップS146で異常が検知されない場合、ステップS148に移行して会話が終了したか否かの判断が行われる。この判断は、お互いの無言状態が所定時間以上続いたか否かのチェック、および会話内容の分析と会話終了に特有のキーワードの有無等により総合的に行われる。会話終了との判断がなされない場合は、ステップS136に戻り、以下会話終了との判断がなされるまでステップS136からステップS148が繰り返される。この繰り返しによって、まだ軟骨伝導が実行されていない状態においてステップS138で周囲の音量が所定以上となった場合、軟骨伝導への移行が可能となる。なお、気導音によるコミュニケーションから軟骨伝導へのコミュニケーションへの移行は一方向のものである。つまり、仮に、上記の繰り返しにおいてステップS138で周囲の音量が小さくなったからといって、一度開始した軟骨伝導によるコミュニケーションについてはこれを気導音によるコミュニケーションに戻す機能はない。従って、一連の会話途中では、軟骨伝導コミュニケーションと気導音コミュニケーションの間の煩瑣な往復切換えが行われることはない。ただし、異常の場合、ロボット206の手が見守り対象者201の顔を包んだままの状態を継続することは危険であり、上記の繰り返しにおいてステップS146がこれに対応している。その詳細は後述する。
 ステップS148で会話終了との判断がなされるとステップS150に移行し、軟骨伝導状態であるか否かチェックする。そして、軟骨伝導状態であればステップS152に移行し、ロボット206の両手を退避させて見守り対象者201の顔を解放し、ステップS154に移行する。一方、ステップS150において軟骨伝導状態が検知されなければ通常気導音による会話であり、見守り対象者201の拘束はないので直接ステップS154に移行する。
 ここで、異常の場合についての処理について説明する。ステップS126において異常状態が検知されるとステップS156に移行し、異常対応処理を行ってステップS150に移行する。この異常対応処理は基本的には実施例1または実施例2と共通の通報処理であるが、実施例3はロボット206により構成されるので、ロボット206が把握した見守り対象者201の状況に応じ、可能かつ緊急度がリスクを上回れば予めプログラムされた応急処置を行う。また、ステップS146において会話中に異常が検知された場合もステップS156に移行して異常対応処理を行うとともにステップS150に移行する。ここで重要なのは、上記のように、会話が軟骨伝導で行われていた場合においてなんらかの異常状態が発生した場合、仮にロボット206の手が見守り対象者201の顔を包んだままの状態を継続すると危険である。ここにおいてステップS146で異常が検知されると会話終了の判断がなくてもステップS136からステップS148の繰り返しループから抜け、ステップS156の異常対応処理を経由してステップS150に至る。そしてステップS150で軟骨伝導状態であったことが確認されるとステップS152に移行し、ロボット206の両手を退避させて見守り対象者201の顔を解放する。
 ステップS154では、ロボット206の主電源スイッチのオフまたは電源部248の充電池の消耗によりロボット206への給電が停止したか否かのチェックが行われる。給電停止が確認されない場合はステップS126に戻る。なお、ステップS130で会話開始が検知されなかった場合は、直ちにステップS126に戻る。以下、ステップS154で給電停止が確認されるまで、ステップS126からステップS154を繰り返し、ロボット206の種々の状況変化に対応する。一方、ステップS154で給電停止が確認されるとステップS158に至り、所定の終了処理を行ってフローを終了する。なお、この終了処理には、フェイルセーフとして、万一ロボット206の両手が見守り対象者の顔に接触したままである場合、これを退避させる機能が含まれる。
 図12は、図11のステップS140における両手接触処理の詳細を示すフローチャートである。フローがスタートするとステップS162で既にステップS140が実行されて手が見守り対象者201に接触済みか否かチェックする。そして接触済みであることが検知されると、直ちにフローを終了し、ステップS140では何も行われなないことになる。この場合、図11のフローでは、ステップS138で周囲音量が所定以上であることが検知されても途中のステップS140~S144で何も行われず、実質的に直接ステップS146に至ったのと同等の結果となる。このようにして、ステップS140の実行により何らかの形で見守り対象者201への手の接触が実現すると、以後会話の途中でステップS140を繰り返して状態を変えたり同じ処理をしつこく繰り返したりすることが避けられる。
 一方、ステップS162でロボット206の手の接触が確認されないとステップS164に進み、手のヒータ225a、225bの人肌への急速加温を開始してステップS166に移行する。ステップS166では、接触同意コミュニケーション処理を行う。一般にスキンシップ(この場合、ロボット206が相手)は、受け入れる気持ちがある場合大変心地良いが、場合によっては極めて不快である。従って、ロボット206は、図11のステップS130からステップS138への諸判断を経てステップS140に至ったとしても、いきなり一方的な行動はとらず、見守り対象者201の意思を尊重して図12のステップS166にて接触への同意を促す。このときステップS166で行われるコミュニケーションは、気導音による言語情報のみによる「お顔に触れてもいいですか」という直截的なものに限らず、例えばまずハグするように両手を大きく広げてから相手を驚かせないよう穏やかに顔を包み込む動作に移行する等のボディランゲージでもよい。また、このような動作に「静かにお話ししましょうか」等の暗示的な語りかけを添えた総合的なコミュニケーションを試みるようにしてもよい。そして、このような働きかけをしながら3Dカメラ238およびステレオ外部気導音マイク246により相手の様子を観察してステップS168に移行する。
 ステップS168では、見守り対象者201の拒否の言葉または顔を背ける等の拒否の動作による見守り対象者201の意思表示がないかチェックし、接触拒否意思表示がないものと判断できればステップS170に移行する。ステップS170では、見守り対象者201が車椅子使用者か否かチェックする。これは車椅子使用者ならば比較的顔の位置が安定しており、ロボット206の手で接触圧を加えても転倒などの危険が少ないからである。ステップS170で車椅子使用者であることが確認できなければ、ステップS172の着席案内処理に移行する。この処理では、椅子の有無および位置の確認と、見守り対象者201への着席推奨アナウンスおよび椅子への案内、着席の確認などを行う。次いで、ステップS174で見守り対象者201の顔に手を接触させても危険がないか否かの最終確認を行う。この確認は、見守り対象者201の着席確認を最善とするが、立ったままであるとしても、着席案内処理を通じて見守り対象者201の足腰に不安がなく、多少顔に圧力がかかっても転倒のリスクが少ないことが確認できた場合も含む。
 ステップS174で安全確認ができるとステップS176に移行し、両手を顔に伸ばす方向と視線の方向を一致させる視線同調を開始しステップS178に進む。ステップS178では両手で顔を包むために3Dカメラ238の情報に基づいて右関節機構227aと左関節機構227bを駆動する両手調節処理を実行しステップS180に進む。ステップS180では、両手が顔に接触することによる負荷が右関節機構227aおよび左関節機構227bの負荷検知センサにより検知されたか否かチェックする。そして検知がなければステップS178に戻り、両手が顔に接触するまでステップS178およびステップS180を繰り返す。そしてステップS180で負荷が検知されるとステップS182に進み、加圧リミッタをオンして見守り対象者201の顔を挟む圧力が過度にならないよう制限を開始する。
 この状態で、ロボット206の両手(指を含む)のどこかが見守り対象者201の両耳軟骨のどこかに接触したものと判断できるので、ステップS184に進み、骨導マイク244a、244bおよび軟骨伝導振動源242a、242bをオンしてステップS186に進む。この状態では、気導音スピーカ223ならびに骨導マイク244a、244bもオン状態で併用される。さらにステップS186では、気導音スピーカ223のみからの発話の場合と同様にして、口機構209が軟骨伝導振動源242a、242bの振動による音声と連動して動くよう同調を継続させる。ステップS186による同調は、図12のステップS144において気導音スピーカ223がオフになっても継続される。
 次いでステップS188による両手間隔保持/関節脱力処理が開始される。これは、既述のように、両手がその相対間隔を保ったまま平行移動するとともに見守り対象者201の顔の自由な動きに合わせて抵抗なく追従するよう右関節機構227aおよび左関節機構227bがいわば脱力状態で追従するよう制御する処理である。この処理はステップS188からフローが進んでも継続される。
 さらに、ステップS190では、左右の中指213a、213bの曲がり具合を微修正しながら指先が見守り対象者201の耳珠に接触するようにするとともに、左右の親指221aおよび221bの曲がり具合を微修正し、見守り対象者201の頬骨に接触するようにする処理が開始される。次いで、ステップS192では、上記の結果として中指213a、213bが耳珠に、親指221a、221bが頬骨に接触したか否かをチェックされ、接触が確認できないとステップS194に進む。ステップS194では、ステップS190が開始されてから所定時間が経過したか否かチェックし、所定時間の経過がないとステップS190に戻る。以下、ステップS190からステップS194が繰り返される。その繰り返しの中で、ステップS192にて耳珠および頬骨への指の接触が確認されるとフローを終了し、図11のステップS142に移行する。この場合、既述のとおりステップS142からステップS144に進むことになり、ステレオ外部気導音マイク246および気導音スピーカ223がオフされることになる。一方、ステップS194で所定時間の経過が確認された場合もフローを終了し、図11のステップS142に移行する。この場合は、図11においてステップS144を経由せず、ステレオ外部気導音マイク246および気導音スピーカ223がオンで併用されたままステップS146に移行することになる。
 一方ステップS168において、少しでも接触拒否の意思表示があるとの判断がなされたときはステップS196に進み、手のヒータ225a、225bによる人肌への加温を停止してフローを終了する。同様に、ステップS174において安全確認ができない場合も、ステップS196に進み、手のヒータ225a、225bによる人肌への加温を停止してフローを終了する。これらの場合はいずれも、ロボット206の手と見守り対象者201の接触による軟骨伝導は行われず、気導音によるコミュニケーションが継続される。
 以上の各実施例に示した種々の特徴の実施は、個々の実施例に限るものではなく、その利点を享受できる限り、他の実施例でも実施可能である。また、各実施例に示した種々の特徴は、種々変形して実施することが可能である。これらの変形は適宜組合せて実施することが可能であると共に、一部変形前の状態と組み合わせて実施することも可能である。
 例えば、実施例3のロボットの構成において、骨導マイクを親指に軟骨伝導振動源を中指に設けているが、これに限るものではなく、例えば軟骨伝導振動源を人差し指に設けてもよい。さらに、片手について複数の軟骨伝導振動源を片手の複数の指にそれぞれ設けても良い。また、実施例3では軟骨伝導に入るときに手のヒータの人肌への加温をスタートさせているが、常にヒータをオンしてロボットの手の温度を人肌に保ち、他の目的で見守り対象者に触れた時にも冷たさを感じないようにすることも可能である。
 さらに、図11のフローでは、ステップS136で登録済み軟骨伝導登録者であることが確認されたとき、または、ステップS138で周囲の音量が大きくなったときにしかステップS140の両手接触処理に入らないようになっているが、これらの場合に加え、見守り対象者201からの自由な意思表示(例えば、見守り対象者201から希望する旨の発言がステレオ外部気導音マイク246で確認されたとき、または3Dカメラ238にて見守り対象者201が軟骨伝導を求める動作をしていることが確認できたとき、または見守り対象者201が自らロボット206の手を取って自分の耳に導いたときなど)に基づいて割り込みをかけ、図11のステップS140に移行するよう構成してもよい。
 さらに、実施例3のロボットの手には見守り対象者の耳珠と指先の接触を確認するための触覚センサが設けられているが、これを光学的な近接センサに代えてもよく、また触覚センサと光学的な近接センサを併用してもよい。
 図13は、本発明の実施の形態に係る実施例4のシステム構成図である。実施例4は、図9~図12に示した実施例3と同様にして、軟骨伝導により人とコミュニケーション可能なロボット306として構成される。そして、実施例1と同様にして住居内の見守りシステムを構成するとともに、実施例3のロボット206と同様にして見守り対象者201との人間的なコミュニケーションが可能となっている。図13の実施例4は、実施例3と共通部分が多いので、同様の部分には同じ番号を付して必要のない限り説明を省略する。
 図13に示す実施例4が、図9に示す実施例3と異なるのは、ロボット306の手の構造およびその制御である。これによって、実施例4のロボット306は、図13に示すように、ベッド350に横臥している見守り対象者201を抱き起こして軟骨伝導によるコミュニケーションをとることができる。なお、実施例4のロボット306は、実施例3のロボット206と同様にして、自立している見守り対象者201とのコミュニケーションをとることも可能である。
 次に図13に基づき、横臥している見守り対象者201とのコミュニケーションに関するロボット306の機能について詳細に説明する。ロボット306は、コミュニケーションにあたり、図13に示すように、両手で見守り対象者201を少し抱き起こしてロボット306の顔に対向させるようにする。これにより、ベッド350の脇に立ったロボット306が横臥している見守り対象者201を触れ合いなしに見下ろすのに比べ、より親近感が増したコミュニケーションが可能となる。
 図13の状態における各指の機能について説明すると、ます、見守り対象者201の後頭部および首に差し入れられた中指313、薬指351および小指352が、主に見守り対象者201の上半身の体重を支える。そして軟骨伝導振動源が設けられた親指321が見守り対象者201の耳珠232に接触し、軟骨伝導によりロボット306からの音声を伝える。また、骨導マイクが設けられた人差し指354が見守り対象者201の乳様突起に接触し、骨導により見守り対象者201の音声を拾う。
 図14は、図13に示した本発明の実施例4のロボット306のブロック図である。図13と共通する部分には同一の番号を付し、必要のない限り説明を省略する。なお、上記のように、実施例4は、実施例3と共通するとことが多いので、実施例3と異なる右手211の構成を制御部340との関係で図示している。そして、その他の部分については、実施例3のブロック図である図10およびその説明を流用することとし、図14では図示を省略または簡略化している。さらに、図14に図示した部分についても、図10と共通の部分については、同じ番号を付し、説明を省略する。
 図14に明らかなように、ロボット306の右手211の中指313には第1軟骨伝導振動源242aおよび第1触覚センサ231aが設けられている。一方、ロボット306の右手211の親指321には第1骨導マイク244aが設けられており、頬骨などからの骨伝導音を拾う。これらの構成は、図10に図示した軟骨伝導振動源242a、触覚センサ231a、および骨導マイク244aと同じものであり、実施例3と同様にして、図9のように自立している見守り対象者201とのコミュニケーションをとる際に用いられる。
 次に、図13のように横臥している見守り対象者201とのコミュニケーションをとる際に、機能する構成について説明する。親指321には、第2軟骨伝導振動源342aが設けられ、見守り対象者201の耳珠232に接触することで軟骨伝導によりロボット306からの音声を伝える。さらに、親指321には、見守り対象者201の耳珠232への接触状態をモニタして良好な軟骨伝導を実現維持するための第2触覚センサ331aが設けられている。一方、人差し指354には、第2骨導マイク344aが設けられ、見守り対象者201の乳様突起に接触することで骨導により見守り対象者201の音声を拾う。これら第2軟骨伝導振動源342a、第2触覚センサ331aおよび第2骨導マイク344aは、先に説明した第1軟骨伝導振動源242a、第1触覚センサ231a、および第1骨導マイク244aと切換えられることにより、いずれか一方が機能する。
 また、図14に示すように、中指313、薬指351および小指352と右手211の間には抱起し用指調節機構355が設けられ、見守り対象者201の後頭部および首に差し入れられたこれらの指が見守り対象者201の上半身の体重を支えることができるよう、各指を支持する。このとき右関節機構227aも、見守り対象者201の上半身の体重を支えることができるよう、右手211及び右腕215を支持する。ただし、見守り対象者201の頭を過度に拘束しないよう、右関節機構227は、垂直方向の位置を保ったまま水平方向には見守り対象者201の頭の自由な動きに合わせて抵抗なく追従するよう制御する。さらに上下方向についても、所定以上の見守り対象者201の頭の動きがあったときはこれに抵抗せず追従することで、快適に見守り対象者201の上半身の体重を支える。
 以上の構成により、実施例4では、図13に示すように、ベッド350に横臥している見守り対象者201を自然に抱き起こし、より親近感が増しかつ快適な状態において軟骨伝導によるコミュニケーションをとることができる。
 図15は、図14に示す実施例4のロボット306における制御部340の機能の一部を示すフローチャートである。上記のように実施例4は実施例3と共通するところが多いので、制御部340全体の機能を示すフローチャートについては図11における実施例3のものを流用する。換言すれば、図15のフローチャートは、図11のフローチャートにおけるステップS140の両手接触処理の詳細として説明する。なお、図11のフローチャートを実施例4のものとして流用する際、ステップS152の両手退避処理において、見守り対象者201の顔を解放するのに先立ち、対象者201の頭をゆっくりとベッド350に戻す処理を行う。また、実施例3においても共通であるが、ステップS152の両手退避処理が終了すると手のヒータ225aの加温も停止する。
 さて、図15のフローチャートは、図11のフローがステップS140に至るとスタートし、ステップS202で既にステップS140が実行されてロボット306の手が見守り対象者201に接触済みか否かチェックする。そして接触済みであることが検知されると、既に軟骨伝導が達成されているものと判断し、直ちにフローを終了する。この場合、ステップS140では何も行われなないことになる。
 一方、ステップS202でロボット306の手の接触が確認されないとステップS204に進み、手のヒータ225a、225bの人肌への急速加温を開始してステップS206に移行する。ステップS206では、接触同意コミュニケーション処理を行い、見守り対象者201の意思を尊重して抱き上げ接触への同意を促す。この際のコミュニケーションは実施例3と同様である。そして、3Dカメラ238およびステレオ外部気導音マイク246により相手の応答を待ちながら様子を観察してステップS208に移行する。
 ステップS208では、見守り対象者201の拒否の言葉または拒否の動作による見守り対象者201の意思表示がないかチェックし、接触拒否意思表示がないものと判断できればステップS210に移行する。ステップS210では、見守り対象者201が横臥者か否かチェックする。ステップS210で見守り対象者201が横臥者であることが確認できると、第1軟骨伝導振動源242a、第1触覚センサ231a、および第1骨導マイク244aを不動作状態とするとともに、第2軟骨伝導振動源342a、第2触覚センサ331aおよび第2骨導マイク344aを動作状態とする。これによって、親指321による軟骨伝導が行われる状態への切換えが完了するのでステップS214に移行する。
 ステップS214では、両手を顔に伸ばす方向と視線の方向を一致させる視線同調を開始しステップS216に進む。ステップS216では、3Dカメラ238の情報に基づいて左右の関節機構227a、227bおよび抱き起し用指調節機構355を駆動し、ロボット306の中指313から小指352を見守り対象者201の後頭部および首の後ろに差し入れて抱き起こす処理を実行し、ステップS218に進む。ステップS218では、抱き上げた状態において親指321と人差指354の曲がり具合を第2触覚センサ331a(必要に応じて第1触覚センサ231aも併用、以下も同様)および3Dカメラ238の情報により微調整し、それぞれ耳珠および乳様突起に接触させる処理を行ってステップS220に移行する。ステップS220では、第2触覚センサ331aおよび3Dカメラ238の情報により上記の接触が実現したか否かチェックする。確認がなければステップS218に戻り、接触が確認されるまでステップS218とステップS220を繰り返す。そしてステップS220で接触が確認されるとステップS222に進み、加圧リミッタをオンして見守り対象者201の顔を両手の親指321および人差指354で挟む圧力が過度にならないよう制限を開始する。
 次いで、ステップS224に進み、第2骨導マイク344aおよび第2軟骨伝導振動源342aをオンしてステップS226に進む。ステップS226では、口機構209が第2軟骨伝導振動源342aの振動による音声と連動して動くよう同調させ、ステップS228に移行する。
 ステップS228では、両手親指間の間隔および両手人差指間の間隔をそれぞれ保持したまま水平方向に両手が並行移動できるように関節を脱力させる処理が開始される。これは、既述のように、ロボット306の指が見守り対象者201を拘束することなく頭の自由な動きに合わせて両手が脱力状態で追従するよう制御する処理である。この処理はステップS228からフローが進んでも継続される。
 ステップS228の処理が開始されるとステップS230に進み、第2触覚センサ331aおよび3Dカメラ238の情報により親指321と人差指354がそれぞれ耳珠および乳様突起に接触しているか再確認する。そしてステップS230で接触が再確認されるとフローを終了する。この結果、フローは図11のステップS142に移行することになる。一方、ステップS230で接触が再確認できないとステップS232に進む。ステップS232では、ステップS218が開始されてから所定時間が経過したか否かチェックし、所定時間の経過がないとステップS218に戻る。以下、ステップS218からステップS232が繰り返される。その繰り返しの中で、ステップS230にて耳珠および乳様突起への指の接触が確認されるか、またはステップS232で所定時間の経過が確認されると、フローを終了し、図11のステップS142に移行する。なおステップS142の処理は、横臥者への対応の場合「耳珠・乳様突起接触確認?」と読替えることとする。
 一方、ステップS208において、見守り対象者201が少しでも接触拒否の意思表示をしていると判断がなされたときはステップS234に進み、手のヒータ225aによる人肌への加温を停止してフローを終了する。この場合は、ロボット306の手と見守り対象者201の接触による軟骨伝導は行われず、気導音によるコミュニケーションが継続される。
 なお、ステップS210において、見守り対象者201が横臥者であることが確認できない場合は、ステップS236に移行し、第2軟骨伝導振動源342a、第2触覚センサ331aおよび第2骨導マイク344aを不動作状態とするとともに、第1軟骨伝導振動源242a、第1触覚センサ231a、および第1骨導マイク244aを動作状態とする。これによって、中指313による軟骨伝導が行われる状態への切換えが完了するのでステップS238の自立者処理に移行し、処理が完了すると、フローを終了する。なお、ステップS238の自立者処理は、図12のステップS170からステップS196と同じものである。
 図16は、本発明の実施の形態に係る実施例5のシステム構成図である。実施例5は、図9から図12に示した実施例3と同様にして、軟骨伝導により人とコミュニケーション可能なロボット406として構成される。しかしながら、ロボット406は銀行における顧客応対システムとして構成される。そして、多数の顧客が訪れている銀行の騒音下における特定の顧客との円滑なコミュニケーションを可能にするとともに、プライバシー保護の観点からも有用なシステムを提供する。図16の実施例5は、実施例3と共通部分が多いので、同様の部分には同じ番号を付して必要のない限り説明を省略する。
 図16に示す実施例5が、図9に示す実施例3と異なるのは、ロボット406が片手で顧客の耳に接触しても良好な軟骨伝導を維持できるようにする点、多数の顧客と順次接触する際の衛生問題に対処する点、および顧客へのきめ細かな応対を可能にする点である。図16に図示するように、ロボット406は右手211のみで顧客401の左耳に接触している。具体的には、図9の実施例3と同様にして、中指413が耳珠232に接触し、親指421が頬骨に接触している。(同様にして、左手213のみで顧客401の右耳に接触することも可能である。)そして顧客401が頭を動かしたときにこれに追従して接触を維持するため、その指に加速度センサを備えている。また、顧客401とのきめ細かなコミュニケーションのためのICタグリーダを指に備えている。これらの詳細については後述する。
 図17は、図16に示した本発明の実施例5のロボット406のブロック図である。図16と共通する部分には同一の番号を付し、必要のない限り説明を省略する。なお、上記のように、実施例5は、実施例3と共通するとことが多いので、実施例4の場合と同様にして、実施例3と異なる右手211の構成を制御部440との関係で図示している。そして、その他の部分については、実施例3のブロック図である図10およびその説明を流用することとし、図17では図示を省略または簡略化している。さらに、図17に図示した部分についても、図10と共通の部分については、同じ番号を付し、説明を省略する。
 図17に明らかなように、ロボット406の右手211の中指413には軟骨伝導振動源442a、触覚センサ431aに加え、加速度センサ456が設けられている。加速度センサ456は、接触摩擦により頭の動きに引きずられる中指413の加速度を検出する。そして加速度センサ456の検知する加速度の情報、触覚センサ431aが検知する接触圧の変化の情報、および3Dカメラ238が検知する頭の動きの情報を総合して制御部440は、頭の動きを判定する。そしてこの判定に基づいて右関節機構227を駆動し、頭の動きに右手211の動きを追従させる。これにより、顧客401の頭が動いても中指413と耳珠の接触、および親指421と頬骨の接触が維持される。
 図17に示すように、薬指451にはICタグリーダ457が備えられている。これは、顧客401に配布される装身具(後述)にロボット406の右手211が触れたとき、その装身具に設けられているICタグの情報を読取るためのものである。なお、図16のように、ロボット406が直接顧客401の耳に触れる場合においては、ICタグリーダ457が顧客情報を読み取ることはない。上記装身具とその意義については後述する。
 図18は、図17の実施例5のロボット406における制御部440の機能を示すフローチャートである。フローは、ロボット406の主電源スイッチによる給電開始でスタートする。フローがスタートすると、ステップS242で銀行管理部との近距離通信のためのペアリング状況を確認し、未設定ならペアリング設定を自動で行う。次いで、ステップS246で通常応対機能を開始する処理を行う。この通常応対機能は、銀行においてロボット406が通常の気導音により顧客401と会話して応対する機能である。
 次いで、ステップS248で顧客401との会話を開始すべき状況か否かの判断がなされる。ステップS248で会話開始の判断がなされるとステップS250に進み、まずは、ステレオ外部気導音マイク246および気導音スピーカ223(図10参照)がオンされ、通常の気導音による会話が準備される。次いで、ステップS252において、顧客401が軟骨伝導により会話をすべき登録者(後述)か否かチェックする。ステップS252で軟骨伝導登録者であることが確認できない場合は、ステップS254に進み、周囲の気導音が所定以上であるか否かチェックする。銀行が顧客で混み合っているときなど、周囲の気導音が所定以上となって、ロボット406と特定の顧客401による個人的な会話が困難になる場合の把握がこのステップの目的である。ステップS254において、周囲の気導音が所定以上であると判断されるとステップS256に移行する。ステップS256では、軟骨伝導のためにロボット406が耳に触れることに顧客401が同意しているか否かチェックする。そして同意が確認できるとステップS258に移行する。一方、ステップS252において、顧客401が登録者であると判断された場合は、直ちにステップS258に移行する。
 ステップS258では、軟骨伝導のためにロボット406の片手を顧客401の片耳にに接触させるとともにこれを維持するための処理が開始される。その詳細は後述する。ステップS258の片手接触処理が開始されるとステップS260に進み、ロボット406の中指413が見守り顧客401の耳珠に、また、親指421が顧客401の頬骨に、それぞれ接触していることの確認が行われる。そして、この確認ができるとステップS262に進み、ステレオ外部気導音マイク246および気導音スピーカ223(図10参照)をオフするとともに、骨導マイク244aおよび軟骨伝導振動源442aをそれぞれオンしてステップS264に移行する。これによって、気導音による会話が軟骨伝導および骨導マイク244aによる会話に切換えられる。
 次いでステップS264では、顧客401が軟骨伝導により会話をすべき登録者(後述)か否かチェックし、登録者であることが確認できるとステップS266に進んでICタグ管理処理を行い、ステップS268に移行する。ステップS266におけるICタグ管理処理の内容は後述する。一方、ステップS264で顧客401が登録者であることが確認できないとステップS270に移行し、ロボット406の手が直接顧客401に触れる状態(図16の状態)における一般メニュー処理を行い、ステップS268に移行する。
 また、ステップS260において上記の耳珠および頬骨への接触が確認できない場合は、直接ステップS268に移行する。さらに、ステップS254において、周囲の気導音が所定以上であると判断されなかった場合、またはステップS256において軟骨伝導のためにロボット406が耳に触れることへの顧客401の同意が確認できなかった場合も直接ステップS268に移行する。これらの場合、ロボット406の片手を顧客401の耳に接触させる処理は行われず、骨導マイク244aおよび軟骨伝導振動源442aのオンも行われないので、ステレオ外部気導音マイク246および気導音スピーカ223による会話が続行されることになる。
 ステップS268はロボット406による顧客401に対する会話応対が終了したか否かの判断が行われる。この判断は、実施例3と同様にして、お互いの無言状態が所定時間以上続いたか否かのチェック、および会話内容の分析と会話終了に特有のキーワードの有無等により総合的に行われる。ステップS268で会話応対終了との判断がなされない場合は、ステップS252に戻り、以下会話応対終了との判断がなされるまでステップS252からステップS268が繰り返される。この繰り返しによって、まだ軟骨伝導が実行されていない状態においてステップS254で周囲の音量が所定以上となった場合等において、軟骨伝導への移行が可能となる。
 一方、ステップS268で会話応対終了との判断がなされるとステップS272に移行し、軟骨伝導状態であるか否かチェックする。そして、軟骨伝導状態であればステップS274に移行し、ロボット406の片手を退避させ、ステップS276に移行する。このとき、後述のように顧客401が自らの手でロボット406の手を耳に当てている場合、顧客401の手を跳ね除けないよう、顧客401の手の負荷をモニタしながら顧客401が自然に手を離すまで穏やかな退避行動を実行する。一方、ステップS272で軟骨伝導状態でないことが確認されると直接ステップS276に移行する。
 ステップS276では、ロボット406の主電源スイッチのオフまたは電源部248(図10参照)の充電池の消耗によりロボット406への給電が停止したか否かのチェックが行われる。給電停止が確認されない場合はステップS248に戻る。以下、ステップS276で給電停止が確認されるまで、ステップS248からステップS276を繰り返し、ロボット406の種々の状況変化に対応する。一方、ステップS276で給電停止が確認されるとステップS278に至り、所定の終了処理を行ってフローを終了する。なお、この終了処理には、フェイルセーフとして、万一ロボット406の片手が顧客406の顔の方向に伸びたままである場合、これを退避させる機能が含まれる。その退避にあたっては、ステップS274で説明したのと同様に顧客406の手を跳ね除けない等の安全措置が講じられる。
 図19は、図18のステップS258における片手接触・維持処理の詳細を示すフローチャートである。フローがスタートすると、ステップS282において、ロボット406の手が顧客401に接触済みか否かチェックする。接触済みであることが検知されない場合、ステップS284に進み、手のヒータ225aによる人肌への急速加温を開始してステップS286に移行する。ステップS286では、接触案内コミュニケーション処理を行う。案内は、主に気導音によって行われるが、ロボット406の胸に表示部を設けて視覚的に行ってもよい。またその内容は、基本的には軟骨伝導によるコミュニケーションそのものの説明であるが、顧客401自身の手でロボット406の手を取って耳に導く方法や、ロボット406が自動的に顧客401の顔に手を伸ばして接触を試みる方法などの具体的な接触方法を紹介するとともに、その選択を求めるコミュニケーションを含む。このようなコミュニケーションを経てステップS288に進む。
 ステップS288では、顧客401が自身の手でロボット406の手を取って耳に導く方法を選んだか否かを判断する。この判断は、顧客401の選択応答だけでなく、顧客401がいきなりロボット406の手をとって自分の耳に導く動作を始めてしまったことの検知による場合も含む。ステップS288で顧客401が手取り接触を選択していないと判断された場合はステップS290に進み、ロボット406の片手を顧客401の顔に伸ばす方向とロボット406の視線の方向を一致させる視線同調を開始しステップS292に進む。
 ステップS292では、自動的に片手を伸ばして指を顧客401の耳に接触させるため、3Dカメラ238の情報に基づいて右関節機構227a(または左関節機構227bでも可)を駆動する片手調節処理を実行し、ステップS294に進む。ステップS294では、片手が顔に接触することによる負荷が右関節機構227aの負荷検知センサにより検知されたか否かチェックする。そして検知がなければステップS292に戻り、片手が顔に接触するまでステップS292およびステップS294を繰り返す。そしてステップS294で負荷が検知されると加圧リミッタをオンしてロボット406の手が顧客401の顔を片側から押す圧力が過度にならないよう制限を開始し、ステップS296に進む。上記の加圧リミッタは、ロボット406が顧客401を横向きに押し倒してしまうような事故を防ぐ。
 一方、ステップS288で顧客401が自身の手でロボット406の手を取って耳に導く方法が選ばれたと判断すると、ステップS298の関節脱力処理に移行し、顧客401の手の動きに抵抗せず、ロボット406の手を導かれるままとする。なお、この脱力処理は、ロボット406の手の自重の負荷を顧客401の手にかけないようにするため、ロボット406の腕の上下方向を無重量状態でバランスさせるとともに上下左右には抵抗なく動くようロボット406の胴体219(図10参照)に支持する。ステップS298において、顧客401自身の手でロボット406の片手が顔に接触したことが確認されるとステップS296に移行する。
 ステップS296では、骨導マイク244aおよび軟骨伝導振動源442aをオンしてステップS300に進む。この状態では、気導音スピーカ223(図10参照)ならびに骨導マイク244aもオン状態で併用される。ステップS300では、気導音スピーカ223のみからの発話の場合と同様にして、口機構209(図10参照)が軟骨伝導振動源442aの振動による音声と連動して動くよう同調を継続させる。ステップS300による同調は、図18のステップS262において気導音スピーカ223がオフになっても継続される。
 次いでステップS302による指調節処理が開始される。これは、中指413の曲がり具合を微修正しながら指先が顧客401の耳珠に接触するようにするとともに、親指421の曲がり具合を微修正し、顧客401の頬骨に接触するようにする処理が開始される。次いで、ステップS304では、上記の結果として中指413が耳珠に接触し、親指421が頬骨に接触したか否かがチェックされ、接触が確認できるとステップS306に進んで正常な接触状態を接触センサ431aの圧力および3Dカメラ238(図10参照)の画像として登録する。その上で、ステップS308に進み、加速度センサ456および接触センサ431aの出力変化のモニタを開始する。また、ステップS310で3Dカメラ238による顔認識位置の変化のモニタを開始する。
 そして、ステップS312で、加速度センサ456、接触センサ431aの出力変化および3Dカメラ238による顔認識位置の変化があったか否かチェックする。そして何らかの変化があればステップS314に移行し、検知された頭の動きにロボット406の手を追従させる追従処理を行ってフローを終了する。これらの処理は、既に説明したように、接触摩擦により頭の動きに引きずられて動く中指413の加速度を加速度センサ456で検出するとともに、触覚センサ431aが検知する接触圧の変化(頭がロボット406の手から離れる方向に動くと減圧、頭がロボット406の手を押す方向に動くと昇圧)を検出し、さらに3Dカメラ238が検知する頭の動きの情報も加味して総合的に制御部440により頭の動きを判定し、その動きを補償する方向にロボット406の手を追従させることで、顧客401の頭が動いても、中指413と耳珠の接触、および親指421と頬骨の接触を維持する処理である。なお、ステップS312で、加速度センサ456、接触センサ431aの出力変化および3Dカメラ238による顔認識位置の変化がいずれも検出されない場合は、頭は静止していると考えられるので直ちにフローを終了する。
 一方、ステップS304で中指413と耳珠の接触および親指421と頬骨の接触が確認されない場合、ステップS316に移行し、ステップS302が開始されてから所定時間が経過したか否かチェックする。そして、所定時間が経過していなければステップS302に戻り、ステップS304で接触が検知されるかステップS316で所定時間の経過が検知されるまでステップS302、ステップS304およびステップS316のループを繰り返す。そして、ステップS316で所定時間の経過が検知された場合は直ちにフローを終了する。以上のいずれかにより図19のフローが終了すると図18のステップS260に移行する。
 図20は、図16から図19で説明した実施例5においてロボット406の中指413が装身具を介して顧客401の耳珠232に接触している様子を示す側面図である。全体システムは図16と共通であるが接触部分以外の図示は省略している。図20(A)は、装身具の一例としてイヤーウォーマ461が両耳に装着されている。そして耳珠232はイヤーウォーマ461の下に隠れ、ロボット406の中指413はイヤーウォーマ461を介して間接的に顧客401の耳珠232に接触している。
 一方、図20(B)は、装身具の一例としてヘヤバンド462が頭に装着されている。そして耳珠232はヘヤバンド462の下に隠れ、ロボット406の中指413はヘヤバンド462を介して間接的に顧客401の耳珠232に接触している。また、図20(C)は、装身具の一例としてイヤーカフ463が耳珠に装着されている。そして、ロボットの中指413はイヤーカフ463の上から間接的に顧客401の耳珠に接触している。さらに、図20(D)は、装身具の一例として子供用キャラクターグッズ464が耳に装着されている。そして耳珠は子供用キャラクターグッズ464の下に隠れ、ロボット406の中指413は子供用キャラクターグッズ464を介して間接的に顧客401の耳珠に接触している。これらの装身具は、銀行を訪れた顧客401が自身の個人情報および相談要件を登録するのと引き換えにプレゼントとして顧客401に配布される。そして装身具にはICタグが設けられていて、顧客IDが銀行管理部によって書き込まれている。ロボット406の手(例えば薬指451)には図17に示すようにICタグリーダ457が設けられており、図20のようにロボット406の手が装身具に近接するとその顧客401のIDを読み取ることができる。
 図20に示す装身具は、衛生面の対策としても意義がある。銀行には不特定多数の顧客が訪れ、ロボット406の手は多数の顧客の耳に触れることになるが、その際、衛生面の観点から、誰を触ったかわからないロボット406の手で触れられるのを嫌う顧客も存在する。図20に示す装身具は、耳を覆うことによってロボット406の手が直接顧客の肌に触れるのを防止し、このような顧客の要望に応えることができる。そして、装身具を装着することは、ICタグによって顧客401を特定することができる利点があり、予め登録した相談要件に応じて、顧客毎に適切かつきめ細かな応対が可能となる。従って、顧客は装身具のプレゼントをもらえると共に衛生面の利点、およびより適切な応対を受ける利点を享受できるので、ロボット406との接触を求めて銀行を訪れるインセンティブがさらに高まる。
 図21は実施例5における銀行全体のシステムブロック図であり、ICタグの機能に関する部分を抽出して図示している。図17および図20と同じ部分には同じ番号を付して必要のない限り説明を省略する。
 図21において、銀行管理部472は、顧客がロボット406と接触する前に、顧客に応対する。そして受付データ入力部476(受付操作者が入力するキーボードまたは銀行カードリーダ)により、顧客を特定すると共に、その顧客が相談したい要件情報を入力する。銀行制御部478は、上記のようにして入力された情報を顧客データベース480に格納するとともに、ICタグリーダ482によって顧客IDを装身具461(イヤーウォーマ461で代表して図示)のICタグ470に書き込み、受け付けた顧客に装身具461をプレゼントとして配布する。
 次に、図20のように、配布された装身具461を装着した顧客401がロボット406に接触すると、薬指451に設けられたICタグリーダ457は、装身具461に設けられたICタグ470に書込まれた顧客IDを読み取り、近距離通信部213aから銀行管理部472の近距離通信部474に対して現在接触している顧客401の特定情報を送信する。これにより、銀行管理部472は顧客データベース480に格納されていた該当する顧客401の要件情報を読み出し、近距離通信部474からロボット406の近距離通信部213aに返信する。これによってロボット406は予め登録された相談要件に沿って特定の顧客401とコミュニケーションすることが可能となる。コミュニケーションは、ロボット406の中指413に設けられた軟骨伝導振動源442aの振動が、装身具461を介して間接的に耳珠232に伝達されることにより、また骨導マイク244aが顧客401の発言をピックアップすることにより行われる。
 図22は、図21の銀行制御部478の機能を示すフローチャートである。フローは、銀行の当日開業とともにスタートし、ステップ320で顧客登録に関連する応対が要求されているか否かチェックする。要求があればステップS322に移行し、要求が顧客の新規登録であるか否かチェックする。新規登録であれば、ステップS324において顧客との間でプライバシー保護に関する相互了解処理を行いステップS326に移行する。ステップS326では顧客IDを付与する。
 次いでステップS328で顧客情報の入力が完了したか否かチェックし、完了であればステップS330で顧客の用件情報の入力が完了したか否かチェックする。そしてこれも完了すればステップS332に移行し、付与したID別に顧客情報および用件情報を顧客データベース480に格納してステップS334に移行する。ステップS334では登録した顧客に配布する装身具のICタグへのID書き込みが完了したか否かチェックし、完了が確認するとステップS336に移行する。また、このとき顧客への装身具の配布が行われる。一方、ステップS322で新規登録が要求されていなければ、登録が完了して装身具も配布された状態であると判断され、直接ステップS336に移行する。
 ステップS336では、ロボット406が、接触している顧客401の顧客IDをICタグリーダ457により読取って送信してきたか否かチェックする。そして、送信があればステップS338に進み、受信した顧客IDに対応する顧客情報を顧客データベース480から読み出す。さらに、ステップS340に進み、受信した顧客IDに対応する用件情報を顧客データベース480から読み出す。そして、ステップS342でこれら読出しデータをロボット406に送信する。
 次いで、ステップS344で、ロボット406から軟骨伝導に基づく会話記録を受信したか否かチェックする。そして受信した会話記録があればステップS346に進み、顧客ID別に会話情報としてこれを分析するとともに整理して顧客データベース480に書き込みステップS348に移行する。ステップS344で受信が確認されなければ直接ステップS348に移行する。ステップS348ではロボット406による顧客401への応対が終了したか否かチェックし、終了でなければステップS344に戻って、応対の終了までステップS344からステップS348を繰り返す。そしてステップS348で応対終了が検知されるとフローを終了する。
 一方、ステップS336で、ロボット406が顧客IDを読取って送信してきたことが確認できないと直ちにフローを終了する。また、ステップ320において顧客登録に関連する応対の要求が確認されない場合はステップS350に進み、ICタグ470による処理を伴わない一般応対処理を行ってフローを終了する。
 図23は、本発明の実施の形態に係る実施例6に関する斜視図であり、実施例5と同様の銀行における応対システムとして構成される。但し、実施例5が人型ロボットを利用したシステムであるのに対し、実施例6は顧客が対面するディスプレイと、このディスプレイの側面に備えられ、顧客が自分の手で自分の耳に導ける伸縮自在の軟骨伝導送受話部とを有するシステムとして構成される。
 以下、図23に基づいて詳細に説明する。図23(A)は、設置型応対装置701の正面図であり、設置型応対装置701はタッチパネルを兼ねた大画面表示部705を備える。設置型応対装置701には、その右辺において、自在継手703で接続された伸縮自在の軟骨伝導送受話部781が備えられている。軟骨伝導送受話部781は、上端が軟骨伝導部724になっているとともに、中間部分にマイク723が設けられている。軟骨伝導送受話部781は、後述のように軟骨伝導部724を上方に引出し可能な伸縮自在構造になっている。なお、図23(A)は、基本的には軟骨伝導送受話部781を使用しないで設置型応対装置701の右辺に収納した状態を示している。
 一方、図23(B)は、設置型応対装置701の軟骨伝導送受話部781を利用する場合の状態を示す。図23(B)に明らかなように、顧客自身の手により、矢印781aの方向にスライド部781cをスライドさせて軟骨伝導部724を上方に引出すとともに、矢印781bの方向に軟骨伝導部724を前方に倒すことが可能となっている。なお、上記のように軟骨伝導送受話部781は自在継手703によって設置型応対装置701に接続されているので、倒す方向は前方に限らず任意の方向に倒すことができる。
 上記の構成により、大画面表示部705に表示される銀行情報を見る姿勢のまま、引き出した軟骨伝導部724を顧客自身の手で耳軟骨に当て、銀行の騒音下でも音声による銀行情報を聞くことができる。一方、自分の声は、このような状態において口の近くに来るマイク723によって拾うことができる。また、軟骨伝導部724は自重により倒れたり顧客に加重をかけたりしないようバランスしているとともに、顧客の手の動きに抗さないよう脱力状態で支持される。この点は、実施例5と共通である。
 また、図23(B)に示すように、大画面表示部705に軟骨伝導部724を引出す方法を表示し、初めての顧客が正しく軟骨伝導による銀行とのコミュニケーションをとることができるようにする。
 以上の各実施例に示した種々の特徴の実施は、個々の実施例に限るものではなく、その利点を享受できる限り、他の実施例でも実施可能である。また、各実施例に示した種々の特徴は、種々変形して実施することが可能である。これらの変形は適宜組合せて実施することが可能であるとともに、一部変形前の状態と組み合わせて実施することも可能である。例えば、実施例5に関連して図20から図22に示した装身具を用いる構成は、図23に示した実施例6でも応用可能である。
 なお、実施例5において顧客IDを保持する手段としてICタグを示しているが、このような情報保持手段として採用可能なものはICタグに限らず、バーコードまたは二次元バーコードでもよい。また、情報保持手段に、顧客IDを直接保持させる構成に限らず、装身具を区別可能な装身具IDを保持させ、どの装身具をどの顧客に配布したかを関連付ける情報を顧客データベースに保持しておけば、装身具IDを読取ることにより、間接的に装着者を特定することができる。
 また、実施例5の図19において説明した片手接触・維持処理は、図20に示すように装身具を介して間接的に耳珠等に振動を伝達する場合においても有効であることはいうまでもない。
<総括>
 以下では、本明細書中に開示されている種々の実施例の特徴について総括的に述べる。
 本明細書中に開示されている実施例の特徴は、軟骨伝導振動源と見守り検知センサとを持ち外耳道入口を開放した状態で耳に装着される見守り検知装置と、前記見守り検知装置との間の近距離通信により前記見守り検知センサからの見守り情報を受信する見守り通報装置とを有することを特徴とする見守りシステムを提供する。これにより快適な見守り検知装置の装着が可能となる。
 具体的な特徴によれば、前記見守り検知装置は外部気導音マイクを有し、前記外部気導音マイクで拾った音声信号により前記軟骨伝導振動源を振動させることにより補聴器として機能する。これにより、日常的に使用される補聴器を利用して見守りを行なうことができる。他の具体的な特徴によれば、前記見守り検知装置は、近距離通信により前記見守り通報装置から受信した音声信号により前記軟骨伝導振動源を振動させる。これにより、携帯電話等、他の装置からの音声信号を聞く装置を利用して見守りを行なうことができる。
 他の具体的な特徴によれば、前記見守り検知センサは、咀嚼運動センサである。他の具体的な特徴によれば、前記見守り検知センサは、音声センサである。例えば、前記音声センサは骨導マイクまたは気導音マイクである。
 他の具体的な特徴によれば、前記見守り通報装置は、見守り検知センサから所定時間検知信号が受信できないとき外部への通報を行なう。
 本明細書中に開示されている実施例の他の特徴によれば、見守り検知装置と、前記見守り検知装置との間の近距離通信により前記見守り検知装置から見守り情報を受信する複数の見守り通報装置とを有し、前記複数の見守り通報装置間で受信した見守り情報の交換を行なうこと特徴とする見守りシステムが提供される。これによって、ひとつの見守り通報装置による見守り情報の受信に欠落があっても、他の見守り通報装置が受信する見守り情報を共有することができ、複数の見守り通報装置間で混乱が生じるのを防止できる。
 本明細書中に開示されている実施例の他の特徴によれば、見守り検知装置と、前記見守り検知装置との間の近距離通信により前記見守り検知装置から見守り情報を受信する複数の見守り通報装置とを有し、前記複数の見守り通報装置は前記見守り情報に基づき異なる通報を行なうこと特徴とする見守りシステムが提供される。これによって、性質の違う複数の見守り通報装置のそれぞれに適した見守りが可能となる。具体的な特徴によれば、前記複数の見守り通報装置は、携帯電話および住居内に設置される通報装置を含む。
 本明細書中に開示されている実施例の他の特徴によれば、音声センサを持つ見守り検知装置と、前記見守り検知装置との間の近距離通信により前記見守り検知センサからの見守り情報を受信する見守り通報装置とを有し、前記見守り通報装置は、前記音声センサが拾う音声信号の存否を外部に通報するとともに音声信号の内容は通報しないことを特徴とする見守りシステムが提供される。これによって見守り対象者のプライバシーが保護される。具体的な特徴によれば、前記見守り通報装置は、前記音声センサが拾う音声信号の緊急性を判断し、緊急性が高いときは例外として音声信号の内容を通報する。これにより、例えば悲鳴や救助要請において生の声による具体的な通報を得ることができる。
 本明細書中に開示されている実施例の他の特徴によれば、軟骨伝導振動源と、見守り検知センサとを有し、外耳道入口を開放した状態で耳に装着されることを特徴とする見守り検知装置が提供される。これにより快適な見守り検知装置の装着が可能となる。
 具体的な特徴によれば、前記見守り検知装置は外部気導音マイクを有し、前記外部気導音マイクで拾った音声信号により前記軟骨伝導振動源を振動させることにより補聴器として機能する。他の具体的な特徴によれば、近距離通信により前記見守り通報装置から受信した音声信号により前記軟骨伝導振動源を振動させ、携帯電話等、他の装置からの音声信号を聞く装置として機能する。
 他の具体的な特徴によれば、前記見守り検知センサは、咀嚼運動センサである。より具体的な特徴によれば、前記咀嚼運動センサは前記軟骨伝導振動源と兼用することができる。他の具体的な特徴によれば、前記見守り検知センサは、音声センサである。より具体的には、前記音声センサは骨導マイクである。さらに具体的には、前記骨導マイクは前記軟骨伝導振動源と兼用することができる。
 他の具体的な特徴によれば、前記見守り検知センサは、補聴器機能のための気導音マイクを有し、前記骨導マイクが使用されるとき前記気導音マイクをオフする。他の具体的な特徴によれば、前記音声センサは気導音マイクである。
 本明細書中に開示されている実施例の他の特徴によれば、音声センサからの見守り情報の取得部と、前記取得部が取得した音声信号の存否を外部に通報するとともに音声信号の内容は通報しない通報部とを有することを特徴とする見守り通報装置が提供される。これによって見守り対象者のプライバシーが保護される。具体的な特徴によれば、前記通報部は、前記取得部が取得した音声信号の緊急性を判断し、緊急性が高いときは例外として音声信号の内容を通報する。
 また、本明細書中に開示されている実施例は、手と、前記手に設けられた軟骨伝導振動源とを有することを特徴とするロボットを提供する。これにより自然な動作によるロボットと人との軟骨伝導によるコミュニケーションが可能となる。
 具体的な特徴によれば、ロボットは両手を有し、前記両手のそれぞれに前記軟骨伝導振動源が設けられる。これにより、例えばロボットの両手で人の顔をやさしく包むような癒しのある演出で軟骨伝導によるロボットと人のコミュニケーションが可能となる。さらにステレオによる聴取も可能となる。
 他の具体的な特徴によれば、ロボットは前記手に指を有し、前記軟骨伝導振動源は前記指に設けられる。これにより、より効率の良い軟骨伝導が可能となる。
 より詳細な特徴によれば、前記手全体を耳軟骨に接触するよう導くとともに、前記指を耳珠に導くよう調整する関節機構を有する。これにより適切な軟骨伝導のための調節が可能となる。
 他の具体的な特徴によれば、両手が軟骨伝導のためにそれぞれ両耳の軟骨に接触するとき、前記両手が両者の相対位置は維持しつつ顔の動きを拘束しないよう制御する制御部をロボットが有する。これにより、束縛感のない軟骨伝導が可能となる。
 他の具体的な特徴によれば、ロボットは外観が可動の目を有し、前記目の視線が前記両手の間を向くよう同調して動かされる。これにより、ロボットとの間でより親密な軟骨伝導によるコミュニケーションが可能となる。
 他の具体的な特徴によれば、ロボットは外観が可動の口機構を有し、前記口機構は前記軟骨伝導振動源の振動によって伝達される音声と連動して動くよう制御される。これによって、自然な軟骨伝導によるコミュニケーションが可能となる。
 他の具体的な特徴によれば、前記軟骨伝導振動源の振動を耳軟骨に伝達するよう前記手が耳軟骨に接触するときその接触圧を制限するリミッタをロボットが有する。これにより安全な軟骨伝導によるコミュニケーションが可能となる。
 他の具体的な特徴によれば、前記軟骨伝導振動源の振動を耳軟骨に伝達するよう前記手を耳軟骨に接触させる際、同意を求めるコミュニケーション手段をロボットが有する。これによって、不快感のない軟骨伝導によるコミュニケーションが可能となる。
 他の具体的な特徴によれば、前記軟骨伝導振動源の振動を耳軟骨に伝達するよう前記手を耳軟骨に接触させる際、事前に安全確認を行う制御部をロボットが有する。これによって、安全性の高い軟骨伝導によるコミュニケーションが可能となる。
 他の具体的な特徴によれば、ロボットは異常検知手段を有し、前記軟骨伝導振動源の振動を耳軟骨に伝達するよう前記手を耳軟骨に接触させる際、前記異常検知手段が異常を検知したとき、前記手の耳軟骨への接触が解除される。これによって万一の場合における不具合を回避できる。
 本明細書中に開示されている実施例の他の特徴によれば、手と、前記手を人肌に加温するヒータとを有することを特徴とするロボットが提供される。これによって快適なスキンシップが実現できる。
 また、本明細書中に開示されている実施例は、人の耳軟骨に振動を伝達するための軟骨伝導部と、前記人が装着し少なくとも前記耳軟骨の一部を覆う装身具とを有し、前記装身具を介して間接的に前記軟骨伝導部の振動を前記耳軟骨に伝達することを特徴とする軟骨伝導聴取システムを提供する。これによって、軟骨伝導部が直接耳軟骨に触れることから生じる問題点を解決することができる。具体的な特徴によれば前記軟骨伝導部は多数の人に共用されるとともに、前記装身具は前記多数の人に個別に装着される。これによって、誰が触れたのかわからない軟骨伝導部を共用するにもかかわらず、衛生的に軟骨伝導の利点を享受できる聴取システムが実現できる。
 他の具体的な特徴によれば、前記装身具は、イヤーウォーマ、ヘヤバンド、イヤーカフおよび耳装着用キャラクターグッズのいずれか一つとして構成される。これによって、自然に装身具を装着する動機付けが可能となる。
 他の具体的な特徴によれば、本実施例の軟骨伝導聴取システムは銀行の応対システムとして構成される。これによって、誰が触れたのかわからない軟骨伝導部を共用するにもかかわらず、衛生的に軟骨伝導の利点を享受できる本発明の聴取システムの利点を好適に活用できる。
 また、他の具体的な特徴によれば、本実施例の軟骨伝導聴取システムは、装着者を特定するための情報を保持する情報保持部を前記装身具に設けるとともに、前記軟骨伝導部が前記装身具を介して前記軟骨伝導部の振動を前記耳軟骨に伝達できる状態において前記情報を読取る手段を有する。これによって、装着者の要望にきめ細かく対応できる聴取システムが提供できるので装身具を装着する動機付けが可能となる。より具体的な特徴によれば、前記情報は装着者の情報である。他のより具体的な特徴によれば、前記情報は装身具を特定する情報であるとともに装着者と装身具との関係を示す情報を保持する関係情報保持手段が設けられる。
 本実施例の他の具体的な特徴によれば、前記軟骨伝導部はロボットの指に設けられる。これによって、耳軟骨への接触の興が増し、有効に軟骨伝導を活用できる。
 より具体的な特徴によれば、前記ロボットの指を前記人が前記耳軟骨に導く際、それに抗さないよう前記ロボットの腕を保持する関節機構が前記ロボットに設けられる。これによって確実に軟骨伝導部を耳軟骨に導くことができるとともに、人とロボットの間で軟骨伝導のための円滑な協働が可能となる。
 他のより具体的な特徴によれば、前記軟骨伝導部が前記人の片側の耳に振動を伝達するとともに、前記人の頭の動きに対して前記ロボットの指を追従させる追従手段が設けられる。これによって片側の耳に振動を伝達するにもかかわらず、人の頭の動きによって振動伝達が断たれることがないようにすることができる。
 本実施例の他の特徴によれば、人の耳軟骨に振動を伝達するための軟骨伝導部と、前記軟骨伝導部を可動的に支持する支持部を有し、前記支持部は、前記人が前記耳軟骨に導く際、それに抗さないよう前記軟骨伝導部を支持することを特徴とする軟骨伝導聴取システムが提供される。これにより、使用者に不快感を与えることなく確実に軟骨伝導部を耳軟骨に導くことができる。具体的な特徴によれば、前記軟骨伝導部はロボットの指に設けられる。他の具体的な特徴によれば、本実施例の軟骨伝導聴取システムは表示画面を有し、前記軟骨伝導部は前記支持部により前記表示画面に支持される。
 本実施例の他の特徴によれば、人の耳軟骨に振動を伝達するためにロボットの指に設けられる軟骨伝導部と、前記軟骨伝導部が前記人の片側の耳に振動を伝達するとき前記人の頭の動きに対し前記ロボットの指を追従させる前記ロボットに設けられた追従手段とを有することを特徴とする軟骨伝導聴取システムが提供される。これによって片側の耳に振動を伝達するにもかかわらず、人の頭の動きによって振動伝達が断たれることがないようにすることができる。
 本実施例の他の特徴によれば、人の耳軟骨に振動を伝達するためにロボットの第一の指に設けられる軟骨伝導部を有し、前記ロボットの第二の指にて前記人の頭部を支えることを特徴とする軟骨伝導聴取システムが提供される。これによって例えば横臥している人を自然に起こしてコミュニケーションを図ることができる。
 具体的な特徴によれば、前記ロボットの左右の手の前記第一の指にそれぞれ設けられ、それぞれ前記人の左右の耳軟骨に振動を伝えるとともに、前記ロボットの左右の手の前記第二の指にて前記人の頭部を支える。他の具体的な特徴によれば、前記第一の指は親指であり、前記第二の指は中指である。
 本実施例の他の特徴によれば、上記のような種々の軟骨伝導聴取システムに用いられる好適なロボットが提供される。
 本発明は、人とコミュニケーション可能なロボット、ないしは、銀行等における応対システムに適用することができる。
211、213 手
242a、242b 軟骨伝導振動源
206 ロボット
213 指
227a、227b 関節機構
227a、227b、240 制御部
207 目
209 口機構
225a、225b ヒータ
240 リミッタ
223、215、217、240 コミュニケーション手段
240 制御部
246、238、227a、227b 異常検知部
321、313、413、724 軟骨伝導部
461、462、463、464 装身具
470 情報保持部
457 情報を読取る手段
480 関係情報保持手段
227a 関節機構
431a、456、238、440 追従手段
227a 支持部
705 表示画面
321 第一の指
313 第二の指

Claims (20)

  1.  手と、前記手に設けられ人の耳軟骨に振動を伝達するための軟骨伝導振動源とを有することを特徴とするロボット。
  2.  両手を有し、前記両手のそれぞれに前記軟骨伝導振動源が設けられたことを特徴とする請求項1記載のロボット。
  3.  前記手に指を有し、前記軟骨伝導振動源は前記指に設けられていることを特徴とする請求項1記載のロボット。
  4.  前記手全体を耳軟骨に接触するよう導くとともに、前記指を耳珠に導くよう調整する関節機構を有することを特徴とする請求項3記載のロボット。
  5.  前記両手が軟骨伝導のためにそれぞれ両耳の軟骨に接触するとき、前記両手が両者の相対位置は維持しつつ顔の動きを拘束しないよう制御する制御部を有することを特徴とする請求項2記載のロボット。
  6.  外観が可動の目を有し、前記目の視線が前記両手の間を向くよう同調して動かされることを特徴とする請求項2記載のロボット。
  7.  外観が可動の口機構を有し、前記口機構は前記軟骨伝導振動源の振動によって伝達される音声と連動して動くことを特徴とする請求項1記載のロボット。
  8.  前記手を人肌に加温するヒータを有することを特徴とする請求項1記載のロボット。
  9.  前記軟骨伝導振動源の振動を耳軟骨に伝達するよう前記手が耳軟骨に接触するときその接触圧を制限するリミッタを有することを特徴とする請求項1記載のロボット。
  10.  前記軟骨伝導振動源の振動を耳軟骨に伝達するよう前記手を耳軟骨に接触させる際、同意を求めるコミュニケーション手段を有することを特徴とする請求項1記載のロボット。
  11.  前記軟骨伝導振動源の振動を耳軟骨に伝達するよう前記手を耳軟骨に接触させる際、事前に安全確認を行う制御部を有することを特徴とする請求項1記載のロボット。
  12.  異常検知手段を有し、前記軟骨伝導振動源の振動を耳軟骨に伝達するよう前記手を耳軟骨に接触させる際、前記異常検知手段が異常を検知したとき、前記手の耳軟骨への接触を解除することを特徴とする請求項1記載のロボット。
  13.  前記手を耳軟骨に導く外力に抗さないようロボットの腕を保持する関節機構を有することを特徴とする請求項1記載のロボット。
  14.  前記軟骨伝導振動源が人の片側の耳に振動を伝達するとともに、前記人の頭の動きに対し前記手を追従させる追従手段を有することを特徴とする請求項1記載のロボット。
  15.  前記手は、前記軟骨伝導振動源が設けられる第一の指と、人の頭部の重量を支える第二の指を有することを特徴とする請求項1記載のロボット。
  16.  手と、前記手を人肌に加温するヒータとを有することを特徴とするロボット。
  17.  人の耳軟骨に振動を伝達するための軟骨伝導振動源が手に設けられるとともに多数の人に共用されるロボットと、前記多数の人に個別に装着されるためのものであって少なくとも前記耳軟骨の一部を覆う装身具とを有し、前記装身具を介して間接的に前記軟骨伝導振動源の振動を前記多数の人の一人の耳軟骨に伝達することを特徴とするロボットシステム。
  18.  前記装身具は、イヤーウォーマ、ヘヤバンド、イヤーカフおよび耳装着用キャラクターグッズのいずれか一つとして構成されることを特徴とする請求項17記載のロボットシステム。
  19.  装着者を特定するための情報を保持する情報保持部を前記装身具に設けるとともに、前記ロボットに前記情報を読取る手段が設けられたことを特徴とする請求項17記載のロボットシステム。
  20.  多数の装着者に個別に装着されるとともに装着者を特定するための情報を保持する情報保持部が設けられた装身具と、前記情報を読取る手段が設けられたロボットとを有することを特徴とするロボットシステム。
PCT/JP2016/070848 2015-07-15 2016-07-14 ロボットおよびロボットシステム WO2017010547A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP16824527.2A EP3323567B1 (en) 2015-07-15 2016-07-14 Robot and robot system
US15/743,723 US10967521B2 (en) 2015-07-15 2016-07-14 Robot and robot system
CN201680041763.8A CN107848125B (zh) 2015-07-15 2016-07-14 机器人和机器人系统
KR1020187000808A KR102056550B1 (ko) 2015-07-15 2016-07-14 로봇 및 로봇 시스템

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2015-141168 2015-07-15
JP2015141168A JP6667172B2 (ja) 2015-07-15 2015-07-15 ロボット
JP2016138187A JP6783451B2 (ja) 2016-07-13 2016-07-13 聴取システムおよび聴取システムに用いられるロボット
JP2016-138187 2016-07-13

Publications (1)

Publication Number Publication Date
WO2017010547A1 true WO2017010547A1 (ja) 2017-01-19

Family

ID=57757284

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/070848 WO2017010547A1 (ja) 2015-07-15 2016-07-14 ロボットおよびロボットシステム

Country Status (7)

Country Link
US (1) US10967521B2 (ja)
EP (1) EP3323567B1 (ja)
KR (1) KR102056550B1 (ja)
CN (1) CN107848125B (ja)
HK (1) HK1255537A1 (ja)
TW (1) TWI631983B (ja)
WO (1) WO2017010547A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6794918B2 (ja) * 2017-04-28 2020-12-02 トヨタ自動車株式会社 画像送信プログラム、及び、画像送信装置
US11950039B2 (en) * 2019-02-13 2024-04-02 Yukka Magic Llc Ringed-shaped biometric earpiece
CN115412908A (zh) * 2019-12-31 2022-11-29 深圳市工匠社科技有限公司 安全传输方法、机器人和控制系统
JP1753085S (ja) * 2022-10-11 2023-09-14 アイコン用画像

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001287183A (ja) * 2000-01-31 2001-10-16 Matsushita Electric Works Ltd 自動搬送ロボット
JP2002036158A (ja) * 2000-07-27 2002-02-05 Yamaha Motor Co Ltd 自律機能を有する電子機器
JP2002041411A (ja) * 2000-07-28 2002-02-08 Nippon Telegr & Teleph Corp <Ntt> テキスト読み上げロボット、その制御方法及びテキスト読み上げロボット制御プログラムを記録した記録媒体
JP2006007342A (ja) * 2004-06-23 2006-01-12 Mitsubishi Heavy Ind Ltd ロボットの制御プログラム更新方法及び該システム
JP2008006558A (ja) * 2006-06-30 2008-01-17 Shinano Kenshi Co Ltd パワーアシスト装置
JP2008149427A (ja) * 2006-12-19 2008-07-03 Mitsubishi Heavy Ind Ltd ロボットによる物体を移動するサービスに必要な情報の取得方法と該方法を用いたロボットによる物体移動サービスシステム
JP2009166213A (ja) * 2008-01-18 2009-07-30 Toyota Motor Corp ロボット、及びロボットの制御方法
JP2010207963A (ja) * 2009-03-10 2010-09-24 Nippon Telegr & Teleph Corp <Ntt> ロボットハンドの被着装置
JP2013255212A (ja) * 2011-09-13 2013-12-19 Kddi Corp 通話装置
JP2013255091A (ja) * 2012-06-07 2013-12-19 Kyocera Corp 音響伝達装置
JP2014003488A (ja) * 2012-06-19 2014-01-09 Kyocera Corp 音響伝達装置
JP2015084801A (ja) * 2013-10-28 2015-05-07 俊道 妻木 動作補助装置

Family Cites Families (614)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2045404A (en) 1933-05-24 1936-06-23 Sonotone Corp Piezoelectric vibrator device
JPS518161B1 (ja) 1970-05-07 1976-03-15
JPS5246695B2 (ja) 1973-06-15 1977-11-26
JPS5194220A (en) 1975-02-15 1976-08-18 Denkishingo shindohenkansochi
JPS5236894A (en) 1975-09-16 1977-03-22 Hidetaka Takeda Ear plug
JPS5588497A (en) 1978-12-25 1980-07-04 Matsushita Electric Ind Co Ltd Ear receiver
JPS5821267Y2 (ja) 1979-07-16 1983-05-06 松下電器産業株式会社 受話器
JPS5689086A (en) 1979-12-20 1981-07-20 Seiko Epson Corp Display device for digital watch
JPS5690018A (en) 1979-12-21 1981-07-21 Ihara Chem Ind Co Ltd Preparation of organic bromide
US4351166A (en) 1980-11-10 1982-09-28 Juliette Belin Ring
JPS57162611A (en) 1981-03-31 1982-10-06 Kurita Water Ind Ltd Flocculation reacting tank
JPS57169312U (ja) 1981-04-18 1982-10-25
JPS58182398A (ja) 1982-04-19 1983-10-25 Takeshi Yoshii 送受話兼用型電磁式骨伝導・鼓膜振動音マイクロホン
JPS60116800U (ja) 1984-01-17 1985-08-07 イ−スタンエレクトリツク株式会社 補聴器
JPS62208680A (ja) 1986-03-07 1987-09-12 Murata Mfg Co Ltd 積層バイモルフ
US4736250A (en) 1986-11-28 1988-04-05 Tektronix, Inc. Digital camera frame capture circuit
JPS63115728U (ja) 1987-01-22 1988-07-26
JPS63140753U (ja) 1987-03-06 1988-09-16
USRE34525E (en) 1987-06-24 1994-02-01 Lazzaroni; John J. Motorcycle helmet microphone mount and plug mount
FR2629624B1 (fr) 1988-04-05 1990-11-16 Framatome Sa Procede de determination et d'evaluation de la capacite de retour en puissance d'un reacteur nucleaire a eau pressurisee
JPH0262199A (ja) 1988-08-02 1990-03-02 B Shriver Simeon 骨伝導型音声聴取装置および方法
US5125032A (en) 1988-12-02 1992-06-23 Erwin Meister Talk/listen headset
JPH02182098A (ja) 1989-01-07 1990-07-16 Hiroshi Osada ステレオ用ヘッドホン
JP2770389B2 (ja) 1989-03-20 1998-07-02 ソニー株式会社 ワイヤレスヘッドホンシステム
JPH0329424A (ja) 1989-06-27 1991-02-07 Oki Electric Ind Co Ltd ハンズフリー電話用エコーキャンセラ回路
JPH03117995A (ja) 1989-09-29 1991-05-20 Mitsubishi Electric Corp 色信号輪郭補正装置
JPH0490298A (ja) 1990-08-02 1992-03-24 Matsushita Electric Ind Co Ltd 補聴器
JPH04303815A (ja) 1991-03-30 1992-10-27 I Utsudo:Kk 眼鏡体のつる
JP3235865B2 (ja) 1991-06-03 2001-12-04 パイオニア株式会社 イヤースピーカ
US5956682A (en) 1991-06-06 1999-09-21 Lj Laboratories, Llc Picture frame with associated audio messages and position sensitive or speech recognition device
JPH0541297A (ja) 1991-07-31 1993-02-19 Ishikawajima Harima Heavy Ind Co Ltd Sor装置の真空排気装置
JP2894035B2 (ja) 1991-09-18 1999-05-24 日産自動車株式会社 能動型騒音制御装置
JPH05183618A (ja) 1991-12-27 1993-07-23 Sony Corp 電話機
US5295193A (en) 1992-01-22 1994-03-15 Hiroshi Ono Device for picking up bone-conducted sound in external auditory meatus and communication device using the same
JPH05292167A (ja) 1992-04-13 1993-11-05 Sony Corp 電話器
US5323468A (en) 1992-06-30 1994-06-21 Bottesch H Werner Bone-conductive stereo headphones
JP3101842B2 (ja) 1992-07-06 2000-10-23 アツデン株式会社 指向性マイクロホン装置
HU212134B (hu) 1993-07-27 1998-06-29 László Holakovszky Szemüveghez rögzített kép-, előnyösen TV-kép-megjelenítő berendezés
JP2698320B2 (ja) 1993-08-31 1998-01-19 日本電信電話株式会社 常装着型入力システム、常装着型意図伝達システム、常装着型音楽用キーボードシステム及び常装着型点字入出力システム
JPH07107146A (ja) 1993-10-05 1995-04-21 Mitsubishi Electric Corp 骨伝導イヤホンマイクを用いたコードレス電話装置
JPH07131268A (ja) 1993-10-29 1995-05-19 Casio Comput Co Ltd 電話機
JPH0739150U (ja) 1993-12-14 1995-07-14 アツデン株式会社 携帯用電話機
JP3907215B2 (ja) 1994-01-18 2007-04-18 富士通テン株式会社 騒音制御装置
JP3193583B2 (ja) 1994-04-12 2001-07-30 株式会社ブリヂストン 偏平空気入りラジアルタイヤの未加硫タイヤ成形方法
JP3003950U (ja) 1994-05-09 1994-11-01 株式会社京浜特殊印刷 外国語学習用増幅器
CN2198618Y (zh) 1994-05-19 1995-05-24 刘瓒澄 立体电视眼镜
JPH0833026A (ja) 1994-07-15 1996-02-02 Nitsuko Corp 無線機器におけるバッテリー支持装置
JPH0879338A (ja) 1994-08-30 1996-03-22 Sanyo Electric Co Ltd 携帯電話装置
JP3009206U (ja) 1994-09-19 1995-04-04 リオン電子株式会社 圧電駆動型搬送装置
JPH0890986A (ja) 1994-09-28 1996-04-09 Pilot Corp:The 筆記具
JPH08102780A (ja) 1994-09-30 1996-04-16 Nippon Telegr & Teleph Corp <Ntt> 電話機用補聴器
JPH08111703A (ja) 1994-10-07 1996-04-30 Matsushita Electric Ind Co Ltd 移動無線電話装置
JP3418808B2 (ja) 1995-02-27 2003-06-23 富士通株式会社 移動通信用端末機
JPH08242273A (ja) 1995-03-02 1996-09-17 Tdk Corp 着信バイブレータ
JPH08256080A (ja) 1995-03-16 1996-10-01 Sharp Corp 携帯情報機器
JPH0923256A (ja) 1995-07-07 1997-01-21 Oki Electric Ind Co Ltd 電話機構造
KR0161916B1 (ko) 1995-07-14 1998-12-01 구자홍 위성방송 수신시스템의 캐리어 주파수오차 보정회로
CN1141856A (zh) 1995-08-02 1997-02-05 楚树湘 传真雕塑方法
US5686882A (en) 1996-02-20 1997-11-11 Giani; Sandra M. Silent alarm band
US5687244A (en) 1996-03-28 1997-11-11 Stanton Magnetics, Inc. Bone conduction speaker and mounting system
JP2888287B2 (ja) 1996-07-25 1999-05-10 日本電気株式会社 電話機
AU3358297A (en) 1996-07-29 1998-02-20 Nihon Belbon Seiki Wristwatchlike telephone set
JPH1065996A (ja) 1996-08-23 1998-03-06 Olympus Optical Co Ltd 頭部装着型表示装置
KR100229033B1 (ko) 1996-09-24 1999-11-01 윤종용 비휘발성 메모리에 기록시 시스템의 절전 장치 및 방법
JP3172827B2 (ja) 1996-10-28 2001-06-04 正雄 遠藤 難聴者のための音認識方法及び装置
JPH10200608A (ja) 1997-01-10 1998-07-31 Shuichi Osawa 携帯電話機
KR19980063410A (ko) 1997-08-19 1998-10-07 양승택 골도 및 기도 청각 겸용의 수화갑이 구비된 전화기
JPH11112672A (ja) 1997-09-30 1999-04-23 Mitsubishi Electric Corp 多地点通話装置
JPH11163980A (ja) 1997-12-01 1999-06-18 Daisan Kikaku Kk 携帯電話用の着信感知装身具
JP2589555Y2 (ja) 1997-12-04 1999-01-27 日本電気株式会社 電池収納構造
JP3050147U (ja) 1997-12-24 1998-06-30 嘉正 平田 難聴者用簡易型携帯電話機
EP1586980B1 (en) * 1998-03-18 2007-07-04 Nippon Telegraph and Telephone Corporation Wearable communication device for inputting commands via detection of tapping shocks or vibration of fingertips
JP3298578B2 (ja) 1998-03-18 2002-07-02 日本電信電話株式会社 装着型コマンド入力装置
JP3067762B2 (ja) 1998-03-18 2000-07-24 日本電信電話株式会社 装着型通信装置
JPH11298595A (ja) 1998-04-10 1999-10-29 Mitsubishi Electric Corp 通信装置
JP3207158B2 (ja) 1998-05-11 2001-09-10 株式会社テムコジャパン 骨導スピ−カ−とマイクロホンを備えたヘッドセット
JPH11352138A (ja) 1998-06-04 1999-12-24 Seiko Instruments Inc 磁気力顕微鏡
JP2000013294A (ja) 1998-06-24 2000-01-14 Nippon Telegr & Teleph Corp <Ntt> 無線送受話器
JP3160714B2 (ja) 1998-07-08 2001-04-25 株式会社シコー技研 携帯無線通信機
US6463157B1 (en) 1998-10-06 2002-10-08 Analytical Engineering, Inc. Bone conduction speaker and microphone
US6950126B1 (en) 1998-11-19 2005-09-27 Nikon Corporation Camera capable of communicating with other communication device
JP4281182B2 (ja) 1998-11-19 2009-06-17 株式会社ニコン 通信機能付きカメラ
JP3623127B2 (ja) 1998-12-25 2005-02-23 松下電器産業株式会社 ヘッドホン装置
JP3064055U (ja) 1999-02-08 1999-12-14 照美 森屋 受話口と送話口の距離が適切な細型携帯電話
JP3537128B2 (ja) 1999-04-01 2004-06-14 日本電信電話株式会社 ヘッドホン
JP2000324217A (ja) 1999-05-07 2000-11-24 Ntt Docomo Inc 携帯機器における音情報伝達装置および携帯機器
JP2000339793A (ja) 1999-05-28 2000-12-08 Sony Corp 再生装置
JP3322849B2 (ja) 1999-06-03 2002-09-09 株式会社テムコジャパン 骨伝導スピーカー付モバイル通信装置
JP3066305U (ja) 1999-08-02 2000-02-18 博次 高野 聴力補助器
JP4142836B2 (ja) 1999-10-29 2008-09-03 株式会社インターナショナル インテリジェント インフォメーション ペンフォンpda
JP3750910B2 (ja) 1999-12-13 2006-03-01 セイコーインスツル株式会社 情報処理装置及び情報処理方法
JP3541765B2 (ja) 1999-12-21 2004-07-14 日本電気株式会社 テレビ電話装置
EP1299940B1 (en) 2000-01-07 2013-03-27 Emo Labs, Inc. Mechanical-to-acoustical transformer and multi-media flat film speaker
JP3070222U (ja) 2000-01-11 2000-07-28 勲 伊藤 骨伝導受話機
JP2001268211A (ja) 2000-03-21 2001-09-28 Xanavi Informatics Corp 電話機用ハンズフリー装置
JP3511088B2 (ja) * 2000-04-10 2004-03-29 独立行政法人航空宇宙技術研究所 多関節介護ロボット制御用の圧力分布センサ
JP3556151B2 (ja) 2000-05-09 2004-08-18 株式会社テムコジャパン 骨伝導スピーカを用いた送受話装置
JP2001333161A (ja) 2000-05-18 2001-11-30 Nec Corp 携帯端末
JP2001339504A (ja) 2000-05-26 2001-12-07 Sharp Corp 無線通信機
JP2001352395A (ja) 2000-06-07 2001-12-21 Sony Corp 携帯端末装置
DE60112755T2 (de) 2000-06-12 2006-06-01 United Parcel Service Of America, Inc. System und verfahren zur echtzeitverfolgung von paketen
EP1212885B1 (en) 2000-06-21 2009-04-29 Seiko Epson Corporation Mobile telephone and radio communication device cooperatively processing incoming call
JP2002084575A (ja) 2000-06-21 2002-03-22 Seiko Epson Corp 装着型無線通信装置、携帯電話装置、それらの制御方法、無線通信システムの制御方法、制御プログラムおよび記録媒体
JP2002016720A (ja) 2000-06-29 2002-01-18 Matsushita Electric Ind Co Ltd 情報通信装置
JP4626019B2 (ja) 2000-07-05 2011-02-02 株式会社ニコン 眼鏡枠
JP3745602B2 (ja) 2000-07-27 2006-02-15 インターナショナル・ビジネス・マシーンズ・コーポレーション 身体セット型スピーカ装置
US20040105566A1 (en) 2000-07-27 2004-06-03 International Business Machines Corporation Body set type speaker unit
JP4059618B2 (ja) 2000-07-31 2008-03-12 株式会社ケンウッド 通信端末
JP3949912B2 (ja) 2000-08-08 2007-07-25 株式会社エヌ・ティ・ティ・ドコモ 携帯型電子機器、電子機器、振動発生器、振動による報知方法および報知制御方法
US6754359B1 (en) 2000-09-01 2004-06-22 Nacre As Ear terminal with microphone for voice pickup
WO2002021881A1 (fr) 2000-09-04 2002-03-14 Applied Electronics Laboratories, Inc. Fenetre d'affichage presentant une fonction d'entree-sortie
JP3831190B2 (ja) 2000-10-02 2006-10-11 株式会社エヌ・ティ・ティ・ドコモ アクチュエータ支持装置及び該アクチュエータ支持装置を備えた身体装着型送受話装置
JP3312902B2 (ja) 2000-11-24 2002-08-12 株式会社テムコジャパン 難聴者用携帯電話機アタッチメント
JP2002171321A (ja) 2000-11-30 2002-06-14 Toshiba Corp 移動無線端末
JP2002223475A (ja) 2001-01-25 2002-08-09 Nec Telecom Syst Ltd 携帯通信端末,腕時計および着信方式ならびに着信方法
TW510139B (en) 2001-01-26 2002-11-11 Kirk Acoustics As An electroacoustic transducer and a coil and a magnet circuit therefor
JP3404384B2 (ja) 2001-02-09 2003-05-06 太平洋セメント株式会社 圧電トランスインバータ
JP2002262377A (ja) 2001-02-28 2002-09-13 Taiyo Yuden Co Ltd 骨導ピックアップ素子及びそのユニット
US7616771B2 (en) 2001-04-27 2009-11-10 Virginia Commonwealth University Acoustic coupler for skin contact hearing enhancement devices
JP3532535B2 (ja) 2001-05-31 2004-05-31 株式会社テムコジャパン 送受話装置
JP2002368839A (ja) 2001-06-06 2002-12-20 Matsushita Electric Ind Co Ltd 電話機及び該電話機の音声信号周波数補正方法
JP3763570B2 (ja) 2001-06-28 2006-04-05 松下電器産業株式会社 スピーカシステム、携帯端末装置および電子機器
EP1407511B1 (en) 2001-07-05 2007-10-03 ETA SA Manufacture Horlogère Suisse Wrist-worn electronic instrument with antenna
JP2003101625A (ja) 2001-07-05 2003-04-04 Mieko Tsuyusaki 携帯電話装置及び電話装置
JP2003032343A (ja) 2001-07-17 2003-01-31 Mitsubishi Electric Corp 携帯電話機
JP2003032768A (ja) 2001-07-19 2003-01-31 Matsushita Electric Ind Co Ltd ヘッドホン
JP3699018B2 (ja) 2001-07-25 2005-09-28 埼玉日本電気株式会社 電話機の自動音量調整装置
JP3834494B2 (ja) 2001-09-19 2006-10-18 株式会社ケンウッド 圧電スピーカ装置
JP2003103220A (ja) 2001-09-28 2003-04-08 Nec Tokin Corp 生体伝導アクチュエータ
JP2003173375A (ja) 2001-09-28 2003-06-20 Toshiba Corp 生活管理端末装置、生活管理方法並びに生活管理システム
JP2003174495A (ja) 2001-09-28 2003-06-20 Nec Corp 折り畳み式携帯情報端末
JP2003111175A (ja) 2001-10-01 2003-04-11 Yukio Masuda 送受音装置
JP2003125473A (ja) 2001-10-10 2003-04-25 Nec Tokin Corp 筐体振動圧電アクチュエータ及び携帯用電子装置
JP3532544B2 (ja) 2001-10-30 2004-05-31 株式会社テムコジャパン 面体又は帽体のストラップ装着用送受話装置
JP4313560B2 (ja) 2001-10-31 2009-08-12 パナソニック株式会社 携帯電話
JP3678694B2 (ja) 2001-11-02 2005-08-03 Necビューテクノロジー株式会社 対話型端末装置、その通話制御方法、およびそのプログラム
JP2003145048A (ja) 2001-11-16 2003-05-20 Nec Tokin Corp 骨伝導振動アクチュエータ及び携帯用電子装置
JP2003169115A (ja) 2001-11-29 2003-06-13 Kyocera Corp 折り畳み式携帯電話機
US6639987B2 (en) 2001-12-11 2003-10-28 Motorola, Inc. Communication device with active equalization and method therefor
JP2003188985A (ja) 2001-12-20 2003-07-04 Matsushita Electric Ind Co Ltd ワイヤレスヘッドセット、これを用いたヘルメット、インターネット電話システム、車両用ハンズフリーシステム、通信システム、クレジット処理システムおよびキャッシュサービスシステム
JP4202640B2 (ja) 2001-12-25 2008-12-24 株式会社東芝 短距離無線通信用ヘッドセット、これを用いたコミュニケーションシステム、および短距離無線通信における音響処理方法
US20030119566A1 (en) 2001-12-26 2003-06-26 E-Lead Electronic Co., Ltd. Hand-free device equipped with expansion function modules
JP2003211087A (ja) 2002-01-22 2003-07-29 Nec Tokin Corp 振動アクチュエータ及びディスプレイ装置
JP2003218989A (ja) 2002-01-24 2003-07-31 Fdk Corp 着信装置
KR20040081470A (ko) 2002-01-25 2004-09-21 소니온 호르젠스 에이/에스 집적된 코일을 구비한 플랙서블 다이어프램
US20030174856A1 (en) 2002-01-25 2003-09-18 Leif Johannsen Flexible diaphragm with integrated coil
JP4203246B2 (ja) 2002-03-14 2008-12-24 京セラ株式会社 携帯通信装置
JP2003274470A (ja) 2002-03-19 2003-09-26 Denso Corp 骨伝導音声振動検出素子、骨伝導音声振動検出素子の製造方法および音声認識システム
GB0207732D0 (en) 2002-04-03 2002-05-15 Ttpcomm Ltd Wireless communication terminals
JP2003300015A (ja) 2002-04-05 2003-10-21 Nec Tokin Corp 振動アクチュエータの駆動方法、及び携帯機器
JP2003319022A (ja) 2002-04-26 2003-11-07 Sanyo Electric Co Ltd 携帯電話装置
AU2003266002A1 (en) 2002-05-06 2003-11-17 Benjamin M. Goldberg Localized audio networks and associated digital accessories
JP2003348208A (ja) 2002-05-29 2003-12-05 Temuko Japan:Kk 骨伝導スピーカを備えた携帯電話機
JP3090729U (ja) 2002-06-13 2002-12-26 蕃夫 鈴木 筆記用ペン型セパレート送受話器
JP3535143B2 (ja) 2002-07-01 2004-06-07 日立マクセル株式会社 耳装着型の音情報伝達器
CN1672114A (zh) 2002-07-25 2005-09-21 桑尼昂霍森斯公司 具有多扬声器系统的移动手机和部件
MXPA05001079A (es) 2002-07-26 2005-06-03 Oakley Inc Audifonos interactivos inalambricos.
JP3985094B2 (ja) 2002-07-30 2007-10-03 透 加藤 骨導スピーカ装置及び通信システム
JP3937982B2 (ja) 2002-08-29 2007-06-27 ソニー株式会社 入出力装置および入出力装置を有する電子機器
KR100619215B1 (ko) * 2002-08-30 2006-09-06 아사히 가세이 가부시키가이샤 마이크로폰, 커뮤니케이션 인터페이스 시스템
AU2002951326A0 (en) 2002-09-11 2002-09-26 Innotech Pty Ltd Communication apparatus and helmet
JP2004166174A (ja) 2002-09-20 2004-06-10 Junichi Suzuki 外耳道内挿入型骨伝導受話器、並びに外耳道内挿入型骨伝導補聴器
JP3889342B2 (ja) 2002-10-03 2007-03-07 日本電信電話株式会社 装着型通信装置
JP4348706B2 (ja) 2002-10-08 2009-10-21 日本電気株式会社 アレイ装置および携帯端末
NZ539237A (en) 2002-10-09 2006-11-30 Univ East Carolina Frequency altered feedback for treating non-stuttering pathologies
JP3875178B2 (ja) 2002-11-05 2007-01-31 日本電信電話株式会社 ヘッドホン装置
JP4244130B2 (ja) 2002-11-07 2009-03-25 ソニー・エリクソン・モバイルコミュニケーションズ株式会社 携帯端末システム及び携帯端末装置
JP4712294B2 (ja) 2002-11-08 2011-06-29 株式会社半導体エネルギー研究所 表示装置
SG143934A1 (en) 2002-11-08 2008-07-29 Semiconductor Energy Lab Display appliance
JP2004173018A (ja) 2002-11-20 2004-06-17 Toshiba Life Engineering Kk ヘルメット用通信装置
JP2004187031A (ja) 2002-12-04 2004-07-02 Temuko Japan:Kk 骨伝導スピーカーを用いた携帯電話機
JP2004190699A (ja) 2002-12-06 2004-07-08 Sony Corp クリップおよびクリップのクランプ方法
CN2575916Y (zh) 2002-12-13 2003-09-24 深圳市天霆实业发展有限公司 骨导和机导兼容的听筒及其电话机
JP2004205839A (ja) 2002-12-25 2004-07-22 Fuji Iryoki:Kk 補聴器具
JP4069294B2 (ja) 2002-12-26 2008-04-02 Tdk株式会社 イヤフォン、音声伝達装置
JP2004266321A (ja) 2003-01-22 2004-09-24 Hitachi Maxell Ltd 耳装着型の通話装置
JP2004233316A (ja) 2003-02-03 2004-08-19 Matsushita Electric Ind Co Ltd 無線通信機能付き時計
JP2004252626A (ja) 2003-02-19 2004-09-09 Tokyo Shinyu:Kk 情報端末装置へのメッセージ伝達方法
US7409234B2 (en) 2003-03-07 2008-08-05 Cardo Systems, Inc. Wireless communication headset with exchangeable attachments
JP4121398B2 (ja) 2003-03-10 2008-07-23 ソフトバンクモバイル株式会社 携帯電話機
JP2004289443A (ja) 2003-03-20 2004-10-14 Tdk Corp 振動装置及びこれを用いた携帯用電話
US7098776B2 (en) 2003-04-16 2006-08-29 Massachusetts Institute Of Technology Methods and apparatus for vibrotactile communication
JP2004357198A (ja) 2003-05-30 2004-12-16 Sharp Corp イヤホン
KR100548357B1 (ko) 2003-06-23 2006-02-02 엘지전자 주식회사 휴대단말기의 수신신호 증폭레벨 자동제어장치 및 방법
JP2005020234A (ja) 2003-06-25 2005-01-20 Nec Commun Syst Ltd 携帯電話機
US7442164B2 (en) 2003-07-23 2008-10-28 Med-El Elektro-Medizinische Gerate Gesellschaft M.B.H. Totally implantable hearing prosthesis
JP4380246B2 (ja) 2003-08-22 2009-12-09 パイオニア株式会社 イヤホン
JP2005074257A (ja) 2003-08-28 2005-03-24 One Plus:Kk 衛生シール
WO2005025265A1 (ja) 2003-09-02 2005-03-17 Toshiba Life-Engineering Corporation 骨伝導スピーカ装置
JP2005080135A (ja) 2003-09-02 2005-03-24 Toshiba Corp 骨伝導スピーカ内蔵パッド
GB0321617D0 (en) 2003-09-10 2003-10-15 New Transducers Ltd Audio apparatus
US7257372B2 (en) 2003-09-30 2007-08-14 Sony Ericsson Mobile Communications Ab Bluetooth enabled hearing aid
JP2005142729A (ja) 2003-11-05 2005-06-02 Casio Comput Co Ltd 腕時計型通信装置
JP4542328B2 (ja) 2003-11-06 2010-09-15 京セラ株式会社 折り畳み式携帯端末機
JP2005151292A (ja) 2003-11-18 2005-06-09 Tdk Corp 骨伝導スピーカ及びこれを用いた眼鏡
JP4272040B2 (ja) 2003-11-28 2009-06-03 京セラ株式会社 携帯通信端末機
JP3958739B2 (ja) 2003-12-12 2007-08-15 Necトーキン株式会社 音響振動発生素子
JP3965383B2 (ja) 2003-12-17 2007-08-29 松下電器産業株式会社 携帯端末装置
US7079876B2 (en) 2003-12-23 2006-07-18 Isaac Levy Wireless telephone headset built into eyeglasses
CA2530194A1 (en) 2003-12-26 2005-07-21 Temco Japan Co., Ltd. Acoustic apparatus using bone-conduction speaker
CN1843019A (zh) 2004-01-16 2006-10-04 株式会社坦姆科日本 使用骨传导装置的携带式电话机
AU2005205632A1 (en) 2004-01-16 2005-07-28 Temco Japan Co., Ltd. Portable telephone using bone conduction device
JP2005223717A (ja) 2004-02-06 2005-08-18 Sharp Corp オーディオアンプ
JP2005229324A (ja) 2004-02-13 2005-08-25 Hiroshi Fukamizu 骨伝導スピーカ
US7443283B2 (en) 2004-02-19 2008-10-28 Massachusetts Institute Of Technology Methods and apparatus for connecting an intimate group by exchanging awareness cues and text, voice instant messages, and two-way voice communications
US7499686B2 (en) 2004-02-24 2009-03-03 Microsoft Corporation Method and apparatus for multi-sensory speech enhancement on a mobile device
AU2005219247A1 (en) 2004-03-05 2005-09-15 Temco Japan Co., Ltd. Bone conduction device
CN1930520B (zh) 2004-03-09 2010-12-29 Hoya株式会社 掩模制作支援方法、掩模版提供方法、掩模版供取系统
WO2005091670A1 (ja) 2004-03-19 2005-09-29 Temco Japan Co., Ltd. 骨伝導デバイスユニット並びにそれを用いた携帯電話機及びヘッドセット
WO2005096664A1 (ja) 2004-03-31 2005-10-13 Temco Japan Co., Ltd. ハイブリッドスピーカ及びハイブリッドスピーカユニット
EP1732292A4 (en) 2004-03-31 2007-05-09 Temco Japan INTERCOM WITH BONE LEAD SPEAKER
JP4073890B2 (ja) 2004-04-22 2008-04-09 シャープ株式会社 薄膜回路基板、及びそれを備えた圧電式スピーカ装置及び表示装置並びに音源内蔵型表示装置
US8526646B2 (en) 2004-05-10 2013-09-03 Peter V. Boesen Communication device
JP2005328125A (ja) 2004-05-12 2005-11-24 Nec Tokin Corp イヤフォン
JP2005340927A (ja) 2004-05-24 2005-12-08 Toyota Industries Corp 自己発電機能付き携帯型ラジオ受信機
JP2005348193A (ja) 2004-06-04 2005-12-15 Nec Tokin Corp 受話器
JP2005352024A (ja) 2004-06-09 2005-12-22 Murata Mfg Co Ltd 眼鏡型インタフェース装置及びセキュリティシステム
US20050276164A1 (en) 2004-06-12 2005-12-15 Scott Amron Watch adapted to rotate a displayed image so as to appear in a substantially constant upright orientation
JP2006005625A (ja) 2004-06-17 2006-01-05 Nec Tokin Corp 音響振動発生装置
JP2006011591A (ja) 2004-06-23 2006-01-12 Denso Corp 個人認証システム
JP2006007919A (ja) 2004-06-24 2006-01-12 Mazda Motor Corp 車両用操作ユニット
US7555136B2 (en) 2004-06-25 2009-06-30 Victorion Technology Co., Ltd. Nasal bone conduction wireless communication transmitting device
JP2006019812A (ja) 2004-06-30 2006-01-19 Panasonic Mobile Communications Co Ltd 携帯電話機及び携帯電話機の筐体成型方法
US7734310B2 (en) 2004-07-08 2010-06-08 Panasonic Corporation Mobile terminal device
TWI241831B (en) 2004-07-28 2005-10-11 Dbtel Inc Caller identification device and method thereof
JPWO2006011604A1 (ja) 2004-07-30 2008-05-01 松下電器産業株式会社 スピーカシステム、携帯端末装置および電子機器
JP2006050056A (ja) 2004-08-02 2006-02-16 Matsushita Electric Ind Co Ltd 折り畳み式携帯無線機
JP2006051300A (ja) 2004-08-09 2006-02-23 Tadao Sato 生体血流の観察方法
JP2006066972A (ja) 2004-08-24 2006-03-09 Nec Tokin Corp スピーカ装置
JP2006067049A (ja) 2004-08-25 2006-03-09 Nec Tokin Corp 複合型スピーカ
KR100851089B1 (ko) 2004-08-27 2008-08-08 빅토리온 테크놀러지 씨오., 엘티디. 비골 전도 무선통신 전송장치
CN1791283B (zh) 2004-12-16 2010-06-23 致胜科技股份有限公司 鼻骨传导助听装置
KR100640891B1 (ko) 2004-09-02 2006-11-02 엘지전자 주식회사 무선 tv 파워 on/off 장치 및 방법
JP2006074671A (ja) 2004-09-06 2006-03-16 Taiyo Yuden Co Ltd ヘッドセット
EP1791392A1 (en) 2004-09-07 2007-05-30 Temco Japan Co., Ltd. Spectacle type communication device
JP2006086581A (ja) 2004-09-14 2006-03-30 Nec Tokin Corp 無線通信機能付ヘッドセット、無線通信システム及びコンピュータプログラム
JP4535819B2 (ja) 2004-09-24 2010-09-01 Necアクセステクニカ株式会社 駆動回路および該駆動回路を備える携帯機器
JP2006109326A (ja) 2004-10-08 2006-04-20 Nec Corp 携帯端末のセキュリティシステムおよびそのセキュリティ方法
US7283850B2 (en) 2004-10-12 2007-10-16 Microsoft Corporation Method and apparatus for multi-sensory speech enhancement on a mobile device
JP2006115060A (ja) 2004-10-13 2006-04-27 Makitekku:Kk 耳挿入型イヤホン
US7522065B2 (en) 2004-10-15 2009-04-21 Microsoft Corporation Method and apparatus for proximity sensing in a portable electronic device
JP4267554B2 (ja) 2004-10-29 2009-05-27 ホシデン株式会社 電子機器の表示部構造及びこれを備えた電子機器
JP4462011B2 (ja) 2004-11-01 2010-05-12 日本電気株式会社 Tv機能付き携帯端末装置およびtvアンテナ兼入力ペン
JP4541111B2 (ja) 2004-11-17 2010-09-08 Necトーキン株式会社 骨伝導スピーカの使用方法及び骨伝導受話装置の使用方法
JP4188304B2 (ja) 2004-11-26 2008-11-26 ホシデン株式会社 圧電アクチュエータ、フラットパネルスピーカ
JP2006155734A (ja) 2004-11-29 2006-06-15 Kyocera Corp 携帯機器及び携帯機器セット並びにそのディスクドライブ装置の保護方法
JP2006157318A (ja) 2004-11-29 2006-06-15 Nec Tokin Corp 骨伝導スピーカーユニット
CN1617632A (zh) 2004-11-30 2005-05-18 陈奚平 头戴式音响装置以及一种声道再现方法
JP2006165702A (ja) 2004-12-02 2006-06-22 Taiyo Yuden Co Ltd 圧電発音体及び電子機器
US20060158064A1 (en) 2004-12-02 2006-07-20 Kazuo Asakawa Piezoelectric sounding body and electronic device
JP4649971B2 (ja) 2004-12-08 2011-03-16 日本電気株式会社 ヘッドセットおよび携帯通信システム
JP2006166300A (ja) 2004-12-10 2006-06-22 Ricoh Co Ltd 携帯端末、通信システム、携帯端末における音声消音方法、プログラムおよび記録媒体
FI20041625L (fi) 2004-12-17 2006-06-18 Nokia Corp Menetelmä korvakanavasignaalin muuntamiseksi, korvakanavamuunnin ja kuulokkeet
JP4266923B2 (ja) 2004-12-27 2009-05-27 埼玉日本電気株式会社 フラットパネルスピーカ実装方法、電子機器の組立方法、ガスケット部材、振動板及びフラットパネルスピーカ
JP4355652B2 (ja) 2004-12-27 2009-11-04 埼玉日本電気株式会社 電子機器及びその防塵構造
JPWO2006075440A1 (ja) 2005-01-11 2008-06-12 日本電気株式会社 圧電アクチュエータおよび電子機器
JP2006197267A (ja) 2005-01-13 2006-07-27 Toshiba Corp 骨伝導スピーカ内蔵枕
JP4715208B2 (ja) 2005-01-14 2011-07-06 日本電気株式会社 携帯電話機
JP4558526B2 (ja) 2005-01-28 2010-10-06 Necトーキン株式会社 骨伝導スピーカ
JPWO2006080517A1 (ja) 2005-01-31 2008-06-19 株式会社アキタ電子システムズ 骨導スピーカセット、電子機器、電子翻訳システム、聴覚支援システム、ナビゲーション装置、携帯電話機
JP2006217088A (ja) 2005-02-01 2006-08-17 Sharp Corp 聴覚伝送システム
JP2006217321A (ja) 2005-02-04 2006-08-17 Matsushita Electric Ind Co Ltd ヘッドセット、および通信システム
JP2006229647A (ja) 2005-02-18 2006-08-31 Nec Tokin Corp 骨伝導用音響用振動子
SE528279C2 (sv) 2005-02-21 2006-10-10 Entific Medical Systems Ab Vibrator för benledande hörapparat
JP4346567B2 (ja) 2005-02-21 2009-10-21 シャープ株式会社 携帯情報端末
JP2006238072A (ja) 2005-02-25 2006-09-07 Nec Tokin Corp 音響振動発生用圧電バイモルフ素子
JP2006245799A (ja) 2005-03-01 2006-09-14 Nec Saitama Ltd 電子機器、該電子機器における警報出力制御方法及び警報出力制御プログラム
JP3798799B2 (ja) 2005-03-18 2006-07-19 松下電器産業株式会社 テレビ電話装置
ATE388862T1 (de) 2005-03-21 2008-03-15 Delphi Tech Inc Lenkradanordnung
KR100703402B1 (ko) 2005-03-24 2007-04-03 삼성전자주식회사 다방향으로 촬영되는 카메라 렌즈 모듈을 구비한 휴대단말기
JP2006283541A (ja) 2005-04-03 2006-10-19 Kaiji Suzuki 貼着仕上げ材の下地部材本体と、その貼着仕上げ材の下地部材本体を使用した仕上げ工法。
JP2005341543A (ja) 2005-04-04 2005-12-08 Noriyuki Sugimoto 節電型自動録画機能付き携帯電話機
US8448326B2 (en) 2005-04-08 2013-05-28 Microsoft Corporation Method of manufacturing an accelerometer
JP2006295786A (ja) 2005-04-14 2006-10-26 Matsushita Electric Ind Co Ltd データ送受信システム、データ送信方法及び無線通信端末装置
JP2006303618A (ja) 2005-04-15 2006-11-02 Hosiden Corp スピーカ駆動システム
KR200389666Y1 (ko) 2005-04-29 2005-07-18 박세준 충전장치를 구비한 자전거
JP4308799B2 (ja) 2005-05-09 2009-08-05 ホシデン株式会社 圧電アクチュエータ及びそれを用いたフラットパネルスピーカ
CN2800681Y (zh) 2005-05-16 2006-07-26 郁令友 手表式蓝牙耳机结构
KR100633052B1 (ko) 2005-05-23 2006-10-12 삼성전자주식회사 이동통신 단말기에서 청각장애인을 위한 자계 발생 장치
KR100690767B1 (ko) 2005-05-24 2007-03-09 엘지전자 주식회사 이동통신 단말기
JP2006333058A (ja) 2005-05-26 2006-12-07 Takao Kanbe 骨伝導式携帯電話
JP2006339914A (ja) 2005-05-31 2006-12-14 Sharp Corp 電子機器
US8331603B2 (en) 2005-06-03 2012-12-11 Nokia Corporation Headset
JP2006345025A (ja) 2005-06-07 2006-12-21 Matsushita Electric Ind Co Ltd 電話装置およびその音声処理方法
US8028344B2 (en) 2005-06-17 2011-10-04 Artisent, Inc. Hinged attachment of headgear to a helmet
JP2007003702A (ja) 2005-06-22 2007-01-11 Ntt Docomo Inc 雑音除去装置、通信端末、及び、雑音除去方法
JP2007006369A (ja) 2005-06-27 2007-01-11 Pioneer Electronic Corp リモコン及びそのリモコンを有する視聴システム
JP2007010518A (ja) 2005-06-30 2007-01-18 Canon Inc カンチレバーセンサを利用するターゲット物質の検出方法及び検出装置
US7822215B2 (en) 2005-07-07 2010-10-26 Face International Corp Bone-conduction hearing-aid transducer having improved frequency response
JP2007019898A (ja) 2005-07-08 2007-01-25 Toshiba Corp 携帯電話機
JP4548783B2 (ja) 2005-07-08 2010-09-22 Necトーキン株式会社 ヘッドホン
JP2007020051A (ja) 2005-07-11 2007-01-25 Hitachi Ltd 電子機器及びセンサネットシステム
US20070127757A2 (en) 2005-07-18 2007-06-07 Soundquest, Inc. Behind-The-Ear-Auditory Device
WO2007011846A2 (en) 2005-07-18 2007-01-25 Soundquest, Inc. In-ear auditory device and methods of using same
JP2007028469A (ja) 2005-07-21 2007-02-01 Nec Tokin Corp 音響振動発生素子、音響振動発生素子の製造方法及び音響振動発生装置
JP2007051395A (ja) 2005-08-18 2007-03-01 Nippon Mmi Technology Kk ヘルメット用通信システム
JP4072864B2 (ja) 2005-09-05 2008-04-09 アイテック株式会社 眼鏡フレーム用モダン
JP4511437B2 (ja) 2005-09-09 2010-07-28 Necトーキン株式会社 音響信号発生用圧電装置
JP2007081276A (ja) 2005-09-16 2007-03-29 Ariose Electronics Co Ltd 圧電セラミックス複合体とそれによって構成された圧電アクチュエータ、圧電ラッパまたは圧電ブザー
JP4369976B2 (ja) 2005-09-20 2009-11-25 株式会社テムコジャパン 骨伝導スピーカホルダー及びこれを用いた骨伝導スピーカユニット
JP2007096386A (ja) 2005-09-27 2007-04-12 Akita Denshi Systems:Kk スピーカ
JP4683635B2 (ja) 2005-09-30 2011-05-18 Necトーキン株式会社 受話装置
JP2007104603A (ja) 2005-10-07 2007-04-19 Sony Corp 携帯音声駆動装置
JP2007104548A (ja) 2005-10-07 2007-04-19 Nec Tokin Corp 受話装置
US11428937B2 (en) 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
WO2007046269A1 (ja) 2005-10-17 2007-04-26 Pioneer Corporation 情報提示装置、情報提示方法、情報提示プログラムおよびコンピュータに読み取り可能な記録媒体
JP2007133698A (ja) 2005-11-10 2007-05-31 Sony Ericsson Mobilecommunications Japan Inc 携帯端末
JP2007165938A (ja) 2005-11-18 2007-06-28 Nec Tokin Corp 受話装置
JP2007142920A (ja) 2005-11-21 2007-06-07 Hosiden Corp フラットパネルスピーカ及びこれを用いた電子機器
US20070117594A1 (en) 2005-11-22 2007-05-24 Motorola, Inc. Method and system for selective deactivation of a main display
CN1984505A (zh) 2005-12-16 2007-06-20 株式会社坦姆科日本 骨传导受话装置
JP2007180827A (ja) 2005-12-27 2007-07-12 Citizen Electronics Co Ltd パネル型スピーカ
JP2007189578A (ja) 2006-01-16 2007-07-26 Nec Tokin Corp 受話装置及び携帯電話機
JP2007214883A (ja) 2006-02-09 2007-08-23 Nec Tokin Corp 受話装置
CN101022678A (zh) 2006-02-13 2007-08-22 致胜科技股份有限公司 骨传导多声道装置
JP4931907B2 (ja) 2006-02-27 2012-05-16 パナソニック株式会社 ウェアラブル端末、および、携帯撮像収音装置、およびそれらを実現する装置、方法、プログラム
JP2007228508A (ja) 2006-02-27 2007-09-06 Nec Tokin Corp 受話装置
EP1991028A1 (en) 2006-02-28 2008-11-12 Temco Japan Co., Ltd. Glasses type sound/communication device
US8325964B2 (en) 2006-03-22 2012-12-04 Dsp Group Ltd. Method and system for bone conduction sound propagation
JP4849319B2 (ja) 2006-03-31 2012-01-11 株式会社国際電気通信基礎技術研究所 磁気共鳴画像化装置
US8469712B2 (en) 2006-03-31 2013-06-25 Research In Motion Handheld electronic device including indication of a selected data source, and associated method
JP2007281916A (ja) 2006-04-07 2007-10-25 Nittetsu Elex Co Ltd イヤホンマイク
JP4761459B2 (ja) 2006-04-10 2011-08-31 Necトーキン株式会社 圧電振動ユニット及び圧電式スピーカ
KR101128170B1 (ko) 2006-05-10 2012-03-23 엘지전자 주식회사 음향 트랜스듀서를 갖는 휴대 단말기 및 그 제어방법
JP3833243B1 (ja) 2006-05-15 2006-10-11 真一 坂本 携帯電話機の着信通知方法
US20090185699A1 (en) 2006-05-17 2009-07-23 Sung-Ho Kim Bone conduction headset
JP2007307124A (ja) 2006-05-18 2007-11-29 Azden Corp Mri装置における音声通信装置
JP4471958B2 (ja) 2006-06-15 2010-06-02 ツインバード工業株式会社 防水ケース
JP4771475B2 (ja) 2006-06-19 2011-09-14 Necトーキン株式会社 骨伝導スピーカ
JP2008000709A (ja) 2006-06-23 2008-01-10 Mitsubishi Rayon Co Ltd メタクリル酸製造用ヘテロポリ酸系触媒の製造方法
JP4587991B2 (ja) 2006-07-07 2010-11-24 株式会社エヌ・ティ・ティ・ドコモ 携帯電話機
JP4861079B2 (ja) 2006-07-10 2012-01-25 Necトーキン株式会社 骨伝導レシーバ
KR20080009602A (ko) 2006-07-24 2008-01-29 엘지전자 주식회사 골전도 오디오 송수신 장치 및 그 방법
WO2008014498A2 (en) 2006-07-27 2008-01-31 Cochlear Americas Hearing device having a non-occluding in the-canal vibrating component
JP2008042324A (ja) 2006-08-02 2008-02-21 Toyota Motor Corp 振動発生装置及びスピーカ装置
JP4358846B2 (ja) 2006-08-15 2009-11-04 株式会社エヌ・ティ・ティ・ドコモ 移動体端末装置及びその操作支援方法
JP4553879B2 (ja) 2006-08-30 2010-09-29 富士通株式会社 電子機器
WO2008029515A1 (fr) 2006-09-07 2008-03-13 Temco Japan Co., Ltd. Écouteur à conduction osseuse
KR100857877B1 (ko) 2006-09-14 2008-09-17 유메디칼 주식회사 자동차폐가 가능한 순음청력검사장치
JP2008085417A (ja) 2006-09-26 2008-04-10 Yamaha Corp スピーカ音声強調装置
JP2008092164A (ja) 2006-09-29 2008-04-17 Sharp Corp 携帯端末
JP2008092313A (ja) 2006-10-03 2008-04-17 Kyocera Corp 骨伝導式音声出力装置
KR100829811B1 (ko) 2006-11-06 2008-05-19 주식회사 바이오사운드랩 안경에 탈부착되는 무선형 헤드셋
JP2008124531A (ja) 2006-11-08 2008-05-29 Nec Electronics Corp 半導体装置およびオーディオプロセッサチップ
JP2008121796A (ja) 2006-11-13 2008-05-29 Jtekt Corp 油圧作動式クラッチ装置および同クラッチ装置をクラッチ機構とする駆動力伝達装置
US20080123893A1 (en) 2006-11-27 2008-05-29 Inter Brands Co. Eyeglass frame assembly
JP2008135991A (ja) 2006-11-28 2008-06-12 Kyocera Corp 携帯電話機および音声出力制御方法
JP4899096B2 (ja) 2006-12-04 2012-03-21 並木精密宝石株式会社 骨伝導スピーカを搭載した携帯電話
JP2008141687A (ja) 2006-12-05 2008-06-19 Funai Electric Co Ltd 携帯端末機器
JP4281791B2 (ja) 2006-12-11 2009-06-17 株式会社日立製作所 情報通信端末システム
JP2008148086A (ja) 2006-12-12 2008-06-26 Wecom Kenkyusho:Kk 軟骨伝導スピーカ
US8006002B2 (en) 2006-12-12 2011-08-23 Apple Inc. Methods and systems for automatic configuration of peripherals
JP2008153783A (ja) 2006-12-14 2008-07-03 Hitachi Ltd 無線通信システムおよび無線端末装置
JP4401396B2 (ja) 2007-01-16 2010-01-20 株式会社エヌ・ティ・ティ・ドコモ 音出力装置
JP5401759B2 (ja) 2007-01-16 2014-01-29 ソニー株式会社 音声出力装置、音声出力方法、音声出力システムおよび音声出力処理用プログラム
JP4282721B2 (ja) 2007-01-31 2009-06-24 株式会社東芝 携帯端末装置
JP2008227806A (ja) 2007-03-12 2008-09-25 Yamaha Corp 骨伝導スピーカ装置
JP2008227123A (ja) 2007-03-13 2008-09-25 Seiko Epson Corp 圧電振動体の製造方法および製造装置
KR101353417B1 (ko) 2007-03-16 2014-01-22 엘지전자 주식회사 이동통신 단말기
JP2008229531A (ja) 2007-03-22 2008-10-02 Citizen Electronics Co Ltd 磁気駆動型平面振動体の駆動方法
JP5034595B2 (ja) 2007-03-27 2012-09-26 ソニー株式会社 音響再生装置および音響再生方法
US20080239061A1 (en) 2007-03-30 2008-10-02 Cok Ronald S First portable communication device
CN201035260Y (zh) 2007-04-02 2008-03-12 严世熙 整合骨传导技术的眼镜
JP2008263383A (ja) 2007-04-11 2008-10-30 Sony Ericsson Mobilecommunications Japan Inc 発声音キャンセル装置、及び発声音のキャンセル方法
US20100098269A1 (en) 2008-10-16 2010-04-22 Sonitus Medical, Inc. Systems and methods to provide communication, positioning and monitoring of user status
JP5010985B2 (ja) 2007-05-30 2012-08-29 株式会社日立製作所 センサノード
GB0710378D0 (en) 2007-05-31 2007-07-11 New Transducers Ltd Audio apparatus
CN101321196A (zh) 2007-06-04 2008-12-10 邓维波 连接式无线耳机
JP2009010593A (ja) 2007-06-27 2009-01-15 Yamaha Corp 携帯通信端末
US8238967B1 (en) 2007-07-03 2012-08-07 Kyocera Corporation Controlling a wireless device with a wireless headset
AU2008279143A1 (en) 2007-07-23 2009-01-29 Asius Technologies, Llc Diaphonic acoustic transduction coupler and ear bud
JP2009022261A (ja) 2007-07-23 2009-02-05 Masanori Okihiro ふぐの冷凍じめ
JP2009044510A (ja) 2007-08-09 2009-02-26 Ntt Docomo Inc 移動機、サーバ、および、移動機における映像再生方法
US8433080B2 (en) 2007-08-22 2013-04-30 Sonitus Medical, Inc. Bone conduction hearing device with open-ear microphone
EP2186205B1 (en) 2007-08-27 2013-03-27 Jb Scientific, Llc Communication privacy mask
TW200913653A (en) 2007-09-12 2009-03-16 da-peng Zheng Watch-type body-temperature-charged interruption-free mobile phone device
JP2009077260A (ja) 2007-09-21 2009-04-09 Pioneer Electronic Corp 情報処理装置及び情報処理方法等
JP2009088942A (ja) 2007-09-28 2009-04-23 Cosmo Gear Kk イヤホン装置
KR100954562B1 (ko) 2007-10-01 2010-04-22 (주)디오컴 다중 채널 헤드셋
JP2009094986A (ja) 2007-10-12 2009-04-30 Nec Tokin Corp 受話装置
JP2009111820A (ja) 2007-10-31 2009-05-21 Nippon Mmi Technology Kk 骨伝導イヤホン
JP4882113B2 (ja) 2007-11-02 2012-02-22 Necカシオモバイルコミュニケーションズ株式会社 筐体のバイブレータ構造、及び携帯電子機器
JP2009118396A (ja) 2007-11-09 2009-05-28 Nec Tokin Corp 送受話装置
SG152939A1 (en) 2007-11-22 2009-06-29 Creative Tech Ltd An ear bud earphone with variable noise isolation, a cushion for an ear bud earphone and a corresponding method
US20090156186A1 (en) 2007-12-12 2009-06-18 Lyle Ruthie D Method and system for managing contacts in a mobile communications device
JP2009147680A (ja) 2007-12-14 2009-07-02 Yamatatsugumi:Kk 携帯電話機
US20090158423A1 (en) 2007-12-14 2009-06-18 Symbol Technologies, Inc. Locking mobile device cradle
KR100922337B1 (ko) 2007-12-15 2009-10-21 구연영 고무 귓 청을 구비한 이어폰
GB0725111D0 (en) 2007-12-21 2008-01-30 Wolfson Microelectronics Plc Lower rate emulation
JP2009159577A (ja) 2007-12-25 2009-07-16 Haruo Matsuda ソリッドソニックスピーカシステム
JP5024035B2 (ja) 2007-12-27 2012-09-12 コスモギア株式会社 Pttリモコン装置、ハンズフリー通話システム及びハンズフリー通話方法
JP2009171249A (ja) 2008-01-16 2009-07-30 Sony Corp 集音装置、記録装置及び記録方法
US8699742B2 (en) 2008-02-11 2014-04-15 Bone Tone Communications Ltd. Sound system and a method for providing sound
WO2009105115A2 (en) 2008-02-22 2009-08-27 T-Mobile Usa, Inc. Data exchange initiated by tapping devices
JP2009246954A (ja) 2008-02-22 2009-10-22 Nec Tokin Corp 受話装置
JP5141696B2 (ja) 2008-02-22 2013-02-13 日本電気株式会社 生体認証装置、生体認証方法及び生体認証用プログラム
JP5019615B2 (ja) 2008-02-29 2012-09-05 Necトーキン株式会社 振動発生装置
JP2009232443A (ja) 2008-02-29 2009-10-08 Nec Tokin Corp 受話装置
US20090226020A1 (en) 2008-03-04 2009-09-10 Sonitus Medical, Inc. Dental bone conduction hearing appliance
US8150075B2 (en) 2008-03-04 2012-04-03 Sonitus Medical, Inc. Dental bone conduction hearing appliance
US20100329485A1 (en) 2008-03-17 2010-12-30 Temco Japan Co., Ltd. Bone conduction speaker and hearing device using the same
US8216287B2 (en) 2008-03-31 2012-07-10 Cochlear Limited Tangential force resistant coupling for a prosthetic device
JP2009260883A (ja) 2008-04-21 2009-11-05 Three S Denki Seisakusho:Kk 難聴者用イヤホン
JP2009267616A (ja) 2008-04-23 2009-11-12 Asahi Kasei Electronics Co Ltd 音響トランスデューサおよびその製造方法
JP4513040B2 (ja) 2008-04-30 2010-07-28 謙治 佐藤 音響装置
JPWO2009136498A1 (ja) 2008-05-08 2011-09-08 株式会社テムコジャパン マイクロホンの防振支持方法及び防振支持構造
KR101039090B1 (ko) 2008-05-21 2011-06-20 박의봉 스피커장치
WO2009141912A1 (ja) 2008-05-23 2009-11-26 日本エムエムアイテクノロジー株式会社 イヤホン装置
CN101594161A (zh) 2008-05-29 2009-12-02 株式会社威克姆研究所 骨导集音器
JP3144392U (ja) 2008-06-16 2008-08-28 真幸電機株式会社 ヘッドホーンに取り付ける骨伝導デバイス
JP5146147B2 (ja) 2008-06-25 2013-02-20 コスモギア株式会社 骨伝導マイク・スピーカ通話装置
JP4631939B2 (ja) 2008-06-27 2011-02-16 ソニー株式会社 ノイズ低減音声再生装置およびノイズ低減音声再生方法
JPWO2010005045A1 (ja) 2008-07-09 2012-01-05 初則 廣重 薄型マイクロフォン及びマイクロフォン付きヘルメット
CN201216023Y (zh) 2008-07-18 2009-04-01 航宇救生装备有限公司 骨导式耳麦
JP5206234B2 (ja) 2008-08-27 2013-06-12 富士通株式会社 雑音抑圧装置、携帯電話機、雑音抑圧方法及びコンピュータプログラム
AU2009287904B2 (en) 2008-09-04 2015-02-12 Temco Japan Co., Ltd. Ear muff-type headset for two-way communication
US8265329B2 (en) 2008-09-05 2012-09-11 Apple Inc. Compact housing for portable electronic device with internal speaker
JP2010068299A (ja) 2008-09-11 2010-03-25 Yamaha Corp イヤホン
CN101355823A (zh) 2008-09-18 2009-01-28 陈奚平 采用骨传导扬声器的耳塞式耳机
KR101006207B1 (ko) 2008-09-25 2011-01-07 김형호 잡음차단수단을 갖는 헤드셋
JP2010087810A (ja) 2008-09-30 2010-04-15 Wecom Kenkyusho:Kk 耳穴式骨伝導レシーバ
JP5246695B2 (ja) 2008-10-03 2013-07-24 リオン株式会社 耳かけ型補聴器
KR101014077B1 (ko) 2008-10-14 2011-02-10 엘지이노텍 주식회사 무선 헤드 셋
JP2010094799A (ja) 2008-10-17 2010-04-30 Littleisland Inc 人型ロボット
JP5488471B2 (ja) 2008-10-27 2014-05-14 日本電気株式会社 情報処理装置
JP4680291B2 (ja) 2008-10-31 2011-05-11 哲郎 渡邊 多機能型振動発生装置
TW201018982A (en) 2008-11-04 2010-05-16 Neovictory Technology Co Ltd Sphenoid temporal bone conduction communication and/or hearing aid device
CN102273232B (zh) 2008-11-10 2016-03-16 伯恩同通信有限公司 用于播放双声道和单声道信号的耳机和方法
JP2010124287A (ja) 2008-11-20 2010-06-03 Sharp Corp 携帯電話
US8301443B2 (en) 2008-11-21 2012-10-30 International Business Machines Corporation Identifying and generating audio cohorts based on audio data input
CN101753221A (zh) 2008-11-28 2010-06-23 新兴盛科技股份有限公司 蝶颞骨传导通讯与/或助听装置
TWI391880B (zh) 2008-12-05 2013-04-01 Univ Chang Gung Wearable motion sensing device and method thereof
US8630425B2 (en) 2008-12-12 2014-01-14 Cisco Technology, Inc. Apparatus, system, and method for audio communications
JP2010147727A (ja) 2008-12-17 2010-07-01 Scalar Corp ヘッドマウントディスプレイの取付け器具、ヘッドマウントディスプレイ、内視鏡手術システム
JP5269618B2 (ja) 2009-01-05 2013-08-21 株式会社オーディオテクニカ 骨伝導マイクロホン内蔵ヘッドセット
US20100178957A1 (en) 2009-01-13 2010-07-15 Chao Chen Mobile device having an impact resistant input
JP5228932B2 (ja) 2009-01-16 2013-07-03 沖電気工業株式会社 音信号調整装置、プログラム及び方法、並びに、電話装置
US8670583B2 (en) 2009-01-22 2014-03-11 Panasonic Corporation Hearing aid system
US8290546B2 (en) 2009-02-23 2012-10-16 Apple Inc. Audio jack with included microphone
CN102439972B (zh) 2009-02-27 2016-02-10 基础制造有限公司 基于耳机的电信平台
JP2010224665A (ja) 2009-03-19 2010-10-07 Sony Corp 光触覚変換システム、及び触覚フィードバックの提供方法
JP2010232755A (ja) 2009-03-26 2010-10-14 Kddi Corp ハンズフリー通話装置、指向性調整方法、指向性調整プログラム
JP5433280B2 (ja) 2009-04-07 2014-03-05 日立オムロンターミナルソリューションズ株式会社 情報処理装置、携帯型端末、および機能制御プログラム
WO2010116510A1 (ja) 2009-04-09 2010-10-14 日本エムエムアイテクノロジー株式会社 マイクロフォン装置およびヘッドセット装置
JP2010258701A (ja) 2009-04-23 2010-11-11 Ntt Docomo Inc 通信端末及び音量レベルの調整方法
JP2010268336A (ja) 2009-05-18 2010-11-25 Panasonic Corp タッチパネル付き情報端末
JP5639160B2 (ja) 2009-06-02 2014-12-10 コーニンクレッカ フィリップス エヌ ヴェ イヤホン配置及びその動作方法
JP2010283541A (ja) 2009-06-03 2010-12-16 Fujitsu Ltd 携帯型無線通信装置およびその制御方法
JP5257262B2 (ja) 2009-06-18 2013-08-07 富士通モバイルコミュニケーションズ株式会社 移動通信装置
DE102009030070A1 (de) 2009-06-22 2010-12-23 Sennheiser Electronic Gmbh & Co. Kg Transport-und/oder Aufbewahrungsbehälter für aufladbare drahtlose Hörer
JP2011008503A (ja) 2009-06-25 2011-01-13 Denso Wave Inc セキュリティ端末装置
JP2011010791A (ja) 2009-07-01 2011-01-20 Infoscience Corp 咀嚼状態認識装置
JP2011015193A (ja) 2009-07-02 2011-01-20 Funai Electric Co Ltd 音声出力装置
US9049277B2 (en) 2009-07-09 2015-06-02 Nec Corporation Event notification device, event notification method, program, and recording medium
JP5104820B2 (ja) 2009-07-10 2012-12-19 株式会社島津製作所 表示装置
KR20090082879A (ko) 2009-07-13 2009-07-31 허은 자전거용방향지시등
JP5611550B2 (ja) 2009-07-13 2014-10-22 シャープ株式会社 携帯電話機、携帯電話機の制御方法、およびプログラム
KR20110006838A (ko) 2009-07-15 2011-01-21 (주)본웨이브 골전도 진동장치
US20110169622A1 (en) 2009-07-16 2011-07-14 Patent Navigation Inc. Enhanced communication through vibration
JP2011035560A (ja) 2009-07-30 2011-02-17 Fujitsu Toshiba Mobile Communications Ltd 拡声装置
US8948824B2 (en) 2009-08-05 2015-02-03 Apple Inc. Electronic devices with clips
MX2012002359A (es) 2009-08-25 2012-04-10 Store Elect Sys Bomba de carga regulada de alta eficiencia.
JP5368911B2 (ja) 2009-08-27 2013-12-18 京セラ株式会社 電子機器
CN102483665B (zh) 2009-08-31 2014-12-10 日本写真印刷株式会社 带有振动功能的触摸面板的安装结构
US9107466B2 (en) 2009-08-31 2015-08-18 Rawlings Sporting Goods Company, Inc. Batting helmet having localized impact protection
JP5306944B2 (ja) 2009-08-31 2013-10-02 日本写真印刷株式会社 スピーカ兼用タッチパネルの実装構造
TWI554076B (zh) 2009-09-04 2016-10-11 普露諾洛股份有限公司 遠距離的電話管理器
JP2011059376A (ja) 2009-09-10 2011-03-24 Pioneer Electronic Corp 雑音低減装置付きヘッドフォン
JP2011087142A (ja) 2009-10-15 2011-04-28 Prefectural Univ Of Hiroshima 貼付型骨伝導補聴器
US8831934B2 (en) 2009-10-27 2014-09-09 Phonak Ag Speech enhancement method and system
JP5434521B2 (ja) 2009-11-25 2014-03-05 株式会社Jvcケンウッド ヘッドホン
US20110143769A1 (en) 2009-12-16 2011-06-16 Microsoft Corporation Dual display mobile communication device
JP5531605B2 (ja) 2009-12-21 2014-06-25 明子 中谷 骨伝導スピーカ及び骨伝導ヘッドホン装置
JP5407848B2 (ja) 2009-12-25 2014-02-05 富士通株式会社 マイクロホンの指向性制御装置
DK2360943T3 (da) 2009-12-29 2013-07-01 Gn Resound As Beamforming i høreapparater
TW201123815A (en) 2009-12-31 2011-07-01 C Media Electronics Inc Method for providing background sound to communication device and system applying the method
US20110180542A1 (en) 2010-01-22 2011-07-28 Ryan Drollinger Methods for reducing fluid loss in fluid-bearing systems
JP2011223556A (ja) 2010-03-25 2011-11-04 Kyocera Corp 携帯端末装置
WO2011121740A1 (ja) 2010-03-30 2011-10-06 富士通株式会社 電話機、及び電話機の音声調整方法
JP2011212167A (ja) 2010-03-31 2011-10-27 Japan Health Science Foundation 生体情報入力用トランスデューサ、生体情報発信装置、生体情報監視装置及び生体情報監視システム
JP5650431B2 (ja) 2010-04-14 2015-01-07 ラピスセミコンダクタ株式会社 チャージポンプ型の昇圧回路及び昇圧方法
JP5465076B2 (ja) 2010-04-23 2014-04-09 京セラ株式会社 携帯端末装置
US20110263200A1 (en) 2010-04-26 2011-10-27 Sony Ericsson Mobile Communications Ab Vibrating motor disposed external to electronic device
KR20110121012A (ko) 2010-04-30 2011-11-07 이동원 난청 예방 헤드셋
JP4843721B2 (ja) 2010-04-30 2011-12-21 株式会社東芝 テレビジョン装置、電子機器、および揺動支持機構
KR101688139B1 (ko) 2010-05-14 2016-12-20 엘지전자 주식회사 이동 단말기
US20110316289A1 (en) 2010-05-24 2011-12-29 Gregory Trimarche Bicycle with a flywheel accessory for generating electrical power
CN102065357B (zh) 2010-05-25 2014-06-04 瑞声声学科技(深圳)有限公司 电磁扬声器件
US8515089B2 (en) 2010-06-04 2013-08-20 Apple Inc. Active noise cancellation decisions in a portable audio device
US9099077B2 (en) 2010-06-04 2015-08-04 Apple Inc. Active noise cancellation decisions using a degraded reference
US8761421B2 (en) 2011-01-14 2014-06-24 Audiotoniq, Inc. Portable electronic device and computer-readable medium for remote hearing aid profile storage
WO2011159349A1 (en) 2010-06-14 2011-12-22 Audiotoniq, Inc. Hearing aid system
US9167339B2 (en) 2010-07-07 2015-10-20 Iii Holdings 4, Llc Hearing damage limiting headphones
US20120010735A1 (en) 2010-07-09 2012-01-12 Eyal Gilboa Earpiece attaching system and method
JP5655683B2 (ja) 2010-07-15 2015-01-21 ヤマハ株式会社 静電型スピーカおよび静電型スピーカの製造方法
JP5685771B2 (ja) 2010-07-20 2015-03-18 株式会社Wecom研究所 健常者用のイヤフォンとしても使用できる耳穴式骨伝導レシーバ
JP2012034064A (ja) 2010-07-28 2012-02-16 Kyocera Corp 携帯電子機器
WO2012021424A1 (en) 2010-08-09 2012-02-16 #3248362 Nova Scotia Limited Personal listening device
KR20120015209A (ko) 2010-08-11 2012-02-21 나상일 진동 유닛을 이용한 헬멧형 오디오 출력장치
CN201845183U (zh) 2010-09-03 2011-05-25 康佳集团股份有限公司 与手机配套使用的无线手表
JP4880059B1 (ja) 2010-09-24 2012-02-22 西日本高速道路メンテナンス関西株式会社 ヘルメット用ヘッドホン及び該ヘッドホンを有するヘルメット
US8515110B2 (en) 2010-09-30 2013-08-20 Audiotoniq, Inc. Hearing aid with automatic mode change capabilities
JP2012109663A (ja) 2010-11-15 2012-06-07 Sharp Corp 骨伝導受話装置
US10687150B2 (en) 2010-11-23 2020-06-16 Audiotoniq, Inc. Battery life monitor system and method
US8816536B2 (en) 2010-11-24 2014-08-26 Georgia-Pacific Consumer Products Lp Apparatus and method for wirelessly powered dispensing
JP5663735B2 (ja) 2011-02-14 2015-02-04 株式会社ファインウェル 携帯電話、携帯電話システムおよび送受話ユニット
US8918149B2 (en) 2010-12-27 2014-12-23 Rohm Co., Ltd. Mobile telephone
US9313306B2 (en) 2010-12-27 2016-04-12 Rohm Co., Ltd. Mobile telephone cartilage conduction unit for making contact with the ear cartilage
CN103053147B (zh) 2010-12-27 2017-03-22 罗姆股份有限公司 呼入/呼出通话单元以及呼入通话单元
JP6282025B2 (ja) 2011-10-03 2018-02-21 株式会社ファインウェル 携帯電話
JP5837368B2 (ja) 2011-09-02 2015-12-24 株式会社ファインウェル 携帯電話
JP5215377B2 (ja) 2010-12-27 2013-06-19 裕司 細井 携帯電話
JP2013128161A (ja) 2011-12-16 2013-06-27 Hitachi Media Electoronics Co Ltd 移動通信端末用モジュール、及び移動通信端末
US8521239B2 (en) 2010-12-27 2013-08-27 Rohm Co., Ltd. Mobile telephone
JP2012142679A (ja) 2010-12-28 2012-07-26 Sanyo Electric Co Ltd テレビ電話装置
CN102161202B (zh) * 2010-12-31 2012-11-14 中国科学院深圳先进技术研究院 全景监控机器人系统、监控机器人
WO2012093319A1 (en) 2011-01-06 2012-07-12 Koninklijke Philips Electronics N.V. Patient monitoring system and method for monitoring the physiological status of a patient
US8525868B2 (en) 2011-01-13 2013-09-03 Qualcomm Incorporated Variable beamforming with a mobile platform
JP5648490B2 (ja) 2011-01-19 2015-01-07 凸版印刷株式会社 偽造防止ラベル
US9152130B2 (en) 2011-01-19 2015-10-06 Ph Technical Labs, Llc Mobile communication watch utilizing projected directional sound
JP2012156781A (ja) 2011-01-26 2012-08-16 Nec Casio Mobile Communications Ltd 携帯通信端末
CN102075633B (zh) 2011-02-11 2013-11-06 华为终端有限公司 一种信息提示方法及移动终端
US9753536B2 (en) 2011-02-24 2017-09-05 Kyocera Corporation Electronic device
JP5783352B2 (ja) 2011-02-25 2015-09-24 株式会社ファインウェル 会話システム、会話システム用指輪、携帯電話用指輪、指輪型携帯電話、及び、音声聴取方法
JP2012182553A (ja) 2011-02-28 2012-09-20 Toshiba Corp 再生装置、オーディオデータ補正装置、および再生方法
JP5742340B2 (ja) 2011-03-18 2015-07-01 ソニー株式会社 咀嚼検出装置および咀嚼検出方法
US20120253236A1 (en) 2011-04-04 2012-10-04 Snow Buddy L Methods and apparatuses for delivering external therapeutic stimulation to animals and humans
US20120283746A1 (en) 2011-05-02 2012-11-08 Hstar Technologies Mobile Medical Robotic System
JP5482730B2 (ja) 2011-05-23 2014-05-07 株式会社Jvcケンウッド 耳掛けハンガー,イヤホン,及びイヤホンの製造方法
JP2012249097A (ja) 2011-05-27 2012-12-13 Kyocera Corp 音声出力装置
JP5689751B2 (ja) 2011-06-09 2015-03-25 Kddi株式会社 携帯端末装置
US20130133424A1 (en) * 2011-06-10 2013-05-30 Aliphcom System-based motion detection
JP2013005212A (ja) 2011-06-16 2013-01-07 Kddi Corp 携帯端末装置
TW201304562A (zh) 2011-07-08 2013-01-16 Pi-Fen Lin 具有觸控筆的無線耳機
US9020168B2 (en) 2011-08-30 2015-04-28 Nokia Corporation Apparatus and method for audio delivery with different sound conduction transducers
JP5838676B2 (ja) 2011-09-12 2016-01-06 セイコーエプソン株式会社 腕装着型の電子機器およびその制御方法
JP5918660B2 (ja) 2011-09-13 2016-05-18 Kddi株式会社 音声伝達装置
JP5676003B2 (ja) 2011-09-30 2015-02-25 京セラ株式会社 携帯電子機器
US8631357B2 (en) 2011-10-31 2014-01-14 Apple Inc. Dual function scroll wheel input
JP2013105272A (ja) 2011-11-11 2013-05-30 Canon Inc 表示制御装置及び表示制御方法、プログラム、並びに記憶媒体
JP2013115638A (ja) 2011-11-29 2013-06-10 Sanyo Electric Co Ltd テレビ電話装置
JP2013115800A (ja) 2011-12-01 2013-06-10 Goldendance Co Ltd 耳掛け型補聴器
JP5464674B2 (ja) 2011-12-20 2014-04-09 Necインフロンティア株式会社 近接センサの誤検出防止方法、誤検出防止装置及び誤検出防止プログラム並びに誤検出防止装置を含む端末
JP2013128896A (ja) 2011-12-22 2013-07-04 Kddi Corp 振動装置
US20130177188A1 (en) 2012-01-06 2013-07-11 Audiotoniq, Inc. System and method for remote hearing aid adjustment and hearing testing by a hearing health professional
US9208146B2 (en) 2012-01-17 2015-12-08 Sin El Gim System for providing universal communication that employs a dictionary database
JP6284704B2 (ja) 2012-12-07 2018-02-28 株式会社ファインウェル ステレオイヤホンおよびイヤホンの使用方法
JP5901374B2 (ja) 2012-03-22 2016-04-06 株式会社ファインウェル 携帯電話
KR101863831B1 (ko) 2012-01-20 2018-06-01 로무 가부시키가이샤 연골 전도부를 갖는 휴대 전화
JP2014229991A (ja) 2013-05-20 2014-12-08 裕司 細井 イヤホン
JP5590345B2 (ja) 2012-02-01 2014-09-17 シャープ株式会社 入出力装置、入出力方法、及び入出力プログラム
JP2013168775A (ja) 2012-02-15 2013-08-29 Nec Saitama Ltd 携帯電話機
JP5822396B2 (ja) 2012-03-23 2015-11-24 シャープ株式会社 携帯電話装置、及び、制御方法
US9619028B2 (en) 2012-03-29 2017-04-11 Kyocera Corporation Electronic apparatus and panel unit
US9571615B2 (en) 2012-03-29 2017-02-14 Kyocera Corporation Electronic apparatus, panel unit, and unit for electronic apparatus
TW201342313A (zh) 2012-04-10 2013-10-16 Nat Univ Tsing Hua 語音辨識照護之方法及其系統
JP5738797B2 (ja) 2012-04-23 2015-06-24 京セラ株式会社 携帯端末装置、プログラムおよび音出力制御方法
JP5973218B2 (ja) 2012-04-26 2016-08-23 京セラ株式会社 電子機器
US9998836B2 (en) 2012-05-01 2018-06-12 Kyocera Corporation Electronic device, control method, and control program
JP6017828B2 (ja) 2012-05-02 2016-11-02 京セラ株式会社 電子機器、制御方法、及び制御プログラム
JP5886126B2 (ja) 2012-05-02 2016-03-16 リオン株式会社 イヤホンとそれを用いた聴取装置
JP5108161B1 (ja) 2012-05-07 2012-12-26 勝男 人見 独居者向けの安否確認システム
JP5995519B2 (ja) 2012-05-14 2016-09-21 京セラ株式会社 電子機器
JP5972042B2 (ja) 2012-05-16 2016-08-17 京セラ株式会社 電子機器
JP5952092B2 (ja) 2012-05-29 2016-07-13 京セラ株式会社 電子機器
CN202652216U (zh) 2012-06-27 2013-01-02 中国移动通信集团公司 短距离无线通信装置
TWI724317B (zh) 2012-06-29 2021-04-11 日商精良股份有限公司 耳機及立體聲耳機
WO2014020877A1 (ja) 2012-07-30 2014-02-06 京セラ株式会社 電子機器
JP5806178B2 (ja) 2012-07-31 2015-11-10 京セラ株式会社 振動検出用耳型部、振動検出用頭部模型、測定装置及び測定方法
KR101358881B1 (ko) 2012-09-21 2014-02-06 주식회사 라비오텍 양방향 기능성 음원 내장 수면상태진단 및 수면유도기능을 구비한 골전도 베개
US9288584B2 (en) 2012-09-25 2016-03-15 Gn Resound A/S Hearing aid for providing phone signals
US9351090B2 (en) 2012-10-02 2016-05-24 Sony Corporation Method of checking earphone wearing state
JP6091842B2 (ja) 2012-10-29 2017-03-08 株式会社システムクラフト 居住者見守り装置、居住者見守りプログラム及び居住者の見守り方法
TWM452360U (zh) 2012-11-02 2013-05-01 Univ Southern Taiwan Sci & Tec 聽障人士用手錶
CN203039851U (zh) 2012-11-08 2013-07-03 长春芬达电子有限公司 一种骨传导助听耳机
US10159296B2 (en) 2013-01-18 2018-12-25 Riddell, Inc. System and method for custom forming a protective helmet for a customer's head
US9055366B2 (en) 2013-01-22 2015-06-09 Apple Inc. Multi-driver earbud
JP6030479B2 (ja) 2013-02-26 2016-11-24 Kddi株式会社 音声出力装置
JP5941427B2 (ja) 2013-03-28 2016-06-29 ビッグローブ株式会社 情報処理装置、装着状態検出方法、及びプログラム
US20140305714A1 (en) 2013-04-16 2014-10-16 Ming-Chang Huang Apparatus for powering a movable carrier
CN203181220U (zh) 2013-04-25 2013-09-04 中国人民解放军总医院 组合眼镜式单通道或双通道压电陶瓷骨导助听器
JP6240401B2 (ja) 2013-04-25 2017-11-29 京セラ株式会社 音響再生機器及び集音型音響再生機器
JP2014232905A (ja) 2013-05-28 2014-12-11 リオン株式会社 イヤホンとそれを用いた聴取装置
EP3016410B1 (en) 2013-06-26 2018-09-19 Kyocera Corporation Measurement device and measurement system
KR102179812B1 (ko) 2013-07-18 2020-11-17 엘지전자 주식회사 와치형 이동단말기
JP6275449B2 (ja) 2013-10-31 2018-02-07 株式会社ファインウェル 送受話装置、名札、および非接触型icカード
JP6262474B2 (ja) 2013-09-09 2018-01-17 株式会社ファインウェル ステレオイヤホン
JP2015061285A (ja) 2013-09-20 2015-03-30 株式会社ファインウェル 送受話装置および送受話方法
WO2015025829A1 (ja) 2013-08-23 2015-02-26 ローム株式会社 携帯電話
JP6356488B2 (ja) 2014-05-23 2018-07-11 株式会社ファインウェル 携帯電話、携帯電話の使用方法および使用方法の説明媒体
EP2890152A4 (en) 2013-09-03 2016-05-25 Temco Japan OSTEOCONDUCTIVE SPEAKER UNIT
US11412334B2 (en) 2013-10-23 2022-08-09 Cochlear Limited Contralateral sound capture with respect to stimulation energy source
JP6298641B2 (ja) 2014-01-23 2018-03-20 株式会社ファインウェル 報知装置
JP6315434B2 (ja) 2013-10-24 2018-04-25 株式会社ファインウェル 送受話装置
WO2015060230A1 (ja) 2013-10-24 2015-04-30 ローム株式会社 腕輪型送受話装置、腕輪型報知装置
JP6515392B2 (ja) 2013-10-29 2019-05-22 ゴールデンダンス株式会社 音声振動発生素子
WO2015114849A1 (ja) 2014-01-30 2015-08-06 京セラ株式会社 圧電素子およびこれを備えた圧電振動装置、携帯端末、音響発生器、音響発生装置、電子機器
WO2015122879A1 (en) 2014-02-11 2015-08-20 Bodhi Technology Ventures Llc Detecting the limb wearing a wearable electronic device
US10827268B2 (en) 2014-02-11 2020-11-03 Apple Inc. Detecting an installation position of a wearable electronic device
US9565285B2 (en) 2014-02-20 2017-02-07 Apple Inc. Cellular network communications wireless headset and mobile device
CA2947885A1 (en) 2014-05-08 2015-11-12 Bell Sports, Inc. Expanded field of view for full-face motorcycle helmet
SG10201402803RA (en) * 2014-06-02 2016-01-28 Yizhong Zhang A mobile automatic massage apparatus
CN104076929B (zh) * 2014-07-21 2017-04-12 谷逍驰 带有力反馈的利用机械结构实现的手部动作捕获装置
US10817056B2 (en) * 2014-07-21 2020-10-27 Shenzhen Dexta Robotics Co. Ltd. Hand exoskeleton force feedback system
US20160058091A1 (en) 2014-08-28 2016-03-03 Sony Corporation Mounting device and imaging device
US9471102B2 (en) 2014-08-28 2016-10-18 Pebble Technology, Corp. Connection by securing device with integrated circuitry layer
CN107113481B (zh) 2014-12-18 2019-06-28 株式会社精好 利用电磁型振动单元的软骨传导接听装置及电磁型振动单元
US9552707B1 (en) 2015-01-12 2017-01-24 Shantanu Bala Wearable device that indicates the passage of time as a tactile sensation moving across the surface of a person's skin
US9367087B1 (en) 2015-03-03 2016-06-14 Pebble Technology Corp. Securing device for connecting to a display device
JP3200747U (ja) 2015-06-19 2015-11-05 株式会社システック 防災警報ヘルメット
EP3320672A4 (en) * 2015-07-07 2019-03-06 Origami Group Limited WRIST AND FINGER COMMUNICATION DEVICE
JP6551929B2 (ja) 2015-09-16 2019-07-31 株式会社ファインウェル 受話機能を有する腕時計
DE112016005688T5 (de) 2015-12-10 2018-08-30 Intel Corporation System zur Tonerfassung und -erzeugung über Nasalvibration
CN108496345B (zh) 2016-01-19 2021-02-26 株式会社精好 笔型呼入呼出通话装置

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001287183A (ja) * 2000-01-31 2001-10-16 Matsushita Electric Works Ltd 自動搬送ロボット
JP2002036158A (ja) * 2000-07-27 2002-02-05 Yamaha Motor Co Ltd 自律機能を有する電子機器
JP2002041411A (ja) * 2000-07-28 2002-02-08 Nippon Telegr & Teleph Corp <Ntt> テキスト読み上げロボット、その制御方法及びテキスト読み上げロボット制御プログラムを記録した記録媒体
JP2006007342A (ja) * 2004-06-23 2006-01-12 Mitsubishi Heavy Ind Ltd ロボットの制御プログラム更新方法及び該システム
JP2008006558A (ja) * 2006-06-30 2008-01-17 Shinano Kenshi Co Ltd パワーアシスト装置
JP2008149427A (ja) * 2006-12-19 2008-07-03 Mitsubishi Heavy Ind Ltd ロボットによる物体を移動するサービスに必要な情報の取得方法と該方法を用いたロボットによる物体移動サービスシステム
JP2009166213A (ja) * 2008-01-18 2009-07-30 Toyota Motor Corp ロボット、及びロボットの制御方法
JP2010207963A (ja) * 2009-03-10 2010-09-24 Nippon Telegr & Teleph Corp <Ntt> ロボットハンドの被着装置
JP2013255212A (ja) * 2011-09-13 2013-12-19 Kddi Corp 通話装置
JP2013255091A (ja) * 2012-06-07 2013-12-19 Kyocera Corp 音響伝達装置
JP2014003488A (ja) * 2012-06-19 2014-01-09 Kyocera Corp 音響伝達装置
JP2015084801A (ja) * 2013-10-28 2015-05-07 俊道 妻木 動作補助装置

Also Published As

Publication number Publication date
EP3323567B1 (en) 2020-02-12
HK1255537A1 (zh) 2019-08-23
EP3323567A1 (en) 2018-05-23
US10967521B2 (en) 2021-04-06
US20190381672A1 (en) 2019-12-19
EP3323567A4 (en) 2019-04-03
TWI631983B (zh) 2018-08-11
CN107848125A (zh) 2018-03-27
KR102056550B1 (ko) 2019-12-16
KR20180017128A (ko) 2018-02-20
CN107848125B (zh) 2021-04-27
TW201707759A (zh) 2017-03-01

Similar Documents

Publication Publication Date Title
JP6760267B2 (ja) 情報処理装置、制御方法、およびプログラム
US20210185458A1 (en) Health monitoring with ear-wearable devices and accessory devices
JP6551919B2 (ja) 見守りシステム、見守り検知装置および見守り通報装置
WO2017010547A1 (ja) ロボットおよびロボットシステム
US20130343585A1 (en) Multisensor hearing assist device for health
JP2013013540A (ja) 耳介装着具
US11869505B2 (en) Local artificial intelligence assistant system with ear-wearable device
CN105376414B (zh) 一种提醒用户的方法及装置
US11716580B2 (en) Health monitoring with ear-wearable devices and accessory devices
US11107343B2 (en) System and method of user mobility monitoring
JP6982906B2 (ja) 聴取システムおよび聴取システムに用いられるロボット
JP6667172B2 (ja) ロボット
JP6783451B2 (ja) 聴取システムおよび聴取システムに用いられるロボット
US20230292064A1 (en) Audio processing using ear-wearable device and wearable vision device
JP7448922B2 (ja) 会話補助装置
KR102507322B1 (ko) 사용자단말기를 이용하여 셀프 피팅이 가능한 보청기 시스템 및 이를 이용한 피팅 방법
US20240393603A1 (en) Eyeglass hearing device with biosensors
KR20230023838A (ko) 크래들을 구비한 셀프 피팅이 가능한 보청기 시스템 및 이를 이용한 피팅 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16824527

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20187000808

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016824527

Country of ref document: EP