WO2011102047A1 - 情報処理システム、およびサーバ - Google Patents
情報処理システム、およびサーバ Download PDFInfo
- Publication number
- WO2011102047A1 WO2011102047A1 PCT/JP2010/072029 JP2010072029W WO2011102047A1 WO 2011102047 A1 WO2011102047 A1 WO 2011102047A1 JP 2010072029 W JP2010072029 W JP 2010072029W WO 2011102047 A1 WO2011102047 A1 WO 2011102047A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- terminal
- data
- base station
- meeting
- face
- Prior art date
Links
- 230000010365 information processing Effects 0.000 title claims description 11
- 238000000034 method Methods 0.000 abstract description 40
- 230000003993 interaction Effects 0.000 abstract description 9
- 230000005540 biological transmission Effects 0.000 description 87
- 238000012545 processing Methods 0.000 description 42
- 238000010586 diagram Methods 0.000 description 28
- 239000011159 matrix material Substances 0.000 description 27
- 230000008569 process Effects 0.000 description 23
- 238000004891 communication Methods 0.000 description 19
- 230000001133 acceleration Effects 0.000 description 16
- 230000008520 organization Effects 0.000 description 13
- 238000001514 detection method Methods 0.000 description 11
- 238000012937 correction Methods 0.000 description 9
- 239000004973 liquid crystal related substance Substances 0.000 description 7
- OTJMDLIUFVHKNU-UHFFFAOYSA-N 2-hydroxy-5-methylidene-3-(piperidin-1-ylamino)cyclopent-2-en-1-one Chemical compound C1C(=C)C(=O)C(O)=C1NN1CCCCC1 OTJMDLIUFVHKNU-UHFFFAOYSA-N 0.000 description 6
- BPPVUXSMLBXYGG-UHFFFAOYSA-N 4-[3-(4,5-dihydro-1,2-oxazol-3-yl)-2-methyl-4-methylsulfonylbenzoyl]-2-methyl-1h-pyrazol-3-one Chemical compound CC1=C(C(=O)C=2C(N(C)NC=2)=O)C=CC(S(C)(=O)=O)=C1C1=NOCC1 BPPVUXSMLBXYGG-UHFFFAOYSA-N 0.000 description 6
- 241001091551 Clio Species 0.000 description 6
- 101001030284 Homo sapiens Methylthioribulose-1-phosphate dehydratase Proteins 0.000 description 6
- 102100038593 Methylthioribulose-1-phosphate dehydratase Human genes 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 6
- 239000013589 supplement Substances 0.000 description 6
- 101100016034 Nicotiana tabacum APIC gene Proteins 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- PKTIFYGCWCQRSX-UHFFFAOYSA-N 4,6-diamino-2-(cyclopropylamino)pyrimidine-5-carbonitrile Chemical compound NC1=C(C#N)C(N)=NC(NC2CC2)=N1 PKTIFYGCWCQRSX-UHFFFAOYSA-N 0.000 description 2
- 101000775252 Arabidopsis thaliana NADPH-dependent oxidoreductase 2-alkenal reductase Proteins 0.000 description 2
- 102100028952 Drebrin Human genes 0.000 description 2
- 101000838600 Homo sapiens Drebrin Proteins 0.000 description 2
- 101001041031 Homo sapiens Lariat debranching enzyme Proteins 0.000 description 2
- 102100021155 Lariat debranching enzyme Human genes 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 102100022440 Battenin Human genes 0.000 description 1
- 102100021868 Calnexin Human genes 0.000 description 1
- 108010056891 Calnexin Proteins 0.000 description 1
- 102100040225 Gamma-interferon-inducible lysosomal thiol reductase Human genes 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 101000901683 Homo sapiens Battenin Proteins 0.000 description 1
- 101000984929 Homo sapiens Butyrophilin subfamily 1 member A1 Proteins 0.000 description 1
- 101001037132 Homo sapiens Gamma-interferon-inducible lysosomal thiol reductase Proteins 0.000 description 1
- 101100154720 Homo sapiens TSSK2 gene Proteins 0.000 description 1
- 208000025814 Inflammatory myopathy with abundant macrophages Diseases 0.000 description 1
- 101100522111 Oryza sativa subsp. japonica PHT1-11 gene Proteins 0.000 description 1
- 101100437920 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) BTN2 gene Proteins 0.000 description 1
- 101100480850 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) TDA3 gene Proteins 0.000 description 1
- 206010048669 Terminal state Diseases 0.000 description 1
- 102100029355 Testis-specific serine/threonine-protein kinase 2 Human genes 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000009469 supplementation Effects 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
Definitions
- the present invention relates to a technique for detecting the face-to-face of a person having a sensor terminal.
- Patent Document 1 discloses a technique using an infrared sensor mounted on a terminal in order to detect such face-to-face communication.
- Patent Document 1 since it is assumed that a plurality of users are at a specific site and face-to-face between persons only within the specific site is detected, the user moves between the plurality of sites. Is not assumed.
- a user in an organization, a user often moves between a plurality of sites and meets at a destination by a business trip or a meeting at another department. In this case, it is important to analyze which person has been faced at which site in order to improve the work environment and increase the efficiency of work.
- the purpose of the present invention is to make it possible to analyze which person the person has faced at which site. It is an object of the present invention to provide a method for determining in a complementary manner even if it is not possible to directly detect that the user has been in the room.
- An information processing system comprising first and second terminals, first and second base stations, and a server connected to each of the first and second base stations via a network.
- the first terminal transmits a first sensor that acquires first meeting data indicating a meeting with the second terminal and the first meeting data to the first base station or the second base station. 1 transmission device.
- the second terminal transmits a second sensor that acquires second meeting data indicating the meeting with the first terminal, and the second meeting data to the first base station or the second base station. 2 transmission devices.
- the first base station receives the first meeting data or the second meeting data from the first recording device that records the first base station ID indicating the identifier, and the first base station ID together with the first base station ID.
- the second base station receives the first meeting data or the second meeting data and records the second base station ID indicating the identifier to the server together with the second base station ID.
- the server includes a receiving device that receives the first and second meeting data and the first and second base station IDs, and a control device that identifies a location where the first terminal and the second terminal meet.
- the first terminal obtains the first meeting data at the first site where the first base station is installed, and the second terminal is installed at the second site different from the first site.
- the control device When the 1 face-to-face data is transmitted, the control device, based on the 1st and 2nd face-to-face data and the 1st and 2nd base station ID, the 1st terminal and the 2nd terminal at the 1st site Identify what you have met.
- the information processing system includes first and second terminals, first and second base stations, and a server connected to each of the first and second base stations via a network.
- the first terminal transmits a first sensor that acquires first meeting data indicating a meeting with the second terminal and the first meeting data to the first base station or the second base station. 1 transmission device.
- the second terminal transmits a second sensor that acquires second meeting data indicating the meeting with the first terminal, and the second meeting data to the first base station or the second base station. 2 transmission devices.
- the first base station receives the first meeting data or the second meeting data from the first recording device that records the first base station ID indicating the identifier, and the first base station ID together with the first base station ID.
- the second base station receives the first meeting data or the second meeting data and records the second base station ID indicating the identifier to the server together with the second base station ID.
- the server includes a receiving device that receives the first and second meeting data and the first and second base station IDs, and a control device that identifies a location where the first terminal and the second terminal meet.
- the control device includes the first and second meeting data, the time when the first and second meeting data are acquired, the time when the first and second base stations receive the first or second meeting data, Based on the first and second base station IDs, the location where the first terminal and the second terminal face each other is specified.
- Example 1 it is a figure of the structural example of the whole system which produces and displays the network diagram of the terminal between several sites. In Example 1, it is a figure of the structural example of the whole system including the display of the produced image from the terminal which acquires interaction data. In Example 1, it is a sequence diagram which shows the example of a process until sensing data is stored in a database from a terminal. 6 is a flowchart illustrating an example of data supplement processing according to the first exemplary embodiment. 6 is a flowchart illustrating an example of processing executed to create a display screen in the first embodiment. In Example 1, it is a sequence diagram which shows the example of a process until sensing data is provided to a user from a database.
- FIG. 6 is a flowchart illustrating an example of processing executed to set initial conditions according to the first exemplary embodiment. It is a figure which shows the example of the user ID correspondence table
- surface of Example 1. FIG. It is a figure which shows the example of the project corresponding table of Example 1. FIG. FIG. 10 is a diagram illustrating an example of a screen displayed for setting initial conditions according to the first embodiment. 6 is a flowchart illustrating an example of processing from data acquisition to face-to-face matrix creation in Embodiment 1. (A) And (b) is a figure which shows the example of the database which the sensor network server in Example 1 hold
- maintains. FIG. 6 is a diagram illustrating an example of a join table according to the first embodiment.
- Example 1 is a figure which shows the example of a facing matrix
- (b) is a figure which shows the example of facing count.
- FIG. 6 is a diagram illustrating another example of the facing matrix according to the first embodiment. 6 is a flowchart illustrating an example of processing executed to set initial conditions according to the first exemplary embodiment. 6 is a flowchart illustrating an example of processing executed for plotting data according to the first exemplary embodiment.
- 3 is an example of a block diagram of a terminal according to Embodiment 1.
- FIG. In Example 2 it is a figure of the structural example of the whole system which produces and displays the network diagram of the terminal between several sites. It is an example of the state transition diagram of the terminal of Example 3. It is an example of the operation mode figure of the terminal of Example 3. It is an example of offset automatic adjustment explanatory drawing of Example 3.
- FIG. FIG. 10 is an explanatory diagram of a non-normal transmission flag according to the third embodiment.
- FIG. 1 shows a case where there is a terminal that moves between multiple sites.
- Multi-site refers to a site configuration in which there are a plurality of physically separated sites, a base station is installed at each site, and a certain time or more is required when a person moves between the sites.
- a site and B site are shown as multi-sites.
- the A site includes a base station A1 (GWA1) connected to each terminal wirelessly or by wire, and a cradle that has a function of charging each terminal and transmits data acquired by the terminal to the base station A1 by wire.
- the B site includes a base station B1 (GWB1) and a cradle.
- the base station A1 and the base station B1 are connected to a database (DB) via a network.
- DB database
- terminal A1 has its own office at site A1. That is, normally, the terminal A1 transmits data to the database via the base station A (GWA1) at the A site.
- Data communication between the terminal and the base station can be either wireless or wired.
- GWA1 base station A
- the terminal periodically transmits infrared including its own ID, and when another terminal receives the infrared, it is determined that the terminals are facing each other. That is, when the users wearing the terminals meet each other, it can be detected.
- the data acquired by the terminal in this way is stored in the database.
- the ID of each terminal the ID of each terminal, the sensing time (DBTM) indicating the time when the terminal acquired the data using the infrared transceiver, the facing data (IR) indicating the facing partner, and the data in the database
- the base station (GW) indicating the base station that transmitted the data
- the DB registration time (UPTM) indicating the time when the base station received data from the terminal
- SITE site
- the terminal A1 is initially at the A site and moves to the B site while wearing the terminal A1.
- the terminal A1 faces the terminal B1, the face-to-face is detected, and the terminal A1 is not captured by the base station B1 (GWB1), that is, data is transferred via the base station B1 (GWB1).
- GWB1 base station B1
- the present embodiment provides means for detecting that the terminal A1 has faced the terminal B1 at the B site even under such a situation.
- FIG. 1 shows an example in which the terminal A1 returns to the A site and transmits data via the base station A1, and therefore there is a gap between the sensing time and the DB registration time.
- NWJO integrated network diagram
- NWA network diagram for site A and site B
- NWA and NWB are network diagrams of connections between people within the A and B sites, but are created by integrating the A and B sites with reference to the site information stored in the database.
- the network diagram is an integrated network diagram (NWJO).
- terminals A1 and A3 are connected, and in the network diagram of B site, terminals A1 and B1, and B1 and A3 are connected.
- NWJO network diagram in which the sites are integrated
- the terminals A1 and B1, B1 and A3, and A3 and A1 are connected. That is, a comprehensive connection between people can be acquired by a network diagram that integrates sites.
- site information is complemented at the time when the terminals assigned with the respective IDs in the DB table occur, it is possible to indicate at which site the network connection between the terminals occurred.
- each member of an organization wears a sensor terminal (TR), and the terminal (TR) acquires data related to the interaction (interaction) between the members and the activity status of each member.
- the acquired data is transmitted to the base station (GW) wirelessly or by wire, and further stored in the sensor network server (SS).
- the sensor network server identifies and supplements the site in each terminal of the database.
- a request is issued from the client (CL) to the application server (AS), and data relating to members belonging to the organization is extracted from the sensor network server (SS).
- An application server (AS) processes and plots the image based on the communication amount and diversity of each member to create an image. Further, the image is returned to the client (CL) and displayed.
- FIG. 2 is an explanatory diagram of a configuration of the entire system including a terminal that acquires interaction and sensing data to an application that displays the acquired data in the first exemplary embodiment of the present invention.
- the user receives an indication related to organizational communication by operating the client (CL).
- the client (CL) connects to the application server (AS) via the network (NW), receives the data processing result information (organization communication display) created by the application server, and outputs it to the display (CLWD) or the like. .
- Application server connects to sensor network server (SS) via network (NW) and receives sensing data stored in database unit (SSDB).
- An image is created by processing and plotting the received information.
- the sensor network server (SS) connects to the base station (GW) via the network (NW) and receives sensing data.
- the base station (GW) transmits sensing data to the sensor network server (SS) via the network (NW).
- the base station (GW) receives sensing data from the terminal (TR) via the transmission / reception unit (GWSR).
- the terminal (TR) is attached to a person and acquires sensing data by the sensing unit (TRSE).
- Terminal 2 (TR2) to terminal 4 (TR4) exist in an area where the base station (GW) can communicate.
- Each of the terminal 2 (TR2) to the terminal 4 (TR4) is attached to each person, and acquires sensing data by a sensing unit (not shown) like the terminal (TR).
- the terminal (TR) and the terminal 2 (TR2) to the terminal 4 (TR4) transmit the acquired sensing data to the base station (GW) using the transmission / reception unit (TRSR).
- Sensing data transmitted from the terminal (TR) and the terminal 2 (TR2) by the terminal 4 (TR4) includes information for identifying the terminal (TR) and the terminal 2 (TR2) that acquired the data from the terminal 4 (TR4). Is included.
- a terminal (TR) is a small terminal and is worn by a person to be sensed.
- FIG. 2 further shows three terminals from terminal 2 (TR2) to terminal 4 (TR4). Since the description regarding these terminals is the same as that of the terminal (TR), it will be omitted hereinafter. Therefore, the following description is valid even if the terminal (TR) is replaced with any terminal from the terminal 2 (TR2) to the terminal 4 (TR4). Note that this embodiment can also be applied when there are an arbitrary number of similar terminals.
- the terminal (TR) is equipped with an infrared transmitter (TRIS) and an infrared receiver (TRIR). By using these to transmit and receive infrared rays between terminals (TR), it is detected whether or not the terminal (TR) has faced another terminal (TR). For this reason, it is desirable that the terminal (TR) is attached to the front part of the person.
- the terminal (TR) may be a name tag type and may be hung from a person's neck by a string.
- the fact that the terminal (TR) has faced another terminal (TR) means that the person wearing the terminal (TR) has faced.
- a terminal (TR) transmits / receives an infrared signal to determine whether or not the terminal (TR) has faced another terminal (TR).
- the presence or absence of meeting may be determined by exchanging wireless signals other than infrared signals.
- the terminal includes a transmission / reception unit (TRSR), a sensing unit (TRSE), an input / output unit (TRIO), a control unit (TRCO), and a recording unit (TRME).
- TRSR transmission / reception unit
- TRSE sensing unit
- TONEO input / output unit
- TRCO control unit
- TRME recording unit
- TRSE The sensing unit
- the data sensed in is transmitted to the base station (GW) via the transmission / reception unit (TRSR).
- the transmission / reception unit (TRSR) transmits and receives data to and from the base station (GW).
- the transmission / reception unit (TRSR) may transmit sensing data according to a control command transmitted from the base station (GW), may periodically transmit sensing data, or may perform sensing. When the data is acquired, the sensing data may be transmitted immediately.
- the transmission / reception unit (TRSR) may receive a control command sent from the base station (GW). In accordance with the received control command, the control information related to the terminal (TR) is changed or output to the output device in the input / output unit (TRIO).
- the transmission / reception unit (TRSR) transmits the item selected by the input device in the input / output unit (TRIO) to the base station (GW) as a control command.
- the sensing unit (TRSE) senses a physical quantity indicating the state of the terminal (TR).
- the sensing unit (TRSE) includes one or more sensors that sense various physical quantities.
- the sensing unit (TRSE) has an infrared transmitter (TRIS), an infrared receiver (TRIR), a temperature sensor (TRTE), a microphone (TRMI), an acceleration sensor (TRAC), and an illuminance sensor (TRIL) as sensors used for sensing. ).
- the infrared receiver senses an infrared signal transmitted from an infrared transmitter (TRIS) of another terminal (TR). As will be described later, the sensed infrared information is used to determine whether or not the terminal (TR) has faced another terminal (TR).
- the acceleration sensor (TRAC) senses acceleration in the X, Y, and Z axis directions. As will be described later, the sensed acceleration information is used to determine the intensity of action and behavior (for example, walking or stationary) of the person wearing the terminal (TR).
- a microphone senses sound. The sensed voice information may be used, for example, to determine whether a person wearing the terminal (TR) is talking.
- the temperature sensor (TRTE) and the illuminance sensor (TRIL) sense temperature and illuminance, respectively. The sensed temperature and illuminance information may be used, for example, to determine the environment in which the terminal (TR) is placed.
- the sensing unit (TRSE) may include any one or more of the above sensors, or may include other types of sensors. Further, the sensing unit (TRSE) can add a new sensor by using an external input (TROU). As already described, the terminal (TR) may determine the presence or absence of meeting by transmitting and receiving wireless signals other than infrared signals. In that case, the sensing unit (TRSE) may include a wireless signal receiver other than the infrared sensor (TRIR). Alternatively, a radio signal receiver other than the infrared sensor (TRIR) may be connected to the external input (TROU).
- the input / output unit includes an input device such as a button and an output device such as a liquid crystal display, and acquires information desired by the target person and displays sensing data.
- an input device such as a button
- an output device such as a liquid crystal display
- a touch panel that integrates an input device and an output device may be used.
- the control unit includes a CPU (not shown). When the CPU executes a program stored in the recording unit (TRME), sensor information acquisition timing, sensor information analysis, and transmission / reception timing to the base station (GW) are controlled.
- the recording unit (TRME) includes an external recording device such as a hard disk, a memory, or an SD card, and stores programs and sensing data. Further, the recording unit (TRME) includes a data format (TRDFI) and an internal information unit (TRIN).
- TRDFI data format
- TRDFI internal information unit
- the data format (TRDFI) specifies a format for collecting data and time information acquired from each sensor.
- the internal information unit (TRIN) stores information related to the terminal (TR).
- the information regarding the terminal (TR) is, for example, a remaining battery level (TRBA), a clock (TRTI) (that is, time information), and terminal information (TRTR). In the remaining battery level (TRBA), the remaining power level of the terminal (TR) is recorded.
- the clock (TRTI) stores the current time measured by a timer built in the terminal (TR). The current time is corrected based on what is periodically transmitted from the base station (GW).
- the terminal information (TRTR) is terminal-specific information used for identifying the terminal (TR), and is also called a unique ID.
- the time is synchronized among a plurality of terminals (TR) by periodically correcting the time of the base station (GW) as the time of the terminal (TR). This makes it possible to align and collate data obtained from different terminals based on time. Since communication is always performed by a plurality of members, it is essential to synchronize the time in order to analyze data from both viewpoints.
- the time correction may not be triggered by the base station (GW), but may be sent to the terminal (TR) via the base station (GW) by using the sensor network server (SS) as a trigger.
- the base station (GW) is installed in an area where information is desired to be received, receives sensing data transmitted from a terminal (TR) in the area by radio or wire, and transmits the received sensing data to the network (NW).
- the base station (GW) includes a transmission / reception unit (GWSR), a control unit (GWCO), an input / output unit (GWIO), a recording unit (GWME), and an internal information unit (GWIN).
- GWSR transmission / reception unit
- GWCO control unit
- GWIO input / output unit
- GWME recording unit
- GWIN internal information unit
- FIG. 2 further shows two base stations from base station 2 (GW2) to base station 3 (GW3). Since the explanation regarding these base stations is the same as that of the base station (GW), it will be omitted hereinafter. Therefore, the following description is valid even if the base station (GW) is replaced with an arbitrary one from the base station 2 (GW2) to the base station 3 (GW4). Note that this embodiment can also be applied when there are an arbitrary number of similar base stations. When any base station uses radio, it establishes connections from 0 to a plurality of terminals (TR) existing within the radio reachable range, and exchanges data.
- TR terminals
- the transmission / reception unit (GWSR) transmits and receives data to and from the terminal (TR).
- the sensing data received from the terminal is transmitted to the sensor network server connected via the network.
- the base station ID is assigned and transmitted.
- the transmission / reception unit (GWSR) may transmit a control command to the terminal (TR), periodically receive sensing data from the terminal (TR), As soon as TR) transmits the sensing data, the sensing data may be received from the terminal (TR).
- the transmission / reception unit (GWSR) transmits a request to the sensor network server (SS) in accordance with the control command sent from the terminal (TR), and acquires the request from the sensor network server (SS) in response to the request. Data may be transmitted to the terminal (TR).
- the transmission / reception unit (GWSR) may transmit the item selected by the input device in the input / output unit (GWIO) to the terminal (TR) or the sensor network server (SS) as a control command. Conversely, the transmission / reception unit (GWSR) may receive a control command transmitted from the sensor network server (SS) or the terminal (TR). The display of the output device is changed according to the received control command.
- the control unit includes a CPU (not shown).
- the CPU executes a program stored in the recording unit (GWME), sensor information acquisition timing, sensor information analysis, and transmission / reception timing to the terminal (TR) or sensor network server (SS) are controlled. Is done.
- the input / output unit includes an input device such as a button or a keyboard, and an output device such as a liquid crystal display, and displays information such as the situation in the target area and sensing data.
- an input device such as a button or a keyboard
- an output device such as a liquid crystal display
- displays information such as the situation in the target area and sensing data.
- a touch panel that integrates an input device and an output device may be used.
- the recording unit (GWME) includes an external recording device such as a hard disk, a memory, or an SD card, and stores programs and sensing data. Furthermore, the recording unit (GWME) includes a data format (GWDFI) and an internal information unit (GWIN).
- the data format (GWDFI) is a format of data and time information received from the terminal (TR), and the data is determined as each element based on this format.
- the internal information unit (GWIN) stores information related to the base station (GW).
- the information regarding the base station (GW) is, for example, a clock (GWTI) (that is, time information) and base station information (GWBA) that is information unique to the base station, that is, a base station ID.
- the network (NW) is a network that connects a base station (GW), a sensor network server (SS), an application server (AS), and a client (CL).
- the network (NW) may be a local area network (LAN), a wide area network (WAN), or any other network.
- the sensor network server (SS) stores sensing data transmitted from the base station (GW), and transmits sensing data based on a request from the application server (AS).
- the sensor network server (SS) receives a control command from the base station (GW), and transmits a result obtained by the control command to the base station (GW).
- the sensor network server (SS) includes a database unit (SSDB), a control unit (SSCO), a transmission / reception unit (SSSR), an input / output unit (SSIO), and a recording unit (SSME).
- the database unit (SSDB) stores sensing data sent from the terminal (TR) via the base station (GW). Further, the database unit (SSDB) stores a coping method for the control command from the base station (GW).
- the database unit (SSDB) may be stored in a hard disk (not shown) provided in a recording unit (SSME) described later.
- the control unit (SSCO) includes a CPU (not shown).
- the CPU executes a program stored in the recording unit (SSME), thereby managing the database unit (SSDB) and processing information transmitted from the application server (AS) and the base station (GW). More specifically, data received from the base station (GW) is stored in the database unit (SSDB).
- SSME recording unit
- AS application server
- GW base station
- the transmission / reception unit transmits data to and receives data from the base station (GW) and the application server (AS). Specifically, the transmission / reception unit (SSSR) receives the sensing data transmitted from the base station (TR) and transmits the sensing data to the application server (AS). Moreover, a transmission / reception part (SSSR) transmits the result selected from the database part (SSDB) to a base station (GW), when a control command is received from a base station (GW).
- SSSR transmission / reception unit
- the input / output unit includes an input device such as a button or a keyboard and an output device such as a liquid crystal display, and displays information such as the situation in the target area and sensing data.
- an input device such as a button or a keyboard
- an output device such as a liquid crystal display
- displays information such as the situation in the target area and sensing data.
- a touch panel that integrates an input device and an output device may be used.
- the recording unit (SSME) includes an external recording device such as a hard disk, a memory, or an SD card, and stores programs and sensing data. Further, the recording unit (SSME) includes a data format (SSDFI).
- the data format (SSDFI) is a format of data and time information received from the base station (GW). Based on this format, the data is discriminated into each element and distributed to appropriate elements in the database unit (SSDB).
- the application server (AS) is a computer that processes sensing data stored in the sensor network server (SS).
- the application server (AS) includes a data processing unit (ASDP), a control unit (ASCO), a recording unit (ASME), a transmission / reception unit (ASSR), and an input / output unit (ASIO).
- ASDP data processing unit
- ASCO control unit
- ASME recording unit
- ASSR transmission / reception unit
- ASIO input / output unit
- the application server (AS) may serve as the client (CL) or the sensor network server (SS).
- Data processing unit processes sensing data and creates an image for expressing organizational communication.
- the data processing unit executes face-to-face matrix calculation (APIM), face-to-face number / time calculation (APIC), and data plot (APIP).
- APIM face-to-face matrix calculation
- APIC face-to-face number / time calculation
- APIP data plot
- ASDP data processing unit
- the data processing unit (ASDP) temporarily stores the processed data in the recording unit (ASME).
- the data processing unit (ASDP) may be realized, for example, by causing the CPU of the control unit (ASCO) to execute a program stored in the recording unit (ASME). In that case, processes in the data processing unit such as face-to-face matrix calculation (APIM), face-to-face number / time calculation (APIC), and data plot (APIP) are actually executed by the CPU of the control unit (ASCO).
- the control unit (ASCO) includes a CPU (not shown).
- the CPU executes a program stored in the recording unit (ASME), and performs processing such as a data acquisition request to the sensor network server (SS), execution of data processing, and management of execution results.
- ASME recording unit
- SS sensor network server
- the recording unit (ASME) includes an external recording device such as a hard disk, a memory, or an SD card, and stores programs, sensing data, and processing results by the data processing unit (ASDP). Furthermore, the recording unit (ASME) records values that should be temporarily stored for processing, such as initial condition setting (ASSII) and join table (ASCNT). These values can be added / deleted / changed at any time according to the type of data and the type of processing. In addition, a user ID correspondence table (ASUIT) indicating the correspondence between the user wearing the node and the unique ID of the node, and a project correspondence table (ASPUT) indicating the correspondence between the project and the user (member) belonging thereto are recorded. Keep it.
- ASUIT initial condition setting
- ASCNT join table
- the user ID correspondence table (ASUIT) and the project correspondence table (ASPUT) may be recorded in a recording unit (SSME) in the sensor network server (SS) or a recording unit (CLME) in the client (CL).
- the meeting matrix (ASTMX) is an array created by meeting matrix calculation (APIM).
- An example of the user ID correspondence table (ASUIT) is shown in FIG. 8, an example of the project correspondence table (ASPUT) is shown in FIG. 9, and an example of the meeting matrix (ASTMX) is shown in FIG.
- the user ID correspondence table (ASUIT) and project correspondence table (ASPUT) may be directly described in the program, but by storing only the correspondence table separately, user changes, node ID changes, project It is possible to respond flexibly to changes in organizational structure.
- the transmission / reception unit receives sensing data from the sensor network server (SS) and transmits data based on a processing result request from the client (CL).
- the input / output unit includes an input device such as a button or a keyboard and an output device such as a liquid crystal display, and can display information such as a situation in a target area and sensing data.
- an input / output unit As the input / output unit (ASIO), a touch panel that integrates an input device and an output device may be used.
- the client (CL) transmits a data processing request to the application server (AS) based on a request from the user, receives the processing result from the application server (AS), and displays the received processing result on the screen.
- the client (CL) includes a transmission / reception unit (CLSR), an input / output unit (CLIO), a recording unit (CLME), and a control unit (CLCO).
- the control unit (CLCO) includes a CPU (not shown) that executes a program stored in the recording unit (CLME).
- the control unit (CLCO) adjusts the size of the image received from the application server (AS) based on a request from the user, and displays the created screen as a display (CLWD) of the input / output unit (CLIO). Provide to the user by displaying on the output device.
- the transmission / reception unit transmits a request for transmitting the processing result of the sensing data in the range specified by the user to the application server (AS), and the processing result (that is, processed by the application server (AS)). Received image or sensing data).
- the input / output unit includes input devices such as a mouse (CLIM) and keyboard (CLIK) and output devices such as a display (CLWD), and displays information such as the situation in the target area and sensing data. To do.
- CLIO input devices
- CLIK keyboard
- CLWD display
- a touch panel that integrates an input device and an output device may be used.
- An external input / output (CLOU) may be used to connect other input / output devices.
- the recording unit (CLME) includes an external recording device such as a hard disk, a memory, or an SD card, and stores the main program, sensing data, images sent from the application server, and processing results by the control unit (CLCO).
- the recording unit (CLME) records conditions set by the user, such as the screen size, in the initial condition setting (CLISI).
- FIG. 3 is a sequence diagram showing processing until sensing data is stored in the database unit (SSDB) from the terminal (TR) in the first embodiment.
- Sensing data acquired by the terminal (TR) is periodically delivered to the sensor network server (SS) via the base station (GW) and stored in the database (SSDB). This flow corresponds to the sensing data acquisition (TRGE) to data storage (SSPU) in FIG. Time correction (GWTM) to time correction (TRTM) are executed at a different cycle from the flow of sensing data acquisition.
- sensing data information necessary for acquiring sensing data such as sampling period and acquisition time is described in the recording unit (TRME), and based on this information, the information in the terminal (TR) A sensing unit (TRSE) performs sensing. Further, the terminal (TR) continues to transmit infrared rays carrying information for identifying the terminal (TR) itself at a constant cycle (TRIS).
- the terminal (TR) faces another terminal 2 (TR2), that is, when the users of the terminal (TR) and the terminal 2 (TR2) face each other, the terminal (TR) is transmitted by the terminal 2 Received infrared (TRIS2) (TRIR).
- TIS2 Received infrared
- infrared light transmitted by the terminal (TR) is received by the terminal 2 (TR2) (TRIR2). Depending on conditions such as the angle between terminals, only one of them may be received. Further, the terminal (TR) records the sensed data in the recording unit (TRME).
- the terminal (TR) records the time of the clock (TRTI) together with the sensing data as the acquisition time of the sensed data.
- the terminal (TR) refers to the data format (TRDFI) in the recording unit (TRME) and unifies the data into the transmission data format.
- the terminal (TR) transmits sensing data sensed by sensing data acquisition (TRGE) to the base station (GW) via the transmission / reception unit (TRSR). More specifically, the terminal (TR) uses the transmission data for the base station (TR) stored in the recording unit (TRME) to transmit the sensing data recorded in the recording unit (TRME) to the control unit (TRCO). ) To convert. Then, the terminal (TR) transmits the sensing data converted into the transmission format to the base station (GW) via the transmission / reception unit (TRSR).
- the base station (GW) transmits the sensing data transmitted from the transmission / reception unit (TRSR) in the transmission format for the base station (GW) from the terminal (TR) to the transmission / reception unit (GWSR). Receive by.
- the received sensing data is stored in a recording unit (GWME).
- the base station (GW) compares the acquired data format with the data format (GWDFI) of the recording unit (GWME) to determine the data format. Further, the base station (GW) adds base station information (GWBA) to an appropriate position indicated by the data format (GWDFI) in the base station information addition (GWAD).
- the base station (GW) transmits the sensing data stored in the recording unit (GWME) to the sensor network server (SS) via the transmission / reception unit (GWSR). More specifically, the control unit (GWCO) of the base station (GW) transmits the sensing data recorded in the recording unit (GWME) for the sensor network server (SS) stored in the recording unit (GWME). Convert to format. Then, the base station (GW) transmits the sensing data converted into the transmission format to the sensor network server (SS) via the transmission / reception unit (GWSR).
- GWSR transmission / reception unit
- the transmission / reception unit (SSSR) of the sensor network server (SS) is transmitted from the transmission / reception unit (GWSR) of the base station (GW) in the transmission format for the sensor network server (SS).
- SSSR transmission / reception unit
- GWSR transmission / reception unit
- GWSR transmission / reception unit
- SSME recording unit
- the sensor network server (SS) determines the data format by comparing the format of the acquired data with the data format (SSDFI) of the recording unit (SSME). Further, in the data classification (SSDE), the sensor network server (SS) separates each data for each element.
- the control unit (SSCO) of the sensor network server (SS) converts the sensing data into the format of the database unit (SSDB).
- the converted sensing data is stored in a database unit (SSDB). It is preferable that the storage method in the database part (SSDB) can be used as an effective query when searching later.
- Valid queries include, for example, sensing data name, time, terminal unique ID, and base station unique ID.
- the control unit (SSCO) of the sensor network server (SS) supplements the site information in the sensing data. This is a process of complementing based on the facing data, the base station, and the DB registration time at the sensing time of the sensing data which is the terminal A1 in FIG.
- the data supplement (SSSU) process will be described with reference to FIG.
- processing when the terminal 1 and the terminal 2 face each other and the site of the terminal 1 is specified will be described.
- This process is performed for all data of all terminals.
- the sensing time in the database of the terminal 1 is compared with the DB registration time, and if it is within a predetermined time (for example, several tens of seconds), the site corresponding to the ID unique to the base station is specified and the process is terminated. . This is because it is considered that data was transmitted via the base station at the site where the meeting was made after meeting the terminal 2. If it is not within the predetermined time, it is determined that data has not been transmitted via the base station at the site where the meeting has been made, and a search is made as to whether or not the data of the terminal 2 includes the detection data of the terminal 1.
- a predetermined time for example, several tens of seconds
- the sensing time of the terminal 2 and the sensing time of the terminal 1 are within a certain time. If it is within a certain time, it is determined whether or not a site is specified in the data of the terminal 2, and if the site is specified, the site information is specified as the site of the terminal 1. If the site is not specified, the process is terminated.
- the data of the terminal 2 is searched for whether there is any other face-to-face detection data with the terminal 1. If there is, it is determined whether or not those sensing times are within a certain range. If there is no other face-to-face detection data, the process ends.
- the sensing data of the terminal A1 is acquired through the base station GWA1 existing at the site A. Based on the base station ID, it is determined that the terminal A1 is facing the terminal B1 at the site A. However, since it is not within the predetermined time, the data of the terminal B1 that is the counterpart is searched.
- the data of the terminal B1 includes face-to-face detection data with the terminal A1, and their sensing time is a fixed time (same time in FIG. 1).
- TRGE sensing data
- SSSU data supplementation
- the time adjustment (GWTM) shown in FIG. 3 is performed to adjust the time of the clock (GWTA) of the base station (GW).
- the base station (GW) acquires the current time from an NTP server (not shown) in the network (NW) network.
- Time correction (GWTM) processing is performed periodically.
- the time correction request (GWTR) is requested from the base station (GW) to the terminal (TR) in order to adjust the time of the terminal (TR).
- the time correction (TRTM) is a process of correcting the time of the clock (TRTI) based on the time transmitted from the base station (GW) by the time correction request (GWTR). Processing from the time correction request (GWTR) to the time correction (TRTM) is periodically performed.
- the terminal (TR) includes a triaxial acceleration sensor and an infrared transmitter / receiver, all of which perform sensing and data transmission in a 10-second cycle.
- Acceleration sensor performs sensing 100 times in the X, Y, and Z axis directions in the first 2 seconds of 10 seconds.
- the acceleration information acquired as a result of sensing indicates the state of the terminal (TR).
- the acquired acceleration information indicates the activity state of the person wearing the terminal (TR) (for example, whether or not the person is stationary).
- the infrared transmitter transmits an infrared signal toward the front of the terminal (TR) 6 times every 10 seconds.
- the transmitted infrared signal includes terminal information (TRTR), that is, a signal indicating the ID (identifier) of the terminal (TR).
- TRTR terminal information
- the receiver of one terminal (TR) receives the ID of the other terminal (TR). That is, when one terminal (TR) receives the ID of another terminal (TR), it means that those two terminals are facing each other. That is, when each terminal (TR) is mounted on the front of a person, the two terminals (TR) facing each other means that the two persons wearing them are facing each other.
- the infrared receiver side is always in a standby state, and the ID received within 10 seconds and the number of times received are recorded.
- sensing data transmitted from the terminal (TR) includes information indicating the acceleration of the terminal, a unique ID of the terminal, information indicating that the terminal has faced another terminal, and those Time information associated with the information. These sensing data are used as interaction data indicating human exchange. Note that these are merely examples, and the sensing interval and transmission timing can be arbitrarily set.
- FIG. 5 is a flowchart showing a rough processing flow from the start of the application to the provision of the display screen to the user (US) in the first embodiment of the present invention.
- FIG. 6 is a sequence diagram showing processing until the user uses data in the database unit (SSDB) in the first embodiment.
- USST Application start
- CLIS initial condition setting
- CLME recording unit
- the client (CL) requests data or an image from the application server (AS) based on the initial condition setting (CLIS).
- the recording unit (CLME) stores information necessary for acquiring sensing data such as the name and address of the application server (AS) to be searched.
- the client (CL) creates a data request command and converts it into a transmission format for the application server (AS).
- the command converted into the transmission format is transmitted to the application server (AS) via the transmission / reception unit (CLSR).
- the application server (AS) receives a request from the client (CL) in the data request (ASRQ), and is a data acquisition target and a time range of data to be acquired from the sensor network server (SS).
- a unique ID of the terminal is transmitted to request sensing data.
- the transmission time and the unique ID of the terminal are automatically set from those stored in the recording unit (ASME) of the application server (AS) or the recording unit (CLME) of the client (CL). Alternatively, it may be specified by the user through the input / output unit (CLIO) of the client (CL).
- the application server (AS) searches the sensor network server (SS) based on the data request (ASRQ).
- the recording unit (ASME) describes information necessary for acquiring a data signal such as the name, address, database name, and table name of the sensor network server (SS) to be searched.
- the application server (AS) requests search contents through a data request (ASRQ), acquires database information from the recording unit (ASME), and creates a command used for the search.
- the created command is converted by the control unit (ASCO) into a transmission format for the sensor network server (SS) stored in the recording unit (ASME).
- the command converted into the transmission format is transmitted to the sensor network server (SS) via the transmission / reception unit (ASSR).
- the database (SSDB) in the sensor network server (SS) executes the received command, queries it, and transmits data to the application server (AS).
- the application server (AS) receives the sensing data transmitted from the database unit (SSDB) in the sensor network server (SS) based on the data search (ASSE) command. Sensing data received by the transmission / reception unit (ASSR) is stored in the recording unit (ASME). In data classification (ASDE), the application server (AS) classifies the acquired data into appropriate elements. At that time, the time information and the sensing data are always classified and associated with each other.
- a program for performing these processes is stored in the recording unit (ASME), and is executed by the data processing unit (ASDP) to create an image.
- the image is transmitted to the client in image transmission (APWS) and displayed on the output device of the client, for example, a display (CLWD) (CLWO).
- the last application termination (USEN) is the termination of the application by the user.
- Initial condition setting starts from (ISST), reads user ID correspondence table (ISUI), reads project correspondence table (ISPU), sets display period (ISRT), sets members to plot (ISRM), The procedure of setting the distinction (ISSM) and setting the presence / absence of emphasis of the specific project (ISPO) is performed. If a specific project is emphasized (ISPY), the project to be emphasized is set (ISPS) and the process is terminated (ISEN).
- the user ID correspondence table reading As shown in FIG. 8, as an example, the user ID correspondence table associating the unique ID of the node (ASUIT3) and the user name (ASUIT2) wearing it with one to one. Read (ASUIT). The user is given a user number (ASUIT1) to be used in the future processing. If necessary, a column indicating the title (ASUIT4) is also prepared. In the case of the example of FIG. 8, the numerical representation is expressed with the department manager as 2, the section manager as 1, and the general employee as 0. You can freely set the method of distinguishing positions. When there is a change in the organization member or position, it can be dealt with by rewriting only the user ID correspondence table (ASUIT).
- ASUIT user ID correspondence table reading
- a project correspondence table for associating the names of projects existing in the organization with the members belonging thereto is read.
- ASPUT project correspondence table
- all subordinate organizations such as a fixed organization such as a group or a unit for the entire organization such as a department or a section, or a flexible organization such as a project are referred to as a project hereinafter.
- the project correspondence table (ASPUT) Since the project correspondence table (ASPUT) only needs to be clear who belongs to which project, it is integrated with the user ID correspondence table (ASUIT), and the project name belonging to the user represented by each line is indicated. It may be in the form that there is a line to write. Further, if it is not necessary to classify the display according to the project, the project correspondence table (ASPUT) is not necessary. In the project correspondence table (ASPUT) in FIG. 9, one member can be assigned to a plurality of projects, but it does not necessarily correspond.
- the project correspondence table has items of a project name (ASPUT2) and an assigned user number (ASPUT3). Each project is assigned a project number (ASPUT1) to be used in future processing. The number of the item of the belonging user number (ASPUT3) corresponds to the user number (ASUIT1) in the user ID correspondence table (ASUIT).
- an initial condition setting window (FIG. 10) ( ASISWD is displayed on an output device such as a client (CL) display (CLWD), and the user (US) is input using an input device such as a mouse (CLIM) or a keyboard (CLIK). Do.
- the initial condition setting window (ASSISWD) may be stored in the client (CL) from the beginning.
- the display period setting sets the date in the text box (PT01 to 03, PT11 to 13) of the window display period selection (ASISPT), and the time acquired by the terminal (TR) is within this range.
- a certain data shall be used for calculation for display. If necessary, a time range setting may be added.
- the member to be plotted is set in the window display member selection (ASISPM).
- the window reflects all user names read by reading the user ID correspondence table (ISUI), and node IDs if necessary.
- the user sets which member data is displayed by checking or not checking the check boxes (PM01 to PM09). Instead of directly specifying individual members, display members may be specified collectively according to conditions such as a predetermined group unit and age.
- the setting of job title distinction (ISSM) and the specific project emphasis setting (ISPO) are set in the window display setting (ASISPD).
- the role distinction check box (PD1) is checked, the display is plotted with different symbols such as squares and circles depending on job titles. Use this when you want to verify the difference in how you communicate by position.
- the check box for highlighting a specific project (PD2, PD21 to PD25) is checked, the symbol corresponding to the member belonging to the specific project in the display is highlighted and displayed over other symbols. Is done. Use this when you want to verify what kind of communication you are doing for each project.
- the check box (PD2) is checked, the specific project is emphasized (ISPY) in the flowchart of FIG.
- ISPS 7 is set to yes, and the emphasized project is set (ISPS).
- the project to be emphasized (ISPS) is set by the user checking a check box (PD21 to PD25) reflecting each project name read from the project correspondence table (ASPUT). The number of checks may be limited to one or multiple.
- the size of the displayed image is set.
- the image displayed on the screen is a rectangle.
- the vertical length of the image is input to the text box (PS01), and the horizontal length is input to the text box (PS02).
- a unit of some length such as a pixel or a centimeter is designated as a unit of a numerical value to be input.
- FIG. 11 is a flowchart showing details of the data acquisition (APDG) and face-to-face matrix creation (APIM) steps of FIG. 5 in the first embodiment of the present invention.
- Data acquisition (APDG) and face-to-face matrix creation (APIM) are performed from the start (DGST), and the process ends (DGEN).
- the application server that has received the data request (CLSQ) from the client requests sensing data from the sensor network server, and the necessary data from the database section (SSDB) in the sensor network server (SS). Is the process of getting
- FIGS. 12 (a) and 12 (b) An example of a table in which meeting data by infrared transmission / reception is collected is shown in FIGS. 12 (a) and 12 (b).
- FIG. 12A is a meeting table (SSDB — 1002), and is assumed to be a table in which data acquired from a terminal (TR) whose node ID is 1002 is collected.
- FIG. 12B is a meeting table (SSDB — 1003), which is a table in which data acquired from a terminal (TR) whose node ID is 1003 is collected. Note that the table need not be divided for each acquired node, and other data such as acceleration and temperature may be included in the same table.
- the face-to-face table can store 10 sets (DBR1 to DBR10, DBN1 to DBN10) of the time (DBTM) at which data was transmitted from the terminal (TR), the infrared transmission side ID (DBR1) and the number of receptions (DBN1).
- data transmission is performed once every 10 seconds, it represents how many infrared rays are received from which terminal (TR) within 10 seconds from the previous transmission.
- up to 10 sets can be stored.
- the number of sets can be freely set. It is null when there is no meeting, that is, when there is no infrared reception.
- the time is shown up to milliseconds. Any time format may be used as long as it is unified.
- DGCD data acquisition
- SSDB database unit of the sensor network server
- ASISPT display period
- CLIS initial condition setting
- An SQL command is created based on the condition of (ASISPM), and data included in the display period set by the time (DBTM) is acquired from the database (SSDB) from the facing table of all members to be displayed (DGSG).
- a set (two persons) is selected from the members to be displayed (IMMS), and the time of the data of the two persons is aligned to create a join table (IMAD).
- the time (DBTM) of each facing table is aligned to be the time (CNTTM) of the combined table.
- CNTTM time of the combined table.
- Another standard may be used for determining that the meeting has occurred, such as only when the number of times of infrared reception is equal to or greater than a threshold value. Further, the combined table only needs to be able to calculate the total number of encounters (REsum), so the number of encounters may be counted while keeping the time without creating a table.
- REsum total number of encounters
- the value of the total number of meeting times obtained is multiplied by 10 and put in two elements indicating the two members selected in the meeting matrix (ASTMX) (IMCI).
- the purpose of multiplying the number by 10 is to consider that the face-to-face matrix has been faced for 10 seconds with respect to the total number of face-to-face meetings, and to set the unit of the face-to-face matrix values in seconds. If you do not need it, you do not have to arrange it.
- Fig. 14 (a) shows an example of a face-to-face matrix (ASTMX).
- ASUIT1 user number
- ASUIT user ID correspondence table
- FIG. 15 shows an example of a face-to-face matrix that is a feature of the present embodiment.
- each row and column corresponds to a user number in the user ID correspondence table.
- the element in the i-th row and the j-th column indicates how many seconds the terminal having the user ID in the i-th row meets the terminal having the user ID in the j-th column. There was data.
- the meeting time is divided for each site where the meeting is performed.
- This site may be specified by the method described above.
- the user i, j's meeting can include not only the meeting time but also site information indicating at which site the user i, j was meeting.
- FIG. 16 is a flowchart showing details of the face-to-face number / face-time counting (APIC) step in FIG. 5 in the first embodiment of the present invention.
- APIC face-to-face number / face-time counting
- ICMS face-to-face matrix
- ASTMX face-to-face matrix
- TMNM TMNM
- ICNM TMNM
- ASISPT display period
- ASTMC meeting count
- TMNM meeting number
- TMTI meeting time
- FIG. 17 is a flowchart showing details of the data plot (APIP) step of FIG. 5 in the first embodiment of the present invention.
- each member is plotted on the coordinates with the counted number of meeting persons (TMNM) and meeting time (TMTI) on the horizontal axis and the vertical axis, respectively.
- TMNM meeting persons
- TMTI meeting time
- APIS initial condition setting
- the size of the graph area is first determined (IP10).
- the size of the graph area is the size of the area occupied by the graph on the display screen. From the display size (ASISPS) set in the initial condition setting window (ASISSD), the vertical and horizontal values for title, axis value, and margin part are displayed. Calculate to be the subtracted value.
- the maximum value for each of the horizontal and vertical axes is determined (IP20).
- IP20 the maximum values of the number of persons (TMNM) and the time of meeting (TMTI) of the face count (ASTMC) in FIG.
- TMNM the maximum values of the number of persons
- TMTI time of meeting
- ASTMC face count
- each axis is assumed to be a normal axis (equal difference scale) in which the scale is divided so as to form an even number sequence, either depending on the distribution of the number of people (TMNM) or the time of meeting (TMTI), or Both may be logarithmic axes (logarithmic scale).
- TMNM number of people
- TMTI time of meeting
- ASTMC time of meeting count
- the position distinction check box (PD1) is ON in the display setting (ASISPD) of the initial condition setting (CLIS) (IP50)
- the member's position (ASUIT4) is changed to the user ID correspondence table (ASUIT).
- the symbol corresponding to the post is selected (IP51). Symbols are used to distinguish positions when plotting. For example, the section manager is set as a square, the section manager is set as a triangle, and a general employee is set as a circle. When the job title is not distinguished, a symbol set as a default is used (IP55). In order to distinguish the positions, methods other than changing the symbol to be plotted may be used.
- highlighting check box (PD2) for a specific project is ON in the initial condition setting (CLIS) display setting (ASISPD) (IP60), refer to the project correspondence table (ASPUT) (IP61) and highlight If the member belongs to the project set to be (IP70), the symbol is filled on the calculated coordinates and plotted (IP71). If the member does not belong to the corresponding project, the symbol is plotted on the coordinates without being painted (IP75). It should be noted that filling is performed to emphasize only the members belonging to the project, and therefore other methods may be used for emphasis. If necessary, the member's name can be displayed adjacent to the plotted symbol. The procedure of IP30 to IP71 is repeated until plotting is completed for all members (IP80).
- FIG. 18 is an external view showing an example of the structure of the name tag type sensor node.
- the name tag type sensor node is used by attaching a neck strap or a clip to the strap attaching portion NSH and attaching it to a person's neck or chest.
- the surface with the strap attachment portion NSH is defined as the upper surface, and the opposite surface is defined as the lower surface.
- a surface facing the other party is defined as a front surface
- a surface facing the front surface is defined as a back surface.
- a surface located on the left side when viewed from the front of the name tag type sensor node is defined as a left side
- a surface facing the left side is defined as a right side.
- a liquid crystal display device (LCDD) is disposed in front of the name tag type sensor node.
- the contents displayed on this liquid crystal display device are displayed as a name tag for the wearer's affiliation and name when facing the other party, as described later, and when facing the wearer, it is worn.
- the surface material of the name tag type sensor node is transparent so that the card CRD inserted therein can be seen from the outside through the case material.
- the design of the name tag surface can be changed by exchanging the card (CRD) inserted in the name tag type sensor node.
- the real name tag type sensor node can be worn by a person just like a general name tag, and the physical quantity can be acquired by the sensor without making the wearer feel uncomfortable.
- the LED lamps LED1 and LED2 in the top view and the front view of FIGS. 7A and 7B are used to notify the wearer and the person facing the wearer of the state of the name tag type sensor node.
- LED1 and LED2 are guided to the front surface and the upper surface, and in a state where the name tag type sensor node is worn, the lighting state can be visually recognized from both the wearer and the person facing the wearer.
- the name tag type sensor node has a built-in speaker SP and is used to notify the wearer and the person facing the wearer of the state of the name tag type sensor node with a buzzer or voice.
- the microphone MIC acquires the speech of the name tag type sensor node wearer and surrounding sounds.
- the illuminance sensors LS1F and LS1B are respectively arranged on the front surface and the back surface of the name tag type sensor node. It is detected from the illuminance value acquired by LS1F and LS1B that the attached name tag type sensor node is turned over, and the wearer is notified.
- buttons BTN1, BTN2, and BTN3 are arranged on the left side surface of the name tag type sensor node to change the operation mode of the wireless communication and switch the liquid crystal display screen.
- a power switch PSW On the lower surface of the name tag type sensor node, a power switch PSW, a reset button RBTN, a cradle connector CRDIF, and an external expansion connector EXPT are provided.
- a plurality of infrared transmission / reception units TRIR1 to TRIR1 are arranged in front of the name tag type sensor node. It is a structure peculiar to the name tag type sensor node of the present embodiment that a plurality of infrared transmission / reception units are provided. It has the function of intermittently transmitting the identification number (TRUD) of the name tag type sensor node itself by infrared rays and receiving the identification number transmitted by the name tag type sensor node worn by the person in contact. As a result, when and which name tag type sensor node has faced each other is recorded, it is possible to detect the face-to-face situation between the wearing humans.
- FIG. 18 shows an example in which four infrared transmission / reception units TRIR1 to TRIR1 are arranged above the sensor node.
- FIG. 19 is a diagram showing a second embodiment.
- This embodiment is characterized in that site information of a terminal that moves between multiple sites is complemented using infrared transmission terminals (IRB1, 2).
- the infrared transmission terminal is a terminal that is installed at a predetermined location and transmits infrared rays including an ID indicating its own identifier at predetermined intervals.
- the association between the ID of the infrared transmission terminal and its position information (site information) is stored in advance in a recording device in the sensor network server.
- the configuration diagram of the present embodiment is the same as that of the first embodiment except for the infrared transmission terminal, and therefore the description thereof is omitted here.
- the site information of the terminal A1 can be supplemented when the terminal B1 receives the infrared transmission of the terminal A1, transmits data via the base station B1, and is registered in the database within a predetermined time. However, data may not be transmitted via the base station B1 depending on the movement status of the terminal B1. In such a case, since the site information of the terminal B1 in the database is not specified, the sensor network server cannot supplement the site information of the terminal A1. Under such circumstances, when the terminal A1 receives the infrared rays transmitted by the infrared transmission terminal, the received information is used for specifying the site information.
- the face-to-face data with the infrared transmission terminal within a predetermined time (for example, several hours) before and after the face-to-face with the terminal B1 (that is, the sensing time of the face-to-face data B1) in the DB data of the terminal A1.
- a predetermined time for example, several hours
- the sensing time of the face-to-face data B1 in the DB data of the terminal A1.
- the fixed terminal which transmits infrared rays was demonstrated in this example, if ID data which shows an identifier are transmitted, it will not be limited to infrared rays.
- ⁇ Multi-site terminal operation mode> for the purpose of reducing the power consumption of the terminal when the user moves between multi-sites, as shown in FIG. 1, when the user moves between multi-sites, The terminal is put into a sleep state based on a detection result by an illuminance sensor. When moving, assuming that the user does not wear the terminal and stores it in a bag or the like, and the illuminance falls below a threshold value, the terminal shifts to the long sleep state (SL1).
- the long sleep state (standby state) is a mode in which the power consumption of the microcomputer and sensor can be suppressed as much as possible.
- the terminal A1 in the long sleep state periodically detects the illuminance, and if the detection result is equal to or less than the threshold value, the terminal A1 maintains the long sleep state as it is. If the detection result of the illuminance is equal to or greater than the threshold value, the normal sleep mode is restored from the long sleep state. This return state is considered to be the case where the terminal A1 is taken out from the bag.
- the user who arrives from the A site to the B site takes out the terminal A1 from the bag and wears the terminal A1.
- the terminal shifts from the long sleep state to the normal operation. That is, the terminal A1 resumes normal operation before and after the user re-installs the terminal A1.
- the state shifts to the long sleep state (SL2) based on the detection result of the illuminance, and when moving from the home to the A site where the office is located, the long sleep state (SL3) is also set.
- FIG. 20 shows an operation mode in the present embodiment. It shows that the battery can be driven for a long time (about 60 hours) as compared with the case where the battery is continuously operated in the same operation mode until the remaining battery power runs out (about 30 hours).
- the operation mode switching in the present embodiment is a normal mode in the own office, but when moving to a business trip destination, paying attention to the fact that the terminal is stored in a bag, etc. Detect storage. If detected, the terminal is shifted to the long sleep mode.
- FIG. 21 shows the state transition of the terminal in the third embodiment of the present invention.
- the terminal When the terminal is not in use, it is inserted into the cradle and charged. When using the terminal, remove the terminal from the cradle. The operation of inserting and removing the terminal from the cradle can be detected by a voltage change of the terminal.
- the front side faces forward and the back side comes into contact with or close to contact with the body.
- the value of the illuminance sensor on the front surface of the terminal is larger than the value of the illuminance sensor on the back surface.
- vibration is always generated when the terminal is worn by a person. This is because a person's physical movement cannot normally be completely stationary. Therefore, it is possible to determine whether the terminal is correctly worn by comparing the presence or absence of acceleration vibration and the values of the front and back illuminance sensors. If there is an acceleration frequency and the sensor values of the front and back illuminance values of the terminal are opposite, it can be determined that the terminal is mounted in the reverse direction. If the acceleration frequency does not exceed a certain time, it can be determined that the terminal is in a neglected state.
- the front and back illuminance sensor values are not more than a certain value and there is an acceleration frequency equal to or greater than the threshold value, it can be determined that the terminal is held by the hand.
- LPMODE low power consumption mode
- the terminal When in the low power consumption mode (LPMODE), the terminal periodically performs sensing to detect whether the current illuminance is greater than or less than a threshold value. If it is below the threshold, the low power consumption mode is continued. If it is equal to or greater than the threshold value, it is determined that the terminal has been removed from the bag or the like, and the normal operation mode is entered.
- FIG. 22 shows an offset automatic adjustment method of the illuminance sensor of the terminal in the third embodiment of the present invention. There are individual differences in the accuracy of the illuminance sensor for each terminal. By adjusting this automatically, it is not necessary to manually adjust the illuminance sensor for each terminal.
- the terminal is activated for a certain period of time and sensing is performed with the illuminance sensor. At this time, the terminal is left in a dark room.
- the illuminance sensing value of the terminal is considered to indicate the lowest value that can be detected by the illuminance sensor.
- the zero adjustment of the illuminance sensor is not optimal, the value does not reach the zero value even though the illuminance sensor is the lowest value. Therefore, among the values of the illuminance sensor sensed for a certain period of time, the setting of the illuminance sensor is redefined so that the minimum value ⁇ becomes zero.
- FIG. 23 shows flags given to data at the time of non-normal transmission in the third embodiment of the present invention.
- the flag When the flag is 0, it indicates normal transmission.
- the flag When the flag is 1, it indicates that the terminal does not have sensing data.
- the flag When the flag is 10, the sensing time is abnormal.
- the flag 20, it represents the heartbeat of the terminal.
- the flag When the flag is 21, it indicates that the terminal has been inserted into the cradle.
- the flag is 22 it means that the terminal has been removed from the cradle.
- the flag is 23, it represents a heartbeat from the cradle.
- the flag 31, it indicates that the terminal shifts from the normal mode to the illuminance detection low power consumption mode.
- the flag When the flag is 31, it indicates that the terminal shifts from the illuminance detection low power consumption mode to the normal mode.
- TR, TR2 to TR4 Terminal TRIS ... Infrared transmitter TRIR ... Infrared receiver TRAC ... Acceleration sensor TRCO ... Control unit TRSR ... Transmission / reception unit TRME ... Recording unit GW, GW2, GW3 ... Base station GWME ... Recording unit GWSR ... Transmission ⁇ Receiving unit GWCO ... Control unit NW ... Network SS ... Sensor network server SSCO ... Control unit SSME ... Recording unit SSSR ... Transmission / receiving unit SSDB ... Database unit AS ... Application server ASDP ... Data processing unit ASCO ... Control unit ASME ... Recording unit ASSR: Transmission / reception unit CL ... Client CLIO ... Input / output unit CLCO ... Control unit CLME ... Recording unit CLSR ... Transmission / reception unit
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- Entrepreneurship & Innovation (AREA)
- Tourism & Hospitality (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Game Theory and Decision Science (AREA)
- Educational Administration (AREA)
- Development Economics (AREA)
- Telephonic Communication Services (AREA)
Abstract
複数のサイト間において、ユーザがそのサイト間を移動する際、どのサイトでどの人物と対面したかを分析可能にすることを目的とし、ユーザがどのサイトにいたか直接検出できなかった場合でも、対面したサイトを判定する方法を提供する。ユーザが保有する端末(TR)は他の端末(TR2)と対面したことを示す対面データを取得し、各端末は対面データを基地局(GW)を介してサーバ(SS)に送信し、サーバ(SS)は対面データと基地局(GW)のIDに基づいて、各端末が他の端末と対面した場所を特定する。
Description
本発明は、センサ端末を有する人物の対面を検出する技術に関するものである。
あらゆる組織において生産性の向上は必須の課題となっており、職場環境の改善及び業務の効率化のために多くの試行錯誤がなされている。
そもそも組織とは複数の人間が力を合わせることによって、個人ではできない大掛かりな業務を達成するために形成されている。よって、どのような組織においても2人又はそれ以上の人物間での意思決定及び合意のためには必ずコミュニケーションが行われている。コミュニケーションの手段としては、電話やファックス、電子メールなどが挙げられるが、最も頻繁に行われ、かつ最も強い影響力を持つものはface-to-face(対面)によるコミュニケーションである。対面コミュニケーションでは、身振りや視線、表情、声の調子など人間の身体を最大限に生かすことができる。このため、日常の挨拶による好意的な関係の形成、複雑に利益の絡む交渉の場での歩み寄り、など組織において欠かせないコミュニケーションの多くが、対面コミュニケーションによって当然のように実現されているのである。
特許文献1には、このような対面コミュニケーションを検出するために、端末に搭載された赤外線センサを用いる技術が開示されている。
特許文献1では、複数のユーザが特定のサイトにいることを前提とし、その特定のサイト内でのみの人物間の対面を検出するものであるため、ユーザが複数のサイト間を移動することについては想定しない。一方、組織においては、ユーザが出張や他部署での打合せ等により、複数のサイト間を移動して、移動先で対面を行うことが多々ある。この場合、どのサイトでどの人物と対面したかを分析することが、職場環境の改善や業務の効率化を図るために重要となる。
このような事情に鑑み、本発明では、複数のサイト間において、ユーザがそのサイト間を移動する際、どのサイトでどの人物と対面したかを分析可能にすることを目的とし、ユーザがあるサイトにいたことが直接検出できなかった場合でも、補完的にそれを判定する方法を提供することを目的とする。
本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、下記の通りである。
第1及び第2の端末と、第1及び第2の基地局と、第1及び第2の基地局それぞれとネットワークを介して接続されるサーバと、を備える情報処理システムである。第1の端末は、第2の端末との対面を示す第1の対面データを取得する第1のセンサと、第1の対面データを第1の基地局又は第2の基地局へ送信する第1の送信装置とを有する。第2の端末は、第1の端末との対面を示す第2の対面データを取得する第2のセンサと、第2の対面データを第1の基地局又は第2の基地局へ送信する第2の送信装置とを有する。第1の基地局は、識別子を示す第1の基地局IDを記録する第1の記録装置と、第1の対面データ又は第2の対面データを受信して第1の基地局IDとともにサーバに送信する第1の送受信装置とを有する。第2の基地局は、識別子を示す第2の基地局IDを記録する第2の記録装置と、第1の対面データ又は第2の対面データを受信して第2の基地局IDとともにサーバに送信する第2の送受信装置とを有する。サーバは、第1及び第2の対面データと第1及び第2の基地局IDを受信する受信装置と、第1の端末と第2の端末が対面した場所を特定する制御装置とを有する。第1の基地局が設置される第1のサイトで第1の端末が第1の対面データを取得し、第1のサイトとは異なる第2のサイトに設置される第2の基地局へ第1の対面データを送信したとき、制御装置は、第1及び第2の対面データと第1及び第2の基地局IDに基づいて、第1の端末が第1のサイトで第2の端末と対面したことを特定する。
また、第1及び第2の端末と、第1及び第2の基地局と、第1及び第2の基地局それぞれとネットワークを介して接続されるサーバと、を備える情報処理システムである。第1の端末は、第2の端末との対面を示す第1の対面データを取得する第1のセンサと、第1の対面データを第1の基地局又は第2の基地局へ送信する第1の送信装置とを有する。第2の端末は、第1の端末との対面を示す第2の対面データを取得する第2のセンサと、第2の対面データを第1の基地局又は第2の基地局へ送信する第2の送信装置とを有する。第1の基地局は、識別子を示す第1の基地局IDを記録する第1の記録装置と、第1の対面データ又は第2の対面データを受信して第1の基地局IDとともにサーバに送信する第1の送受信装置とを有する。第2の基地局は、識別子を示す第2の基地局IDを記録する第2の記録装置と、第1の対面データ又は第2の対面データを受信して第2の基地局IDとともにサーバに送信する第2の送受信装置とを有する。サーバは、第1及び第2の対面データと第1及び第2の基地局IDを受信する受信装置と、第1の端末と第2の端末が対面した場所を特定する制御装置とを有する。制御装置は、第1及び第2の対面データ、第1及び第2の対面データそれぞれが取得された時刻、第1及び第2の基地局が第1又は第2の対面データを受信した時刻、第1及び第2の基地局IDに基づいて第1の端末と第2の端末が対面した場所を特定する。
本発明によれば、複数のサイト間において、ユーザがそのサイト間を移動する場合でも、どのサイトでどの人物と対面したかを検出しうる。
最初に、センサ端末を有する人物がマルチサイト間を移動することを想定したシステム構成について、図1を用いて説明する。
図1は、マルチサイト間を移動する端末が存在した場合を示している。マルチサイトとは、物理的に離れたサイトが複数存在し、各サイトには基地局が設置してあり、人が各サイトを行き来する場合は一定時間以上を要するサイト構成を言う。
図1では、マルチサイトとしてAサイトとBサイトを示している。Aサイトは、各端末と無線又は有線で接続される基地局A1(GWA1)、各端末を充電する機能を有し端末が取得したデータを有線で基地局A1に送信するクレイドルからなる。Bサイトも同様に、基地局B1(GWB1)、クレイドルからなる。さらに、基地局A1と基地局B1はネットワークを介してデータベース(DB)に接続されている。
端末A1について、Aサイトが自オフィスであったとする。すなわち、通常は、端末A1は、Aサイトにある基地局A(GWA1)を経由して、データをデータベースに送信する。端末と基地局間のデータ通信は、無線・有線、どちらでも可である。また、リアルタイム通信でも、非リアルタイム通信でも、どちらでも可である。端末は定期的に自身のIDを含んだ赤外線を送信しており、別の端末がその赤外線を受信すると、端末同士が対面していたことが判定される。つまり端末を身につけたユーザ同士が対面すると、それを検出できる。
このように端末が取得したデータは、データベースに格納される。データベース(DB)には、各端末のIDと、端末が赤外線送受信機を用いてデータを取得した時刻を示すセンシング時刻(DBTM)と、その対面相手を示す対面データ(IR)と、データベースにデータを送信した基地局を示す基地局(GW)、基地局が端末からデータを受信した時刻を示すDB登録時刻(UPTM)、各端末が存在する場所を示すサイト(SITE)が格納される。
ここで、端末A1のユーザが、はじめAサイトにおり、端末A1を身につけたままBサイトへ移動する場合を考える。Bサイトにおいて端末A1が端末B1と対面しその対面が検出され、かつ、端末A1は基地局B1(GWB1)に捕捉されることがなかった、つまり基地局B1(GWB1)経由でデータ転送がされなかった、とする。このとき、端末A1がBサイトに存在していた位置情報は、直接的には端末A1のデータには含まれない。本実施例ではこのような状況下であっても、端末A1がBサイトにおいて端末B1と対面したことを検出する手段を提供する。つまり、データベースにおける端末A1のデータにおいて、基地局GWA1が格納されていたとしても、サイト(SITE)にAサイトではなくBサイトを格納する手段を提供する。なお、図1では、端末A1がAサイトに戻って基地局A1を介してデータ送信した例を示しているため、センシング時刻とDB登録時刻に開きがある。
その結果、図1に示す統合ネットワーク図(NWJO)を作成することが可能となる。ここでは、サイトAにおいて、端末A1とA2が、端末A1とA3が、端末A3とA4が、端末A4とA2が対面し、サイトBにおいて、端末A1とB1が、端末B1とA3が、端末B1とA4が対面していたとする。この場合、サイトAについて、および、サイトBについてのネットワーク図が作成される(NWA、NWB)。これは、一定時間以上対面していた人同士を線で結んだ図である。なお、このネットワーク図は、後述する対面時間に基づいてばねモデルなどの公知の手法を用いることができる。NWA、NWBについては、Aサイト、Bサイト内での人と人とのつながりのネットワーク図であるが、データベースに格納されるサイト情報を参照して、Aサイト、Bサイトを統合して作成されるネットワーク図は統合ネットワーク図(NWJO)となる。
Aサイトのネットワーク図は端末A1とA3が、Bサイトのネットワーク図は端末A1とB1、B1とA3がつながっている。サイトを統合したネットワーク図(NWJO)においては、端末A1とB1、B1とA3、A3とA1がそれぞれつながっていることが示されている。すなわち、サイトを統合したネットワーク図によって、人と人との総合的なつながりが取得できる。さらに、DBテーブルにおいて各IDが振られた端末の対面が発生した時刻にサイト情報が補完されているため、各端末同士のネットワークのつながりが、どのサイトで生じたかを示すことができる。
<全体の処理の流れの概要>
第1の実施の形態では、センサ端末(TR)を組織の各メンバが装着し、その端末(TR)によって各メンバ間の交流(インタラクション)や各メンバの活動状況に関するデータを取得する。取得したデータは無線または有線によって基地局(GW)に送信され、さらにセンサネットサーバ(SS)に格納される。そして、センサネットサーバは、デーベースの各端末におけるサイトを特定、補完する。組織コミュニケーションに関する表示を作成する際には、クライアント(CL)からアプリケーションサーバ(AS)に依頼を出し、組織に属するメンバに関するデータをセンサネットサーバ(SS)から取り出す。それをアプリケーションサーバ(AS)において、各メンバのコミュニケーションの量と多様性に基づいて処理・プロットし画像を作成する。さらにその画像をクライアント(CL)に戻し表示する。
第1の実施の形態では、センサ端末(TR)を組織の各メンバが装着し、その端末(TR)によって各メンバ間の交流(インタラクション)や各メンバの活動状況に関するデータを取得する。取得したデータは無線または有線によって基地局(GW)に送信され、さらにセンサネットサーバ(SS)に格納される。そして、センサネットサーバは、デーベースの各端末におけるサイトを特定、補完する。組織コミュニケーションに関する表示を作成する際には、クライアント(CL)からアプリケーションサーバ(AS)に依頼を出し、組織に属するメンバに関するデータをセンサネットサーバ(SS)から取り出す。それをアプリケーションサーバ(AS)において、各メンバのコミュニケーションの量と多様性に基づいて処理・プロットし画像を作成する。さらにその画像をクライアント(CL)に戻し表示する。
<全体システム>
図2は、本発明の第1の実施の形態における、インタラクションおよびセンシングデータを取得する端末から、取得したデータを表示するアプリケーションまでを含むシステム全体の構成の説明図である。
図2は、本発明の第1の実施の形態における、インタラクションおよびセンシングデータを取得する端末から、取得したデータを表示するアプリケーションまでを含むシステム全体の構成の説明図である。
ユーザは、クライアント(CL)を操作することによって、組織コミュニケーションに関する表示を受信する。クライアント(CL)は、ネットワーク(NW)を経由してアプリケーションサーバ(AS)に接続し、アプリケーションサーバで作成されたデータ処理結果情報(組織コミュニケーション表示)を受信し、ディスプレイ(CLWD)などに出力する。
アプリケーションサーバ(AS)はネットワーク(NW)を経由してセンサネットサーバ(SS)に接続し、データベース部(SSDB)に格納されているセンシングデータを受信する。受信した情報を処理・プロットすることによって、画像を作成する。
センサネットサーバ(SS)は、ネットワーク(NW)を経由して基地局(GW)に接続し、センシングデータを受信する。基地局(GW)は、ネットワーク(NW)を経由してセンサネットサーバ(SS)にセンシングデータを送信する。
基地局(GW)は、送信・受信部(GWSR)を経由して端末(TR)からセンシングデータを受信する。
端末(TR)は、人物に装着され、センシング部(TRSE)によってセンシングデータを取得する。基地局(GW)が通信可能なエリア内に、端末2(TR2)から端末4(TR4)が存在する。端末2(TR2)から端末4(TR4)のそれぞれは、各人物に装着され、端末(TR)と同様、センシング部(図示省略)によってセンシングデータを取得する。端末(TR)及び端末2(TR2)から端末4(TR4)は、取得したセンシングデータを、送信・受信部(TRSR)を用いて基地局(GW)に送信する。端末(TR)及び端末2(TR2)から端末4(TR4)によって送信されたセンシングデータには、そのデータを取得した端末(TR)及び端末2(TR2)から端末4(TR4)を識別する情報が含まれる。
<端末>
端末(TR)は小型端末であり、センシングの対象となる人物によって装着される。以下、端末(TR)の構成を説明する。図2には、さらに、端末2(TR2)から端末4(TR4)までの3個の端末が図示されている。これらの端末に関する説明は端末(TR)と同様であるため以降省略する。よって以下の説明は、端末(TR)を端末2(TR2)から端末4(TR4)までの任意のものに置き換えても成立する。なお、同様の端末が任意の数存在する場合にも、本実施例を適用することができる。
端末(TR)は小型端末であり、センシングの対象となる人物によって装着される。以下、端末(TR)の構成を説明する。図2には、さらに、端末2(TR2)から端末4(TR4)までの3個の端末が図示されている。これらの端末に関する説明は端末(TR)と同様であるため以降省略する。よって以下の説明は、端末(TR)を端末2(TR2)から端末4(TR4)までの任意のものに置き換えても成立する。なお、同様の端末が任意の数存在する場合にも、本実施例を適用することができる。
端末(TR)には赤外線送信器(TRIS)と赤外線受信器(TRIR)が搭載されている。これらを用い、端末(TR)間で赤外線を送受信することによって、その端末(TR)が他の端末(TR)と対面したか否かが検出される。このため、端末(TR)は、人物の正面部に装着されることが望ましい。例えば、端末(TR)を名札型にし、紐によって人物の首からぶら下げてもよい。端末(TR)が人物の正面部に装着された場合、端末(TR)が他の端末(TR)と対面したことは、それらの端末(TR)を装着した人物が対面したことを意味する。
なお、以下、端末(TR)が赤外線信号を送受信することによって、その端末(TR)が他の端末(TR)と対面したか否かを判別する例を記載する。しかし実際には、赤外線信号以外の無線信号をやり取りすることによって対面の有無が判別されてもよい。
また端末(TR)は、送信・受信部(TRSR)、センシング部(TRSE)、入出力部(TRIO)、制御部(TRCO)、記録部(TRME)によって構成されており、センシング部(TRSE)にてセンシングされたデータを送信・受信部(TRSR)を介して基地局(GW)に送信する。
送信・受信部(TRSR)は、基地局(GW)との間でデータを送信及び受信する。例えば、送信・受信部(TRSR)は、基地局(GW)から送られてきた制御コマンドに応じてセンシングデータを送信してもよいし、定期的にセンシングデータを送信してもよいし、センシングデータを取得した時に直ちにそのセンシングデータを送信してもよい。さらに、送信・受信部(TRSR)は、基地局(GW)から送られる制御コマンドを受信してもよい。受信した制御コマンドに従って、端末(TR)に関する制御情報の変更、又は、入出力部(TRIO)内の出力デバイスへの出力が実行される。また、送信・受信部(TRSR)は、入出力部(TRIO)内の入力デバイスによって選択された事項を、制御コマンドとして基地局(GW)へ送信する。
センシング部(TRSE)は、端末(TR)の状態を示す物理量をセンシングする。具体的には、センシング部(TRSE)は、種々の物理量をセンシングする一つ以上のセンサを備える。例えば、センシング部(TRSE)は、センシングに用いるセンサとして、赤外線送信器(TRIS)、赤外線受信器(TRIR)、温度センサ(TRTE)、マイクロホン(TRMI)、加速度センサ(TRAC)及び照度センサ(TRIL)を備える。
赤外線受信器(TRIR)は、他の端末(TR)の赤外線送信器(TRIS)から送信された赤外線信号をセンシングする。後述するように、センシングされた赤外線の情報は、端末(TR)が他の端末(TR)と対面したか否かを判定するために使用される。加速度センサ(TRAC)は、X、Y及びZ軸方向の加速度をセンシングする。後述するように、センシングされた加速度の情報は、端末(TR)を装着した人物の動作の激しさや行動(例えば、歩行又は静止等)を判断するために使用される。マイクロホン(TRMI)は、音声をセンシングする。センシングされた音声の情報は、例えば、端末(TR)を装着した人物が会話しているか否かを判別するために使用されてもよい。温度センサ(TRTE)及び照度センサ(TRIL)は、それぞれ、温度及び照度をセンシングする。センシングされた温度及び照度の情報は、例えば、端末(TR)が置かれている環境を判断するために使用されてもよい。
センシング部(TRSE)は、上記のセンサの任意の一つ以上を備えてもよいし、他の種類のセンサを備えてもよい。さらに、センシング部(TRSE)は、外部入力(TROU)を用いることによって、新たにセンサを追加することもできる。なお、既に説明したように、端末(TR)は、赤外線信号以外の無線信号を送受信することによって対面の有無を判別してもよい。その場合、センシング部(TRSE)は、赤外線センサ(TRIR)以外の無線信号受信機を備えてもよい。あるいは、外部入力(TROU)に赤外線センサ(TRIR)以外の無線信号受信機が接続されてもよい。
入出力部(TRIO)は、ボタン等の入力デバイスと、液晶ディスプレイ等の出力デバイスとを備え、対象となる人物が所望する情報の取得及びセンシングデータの表示を行う。入出力部(TRIO)として、入力デバイスと出力デバイスを統合したものであるタッチパネルが用いられてもよい。
制御部(TRCO)は、CPU(図示省略)を備える。CPUが記録部(TRME)に格納されているプログラムを実行することによって、センサ情報の取得タイミング、センサ情報の解析、及び、基地局(GW)への送受信のタイミングが制御される。
記録部(TRME)は、ハードディスク、メモリ又はSDカード等の外部記録装置を備え、プログラム及びセンシングデータを格納する。さらに、記録部(TRME)は、データ形式(TRDFI)及び内部情報部(TRIN)を含む。データ形式(TRDFI)は、各センサから取得したデータ及び時刻情報を送信する際に、それらのデータをまとめる形式を指定する。内部情報部(TRIN)は、端末(TR)に関する情報を格納する。端末(TR)に関する情報は、例えば、バッテリ残量(TRBA)、時計(TRTI)(すなわち時刻情報)及び端末情報(TRTR)である。バッテリ残量(TRBA)には、端末(TR)の電源の残量が記録される。時計(TRTI)には、端末(TR)が内蔵するタイマで計測された現在の時刻が格納される。現在の時刻は、定期的に基地局(GW)から送信されたものに基づいて修正される。端末情報(TRTR)は、端末(TR)を識別するために使用される端末固有の情報であり、固有IDとも呼ばれる。
基地局(GW)の時刻を端末(TR)の時刻として定期的に修正することによって、複数の端末(TR)間で時刻が同期される。これによって、異なる端末から得られたデータを時刻に基づいて整列させ、照らし合わせることが可能になる。コミュニケーションは必ず複数のメンバによって行われるため、双方の視点からデータを分析するためには時刻を同期させることは必須となる。なお、時刻修正は基地局(GW)をトリガとするのではなく、センサネットサーバ(SS)がトリガとなって基地局(GW)を介して端末(TR)に時刻を送信してもよい。
<基地局>
基地局(GW)は、情報を取得したいエリアに設置され、そのエリア内にある端末(TR)から無線または有線によって送信されてくるセンシングデータを受信し、受信したセンシングデータをネットワーク(NW)を介してセンサネットサーバ(SS)へ送信する。基地局(GW)は、送信・受信部(GWSR)、制御部(GWCO)、入出力部(GWIO)、記録部(GWME)及び内部情報部(GWIN)を備える。
基地局(GW)は、情報を取得したいエリアに設置され、そのエリア内にある端末(TR)から無線または有線によって送信されてくるセンシングデータを受信し、受信したセンシングデータをネットワーク(NW)を介してセンサネットサーバ(SS)へ送信する。基地局(GW)は、送信・受信部(GWSR)、制御部(GWCO)、入出力部(GWIO)、記録部(GWME)及び内部情報部(GWIN)を備える。
図2には、さらに、基地局2(GW2)から基地局3(GW3)までの2個の基地局が図示されている。これらの基地局に関する説明は基地局(GW)と同様であるため以降省略する。よって以下の説明は、基地局(GW)を基地局2(GW2)から基地局3(GW4)までの任意のものに置き換えても成立する。なお、同様の基地局が任意の数存在する場合にも、本実施例を適用することができる。いずれの基地局も、無線を使用した場合は、無線の到達可能圏内に存在する0から複数個の端末(TR)とコネクションを確立し、データのやり取りを行う。
送信・受信部(GWSR)は、端末(TR)との間でデータを送信及び受信する。また、ネットワークを介して接続されるセンサネットサーバに、端末から受信したセンシングデータを送信する。その送信において基地局IDを付与して送信する。また、例えば、送信・受信部(GWSR)は、端末(TR)に対して制御コマンドを送信してもよいし、定期的にセンシングデータを端末(TR)から受信してもよいし、端末(TR)がセンシングデータを送信したら直ちに端末(TR)からそのセンシングデータを受信してもよい。さらに、送信・受信部(GWSR)は、端末(TR)から送られてきた制御コマンドに従って、センサネットサーバ(SS)へ要求を送信し、その要求に応じてセンサネットサーバ(SS)から取得したデータを端末(TR)へ送信してもよい。また、送信・受信部(GWSR)は、入出力部(GWIO)における入力デバイスによって選択された事項を、制御コマンドとして端末(TR)やセンサネットサーバ(SS)に送信してもよい。逆に、送信・受信部(GWSR)は、センサネットサーバ(SS)又は端末(TR)から送られてきた制御コマンドを受信してもよい。受信した制御コマンドに従って出力デバイスの表示が変更される。
制御部(GWCO)は、CPU(図示省略)を備える。CPUが記録部(GWME)に格納されているプログラムを実行することによって、センサ情報の取得タイミング、センサ情報の解析、及び、端末(TR)又はセンサネットサーバ(SS)への送受信のタイミングが制御される。
入出力部(GWIO)は、ボタン又はキーボード等の入力デバイスと、液晶ディスプレイ等の出力デバイスとを備え、対象となるエリア内の状況等の情報及びセンシングデータを表示する。入出力部(GWIO)として、入力デバイスと出力デバイスを統合したものであるタッチパネルが用いられてもよい。
記録部(GWME)は、ハードディスク、メモリ又はSDカード等の外部記録装置を備え、プログラム及びセンシングデータを格納する。さらに、記録部(GWME)は、データ形式(GWDFI)及び内部情報部(GWIN)を含む。データ形式(GWDFI)は、端末(TR)から受信したデータ及び時刻情報の形式であり、この形式に基づいてデータが各要素に判別される。内部情報部(GWIN)は、基地局(GW)に関する情報を格納する。基地局(GW)に関する情報は、例えば、時計(GWTI)(すなわち時刻情報)、及び、基地局固有の情報である基地局情報(GWBA)、つまり基地局IDである。
<ネットワーク>
ネットワーク(NW)は、基地局(GW)、センサネットサーバ(SS)、アプリケーションサーバ(AS)及びクライアント(CL)を接続するネットワークである。ネットワーク(NW)は、Local Area Network(LAN)、Wide Area Network(WAN)又はその他の任意のネットワークであってよい。
ネットワーク(NW)は、基地局(GW)、センサネットサーバ(SS)、アプリケーションサーバ(AS)及びクライアント(CL)を接続するネットワークである。ネットワーク(NW)は、Local Area Network(LAN)、Wide Area Network(WAN)又はその他の任意のネットワークであってよい。
<センサネットサーバ>
センサネットサーバ(SS)は、基地局(GW)から送られてくるセンシングデータを格納し、また、アプリケーションサーバ(AS)からの要求に基づいてセンシングデータを送信する。また、センサネットサーバ(SS)は、基地局(GW)からの制御コマンドを受信し、その制御コマンドによって得られた結果を基地局(GW)に送信する。センサネットサーバ(SS)は、データベース部(SSDB)、制御部(SSCO)、送信・受信部(SSSR)、入出力部(SSIO)、記録部(SSME)を備える。
センサネットサーバ(SS)は、基地局(GW)から送られてくるセンシングデータを格納し、また、アプリケーションサーバ(AS)からの要求に基づいてセンシングデータを送信する。また、センサネットサーバ(SS)は、基地局(GW)からの制御コマンドを受信し、その制御コマンドによって得られた結果を基地局(GW)に送信する。センサネットサーバ(SS)は、データベース部(SSDB)、制御部(SSCO)、送信・受信部(SSSR)、入出力部(SSIO)、記録部(SSME)を備える。
データベース部(SSDB)は、端末(TR)から基地局(GW)を介して送られてきたセンシングデータを格納する。さらに、データベース部(SSDB)は、基地局(GW)からの制御コマンドに対する対処方法を格納する。データベース部(SSDB)は、後述する記録部(SSME)が備えるハードディスク(図示省略)等に格納されてもよい。
制御部(SSCO)は、CPU(図示省略)を備える。CPUが記録部(SSME)に格納されているプログラムを実行することによって、データベース部(SSDB)の管理、及び、アプリケーションサーバ(AS)及び基地局(GW)から送信される情報の処理を行う。より具体的には、基地局(GW)から受信したデータをデータベース部(SSDB)に格納する。
送信・受信部(SSSR)は、基地局(GW)及びアプリケーションサーバ(AS)へのデータの送信、及び、それらからのデータの受信を行う。具体的には、送信・受信部(SSSR)は、基地局(TR)から送られてきたセンシングデータを受信し、アプリケーションサーバ(AS)へセンシングデータを送信する。また、送信・受信部(SSSR)は、基地局(GW)から制御コマンドを受信した場合、データベース部(SSDB)から選択した結果を基地局(GW)に送信する。
入出力部(SSIO)は、ボタン又はキーボード等の入力デバイスと、液晶ディスプレイ等の出力デバイスとを備え、対象となるエリア内の状況等の情報及びセンシングデータを表示する。入出力部(SSIO)として、入力デバイスと出力デバイスを統合したものであるタッチパネルが用いられてもよい。
記録部(SSME)は、ハードディスク、メモリ又はSDカード等の外部記録装置を備え、プログラム及びセンシングデータを格納する。さらに、記録部(SSME)は、データ形式(SSDFI)を含む。データ形式(SSDFI)は、基地局(GW)から受信したデータ及び時刻情報の形式であり、この形式に基づいてデータが各要素に判別され、データベース部(SSDB)の適切な要素に振り分けられる。
<アプリケーションサーバ>
アプリケーションサーバ(AS)は、センサネットサーバ(SS)に格納されているセンシングデータの処理を行う計算機である。アプリケーションサーバ(AS)は、データ処理部(ASDP)、制御部(ASCO)、記録部(ASME)、送信・受信部(ASSR)、及び入出力部(ASIO)を備える。なお、アプリケーションサーバ(AS)は、クライアント(CL)が兼ねても、センサネットサーバ(SS)が兼ねてもよい。
アプリケーションサーバ(AS)は、センサネットサーバ(SS)に格納されているセンシングデータの処理を行う計算機である。アプリケーションサーバ(AS)は、データ処理部(ASDP)、制御部(ASCO)、記録部(ASME)、送信・受信部(ASSR)、及び入出力部(ASIO)を備える。なお、アプリケーションサーバ(AS)は、クライアント(CL)が兼ねても、センサネットサーバ(SS)が兼ねてもよい。
データ処理部(ASDP)は、センシングデータを処理し、組織コミュニケーションを表現するための画像を作成する。データ処理部(ASDP)は、対面マトリクス計算(APIM)、対面人数・時間計算(APIC)、データプロット(APIP)を実行する。変形例として他の処理が追加される場合、それらの処理は、データ処理部(ASDP)によって実行される。データ処理部(ASDP)は、処理したデータを記録部(ASME)に一時的に格納する。データ処理部(ASDP)は、例えば、記録部(ASME)に格納されたプログラムを制御部(ASCO)のCPUが実行することによって実現されてもよい。その場合、対面マトリクス計算(APIM)、対面人数・時間計算(APIC)、データプロット(APIP)などのデータ処理部内の処理は、実際には、制御部(ASCO)のCPUによって実行される。
制御部(ASCO)は、CPU(図示省略)を備える。CPUが記録部(ASME)に格納されているプログラムを実行し、センサネットサーバ(SS)へのデータ取得依頼、データ処理の実行、及び、実行結果の管理等の処理を行う。
記録部(ASME)は、ハードディスク、メモリ又はSDカード等の外部記録装置を備え、プログラム、センシングデータ、及び、データ処理部(ASDP)による処理結果を格納する。さらに、記録部(ASME)は、初期条件設定(ASSII)及び結合テーブル(ASCNT)等、処理のために一時的に保管すべき値を記録する。これらの値は、データの種類及び処理の種類に応じて随時追加・削除・変更することができる。また、ノードを装着しているユーザとノードの固有IDとの対応を示すユーザID対応表(ASUIT)や、プロジェクトとそれに属するユーザ(メンバ)との対応を示すプロジェクト対応表(ASPUT)を記録しておく。ユーザID対応表(ASUIT)やプロジェクト対応表(ASPUT)はセンサネットサーバ(SS)内の記録部(SSME)やクライアント(CL)内の記録部(CLME)に記録してもよい。また、対面マトリクス(ASTMX)は、対面マトリクス計算(APIM)によって作成される配列である。ユーザID対応表(ASUIT)の例は図8に、プロジェクト対応表(ASPUT)の例は図9に、対面マトリクス(ASTMX)の例は図14(a)にそれぞれ示している。なお、ユーザID対応表(ASUIT)やプロジェクト対応表(ASPUT)はプログラム内に直接記述しても良いが、対応表のみを分けて保管することで、ユーザの変更、ノードIDの変更、プロジェクトの組織構成の変更などに柔軟に対応することができる。
送信・受信部(ASSR)は、センサネットサーバ(SS)からセンシングデータを受信し、クライアント(CL)からの処理結果要求に基づくデータ送信を行う。入出力部(ASIO)は、ボタン又はキーボード等の入力デバイスと、液晶ディスプレイ等の出力デバイスとを備え、対象となるエリア内の状況等の情報及びセンシングデータを表示することができる。入出力部(ASIO)として、入力デバイスと出力デバイスを統合したものであるタッチパネルが用いられてもよい。
<クライアント>
クライアント(CL)は、ユーザからの依頼に基づいてデータ処理要求をアプリケーションサーバ(AS)に送信し、その処理結果をアプリケーションサーバ(AS)から受信し、受信した処理結果を画面に表示する。クライアント(CL)は、送信・受信部(CLSR)、入出力部(CLIO)、記録部(CLME)及び制御部(CLCO)を備える。
クライアント(CL)は、ユーザからの依頼に基づいてデータ処理要求をアプリケーションサーバ(AS)に送信し、その処理結果をアプリケーションサーバ(AS)から受信し、受信した処理結果を画面に表示する。クライアント(CL)は、送信・受信部(CLSR)、入出力部(CLIO)、記録部(CLME)及び制御部(CLCO)を備える。
制御部(CLCO)は、記録部(CLME)に格納されているプログラムを実行するCPU(図示省略)を備える。制御部(CLCO)は、ユーザからの要求に基づいて、アプリケーションサーバ(AS)から受信した画像の大きさなどを調整し、作成された画面を入出力部(CLIO)のディスプレイ(CLWD)などの出力デバイスに表示することによってユーザに提供する。
送信・受信部(CLSR)は、ユーザが指定した範囲のセンシングデータの処理結果を送信させる要求をアプリケーションサーバ(AS)に対して送信し、その処理結果(すなわち、アプリケーションサーバ(AS)によって処理された画像またはセンシングデータ)を受信する。
入出力部(CLIO)は、マウス(CLIM)やキーボード(CLIK)などの入力デバイスと、ディスプレイ(CLWD)などの出力デバイスとを備え、対象となるエリア内の状況等の情報及びセンシングデータを表示する。入出力部(CLIO)として、入力デバイスと出力デバイスを統合したものであるタッチパネルが用いられてもよい。またそれ以外の入出力装置を接続するために外部入出力(CLOU)が用いられてもよい。
記録部(CLME)は、ハードディスク、メモリ又はSDカード等の外部記録装置を備え、メインプログラム、センシングデータ、及び、アプリケーションサーバから送られてきた画像や制御部(CLCO)による処理結果を格納する。また、記録部(CLME)は、初期条件設定(CLISI)に、画面の大きさなどユーザによって設定された条件を記録する。
<全体シーケンス図>
図3は、第1の実施の形態において、センシングデータが端末(TR)からデータベース部(SSDB)に格納されるまでの処理を示すシーケンス図である。
図3は、第1の実施の形態において、センシングデータが端末(TR)からデータベース部(SSDB)に格納されるまでの処理を示すシーケンス図である。
端末(TR)で取得されたセンシングデータは、定期的に基地局(GW)を介してセンサネットサーバ(SS)に届けられ、データベース(SSDB)に保管される。この流れが、図3のセンシングデータの取得(TRGE)からデータ格納(SSPU)までにあたる。また、時刻修正(GWTM)~時刻修正(TRTM)は、センシングデータの取得の流れとは別の周期で実行される。
センシングデータの取得(TRGE)については、サンプリング周期、取得時間などセンシングデータを取得するために必要な情報が記録部(TRME)に記載されており、この情報を基にして端末(TR)内のセンシング部(TRSE)がセンシングを行う。また、端末(TR)は一定の周期で端末(TR)自身を識別する情報を載せた赤外線を送信し続ける(TRIS)。端末(TR)が別の端末2(TR2)と対面した場合には、つまり端末(TR)と端末2(TR2)のユーザ同士が対面した場合には、端末(TR)は、端末2が送信した赤外線(TRIS2)を受信する(TRIR)。また対称的に、端末(TR)が送信した赤外線は、端末2(TR2)で受信される(TRIR2)。端末同士の角度など、条件によっては一方しか受信されない場合もありうる。さらに、端末(TR)は、センシングされたデータを記録部(TRME)に記録する。
時刻添付(TRAD)において、端末(TR)は、センシングしたデータの取得時刻として、時計(TRTI)の時刻をセンシングデータと共に記録する。データ形式(TRDF)において、端末(TR)は、記録部(TRME)内のデータ形式(TRDFI)を参照し送信用データ形式にデータを統一する。
データ送信(TRSE)において、端末(TR)は、センシングデータの取得(TRGE)によってセンシングしたセンシングデータを、送信・受信部(TRSR)を経由し基地局(GW)に送信する。より詳細には、端末(TR)は、記録部(TRME)に記録されているセンシングデータを記録部(TRME)に格納されている基地局(TR)用の送信フォーマットを用いて制御部(TRCO)によって変換する。そして、端末(TR)は、送信フォーマットに変換されたセンシングデータを送信・受信部(TRSR)を経由して基地局(GW)に送信する。
データ受信(GWRE)において、基地局(GW)は、端末(TR)から基地局(GW)用の送信フォーマットで送信・受信部(TRSR)から送信されたセンシングデータを送信・受信部(GWSR)によって受信する。受信したセンシングデータは記録部(GWME)に格納される。
データ形式判断(GWDF)において、基地局(GW)は、取得したデータの形式を記録部(GWME)のデータ形式(GWDFI)と比較してデータの形式を判断する。さらに、基地局(GW)は、基地局情報付与(GWAD)において、データ形式(GWDFI)が示す適切な位置に基地局情報(GWBA)を追加する。
データ送信(GWSE)において、基地局(GW)は、記録部(GWME)に格納されたセンシングデータを、送信・受信部(GWSR)を経由してセンサネットサーバ(SS)に送信する。より詳細には、基地局(GW)の制御部(GWCO)は、記録部(GWME)に記録されているセンシングデータを記録部(GWME)に格納されているセンサネットサーバ(SS)用の送信フォーマットに変換する。そして、基地局(GW)は、送信フォーマットに変換されたセンシングデータを送信・受信部(GWSR)を経由してセンサネットサーバ(SS)に送信する。
データ受信(SSRE)において、センサネットサーバ(SS)の送信・受信部(SSSR)は、基地局(GW)の送信・受信部(GWSR)からセンサネットサーバ(SS)用の送信フォーマットで送信されたセンシングデータを受信する。受信したセンシングデータは記録部(SSME)に格納される。
データ形式判断(SSDF)において、センサネットサーバ(SS)は、取得したデータの形式を記録部(SSME)のデータ形式(SSDFI)と比較することによって、データの形式を判断する。さらに、データ分類(SSDE)において、センサネットサーバ(SS)は、各データを要素ごとに切り分ける。
データ格納(SSPU)において、センサネットサーバ(SS)の制御部(SSCO)は、センシングデータをデータベース部(SSDB)のフォーマットに変換する。変換されたセンシングデータは、データベース部(SSDB)に格納される。データベース部(SSDB)への格納方法は、後で検索する際に有効なクエリとして用いることができるようにすることが好ましい。有効なクエリとしては、例えば、センシングデータ名、時刻、端末固有ID及び基地局固有IDがある。
データ補完(SSSU)において、センサネットサーバ(SS)の制御部(SSCO)は、センシングデータにおけるサイト情報を補完する。これは、図1において、端末A1であるセンシングデータのセンシング時刻での対面データと基地局とDB登録時間に基づき補完する処理である。
図4を用いて、データ補完(SSSU)処理を説明する。図4では、端末1と端末2が対面し、端末1のサイトを特定する場合の処理を説明する。本処理は、全ての端末の全てのデータについて行われる。端末1のデータベース内のセンシング時刻とDB登録時刻を比較して、所定時間内(例えば数十秒)である場合には、その基地局固有のIDと対応するサイトを特定して処理を終了する。端末2と対面後、対面がなされたサイトにある基地局を介してデータが送信されたと考えられるからである。所定時間内でない場合には、対面がなされたサイトにある基地局を介してデータが送信されなかったと判断し、端末2のデータに端末1との対面検出データがあるか否かを検索する。
対面検出データがあった場合には、端末2のセンシング時刻と端末1のセンシング時刻が一定時間内であるか否か判定する。一定時間内である場合には、端末2のデータにおいてサイトが特定されているか判定しサイトが特定されている場合には、そのサイト情報を端末1のサイトとして特定する。サイトが特定されていない場合には、処理を終了する。
端末1と端末2のセンシング時刻が一定時間内でない場合、端末2のデータで、他に端末1との対面検出データがあるか否かを検索する。ある場合には、それらのセンシング時刻が一定以内か否かを判定する。他に対面検出データがない場合には、処理を終了する。
図1の例を用いて説明すると、端末A1のセンシングデータはサイトAに存在する基地局GWA1を通じて取得されている。基地局IDに基づけば、端末A1は端末B1とサイトAにて対面していると判断されるが、所定時間内でないため対面相手である端末B1のデータを検索する。端末B1のデータには端末A1との対面検出データがあり、それらのセンシング時刻が一定時間である(図1では同時刻)。これより、端末A1は、端末B1と対面したとき、サイトBにいたと判定可能であり、この時刻の端末A1のサイト情報としてBサイトを補完できる。以上のようなセンシングデータの取得(TRGE)からデータ補完(SSSU)までの一連の処理は定期的に行なわれる。
図3に示す時刻修正(GWTM)は、基地局(GW)の時計(GWTA)の時刻を合わせるために行われる。基地局(GW)は、現在の時刻をネットワーク(NW)網にあるNTPサーバ(図示省略)から取得する。時刻修正(GWTM)の処理は定期的に行なわれる。
時刻修正依頼(GWTR)は、端末(TR)の時刻を合わせるために、基地局(GW)から端末(TR)へ依頼される。時刻修正(TRTM)は、時刻修正依頼(GWTR)によって基地局(GW)から送信された時刻に基づいて、時計(TRTI)の時刻を修正する処理である。時刻修正依頼(GWTR)から時刻修正(TRTM)までの処理は定期的に行なわれる。
次に、端末(TR)のセンシング部(TRSE)におけるセンシングの間隔と、送信・受信部(TRSR)における送信のタイミングについて、本実施形態の例の一つを挙げて述べる。端末(TR)は、三軸加速度センサ及び赤外線送受信器を備え、これらが全て10秒サイクルでセンシング及びデータ送信を行う。
加速度センサは、10秒中の始めの2秒間でX、Y、Z軸方向各100回のセンシングを行う。センシングの結果として取得された加速度情報は、端末(TR)の状態を示す。端末(TR)が人物に装着されている場合、取得された加速度情報は、端末(TR)を装着した人物の活動の状態(例えば、その人物が静止しているか否か)を示す。
赤外線送信器は、10秒間あたり6回ずつ端末(TR)の正面に向かって赤外線信号を送信する。送信される赤外線信号には、端末情報(TRTR)、すなわち、自端末(TR)のID(識別子)を示す信号が含まれる。二つの端末(TR)が向かい合ったとき、つまり二人の人物が対面したときには、一方の端末(TR)の受信器が、もう一方の端末(TR)のIDを受信する。すなわち、一つの端末(TR)が他の端末(TR)のIDを受信したとき、それらの二つの端末が対面していることを意味する。つまり、それぞれの端末(TR)が人物の前面に装着されている場合、二つの端末(TR)が対面していることは、それらを装着した二人の人物が対面していることを意味する。赤外線の受信器側は、常に待機状態となっており、10秒間のうちに受信したIDと、受信した回数を記録する。
そして、端末(TR)は、これらのセンシングデータにタイムスタンプ及び端末情報(TRTR)つまり自身の固有IDを付与した後、それらのセンシングデータを基地局(GW)に一括して無線送信する。上記の例において、端末(TR)から送信されるセンシングデータには、その端末の加速度を示す情報と、その端末の固有IDと、その端末が他の端末と対面したことを示す情報と、それらの情報に対応付けられた時刻情報とが含まれる。これらのセンシングデータが、人物の交流を示すインタラクションデータとして利用される。なお、これらは一例に過ぎず、センシング間隔及び送信タイミングは、任意に設定することができる。
図5は、本発明の第1の実施の形態において、アプリケーションの立ち上げから表示画面がユーザ(US)に提供されるまでの大まかな処理の流れを示すフローチャートである。
表示画面を作成するために、開始(APST)から、初期条件設定(CLIS)、データ取得(APDG)、対面マトリクス作成(APIM)、対面人数・対面時間のカウント(APIC)、データプロット(APIP)、画面表示(CLWO)の各手順が順次実行され、終了(APEN)となる。
図6は、第1の実施の形態において、ユーザがデータベース部(SSDB)のデータを使用するまでの処理を示すシーケンス図である。
アプリケーション起動(USST)は、ユーザによるクライアント(CL)のアプリケーションの起動である。初期条件設定(CLIS)において、クライアント(CL)は、図の提示に必要な情報を設定する。ユーザのボタン選択によって、表示の対象となるデータの時刻及び端末情報、表示方法の条件設定などを取得する。ここで設定した条件は、記録部(CLME)に格納される。
データ依頼(CLSQ)において、クライアント(CL)は、初期条件設定(CLIS)に基づき、アプリケーションサーバ(AS)に対して、データもしくは画像の依頼を行う。記録部(CLME)には、検索対象のアプリケーションサーバ(AS)の名称、アドレス等、センシングデータを取得するために必要な情報が格納されている。クライアント(CL)は、データの依頼コマンドを作成し、アプリケーションサーバ(AS)用の送信フォーマットに変換される。送信フォーマットに変換されたコマンドは、送信・受信部(CLSR)を経由して、アプリケーションサーバ(AS)に送信される。
アプリーションサーバ(AS)は、データ依頼(ASRQ)において、クライアント(CL)からの依頼を受信し、さらにセンサネットサーバ(SS)に対して取得すべきデータの時刻の範囲及びデータ取得対象である端末の固有IDを送信しセンシングデータを要求する。送信される時刻及び端末の固有IDは、アプリーションサーバ(AS)の記録部(ASME)又はクライアント(CL)の記録部(CLME)に格納されたものから自動的に設定されるものであってもよいし、クライアント(CL)の入出力部(CLIO)を通してユーザが指定したものであってもよい。
データ検索(ASSE)において、アプリーションサーバ(AS)は、データ依頼(ASRQ)に基づき、センサネットサーバ(SS)に対して、検索を行う。記録部(ASME)には、検索対象のセンサネットサーバ(SS)の名称、アドレス、データベース名及びテーブル名等、データ信号を取得するために必要な情報が記載されている。アプリーションサーバ(AS)は、データ検索(ASSE)を行う際、データ依頼(ASRQ)を通して検索内容を依頼し、データベースの情報を記録部(ASME)から取得し、検索に用いるコマンドを作成する。作成されたコマンドは、制御部(ASCO)によって、記録部(ASME)に格納されているセンサネットサーバ(SS)用の送信フォーマットに変換される。送信フォーマットに変換されたコマンドは、送信・受信部(ASSR)を経由してセンサネットサーバ(SS)に送信される。
センサネットサーバ(SS)内データベース(SSDB)は、受け取ったコマンドを実行してクエリし、アプリケーションサーバ(AS)にデータを送信する。
データ受信(ASRE)において、アプリーションサーバ(AS)は、データ検索(ASSE)のコマンドに基づいて、センサネットサーバ(SS)内のデータベース部(SSDB)から送信されたセンシングデータを受信する。送信・受信部(ASSR)が受信したセンシングデータは記録部(ASME)に格納される。データ分類(ASDE)において、アプリーションサーバ(AS)は、取得したデータを適切な各要素に分類する。その際、時刻情報とセンシングデータは必ず関連付けたままで分類される。
ここまでの、データ依頼(CLSQ)からデータ分類(ASDE)までの流れが、図5のフローチャートにおけるデータ取得(APDG)に相当する。
次に、対面マトリクス作成(APIS)、対面人数・対面時間のカウント(APIC)、データプロット(APIP)のそれぞれの処理を順に行う。処理の詳細な内容は図7以降のフローチャートにて示す。これらの処理を行うプログラムは、記録部(ASME)に格納されており、データ処理部(ASDP)によって実行し、画像が作成される。画像は、画像送信(APWS)においてクライアントに送信され、クライアントの出力デバイス、例えばディスプレイ(CLWD)に表示される(CLWO)。最後のアプリケーション終了(USEN)はユーザによるアプリケーションの終了である。
<初期条件設定のフローチャート>
初期条件設定(CLIS)の中での手順を図7のフローチャートに示す。初期条件設定(CLIS)は、開始(ISST)から、ユーザID対応表読み込み(ISUI)、プロジェクト対応表読み込み(ISPU)、表示期間の設定(ISRT)、プロットするメンバの設定(ISRM)、役職の区別を設定(ISSM)、特定プロジェクトの強調の有無を設定(ISPO)の手順を行う。また、特定プロジェクトを強調する(ISPY)場合には強調するプロジェクトを設定(ISPS)して終了する(ISEN)。
初期条件設定(CLIS)の中での手順を図7のフローチャートに示す。初期条件設定(CLIS)は、開始(ISST)から、ユーザID対応表読み込み(ISUI)、プロジェクト対応表読み込み(ISPU)、表示期間の設定(ISRT)、プロットするメンバの設定(ISRM)、役職の区別を設定(ISSM)、特定プロジェクトの強調の有無を設定(ISPO)の手順を行う。また、特定プロジェクトを強調する(ISPY)場合には強調するプロジェクトを設定(ISPS)して終了する(ISEN)。
ユーザID対応表読み込み(ISUI)では、例として図8のような、ノードの固有ID(ASUIT3)とそれを装着しているユーザ名(ASUIT2)とを一対一で対応づけているユーザID対応表(ASUIT)を読み込む。ユーザには今後処理するときに用いるユーザ番号(ASUIT1)を振っておく。必要があれば、役職(ASUIT4)を示す列も用意する。図8の例の場合では、部長を2、課長を1、一般社員を0として数値化して表現している。役職の区別の仕方は自由に設定して良い。組織のメンバや職位などに変更があった場合には、ユーザID対応表(ASUIT)のみを書き換えれば対応できる。
プロジェクト対応表読み込み(ISPU)では、例として図9のような、組織内に存在するプロジェクトの名前と、それに属するメンバとを対応付けるためのプロジェクト対応表(ASPUT)を読み込む。なお、部や課という組織全体に対するグループやユニットなどの固定した組織、またプロジェクトなどの柔軟に変化する組織など、全ての下位組織を指して以降ではプロジェクトと統一して呼ぶものとする。
プロジェクト対応表(ASPUT)は、誰がどのプロジェクトに属しているか、が明確であれば良いのでユーザID対応表(ASUIT)に一体化して、各一行で表されているユーザに対して属するプロジェクト名を書く列が存在するという形式でも良い。また、プロジェクトによって表示を区分する必要がなければプロジェクト対応表(ASPUT)は必要ない。図9のプロジェクト対応表(ASPUT)では、一人のメンバが複数のプロジェクトに掛け持ちして属することにも対応しているが、必ずしも対応していなくてもよい。
プロジェクト対応表(ASPUT)には、プロジェクト名(ASPUT2)と所属ユーザ番号(ASPUT3)の項目がある。また各プロジェクトには、今後処理するときに用いるプロジェクト番号(ASPUT1)を振っておく。所属ユーザ番号(ASPUT3)の項目の数字は、ユーザID対応表(ASUIT)におけるユーザ番号(ASUIT1)に対応している。プロジェクト対応表(ASPUT)をプログラム本体とは別に用意することで、プロジェクトのメンバ構成に変更があった場合には、このプロジェクト対応表(ASPUT)のみを書き換えることで容易に対応できる。プログラム本体に、直接記述しても良い。
表示期間の設定(ISRT)、プロットするメンバの設定(ISRM)、役職の区別を設定(ISSM)、特定プロジェクトの強調の有無を設定(ISPO)では、例えば図10のような初期条件設定ウィンドウ(ASISWD)をクライアント(CL)のディスプレイ(CLWD)などの出力装置に表示し、マウス(CLIM)やキーボード(CLIK)などの入力装置を用いてユーザ(US)に入力させることで、各々の設定を行う。初期条件設定ウィンドウ(ASISWD)は、始めからクライアント(CL)内に保管しておいても良い。
表示期間の設定(ISRT)は、ウィンドウの表示期間選択(ASISPT)のテキストボックス(PT01~03、PT11~13)にて日付を設定し、端末(TR)で取得された時刻がこの範囲内にあるデータを、表示のための計算に用いるものとする。必要があれば時刻の範囲設定を追加しても良い。
プロットするメンバの設定(ISRM)は、ウィンドウの表示メンバ選択(ASISPM)において行う。ウィンドウには、ユーザID対応表読み込み(ISUI)で読み込んだ全ユーザ名、また必要ならばノードIDを反映させる。ユーザ(US)はチェックボックス(PM01~PM09)にチェックを入れる、もしくは入れないことでどのメンバのデータを表示するかを設定する。直接個々のメンバを指定するのではなく、既定のグループ単位、年齢などの条件によって表示メンバをまとめて指定させても良い。
役職の区別を設定(ISSM)、特定プロジェクトの強調の有無を設定(ISPO)は、ウィンドウの表示設定(ASISPD)において行う。役割の区別のチェックボックス(PD1)にチェックを入れた場合には、表示において役職によって四角や丸などの異なる記号でプロットされる。役職によるコミュニケーションの行い方の違いを検証したい場合に用いる。特定プロジェクトの強調のチェックボックス(PD2、PD21~PD25)にチェックを入れた場合には、表示において特定のプロジェクトに属するメンバに対応する記号が、塗りつぶすなどして他の記号よりも強調して表示される。プロジェクトごとに、どのようなコミュニケーションの行い方をしているのかを検証したい場合に用いる。さらに、チェックボックス(PD2)にチェックが入れられた場合には、図7のフローチャートにおいて特定プロジェクトを強調する(ISPY)がyesとなり、強調するプロジェクトの設定(ISPS)を行う。強調するプロジェクトの設定(ISPS)は、プロジェクト対応表(ASPUT)から読み込んだ各プロジェクト名を反映したチェックボックス(PD21~PD25)にユーザがチェックを入れることで設定される。チェックの数は1つに限定しても良いし、複数であっても良い。
表示サイズ(ASISPS)領域では、表示される画像のサイズが設定される。本実施の形態では、画面に表示される画像が長方形であることを前提とする。画像の縦の長さがテキストボックス(PS01)に、横の長さがテキストボックス(PS02)に入力される。入力される数値の単位として、ピクセル又はセンチメートル等、何らかの長さの単位が指定される。
全てを入力したら最後に、表示開始ボタン(ASISST)をユーザ(US)が押すことで以上の初期条件を決定とし、図5におけるデータ取得(APDG)のステップに進む。
<データ取得~対面マトリクスのフローチャート>
図11は、本発明の第1の実施の形態において、図5のデータ取得(APDG)と対面マトリクス作成(APIM)のステップの詳細を示したフローチャートである。開始(DGST)からデータ取得(APDG)と対面マトリクス作成(APIM)を行い、終了(DGEN)する。データ取得(APDG)は、クライアントからのデータ依頼(CLSQ)を受けたアプリケーションサーバがセンサネットサーバにセンシングデータを要求し、センサネットサーバ(SS)内のデータベース部(SSDB)の中から必要なデータを取得するプロセスである。
図11は、本発明の第1の実施の形態において、図5のデータ取得(APDG)と対面マトリクス作成(APIM)のステップの詳細を示したフローチャートである。開始(DGST)からデータ取得(APDG)と対面マトリクス作成(APIM)を行い、終了(DGEN)する。データ取得(APDG)は、クライアントからのデータ依頼(CLSQ)を受けたアプリケーションサーバがセンサネットサーバにセンシングデータを要求し、センサネットサーバ(SS)内のデータベース部(SSDB)の中から必要なデータを取得するプロセスである。
データベース部(SSDB)には複数のメンバの複数種類のセンシングデータが記録されているが、そのうちの赤外線送受信による対面データをまとめたテーブルの例を図12(a)(b)に示す。図12(a)は、対面テーブル(SSDB_1002)であり、ノードIDが1002である端末(TR)から取得されたデータを集めたテーブルであることを想定している。同様に、図12(b)は、対面テーブル(SSDB_1003)であり、ノードIDが1003である端末(TR)から取得されたデータを集めたテーブルとする。なお、取得したノードごとにテーブルを分けなくても良く、他の加速度や温度などのデータも同じテーブルに含んでも良い。
対面テーブルには端末(TR)からデータを送信した時刻(DBTM)、赤外線送信側ID(DBR1)と受信回数(DBN1)を10組(DBR1~DBR10、DBN1~DBN10)分格納できる。本実施例は10秒間に1回データ送信を行うようにしているため、前回の送信からの10秒間のうちにどの端末(TR)から何回赤外線を受信したかを表しているものである。10秒間中に複数の端末(TR)と対面した場合にも、10組まで格納できるということである。なお、組の数は自由に設定することができる。対面、つまり赤外線の受信がなかった場合にはnullとなる。また、図12では時刻はミリ秒まで表記している。時刻の形式は統一されていればどのようなものでも良い。
図11のデータ取得(APDG)では、まずセンサネットサーバ(SS)のデータベース部(SSDB)に接続(DGCD)し、前述の初期条件設定(CLIS)で設定した表示期間(ASISPT)と表示メンバ(ASISPM)の条件に基づきSQLコマンドを作成し、データベース(SSDB)から、その時刻(DBTM)が設定した表示期間に含まれているデータを表示すべき全メンバの対面テーブルから取得する(DGSG)。
対面マトリクスの作成(APIM)では、表示すべきメンバから一組(二人)を選択し(IMMS)、その二人のデータの時刻を揃えて結合テーブルを作成する(IMAD)。図12(a)の1002番の端末(TR)のデータと、図12(b)の1003番の端末(TR)データから作成した結合テーブルの例が図13の結合テーブル(ASCNT1002‐1003)である。結合テーブルの作成(IMAD)の際には、それぞれの対面テーブルの時刻(DBTM)を揃え、結合テーブルの時刻(CNTTM)とする。また、図12(b)の一行目(RE01)と二行目(RE02)の間のように、データがセンシング周期(ここでは10秒間隔)で入っていない場合には、補完する。また、二つの対面テーブルの時刻が完全に一致していない場合には、どちらかに合わせるか、完全に10秒刻みになる時刻を設定し、それに近いデータをそれぞれ同時刻として扱うなどして、同じ時刻とみなせる行同士を見比べる。その中で、設定した二つの端末(TR)間での対面データが少なくとも一方の対面テーブルに存在した場合には、その時刻に二人のメンバが対面したとみなし、結合テーブルの対面の有無(CNTIO)の欄を1とする。そうでないときは0とする。このようにして結合テーブルを作成する。さらに、全ての時刻の対面があった回数を合計する。
対面したと判別するための基準は、赤外線受信回数が閾値以上であった場合のみとする、など別の基準を用いても良い。また、結合テーブルは合計対面回数(REsum)が計算できれば良いので、テーブルを作成せず、時刻をそろえながら対面回数をカウントしても良い。
次に、求めた合計対面回数の値を10倍し、対面マトリクス(ASTMX)の選択した二人のメンバを示す二箇所の要素に入れる(IMCI)。10倍するのは、合計対面回数1に対して10秒間対面したとみなし、対面マトリクスの値の単位を秒にそろえる目的である。必要がなければそろえなくても良い。
図14(a)に対面マトリクス(ASTMX)の例を示す。行と列はそれぞれユーザID対応表(ASUIT)におけるユーザ番号(ASUIT1)に対応している。今の場合ではノードIDが1002番のユーザ番号は2、ノードIDが1003番のユーザ番号は3となるため、要素(TMX2_3)に値を入れる。また、対面に関しては一方が対面したならもう一方も対面したと考えるのが自然であるため、対面マトリクス(ASTMX)が対称行列となるように対称要素(TMX3_2)にも同じ値を入れる。しかし、意図がある場合には非対称行列とすることも可能である。一組のメンバについて対面マトリクス(ASTMX)の要素を埋めたら、別の一組を選択し、全ての組の処理を完了するまで繰り返す(IMAM)。
さらに、本実施例で特徴となる対面マトリクスの例を図15に示す。図14(a)と同様に、行と列はそれぞれユーザID対応表におけるユーザ番号に対応している。図14(a)の対面マトリクスにおいては、i行目、j列目の要素には、i行目のユーザIDを持つ端末が、j列目のユーザIDを持つ端末と何秒対面したかというデータが入っていた。
一方、図15の例の場合では、その対面時間を、その対面が行なわれたサイトごとに区分する。このサイトは、上述した方法で特定すればよい。これによって、ユーザi、jの対面は、単にその対面時間のみならず、どのサイトでの対面であったかというサイト情報を含めることができる。
<対面時間・人数のカウント>
図16は、本発明の第1の実施の形態において、図5の対面人数・対面時間のカウント(APIC)のステップの詳細を示したフローチャートである。開始(ICST)から終了(ICEN)までのステップでは、メンバごとに対面時間の合計と対面人数のカウントを行う。
図16は、本発明の第1の実施の形態において、図5の対面人数・対面時間のカウント(APIC)のステップの詳細を示したフローチャートである。開始(ICST)から終了(ICEN)までのステップでは、メンバごとに対面時間の合計と対面人数のカウントを行う。
まずメンバを一人選択し(ICMS)、対面マトリクス(ASTMX)においてそのメンバのユーザ番号(ASUIT1)に対応する行を決める。次にその一行の対面マトリクスの値を合計する。合計したものが、図14(b)の対面カウント(ASTMC)の対面時間(TMTI)となる(ICTI)。対面時間(TMTI)はつまり、そのメンバが設定した表示期間(ASISPT)内で何らかの人物とコミュニケーションを行った合計時間であり、コミュニケーションの量だとみなせる。またさらに、その一行の対面マトリクス(ASTMX)の、要素が正の値、つまり0より大きい値である要素の数をカウントし、それを図14(b)の対面カウント(ASTMC)の対面人数(TMNM)とする(ICNM)。対面人数は、表示期間(ASISPT)内において関わりを持った他者の数であり、そのメンバの持つ関係の多様性と捉えることができる。なお、図14(b)の対面カウント(ASTMC)は、対面人数(TMNM)と対面時間(TMTI)を合わせたテーブルとしている、各メンバに対応する対面人数と対面時間の値が明確になっていれば、テーブル以外の形式でも良い。
以上の対面時間の合計(ICTI)と対面人数のカウント(TCNM)の手順を、全てのメンバについて終了するまで繰り返す(ICAM)。
<データプロットのフローチャート>
図17は、本発明の第1の実施の形態において、図5のデータプロット(APIP)のステップの詳細を示したフローチャートである。データプロット(APIP)では、カウントした対面人数(TMNM)と対面時間(TMTI)をそれぞれ横軸・縦軸に取った座標上に各メンバをプロットする。このとき、初期条件設定(APIS)で設定した事項に基づき、メンバごとにプロットする記号の形や塗りつぶしの有無などを決定する。
図17は、本発明の第1の実施の形態において、図5のデータプロット(APIP)のステップの詳細を示したフローチャートである。データプロット(APIP)では、カウントした対面人数(TMNM)と対面時間(TMTI)をそれぞれ横軸・縦軸に取った座標上に各メンバをプロットする。このとき、初期条件設定(APIS)で設定した事項に基づき、メンバごとにプロットする記号の形や塗りつぶしの有無などを決定する。
データプロットの開始(IPST)後、まずグラフ領域の大きさを決める(IP10)。グラフ領域の大きさは表示画面のうちのグラフが占める領域の大きさであり、初期条件設定ウィンドウ(ASISWD)で設定した表示サイズ(ASISPS)から、縦横それぞれタイトルや軸の値、余白の部分を引いた値となるように計算する。
次に、横軸と縦軸それぞれの最大値を決定する(IP20)。ここではプロットすべき全データ、つまり図14(b)の対面カウント(ASTMC)の対面人数(TMNM)、対面時間(TMTI)のそれぞれの最大値を参考にし、最大値以上のきりのいい数字となるように軸の値を設定する。他に比べて突出した大きな値がある場合には対面カウント(ASTMC)の最大値より小さな値を軸の最大値としてもよい。また、各軸は等差数列となるように目盛を区切った通常の軸(等差目盛)を想定しているが、対面人数(TMNM)または対面時間(TMTI)の分布によってはどちらか、もしくは両方を対数軸(対数目盛)としても良い。次に、メンバを一人選択し、そのユーザ番号(ASUIT1)に対応した対面カウント(ASTMC)の対面人数(TMNM)・対面時間(TMTI)のデータから、先ほど決定した目盛を基準とし、プロットする座標を決定する(IP40)。
さらに、初期条件設定(CLIS)の表示設定(ASISPD)において役職の区別チェックボックス(PD1)がONであった場合には(IP50)、そのメンバの役職(ASUIT4)をユーザID対応表(ASUIT)から引き出し、役職に対応する記号を選択する(IP51)。記号とはプロットする際に役職を区別するためのものであり、例えば部長は四角、課長は三角、一般社員は丸などとしてあらかじめ設定しておく。役職の区別を行わない場合には、デフォルトとして設定してある記号を用いる(IP55)。役職の区別をするためには、プロットする記号を変える以外の方法を用いても良い。
また、初期条件設定(CLIS)の表示設定(ASISPD)において特定プロジェクトの強調チェックボックス(PD2)がONであった場合には(IP60)、プロジェクト対応表(ASPUT)を参照し(IP61)、強調すべきとして設定されているプロジェクトにそのメンバが属している場合には(IP70)、計算した座標上に記号を塗りつぶしてプロットする(IP71)。メンバが該当プロジェクトに属していない場合には記号を塗りつぶさずに座標上にプロットする(IP75)。なお、塗りつぶすのは該当プロジェクトに属しているメンバのみを強調させるためであるので、他の方法を用いて強調しても良い。また、必要であればプロットした記号に隣接するように、そのメンバの氏名を表示させることも可能である。全メンバに関してプロットが完了するまでIP30~IP71の手順を繰り返す(IP80)。
また最後に、特定プロジェクトの強調チェックボックス(PD2)がONになっている場合には(IP90)、プロジェクトに属する全メンバ、つまり表示上ですでに塗りつぶされて表示されている全ての記号を、なるべく小さなもので包括するように楕円を描画する(IP91)。これは、プロジェクトのメンバが座標上にどのように分布しているかをつかみやすくするためであるが、必要ない場合には行わなくても良い。以上を終えると終了(IPEN)とする。
<名札型センサノードの概観図>
図18は、名札型センサノードの構造の一実施例を示す外観図である。名札型センサノードはストラップ取り付け部NSHにネックストラップまたはクリップを取り付け、人の首または胸に装着して使用する。
図18は、名札型センサノードの構造の一実施例を示す外観図である。名札型センサノードはストラップ取り付け部NSHにネックストラップまたはクリップを取り付け、人の首または胸に装着して使用する。
本明細書では、ストラップ取り付け部NSHがある面を上面、対向する面を下面と定義する。また、名札型センサノードを装着した際に相手方に向く面を前面、前面に対向する面を裏面と定義する。さらに、名札型センサノード前面から見て左側に位置する面を左側面、左側面に対向する面を右側面と定義する。同図(A)は上面図、同図(B)は前面図、同図(C)は下面図、同図(D)は裏面図、同図(E)は左側面図を示す。
図18(B)の前面図に示すとおり、名札型センサノードの前面には液晶表示装置(LCDD)が配置される。本液晶表示装置に表示される内容は、後述するとおり相手方に向いている際には装着者の所属や名前などの名札としての表示Bを、装着者の方に向いている際には、装着者向けの組織アクティビティフィードバックデータが表示される。
名札型センサノードの表面の材質は透明であり、内部に挿入したカードCRDがケース材質を通して外から見えるようにする。名札型センサノードの内部に挿入したカード(CRD)を交換することにより名札表面のデザインを変更することができる。以上により、本名札型センサノードは一般の名札とまったく同様に人間に装着でき、なんら装着者に違和感を感じさせること無くセンサによる物理量の取得を行なうことを可能にする。
名札型センサノードの表面の材質は透明であり、内部に挿入したカードCRDがケース材質を通して外から見えるようにする。名札型センサノードの内部に挿入したカード(CRD)を交換することにより名札表面のデザインを変更することができる。以上により、本名札型センサノードは一般の名札とまったく同様に人間に装着でき、なんら装着者に違和感を感じさせること無くセンサによる物理量の取得を行なうことを可能にする。
同図(A)、(B)の上面図、前面図中のLEDランプLED1、LED2は、装着者および装着者に対面する人間に名札型センサノードの状態を通知するために使用される。LED1、LED2は前面及び上面に導光され、名札型センサノードを装着した状態で、点灯状態を装着者と、装着者と対面する者の双方から視認することができる。
名札型センサノードはスピーカSPを内蔵し、装着者および装着者に対面する人間にブザーや音声で名札型センサノードの状態を通知するために使用される。マイクMICは、名札型センサノード装着者の発話及び周囲の音を取得する。照度センサLS1F、LS1Bは、それぞれ名札型センサノード前面と裏面にそれぞれ配置される。LS1F、LS1Bで取得される照度値から、装着した名札型センサノードが裏返っていることを検出し、装着者に通知する。
同図(E)から明らかなように、名札型センサノード左側面には、BTN1、BTN2、BTN3の3個のボタンが配置され、無線通信の動作モードの変更や、液晶表示画面の切り替えを行なう。名札型センサノードの下面には、電源スイッチPSW、リセットボタンRBTN、クレイドルコネクタCRDIF、外部拡張コネクタEXPTを備える。
名札型センサノードの前面には、複数の赤外線送受信部TRIR1~4を配置する。赤外線送受信部を複数備えることが本実施例の名札型センサノードに特有な構造である。名札型センサノード自身の識別番号(TRUD)を赤外線によって間欠的に送信し、また対面者の装着する名札型センサノードが送信する識別番号を受信する機能を持つ。これにより、いつ、どの名札型センサノードが対面したかが記録され、装着した人間同士の対面状況が検出できる。図18では、TRIR1~4の4個の赤外線送受信部をセンサノード上部に配置した例を示している。
図19は、第2の実施例を示す図である。本実施例では、赤外線送信端末(IRB1、2)を用いて、マルチサイト間を移動する端末のサイト情報を補完することを特徴する。ここで、赤外線送信端末とは予め決められた場所に設置され、自身の識別子を示すIDを含んだ赤外線を所定間隔で送信する端末である。赤外線送信端末のIDとその位置情報(サイト情報)との対応づけは、予めセンサネットサーバ内の記録装置に格納されている。なお、本実施例の構成図については、赤外線送信端末を除いて実施例1と同様であるため、ここでの説明は割愛する。
実施例1では、端末B1が端末A1の赤外線送信を受信し、基地局B1を介してデータ送信して所定時間内にデータベースに登録された場合に端末A1のサイト情報を補完しうる。しかしながら、端末B1の移動状況によっては基地局B1経由でデータを送信できない場合もある。このような場合、データベース内の端末B1のサイト情報が特定されていないため、センサネットサーバは、端末A1のサイト情報を補完することができない。このような状況下で、赤外線送信端末が送信する赤外線を端末A1が受信していたとき、その受信情報をサイト情報の特定に用いる。具体的には、端末A1のDBデータ内で端末B1との対面時(すなわち、対面データB1のセンシング時刻)の前後所定時間内(例えば数時間)に、赤外線送信端末(IRB2)との対面データが含まれていた場合、端末B1との対面時に端末A1はサイトBにいたと判断してサイト情報を補完する。赤外線送信端末の位置は、予めサイト情報と対応づけて記録されているため、端末A1がサイトBにいたことを特定できる。
このように、赤外線送信端末のIDを用いて、端末のサイト情報を補完することにより、より正確にどのサイトでどの人物と対面したかを検出することが可能となる。なお、本例では赤外線を送信する固定端末について説明したが、識別子を示すIDデータを送信するのであれば、赤外線に限定されない。
<マルチサイト間端末動作モード>
本発明の第3の実施例では、ユーザがマルチサイト間を移動する際の端末の消費電力を低減することを目的として、図1に示すように、ユーザがマルチサイト間を移動する際に、照度センサによる検出結果に基づいて端末をスリープ状態にすることを特徴とする。移動時、ユーザは端末を身につけず鞄等に格納することを想定し、閾値以上照度が下回れば、端末はロングスリープ状態(SL1)に移行する。ロングスリープ状態(スタンバイ状態)とは、マイコンやセンサの電力消費を極力抑えることが可能なモードである。ロングスリープ状態の端末A1は、定期的に照度の検出を行ない、検出結果が閾値以下であれば、そのままロングスリープ状態を保つ。照度の検出結果が閾値以上であればロングスリープ状態から通常モードに復帰する。この復帰状態は、鞄から端末A1を取り出した場合と考えられる。
本発明の第3の実施例では、ユーザがマルチサイト間を移動する際の端末の消費電力を低減することを目的として、図1に示すように、ユーザがマルチサイト間を移動する際に、照度センサによる検出結果に基づいて端末をスリープ状態にすることを特徴とする。移動時、ユーザは端末を身につけず鞄等に格納することを想定し、閾値以上照度が下回れば、端末はロングスリープ状態(SL1)に移行する。ロングスリープ状態(スタンバイ状態)とは、マイコンやセンサの電力消費を極力抑えることが可能なモードである。ロングスリープ状態の端末A1は、定期的に照度の検出を行ない、検出結果が閾値以下であれば、そのままロングスリープ状態を保つ。照度の検出結果が閾値以上であればロングスリープ状態から通常モードに復帰する。この復帰状態は、鞄から端末A1を取り出した場合と考えられる。
図1に示すように、AサイトからBサイトに到着したユーザは、端末A1を鞄から取り出し端末A1を身につける。鞄から外に出されたことを検出した直後から、端末はロングスリープ状態から通常動作に移行する。すなわち、ユーザが端末A1を再装着した前後から、端末A1は通常動作を再開する。同様に、サイトBから自宅に移動する場合も照度の検出結果に基づいてロングスリープ状態(SL2)に移行し、自宅からオフィスがあるAサイトに移動する場合もロングスリープ状態(SL3)である。
図20は、本実施の形態における動作モードを示している。電池残量がなくなるまで、同じ動作モードで連続的に動作し続けた場合(約30時間)と比較して、長時間駆動可能になる(約60時間)ことを示している。本実施の形態における動作モード切替は、自オフィス内では通常モードであるが、出張先に移動する際は、端末は鞄等の中に収納されることに着目し、照度センサによって、端末の鞄格納を検出する。検出されれば、端末をロングスリープモードに移行させる。
<マルチサイト間端末状態遷移図>
図21は、本発明の第3の実施の形態において、端末の状態遷移を示している。端末は、未使用時にはクレイドルに挿し充電を行なっている。端末使用時には、クレイドルから端末を抜く。端末をクレイドルから抜挿する動作は、端末の電圧変化によって検出することが可能である。
図21は、本発明の第3の実施の形態において、端末の状態遷移を示している。端末は、未使用時にはクレイドルに挿し充電を行なっている。端末使用時には、クレイドルから端末を抜く。端末をクレイドルから抜挿する動作は、端末の電圧変化によって検出することが可能である。
端末をユーザが使用する際は、表面が前方を向き、裏面は身体と接触または接触に近い状態となる。このため、端末の表面の照度センサの値は、裏面の照度センサの値より大きくなる。また、端末は人に身につけられている状態では、必ず振動が発生する。これは、通常、人の身体動作が完全に静止することはあり得ないためである。従って、加速度の振動の有無と表裏の照度センサの値の比較により、端末が正しく装着されているかを判定することができる。加速度の振動数があり、かつ、端末の表の照度と裏の照度のセンサ値の大小が反対であれば、端末が裏表逆向きで装着されている、と判定することができる。加速度の振動数が一定時間以上ない状態が続けば、端末は放置状態にある、と判定することができる。
端末を手に持ったとき、表の照度センサと裏の照度センサ値の大きな差はなくなる。よって、表裏の照度センサ値が一定値以下であり、閾値以上の加速度の周波数がある状態であれば、その端末は手に持たれた状態にあると判定できる。
一定時間以上両面の照度センサ値が閾値以下であれば、端末は鞄等に収納されたと判定し、低消費電力モード(LPMODE)(加速度により静止鞄格納状態、歩行鞄格納状態、電車鞄格納状態に分類される)に移行する。低消費電力モード(LPMODE)にあるとき、定期的に端末はセンシングを行ない、現状の照度が閾値以上/以下であるかを検出する。閾値以下であれば、低消費電力モードを続ける。閾値以上であれば、端末は鞄等から取り出されたと判断され、通常の動作モードに移行する。
<マルチサイト間照度オフセット自動調節>
図22は、本発明の第3の実施の形態において、端末の照度センサのオフセット自動調整方式を示す。端末毎に照度センサの精度の個体差が存在する。これを自動的に調整することにより、手動での端末毎の照度センサの調整を不要とする。
図22は、本発明の第3の実施の形態において、端末の照度センサのオフセット自動調整方式を示す。端末毎に照度センサの精度の個体差が存在する。これを自動的に調整することにより、手動での端末毎の照度センサの調整を不要とする。
そのため、一定時間以上端末を起動しておき、照度センサによるセンシングを行なう。このとき、端末は暗室に放置しておく。端末の照度センシングの値は、その照度センサが検出できる最低値を示すと考えられる。しかし、照度センサのゼロ調整が最適でなかった場合、照度センサが最低値でありながら、その値はゼロ値には達しない。そこで、一定時間以上センシングした照度センサの値のうち、最低値λの値をゼロ値となるよう、その照度センサの設定を再定義する。
<マルチサイト間非通常送信フラグ>
図23は、本発明の第3の実施の形態において、非通常送信時のデータに付与するフラグを示している。フラグが0のときは、通常送信を表す。フラグが1のときは、センシングデータを端末が所持していないことを表す。フラグが10のときは、センシング時刻異常を表す。フラグが20のときは、端末のハートビートを表す。フラグが21のときは、端末をクレイドルに挿したことを表す。フラグが22のときは、端末をクレイドルから抜いたことを表す。フラグが23のときは、クレイドルからのハートビートを表す。フラグが31のときは、端末が通常モードから照度検出低消費電力モードに移行することを表す。フラグが31のときは、端末が照度検出低消費電力モードから通常モードに移行することを表す。
図23は、本発明の第3の実施の形態において、非通常送信時のデータに付与するフラグを示している。フラグが0のときは、通常送信を表す。フラグが1のときは、センシングデータを端末が所持していないことを表す。フラグが10のときは、センシング時刻異常を表す。フラグが20のときは、端末のハートビートを表す。フラグが21のときは、端末をクレイドルに挿したことを表す。フラグが22のときは、端末をクレイドルから抜いたことを表す。フラグが23のときは、クレイドルからのハートビートを表す。フラグが31のときは、端末が通常モードから照度検出低消費電力モードに移行することを表す。フラグが31のときは、端末が照度検出低消費電力モードから通常モードに移行することを表す。
TR、TR2~TR4…端末
TRIS…赤外線送信器
TRIR…赤外線受信器
TRAC…加速度センサ
TRCO…制御部
TRSR…送信・受信部
TRME…記録部
GW、GW2、GW3…基地局
GWME…記録部
GWSR…送信・受信部
GWCO…制御部
NW…ネットワーク
SS…センサネットサーバ
SSCO…制御部
SSME…記録部
SSSR…送信・受信部
SSDB…データベース部
AS…アプリケーションサーバ
ASDP…データ処理部
ASCO…制御部
ASME…記録部
ASSR…送信・受信部
CL…クライアント
CLIO…入出力部
CLCO…制御部
CLME…記録部
CLSR…送信・受信部
TRIS…赤外線送信器
TRIR…赤外線受信器
TRAC…加速度センサ
TRCO…制御部
TRSR…送信・受信部
TRME…記録部
GW、GW2、GW3…基地局
GWME…記録部
GWSR…送信・受信部
GWCO…制御部
NW…ネットワーク
SS…センサネットサーバ
SSCO…制御部
SSME…記録部
SSSR…送信・受信部
SSDB…データベース部
AS…アプリケーションサーバ
ASDP…データ処理部
ASCO…制御部
ASME…記録部
ASSR…送信・受信部
CL…クライアント
CLIO…入出力部
CLCO…制御部
CLME…記録部
CLSR…送信・受信部
Claims (7)
- 第1及び第2の端末と、第1及び第2の基地局と、上記第1及び第2の基地局それぞれとネットワークを介して接続されるサーバと、を備え、
上記第1の端末は、上記第2の端末との対面を示す第1の対面データを取得する第1のセンサと、上記第1の対面データを上記第1の基地局又は上記第2の基地局へ送信する第1の送信装置とを有し、
上記第2の端末は、上記第1の端末との対面を示す第2の対面データを取得する第2のセンサと、上記第2の対面データを上記第1の基地局又は上記第2の基地局へ送信する第2の送信装置とを有し、
上記第1の基地局は、識別子を示す第1の基地局IDを記録する第1の記録装置と、上記第1の対面データ又は上記第2の対面データを受信して上記第1の基地局IDとともに上記サーバに送信する第1の送受信装置とを有し、
上記第2の基地局は、識別子を示す第2の基地局IDを記録する第2の記録装置と、上記第1の対面データ又は上記第2の対面データを受信して上記第2の基地局IDとともに上記サーバに送信する第2の送受信装置とを有し、
上記サーバは、上記第1及び第2の対面データと上記第1及び第2の基地局IDを受信する受信装置と、上記第1の端末と上記第2の端末が対面した場所を特定する制御装置とを有し、
上記第1の基地局が設置される第1のサイトで上記第1の端末が上記第1の対面データを取得し、上記第1のサイトとは異なる第2のサイトに設置される上記第2の基地局へ上記第1の対面データを送信したとき、
上記制御装置は、上記第1及び第2の対面データと上記第1及び第2の基地局IDに基づいて、上記第1の端末が上記第1のサイトで上記第2の端末と対面したことを特定する情報処理システム。 - 請求項1に記載の情報処理システムにおいて、
上記制御装置は、上記第1及び第2の対面データそれぞれが取得された時刻、上記第1及び第2の基地局が上記第1又は第2の対面データを受信した時刻を用いて、上記第1の端末が上記第1のサイトで上記第2の端末と対面したことを特定する情報処理システム。 - 請求項2に記載の情報処理システムにおいて、
上記制御装置は、上記第1の対面データが取得された時刻と上記第2の基地局が上記第1の対面データを受信した時刻との差が所定時間以上の場合、上記第1の端末と上記第2の端末は上記第2のサイトで対面しなかったと判断する情報処理システム。 - 請求項1に記載の情報処理システムにおいて、
識別子を示すIDデータを送信する固定端末が上記第1のサイトに設置され、
上記第1の端末が上記IDデータを受信した場合、上記制御装置は上記IDデータを用いて上記第1の端末が上記第1のサイトで上記第2の端末と対面したことを特定する情報処理システム。 - 第1及び第2の端末と、第1及び第2の基地局と、上記第1及び第2の基地局それぞれとネットワークを介して接続されるサーバと、を備え、
上記第1の端末は、上記第2の端末との対面を示す第1の対面データを取得する第1のセンサと、上記第1の対面データを上記第1の基地局又は上記第2の基地局へ送信する第1の送信装置とを有し、
上記第2の端末は、上記第1の端末との対面を示す第2の対面データを取得する第2のセンサと、上記第2の対面データを上記第1の基地局又は上記第2の基地局へ送信する第2の送信装置とを有し、
上記第1の基地局は、識別子を示す第1の基地局IDを記録する第1の記録装置と、上記第1の対面データ又は上記第2の対面データを受信して上記第1の基地局IDとともに上記サーバに送信する第1の送受信装置とを有し、
上記第2の基地局は、識別子を示す第2の基地局IDを記録する第2の記録装置と、上記第1の対面データ又は上記第2の対面データを受信して上記第2の基地局IDとともに上記サーバに送信する第2の送受信装置とを有し、
上記サーバは、上記第1及び第2の対面データと上記第1及び第2の基地局IDを受信する受信装置と、上記第1の端末と上記第2の端末が対面した場所を特定する制御装置とを有し、
上記制御装置は、上記第1及び第2の対面データ、上記第1及び第2の対面データそれぞれが取得された時刻、上記第1及び上記第2の基地局が上記第1又は第2の対面データを受信した時刻、上記第1及び第2の基地局IDに基づいて上記第1の端末と上記第2の端末が対面した場所を特定する情報処理システム。 - 請求項5に記載の情報処理システムにおいて、
識別子を示すIDデータを送信する固定端末をさらに有し、
上記第1の端末又は上記第2の端末が上記IDデータを受信した場合、上記制御装置は上記IDデータを用いて上記第1の端末と上記第2の端末が対面した場所を特定する情報処理システム。 - 第1及び第2の端末を含む複数の端末に、第1の基地局を含む複数の基地局のうち1つを介して用いられるサーバであって、
上記第1の基地局を介して接続した第1の端末から、対面した上記第2の端末の識別情報を含む対面情報、介した上記第1の基地局の基地局識別情報、及び上記第1の端末の端末識別情報を受信する受信部と、
上記対面情報、上記基地局識別情報、上記端末識別情報を記録する記録部と、
上記複数の基地局が備え付けられた位置を表す基地局位置情報を、上記複数の基地局の基地局識別情報に関連づけて記憶する基地局情報格納部と、
上記基地局識別情報に関連づけて上記基地局情報格納部に記憶された上記基地局位置情報を取得することで、上記端末識別情報に係る端末が上記対面情報に係る端末と対面した場所を特定し出力する出力部と、
を有するサーバ。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012500466A JP5662993B2 (ja) | 2010-02-22 | 2010-12-08 | 情報処理システム、およびサーバ |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010035553 | 2010-02-22 | ||
JP2010-035553 | 2010-02-22 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2011102047A1 true WO2011102047A1 (ja) | 2011-08-25 |
Family
ID=44482656
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2010/072029 WO2011102047A1 (ja) | 2010-02-22 | 2010-12-08 | 情報処理システム、およびサーバ |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5662993B2 (ja) |
WO (1) | WO2011102047A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6944031B1 (ja) * | 2020-09-28 | 2021-10-06 | Kddi株式会社 | 状態判定装置、状態判定システム、及びプログラム |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002208050A (ja) * | 2001-01-10 | 2002-07-26 | Dainippon Printing Co Ltd | ネットワーク勤怠管理システム |
JP2007026419A (ja) * | 2005-06-17 | 2007-02-01 | Hitachi Ltd | ソーシャルネットワーク情報の管理方法およびそのシステム |
JP2008165411A (ja) * | 2006-12-27 | 2008-07-17 | Toshiba Corp | 通信システム、サーバ装置、通信装置および通信処理プログラム |
JP2008210363A (ja) * | 2007-01-31 | 2008-09-11 | Hitachi Ltd | ビジネス顕微鏡システム |
JP2008287690A (ja) * | 2007-04-20 | 2008-11-27 | Hitachi Ltd | グループ可視化システム及びセンサネットワークシステム |
JP2009009355A (ja) * | 2007-06-28 | 2009-01-15 | Hitachi Ltd | 組織コミュニケーション可視化システム |
JP2009181559A (ja) * | 2008-02-01 | 2009-08-13 | Hitachi Ltd | 解析システムおよび解析サーバ |
JP2009211574A (ja) * | 2008-03-06 | 2009-09-17 | Hitachi Ltd | 作業品質を測定するサーバ及び作業品質を測定するセンサネットワークシステム |
JP2009223428A (ja) * | 2008-03-13 | 2009-10-01 | Fuji Xerox Co Ltd | コミュニケーション量推定装置及びプログラム |
WO2009145187A1 (ja) * | 2008-05-26 | 2009-12-03 | 株式会社日立製作所 | 人間行動分析システム |
-
2010
- 2010-12-08 JP JP2012500466A patent/JP5662993B2/ja not_active Expired - Fee Related
- 2010-12-08 WO PCT/JP2010/072029 patent/WO2011102047A1/ja active Application Filing
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002208050A (ja) * | 2001-01-10 | 2002-07-26 | Dainippon Printing Co Ltd | ネットワーク勤怠管理システム |
JP2007026419A (ja) * | 2005-06-17 | 2007-02-01 | Hitachi Ltd | ソーシャルネットワーク情報の管理方法およびそのシステム |
JP2008165411A (ja) * | 2006-12-27 | 2008-07-17 | Toshiba Corp | 通信システム、サーバ装置、通信装置および通信処理プログラム |
JP2008210363A (ja) * | 2007-01-31 | 2008-09-11 | Hitachi Ltd | ビジネス顕微鏡システム |
JP2008287690A (ja) * | 2007-04-20 | 2008-11-27 | Hitachi Ltd | グループ可視化システム及びセンサネットワークシステム |
JP2009009355A (ja) * | 2007-06-28 | 2009-01-15 | Hitachi Ltd | 組織コミュニケーション可視化システム |
JP2009181559A (ja) * | 2008-02-01 | 2009-08-13 | Hitachi Ltd | 解析システムおよび解析サーバ |
JP2009211574A (ja) * | 2008-03-06 | 2009-09-17 | Hitachi Ltd | 作業品質を測定するサーバ及び作業品質を測定するセンサネットワークシステム |
JP2009223428A (ja) * | 2008-03-13 | 2009-10-01 | Fuji Xerox Co Ltd | コミュニケーション量推定装置及びプログラム |
WO2009145187A1 (ja) * | 2008-05-26 | 2009-12-03 | 株式会社日立製作所 | 人間行動分析システム |
Also Published As
Publication number | Publication date |
---|---|
JPWO2011102047A1 (ja) | 2013-06-17 |
JP5662993B2 (ja) | 2015-02-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5372588B2 (ja) | 組織評価装置および組織評価システム | |
JP5672934B2 (ja) | センシングデータ表示装置および表示システム | |
US9111242B2 (en) | Event data processing apparatus | |
JP6675266B2 (ja) | センサデータ分析システム及びセンサデータ分析方法 | |
US8138945B2 (en) | Sensor node | |
JP2009009355A (ja) | 組織コミュニケーション可視化システム | |
JP5055153B2 (ja) | 解析システムおよび解析サーバ | |
JP2008287690A (ja) | グループ可視化システム及びセンサネットワークシステム | |
JP5503719B2 (ja) | パフォーマンス分析システム | |
JP2010198261A (ja) | 組織連携表示システム及び処理装置 | |
WO2019049356A1 (ja) | 情報処理システム | |
JP5617971B2 (ja) | 組織コミュニケーション可視化システム | |
JP5662993B2 (ja) | 情報処理システム、およびサーバ | |
JP5372557B2 (ja) | 知識創造行動分析システム、及び、処理装置 | |
JP2013008149A (ja) | 業務上対面データ生成装置およびシステム | |
JP5947902B2 (ja) | 対面データ生成装置及び対面データの生成方法 | |
JP5825417B2 (ja) | 業務向上支援システムおよび業務向上支援方法 | |
JP5338934B2 (ja) | 組織コミュニケーション可視化システム | |
JP5879352B2 (ja) | コミュニケーション解析装置、コミュニケーション解析システム、およびコミュニケーション解析方法 | |
JP5568767B2 (ja) | 赤外線送受信システム及び赤外線送受信方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 10846178 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2012500466 Country of ref document: JP |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 10846178 Country of ref document: EP Kind code of ref document: A1 |