WO2025022612A1 - Evaluation system and evaluation method - Google Patents
Evaluation system and evaluation method Download PDFInfo
- Publication number
- WO2025022612A1 WO2025022612A1 PCT/JP2023/027409 JP2023027409W WO2025022612A1 WO 2025022612 A1 WO2025022612 A1 WO 2025022612A1 JP 2023027409 W JP2023027409 W JP 2023027409W WO 2025022612 A1 WO2025022612 A1 WO 2025022612A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- data
- action
- motion
- evaluation
- unit
- Prior art date
Links
- 238000011156 evaluation Methods 0.000 title claims description 224
- 230000033001 locomotion Effects 0.000 claims description 323
- 238000000034 method Methods 0.000 claims description 83
- 238000012854 evaluation process Methods 0.000 claims description 45
- 238000001514 detection method Methods 0.000 claims description 26
- 238000006243 chemical reaction Methods 0.000 claims description 17
- 239000000284 extract Substances 0.000 claims description 14
- 230000004886 head movement Effects 0.000 claims description 7
- 238000002372 labelling Methods 0.000 claims 4
- 238000004891 communication Methods 0.000 description 35
- 230000010365 information processing Effects 0.000 description 30
- 238000010586 diagram Methods 0.000 description 21
- 238000012545 processing Methods 0.000 description 20
- 210000003128 head Anatomy 0.000 description 18
- 230000006870 function Effects 0.000 description 17
- 238000012549 training Methods 0.000 description 16
- 230000001133 acceleration Effects 0.000 description 11
- 238000003754 machining Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 3
- 210000005069 ears Anatomy 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 210000000613 ear canal Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000010561 standard procedure Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
Definitions
- This disclosure relates to an evaluation system and an evaluation method.
- an evaluation system includes a sensor attached to the head of a worker for detecting a motion of the head, a sensor data creation unit that acquires a detection value output from the sensor during a period in which the worker operates a device and creates sensor data in which the acquired detection value is associated with an elapsed time from a start time of a target period to be evaluated, an action data creation unit that uses the sensor data to extract the motion and creates action data in which the extracted motion is associated with the elapsed time, and an evaluation unit that uses the action data to evaluate the proficiency of the worker.
- the proficiency can be evaluated with high accuracy by using the data of the head motion of the worker for evaluation.
- the evaluation unit may evaluate the proficiency by comparing the motion data with predetermined reference data in which reference motions serving as a standard for the motion during the target period are arranged in chronological order. According to this aspect, the proficiency can be evaluated by comparing the reference data with the motion data.
- the reference data includes a plurality of reference actions
- the action data includes a plurality of the actions
- each of the plurality of reference actions included in the reference data is assigned a predetermined action type
- the action data creation unit associates the action type with each of the plurality of actions included in the action data
- the evaluation unit performs at least one of a determination process of determining whether each of the plurality of reference actions included in the reference data can be associated with at least one of the plurality of actions included in the action data having the same action type as the plurality of actions included in the action data, a first assignment process of assigning a first action label to the reference action of the reference data determined not to be associated with the reference action determined not to be associated with the reference action in the determination process when it is determined that the action cannot be associated with the reference action in the determination process, and a second assignment process of assigning a second action label to the action of the plurality of actions of the action data that cannot be associated with any of the plurality of reference actions of the reference data in
- the proficiency level can be evaluated with high accuracy.
- An action to which the first action label is assigned indicates an action that was not performed by the worker, even though it was necessary.
- an action to which the second action label is assigned indicates an unnecessary action performed by the worker. Therefore, by evaluating the proficiency level using the assignment status of each of the first action label and the second action label, the evaluation can be performed with high accuracy.
- the reference data may be the operation data created using the sensor data acquired during a period in which the highly skilled worker is operating the device.
- the sensor data acquired during a period in which the highly skilled worker operates the device can be used as the reference data.
- data reflecting the actual situation can be used as the reference data.
- the motion data includes a plurality of the motions
- the evaluation unit performs at least one of a first time evaluation process of attaching a first time label to each of the motions included in the motion data when the motion time from the start of the motion to the end of the motion is longer than a predetermined reference motion time, and a second time evaluation process of attaching a second time label to the target motion when the motion interval between a target motion among the motions included in the motion data and the next motion of the target motion is longer than a predetermined reference motion interval, and may evaluate the proficiency using the attachment status of each of the first time label and the second time label. According to this embodiment, the proficiency can be evaluated with high accuracy.
- a motion to which the first time label is attached indicates that the motion itself takes a long time.
- a motion to which the second time label is attached indicates that it takes a long time to start the next motion after performing this motion. Therefore, by evaluating the proficiency level using at least one of the attachment status of the first action label and the attachment status of the second action label, the evaluation can be performed with high accuracy.
- the device includes a reception unit that receives an operation from the worker, and the evaluation system further includes an operation information acquisition unit that acquires operation information data that associates the operation information, which is information on the operation received by the reception unit, with the elapsed time during the target period, and the operation information data includes a plurality of pieces of the operation information, and the evaluation unit may use the operation information data to divide the motion data into a plurality of sections using each piece of the operation information as a separator, and set each of the plurality of sections as a target section to perform evaluation. According to this embodiment, evaluation can be performed for each section, and the accuracy of the evaluation can be further improved.
- the evaluation system of the above embodiment may further include at least one of a sound conversion unit that converts sound data into sound and a display unit that displays information using display data, a determination unit that extracts the motion using the sensor data and determines a next reference motion that is the reference motion to be performed next by the worker by comparing the extracted motion with predetermined reference data in which reference motions that are standards for the motions in the target period are arranged in chronological order, and an output unit that performs at least one of a first output process that outputs the sound data that instructs the next reference motion determined by the determination unit to the sound conversion unit and a second output process that outputs the display data including the information that instructs the next reference motion to the display unit.
- a sound conversion unit that converts sound data into sound and a display unit that displays information using display data
- a determination unit that extracts the motion using the sensor data and determines a next reference motion that is the reference motion to be performed next by the worker by comparing the extracted motion with predetermined reference data in which reference motions that are standards for the motions
- the evaluation system of the above aspect may further include an ear-worn device to be worn on the ear of the worker, the ear-worn device having a data acquisition unit that acquires sound data and a sound conversion unit that converts the acquired sound data into sound and emits the sound toward the ear, and the sensor may be built into the ear-worn device.
- the sensor built into the ear-worn device can be used for evaluation.
- the evaluation system of the above embodiment further includes a microphone for acquiring the voice uttered by the worker as voice data, a voice data creation unit for acquiring the voice data acquired by the microphone during the target period and creating voice time series data in which the acquired voice data is associated with the elapsed time, a call data creation unit for extracting the calls of the worker using the voice time series data and creating call data in which the extracted calls are associated with the elapsed time, and an integrated data creation unit for creating integrated data in which the actions included in the action data and the calls included in the call data are arranged in chronological order using the elapsed time associated with each of them, wherein the reference data further includes a reference call that is a reference for the calls during the target period, the reference actions and the reference calls are arranged in chronological order, and the evaluation unit evaluates the proficiency by comparing the integrated data with the reference data.
- the voice uttered by the worker can also be added to the evaluation target, so that the evaluation can be performed in more detail.
- the present disclosure can be realized in various forms, and in addition to the above-mentioned evaluation system, it can be realized in the form of, for example, an evaluation method, an evaluation program, etc.
- FIG. 1 is an explanatory diagram showing a schematic configuration of an evaluation system.
- FIG. 1 is a block diagram showing a configuration of an evaluation system.
- FIG. 4 is a diagram illustrating detection by a motion sensor.
- 11 is a flowchart showing the procedure of a press-fitting process.
- FIG. 13 is a diagram for explaining the position and orientation of a worker at the start of a target period.
- 4A and 4B are diagrams for explaining detection values and operation data of a motion sensor. 13 is a diagram comparing the detection values of the motion sensors of a beginner and an expert.
- 11 is a flowchart showing the procedure of an evaluation process performed by an evaluation unit.
- FIG. 4 is a diagram for explaining the processing contents of evaluation processing.
- 11 is a flowchart showing the procedure of a training process.
- FIG. 11 is a block diagram of an information processing apparatus according to a second embodiment.
- FIG. 11 is a diagram for explaining the relationship between a target period and a section according to the second embodiment.
- 13 is a flowchart showing the procedure of a multi-section evaluation process according to the second embodiment.
- FIG. 13 is a block diagram of an information processing apparatus according to a third embodiment.
- FIG. 1 is an explanatory diagram showing a schematic configuration of an evaluation system 1.
- the evaluation system 1 shown in Fig. 1 is a system for evaluating the proficiency of an operator OP who operates a press-fitting device 60 as an apparatus.
- Fig. 1 shows an up-down direction, a front-rear direction, and a left-right direction that are mutually orthogonal. Each direction is a direction based on the operator OP.
- the evaluation system 1 includes an information processing device 10, an ear-worn device 80, and a mobile terminal device 90.
- the information processing device 10 is disposed near the press-fitting device 60.
- the ear-worn device 80 is worn on the head of the worker OP.
- the ear-worn device 80 has a pair of housings 80a that are worn on each of the worker OP's ears.
- the ear-worn device 80 is an earphone type, and each of the pair of housings 80a has a shape that can be inserted into an ear canal.
- the ear-worn device 80 is used to detect the movement of the head of the worker OP.
- the shape of the ear-worn device 80 is not limited to an earphone type, and may be a headphone type.
- the mobile terminal device 90 is carried by the worker OP. Since the worker OP works near the press-fitting device 60, the mobile terminal device 90 is not limited to being carried by the worker OP, but may be placed near the press-fitting device 60. The mobile terminal device 90 mediates communication between the ear-worn device 80 and the information processing device 10.
- the press-fitting device 60 is a device that performs press-fitting processing on the workpiece W.
- the workpiece W includes a press-fitted part Wa and a press-fitted part Wb. In the press-fitting processing, the press-fitted part Wb is pressed into the press-fitted part Wa.
- the press-fitting device 60 has a receiving section 61, a fixed section 62, and a movable section 63.
- the movable section 63 is disposed above the fixed section 62.
- the movable section 63 is configured to be movable in the up-down direction. Specifically, the movable section 63 approaches the fixed section 62 by descending, and moves away from the fixed section 62 by ascending.
- the movable section 63 moves by the driving force of a motor (not shown) provided in the press-fitting device 60.
- the movable section 63 descends from above the workpiece W disposed on the fixed section 62 and presses the workpiece W, thereby performing the press-fitting processing.
- the receiving section 61 has a touch panel 61a and an operation button 61b.
- the touch panel 61a has a display function for displaying information and a reception function for receiving operations.
- the operation button 61b is, for example, a push button such as a power button.
- FIG. 2 is a block diagram showing the configuration of the evaluation system 1.
- the information processing device 10 is configured as a computer having a processor 20 and a storage unit 30.
- the processor 20 performs various processes by executing programs stored in the storage unit 30.
- the processor 20 has, as functional units, a sensor data creation unit 21, a motion data creation unit 22, an evaluation unit 23, a determination unit 24, and an output unit 25.
- Each functional unit is realized by executing a program stored in the storage unit 30.
- the storage unit 30 is realized by a memory such as a RAM or ROM.
- the storage unit 30 stores sensor data 31, motion data 32, reference data 33, an evaluation program 34, and a training program 35.
- the information processing device 10 further includes a communication unit 40.
- the communication unit 40 communicates with external devices such as a mobile terminal device 90 via a network such as a LAN (Local Area Network).
- LAN Local Area Network
- the ear-worn device 80 has a pair of housings 80a shown in FIG. 1 each built-in with a motion sensor 81 as a sensor shown in FIG. 2, a sound conversion unit 82, a microphone 83, and a communication unit 84. Note that the motion sensor 81 and the microphone 83 may each be built-in to both of the pair of housings 80a, or may each be built-in to one of the housings 80a.
- the motion sensor 81 detects the movement of the head of the worker OP.
- the motion sensor 81 is a general-purpose so-called six-axis motion sensor.
- the motion sensor 81 includes a three-axis acceleration sensor and a three-axis angular velocity sensor.
- the motion sensor 81 detects the acceleration [m/ s2 ] of each of the three axes and the angular velocity [deg/s] of each of the three axes.
- FIG. 3 is a diagram for explaining detection by the motion sensor 81.
- the three axes along which the motion sensor 81 detects acceleration and angular velocity are specifically the yaw axis, roll axis, and pitch axis, which are mutually perpendicular.
- the yaw axis is an axis parallel to the up-down direction based on the worker OP.
- the roll axis is an axis parallel to the front-rear direction based on the worker OP.
- the pitch axis is an axis parallel to the left-right direction based on the worker OP.
- the motion sensor 81 outputs a positive value for the acceleration of the yaw axis when the worker OP moves his head up, and outputs a negative value when the worker OP moves his head down.
- the motion sensor 81 outputs a positive value for the acceleration of the roll axis when the worker OP moves his head forward, and outputs a negative value when the worker OP moves his head back.
- the motion sensor 81 outputs a positive value for the acceleration of the pitch axis when the worker OP moves his face to the left, and outputs a negative value when the worker OP moves his head to the right.
- the motion sensor 81 outputs a positive value for the angular velocity of the yaw axis when the worker OP turns his face to the right, and outputs a negative value when the worker OP turns his face to the left.
- the motion sensor 81 outputs a positive value for the angular velocity of the roll axis when the worker OP tilts his head to the left, and outputs a negative value when the worker OP tilts his head to the right.
- the motion sensor 81 outputs a positive value for the angular velocity of the pitch axis when the worker OP turns his face down, and outputs a negative value when the worker OP turns his face up.
- the sound conversion unit 82 shown in FIG. 2 converts sound data, which is an electrical signal, into sound and emits it toward the ears of the worker OP.
- the microphone 83 converts sound into sound data, which is an electrical signal. In detail, the microphone 83 converts the voice emitted by the worker OP into voice data and acquires it.
- the microphone 83 outputs the acquired voice data to the communication unit 84.
- the communication unit 84 performs short-distance communication with the mobile terminal device 90. In this embodiment, the communication unit 84 and the mobile terminal device 90 communicate in accordance with Bluetooth (registered trademark).
- the communication unit 84 has a data acquisition unit 85 and a data output unit 86 as functional units.
- the data acquisition unit 85 receives sound data transmitted from the outside and outputs the received sound data to the sound conversion unit 82.
- the data output unit 86 transmits the sound data output from the microphone 83 to the outside.
- the communication unit 84 is realized by an electronic circuit or the like.
- the mobile terminal device 90 is a smartphone.
- the mobile terminal device 90 has a communication unit 91.
- the communication unit 91 of the mobile terminal device 90 performs short-range communication with the communication unit 84 of the ear-worn device 80, and also performs communication with the communication unit 40 via a network.
- communication between the ear-worn device 80 and the mobile terminal device 90 is not limited to wireless communication, and may be performed by wired communication.
- the communication unit 40 of the information processing device 10 may have a function of performing short-range communication, and the communication unit 40 may perform short-range communication with the communication unit 84 of the ear-worn device 80 without the mobile terminal device 90.
- the communication unit 84 of the ear-worn device 80 may have a function of communicating via a network, and the communication unit 84 may communicate with the communication unit 40 via a network without the mobile terminal device 90.
- the press-fitting device 60 has a processor 65, a storage unit 66, and a communication unit 68.
- the storage unit 66 has a program for creating operation information data 67 stored in advance.
- the processor 65 creates the operation information data 67 by executing the program stored in the storage unit 66.
- the operation information data 67 is information in which operation information, which is information on an operation accepted by the acceptance unit 61, is associated with the time of acceptance. In this specification, "time” refers to a time including a date.
- the processor 65 creates the operation information data 67 by associating the information on the accepted operation with the time of acceptance. Then, the processor 65 stores the created operation information data 67 in the storage unit 66.
- the operations accepted by the acceptance unit 61 specifically include an operation of changing the state of a descent button for lowering the movable part 63 from an off state to an on state, and an operation of operating the touch panel 61a to set the descent speed of the movable part 63.
- the down button is included in the operation buttons 61b.
- the communication unit 64 communicates with the information processing device 10 via a network.
- the evaluation system 1 has an evaluation function and a training function.
- the evaluation function is a function for evaluating the proficiency of an operator OP after the operator OP performs work using the press-in device 60.
- the training function is a function for supporting the operator OP in training for work using the press-in device 60.
- FIG. 4 is a flowchart showing the procedure of the press-in process.
- the worker OP stands at a position where the state of the movable part 63 and the workpiece W can be visually confirmed, and performs the work by operating the reception unit 61 without moving.
- the movable part 63 is operated by the worker OP to lower the speed and descend to a position immediately before contacting the workpiece W, and then to increase the speed and further descend for press-in.
- the press-in device 60 is preset to a state in which the movable part 63 is located at a position above and away from the fixed part 62.
- the worker OP places the workpiece W at a predefined reference position of the fixed part 62.
- the worker OP checks by looking at the touch panel 61a whether the descent speed of the movable part 63 is set to a predefined first speed.
- the worker OP checks by looking at the workpiece W whether it is located at the reference position.
- the worker OP sets the descent switch, which is one of the operation buttons 61b of the reception unit 61, to the on state, and causes the movable part 63 to descend at the first speed.
- step S18 the worker OP looks at the workpiece W and confirms that the movable part 63 has descended to the stop position.
- the stop position is a position just before the movable part 63 comes into contact with the workpiece W, where the distance between the movable part 63 and the workpiece W is about several centimeters.
- step S20 the worker OP operates the reception unit 61 to set the descent switch to the OFF state and change the speed of the movable part 63 to a second speed that is higher than the first speed.
- step S22 the worker OP sets the descent switch to the ON state to further lower the movable part 63 and press the press-in part Wb into the press-fit part Wa.
- the press-in device 60 is preset so that the application of pressure by the movable part 63 to the fixed part 62 and the workpiece W is stopped when a preset time has elapsed after the pressure received by the movable part 63 reaches a preset pressure. The press-in process is completed when the application of pressure by the movable part 63 is stopped.
- the sensor data creation unit 21 shown in FIG. 2 performs a sensor data creation process in which it acquires detection values output from the motion sensor 81 and creates sensor data 31 that associates the acquired detection values with the elapsed time from the start time of the target period.
- the target period is the period during which the worker OP performs the press-fitting process, during which the proficiency is to be evaluated.
- the detection values are, specifically, the angular velocities of the above three axes and the accelerations of the three axes.
- the sensor data creation unit 21 then stores the created sensor data 31 in the storage unit 30.
- the period from step S12 to step S16 is the target period.
- evaluation function: 5 is a diagram for explaining the position and orientation of the operator OP at the start of the target period.
- the operator OP performs step S10, and then stands in a reference position where the operator can operate the reception unit 61 while facing the front of the press-fitting device 60, as shown in FIG. 5.
- the values of the detection values of the motion sensor 81 are set to the reference value, i.e., zero.
- the administrator of the evaluation system 1 starts the evaluation program 34 on the information processing device 10.
- the evaluation program 34 displays a GUI (Graphical User Interface) for inputting the evaluation start time to be displayed on the display of the information processing device 10.
- the administrator inputs the disclosure time into the GUI for inputting the evaluation start time, and instructs the worker OP to start work.
- the evaluation program 34 stores the start time input into the GUI in the memory unit 30.
- the worker OP When instructed to start work, the worker OP performs steps S12 to S16.
- the administrator inputs the end time into a GUI for inputting the evaluation end time, which is displayed on the display of the information processing device 10 by the evaluation program 34.
- the evaluation program 34 stores the end time input into the GUI in the storage unit 30.
- the administrator selects the evaluation start button, which is a GUI displayed on the display of the information processing device 10 by the evaluation program 34.
- the evaluation program 34 requests the motion data creation unit 22 to create motion data 32.
- the motion data creation unit 22 When requested, the motion data creation unit 22 performs a motion data creation process in which it extracts motions using the sensor data 31 and creates motion data 32 that associates the extracted motions with elapsed time.
- FIG. 6 is a diagram explaining the detection values of the motion sensor 81 and the operation data 32. From the top to the bottom of FIG. 6, a graph showing the relationship between the yaw axis angle and elapsed time, a graph showing the relationship between the pitch axis angle and elapsed time, a graph showing the relationship between the yaw axis acceleration and elapsed time, and operation data 32 are shown, respectively.
- the horizontal axes of the graph showing the relationship between the yaw axis angle and time, the graph showing the relationship between the pitch axis angle and time, and the graph showing the relationship between the yaw axis acceleration and time are aligned so that the elapsed time starting from the evaluation start time is consistent with each other.
- the motion data creation unit 22 extracts motions using the sensor data 31.
- the head motions performed by the worker OP are two types of motions: a motion to look at the reception unit 61 and a motion to look at the workpiece W.
- the motion data creation unit 22 uses data on the angular velocity and angle of the yaw axis, and data on the angular velocity and angle of the pitch axis to extract motions.
- the motion data creation unit 22 obtains data on the yaw axis angle of the motion sensor 81 by converting the detected value of the angular velocity of the yaw axis into an angle.
- the motion data creation unit 22 obtains data on the pitch axis angle of the motion sensor 81 by converting the detected value of the angular velocity of the pitch axis into an angle.
- the motion data creation unit 22 extracts, from the data on the angular velocity of the yaw axis, the time when the absolute value of the angular velocity becomes greater than a predetermined first threshold value and the time when the absolute value of the angular velocity becomes smaller than a predetermined second threshold value.
- the first threshold value is a threshold value for extracting the time when the motion is started.
- the second threshold value is a threshold value for extracting the time when the motion is stopped.
- the first threshold value is a threshold value for extracting the start of the motion of turning the face.
- the second threshold value is a threshold value for extracting the end of the motion of turning the face.
- the first and second threshold values are values obtained by experiments, etc.
- the motion data creation unit 22 determines that the absolute value of the angular velocity of the yaw axis is greater than the first threshold value at times ts1 and ts2 in FIG. 6. The motion data creation unit 22 also determines that the absolute value of the angular velocity of the yaw axis is less than the second threshold value at times t1 and t2.
- the motion data creation unit 22 determines whether the object the worker OP is looking at is the touch panel 61a or the workpiece W at the time when the absolute value of the yaw axis angular velocity becomes smaller than the second threshold value. Specifically, the motion data creation unit 22 identifies the object the worker OP is looking at from the yaw axis angle and pitch axis angle at time t1. When the worker OP looks at the reception unit 61, he turns his face up and to the right, so a positive value is output for the yaw axis angle and a negative value is output for the pitch axis angle. When the worker OP looks at the workpiece W, he turns his face down and to the left, so a negative value is output for the yaw axis angle and a positive value is output for the pitch axis angle.
- the motion data creation unit 22 determines that the motion started at time ts1 is a "display check” motion to check the reception unit 61. Also, at time t2, the angle value of the yaw axis is negative, and the angle value of the pitch axis is positive. Therefore, the motion data creation unit 22 determines that the motion started at time t2 is a "work check” motion to check the work W. In this way, the motion data creation unit 22 determines whether the extracted motion is a "display check" motion or a "work check” motion.
- the motion data creation unit 22 determines the start time and motion duration for each motion.
- the motion is a motion to look at the reception unit 61 or the work W. Therefore, the motion data creation unit 22 determines the time when the motion started to look at the reception unit 61 or the work W as the start time of the motion. Then, the motion duration is the time until the next motion is started. Specifically, for "Operation 1," time t1 is the start time, and the period from time t1 to time ts2 is the operation period.
- the action data 32 is data in which actions are arranged in chronological order.
- Each action in the action data 32 is associated with an action type, a start time, and an action period.
- the action types are "display check” and "work check.”
- the start time may be indicated by the elapsed time from the evaluation start time, rather than the actual time.
- the method by which the motion data creation unit 22 extracts motions is not limited to the above.
- the motion data creation unit 22 may determine the period during which the angle is within a predetermined reference range as the motion period.
- the reference range corresponds to the angle at which the worker OP is facing in order to view the object.
- the reference range is, for example, a range of +10 degrees or more and +20 degrees or less, and a range of -10 degrees or more and -20 degrees or less.
- the motion data creation unit 22 When the motion data creation unit 22 finishes creating the motion data 32, it stores the created motion data 32 in the storage unit 30 and requests the evaluation unit 23 to perform the evaluation process. When requested, the evaluation unit 23 performs the evaluation process using the motion data 32. In this embodiment, the evaluation unit 23 evaluates the proficiency by comparing the motion data 32 with pre-stored reference data 33.
- the reference data 33 is the same data as the motion data 32, and is predetermined data in which reference motions that serve as the basis for motions during a target period are arranged in chronological order. In this embodiment, the reference data 33 is data created in the same manner as the motion data 32.
- the motion data creation unit 22 assigns a number to each motion in chronological order, starting from “1", for each of the reference data 33 and the motion data 32.
- action 1 the action numbered "1" will be referred to as "action 1."
- FIG. 7 is a diagram comparing the detection values of the motion sensor 81 of a beginner, who is a worker OP with a low level of proficiency, with the detection values of the motion sensor 81 of an expert.
- FIG. 7 is a diagram similar to FIG. 6. The time on the horizontal axis of each graph for the beginner and the time on the horizontal axis of each graph for the expert are aligned so that the elapsed time from the evaluation start time matches each other.
- the target period of an expert is shorter than that of a beginner. This is because the expert does not perform any actions other than the actions of carrying out the processing steps specified in the pressing process shown in Figure 4. Specifically, the expert performs "action 1" corresponding to step S12, "action 2" corresponding to step S14, and "action 3" corresponding to step S16. Therefore, by comparing the action data 32 of the beginner with the action data 32 of the expert, it is possible to analyze the reason why the target period of the beginner is longer.
- FIG. 8 is a flowchart showing the procedure of the evaluation process performed by the evaluation unit 23.
- the evaluation method is realized by the evaluation process.
- FIG. 9 is a diagram for explaining the evaluation process.
- the evaluation process will be explained using the example shown in FIG. 9.
- the actions included in the reference data 33 and the action data 32 are associated with either "type A" or "type B".
- the order of the actions included in the reference data 33 and the action data 32 is as shown in FIG. 9.
- the reference data 33 indicates that "action 1", "action 2", and "action 3" were performed in that order.
- step S30 of FIG. 8 the evaluation unit 23 sets the variable N, constant Ns, variable M, and constant Ms used in the evaluation process to initial values. Specifically, the evaluation unit 23 sets both the variable N and the variable M to "1". The evaluation unit 23 sets the variable Ns to the number of movements included in the reference data 33. The evaluation unit 23 sets the variable Ms to the number of movements included in the movement data 32. In the case of FIG. 9, the reference data 33 includes three movements, so the evaluation unit 23 sets the constant Ns to "3". In the case of FIG. 9, the movement data 32 includes three movements, so the evaluation unit 23 sets the constant Ms to "3".
- step S32 the evaluation unit 23 judges whether or not the motion type of the Nth motion in the reference data 33 matches the motion type of the Mth motion in the motion data 32. If it is judged that the motion type of the Nth motion in the reference data 33 matches the motion type of the Mth motion in the motion data 32, the evaluation unit 23 judges in step S36 whether or not the motion period of the Mth motion is longer than the motion period of the Nth motion of the reference motion. If it is judged that the motion period of the Mth motion is longer than the motion period of the Nth motion of the reference motion, the evaluation unit 23 assigns a "period length" label as a first time label to the Mth motion of the motion data 32 in step S40. Having finished the evaluation of the Mth motion, the evaluation unit 23 increments the variable M in step S42.
- step S32 If it is determined in step S32 that the motion duration of the Mth motion is not longer than the motion duration of the Nth motion in the reference motion, the evaluation unit 23 assigns an "evaluated" label to the Mth motion in the reference data 33 in step S38, and the process proceeds to step S42.
- the evaluation unit 23 assigns a "missing action" label as a second action label to the Nth action in the reference data 33 in step S34 as the first assignment process.
- step S40 or step S42 the evaluation unit 23 has finished the evaluation using the Nth operation of the reference data 33, and therefore increments the variable N in step S44.
- step S46 the evaluation unit 23 judges whether the variable N is equal to or greater than the constant Ns. If it is determined in step S46 that the variable N is not equal to or greater than the constant Ns, there are still movements in the reference data 33 that have not been evaluated, so in step S48 the evaluation unit 23 judges whether the variable M is equal to or greater than the constant Ms. If it is determined in step S48 that the variable M is not equal to or greater than the constant Ms, there are still movements in the movement data 32 that have not been evaluated, so the evaluation unit 23 returns to step S32.
- step S46 If it is determined in step S46 that the variable N is equal to or greater than the constant Ns, then evaluation of all the movements in the reference data 33 has been completed, and the evaluation unit 23 determines in step S50 whether or not a label has been assigned to all the movements in the movement data 32. If it is determined in step S50 that a label has not been assigned to all the movements in the movement data 32, the evaluation unit 23 assigns the "unnecessary movement" label as the second movement label to the Mth and subsequent movements in the movement data 32 in step S52 as the second assignment process, and ends this processing routine. If it is determined in step S50 that a label has been assigned to all the movements in the movement data 32, the evaluation unit 23 ends this processing routine.
- step S54 determines whether or not labels have been assigned to all of the actions in the action data 32, similar to step S50. If it is determined in step S54 that labels have not been assigned to all of the actions in the action data 32, then in step S56 the evaluation unit 23 assigns a "missing action" label as the first action label to the Nth and subsequent actions, and ends this processing routine. If it is determined in step S54 that labels have been assigned to all of the actions in the action data 32, then the evaluation unit 23 ends this processing routine.
- step S32 the first action "action 1" in the reference data 33 is compared with the first action "action 1" in the action data 32. Since the types of "action 1" in the reference data 33 and “action 1" in the action data 32 are both "Type A", the result is determined as "YES” in step S32.
- step S36 if the action period of "action 1" in the action data 32 is longer than the action period of "action 1" in the reference data 33, in step S40, a "duration length” label is assigned to "action 1" in the action data 32.
- step S36 if the action period of "action 1" in the action data 32 is not longer than the action period of "action 1" in the reference data 33, in step S38, a "evaluated” label is assigned to "action 1" in the action data 32.
- step S42 the variable M is updated to "2".
- step S44 the variable N is updated to "2".
- the constants Ns and Ms are both "3", so if the variable N is "2" and the variable M is "2", both steps S46 and S48 are judged as "NO".
- step S32 After starting the evaluation process, in the second iteration of step S32, "motion 2", the second motion in reference data 33, is compared with "motion 2", the second motion in motion data 32. Since the type of "motion 2" in reference data 33 is “type B" while the type of "motion 2" in motion data 32 is “type A”, the result is determined as "NO” in step S32. Therefore, in step S34, a "missing motion” label is assigned to "motion 2" in reference data 33. In step S44, the variable N is updated to "3".
- step S32 for the third time after starting the evaluation process "Movement 3", the third movement in the reference data 33, is compared with "Movement 2", the second movement in the movement data 32. Since the type of "Movement 3" in the reference data 33 and the type of "Movement 2" in the movement data 32 are both "Type A”, the evaluation process is started and, as in the initial processing flow, either the "Duration length” label or the “Evaluated” label is assigned to "Movement 2" in the movement data 32.
- step S42 the variable M is updated to "3".
- step S44 the variable N is updated to "4". Therefore, in step S46, the result is determined to be "YES”.
- step S50 since no label has been assigned to "Action 3" in the action data 32, the result is determined to be "NO”.
- step S52 the "unnecessary action" label is assigned to "Action 3" in the action data 32.
- the reference data 33 contains all the actions necessary for the process, by comparing the reference actions contained in the reference data 33 with the actions contained in the action data 32 in chronological order, it is possible to evaluate whether the action data 32 contains any missing actions or unnecessary actions. Furthermore, when the same action type is performed in the reference data 33 and the action data 32, it is possible to evaluate whether the action is taking a long time by comparing the action period of the action data 32 with the action time of the reference data 33.
- the evaluation unit 23 When the evaluation unit 23 finishes the evaluation process, it passes on the evaluation data, in which the action data 32 is associated with the reference data 33 and a label is assigned to each action, to the evaluation program 34, as shown in FIG. 9.
- the evaluation program 34 displays the evaluation data passed on to it on the display of the information processing device 10.
- the method of outputting the evaluation data is not limited to a form of outputting as image data, and may be, for example, text data in which actions are associated with labels.
- the evaluation unit 23 also performs an evaluation process to evaluate the proficiency of the worker OP using evaluation data indicating the status of the assignment of the "omission action” label and the "unnecessary action” label.
- the evaluation unit 23 performs an evaluation such that the greater the number of "omission action” labels or "unnecessary action” labels, the lower the proficiency.
- the evaluation unit 23 may deduct points for actions that have been assigned either the "omission action” label or the "unnecessary action” label, and calculate the total value for all actions as the proficiency.
- the evaluation unit 23 may also add up the number of "omission action” labels and the number of "unnecessary action” labels, and determine a rank as the proficiency using a correspondence table in which the number of labels is associated with a rank.
- the evaluation unit 23 evaluates the proficiency by comparing the reference data 33 with the action data 32.
- the evaluation unit 23 may perform a first time evaluation process in which a first time label is attached to each of the multiple actions included in the action data 32 when the action time from the start of the action to the end of the action is longer than a predetermined reference action time.
- a first time evaluation process in which a first time label is attached to each of the multiple actions included in the action data 32 when the action time from the start of the action to the end of the action is longer than a predetermined reference action time.
- the evaluation unit 23 may perform a second time evaluation process of attaching a second time label to a target action when the action interval between one target action among the multiple actions included in the action data 32 and the next action of the target action is longer than a predetermined reference action interval.
- the evaluation unit 23 attaches a second time label to "action 1" when the time from the end time ts2 of "action 1" which is a target action shown in FIG. 6 to the start time t2 of "action 2" is longer than a predetermined reference action interval.
- the evaluation unit 23 similarly performs the second time evaluation process for other action intervals, for example, the interval between "action 1" and "action 2".
- the reference action interval may be set to a common interval for multiple action intervals, or may be set to a different interval from each other.
- the evaluation unit 23 performs an evaluation process to evaluate the proficiency of the worker OP using evaluation data indicating the attachment status of the first time labels and the attachment status of the second time labels, similar to the evaluation process described above. In other words, the evaluation unit 23 performs an evaluation such that the greater the number of first time labels or second time labels, the lower the proficiency.
- the evaluation unit 23 may perform only one of the first time evaluation process or the second time evaluation process.
- Training function details In training by the evaluation system 1, instructions for the next process to be performed are output to the worker OP by voice from the sound conversion unit 82.
- the sensor data creation unit 21 creates the action data 32.
- the determination unit 24 sequentially creates the sensor data 31 during the period when the worker OP is working. The determination unit 24 extracts actions using the sensor data 31, similar to the sensor data creation unit 21. Then, the determination unit 24 compares the extracted action with the reference data 33 to determine the next action that the worker OP should perform next.
- the reference data 33 used in the training function includes not only the target period but all actions performed in the process.
- FIG. 10 is a flowchart showing the procedure of the training process.
- the worker OP starts the training program 35 in the information processing device 10.
- the training program 35 requests the output unit 25 to perform step S60.
- step S60 the output unit 25 instructs the first operation of the reference data 33. Specifically, the output unit 25 transmits voice data as sound data of a message instructing the next operation to the ear-worn device 80. This causes the sound conversion unit 82 of the ear-worn device 80 to output a voice instruction. The worker OP hears the voice instruction and performs the first operation.
- step S62 the decision unit 24 determines whether or not the worker OP has started to move. Specifically, when the decision unit 24 determines that the angular velocity of the yaw axis has become greater than the first threshold value, it determines that the worker OP has started to move.
- step S62 If it is determined in step S62 that the operation has not started, the decision unit 24 repeatedly executes step S62 at predetermined time intervals until it determines that the operation has started.
- the predetermined time is, for example, several ms.
- the determination unit 24 identifies the type of motion in step S64. Specifically, similar to the motion data creation unit 22, the determination unit 24 identifies the type of motion using the angular velocity and angle of the yaw axis and the angular velocity and angle of the pitch axis.
- step S66 the determination unit 24 judges whether the identified motion matches the motion of the reference data 33. Specifically, the determination unit 24 compares the motions of the reference data 33 starting from the first motion. If the identified motion type matches the motion type of the motion to be compared in the reference data 33, the determination unit 24 judges that the identified motion matches the motion of the reference data 33. On the other hand, if the identified motion type does not match the motion type of the motion to be compared in the reference data 33, the determination unit 24 judges that the identified motion does not match the motion of the reference data 33. If it is determined that the identified motion does not match the motion of the reference data 33, the determination unit 24 requests the output unit 25 to perform step S68.
- step S68 the output unit 25 outputs audio data instructing the reference motion of the reference data 33 to the sound conversion unit 82. Specifically, the output unit 25 transmits audio data of a message instructing the reference motion to the ear-worn device 80. This causes the audio instruction to be output from the sound conversion unit 82 of the ear-worn device 80. The worker OP hears the audio instruction and performs the standard action. After the output unit 25 performs step S68, the decision unit 24 returns the process to step S62.
- step S66 determines whether the process has ended in step S70 as the first output process. If it is determined in step S70 that the process has not ended, the decision unit 24 requests the output unit 25 to perform step S72.
- the output unit 25 instructs the next action of the reference data 33 in step S72 as the first output process. Specifically, the output unit 25 transmits audio data of a message instructing the next action of the reference to the ear-worn device 80. This causes the sound conversion unit 82 of the ear-worn device 80 to output an instruction sound.
- step S72 the decision unit 24 returns the process to step S62. If it is determined in step S70 that the process has ended, the decision unit 24 ends this processing routine.
- the evaluation program 34 displays a message indicating the end of training on the display of the information processing device 10.
- the output unit 25 outputs voice data instructing the next operation to the sound conversion device.
- the evaluation system 1 may include a display unit that displays information, and the output unit 25 may perform a second output process in which display data including information instructing the next operation is output to the display unit.
- the output unit 25 outputs display data including text information such as "Please press the switch next" to the display unit. This allows the worker OP to perform the next step by looking at the text displayed on the display unit.
- the second output process may be performed instead of the first output process, or both the second output process and the first output process may be performed.
- the display of the information processing device 10 may be used as the display unit.
- a display separate from the information processing device 10 may be used as the display unit.
- the evaluation system 1 includes a sensor data creation unit 21, a motion data creation unit 22, and an evaluation unit 23.
- the sensor data creation unit 21 creates sensor data 31 that associates detection values output from a motion sensor 81 attached to the head of the worker OP with elapsed time.
- the motion data creation unit 22 uses the sensor data 31 to extract head movements, and creates motion data 32 that associates the extracted movements with elapsed time.
- the evaluation unit 23 can accurately evaluate the proficiency level by using the data on the head movements of the worker OP for evaluation. Even if the process time is short, there is a possibility that a necessary movement has been omitted. Therefore, by using the data on the head movements of the worker OP for evaluation, it is possible to evaluate whether or not a necessary movement has been omitted, and therefore an accurate evaluation can be performed.
- an evaluation system 1 with high freedom of installation can be provided.
- one method of acquiring the movements of the worker OP as analyzable electronic data is to install a camera in a position where the movements of the worker OP can be captured and acquire the video. In this case, however, space is required to install the camera.
- a motion sensor 81 attached to the worker OP there is no need to secure space to install the camera. Therefore, the evaluation system 1 can be installed even in places where it is difficult to secure sufficient space, and an evaluation system 1 with high freedom of installation can be provided.
- the evaluation unit 23 evaluates the proficiency by comparing the reference data 33 with the action data 32. As a result, the evaluation unit 23 can evaluate the proficiency by comparing the reference data 33 with the action data 32.
- the evaluation unit 23 performs step S32 as a judgment process, step S34 as a first assignment process, and step S50 as a second assignment process.
- step S34 if it is determined that a reference action included in the reference data 33 is not included in the action data 32, a "missing action" label is assigned to the action determined not to be included. An action to which the "missing action” label is assigned indicates that the action was not performed by the worker OP despite being a necessary action.
- step S50 if it is determined that an action included in the action data 32 is not included in the reference data 33, a "unnecessary action" label is assigned to the action determined not to be included.
- An action to which the "unnecessary action” label is assigned indicates that the action was not performed by the worker OP. Therefore, by assigning the "missing action” label and the "unnecessary action” label, evaluation can be performed more accurately.
- the reference data 33 is also motion data 32 created using sensor data 31 acquired while the skilled worker is operating the press-fitting device 60. This allows the skilled worker's motion data 32 to be used as the reference data 33. Because the reference data 33 is data acquired while the skilled worker is actually performing the work, data that reflects the actual situation can be used as the reference data 33.
- a first time label is assigned.
- a second time label is assigned.
- an action assigned with a first time label indicates that it takes a long time to perform an action.
- An action assigned with a second time label indicates that it takes a long time to perform the next action.
- the evaluation system 1 also includes a determination unit 24 and an output unit 25.
- the determination unit 24 extracts an action using the sensor data 31, and determines the next reference action that is the next reference action that the worker OP should perform by comparing the extracted action with the reference data 33.
- the output unit 25 outputs voice data instructing the next action to the sound conversion unit 82. Therefore, the evaluation system 1 can be used to provide training to beginners.
- the motion sensor 81 is built into the ear-worn device 80. Therefore, the motion sensor 81 built into the ear-worn device 80 can be used for evaluation.
- Fig. 11 is a block diagram of an information processing device 10 according to a second embodiment.
- Fig. 12 is a diagram for explaining the relationship between a target period and a section according to this embodiment.
- the second embodiment in addition to the detection value of the motion sensor 81, information on the operation received by the press-fitting device 60 is used for evaluation.
- the same reference numerals are used for the same configurations and processing steps as those in the first embodiment, and detailed explanations are omitted as appropriate.
- the information processing device 10 has, in addition to the configuration of the first embodiment, an operation information acquisition unit 26 and an integrated data creation unit 27 as functional units of the processor 20.
- the storage unit 30 stores sensor data 31, motion data 32, reference data 33, an evaluation program 34, operation information data 67, and integrated data 36.
- the processes from step S12 to step S16 in the press-fit process shown in FIG. 4 are the subject of evaluation.
- all processes from step S12 to step S22 in the press-fit process are the subject of evaluation.
- the operator OP in addition to the operation at the reception unit 61 at step S16, the operator OP also operates the reception unit 61 at steps S20 and S22. Therefore, in the multiple section evaluation process, the evaluation unit 23 divides the operation data 32 into multiple sections using operations as separators, and performs evaluation processing for each section. This allows for accurate correspondence between the operations of the reference data 33 and the operations of the operation data 32, improving the accuracy of the evaluation.
- the operation information acquisition unit 26 shown in FIG. 11 acquires operation information data 67 from the pressing device 60, and associates the time associated with the operation information with the elapsed time from the start time of the target period.
- the operation information data 67 is data in which the elapsed time from the evaluation start time is associated with operation information.
- the operation information data 67 shown in FIG. 12 indicates that at time to1, an operation is performed to set the descent switch corresponding to step S18 to the on state, at time to2, an operation is performed to change the descent speed corresponding to step S20, and at time to3, an operation is performed to set the descent switch corresponding to step S22 to the on state.
- the integrated data creation unit 27 shown in FIG. 11 creates integrated data 36 that associates the sensor data 31 with the operation information data 67 so that their respective time axes correspond to the elapsed time from the evaluation start time. As shown in FIG. 12, the integrated data 36 makes it possible to associate the head movement of the worker OP indicated by the sensor data 31 with the operation performed by the worker OP.
- FIG. 13 is a flowchart showing the procedure of the multiple section evaluation process performed by the evaluation unit 23.
- the evaluation unit 23 uses the operation information data 67 to divide the motion data 32 into multiple sections, with each piece of operation information being a separator.
- step S18 is performed at time to1
- step S20 is performed at time to2
- step S22 is performed at time to3.
- the evaluation unit 23 divides the evaluation period into three sections: "Section 1" from the evaluation start time to time to1, "Section 2" from time to1 to time to2, and "Section 3" from time to2 to time to3.
- step S82 the evaluation unit 23 sets the first section, "Section 1", as the evaluation target.
- step S84 the evaluation unit 23 performs the evaluation process shown in FIG. 8 as a sub-processing routine for the section to be evaluated.
- step S86 the evaluation unit 23 judges whether the evaluation has been completed for all sections. If it is judged in step S86 that the evaluation has not been completed for all sections, the evaluation unit 23 sets the next section as the evaluation target in step S88 and returns the process to step S84. On the other hand, if it is judged in step S86 that the evaluation has been completed for all sections, the evaluation unit 23 ends this processing routine. When the evaluation unit 23 ends the multiple section evaluation process, it passes the evaluation data to the evaluation program 34. In addition, the evaluation unit 23 performs an evaluation process to evaluate the proficiency of the worker OP using the evaluation data indicating the status of the assignment of the "missing action" label and the status of the assignment of the "unnecessary action" label.
- the evaluation system 1 includes an operation information acquisition unit 26 that acquires operation information data 67, and an evaluation unit 23.
- the evaluation unit 23 uses the operation information data 67 to divide the movement data 32 into a plurality of sections using the operation information as a separator, and performs evaluation by setting each of the plurality of sections as a target section.
- the movement data 32 includes a plurality of movements associated with the operation of the reception unit 61
- the sections are divided using the operations as separators, and the accuracy of the evaluation can be improved by associating the movements of the reference data 33 with the movements of the movement data 32 for each section.
- FIG. 14 is a block diagram of an information processing device 10 according to a third embodiment.
- the voice uttered by the worker OP is set as a subject for evaluating the proficiency.
- the process may include a so-called pointing confirmation call by the worker OP, such as "Speed, OK," as a standard process. Therefore, in this embodiment, the voice uttered by the worker OP is added to the evaluation subjects.
- the same configurations and processing steps as those in the above embodiments are given the same reference numerals, and detailed explanations are omitted as appropriate.
- the information processing device 10 further includes, as functional parts of the processor 20, a voice data creation part 28 and a call data creation part 29.
- the storage part 30 stores sensor data 31, motion data 32, reference data 33, an evaluation program 34, integrated data 36, voice time series data 37, and call data 38.
- the voice data creation unit 28 acquires voice data output from the microphone 83 shown in FIG. 2, and creates voice time series data 37 that associates the acquired voice data with the elapsed time from the start time of the target period.
- the call data creation unit 29 uses the voice time series data 37 to extract calls from the worker OP, and creates call data 38 that associates the extracted calls with the elapsed time. Specifically, the call data creation unit 29 determines that a voice was uttered by the worker OP at the time when the sound pressure level [dB] indicated by the voice time series data 37 exceeded a predetermined reference sound pressure level [dB], and extracts it as a call.
- the call data creation unit 29 may extract the text information as a "call” using a program that converts general-purpose voice data into text information indicated by the voice.
- the integrated data creation unit 27 creates integrated data 36 in which the actions included in the action data 32 and the calls included in the call data 38 are arranged in chronological order using the elapsed time associated with each.
- the reference data 33 includes a reference call that serves as the standard for calls during the target period. The reference actions and reference calls included in the reference data 33 are arranged in chronological order according to the predetermined standard procedure of the process.
- the evaluation unit 23 treats the calls included in the integrated data 36 in the same way as the actions included in the sensor data 31, and performs the evaluation process in the same way as in the first embodiment. That is, if a reference call included in the reference data 33 is not included in the integrated data 36, the evaluation unit 23 assigns a label of "missing call” to the reference call included in the reference data 33. On the other hand, if a call included in the integrated data 36 is not included in the reference data 33, the evaluation unit 23 assigns a label of "unnecessary call" to the call included in the integrated data 36.
- the evaluation unit 23 may evaluate the action data 32 and the call data 38 using separate processing routines. Specifically, the evaluation unit 23 performs the same evaluation process as in the first embodiment, and when evaluating the call, the evaluation unit 23 may evaluate the proficiency level by comparing the call data 38 with reference call data that includes a reference call, in addition to the reference data 33 that includes the reference action.
- the evaluation system 1 includes a voice data creation unit 28, a call data creation unit 29, and an integrated data creation unit 27.
- the call data creation unit 29 extracts the calls of the worker OP using the voice time series data 37 created by the voice data creation unit 28, and creates call data 38 that associates the extracted calls with elapsed time.
- the integrated data creation unit 27 creates integrated data 36 that arranges the actions included in the action data 32 and the calls included in the call data 38 in chronological order using the elapsed time associated with each.
- the evaluation unit 23 evaluates the proficiency by comparing the integrated data 36 with the reference data 33.
- the voice uttered by the worker OP can also be included in the evaluation, further improving the accuracy of the evaluation.
- the information processing device 10 is disposed near the press-fitting device 60.
- the information processing device 10 may be disposed at a location remote from the press-fitting device 60. Exchange of information between the information processing device 10, the press-fitting device 60, and the mobile terminal device 90 is performed via a network. Therefore, even if the information processing device 10 is disposed at a remote location away from the factory where the press-fitting device 60 is disposed, data can be exchanged by communication via a network including the Internet, for example. Thus, the evaluation of proficiency by the evaluation system 1 can be realized.
- the evaluation unit 23 evaluates the proficiency level using the "missing action” label and the "unnecessary action” label of the evaluation data.
- the evaluation unit 23 may further evaluate the proficiency level using the "evaluated” label and the "duration” label. Specifically, points may be added for actions that have been assigned the “evaluated” label, points may be subtracted for actions that have been assigned the "duration” label, the "missing action” label, or the “unnecessary action” label, and the total value for all actions may be calculated as the proficiency level.
- the evaluation unit 23 can visualize the proficiency level by calculating the proficiency level as a value.
- the voice data emitted by the worker OP is evaluated. Furthermore, the detection value of a motion sensor for detecting the arm movement of the worker OP may be added to the evaluation target. Specifically, a motion sensor similar to the motion sensor 81 is built into a wristband type device worn on the wrist of the worker OP. Then, the motion data creation unit 22 extracts the wrist movement using the detection value of the motion sensor built into the wristband type device. According to this embodiment, the arm movement of the worker OP can also be added to the evaluation target, so that the accuracy of the proficiency evaluation can be further improved.
- the voice data emitted by the worker OP is evaluated. Furthermore, the detection value of a sensor built into the power assist suit worn by the worker OP may also be added to the evaluation target.
- the power assist suit is a device that supports the movement of the worker OP, for example, the movement of the waist.
- the sensor built into the power assist suit detects the angle of the waist of the worker OP. Therefore, according to this embodiment, the waist movement of the worker OP can also be added to the evaluation target, so that the evaluation of the proficiency level can be performed in more detail.
- the press-fitting device 60 is exemplified as the device.
- the device is not limited to the press-fitting device 60.
- the evaluation system 1 can be applied to a device that requires operation by the worker OP in the process. Furthermore, the evaluation system 1 is more preferably applied to the evaluation of the worker OP who operates a machine tool, for example, whose process time and processing quality vary depending on the proficiency of the worker OP.
- the actions of changing the direction of the face such as "display confirmation" and "work confirmation" are exemplified as the actions, but are not limited to this.
- the actions of the worker OP that change the position of the head can be included in the evaluation target.
- the actions that change the position of the head can be extracted using the detection value of the acceleration sensor of the motion sensor 81.
- the method of determining the start time and the duration of the action may be determined according to the type of action. That is, for example, in the case of walking, the walking action itself may be extracted as the action, and the action of placing the work W after walking may be extracted.
- the evaluation system 1 may further include a proficiency evaluation unit that evaluates changes in proficiency.
- the evaluation system 1 further includes a sensor that detects the pulse rate of the worker OP and a sensor that detects temperature and humidity.
- the evaluation unit 23 continuously evaluates the proficiency of the same worker OP, for example, every day for a week. For the same worker OP, the proficiency is unlikely to change significantly in a short period of time. Therefore, when the proficiency changes significantly, it is assumed that the physical condition of the worker OP is deteriorating or the temperature and humidity are not appropriate. Therefore, the proficiency evaluation unit obtains the amount of change in the proficiency, and if it is greater than a predetermined standard amount of change, it determines whether the pulse, temperature, and humidity are outside the standard range.
- the proficiency evaluation unit determines that the pulse, temperature, and humidity are outside the standard range, it transmits an alarm to, for example, an information processing device managed by the supervisor of the worker OP.
- the change in proficiency may be the change in a numerical value that quantifies the proficiency, as in (D2) above, or the change in the length of the target period of the motion data 32, or the change in the motion time of the motion in the motion data 32.
- step S34 and step S52 are performed in the evaluation process, but only one of the processing steps may be performed.
- step S34 it is possible to determine that the motion data 32 does not contain a necessary motion.
- step S52 it is possible to determine that the motion data 32 contains an unnecessary motion.
Landscapes
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Engineering & Computer Science (AREA)
- Strategic Management (AREA)
- Development Economics (AREA)
- Economics (AREA)
- Entrepreneurship & Innovation (AREA)
- Educational Administration (AREA)
- Operations Research (AREA)
- Marketing (AREA)
- Game Theory and Decision Science (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Factory Administration (AREA)
Abstract
Description
本開示は、評価システムおよび評価方法に関する。 This disclosure relates to an evaluation system and an evaluation method.
ワークを加工する例えば工作機械などの装置を用いた加工工程には、作業者が行う工程がある。具体的に作業者が行う工程には、例えば、ワークを工作機械に設置する工程や、ワークの加工状況を確認して加工条件を変更する工程などがある。このため、作業者の習熟度によって、加工工程に費やした工程時間や加工の品質などが変動する。そこで、作業者の習熟度を上げるための訓練を支援する技術や作業者の習熟度を判定する技術が提案されている(例えば、特許文献1)。特許文献1の技術では、作業者が装置に対して行った操作の記録を用いて、訓練の支援などが行われる。 In the machining process using equipment such as machine tools to process workpieces, there are steps that are performed by workers. Specific steps that are performed by workers include, for example, placing the workpiece on the machine tool and checking the machining status of the workpiece and changing the machining conditions. For this reason, the process time spent in the machining process and the quality of the machining vary depending on the worker's proficiency. As a result, technology has been proposed to support training to improve worker proficiency and technology to determine the worker's proficiency (for example, Patent Document 1). The technology in Patent Document 1 supports training by using records of operations performed by workers on the equipment.
しかしながら、習熟度の低い作業者の場合、作業者が行った操作が適切である場合であっても、工程時間が熟練者よりも長くなる場合がある。そこで、習熟度を精度良く評価できる技術が求められている。 However, in the case of workers with low proficiency, even if the operations performed by the workers are appropriate, the process time may be longer than that of an expert worker. Therefore, there is a demand for technology that can accurately evaluate proficiency.
本開示は、以下の形態として実現することが可能である。 This disclosure can be realized in the following forms:
(1)本開示の一形態によれば、評価システムが提供される。この評価システムは、作業者の頭部に装着されるセンサであって、前記頭部の動作を検出するためのセンサと、前記作業者が装置を操作している期間における、前記センサから出力される検出値を取得して、取得した前記検出値と評価対象となる対象期間の開始時刻からの経過時間とを対応付けたセンサデータを作成するセンサデータ作成部と、前記センサデータを用いて前記動作を抽出し、抽出した前記動作と前記経過時間とを対応付けた動作データを作成する動作データ作成部と、前記動作データを用いて、前記作業者の習熟度を評価する評価部と、を備える。この形態によれば、作業者の頭部の動作のデータを用いて評価することで、習熟度を精度良く評価することができる。
(2)上記形態の評価システムにおいて、前記評価部は、前記対象期間における前記動作の基準となる基準動作が時系列に並ぶ予め定められた基準データと、前記動作データとを比較することにより、前記習熟度を評価してもよい。この形態によれば、基準データと動作データとを比較することによって、習熟度を評価することができる。
(3)上記形態の評価システムにおいて、前記基準データには、前記基準動作が複数含まれ、前記動作データには、前記動作が複数含まれ、前記基準データに含まれる前記複数の基準動作のそれぞれには、予め定められた動作種別が付与されており、前記動作データ作成部は、前記動作データに含まれる前記複数の動作のそれぞれに前記動作種別を対応付け、前記評価部は、前記基準データに含まれる前記複数の基準動作のそれぞれを、前記動作データに含まれる前記複数の動作のうち、少なくとも前記動作種別が一致する前記動作に対応付けられるか否かを判断する判断処理と、前記判断処理において、対応付けられないと判断した場合に、対応付けられないと判断した前記基準データの前記基準動作に第1動作ラベルを付与する第1付与処理と、前記判断処理において、前記動作データの前記複数の動作のうち、前記基準データの前記複数の基準動作のいずれにも対応付けられなかった前記動作に第2動作ラベルを付与する第2付与処理と、の少なくともいずれか一方を行い、前記第1動作ラベルの付与状況と、前記第2動作ラベルの付与状況との少なくともいずれか一方を用いて、前記習熟度を評価してもよい。この形態によれば、習熟度の評価を精度良く行うことができる。第1動作ラベルが付与された動作は、必要な動作にも拘わらず、作業者が行わなかった動作であることを示す。そして、第2動作ラベルが付与された動作とは、作業者が行った不要な動作であることを示す。よって、第1動作ラベルと、第2動作ラベルとのそれぞれの付与状況を用いて、習熟度を評価することより、評価を精度良く行うことができる。
(4)上記形態の評価システムにおいて、前記基準データは、前記習熟度の高い前記作業者である熟練者が前記装置を操作している期間に取得された前記センサデータを用いて作成された前記動作データであってもよい。この形態によれば、習熟度の高い作業者が操作した期間に取得されたセンサデータを基準データとして用いることができる。よって、実際を反映したデータを基準データにすることができる。
(5)上記形態の評価システムにおいて、前記動作データには、前記動作が複数含まれ、前記評価部は、前記動作データに含まれる前記複数の動作のそれぞれの動作について、前記動作の動作開始から動作終了までの動作時間が、予め定められた基準動作時間より長い場合に、前記動作に第1時間ラベルを付す第1時間評価処理と、前記動作データに含まれる前記複数の動作のうち1つの対象動作と、前記対象動作の次の動作までの動作間隔が、予め定められた基準動作間隔より長い場合に、前記対象動作に第2時間ラベルを付す第2時間評価処理と、の少なくともいずれか一方を行い、前記第1時間ラベルと、前記第2時間ラベルとのそれぞれの付与状況を用いて、前記習熟度を評価してもよい。この形態によれば、習熟度の評価を精度良くに行うことができる。第1時間ラベルが付与された動作は、動作自体に時間がかかっている動作であることを示す。そして、第2時間ラベルが付与された動作とは、この動作を行った後、次の動作を開始するまでに時間がかかっている動作であることを示す。よって、第1動作ラベルの付与状況と、第2動作ラベルの付与状況との少なくともいずれか一方を用いて、習熟度を評価することより、評価を精度良く行うことができる。
(6)上記形態の評価システムにおいて、前記装置は、前記作業者からの操作を受け付ける受付部を備え、前記評価システムは、前記対象期間における、前記受付部が受け付けた前記操作の情報である操作情報と、前記経過時間とを対応付けた操作情報データを取得する操作情報取得部と、をさらに備え、前記操作情報データは、前記操作情報を複数含み、前記評価部は、前記操作情報データを用いて、前記動作データを前記複数の操作情報のそれぞれの操作情報を区切りとして、複数の区間に区切り、前記複数の区間のそれぞれを対象の区間に設定して評価を行ってもよい。この形態によれば、区間ごとに評価を行うことができるため、評価の精度をさらに向上させることができる。
(7)上記形態の評価システムにおいて、音データを音に変換する音変換部と、表示データを用いて情報を表示する表示部との少なくともいずれか一方と、前記センサデータを用いて前記動作を抽出し、抽出した前記動作と、前記対象期間における前記動作の基準となる基準動作が時系列に並ぶ予め定められた基準データとを比較することにより、前記作業者が次に行うべき前記基準動作である次の基準動作を決定する決定部と、前記決定部が決定した前記次の基準動作の指示を行う前記音データを前記音変換部に出力する第1出力処理と、前記次の基準動作の指示を行う前記情報を含む前記表示データを前記表示部に出力する第2出力処理と、の少なくともいずれか一方を行う出力部と、をさらに備えてもよい。この形態によれば、初心者の作業者に対して訓練を行うことができる。
(8)上記形態の評価システムにおいて、前記作業者の耳に装着される耳装着型装置をさらに備え、前記耳装着型装置は、音データを取得するデータ取得部と、取得した前記音データを音に変換して前記耳に向けて発する音変換部と、を有し、前記センサは、前記耳装着型装置に内蔵されていてもよい。この形態によれば、耳装着型装置に内蔵されたセンサを評価に用いることができる。
(9)上記形態の評価システムにおいて、前記作業者が発した音声を音声データとして取得するためのマイクロフォンと、前記対象期間における、前記マイクロフォンが取得した前記音声データを取得して、取得した前記音声データと前記経過時間とを対応付けた音声経時データを作成する音声データ作成部と、前記音声経時データを用いて前記作業者の喚呼を抽出し、抽出した前記喚呼と前記経過時間とを対応付けた喚呼データを作成する喚呼データ作成部と、前記動作データに含まれる前記動作と、前記喚呼データに含まれる前記喚呼とを、それぞれに対応付けられた前記経過時間を用いて、時系列に並べた統合データを作成する統合データ作成部と、をさらに備え、前記基準データは、前記対象期間における前記喚呼の基準となる基準喚呼とをさらに含み、前記基準動作と前記基準喚呼とが時系列に並び、前記評価部は、前記統合データと、前記基準データとを比較することにより、前記習熟度を評価してもよい。この形態によれば、作業者が発した音声も評価対象に加えることができるため、評価をより詳細に行うことができる。
本開示は、種々の形態で実現することが可能であり、上記の評価システムの他に、例えば評価方法、評価プログラムなどの形態で実現することができる。
(1) According to one embodiment of the present disclosure, an evaluation system is provided. The evaluation system includes a sensor attached to the head of a worker for detecting a motion of the head, a sensor data creation unit that acquires a detection value output from the sensor during a period in which the worker operates a device and creates sensor data in which the acquired detection value is associated with an elapsed time from a start time of a target period to be evaluated, an action data creation unit that uses the sensor data to extract the motion and creates action data in which the extracted motion is associated with the elapsed time, and an evaluation unit that uses the action data to evaluate the proficiency of the worker. According to this embodiment, the proficiency can be evaluated with high accuracy by using the data of the head motion of the worker for evaluation.
(2) In the evaluation system of the above aspect, the evaluation unit may evaluate the proficiency by comparing the motion data with predetermined reference data in which reference motions serving as a standard for the motion during the target period are arranged in chronological order. According to this aspect, the proficiency can be evaluated by comparing the reference data with the motion data.
(3) In the evaluation system of the above aspect, the reference data includes a plurality of reference actions, the action data includes a plurality of the actions, and each of the plurality of reference actions included in the reference data is assigned a predetermined action type, and the action data creation unit associates the action type with each of the plurality of actions included in the action data, and the evaluation unit performs at least one of a determination process of determining whether each of the plurality of reference actions included in the reference data can be associated with at least one of the plurality of actions included in the action data having the same action type as the plurality of actions included in the action data, a first assignment process of assigning a first action label to the reference action of the reference data determined not to be associated with the reference action determined not to be associated with the reference action in the determination process when it is determined that the action cannot be associated with the reference action in the determination process, and a second assignment process of assigning a second action label to the action of the plurality of actions of the action data that cannot be associated with any of the plurality of reference actions of the reference data in the determination process, and may evaluate the proficiency level using at least one of an assignment status of the first action label and an assignment status of the second action label. According to this embodiment, the proficiency level can be evaluated with high accuracy. An action to which the first action label is assigned indicates an action that was not performed by the worker, even though it was necessary. Meanwhile, an action to which the second action label is assigned indicates an unnecessary action performed by the worker. Therefore, by evaluating the proficiency level using the assignment status of each of the first action label and the second action label, the evaluation can be performed with high accuracy.
(4) In the evaluation system of the above aspect, the reference data may be the operation data created using the sensor data acquired during a period in which the highly skilled worker is operating the device. According to this aspect, the sensor data acquired during a period in which the highly skilled worker operates the device can be used as the reference data. Thus, data reflecting the actual situation can be used as the reference data.
(5) In the evaluation system of the above embodiment, the motion data includes a plurality of the motions, and the evaluation unit performs at least one of a first time evaluation process of attaching a first time label to each of the motions included in the motion data when the motion time from the start of the motion to the end of the motion is longer than a predetermined reference motion time, and a second time evaluation process of attaching a second time label to the target motion when the motion interval between a target motion among the motions included in the motion data and the next motion of the target motion is longer than a predetermined reference motion interval, and may evaluate the proficiency using the attachment status of each of the first time label and the second time label. According to this embodiment, the proficiency can be evaluated with high accuracy. A motion to which the first time label is attached indicates that the motion itself takes a long time. And a motion to which the second time label is attached indicates that it takes a long time to start the next motion after performing this motion. Therefore, by evaluating the proficiency level using at least one of the attachment status of the first action label and the attachment status of the second action label, the evaluation can be performed with high accuracy.
(6) In the evaluation system of the above embodiment, the device includes a reception unit that receives an operation from the worker, and the evaluation system further includes an operation information acquisition unit that acquires operation information data that associates the operation information, which is information on the operation received by the reception unit, with the elapsed time during the target period, and the operation information data includes a plurality of pieces of the operation information, and the evaluation unit may use the operation information data to divide the motion data into a plurality of sections using each piece of the operation information as a separator, and set each of the plurality of sections as a target section to perform evaluation. According to this embodiment, evaluation can be performed for each section, and the accuracy of the evaluation can be further improved.
(7) The evaluation system of the above embodiment may further include at least one of a sound conversion unit that converts sound data into sound and a display unit that displays information using display data, a determination unit that extracts the motion using the sensor data and determines a next reference motion that is the reference motion to be performed next by the worker by comparing the extracted motion with predetermined reference data in which reference motions that are standards for the motions in the target period are arranged in chronological order, and an output unit that performs at least one of a first output process that outputs the sound data that instructs the next reference motion determined by the determination unit to the sound conversion unit and a second output process that outputs the display data including the information that instructs the next reference motion to the display unit. According to this embodiment, training can be provided to novice workers.
(8) The evaluation system of the above aspect may further include an ear-worn device to be worn on the ear of the worker, the ear-worn device having a data acquisition unit that acquires sound data and a sound conversion unit that converts the acquired sound data into sound and emits the sound toward the ear, and the sensor may be built into the ear-worn device. According to this aspect, the sensor built into the ear-worn device can be used for evaluation.
(9) The evaluation system of the above embodiment further includes a microphone for acquiring the voice uttered by the worker as voice data, a voice data creation unit for acquiring the voice data acquired by the microphone during the target period and creating voice time series data in which the acquired voice data is associated with the elapsed time, a call data creation unit for extracting the calls of the worker using the voice time series data and creating call data in which the extracted calls are associated with the elapsed time, and an integrated data creation unit for creating integrated data in which the actions included in the action data and the calls included in the call data are arranged in chronological order using the elapsed time associated with each of them, wherein the reference data further includes a reference call that is a reference for the calls during the target period, the reference actions and the reference calls are arranged in chronological order, and the evaluation unit evaluates the proficiency by comparing the integrated data with the reference data. According to this embodiment, the voice uttered by the worker can also be added to the evaluation target, so that the evaluation can be performed in more detail.
The present disclosure can be realized in various forms, and in addition to the above-mentioned evaluation system, it can be realized in the form of, for example, an evaluation method, an evaluation program, etc.
A.第1実施形態:
A1.評価システムの構成:
図1は、評価システム1の概略構成を示す説明図である。図1に示す評価システム1は、装置としての圧入装置60を操作する作業者OPの習熟度を評価するためのシステムである。図1には、互いに直交する上下方向と、前後方向と、左右方向とが示されている。各方向は、作業者OPを基準とする方向である。
A. First embodiment:
A1. Evaluation system configuration:
Fig. 1 is an explanatory diagram showing a schematic configuration of an evaluation system 1. The evaluation system 1 shown in Fig. 1 is a system for evaluating the proficiency of an operator OP who operates a press-
図1に示すように、評価システム1は、情報処理装置10と、耳装着型装置80と、携帯端末装置90とを備える。本実施形態では、情報処理装置10は、圧入装置60の付近に配置されている。耳装着型装置80は、作業者OPの頭部に装着される。耳装着型装置80は、作業者OPの両耳のそれぞれに装着される一対の筐体80aを有する。本実施形態では、耳装着型装置80は、イヤホン型であり、一対の筐体80aのそれぞれは、耳の穴に挿入可能な形状を有する。耳装着型装置80は、作業者OPの頭部の動作を検出するために用いられる。なお、耳装着型装置80の形状は、イヤホン型に限定されず、ヘッドフォン型でもよい。
As shown in FIG. 1, the evaluation system 1 includes an
本実施形態では、携帯端末装置90は、作業者OPに携帯される。なお、作業者OPは、圧入装置60付近で作業するため、携帯端末装置90は、作業者OPに携帯される場合に限られず、圧入装置60付近に配置されてもよい。携帯端末装置90は、耳装着型装置80と、情報処理装置10との通信を仲介する。
In this embodiment, the mobile
圧入装置60は、ワークWに圧入加工を行う装置である。ワークWは、被圧入部品Waと圧入部品Wbとを含む。圧入加工では、被圧入部品Waに圧入部品Wbが圧入される。圧入装置60は、受付部61と、固定部62と、可動部63とを有する。可動部63は、固定部62の上方に配置されている。可動部63は、上下方向に沿って移動可能に構成されている。具体的には、可動部63は、下降することにより固定部62に近づき、上昇することにより固定部62から遠ざかる。可動部63は、図示しない、圧入装置60が備えるモータの駆動力によって移動する。固定部62に配置されたワークWの上から可動部63が下降してワークWを押し付けることにより、圧入加工が行われる。受付部61は、タッチパネル61aと、操作ボタン61bとを有する。タッチパネル61aは、情報を表示する表示機能と、操作を受け付ける受付機能とを有する。操作ボタン61bは、例えば、電源ボタンなどの押しボタンである。
The press-fitting
図2は、評価システム1の構成を示すブロック図である。図2に示すように、情報処理装置10は、プロセッサ20と、記憶部30とを有するコンピュータとして構成されている。プロセッサ20は、記憶部30に記憶されているプログラムを実行することにより、種々の処理を行う。プロセッサ20は、機能部として、センサデータ作成部21と、動作データ作成部22と、評価部23と、決定部24と、出力部25とを有する。各機能部は、記憶部30に記憶されているプログラムを実行することによって実現される。記憶部30は、RAMやROMなどのメモリによって実現される。記憶部30には、センサデータ31と、動作データ32と、基準データ33と、評価用プログラム34と、訓練用プログラム35とが記憶される。
FIG. 2 is a block diagram showing the configuration of the evaluation system 1. As shown in FIG. 2, the
情報処理装置10は、さらに通信部40を備える。通信部40は、LAN(Local Area Network)などのネットワークを介して、携帯端末装置90などの外部装置と通信を行う。
The
耳装着型装置80は、図1に示す一対の筐体80aの各々に、図2に示すセンサとしてのモーションセンサ81と、音変換部82と、マイクロフォン83と、通信部84とが内蔵されている。なお、モーションセンサ81と、マイクロフォン83とのそれぞれは、一対の筐体80aの両方に内蔵されていてもよく、いずれか一方の筐体80aに内蔵されていてもよい。
The ear-worn
モーションセンサ81は、作業者OPの頭部の動作を検出する。具体的には、モーションセンサ81は、汎用の所謂6軸モーションセンサである。具体的には、モーションセンサ81は、3軸の加速度センサと、3軸の角速度センサとを含む。モーションセンサ81は、3軸のそれぞれの加速度[m/s2]と、3軸のそれぞれの角速度[deg/s]とを検出する。
The
図3は、モーションセンサ81による検出を説明する図である。図3に示すように、モーションセンサ81が加速度および角速度を検出する3軸とは、具体的には、互いに直交する、ヨー軸、ロール軸、ピッチ軸である。ヨー軸は、作業者OPを基準とする上下方向に平行な軸である。ロール軸は、作業者OPを基準とする前後方向に平行な軸である。ピッチ軸は、作業者OPを基準とする左右方向に平行な軸である。モーションセンサ81は、ヨー軸の加速度について、作業者OPが頭を上に移動させた場合にプラスの値を出力し、作業者OPが頭を下に移動させた場合にマイナスの値を出力する。モーションセンサ81は、ロール軸の加速度について、作業者OPが頭を前に移動させた場合にプラスの値を出力し、作業者OPが頭を後ろに移動させた場合にマイナスの値を出力する。モーションセンサ81は、ピッチ軸の加速度について、作業者OPが顔を左に移動させた場合にプラスの値を出力し、作業者OPが頭を右に移動させた場合にマイナスの値を出力する。モーションセンサ81は、ヨー軸の角速度について、作業者OPが顔を右に向けた場合にプラスの値を出力し、作業者OPが顔を左に向けた場合にマイナスの値を出力する。モーションセンサ81は、ロール軸の角速度について、作業者OPが頭を左に傾けた場合にプラスの値を出力し、作業者OPが頭を右に傾けた場合にマイナスの値を出力する。モーションセンサ81は、ピッチ軸の角速度について、作業者OPが顔を下に向けた場合にプラスの値を出力し、作業者OPが顔を上に向けた場合にマイナスの値を出力する。よって、3軸のそれぞれの加速度の変化と、角速度の変化とから頭部の動作を検出することができる。
3 is a diagram for explaining detection by the
図2に示す音変換部82は、電気信号である音データを音に変換して作業者OPの耳に向けて発する。マイクロフォン83は、音を電気信号である音データに変換する。詳細には、マイクロフォン83は、作業者OPが発した音声を音声データに変換して取得する。マイクロフォン83は、取得した音声データを通信部84に出力する。通信部84は、携帯端末装置90と、短距離通信を行う。本実施形態では、通信部84と、携帯端末装置90とは、Bluetooth(登録商標)に則り通信を行う。通信部84は、機能部として、データ取得部85と、データ出力部86とを有する。データ取得部85は、外部から送信された音データを受信して、受信した音データを音変換部82に出力する。データ出力部86は、マイクロフォン83から出力される音データを外部に送信する。通信部84は、電子回路などにより実現される。
The
本実施形態では、携帯端末装置90は、スマートフォンである。携帯端末装置90は、通信部91を有する。携帯端末装置90の通信部91は、耳装着型装置80の通信部84と近距離通信を行うとともに、通信部40とネットワークを介した通信を行う。なお、耳装着型装置80と、携帯端末装置90との通信は、無線通信に限られず、有線通信により行われてもよい。
In this embodiment, the mobile
本実施形態では、耳装着型装置80と、情報処理装置10とが通信する場合に、携帯端末装置90が介在した通信が行われる。他の実施形態として、情報処理装置10の通信部40は近距離通信を行う機能を有し、通信部40は耳装着型装置80の通信部84と、携帯端末装置90を介在せずに近距離通信を行ってもよい。また、耳装着型装置80の通信部84はネットワークを介した通信を行う機能を有し、通信部84は携帯端末装置90を介在せずに、通信部40とネットワークを介した通信を行ってもよい。
In this embodiment, when the ear-worn
圧入装置60は、上記構成に加え、プロセッサ65と、記憶部66と、通信部68とを有する。記憶部66には、操作情報データ67を作成するためのプログラムが予め記憶されている。プロセッサ65は、記憶部66に記憶されているプログラムを実行することにより、操作情報データ67を作成する。操作情報データ67は、受付部61によって受け付けた操作の情報である操作情報と、受け付けた時刻とが関連付けられた情報である。本明細書において、「時刻」とは、日付を含む時刻を指す。プロセッサ65は、受付部61が操作を受け付けると、受け付けた操作の情報と、受け付けた時刻とを関連付けて操作情報データ67を作成する。そして、プロセッサ65は、作成した操作情報データ67を記憶部66に記憶させる。受付部61によって受け付けた操作には、具体的には、可動部63を下降させるための下降ボタンの状態をオフ状態からオン状態に変更する操作や、タッチパネル61aを操作して、可動部63の下降速度を設定する操作がある。なお、下降ボタンは、操作ボタン61bに含まれる。通信部64は、情報処理装置10と、ネットワークを介した通信を行う。
In addition to the above configuration, the press-fitting
A2.評価システムの機能:
評価システム1は、評価機能と、訓練機能とを有する。評価機能とは、作業者OPが、圧入装置60を用いた作業を行った後に作業の習熟度を評価する機能である。訓練機能とは、作業者OPが、圧入装置60を用いた作業についての訓練を支援する機能である。
A2. Rating system functions:
The evaluation system 1 has an evaluation function and a training function. The evaluation function is a function for evaluating the proficiency of an operator OP after the operator OP performs work using the press-in
A3.評価機能の概要:
評価システム1による評価は、作業者OPにより、圧入工程が行われた後に行われる。図4は、圧入工程の作業手順を示すフローチャートである。図1に示すように、作業者OPは、可動部63とワークWとの状態を目視で確認できる位置に立ち、移動せずに、受付部61を操作して作業を行う。圧入工程では、可動部63が、ワークWに接する直前の位置まで速度を落として下降した後に、圧入のため、速度を上げてさらに下降するように作業者OPにより操作される。
A3. Overview of evaluation function:
The evaluation by the evaluation system 1 is performed after the press-in process is performed by the worker OP. Fig. 4 is a flowchart showing the procedure of the press-in process. As shown in Fig. 1, the worker OP stands at a position where the state of the
圧入装置60は、圧入工程の開始前に、可動部63が、固定部62に対して上方の離れた位置に位置している状態に予め設定されている。図4のステップS10において、作業者OPは、固定部62の予め規定されている基準位置にワークWを配置する。ステップS12において、作業者OPは、可動部63の下降速度が予め規定されている第1速度に設定されているかを、タッチパネル61aを見て確認する。ステップS14において、作業者OPは、ワークWが基準位置に配置されているかを、ワークWを見て確認する。ステップS16において、作業者OPは、受付部61の操作ボタン61bの一つである下降スイッチをオン状態に設定して、可動部63を第1速度にて下降させる。
Before the press-in process begins, the press-in
ステップS18において、作業者OPは、ワークWを見て、可動部63が停止位置まで下降したことを確認する。ここで、停止位置とは、可動部63が、ワークWに接する手前の位置であり、可動部63とワークWとの距離が数センチ程度の位置である。
In step S18, the worker OP looks at the workpiece W and confirms that the
ステップS20において、作業者OPは、受付部61を操作して、下降スイッチをオフ状態に設定して、可動部63の速度を第1速度よりも大きい第2速度に変更する。ステップS22において、作業者OPは、下降スイッチをオン状態に設定して、可動部63をさらに下降させて、被圧入部品Waに圧入部品Wbを圧入させる。なお、圧入装置60は、可動部63が受ける圧力が予め設定された圧力に達してから、予め設定された時間経過した場合に、可動部63の固定部62およびワークWに対する加圧が停止されるように予め設定されている。可動部63による加圧が停止されて、圧入工程は終了する。
In step S20, the worker OP operates the
図2に示すセンサデータ作成部21は、モーションセンサ81から出力される検出値を取得して、取得した検出値と対象期間の開始時刻からの経過時間とを対応付けたセンサデータ31を作成するセンサデータ作成工程を行う。ここで、対象期間とは、作業者OPが圧入工程を行う期間のうち、習熟度の評価対象となる期間である。検出値とは、具体的には、上記の3軸のそれぞれの角速度と、3軸それぞれの加速度である。そして、センサデータ作成部21は、作成したセンサデータ31を記憶部30に記憶させる。本実施形態では、ステップS12からステップS16までの期間が対象期間である。
The sensor
A4.評価機能の詳細:
図5は、対象期間開始時の作業者OPの位置と向きとを説明する図である。評価システム1を用いた評価が行われる場合、作業者OPは、ステップS10を行った後、図5に示すように、圧入装置60の正面と対向した状態で、受付部61を操作可能な基準位置に立つ。作業者OPが頭部を傾けずに基準位置に立った状態で、モーションセンサ81の各検出値の値は、基準値、すなわちゼロに設定される。
A4. Details of evaluation function:
5 is a diagram for explaining the position and orientation of the operator OP at the start of the target period. When evaluation is performed using the evaluation system 1, the operator OP performs step S10, and then stands in a reference position where the operator can operate the
評価システム1の管理者は、情報処理装置10にて、評価用プログラム34を開始させる。評価用プログラム34によって、情報処理装置10の表示ディスプレイに表示される評価開始時刻を入力するGUI(Graphical User Interface)が表示される。管理者は、評価開始時刻を入力するGUIに開示時刻を入力するとともに、作業者OPに作業開始を指示する。評価用プログラム34は、GUIに入力された開始時刻を記憶部30に記憶させる。
The administrator of the evaluation system 1 starts the
作業開始を指示されると、作業者OPは、ステップS12からステップS16までの作業を行う。管理者は、ステップS16が行われた後、評価用プログラム34によって、情報処理装置10の表示ディスプレイに表示される評価終了時刻を入力するGUIに、終了時刻を入力する。評価用プログラム34は、GUIに入力された終了時刻を記憶部30に記憶させる。管理者は、評価用プログラム34によって情報処理装置10の表示ディスプレイに表示されるGUIである評価開始ボタンを選択する。評価開始ボタンが選択されると、評価用プログラム34は、動作データ作成部22に動作データ32の作成を依頼する。依頼されると、動作データ作成部22は、センサデータ31を用いて動作を抽出し、抽出した動作と経過時間とを対応付けた動作データ32を作成する動作データ作成工程を行う。
When instructed to start work, the worker OP performs steps S12 to S16. After step S16, the administrator inputs the end time into a GUI for inputting the evaluation end time, which is displayed on the display of the
図6は、モーションセンサ81の検出値と、動作データ32とを説明する図である。図6の上段から下段に向かって、順に、ヨー軸の角度と経過時間との関係を示すグラフと、ピッチ軸の角度と経過時間との関係を示すグラフと、ヨー軸の加速度と経過時間との関係を示すグラフと、動作データ32とが示されている。ヨー軸の角度と時間との関係を示すグラフと、ピッチ軸の角度と時間との関係を示すグラフと、ヨー軸の加速度と時間との関係を示すグラフとは、それぞれ横軸が、評価開始時刻を始点とする経過時間が互いに一致するように揃えられている。
FIG. 6 is a diagram explaining the detection values of the
動作データ作成部22は、センサデータ31を用いて動作を抽出する。本実施形態では、作業者OPが行う頭部の動作は、受付部61を見る動作と、ワークWを見る動作との2種類の動作である。このため、動作データ作成部22は、動作の抽出に、ヨー軸の角速度および角度のそれぞれのデータと、ピッチ軸の角速度および角度のそれぞれのデータとを用いる。動作データ作成部22は、モーションセンサ81のヨー軸の角度のデータを、ヨー軸の角速度の検出値を角度に変換して求める。同様に、動作データ作成部22は、モーションセンサ81のピッチ軸の角度のデータを、ピッチ軸の角速度の検出値を角度に変換して求める。
The motion
動作データ作成部22は、ヨー軸の角速度のデータについて、角速度の絶対値が予め定められた第1閾値よりも大きくなる時刻と、角速度の絶対値が予め定められた第2閾値よりも小さくなる時刻とを抽出する。第1閾値は、動作が開始された時刻を抽出するための閾値である。第2閾値は、動作が停止された時刻を抽出するための閾値である。本実施形態では、第1閾値とは、顔を向ける動作開始を抽出するための閾値である。第2閾値とは、顔を向ける動作終了を抽出するための閾値である。第1閾値と第2閾値とは、実験などにより求められた値である。
The motion
本実施形態では、動作データ作成部22は、図6の時刻ts1と、時刻ts2とにおいて、ヨー軸の角速度の絶対値が第1閾値よりも大きくなったと判断する。また、動作データ作成部22は、時刻t1と、時刻t2とで、ヨー軸の角速度の絶対値が第2閾値よりも小さくなったと判断する。
In this embodiment, the motion
次に、動作データ作成部22は、ヨー軸の角速度の絶対値が第2閾値よりも小さくなった時刻に対して、作業者OPが見ている対象物が、タッチパネル61aであるか、ワークWであるかを判別する。具体的には、動作データ作成部22は、時刻t1におけるヨー軸の角度と、ピッチ軸の角度とから、作業者OPが見ている対象物を特定する。作業者OPが受付部61を見る場合には、顔を右上方に向けるため、ヨー軸の角度はプラスの値が出力され、ピッチ軸の角度はマイナスの値が出力される。作業者OPがワークWを見る場合には、顔を左下方に向けるため、ヨー軸の角度はマイナスの値が出力され、ピッチ軸の角度はプラスの値が出力される。
Next, the motion
例えば、時刻t1では、ヨー軸の角度の値はプラスであり、ピッチ軸の角度の値はマイナスである。よって、動作データ作成部22は、時刻ts1から開始された動作は、受付部61を確認する「表示確認」動作であると判断する。また、時刻t2では、ヨー軸の角度の値はマイナスであり、ピッチ軸の角度の値はプラスである。よって、動作データ作成部22は、時刻t2から開始された動作は、ワークWを確認する「ワーク確認」動作であると判断する。このようにして、動作データ作成部22は、抽出した動作について、「表示確認」動作であるか、「ワーク確認」動作であるかを判断する。さらに、動作データ作成部22は、各動作について、動作の開始時刻と、動作期間とを求める。本実施形態では、動作は、受付部61またはワークWを見る動作である。そこで、動作データ作成部22は、受付部61またはワークWを見始めた時刻を動作の開始時刻に決定する。そして、次の動作を開始するまでの時間を動作期間とする。具体的には、「動作1」では、時刻t1が開始時刻であり、時刻t1から時刻ts2までの期間が動作期間である。
For example, at time t1, the angle value of the yaw axis is positive, and the angle value of the pitch axis is negative. Therefore, the motion
以上説明したように、動作データ32とは、動作が時系列に並ぶデータである。そして、動作データ32の各動作には、動作種別と、開始時刻と、動作期間とが対応付けられている。本実施形態では、動作種別とは、「表示確認」および「ワーク確認」である。なお、開始時刻は、現実の時刻ではなく、評価開始時刻からの経過時間により示されていてもよい。
As described above, the
なお、動作データ作成部22が、動作を抽出する方法は上記に限られない。例えば、動作データ作成部22は、角度が予め定められた基準範囲内にある期間を動作期間としてもよい。基準範囲とは、対象物を見るために作業者OPが顔を向けている角度に相当する。基準範囲とは、例えば、+10度以上+20度以下の範囲と、-10度以上-20度以下の範囲とである。
The method by which the motion
動作データ作成部22が、動作データ32の作成を終了すると、作成した動作データ32を記憶部30に記憶し、評価部23に評価処理を行うように依頼する。依頼されると、評価部23は、動作データ32を用いて、評価処理を行う。本実施形態では、評価部23は、動作データ32と、予め記憶されている基準データ33とを比較することにより習熟度を評価する。基準データ33は、動作データ32と同様のデータであり、対象期間における動作の基準となる基準動作が時系列に並ぶ予め定められたデータである。本実施形態では、基準データ33は、動作データ32と同じ方法で作成されたデータである。すなわち、習熟度の高い作業者OPである熟練者が圧入装置60を操作している期間に取得されたセンサデータ31を用いて、動作データ作成部22により作成されたデータである。以下、基準動作を単に「動作」と呼ぶ場合がある。動作データ作成部22は、基準データ33と動作データ32とのそれぞれについて、各動作に時系列に「1」から昇順に番号を付与する。以下の説明において、例えば、番号「1」の動作を「動作1」と呼ぶ。
When the motion
図7は、習熟度の低い作業者OPである初心者のモーションセンサ81の検出値と、熟練者のモーションセンサ81の検出値とを比較する図である。図7は、図6と同様の図である。初心者についての各グラフの横軸の時間と、熟練者についての各グラフの横軸の時間とは、評価開始時刻を始点とする経過時間が互いに一致するように揃えられている。
FIG. 7 is a diagram comparing the detection values of the
図7に示すように、熟練者の対象期間は、初心者の対象期間よりも短い。これは、熟練者は、図4に示す圧入工程にて規定されている処理ステップを行う動作以外の動作を行っていないためである。具体的には、熟練者は、ステップS12に対応する「動作1」と、ステップS14に対応する「動作2」と、ステップS16に対応する「動作3」とを行っている。そこで、初心者の動作データ32を、熟練者の動作データ32と比較することにより、初心者の対象期間が長い原因を解析することができる。
As shown in Figure 7, the target period of an expert is shorter than that of a beginner. This is because the expert does not perform any actions other than the actions of carrying out the processing steps specified in the pressing process shown in Figure 4. Specifically, the expert performs "action 1" corresponding to step S12, "action 2" corresponding to step S14, and "action 3" corresponding to step S16. Therefore, by comparing the
図8は、評価部23が行う評価処理の手順を示すフローチャートである。評価処理により評価方法が実現される。図9は、評価処理を説明する図である。評価処理について、図9に示す場合を例示して説明する。図9では、基準データ33と動作データ32とのそれぞれに含まれる動作は、動作種別である「種別A」と「種別B」とのいずれかの動作種別が対応付けられている。基準データ33と動作データ32とのそれぞれに含まれる動作の順番は図9に示す通りである。例えば、基準データ33では、「動作1」と、「動作2」と、「動作3」とが、この順に行われたことを示す。
FIG. 8 is a flowchart showing the procedure of the evaluation process performed by the
図8のステップS30において、評価部23は、評価処理に用いる変数Nと定数Nsと変数Mと定数Msとを初期値に設定する。具体的に、評価部23は、変数Nと変数Mとをいずれも「1」に設定する。評価部23は、変数Nsを基準データ33に含まれる動作の個数に設定する。評価部23は、変数Msを動作データ32に含まれる動作の個数に設定する。図9の場合、基準データ33は、3つの動作が含まれるため、評価部23は、定数Nsを「3」に設定する。図9の場合、動作データ32は、3つの動作が含まれるため、評価部23は、定数Msを「3」に設定する。
In step S30 of FIG. 8, the
図8の判断処理としてのステップS32において、評価部23は、基準データ33のN番目の動作の動作種別が、動作データ32のM番目の動作の動作種別と一致するか否かを判断する。基準データ33のN番目の動作の動作種別が、動作データ32のM番目の動作の動作種別と一致すると判断した場合、評価部23は、ステップS36において、M番目の動作の動作期間が、基準動作のN番目の動作の動作期間より長いか否かを判断する。M番目の動作の動作期間が、基準動作のN番目の動作の動作期間より長いと判断した場合、評価部23は、ステップS40において、動作データ32のM番目の動作に第1時間ラベルとしての「期間長」ラベルを付与する。M番目の動作に対する評価を終えたため、評価部23は、ステップS42において、変数Mをインクリメントする。
In step S32 as the judgment process of FIG. 8, the
ステップS32において、M番目の動作の動作期間が、基準動作のN番目の動作の動作期間より長くないと判断した場合、評価部23は、ステップS38において、基準データ33のM番目の動作に「評価済み」ラベルを付与して、ステップS42に処理を進める。
If it is determined in step S32 that the motion duration of the Mth motion is not longer than the motion duration of the Nth motion in the reference motion, the
基準データ33のN番目の動作の動作種別が、動作データ32のM番目の動作の動作種別と一致しないと判断した場合、評価部23は、第1付与処理としてのステップS34において、基準データ33のN番目の動作に第2動作ラベルとしての「動作抜け」ラベルを付与する。
If it is determined that the action type of the Nth action in the
評価部23は、ステップS40、またはステップS42を行った後、基準データ33のN番目の動作を用いた評価を終えたため、ステップS44において、変数Nをインクリメントする。
After performing step S40 or step S42, the
ステップS46において、評価部23は、変数Nが定数Ns以上であるか否かを判断する。ステップS46において、変数Nが定数Ns以上でないと判断した場合、基準データ33について、評価を終えていない動作が残っているため、評価部23は、ステップS48において、変数Mは、定数Ms以上であるか否かを判断する。ステップS48において、変数Mが定数Ms以上でないと判断した場合、動作データ32について、評価を終えていない動作が残っているため、評価部23は、ステップS32に処理を戻す。
In step S46, the
ステップS46において、変数Nが定数Ns以上であると判断した場合、基準データ33のすべての動作について、評価を終えたため、評価部23は、ステップS50において、動作データ32のすべての動作にラベルが付与されているか否かを判断する。ステップS50において、動作データ32のすべての動作にラベルが付与されていないと判断した場合、評価部23は、第2付与処理としてのステップS52において、動作データ32のM番目以降の動作に第2動作ラベルとしての「不要動作」ラベルを付与して、本処理ルーチンを終了する。ステップS50において、動作データ32のすべての動作にラベルが付与されていると判断した場合、評価部23は、本処理ルーチンを終了する。
If it is determined in step S46 that the variable N is equal to or greater than the constant Ns, then evaluation of all the movements in the
ステップS48において、変数Mは、定数Ms以上でないと判断した場合、評価部23は、ステップS54において、ステップS50と同様に、動作データ32のすべての動作にラベルが付与されているか否かを判断する。ステップS54において、動作データ32のすべての動作にラベルが付与されていないと判断した場合、評価部23は、ステップS56において、N番目以降の動作に第1動作ラベルとしての「動作抜け」ラベルを付与して本処理ルーチンを終了する。ステップS54において、動作データ32のすべての動作にラベルが付与されていると判断した場合、評価部23は、本処理ルーチンを終了する。
If it is determined in step S48 that the variable M is not equal to or greater than the constant Ms, then in step S54 the
評価処理について、図9を用いて説明を追加する。評価処理を開始して、最初のステップS32では、基準データ33の1番目の動作である「動作1」と、動作データ32の1番目の動作である「動作1」とが比較される。基準データ33の「動作1」の種別と、動作データ32の「動作1」の種別とは、ともに「種別A」であるため、ステップS32において、「YES」と判断される。次に、ステップS36において、動作データ32の「動作1」の動作期間が、基準データ33の「動作1」の動作期間よりも長い場合には、ステップS40において、動作データ32の「動作1」には、「期間長」ラベルが付与される。一方、ステップS36において、動作データ32の「動作1」の動作期間が、基準データ33の「動作1」の動作期間よりも長くない場合には、ステップS38において、動作データ32の「動作1」には、「評価済み」ラベルが付与される。
The evaluation process will be explained further with reference to FIG. 9. After starting the evaluation process, in the first step S32, the first action "action 1" in the
ステップS42で、変数Mが「2」に更新される。ステップS44で、変数Nが「2」に更新される。図9の場合、定数Nsと、定数Msとはいずれも「3」であるため、変数Nが「2」であり、変数Mが「2」がある場合、ステップS46とステップS48とはいずれも「NO」と判断される。 In step S42, the variable M is updated to "2". In step S44, the variable N is updated to "2". In the case of FIG. 9, the constants Ns and Ms are both "3", so if the variable N is "2" and the variable M is "2", both steps S46 and S48 are judged as "NO".
評価処理を開始して、2回目のステップS32では、基準データ33の2番目の動作である「動作2」と、動作データ32の2番目の動作である「動作2」とが比較される。基準データ33の「動作2」の種別は「種別B」であるのに対して、動作データ32の「動作2」の種別は、「種別A」であるため、ステップS32において、「NO」と判断される。よって、ステップS34では、基準データ33の「動作2」に対して「動作抜け」ラベルが付与される。ステップS44では、変数Nが「3」に更新される。
After starting the evaluation process, in the second iteration of step S32, "motion 2", the second motion in
評価処理を開始して、3回目のステップS32では、基準データ33の3番目の動作である「動作3」と、動作データ32の2番目の動作である「動作2」とが比較される。基準データ33の「動作3」の種別と、動作データ32の「動作2」の種別とは、ともに「種別A」であるため、評価処理を開始して、最初の処理フローと同様に、動作データ32の「動作2」には、「期間長」ラベルまたは、「評価済み」ラベルのいずれかが付与される。
In step S32 for the third time after starting the evaluation process, "Movement 3", the third movement in the
ステップS42において、変数Mは、「3」に更新される。ステップS44において、変数Nは、「4」に更新される。よって、ステップS46において、「YES」と判断される。次のステップS50では、動作データ32の「動作3」は、ラベルが付与されていないため、「NO」と判断される。次のステップS52では、動作データ32の「動作3」に「不要動作」ラベルが付与される。
In step S42, the variable M is updated to "3". In step S44, the variable N is updated to "4". Therefore, in step S46, the result is determined to be "YES". In the next step S50, since no label has been assigned to "Action 3" in the
以上説明したように、基準データ33には、工程に必要な動作がすべて含まれているため、基準データ33に含まれる基準動作と、動作データ32に含まれる動作とを時系列に比較することにより、動作データ32に、抜けの動作があるか否か、不要な動作があるか否かを評価することができる。さらに、基準データ33と動作データ32とで動作種別が同じ動作が行われている場合には、動作データ32の動作期間を基準データ33の動作時間と比較することにより、動作に時間がかかっているか否かを評価することができる。
As described above, since the
図7に示される動作データ32の場合、初心者の「動作1」から「動作3」までのそれぞれの動作種別と、熟練者の「動作1」から「動作3」のそれぞれの動作種別とは一致している。しかし、動作データ32の「動作4」と「動作5」とは、基準データ33には含まれていない。よって、図7に示される動作データ32について、評価処理が行われた場合には、「動作4」と「動作5」とが「不要動作」ラベルが付与される。これにより、初心者の対象期間が長い原因が不要な動作を行っていることが原因であると特定することができる。さらに、「動作1」と、「動作2」とは、動作期間が基準データ33に比べて長いため、評価処理が行われた場合には、「動作1」と「動作2」とが「期間長」ラベルが付与される。これにより、初心者は、動作に時間がかかっていることがわかる。
In the case of the
評価部23が評価処理を終了すると、図9に例示する、基準データ33に動作データ32が対応付けられ、各動作にラベルが付与された評価データを、評価用プログラム34に引き渡す。評価用プログラム34は、引き渡された評価データを、情報処理装置10の表示ディスプレイに表示する。なお、評価データの出力方法は、画像データとして出力する形態に限られず、例えば、動作と、ラベルとが対応付けられたテキストデータでもよい。
When the
また、評価部23は、「動作抜け」ラベルの付与状況と、「不要動作」ラベルの付与状況を示す評価データを用いて、作業者OPの習熟度を評価する評価工程を行う。評価部23は、「動作抜け」ラベルまたは「不要動作」ラベルの数が多いほど、習熟度が下がるように評価する。詳細には、評価部23は、「動作抜け」ラベルと、「不要動作」ラベルとのいずれかが付与された動作については減点し、すべての動作について合計した値を習熟度として算出してもよい。また、評価部23は、「動作抜け」ラベルの数と、「不要動作」ラベルの数とを合計して、ラベル数とランクとが対応付けられた対応表を用いて、習熟度としてランクを決定してもよい。
The
A5.評価処理の他の実施形態:
上記の評価処理では、評価部23は、基準データ33と動作データ32とを比較することにより、習熟度を評価する。他の実施形態として、評価部23は、動作データ32に含まれる複数の動作のそれぞれの動作について、動作の動作開始から動作終了までの動作時間が、予め定められた基準動作時間より長い場合に、動作に第1時間ラベルを付す第1時間評価処理を行ってもよい。図6を用いて、具体的に説明する。評価部23は、図6に示す「動作1」の動作期間「TD1」を予め定められた基準動作時間より長い場合に、「動作1」に第1時間ラベルを付す。評価部23は、他の動作についても同様に、第1時間評価処理を行う。なお、基準動作時間は、「動作1」から「動作5」の動作について、共通の時間が設定されていてもよく、互いに異なる時間が設定されていてもよい。
A5. Other embodiments of the evaluation process:
In the above evaluation process, the
また、評価部23は、動作データ32に含まれる複数の動作のうち1つの対象動作と、対象動作の次の動作までの動作間隔が、予め定められた基準動作間隔より長い場合に、対象動作に第2時間ラベルを付す第2時間評価処理を行ってもよい。図6を用いて、具体的に説明する。評価部23は、図6に示す対象動作である「動作1」の終了時刻ts2から、「動作2」の開始時刻t2までの時間が、予め定められた基準動作間隔より長い場合に、「動作1」に第2時間ラベルを付す。評価部23は、他の動作間隔、例えば、「動作1」と「動作2」との間隔についても同様に、第2時間評価処理を行う。なお、基準動作間隔は、複数の動作間隔について、共通の間隔が設定されていてもよく、互いに異なる間隔が設定されていてもよい。第2時間ラベルを付与することにより、第2時間ラベルが付与された動作は、次の動作を行うまでに、時間がかかっていることがわかる。
Furthermore, the
評価部23は、上記の評価工程と同様に、第1時間ラベルの付与状況と、第2時間ラベルの付与状況を示す評価データを用いて、作業者OPの習熟度を評価する評価工程を行う。すなわち、評価部23は、第1時間ラベルまたは第2時間ラベルの数が多いほど、習熟度が下がるように評価する。
The
作業者OPの習熟度が低い場合には、工程の手順を円滑に進めることができず、動作時間が大幅に長い、あるいは、次の動作を行うのに時間が長くかかる場合がある。このような場合には、第1時間評価処理や第2時間評価処理を行うことにより、評価をより簡易に行うことができる。なお、評価部23は、第1時間評価処理と第2時間評価処理とのいずれか一方のみを行ってもよい。
If the worker OP has a low level of proficiency, the steps of the process cannot be carried out smoothly, and the operation time may be significantly long, or it may take a long time to perform the next operation. In such cases, the evaluation can be made more easily by performing the first time evaluation process or the second time evaluation process. Note that the
A6.訓練機能の詳細:
評価システム1による訓練は、作業者OPに対して、次に行うべき工程の指示が音変換部82から音声で出力される。上記した評価機能の場合には、作業者OPによる圧入工程が終了した後に、センサデータ作成部21は、動作データ32を作成する。対して、訓練機能では、作業者OPが作業している期間、逐次、センサデータ31の作成が決定部24により、行われる。決定部24は、センサデータ作成部21と同様に、センサデータ31を用いて動作を抽出する。そして、決定部24は、抽出した動作と、基準データ33とを比較することにより、作業者OPが次に行うべき動作である次の動作を決定する。なお、訓練機能において用いられる基準データ33には、対象期間だけではなく、工程にて行われるすべての動作が含まれる。
A6. Training function details:
In training by the evaluation system 1, instructions for the next process to be performed are output to the worker OP by voice from the
図10は、訓練処理の手順を示すフローチャートである。作業者OPは、訓練を開始する場合に、情報処理装置10にて、訓練用プログラム35を開始する。訓練用プログラム35は、出力部25に、ステップS60を行うように依頼する。
FIG. 10 is a flowchart showing the procedure of the training process. When starting training, the worker OP starts the
ステップS60において、出力部25は、基準データ33の最初の動作を指示する。具体的には、出力部25は、次の動作を指示するメッセージの音データとしての音声データを耳装着型装置80に送信する。これにより、耳装着型装置80の音変換部82から指示の音声が出力される。作業者OPは、音声による指示を聞き、最初の動作を行う。
In step S60, the
ステップS62において、決定部24は、作業者OPの動作が開始されたか否かを判断する。具体的には、決定部24は、ヨー軸の角速度が第1閾値よりも大きくなったと判断した場合に、作業者OPによる動作が開始されたと判断する。
In step S62, the
ステップS62において、動作が開始されていないと判断すると、決定部24は、動作を開始したと判断するまで、予め定められた時間毎に、ステップS62を繰り返し実行する。予め定められた時間とは、例えば、数msである。
If it is determined in step S62 that the operation has not started, the
ステップS62において、動作が開始されたと判断すると、決定部24は、ステップS64において、動作の種別を特定する。具体的には、動作データ作成部22と同様に、決定部24は、ヨー軸の角速度および角度と、ピッチ軸の角速度および角度とを用いて、動作種別を特定する。
If it is determined in step S62 that a motion has been started, the
ステップS66において、決定部24は、特定した動作が、基準データ33の動作と一致しているか否かを判断する。具体的に、決定部24は、基準データ33の動作の最初の動作から順に比較する。決定部24は、特定した動作種別が、基準データ33の比較対象の動作の動作種別と一致する場合に、特定した動作が、基準データ33の動作と一致すると判断する。対して、決定部24は、特定した動作種別が、基準データ33の比較対象の動作の動作種別と一致しない場合に、特定した動作が、基準データ33の動作と一致しないと判断する。基準データ33の動作と一致していないと判断した場合には、決定部24は、出力部25にステップS68を行うように依頼する。ステップS68において、出力部25は、基準データ33の基準の動作の指示を行う音声データを音変換部82に出力する。具体的には、出力部25は、基準の動作を指示するメッセージの音声データを耳装着型装置80に送信する。これにより、耳装着型装置80の音変換部82から指示の音声が出力される。作業者OPは、音声による指示を聞き、基準の動作を行う。出力部25は、ステップS68を行った後、決定部24は、ステップS62に処理を戻す。
In step S66, the
ステップS66において、基準データ33の動作と一致していると判断した場合、決定部24は、第1出力処理としてのステップS70において、工程が終了したか否かを判断する。ステップS70において、工程が終了してないと判断した場合、決定部24は、出力部25にステップS72を行うように依頼する。出力部25は、第1出力処理としてのステップS72において、基準データ33の次の動作を指示する。具体的には、出力部25は、基準の次の動作を指示するメッセージの音声データを耳装着型装置80に送信する。これにより、耳装着型装置80の音変換部82から指示の音声が出力される。出力部25は、ステップS72を行った後、決定部24は、ステップS62に処理を戻す。ステップS70において、工程が終了したと判断した場合、決定部24は、本処理ルーチンを終了する。評価用プログラム34は、決定部24が訓練処理を終了すると、情報処理装置10の表示ディスプレイに訓練終了を示すメッセージを表示する。
If it is determined in step S66 that the action matches that of the
A7.指示方法の他の実施形態:
出力部25は、ステップS72において、次の動作の指示を行う音声データを音変換装置に出力する。他の実施形態として、評価システム1は、情報を表示する表示部を備え、出力部25は、次の動作の指示を行う情報を含む表示データを表示部に出力する第2出力処理を行ってもよい。具体的には、第2出力処理において、出力部25は、例えば「次にスイッチを押してください。」などの文字情報を含む表示データを表示部に出力する。これにより、作業者OPは、表示部に表示される文字を見て、次の工程を行うことができる。なお、第2出力処理は、第1出力処理に代えて行われてもよく、第2出力処理と第1出力処理との両方が行われてもよい。情報処理装置10の表示ディスプレイが作業者OPの見える位置に配置されている場合には、情報処理装置10の表示ディスプレイを表示部として用いることができる。他の実施形態として、情報処理装置10とは別体の表示ディスプレイが、表示部として用いられてもよい。
A7. Other embodiments of the instruction method:
In step S72, the
以上説明した第1実施形態によれば、評価システム1は、センサデータ作成部21と、動作データ作成部22と、評価部23とを備える。センサデータ作成部21は、作業者OPの頭部に装着されるモーションセンサ81から出力される検出値と、経過時間とを対応付けたセンサデータ31を作成する。動作データ作成部22は、センサデータ31を用いて頭部の動作を抽出し、抽出した動作と経過時間とを対応付けた動作データ32を作成する。評価部23は、作業者OPの頭部の動作のデータを用いて評価することで、習熟度を精度良く評価することができる。工程時間が短い場合であっても、必要な動作が抜けている可能性もある。そこで、作業者OPの頭部の動作のデータを用いて評価することで、必要な動作が抜けているか否かも評価することができるため、精度良く評価することができる。
According to the first embodiment described above, the evaluation system 1 includes a sensor
また、作業者OPの動作の抽出に、撮像映像を用いるモーションキャプチャではなく、作業者OPに装着されるモーションセンサ81を用いることで、設置の自由度の高い評価システム1を提供できる。詳述すると、作業者OPの動作を解析可能な電子データとして取得する方法として、作業者OPの動作を撮像可能な位置にカメラを設置し、映像を取得する方法がある。しかし、この場合、カメラを設置するためのスペースが必要となる。この点、作業者OPに装着されるモーションセンサ81を用いることにより、カメラを設置するためのスペースを確保する必要はない。よって、十分なスペースを確保することが困難な場所にも評価システム1を設置することができるため、設置の自由度の高い評価システム1を提供できる。
In addition, by using a
また、評価部23は、評価処理において、基準データ33と、動作データ32とを比較することにより、習熟度を評価する。これにより、評価部23は、基準データ33と動作データ32とを比較することによって、習熟度を評価することができる。評価部23は、評価処理において、判断処理としてのステップS32と、第1付与処理としてのステップS34と、第2付与処理としてのステップS50とを行う。ステップS34では、基準データ33に含まれる基準動作が、動作データ32に含まれないと判断された場合に、含まれないと判断された動作に「動作抜け」ラベルが付与される。「動作抜け」ラベルが付与された動作は、必要な動作にも拘わらず、作業者OPが行わなかった動作であることを示す。ステップS50では、動作データ32に含まれる動作が、基準データ33に含まれないと判断された場合に、含まれないと判断された動作に「不要動作」ラベルが付与される。「不要動作」ラベルが付与された動作は、作業者OPが行った不要な動作であることを示す。よって、「動作抜け」ラベルと、「不要動作」ラベルとが付与されることにより、より評価を精度良く行うことができる。
Furthermore, in the evaluation process, the
また、基準データ33は、熟練者が圧入装置60を操作している期間に取得されたセンサデータ31を用いて作成された動作データ32である。これにより、熟練者の動作データ32を基準データ33として用いることができる。基準データ33は、熟練者が実際に作業を行って取得されたデータであるため、実際を反映したデータを基準データ33にすることができる。
The
また、上記した評価処理の他の実施形態によれば、動作データに含まれる動作の動作時間が、基準動作時間より長い場合には、第1時間ラベルが付与される。また、動作データに含まれる対象動作と対象動作の次の動作までの動作間隔が、基準動作間隔より長い場合には、第2時間ラベルが付与される。よって、第1時間ラベルが付与された動作は、動作に時間がかかっている動作であることが示される。第2時間ラベルが付与された動作は、次の動作を行うまでに時間がかかっている動作であることが示される。よって、第1時間ラベルと第2時間ラベルとを付すことにより、評価を精度良く行うことができる。 Furthermore, according to another embodiment of the evaluation process described above, if the action time of an action included in the action data is longer than a reference action time, a first time label is assigned. Furthermore, if the action interval between a target action included in the action data and the action following the target action is longer than a reference action interval, a second time label is assigned. Thus, an action assigned with a first time label indicates that it takes a long time to perform an action. An action assigned with a second time label indicates that it takes a long time to perform the next action. Thus, by assigning the first time label and the second time label, evaluation can be performed with high accuracy.
また、評価システム1は、決定部24と出力部25とを備える。決定部24は、センサデータ31を用いて動作を抽出し、抽出した動作と、基準データ33とを比較することにより、作業者OPが次に行うべき基準動作である次の基準動作を決定する。出力部25は、次の動作の指示を行う音声データを音変換部82に出力する。よって、評価システム1を用いて、初心者に対して訓練を行うことができる。
The evaluation system 1 also includes a
また、モーションセンサ81は、耳装着型装置80に内蔵されている。よって、耳装着型装置80に内蔵されているモーションセンサ81を評価に用いることができる。
In addition, the
B.第2実施形態:
図11は、第2実施形態に係る情報処理装置10のブロック図である。図12は、本実施形態に係る対象期間と区間との関係を説明する図である。第2実施形態では、モーションセンサ81の検出値に加え、圧入装置60にて受け付けた操作の情報が評価に用いられる。第1実施形態と同じ構成および処理ステップには、同じ符号を付し、詳細な説明は適宜省略する。
B. Second embodiment:
Fig. 11 is a block diagram of an
図11に示すように、本実施形態では、情報処理装置10は、プロセッサ20の機能部として、第1実施形態の構成に加え、操作情報取得部26と、統合データ作成部27とを有する。記憶部30は、センサデータ31と、動作データ32と、基準データ33と、評価用プログラム34と、操作情報データ67と、統合データ36とを記憶する。
As shown in FIG. 11, in this embodiment, the
第1実施形態では、図4に示す圧入工程のうち、ステップS12からステップS16までの工程が評価対象である。対して、本実施形態では、圧入工程のステップS12からステップS22までのすべての工程が評価対象である。ステップS12からステップS22までの工程には、ステップS16における受付部61での操作に加え、ステップS20とステップS22において、受付部61での操作が作業者OPにより行われる。そこで、評価部23は、複数区間評価処理において、操作を区切りとして、動作データ32を複数の区間に区切り、区間ごとに評価処理を行う。これにより、基準データ33の動作と動作データ32の動作との対応付けが精度良くできるため、評価の精度を向上させることができる。
In the first embodiment, the processes from step S12 to step S16 in the press-fit process shown in FIG. 4 are the subject of evaluation. In contrast, in the present embodiment, all processes from step S12 to step S22 in the press-fit process are the subject of evaluation. In the processes from step S12 to step S22, in addition to the operation at the
図11に示す操作情報取得部26は、圧入装置60から操作情報データ67を取得して、操作情報に対応付けられている時刻を、対象期間の開始時刻からの経過時間に対応づける。図12に示すように、操作情報データ67は、評価開始時刻からの経過時間と、操作情報とが対応付けられたデータである。図12に示す操作情報データ67は、時刻to1にて、ステップS18に対応する下降スイッチがオン状態に設定する操作が行われ、時刻to2にて、ステップS20に対応する下降速度を変更する操作が行われ、時刻to3にて、ステップS22に対応する下降スイッチがオン状態に設定する操作が行われたことを示している。
The operation
図11に示す統合データ作成部27は、センサデータ31と、操作情報データ67とを、それぞれの時間軸が、評価開始時刻からの経過時間が一致するように、対応付けた統合データ36を作成する。図12に示すように、統合データ36によって、センサデータ31が示す作業者OPの頭部の動作と、作業者OPが行った操作とを対応付けることができる。
The integrated
図13は、評価部23が行う複数区間評価処理の手順を示すフローチャートである。第1実施形態と同様に、評価用プログラム34に依頼されると、図13に示すステップS80において、評価部23は、操作情報データ67を用いて、動作データ32を複数の操作情報のそれぞれの操作情報を区切りとして、複数の区間に区切る。図12に示す場合、時刻to1にて、ステップS18が行われ、時刻to2にて、ステップS20が行われ、時刻to3にて、ステップS22が行われている。よって、評価部23は、評価期間を、評価開始時刻から時刻to1までの「区間1」と、時刻to1から時刻to2までを「区間2」と、時刻to2から時刻to3までを「区間3」との3つの区間に区切る。
FIG. 13 is a flowchart showing the procedure of the multiple section evaluation process performed by the
ステップS82において、評価部23は、最初の区間である「区間1」を評価対象に設定する。ステップS84において、評価部23は、評価対象の区間について、サブ処理ルーチンとして、図8に示す評価処理を行う。ステップS86において、評価部23は、すべての区間について評価が終了したか否かを判断する。ステップS86において、すべての区間について評価が終了していないと判断した場合、評価部23は、ステップS88において、次の区間を評価対象に設定して、処理をステップS84に戻す。一方、ステップS86において、すべての区間について評価が終了したと判断した場合、評価部23は、本処理ルーチンを終了する。評価部23は、複数区間評価処理を終了すると、評価データを評価用プログラム34に引き渡す。また、評価部23は、「動作抜け」ラベルの付与状況と、「不要動作」ラベルの付与状況を示す評価データを用いて、作業者OPの習熟度を評価する評価工程を行う。
In step S82, the
以上説明した第2実施形態によれば、評価システム1は、操作情報データ67を取得する操作情報取得部26と、評価部23とを備える。評価部23は、操作情報データ67を用いて、操作情報を区切りとして、動作データ32を複数の区間に区切り、複数の区間のそれぞれを対象の区間に設定して評価を行う。動作データ32に、受付部61の操作に伴う動作が複数含まれる場合には、操作を区切りとして区間を区切り、それぞれの区間について、基準データ33の動作と動作データ32の動作との対応付けを行うことで、評価の精度を向上させることができる。
According to the second embodiment described above, the evaluation system 1 includes an operation
C.第3実施形態:
図14は、第3実施形態に係る情報処理装置10のブロック図である。本実施形態では、作業者OPの頭部の動作に加え、作業者OPの発した声が習熟度の評価対象に設定される。詳述すると、工程には、基準の処理として、受付部61の操作の他に、作業者OPによる、「速度、よし。」などの所謂指差確認喚呼が含まれる場合がある。そこで、本実施形態では、作業者OPが発した音声を評価対象に加える。上記各実施形態と同一の構成および処理ステップには、同一の符号を付し、詳細な説明は適宜省略する。
C. Third embodiment:
FIG. 14 is a block diagram of an
本実施形態では、情報処理装置10は、プロセッサ20の機能部として、さらに、音声データ作成部28と、喚呼データ作成部29とを有する。記憶部30は、センサデータ31と、動作データ32と、基準データ33と、評価用プログラム34と、統合データ36と、音声経時データ37と、喚呼データ38とを記憶する。
In this embodiment, the
音声データ作成部28は、図2に示すマイクロフォン83から出力される音声データを取得して、取得した音声データと対象期間の開始時刻からの経過時間とを対応付けた音声経時データ37を作成する。喚呼データ作成部29は、音声経時データ37を用いて作業者OPの喚呼を抽出し、抽出した喚呼と経過時間とを対応付けた喚呼データ38を作成する。具体的には、喚呼データ作成部29は、音声経時データ37が示す音圧レベル[dB]が、予め定められた基準音圧レベル[dB]を超えた時刻に、作業者OPから声が発せられたと判断し、喚呼として抽出する。なお、喚呼データ作成部29は、汎用の音声データを、音声が示す文字情報に変換するプログラムを用いて、文字情報を「喚呼」として抽出してもよい。
The voice
統合データ作成部27は、動作データ32に含まれる動作と、喚呼データ38に含まれる喚呼とを、それぞれに対応付けられた経過時間を用いて、時系列に並べた統合データ36を作成する。本実施形態に係る基準データ33には、基準動作に加え、対象期間における喚呼の基準となる基準喚呼が含まれる。基準データ33に含まれる基準動作と基準喚呼とは、工程の予め定められた基準の手順に沿って、時系列に並ぶ。
The integrated
評価部23は、統合データ36に含まれる喚呼を、センサデータ31に含まれる動作と同様に取り扱い、第1実施形態と同様に評価処理を行う。つまり、評価部23は、基準データ33に含まれる基準喚呼が、統合データ36に含まれない場合には、基準データ33に含まれる基準喚呼に「喚呼抜け」のラベルを付与する。対して、評価部23は、統合データ36に含まれる喚呼が、基準データ33に含まれない場合には、統合データ36に含まれる喚呼に「不要喚呼」のラベルを付与する。
The
なお、評価部23は、動作データ32と、喚呼データ38とを別々の処理ルーチンにて評価してもよい。具体的には、評価部23は、第1実施形態と同様の評価処理を行い、さらに、喚呼について評価する場合には、基準動作が含まれる基準データ33とは別に、基準喚呼が含まれる基準喚呼データと、喚呼データ38とを比較することにより、習熟度を評価してもよい。
The
以上説明した第3実施形態によれば、評価システム1は、音声データ作成部28と、喚呼データ作成部29と、統合データ作成部27とを備える。喚呼データ作成部29は、音声データ作成部28が作成した音声経時データ37を用いて作業者OPの喚呼を抽出し、抽出した喚呼と経過時間とを対応付けた喚呼データ38を作成する。統合データ作成部27は、動作データ32に含まれる動作と、喚呼データ38に含まれる喚呼とを、それぞれに対応付けられた経過時間を用いて、時系列に並べた統合データ36を作成する。評価部23は、統合データ36と、基準データ33とを比較することにより、習熟度を評価する。よって、作業者OPが発した音声も評価対象に加えることができるため、評価の精度をさらに向上させることができる。
According to the third embodiment described above, the evaluation system 1 includes a voice
D.他の実施形態:
(D1)上記第1実施形態では、情報処理装置10は、圧入装置60の付近に配置されている。他の実施形態として、情報処理装置10は、圧入装置60とは離れた位置に配置されていてもよい。情報処理装置10と、圧入装置60と、携帯端末装置90との互いの情報のやり取りは、ネットワークを介して行われる。よって、情報処理装置10は、圧入装置60が配置されている工場とは離れた遠隔地に配置されている場合であっても、例えばインターネットを含むネットワークを介した通信により、データのやり取りを行うことができる。よって、評価システム1による習熟度の評価を実現することができる。
D. Other embodiments:
(D1) In the first embodiment, the
(D2)上記第1実施形態の評価工程では、評価部23は、評価データの「動作抜け」ラベルおよび「不要動作」ラベルを用いて習熟度を評価する。評価部23は、さらに、「評価済み」ラベルおよび「期間長」ラベルを用いて、習熟度を評価してもよい。具体的には、「評価済み」ラベルが付与された動作については、加点し、「期間長」ラベルと、「動作抜け」ラベルと、「不要動作」ラベルとのいずれかが付与された動作については減点し、すべての動作について合計した値を習熟度として算出してもよい。評価部23は、習熟度が値として算出することにより、習熟度を可視化することができる。
(D2) In the evaluation step of the first embodiment, the
(D3)上記第3実施形態では、モーションセンサ81の検出値に加えて、作業者OPが発した音声データが評価される。さらに、作業者OPの腕の動作を検出するためのモーションセンサの検出値を評価対象に加えてもよい。具体的には、作業者OPの手首に装着されるリストバンド型装置に、モーションセンサ81と同様のモーションセンサを内蔵させる。そして、動作データ作成部22は、リストバンド型装置に内蔵されたモーションセンサの検出値を用いて手首の動作を抽出する。この形態によれば、作業者OPの腕の動きも評価対象に加えることができるため、習熟度の評価の精度をより向上させることができる。
(D3) In the above third embodiment, in addition to the detection value of the
(D4)上記第3実施形態では、モーションセンサ81の検出値に加えて、作業者OPが発した音声データが評価される。さらに、作業者OPが装着するパワーアシストスーツに内蔵されたセンサの検出値を評価対象に加えてもよい。パワーアシストスーツとは、具体的には、作業者OPの動作、例えば腰の動きを支援する装置である。パワーアシストスーツに内蔵されるセンサは、作業者OPの腰の角度を検出する。よって、この形態によれば、作業者OPの腰の動きも評価対象に加えることができるため、習熟度の評価をより詳細に行うことができる。
(D4) In the above third embodiment, in addition to the detection value of the
(D5)上記第1実施形態では、装置として圧入装置60を例示した。装置は、圧入装置60に限られない。評価システム1は、工程に、作業者OPによる操作を必要とする装置に適用することができる。さらに、評価システム1は、作業者OPの習熟度によって、工程時間や加工品質が変動する、例えば工作機械を操作する作業者OPの評価について、より好適に適用される。また、上記第1実施形態では、動作として、「表示確認」および「ワーク確認」などの顔の向く方向を変更する動作を例示したが、これに限られない。例えば、作業者OPがしゃがむ動作、立ち上がる動作、歩く動作などの頭部の位置が変更される動作を評価対象に含めることができる。頭部の位置が変更される動作は、モーションセンサ81の加速度センサの検出値を用いて抽出することができる。なお、動作の開始時間や動作期間の決定方法は、動作の種別によって決定するとよい。つまり、例えば、歩く動作の場合に、歩く動作自体を動作として抽出してもよく、歩いた後の例えばワークWを設置する動作を抽出してもよい。
(D5) In the above first embodiment, the press-fitting
(D6)評価システム1は、さらに習熟度の変化を評価する習熟度評価部を備えていてもよい。具体的には、評価システム1は、さらに、作業者OPの脈拍数を検出するセンサと、温湿度を検出するセンサとを備える。評価部23は、同じ作業者OPについて、継続的に、例えば1週間毎日習熟度を評価する。同じ作業者OPであれば、習熟度は、短期間に大きく変化する可能性は低い。よって、習熟度が大きく変化する場合には、作業者OPの体調が悪化している場合や、温湿度が適切でない場合が想定される。そこで、習熟度評価部は、習熟度の変化量を求め、予め定められた基準変化量よりも大きい場合には、脈拍や温湿度が、基準範囲外か否かを判断する。そして、習熟度評価部は、脈拍や温湿度が、基準範囲外であると判断した場合には、例えば、作業者OPの監督者が管理する情報処理装置にアラームを送信する。これにより、監督者は、作業者OPが異常であることを知ることができる。なお、習熟度の変化量は、具体的には、上記の(D2)のように、習熟度を数値化した数値の変化量でもよく、動作データ32の対象期間の長さの変化量でもよく、動作データ32の動作の動作時間の変化量でもよい。
(D6) The evaluation system 1 may further include a proficiency evaluation unit that evaluates changes in proficiency. Specifically, the evaluation system 1 further includes a sensor that detects the pulse rate of the worker OP and a sensor that detects temperature and humidity. The
(D7)上記第1実施形態では、評価処理において、ステップS34とステップS52とのいずれも処理ステップを行っているが、いずれか一方の処理ステップのみを行ってもよい。少なくともステップS34が行われることにより、動作データ32に必要な動作が含まれていないことがわかる。同様に、少なくともステップS52が行われることにより、動作データ32に不要な動作が含まれていることがわかる。
(D7) In the first embodiment described above, both step S34 and step S52 are performed in the evaluation process, but only one of the processing steps may be performed. By performing at least step S34, it is possible to determine that the
本開示は、上述の実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態の技術的特徴は、上述の課題の一部又は全部を解決するために、あるいは、上述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。 The present disclosure is not limited to the above-described embodiments, and can be realized in various configurations without departing from the spirit of the disclosure. For example, the technical features of the embodiments corresponding to the technical features in each form described in the Summary of the Invention column can be replaced or combined as appropriate to solve some or all of the above-described problems or to achieve some or all of the above-described effects. Furthermore, if a technical feature is not described in this specification as essential, it can be deleted as appropriate.
1…評価システム、10…情報処理装置、20…プロセッサ、21…センサデータ作成部、22…動作データ作成部、23…評価部、24…決定部、25…出力部、26…操作情報取得部、27…統合データ作成部、28…音声データ作成部、29…喚呼データ作成部、30…記憶部、31…センサデータ、32…動作データ、33…基準データ、34…評価用プログラム、35…訓練用プログラム、36…統合データ、37…音声経時データ、38…喚呼データ、40…通信部、60…圧入装置、61…受付部、61a…タッチパネル、61b…操作ボタン、62…固定部、63…可動部、65…プロセッサ、66…記憶部、67…操作情報データ、68…通信部、80…耳装着型装置、80a…筐体、81…モーションセンサ、82…音変換部、83…マイクロフォン、84…通信部、85…データ取得部、86…データ出力部、90…携帯端末装置、91…通信部、OP…作業者、W…ワーク、Wa…被圧入部品、Wb…圧入部品 1...Evaluation system, 10...Information processing device, 20...Processor, 21...Sensor data creation unit, 22...Motion data creation unit, 23...Evaluation unit, 24...Decision unit, 25...Output unit, 26...Operation information acquisition unit, 27...Integrated data creation unit, 28...Speech data creation unit, 29...Call data creation unit, 30...Memory unit, 31...Sensor data, 32...Motion data, 33...Reference data, 34...Evaluation program, 35...Training program, 36...Integrated data, 37...Speech time series data, 38...Call data, 4 0...Communication unit, 60...Press-in device, 61...Reception unit, 61a...Touch panel, 61b...Operation button, 62...Fixed unit, 63...Moving unit, 65...Processor, 66...Storage unit, 67...Operation information data, 68...Communication unit, 80...Ear-mounted device, 80a...Housing, 81...Motion sensor, 82...Sound conversion unit, 83...Microphone, 84...Communication unit, 85...Data acquisition unit, 86...Data output unit, 90...Mobile terminal device, 91...Communication unit, OP...Worker, W...Workpiece, Wa...Press-in part, Wb...Press-in part
Claims (10)
前記作業者が装置を操作している期間における、前記センサから出力される検出値を取得して、取得した前記検出値と評価対象となる対象期間の開始時刻からの経過時間とを対応付けたセンサデータを作成するセンサデータ作成部と、
前記センサデータを用いて前記動作を抽出し、抽出した前記動作と前記経過時間とを対応付けた動作データを作成する動作データ作成部と、
前記動作データを用いて、前記作業者の習熟度を評価する評価部と、を備える、評価システム。 a sensor attached to a head of a worker for detecting a movement of the head;
a sensor data creation unit that acquires a detection value output from the sensor during a period in which the worker operates the device, and creates sensor data in which the acquired detection value is associated with an elapsed time from a start time of a target period to be evaluated;
a motion data creation unit that extracts the motion using the sensor data and creates motion data in which the extracted motion is associated with the elapsed time;
an evaluation unit that uses the operation data to evaluate a proficiency level of the worker.
前記評価部は、前記対象期間における前記動作の基準となる基準動作が時系列に並ぶ予め定められた基準データと、前記動作データとを比較することにより、前記習熟度を評価する、評価システム。 The evaluation system according to claim 1 ,
The evaluation unit evaluates the proficiency by comparing the action data with predetermined reference data in which reference actions serving as standards for the actions during the target period are arranged in chronological order.
前記基準データには、前記基準動作が複数含まれ、
前記動作データには、前記動作が複数含まれ、
前記基準データに含まれる前記複数の基準動作のそれぞれには、予め定められた動作種別が付与されており、
前記動作データ作成部は、前記動作データに含まれる前記複数の動作のそれぞれに前記動作種別を対応付け、
前記評価部は、
前記基準データに含まれる前記複数の基準動作のそれぞれを、前記動作データに含まれる前記複数の動作のうち、少なくとも前記動作種別が一致する前記動作に対応付けられるか否かを判断する判断処理と、
前記判断処理において、対応付けられないと判断した場合に、対応付けられないと判断した前記基準データの前記基準動作に第1動作ラベルを付与する第1付与処理と、
前記判断処理において、前記動作データの前記複数の動作のうち、前記基準データの前記複数の基準動作のいずれにも対応付けられなかった前記動作に第2動作ラベルを付与する第2付与処理と、の少なくともいずれか一方を行い、
前記第1動作ラベルの付与状況と、前記第2動作ラベルの付与状況との少なくともいずれか一方を用いて、前記習熟度を評価する、評価システム。 The evaluation system according to claim 2,
The reference data includes a plurality of the reference actions,
The motion data includes a plurality of the motions,
A predetermined action type is assigned to each of the plurality of reference actions included in the reference data,
the action data creation unit associates the action type with each of the plurality of actions included in the action data;
The evaluation unit is
a determination process for determining whether each of the plurality of reference actions included in the reference data can be associated with at least one of the actions included in the action data, the action type of which matches the corresponding one of the plurality of actions;
a first labeling process of labeling the reference action of the reference data that is determined to be unable to be associated with the first action label when the determination process determines that the reference action is unable to be associated with the first action label;
a second labeling process for labeling, in the determination process, a second action label to the action, among the plurality of actions of the action data, that is not associated with any of the plurality of reference actions of the reference data;
An evaluation system that evaluates the proficiency level using at least one of an assignment status of the first action label and an assignment status of the second action label.
前記基準データは、前記習熟度の高い前記作業者である熟練者が前記装置を操作している期間に取得された前記センサデータを用いて作成された前記動作データである、評価システム。 The evaluation system according to claim 2 or 3,
An evaluation system, wherein the reference data is the operation data created using the sensor data acquired during a period in which the apparatus is operated by an expert worker who is highly skilled.
前記動作データには、前記動作が複数含まれ、
前記評価部は、
前記動作データに含まれる前記複数の動作のそれぞれの動作について、前記動作の動作開始から動作終了までの動作時間が、予め定められた基準動作時間より長い場合に、前記動作に第1時間ラベルを付す第1時間評価処理と、
前記動作データに含まれる前記複数の動作のうち1つの対象動作と、前記対象動作の次の動作までの動作間隔が、予め定められた基準動作間隔より長い場合に、前記対象動作に第2時間ラベルを付す第2時間評価処理と、の少なくともいずれか一方を行い、
前記第1時間ラベルの付与状況と、前記第2時間ラベルの付与状況との少なくともいずれか一方を用いて、前記習熟度を評価する、評価システム。 The evaluation system according to claim 1 ,
The motion data includes a plurality of the motions,
The evaluation unit is
a first time evaluation process for attaching a first time label to each of the plurality of motions included in the motion data when a motion time from a motion start to a motion end of the motion is longer than a predetermined reference motion time;
performing at least one of a second time evaluation process of attaching a second time label to one target action among the plurality of actions included in the action data when a motion interval between the target action and a next action of the target action is longer than a predetermined reference motion interval;
An evaluation system that evaluates the proficiency level using at least one of the assignment status of the first time label and the assignment status of the second time label.
前記装置は、前記作業者からの操作を受け付ける受付部を備え、
前記評価システムは、前記対象期間における、前記受付部が受け付けた前記操作の情報である操作情報と、前記経過時間とを対応付けた操作情報データを取得する操作情報取得部と、をさらに備え、
前記操作情報データは、前記操作情報を複数含み、
前記評価部は、前記操作情報データを用いて、前記動作データを前記複数の操作情報のそれぞれの操作情報を区切りとして、複数の区間に区切り、前記複数の区間のそれぞれを対象の区間に設定して評価を行う、評価システム。 The evaluation system according to claim 1 ,
the device includes a reception unit that receives an operation from the operator,
the evaluation system further includes an operation information acquisition unit that acquires operation information data in which operation information, which is information on the operation accepted by the acceptance unit, is associated with the elapsed time during the target period;
The operation information data includes a plurality of pieces of operation information,
The evaluation unit uses the operation information data to divide the action data into a plurality of sections using each of the plurality of pieces of operation information as a separator, and sets each of the plurality of sections as a target section and performs evaluation.
音データを音に変換する音変換部と、表示データを用いて情報を表示する表示部との少なくともいずれか一方と、
前記センサデータを用いて前記動作を抽出し、抽出した前記動作と、前記対象期間における前記動作の基準となる基準動作が時系列に並ぶ予め定められた基準データとを比較することにより、前記作業者が次に行うべき前記基準動作である次の基準動作を決定する決定部と、
前記決定部が決定した前記次の基準動作の指示を行う前記音データを前記音変換部に出力する第1出力処理と、前記次の基準動作の指示を行う前記情報を含む前記表示データを前記表示部に出力する第2出力処理と、の少なくともいずれか一方を行う出力部と、をさらに備える、評価システム。 The evaluation system according to claim 1 ,
At least one of a sound conversion unit that converts sound data into sound and a display unit that displays information using display data;
a determination unit that extracts the motion using the sensor data, and determines a next reference motion that is the reference motion that the worker should perform next by comparing the extracted motion with predetermined reference data in which reference motions that are standards for the motions during the target period are arranged in chronological order;
the evaluation system further comprising an output unit that performs at least one of a first output process of outputting the sound data that instructs the next reference action determined by the determination unit to the sound conversion unit, and a second output process of outputting the display data including the information that instructs the next reference action to the display unit.
前記作業者の耳に装着される耳装着型装置をさらに備え、
前記耳装着型装置は、音データを取得するデータ取得部と、取得した前記音データを音に変換して前記耳に向けて発する音変換部と、を有し、
前記センサは、前記耳装着型装置に内蔵されている、評価システム。 The evaluation system according to claim 1 ,
An ear-worn device is further provided for being worn on the ear of the worker,
The ear-worn device includes a data acquisition unit that acquires sound data, and a sound conversion unit that converts the acquired sound data into sound and emits the sound toward the ear,
The sensor is built into the ear-worn device, an evaluation system.
前記作業者が発した音声を音声データとして取得するためのマイクロフォンと、
前記対象期間における、前記マイクロフォンが取得した前記音声データを取得して、取得した前記音声データと前記経過時間とを対応付けた音声経時データを作成する音声データ作成部と、
前記音声経時データを用いて前記作業者の喚呼を抽出し、抽出した前記喚呼と前記経過時間とを対応付けた喚呼データを作成する喚呼データ作成部と、
前記動作データに含まれる前記動作と、前記喚呼データに含まれる前記喚呼とを、それぞれに対応付けられた前記経過時間を用いて、時系列に並べた統合データを作成する統合データ作成部と、をさらに備え、
前記基準データは、前記対象期間における前記喚呼の基準となる基準喚呼をさらに含み、前記基準動作と前記基準喚呼とが時系列に並び、
前記評価部は、前記統合データと、前記基準データとを比較することにより、前記習熟度を評価する、評価システム。 The evaluation system according to claim 2,
a microphone for acquiring voice data uttered by the worker;
a voice data creation unit that acquires the voice data acquired by the microphone during the target period and creates voice time-lapse data in which the acquired voice data is associated with the elapsed time;
a call data creation unit that extracts calls of the worker using the voice time series data and creates call data in which the extracted calls are associated with the elapsed time;
and an integrated data creation unit that creates integrated data in which the actions included in the action data and the calls included in the call data are arranged in chronological order using the elapsed times associated with each of the actions and the calls,
The reference data further includes a reference call that is a reference for the call during the target period, the reference action and the reference call being arranged in chronological order,
An evaluation system, wherein the evaluation unit evaluates the proficiency level by comparing the integrated data with the reference data.
前記センサデータを用いて前記動作を抽出し、抽出した前記動作と前記経過時間とを対応付けた動作データを作成する動作データ作成工程と、
前記動作データを用いて、前記作業者の習熟度を評価する評価工程と、を備える、評価方法。 a sensor data creation process for acquiring detection values output from a sensor attached to the head of an operator who operates the device, the detection values being used to detect head movement, and creating sensor data that associates the acquired detection values with the elapsed time from the start time of a target period to be evaluated;
a motion data creation step of extracting the motion using the sensor data and creating motion data in which the extracted motion is associated with the elapsed time;
and an evaluation step of evaluating a proficiency level of the worker using the operation data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2023/027409 WO2025022612A1 (en) | 2023-07-26 | 2023-07-26 | Evaluation system and evaluation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2023/027409 WO2025022612A1 (en) | 2023-07-26 | 2023-07-26 | Evaluation system and evaluation method |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2025022612A1 true WO2025022612A1 (en) | 2025-01-30 |
Family
ID=94374745
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2023/027409 WO2025022612A1 (en) | 2023-07-26 | 2023-07-26 | Evaluation system and evaluation method |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2025022612A1 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014026318A (en) * | 2012-07-24 | 2014-02-06 | Ricoh Co Ltd | Power management device, power management system, power management method, and program |
JP2017228030A (en) * | 2016-06-21 | 2017-12-28 | 日本電気株式会社 | Work support system, management server, mobile terminal, work support method, and program |
JP2019061640A (en) * | 2017-09-27 | 2019-04-18 | ソフトバンク株式会社 | Monitoring system |
JP2021152979A (en) * | 2017-10-30 | 2021-09-30 | Necフィールディング株式会社 | Work support device, work support method and program |
JP2022015794A (en) * | 2020-07-10 | 2022-01-21 | 株式会社日立製作所 | Work evaluation system and method |
JP2022103336A (en) * | 2019-05-20 | 2022-07-07 | 株式会社日立システムズ | Work support system and work support method |
JP2023028120A (en) * | 2021-08-18 | 2023-03-03 | 株式会社日立産機システム | Work support system and work support method |
-
2023
- 2023-07-26 WO PCT/JP2023/027409 patent/WO2025022612A1/en unknown
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014026318A (en) * | 2012-07-24 | 2014-02-06 | Ricoh Co Ltd | Power management device, power management system, power management method, and program |
JP2017228030A (en) * | 2016-06-21 | 2017-12-28 | 日本電気株式会社 | Work support system, management server, mobile terminal, work support method, and program |
JP2019061640A (en) * | 2017-09-27 | 2019-04-18 | ソフトバンク株式会社 | Monitoring system |
JP2021152979A (en) * | 2017-10-30 | 2021-09-30 | Necフィールディング株式会社 | Work support device, work support method and program |
JP2022103336A (en) * | 2019-05-20 | 2022-07-07 | 株式会社日立システムズ | Work support system and work support method |
JP2022015794A (en) * | 2020-07-10 | 2022-01-21 | 株式会社日立製作所 | Work evaluation system and method |
JP2023028120A (en) * | 2021-08-18 | 2023-03-03 | 株式会社日立産機システム | Work support system and work support method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11192249B2 (en) | Simulation device for robot | |
JPWO2013035244A1 (en) | ROBOT ARM CONTROL DEVICE AND CONTROL METHOD, ROBOT, CONTROL PROGRAM, AND INTEGRATED ELECTRONIC CIRCUIT | |
JP2008307207A (en) | Motion measurement device | |
US11137600B2 (en) | Display device, display control method, and display system | |
JP7191560B2 (en) | content creation system | |
JP2003080482A (en) | Robot teaching device | |
JP6150429B2 (en) | Robot control system, robot, output control program, and output control method | |
JPWO2020012955A1 (en) | Information processing equipment, information processing methods, and programs | |
CN110303499B (en) | Mechanical arm homing method and device | |
JP2019209392A (en) | Haptic visualization device, robot and haptic visualization program | |
US20170316240A1 (en) | Controlling the output of contextual information using a computing device | |
JP2017199151A (en) | Work instruction system | |
WO2025022612A1 (en) | Evaluation system and evaluation method | |
JP6625266B1 (en) | Robot controller | |
CN109597544A (en) | Input exchange method, device, equipment and storage medium | |
CN209911926U (en) | Cable accessory manufacturing and guiding system | |
US20180126561A1 (en) | Generation device, control method, robot device, call system, and computer-readable recording medium | |
US11126267B2 (en) | Tactile feedback device and operation method thereof | |
JP7588545B2 (en) | Remote operation control system, remote operation control method, and program | |
KR20200122754A (en) | Smart glass system for providing augmented reality image | |
CN109571423A (en) | The user equipment of robot control system, robot control method and robot control system | |
JP2022155853A (en) | Work instruction system | |
US20230328371A1 (en) | Wearable terminal | |
US20240193806A1 (en) | Information processing system, information processing method, and information processing program | |
CN112243114B (en) | Method and device for switching working modes of projection equipment and projection equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23946694 Country of ref document: EP Kind code of ref document: A1 |