[go: up one dir, main page]

WO2023053368A1 - 教示装置及びロボットシステム - Google Patents

教示装置及びロボットシステム Download PDF

Info

Publication number
WO2023053368A1
WO2023053368A1 PCT/JP2021/036205 JP2021036205W WO2023053368A1 WO 2023053368 A1 WO2023053368 A1 WO 2023053368A1 JP 2021036205 W JP2021036205 W JP 2021036205W WO 2023053368 A1 WO2023053368 A1 WO 2023053368A1
Authority
WO
WIPO (PCT)
Prior art keywords
program
execution history
execution
history
sensor
Prior art date
Application number
PCT/JP2021/036205
Other languages
English (en)
French (fr)
Inventor
万峰 傅
勇太 並木
Original Assignee
ファナック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ファナック株式会社 filed Critical ファナック株式会社
Priority to CN202180102637.XA priority Critical patent/CN118019622A/zh
Priority to US18/693,667 priority patent/US20240383134A1/en
Priority to PCT/JP2021/036205 priority patent/WO2023053368A1/ja
Priority to JP2023550930A priority patent/JP7712373B2/ja
Priority to DE112021008005.9T priority patent/DE112021008005T5/de
Priority to TW111134060A priority patent/TW202315722A/zh
Publication of WO2023053368A1 publication Critical patent/WO2023053368A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine

Definitions

  • the present invention relates to teaching devices and robot systems.
  • a robot system is known that is configured to detect a workpiece with a visual sensor mounted on the robot and perform a predetermined task such as picking up the workpiece.
  • a predetermined task such as picking up the workpiece.
  • the system will not operate properly. In that case, adjustment (teaching) of setting parameters is required so that correct detection is performed.
  • Patent Document 1 relates to the configuration of a device that displays a 3D model of a robot.
  • (Paragraph 0097)” and "A play bar 141 is provided at the bottom of the model display section 140, and a play button 144 and a pause button 145 for operating the actual robot device 1 taught.
  • the user When trying to adjust parameters using past images, in general, the user must first open the detection program using the visual sensor, check the execution history, and adjust the parameters. It is troublesome and burdensome for the user to open the detection program screen, check the execution history, and make adjustments when a problem occurs in workpiece detection. Usability improvement is required.
  • One aspect of the present disclosure is a teaching device used in a system of an industrial machine that acquires information using a sensor and performs work on a work, wherein one or more an execution history screen display unit that displays an execution history screen that presents execution histories and receives an operation to select one of the execution histories; restores the selected one of the execution histories to the program; and an adjustment screen display unit for displaying an adjustment screen for adjusting setting parameters of the program in the restored state.
  • Another aspect of the present disclosure includes a sensor, a robot, a robot control device that acquires information from the sensor and causes the robot to perform a predetermined work on a workpiece, and the teaching device connected to the robot control device.
  • the robot control device is a robot system that controls execution of a program that performs processing using the sensor.
  • FIG. 10 is a diagram showing an example of an execution history screen displayed on the display unit of the teaching device by the execution history screen display unit;
  • 5 is a diagram showing an example of a parameter adjustment screen displayed by operating a playback button in the display state of FIG. 4;
  • FIG. 11 is a diagram showing an example of an execution history screen regarding detection from multiple viewpoints;
  • 7 is a diagram showing an example of a parameter adjustment screen displayed by operating a playback button in the display state of FIG. 6;
  • FIG. 10 is a diagram showing an example of an execution history screen displayed on the display unit of the teaching device by the execution history screen display unit
  • 5 is a diagram showing an example of a parameter adjustment screen displayed by operating a playback button in the display state of FIG. 4
  • FIG. 11 is a diagram showing an example of an execution history screen regarding detection from multiple viewpoints
  • 7 is a diagram showing an example of a parameter adjustment screen displayed by operating a playback button in the display state of FIG. 6;
  • FIG. 11 is a diagram for explaining an operation example when executing an image playback function for a history image of a single viewpoint when an execution history relating to detection of multiple viewpoints is selected; 4 is a flow chart showing a series of processes from creation of a detection program to execution of image playback;
  • FIG. 1 is a diagram showing the overall configuration of a robot system 100 including a teaching device 10 according to one embodiment.
  • the robot system 100 is configured to acquire information using a sensor and perform a predetermined work on an object (hereinafter also referred to as a work) based on the information.
  • the sensor is assumed to be a visual sensor.
  • the processing using the visual sensor may include various processing for detection and determination. In the following description, a case where detection of a workpiece is performed as processing by a visual sensor will be described.
  • the robot system 100 includes a robot 30 having a hand 33 mounted on the tip of an arm, a robot controller 50 that controls the robot 30, a teaching device 10 connected to the robot controller 50, and an arm tip of the robot 30. and a visual sensor controller 20 for controlling the visual sensor 70 .
  • the visual sensor controller 20 is connected to the robot controller 50 .
  • the robot system 100 can detect the work 1 on the workbench 2 with the visual sensor 70 and handle the work 1 with the hand 33 mounted on the robot 30 .
  • the visual sensor control device 20 has a function of controlling the visual sensor 70 and a function of performing image processing on the image captured by the visual sensor 70 .
  • the visual sensor control device 20 detects the position of the work 1 from the image captured by the visual sensor 70 and provides the detected position of the work 1 to the robot control device 50 .
  • the robot control device 50 can correct the teaching position and take out the workpiece 1 or the like.
  • the visual sensor 70 may be a camera that captures a grayscale image or a color image, or a stereo camera or a three-dimensional sensor that can acquire a range image or a three-dimensional point group.
  • a plurality of visual sensors may be arranged in the robot system 100 .
  • the visual sensor control device 20 holds a model pattern of an object, and executes image processing for detecting the object by pattern matching between the image of the object in the captured image and the model pattern.
  • the visual sensor control device 20 is configured as a separate device from the robot control device 50, but the functions of the visual sensor control device 20 may be installed in the robot control device 50.
  • the teaching device 10 selects an execution history from an execution history screen that displays an execution history of a detection program using the visual sensor 70, and performs a predetermined operation. It provides a function of restoring a predetermined parameter in the execution history to the detection program and transitioning to a parameter adjustment screen for adjusting the parameters of the detection program.
  • the function of restoring execution history (images, parameters, etc.) to the detection program for parameter adjustment is sometimes referred to herein as image playback. According to such a configuration, the image playback can be executed directly from the execution history screen, the parameters of the detection program can be efficiently adjusted, and the usability for the user is improved.
  • FIG. 2 is a diagram showing a hardware configuration example of the robot control device 50 and the teaching device 10.
  • the robot control device 50 is a general device in which a memory 52 (ROM, RAM, non-volatile memory, etc.), an input/output interface 53, an operation unit 54 including various operation switches, etc. are connected to a processor 51 via a bus. It may have a configuration as a computer.
  • the teaching device 10 provides a processor 11 with a memory 12 (ROM, RAM, non-volatile memory, etc.), a display unit 13, an operation unit 14 comprising an input device such as a keyboard (or software keys), an input/output interface 15 etc. are connected via a bus, and may have a configuration as a general computer.
  • various information processing devices such as a teaching operation panel, a tablet terminal, and a personal computer can be used.
  • the visual sensor control device 20 may also have a configuration as a general computer having a processor, memory (ROM, RAM, non-volatile memory, etc.), input/output interface, and the like.
  • FIG. 3 is a functional block diagram of the teaching device 10, the robot control device 50, and the visual sensor control device 20.
  • FIG. 3 is a functional block diagram of the teaching device 10, the robot control device 50, and the visual sensor control device 20.
  • the visual sensor control device 20 has a control section 21 , an image processing section 22 and a storage section 23 .
  • the control unit 21 integrates control related to the functions of the visual sensor 70 according to commands sent from the robot control device 50 .
  • Control by the control unit 21 includes controlling the visual sensor 70 and causing the image processing unit 22 to perform image processing.
  • the image processing unit 22 performs pattern matching and other various image processing.
  • the storage unit 23 stores various types of information (model data for pattern matching, calibration data, various setting information, etc.) necessary for performing various types of processing by the visual sensor 70, captured images, and history information, which will be described later.
  • the robot control device 50 has an operation control unit 151 that controls the operation of the robot 30 according to an operation program, and a storage unit 152 that stores various information such as operation programs and setting information.
  • the operating program includes a detection program for detection by the visual sensor 70 .
  • the motion control unit 151 sends a detection program command to the visual sensor control device 20 .
  • the information stored in the storage unit 23 of the visual sensor 20 includes an execution history related to the execution results of the detection program by the visual sensor 70 .
  • the execution history includes at least one of the captured image, the position/orientation of the robot 30 at the time of measurement, the processing result by the visual sensor 70, information on non-detection or erroneous detection, and various parameters of the detection program.
  • the execution history is stored in the nonvolatile memory or volatile memory that constitutes the storage unit 23 .
  • the teaching device 10 can acquire or collect history information stored in the visual sensor control device 20 via the robot control device 50 .
  • the history information may be stored in the storage unit 152 of the robot control device 50.
  • the teaching device 10 has a program creation unit 111 for creating an operation program, an execution history screen display unit 112, and an adjustment screen display unit 113.
  • the program creation unit 111 provides various support functions for the user to create and edit an operation program. As an example, the program creation unit 111 provides a function of supporting creation of an operation program using icons.
  • the execution history screen display unit 112 acquires from the visual sensor control device 20 an execution history for each execution of a program (here, a detection program) that performs processing by the visual sensor, and displays the execution history for each execution of the detection program. display the execution history screen (user interface) containing a list of Also, the execution history screen display unit 112 receives a user operation for selecting an execution history.
  • a program here, a detection program
  • the execution history screen display unit 112 acquires from the visual sensor control device 20 an execution history for each execution of a program (here, a detection program) that performs processing by the visual sensor, and displays the execution history for each execution of the detection program. display the execution history screen (user interface) containing a list of Also, the execution history screen display unit 112 receives a user operation for selecting an execution history.
  • the adjustment screen display unit 113 restores predetermined parameter information included in the selected execution history to the detection program by the visual sensor in response to a selection operation on the execution history displayed on the execution history screen, and restores the predetermined parameter information to the program detected by the visual sensor. parameters are restored, and a parameter adjustment screen (user interface) for adjusting the program is displayed.
  • FIG. 4 is a diagram showing an example of an execution history screen 200 displayed on the display unit 13 of the teaching device 10 by the execution history screen display unit 112.
  • the execution history screen 200 includes a history list display area 211, a history image display area 212, a program display area 213, and an operation button display area 214 for displaying various operation buttons.
  • the history list display area 211 displays a list of execution histories for each execution of the detected program.
  • FIG. 4 illustrates a case where 11 execution histories are included.
  • History images (captured images) included in the execution history selected in the history list display area 211 are displayed in the history image display area 212 .
  • a state is shown in which a history image 252 included in the execution history 251 selected in the history list display area 211 is displayed.
  • the contents of the detection program are displayed in the program display area 213.
  • the operation button display area 214 includes a playback button 221 for transitioning to an adjustment screen for restoring the currently selected execution history to the detection program and adjusting parameters.
  • the playback button 221 By selecting a desired execution history and operating the playback button 221, the user can restore the selected execution history to the detection program and transition to a parameter adjustment screen for parameter adjustment (teaching). can.
  • FIG. 5 shows an example of the parameter adjustment screen 300 displayed by operating the playback button 221 in the display state of FIG.
  • the parameter adjustment screen 300 includes a detection program display area 311 for displaying a detection program, a captured image display area 312 for displaying history images (or captured images), a parameter display area 313, It includes a detection result display area 314 and an operation button display area 315 for displaying various operation buttons.
  • a detection program named "two-dimensional correction for one camera" is displayed.
  • the detection program includes a snapshot icon 331 , a pattern match icon 332 and a correction data calculation icon 333 .
  • a snapshot icon 331 represents an instruction to perform imaging by the visual sensor 70 .
  • the pattern match icon 332 represents an instruction to detect a workpiece by pattern matching with respect to the captured image.
  • a correction data calculation icon 333 represents an instruction to calculate correction data for correcting the taught position based on the workpiece position obtained by pattern matching.
  • the values of the parameters in the execution history 251 selected on the execution history screen 200 of FIG. 4 are restored as various parameters of the detection program.
  • a pattern matching icon 332 in the detection program is selected in the detection program display area 311 and various parameters related to the pattern matching icon 332 are displayed in the parameter display area 313 .
  • Parameters of the pattern match icon 332 include a score threshold, a contrast threshold, and various other parameters.
  • the detection result display area 314 displays the processing results of the detection program.
  • a state is shown in which the processing results (the number of detections, the score of 100.0, the contrast of 195.8, etc.) included in the execution history 251 selected on the execution history screen 200 of FIG. 4 are restored. .
  • the operation button display area 315 displays operation buttons for performing various operations. By pressing the detection button 341 after adjusting various parameters in the parameter display area 313, the detection program can be executed with the new parameters, and the result can be confirmed.
  • FIG. 6 shows another example of the execution history screen.
  • An execution history screen 400 shown in FIG. 6 represents an execution history when detecting a target part from multiple viewpoints as a detection program.
  • the execution history screen 400 includes a history list display area 411, a history image display area 412, a program display area 413, and an operation button display area 414 for displaying various operation buttons.
  • the history list display area 411 displays a list of execution histories for each execution of the detection program.
  • FIG. 6 illustrates a case where 19 execution histories are included.
  • History images (captured images) included in the execution history selected in the history list display area 411 are displayed in the history image display area 412 .
  • two history images 461 and 462 (history images obtained by imaging the object from two viewpoints) included in the execution history 451 selected in the history list display area 411 are loaded from the execution history 451 and displayed. is shown.
  • the history images of the multiple viewpoints are loaded collectively and displayed on the same screen. It becomes easy to check the whole, and it becomes easy to adjust and check the parameters.
  • the contents of the detection program are displayed in the program display area 413.
  • the operation button display area 414 includes a playback button 421 for transitioning to a screen for restoring the currently selected execution history to the detection program and adjusting parameters. By selecting a desired execution history and operating the playback button 421, the user can restore the selected execution history to the detection program and transition to a parameter adjustment screen for parameter adjustment.
  • FIG. 7 shows an example of a parameter adjustment screen 500 displayed by operating the playback button 421 in the display state of FIG.
  • the parameter adjustment screen 500 includes a detection program display area 511 for displaying a detection program, a captured image display area 512 for displaying history images (or captured images), a parameter display area 513, It includes a detection result display area 514 and an operation button display area 515 for displaying various operation buttons.
  • a detection program named "two-dimensional correction of multiple cameras" is displayed.
  • the detection program captures an object from two viewpoints and performs position correction, so it is configured to include two sets of detection processing including a snapshot icon and a pattern match icon.
  • the values of the parameters in the execution history 451 selected on the execution history screen 400 of FIG. 6 are restored as various parameters of the detection program.
  • various parameters related to the icon selected in the detection program display area 511 (“two-dimensional correction of multiple cameras” icon) are displayed in the parameter display area 513 .
  • parameters (restored parameters) for that icon can be displayed in the parameter display area 513 and adjusted.
  • the detection result display area 514 displays the processing results of the detection program.
  • a state is shown in which the processing results (score of 100.0, contrast of 195.8, etc.) included in the execution history 451 selected on the execution history screen 400 of FIG. 6 are restored.
  • the operation button display area 515 displays operation buttons for performing various operations. After adjusting various parameters in the parameter display area 513, by pressing the detection button 541 or the "shooting+detection" button 452, the detection program can be executed with new parameters, and the result can be confirmed.
  • FIG. 8 shows a program for performing detection from one of the two viewpoints in the program display area 413 of the execution history screen 400 shown in FIG. 6 ("camera view 1" icon in FIG. 8). is selected.
  • a history image display area 412 displays a program for performing detection from one viewpoint. Only the program history image 461 is displayed. By pressing the playback button 421 in this state, the user restores the parameters of the history image 461 from one viewpoint currently displayed in the history image display area 412 to the detection program and performs parameter adjustment. It is possible to transition to a parameter adjustment screen (for example, parameter adjustment screen 300 as shown in FIG. 5).
  • FIG. 9 is a flow chart showing an example of a series of processes from creation of a detection program to execution of image playback. The flow of these series of processes will be described with reference to FIG.
  • the user creates a program for detecting a workpiece with the visual sensor 70 (hereinafter also referred to as a vision program).
  • a user creates a vision program using the teaching device 10 (step S1).
  • the user uses the teaching device 10 to create an operation program for the robot 30 that calls the vision program (step S2).
  • the motion program is sent to the robot control device 50 and executed.
  • the vision program is called and executed (step S3).
  • its execution history is stored in the storage unit 23 of the visual sensor control device 20 (step S4).
  • step S5 it is determined whether or not the detection result of the vision program has failed. This determination may be made by the user based on the execution history, or may be automatically made by the teaching device 10 based on the execution history. If the detection has failed (S5: Yes), the process proceeds to step S6. If the detection is successful (S5: No), the process proceeds to step S11. In step S6, the user selects an execution history (history image) whose detection has failed from the list of execution histories displayed on the execution history screen, and presses a playback button (step S6). As a result, the display screen of the teaching device 10 transitions to a parameter adjustment screen for adjusting (teaching) various parameters of the vision program (step S7). Various parameters of the execution history selected in step S6 are restored on this parameter adjustment screen. The user checks the parameter values in the execution history and adjusts the parameter values (step S8).
  • image playback is executed for the selected execution history image (step S9).
  • the history images of multiple viewpoints are loaded collectively as described with reference to FIG.
  • the image playback is executed for the single-viewpoint history image selected from among the plurality of viewpoints (step S10).
  • step S11: Yes it is determined whether or not the operating program has ended. If the operating program has not ended (S11: No), the process from step S3 is executed with the new adjusted parameters.
  • execution history screen (200, 400) and the parameter adjustment screen (300, 500) are presented as separate screens. may be displayed within
  • the system configuration and the arrangement of the functional blocks shown in FIG. 1 or FIG. 3 above are examples, and the system configuration and the arrangement of the functional blocks can be modified from various viewpoints.
  • the visual sensor may be a fixed camera fixed within the workspace where the robotic system is located.
  • the execution history may be collected and stored in the teaching device.
  • the configurations shown in the above embodiments can be applied to systems including industrial machines such as robots and machine tools that perform work using information from various sensors.
  • the functions of the teaching device (execution history screen display, image playback function, etc.) described in the above-described embodiments may be performed by a machine tool control device (NC control device) or an information processing device connected to the control device.
  • NC control device machine tool control device
  • information processing device connected to the control device.
  • the functional blocks of the visual sensor control device, robot control device, and teaching device shown in FIG. It may be realized by a configuration mainly composed of hardware such as ASIC (Application Specific Integrated Circuit).
  • ASIC Application Specific Integrated Circuit
  • a program for executing various processes such as the image playback process (the process shown in FIG. 9) in the above-described embodiment is stored in various computer-readable recording media (for example, ROM, EEPROM, semiconductor memory such as flash memory). , magnetic recording media, optical discs such as CD-ROMs and DVD-ROMs).

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

センサを用いて情報を取得し、ワークに対する作業を行う産業機械のシステムに用いられる教示装置(10)であって、センサを用いた処理を行うプログラムの実行結果に関する1以上の実行履歴を提示する実行履歴画面を表示し、一つの実行履歴を選択する操作を受け付ける実行履歴画面表示部(152)と、選択された一つの実行履歴をプログラムに復元すると共に、実行履歴が復元された状態のプログラムの設定パラメータを調整するための調整画面を表示する調整画面表示部と、を備える教示装置である。

Description

教示装置及びロボットシステム
 本発明は、教示装置及びロボットシステムに関する。
 ロボットに搭載した視覚センサでワークの検出を行い、ワークの取り出し等の所定の作業を実行するように構成されたロボットシステムが知られている。このようなシステムにおいて、ワークの未検出や誤検出が発生すると、システムが正しく動作しないこととなる。その場合に、正しい検出が行われるように設定パラメータの調整(教示)が必要になる。
 特許文献1は、ロボットの3Dモデルを表示する装置の構成に関し、「予め記憶されたロボット装置1のモデルデータにより、ロボット装置1の姿勢が3Dモデルで表示されるモデル表示部140が設けられていること(段落0097)」、及び、「モデル表示部140の下部には、再生バー141が設けられており、教示した実際のロボット装置1を動作させるための再生ボタン144、一時停止ボタン145を備えていること(段落0099)」を記載する。
特開2020-75354号公報
 過去の画像によってパラメータ調整を行おうとする場合、一般には、ユーザはまず視覚センサによる検出プログラムを開き、実行履歴を確認してパラメータ調整を行うという手順をとることが必要になる。ワークの検出に問題が起きたときに、検出プログラム画面を開いて実行履歴を確認し調整を行うという作業は、ユーザにとって煩わしく負担の大きい作業である。ユーザビリティの改善が要求される。
 本開示の一態様は、センサを用いて情報を取得し、ワークに対する作業を行う産業機械のシステムに用いられる教示装置であって、前記センサを用いた処理を行うプログラムの実行結果に関する1以上の実行履歴を提示する実行履歴画面を表示し、一つの前記実行履歴を選択する操作を受け付ける実行履歴画面表示部と、選択された一つの前記実行履歴を前記プログラムに復元すると共に、前記実行履歴が復元された状態の前記プログラムの設定パラメータを調整するための調整画面を表示する調整画面表示部と、を備える教示装置である。
 本開示の別の態様は、センサと、ロボットと、前記センサから情報を取得し、前記ロボットにワークに対する所定の作業を実行させるロボット制御装置と、前記ロボット制御装置と接続された上記教示装置と、を備え、前記ロボット制御装置は、前記センサを用いた処理を行うプログラムの実行を制御する、ロボットシステムである。
 上記構成によれば、実行履歴を選択することで実行履歴をプログラムに復元して設定パラメータの調整を行うことが可能となり、効率的に設定パラメータの調整を行うことが可能となると共にユーザビリティが向上する。
 添付図面に示される本発明の典型的な実施形態の詳細な説明から、本発明のこれらの目的、特徴および利点ならびに他の目的、特徴および利点がさらに明確になるであろう。
一実施形態に係る教示装置を含むロボットシステムの全体構成を表す図である。 ロボット制御装置及び教示装置のハードウェア構成例を表す図である。 教示装置、ロボット制御装置、及び視覚センサ制御装置の機能ブロック図である。 実行履歴画面表示部により教示装置の表示部に表示される実行履歴画面の例を表す図である。 図4の表示状態においてプレイバックボタンを操作することで表示されるパラメータ調整画面の例を示す図である。 複数視点での検出に関する実行履歴画面の例を表す図である。 図6の表示状態においてプレイバックボタンを操作することで表示されるパラメータ調整画面の例を示す図である。 複数視点の検出に関する実行履歴が選択される場合において、単一視点の履歴画像に対してイメージプレイバック機能を実行する場合の操作例について説明するための図である。 検出プログラムの作成からイメージプレイバックの実行に至るまでの一連の処理を表すフローチャートである。
 次に、本開示の実施形態について図面を参照して説明する。参照する図面において、同様の構成部分または機能部分には同様の参照符号が付けられている。理解を容易にするために、これらの図面は縮尺を適宜変更している。また、図面に示される形態は本発明を実施するための一つの例であり、本発明は図示された形態に限定されるものではない。
 図1は一実施形態に係る教示装置10を含むロボットシステム100の全体構成を表す図である。ロボットシステム100は、センサを用いて情報を取得し、当該情報に基づき対象物(以下、ワークとも記載する)に対する所定の作業を行うように構成される。本実施形態では、センサは視覚センサであるものとする。この場合、視覚センサを用いた処理には、検出や、判定その為の各種処理が含まれ得る。以下の説明では、視覚センサによる処理としてワークの検出を行う場合を説明する。
 ロボットシステム100は、アーム先端部にハンド33を搭載したロボット30と、ロボット30を制御するロボット制御装置50と、ロボット制御装置50に接続された教示装置10と、ロボット30のアーム先端部に取り付けられた視覚センサ70と、視覚センサ70を制御する視覚センサ制御装置20とを含む。視覚センサ制御装置20は、ロボット制御装置50に接続されている。ロボットシステム100は、視覚センサ70により作業台2上のワーク1の検出を行い、ロボット30に搭載したハンド33でワーク1のハンドリングを行うことができる。
 視覚センサ制御装置20は、視覚センサ70を制御する機能と、視覚センサ70で撮像された画像に対する画像処理を行う機能とを有する。視覚センサ制御装置20は、視覚センサ70で撮像された画像からワーク1の位置を検出し、検出されたワーク1の位置をロボット制御装置50に提供する。これにより、ロボット制御装置50は、教示位置を補正してワーク1の取り出し等を実行することができる。
 視覚センサ70は、濃淡画像やカラー画像を撮像するカメラでも、距離画像や3次元点群を取得できるステレオカメラや3次元センサでもよい。ロボットシステム100には、複数台の視覚センサが配置されていても良い。視覚センサ制御装置20は、対象物のモデルパターンを保持しており、撮影画像中の対象物の画像とモデルパターンとのパターマッチングにより対象物を検出する画像処理を実行する。なお、図1では、視覚センサ制御装置20はロボット制御装置50とは別の装置として構成されているが、視覚センサ制御装置20としての機能がロボット制御装置50内に搭載されていても良い。
 以下で詳細に説明するように、教示装置10は、視覚センサ70を用いた検出プログラムの実行履歴を表示する実行履歴画面から実行履歴を選択して所定の操作を行うことで、当該選択された実行履歴内の所定のパラメータを検出プログラムに対して復元し、当該検出プログラムのパラメータ調整を行うためのパラメータ調整画面に遷移する機能を提供する。実行履歴(画像、パラメータ等)を検出プログラムに復元してパラメータ調整を行う機能を、本明細書では、イメージプレイバックと称することがある。このような構成によれば、実行履歴画面から直接、イメージプレイバックを実行できるようになり、効率的に検出プログラムのパラメータ調整を行うことが可能となり、ユーザの使い勝手(ユーザビリティ)が向上する。
 図2は、ロボット制御装置50及び教示装置10のハードウェア構成例を表す図である。ロボット制御装置50は、プロセッサ51に対してメモリ52(ROM、RAM、不揮発性メモリ等)、入出力インタフェース53、各種操作スイッチを含む操作部54等がバスを介して接続された、一般的なコンピュータとしての構成を有していても良い。教示装置10は、プロセッサ11に対して、メモリ12(ROM、RAM、不揮発性メモリ等)、表示部13、キーボード(或いはソフトウェアキー)等の入力装置により構成される操作部14、入出力インタフェース15等がバスを介して接続された、一般的なコンピュータとしての構成を有していても良い。なお、教示装置としては、教示操作盤、タブレット端末、パーソナルコンピュータ等の各種情報処理装置を用いることができる。
 なお、視覚センサ制御装置20も、プロセッサ、メモリ(ROM、RAM、不揮発性メモリ等)、入出力インタフェース等を有する一般的なコンピュータとしての構成を有していても良い。
 図3は、教示装置10、ロボット制御装置50、及び視覚センサ制御装置20の機能ブロック図である。
 視覚センサ制御装置20は、制御部21と、画像処理部22と、記憶部23とを有する。制御部21は、ロボット制御装置50から送られてくる指令に従い、視覚センサ70の機能に係わる制御を統括する。制御部21による制御には、視覚センサ70を制御することや、画像処理部22に画像処理を実行させることを含む。画像処理部22は、パターンマッチングその他の各種画像処理を行う。記憶部23には、視覚センサ70による各種処理を行う上で必要となる各種情報(パターンマッチングのモデルデータ、キャリブレーションデータ、各種設定情報等)、撮像画像、後述する履歴情報が記憶される。
 図3に示すように、ロボット制御装置50は、動作プログラムにしたがってロボット30の動作を制御する動作制御部151と、動作プログラム、設定情報等の各種情報を記憶する記憶部152とを有する。なお、動作プログラムは、視覚センサ70による検出を行うための検出プログラムを含む。動作制御部151は、検出プログラムの指令を視覚センサ制御装置20に送る。
 視覚センサ20の記憶部23に記憶される情報には、視覚センサ70による検出プログラムを実行結果に関する実行履歴が含まれる。実行履歴には、撮像画像、計測時のロボット30の位置・姿勢、視覚センサ70による処理結果、未検出又は誤検出に関する情報、検出プログラムの各種パラメータ、の少なくともいずれかが含まれる。実行履歴は、記憶部23を構成する不揮発性メモリ、或いは揮発性メモリに格納される。
 教示装置10は、ロボット制御装置50を介して、視覚センサ制御装置20に格納された履歴情報を取得したり、収集したりすることができる。
 なお、履歴情報は、ロボット制御装置50の記憶部152に記憶されても良い。
 教示装置10は、動作プログラムを作成するためのプログラム作成部111と、実行履歴画面表示部112と、調整画面表示部113とを有する。プログラム作成部111は、ユーザが、動作プログラムを作成・編集するための各種支援機能を提供する。一例として、プログラム作成部111は、アイコンを用いた動作プログラムの作成を支援する機能を提供する。
 実行履歴画面表示部112は、視覚センサによる処理を行うプログラム(ここでは、検出プログラムであるとする)の実行毎の実行履歴を視覚センサ制御装置20から取得し、検出プログラムの実行毎の実行履歴のリストを含む実行履歴画面(ユーザインタフェース)を表示する。また、実行履歴画面表示部112は、実行履歴を選択するユーザ操作を受け付ける。
 調整画面表示部113は、実行履歴画面に表示された実行履歴に対する選択操作に応じて、選択された実行履歴に含まれる所定のパラメータ情報を視覚センサによる検出プログラムに対して復元すると共に、当該所定のパラメータが復元された状態の検出プログラムを調整するためのパラメータ調整画面(ユーザインタフェース)を表示する。
 図4は、実行履歴画面表示部112により、教示装置10の表示部13に表示される実行履歴画面200の例を表す図である。図4に示すように、実行履歴画面200は、履歴一覧表示領域211と、履歴画像表示領域212と、プログラム表示領域213と、各種操作ボタンを表示する操作ボタン表示領域214とを含む。
 履歴一覧表示領域211には、検出プログラムの実行毎の実行履歴のリストが表示される。一例として、図4では、11個の実行履歴が含まれる場合を図示している。履歴画像表示領域212には、履歴一覧表示領域211において選択された実行履歴に含まれる履歴画像(撮像画像)が表示される。ここでは、履歴一覧表示領域211で選択されている実行履歴251に含まれる履歴画像252が表示されている状態が示されている。
 プログラム表示領域213には、検出プログラムの内容が表示される。操作ボタン表示領域214には、現在選択中の実行履歴を検出プログラムに復元しパラメータ調整を行うための調整画面に遷移するためのプレイバックボタン221が含まれる。ユーザは、所望の実行履歴を選択してプレイバックボタン221を操作することで、選択された実行履歴を検出プログラムに復元してパラメータ調整(教示)を行うためのパラメータ調整画面に遷移させることができる。
 図5に、図4の表示状態においてプレイバックボタン221を操作することで表示されるパラメータ調整画面300の例を示す。図5に示すように、パラメータ調整画面300は、検出プログラムを表示する検出プログラム表示領域311と、履歴画像(又は撮像画像)を表示するための撮像画像表示領域312と、パラメータ表示領域313と、検出結果表示領域314と、各種操作ボタンを表示する操作ボタン表示領域315とを含む。
 検出プログラム表示領域311には、一例として、「カメラ1台の2次元補正」との名称の検出プログラムが表示されている。当該検出プログラムは、スナップショットアイコン331と、パターンマッチアイコン332と、補正データ計算アイコン333とが含まれている。スナップショットアイコン331は、視覚センサ70による撮像を実行する命令を表す。パターンマッチアイコン332は、撮像画像に対してパターンマッチによるワークの検出を行う命令を表す。補正データ計算アイコン333は、パターンマッチにより得られたワーク位置に基づいて、教示位置を補正するための補正データを計算する命令を表す。
 図4の実行履歴画面200からパラメータ調整画面300に遷移した最初の状態では、撮像画像表示領域312には、実行履歴画面200で選択されていた実行履歴251の履歴画像252が表示されている。
 パラメータ表示領域313には、検出プログラムの各種パラメータとして、図4の実行履歴画面200で選択されていた実行履歴251中のパラメータの値が復元された状態のものが表示されている。ここでは、検出プログラム表示領域311において検出プログラムにおけるパターンマッチアイコン332が選択され、当該パターンマッチアイコン332に関する各種パラメータが、パラメータ表示領域313に表示されている状態を示す。パターンマッチアイコン332のパラメータには、スコアの閾値やコントラストの閾値の他、各種のものが含まれている。検出プログラム表示領域311において他のアイコンを選択することで、そのアイコンに対するパラメータ(復元されたパラメータ)をパラメータ表示領域313に表示させ調整することができる。
 検出結果表示領域314には、検出プログラムの処理結果が表示されている。ここでは、図4の実行履歴画面200で選択されていた実行履歴251に含まれていた処理結果(検出個数、スコア100.0、コントラスト195.8など)が復元されている状態を示している。
 操作ボタン表示領域315には、各種操作を行うための操作ボタンが表示される。パラメータ表示領域313において各種パラメータの調整を行った上で検出ボタン341を押下することで新たなパラメータで検出プログラムを実行させ、その結果を確認することができる。
 図6に実行履歴画面の他の例を示す。図6に示す実行履歴画面400は、検出プログラムとして複数視点で対象部の検出を行う場合の実行履歴を表している。ここでは、2つの視点から対象物を検出するステレオ検出法の検出プログラムを用いる場合の例を説明する。図6に示すように、実行履歴画面400は、履歴一覧表示領域411と、履歴画像表示領域412と、プログラム表示領域413と、各種操作ボタンを表示する操作ボタン表示領域414とを含む。
 履歴一覧表示領域411には、検出プログラムの実行毎の実行履歴のリストが表示される。一例として、図6では、19個の実行履歴が含まれる場合を図示している。履歴画像表示領域412には、履歴一覧表示領域411において選択された実行履歴に含まれる履歴画像(撮像画像)が表示される。ここでは、履歴一覧表示領域411で選択されている実行履歴451に含まれる2つの履歴画像461、462(対象物を2つの視点からそれぞれ撮像した履歴画像)が実行履歴451からロードされ表示されている状態が示されている。このように、本例においては、複数視点の実行履歴を選択してイメージプレイバックを実行した場合に、複数視点の履歴画像がまとめてロードされて同一画面に表示されるため、ワークに対する視点の全体を確認し易くなり、パラメータの調整や確認がやり易くなる。
 プログラム表示領域413には、検出プログラムの内容が表示される。操作ボタン表示領域414には、現在選択中の実行履歴を検出プログラムに復元してパラメータ調整を行うための画面に遷移するためのプレイバックボタン421が含まれる。ユーザは、所望の実行履歴を選択してプレイバックボタン421を操作することで、選択中の実行履歴を検出プログラムに復元してパラメータ調整を行うためのパラメータ調整画面に遷移することができる。
 図7に、図6の表示状態においてプレイバックボタン421を操作することで表示されるパラメータ調整画面500の例を示す。図7に示すように、パラメータ調整画面500は、検出プログラムを表示する検出プログラム表示領域511と、履歴画像(又は撮像画像)を表示するための撮像画像表示領域512と、パラメータ表示領域513と、検出結果表示領域514と、各種操作ボタンを表示する操作ボタン表示領域515とを含む。
 検出プログラム表示領域511には、一例として、「カメラ複数台の2次元補正」との名称の検出プログラムが表示されている。当該検出プログラムは、2つの視点から対象物を捉えて位置補正をおこなうため、スナップショットアイコンと、パターンマッチアイコンとを含む検出処理が2セット含まれる構成となっている。
 図6の実行履歴画面400からパラメータ調整画面500に遷移した最初の状態では、撮像画像表示領域512には、実行履歴画面400で選択されていた実行履歴451の2つの履歴画像461、462が表示されている。
 パラメータ表示領域513には、検出プログラムの各種パラメータとして、図6の実行履歴画面400で選択されていた実行履歴451中のパラメータの値が復元された状態のものが表示されている。ここでは、検出プログラム表示領域511において選択されているアイコン(「カメラ複数台の2次元補正」アイコン)に関する各種パラメータが、パラメータ表示領域513に表示されている状態を示す。検出プログラム表示領域511において他のアイコンを選択することで、そのアイコンに対するパラメータ(復元されたパラメータ)をパラメータ表示領域513に表示させ調整することができる。
 検出結果表示領域514には、検出プログラムの処理結果が表示されている。ここでは、図6の実行履歴画面400で選択されていた実行履歴451に含まれていた処理結果(スコア100.0、コントラスト195.8など)が復元されている状態を示している。
 操作ボタン表示領域515には、各種操作を行うための操作ボタンが表示される。パラメータ表示領域513において各種パラメータの調整を行った上で検出ボタン541或いは「撮影+検出」ボタン452を押下することで新たなパラメータで検出プログラムを実行させ、その結果を確認することができる。
 次に、図8を参照し、複数視点の検出に関する実行履歴が選択される場合において、単一視点の履歴画像に対してイメージプレイバック機能を実行する場合の操作例について説明する。図8は、図6に示した実行履歴画面400のプログラム表示領域413において、2つの視点から検出を行う検出プログラムのうち一つの視点から検出を行うプログラム(図8において「カメラビュー1」アイコン)を選択した状態を示している。
 プログラム表示領域413において一つの視点から検出を行うプログラム(本例では符号471で示した「カメラビュー1」)が選択されると、履歴画像表示領域412には、当該一つの視点から検出を行うプログラムの履歴画像461のみが表示される状態となる。ユーザは、この状態でプレイバックボタン421を押下することで、履歴画像表示領域412に現在表示されている一つの視点からの履歴画像461に関するパラメータを検出プログラムに復元してパラメータ調整を行うためのパラメータ調整画面(例えば、図5に示したようなパラメータ調整画面300)に遷移することができる。
 図9は、検出プログラムの作成からイメージプレイバックの実行に至るまでの一連の処理の一例をフローチャートとして表したものである。図9を参照してこれらの一連の処理の流れを説明する。
 はじめに、ユーザにより、視覚センサ70によりワークを検出するためのプログラム(以下、ビジョンプログラムとも記載する)の作成が行われる。ユーザは、教示装置10を用いてビジョンプログラムを作成する(ステップS1)。さらに、ユーザは、教示装置10を用いて、ビジョンプログラムを呼び出すロボット30の動作プログラムを作成する(ステップS2)。
 次に、教示装置10に対してユーザが所定の操作を行うことにより、動作プログラムがロボット制御装置50に送られ動作プログラムが実行される。動作プログラムの実行により、ビジョンプログラムが呼び出され実行される(ステップS3)。ビジョンプログラムの実行の完了と共に、その実行履歴が視覚センサ制御装置20の記憶部23に格納される(ステップS4)。
 次に、ビジョンプログラムの検出結果が失敗しているか否かが判定される(ステップS5)。この判定は、ユーザが実行履歴をみて行っても良いし、教示装置10が実行履歴から自動的に行う構成としても良い。検出が失敗している場合(S5:はい)、処理はステップS6に進む。検出が成功している場合(S5:いいえ)、処理はステップS11に進む。ステップS6では、ユーザは、実行履歴画面に表示された実行履歴のリストから検出が失敗している実行履歴(履歴画像)を選択し、プレイバックボタンを押下する(ステップS6)。それにより、教示装置10の表示画面は、ビジョンプログラムの各種パラメータを調整(教示)するためのパラメータ調整画面に遷移する(ステップS7)。このパラメータ調整画面には、ステップS6で選択された実行履歴の各種パラメータが復元されている。ユーザは、当該実行履歴のパラメータ値を確認し、パラメータ値の調整を行う(ステップS8)。
 単一視点での検出を行うビジョンプログラムの場合には、選択された実行履歴の画像についてイメージプレイバックが実行される(ステップS9)。他方、複数視点での検出をビジョンプログラムの場合には、図7を参照して説明したように複数視点の履歴画像をまとめてロードしてイメージプレイバックを実行するか、或いは、図8を参照して説明したように複数視点のうちから選択した単一視点の履歴画像についてイメージプレイバックを実行する(ステップS10)。
 次に、動作プログラムが終了しているか否かを判定し、動作プログラムが終了していれば(S11:はい)、本処理を終了する。動作プログラムが終了していない場合(S11:いいえ)、調整された新たなパラメータによりステップS3からの処理が実行される。
 上記実施形態によれば、実行履歴を選択することで実行履歴をプログラムに復元して設定パラメータの調整を行うことが可能となり、効率的に設定パラメータの調整を行うことが可能となると共にユーザビリティが向上する。
 以上、典型的な実施形態を用いて本発明を説明したが、当業者であれば、本発明の範囲から逸脱することなしに、上述の各実施形態に変更及び種々の他の変更、省略、追加を行うことができるのを理解できるであろう。
 上述の実施形態では、実行履歴画面(200、400)とパラメータ調整画面(300、500)を別々の画面として提示する例を記載しているが、これら実行履歴画面とパラメータ調整画面とが同一画面内に表示されても良い。
 上述の図1或いは図3で示したシステム構成や機能ブロックの配置は例示であり、システム構成や機能ブロックの配置に関しては様々な観点から変形を行うことができる。例えば、視覚センサは、ロボットシステムを配置する作業空間内に固定された固定カメラであっても良い。上述の実施形態では、実行履歴を視覚センサ制御装置に格納する例を説明したが、実行履歴を教示装置が収集して格納するようにしても良い。
 また、上述の実施形態で示した構成は、様々なセンサからの情報を用いて作業を実行するロボットや工作機械等の産業機械を含むシステムに適用し得る。例えば、上述の実施形態で説明した教示装置としての機能(実行履歴画面の表示、イメージプレイバック機能など)を、工作機械の制御装置(NC制御装置)或いは当該制御装置に接続された情報処理装置に搭載しても良い。
 図3に示した視覚センサ制御装置、ロボット制御装置、及び教示装置の機能ブロックは、これらの装置のプロセッサが、記憶装置に格納された各種ソフトウェアを実行することで実現されても良く、或いは、ASIC(Application Specific Integrated Circuit)等のハードウェアを主体とした構成により実現されても良い。
 上述した実施形態におけるイメージプレイバックの処理(図9に示した処理)等の各種の処理を実行するプログラムは、コンピュータに読み取り可能な各種記録媒体(例えば、ROM、EEPROM、フラッシュメモリ等の半導体メモリ、磁気記録媒体、CD-ROM、DVD-ROM等の光ディスク)に記録することができる。
 1  ワーク
 2  作業台
 10  教示装置
 11  プロセッサ
 12  メモリ
 13  表示部
 14  操作部
 15  入出力インタフェース
 20  視覚センサ制御装置
 21  制御部
 22  画像処理部
 23  記憶部
 30  ロボット
 33  ハンド
 50  ロボット制御装置
 51  プロセッサ
 52  メモリ
 53  入出力インタフェース
 54  操作部
 70  視覚センサ
 100  ロボットシステム
 111  プログラム作成部
 112  実行履歴画面表示部
 113  調整画面表示部
 151  動作制御部
 152  記憶部
 200、400  実行履歴画面
 211、411  履歴一覧表示領域
 212、412  履歴画像表示領域
 213、413  プログラム表示領域
 214、414  操作ボタン表示領域
 221、421  プレイバックボタン
 300、500  パラメータ調整画面
 311、511  検出プログラム表示領域
 312、512  撮像画像表示領域
 313、513  パラメータ表示領域
 314、514  検出結果表示領域
 315、515  操作ボタン表示領域
 341、541  検出ボタン

Claims (9)

  1.  センサを用いて情報を取得し、ワークに対する作業を行う産業機械のシステムに用いられる教示装置であって、
     前記センサを用いた処理を行うプログラムの実行結果に関する1以上の実行履歴を提示する実行履歴画面を表示し、一つの前記実行履歴を選択する操作を受け付ける実行履歴画面表示部と、
     選択された一つの前記実行履歴を前記プログラムに復元すると共に、前記実行履歴が復元された状態の前記プログラムの設定パラメータを調整するための調整画面を表示する調整画面表示部と、を備える教示装置。
  2.  前記調整画面表示部は、前記実行履歴画面において一つの前記実行履歴が選択されている状態で所定のユーザ操作がなされることに応じて、前記調整画面への遷移を行う、請求項1に記載の教示装置。
  3.  前記センサは、視覚センサであり、
     前記実行履歴は、撮像画像、計測時のロボットの位置姿勢、ワークの検出結果、未検出又は誤検出に関する情報、前記プログラムの設定パラメータの少なくともいずれかを含む、請求項1又は2に記載の教示装置。
  4.  選択された一つの前記実行履歴が前記視覚センサによるワークに対する複数視点からの検出に関するものである場合に、前記実行履歴画面表示部は、前記複数視点から前記ワークを撮像した複数の履歴画像を同一画面内に表示する、請求項3に記載の教示装置。
  5.  前記調整画面表示部は、前記調整画面において前記複数の履歴画像を同時に表示する、請求項4に記載の教示装置。
  6.  前記実行履歴画面表示部は、前記複数の履歴画像の一つを選択するための操作を受け付け、
     前記調整画面表示部は、前記選択された一つの履歴画像に関する設定パラメータを調整するための前記調整画面を表示する、請求項4に記載の教示装置。
  7.  前記実行履歴画面と前記調整画面は同一画面内に表示される、請求項1に記載の教示装置。
  8.  センサと、
     ロボットと、
     前記センサから情報を取得し、前記ロボットにワークに対する所定の作業を実行させるロボット制御装置と、
     前記ロボット制御装置と接続された、請求項1から7のいずれか一項に記載の教示装置と、を備え、
     前記ロボット制御装置は、前記センサを用いた処理を行うプログラムの実行を制御する、ロボットシステム。
  9.  前記センサは視覚センサであり、
     前記プログラムは、前記視覚センサにより前記ワークを検出するための検出プログラムである、請求項8に記載のロボットシステム。
PCT/JP2021/036205 2021-09-30 2021-09-30 教示装置及びロボットシステム WO2023053368A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN202180102637.XA CN118019622A (zh) 2021-09-30 2021-09-30 示教装置以及机器人系统
US18/693,667 US20240383134A1 (en) 2021-09-30 2021-09-30 Teaching device and robot system
PCT/JP2021/036205 WO2023053368A1 (ja) 2021-09-30 2021-09-30 教示装置及びロボットシステム
JP2023550930A JP7712373B2 (ja) 2021-09-30 2021-09-30 教示装置及びロボットシステム
DE112021008005.9T DE112021008005T5 (de) 2021-09-30 2021-09-30 Lehrvorrichtung und robotersystem
TW111134060A TW202315722A (zh) 2021-09-30 2022-09-08 教示裝置及機器人系統

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/036205 WO2023053368A1 (ja) 2021-09-30 2021-09-30 教示装置及びロボットシステム

Publications (1)

Publication Number Publication Date
WO2023053368A1 true WO2023053368A1 (ja) 2023-04-06

Family

ID=85782001

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/036205 WO2023053368A1 (ja) 2021-09-30 2021-09-30 教示装置及びロボットシステム

Country Status (6)

Country Link
US (1) US20240383134A1 (ja)
JP (1) JP7712373B2 (ja)
CN (1) CN118019622A (ja)
DE (1) DE112021008005T5 (ja)
TW (1) TW202315722A (ja)
WO (1) WO2023053368A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024241526A1 (ja) * 2023-05-24 2024-11-28 ファナック株式会社 履歴管理装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005103681A (ja) * 2003-09-29 2005-04-21 Fanuc Ltd ロボットシステム
US20060241792A1 (en) * 2004-12-22 2006-10-26 Abb Research Ltd. Method to generate a human machine interface
JP2009146075A (ja) * 2007-12-13 2009-07-02 Keyence Corp 画像処理コントローラ及び検査支援システム
JP2014184494A (ja) * 2013-03-21 2014-10-02 Tsubakimoto Chain Co マニピュレータ装置
JP2019188545A (ja) * 2018-04-26 2019-10-31 セイコーエプソン株式会社 ロボット制御装置
JP2020082273A (ja) * 2018-11-26 2020-06-04 キヤノン株式会社 画像処理装置およびその制御方法、プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020202449A (ja) * 2019-06-07 2020-12-17 キヤノン株式会社 制御装置
JP7222331B2 (ja) * 2019-08-07 2023-02-15 日本精工株式会社 マニピュレーションシステム及びマニピュレーションシステムの駆動方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005103681A (ja) * 2003-09-29 2005-04-21 Fanuc Ltd ロボットシステム
US20060241792A1 (en) * 2004-12-22 2006-10-26 Abb Research Ltd. Method to generate a human machine interface
JP2009146075A (ja) * 2007-12-13 2009-07-02 Keyence Corp 画像処理コントローラ及び検査支援システム
JP2014184494A (ja) * 2013-03-21 2014-10-02 Tsubakimoto Chain Co マニピュレータ装置
JP2019188545A (ja) * 2018-04-26 2019-10-31 セイコーエプソン株式会社 ロボット制御装置
JP2020082273A (ja) * 2018-11-26 2020-06-04 キヤノン株式会社 画像処理装置およびその制御方法、プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024241526A1 (ja) * 2023-05-24 2024-11-28 ファナック株式会社 履歴管理装置

Also Published As

Publication number Publication date
CN118019622A (zh) 2024-05-10
JPWO2023053368A1 (ja) 2023-04-06
TW202315722A (zh) 2023-04-16
US20240383134A1 (en) 2024-11-21
JP7712373B2 (ja) 2025-07-23
DE112021008005T5 (de) 2024-05-16

Similar Documents

Publication Publication Date Title
CN109834695B (zh) 进行机器人的示教操作的示教装置以及示教方法
CN108687747B (zh) 机器人的示教装置
US11466974B2 (en) Image capturing apparatus and machine tool
EP1710649A2 (en) Motion control apparatus for teaching robot position, robot-position teaching apparatus, motion control method for teaching robot postion, robot-position teaching method, and motion control program for teaching robot-position
US11724392B2 (en) Program generation device configured to generate operation program including operation symbol of robot apparatus
CN106462141B (zh) 机床的控制装置
JP6553552B2 (ja) カメラを使って計測動作を自動化する機能を備えた数値制御装置
JP2004351570A (ja) ロボットシステム
JPH07311610A (ja) 視覚センサを用いた座標系設定方法
US20160253082A1 (en) Numerical controller for controlling machine tool
JP2005066797A (ja) ロボットプログラム位置修正装置
JP7553559B2 (ja) プログラミング装置
CN111225142A (zh) 图像处理装置及其控制方法和记录介质
JP7712373B2 (ja) 教示装置及びロボットシステム
JP7414507B2 (ja) 制御装置、計測システム、計測方法
CN114055460B (zh) 示教方法及机器人系统
US10705489B2 (en) Controller
JP7381729B2 (ja) 産業機械の表示装置
WO2014091897A1 (ja) ロボット制御システム
WO2022269927A1 (ja) プログラム作成装置
US20250128422A1 (en) Robot system and image capturing method
US20250091206A1 (en) Teaching device
US20250026010A1 (en) Teaching device, control device, and mechanical system
US11577381B2 (en) Teaching apparatus, robot system, and teaching program
US10921978B2 (en) Shaft feeder

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21959405

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023550930

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 18693667

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 202180102637.X

Country of ref document: CN

122 Ep: pct application non-entry in european phase

Ref document number: 21959405

Country of ref document: EP

Kind code of ref document: A1