FR3108183A1 - Procédé de réalisation automatique d’une opération sur un objet avec un outil porté par un système polyarticulé - Google Patents
Procédé de réalisation automatique d’une opération sur un objet avec un outil porté par un système polyarticulé Download PDFInfo
- Publication number
- FR3108183A1 FR3108183A1 FR2002515A FR2002515A FR3108183A1 FR 3108183 A1 FR3108183 A1 FR 3108183A1 FR 2002515 A FR2002515 A FR 2002515A FR 2002515 A FR2002515 A FR 2002515A FR 3108183 A1 FR3108183 A1 FR 3108183A1
- Authority
- FR
- France
- Prior art keywords
- tool
- polyarticulated system
- polyarticulated
- image
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0096—Programme-controlled manipulators co-operating with a working support, e.g. work-table
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/1605—Simulation of manipulator lay-out, design, modelling of manipulator
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1671—Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40442—Voxel map, 3-D grid map
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40475—In presence of moving obstacles, dynamic environment
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02E—REDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
- Y02E30/00—Energy generation of nuclear origin
- Y02E30/30—Nuclear fission reactors
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Numerical Control (AREA)
- Manipulator (AREA)
- Processing Or Creating Images (AREA)
Abstract
L’invention concerne un procédé et une installation de réalisation automatique d’une opération sur un objet (2) avec un outil (4) porté par un système polyarticulé (5) déplaçable dans un environnement de travail (3), l’objet (2) et l’environnement de travail (3) étant évolutifs ou insuffisamment définis pour réaliser l’opération.
Selon l’invention, le procédé comprend au moins :
- une étape A consistant à capturer, sous forme d’un nuage de points, une image de l’objet (2) et de l’environnement de travail (3) avec au moins un capteur 3D (6), à fusionner dans une image de travail, cette image avec le modèle CAO du système polyarticulé et avec l’éventuel modèle CAO de l’environnement, et à définir des paramètres d’anticollision ;
- une étape B consistant à définir une trajectoire de l’outil (4) sur la partie de l’image de travail représentant l’objet (2), et à exécuter une simulation du déplacement correspondant du système polyarticulé (5) et de l’outil dans l’image de travail pour s’assurer que l’opération est réalisable ;
- une étape C consistant, si l’opération est réalisable selon l’étape B, à exécuter le déplacement réel du système polyarticulé (5) portant l’outil (4) selon la trajectoire (10) définie pour réaliser l’opération sur l’objet (2).
Figure pour l’abrégé : Fig. 4
Description
La présente invention se rapporte au domaine technique de la réalisation de toutes opérations, par exemple de coupe, de soudure, de marquage, de décapage, de peinture, de surfaçage, de positionnement d’un capteur ou de tout type d’outil d’analyse, etc., sur un objet présent dans un environnement de travail, les positions et les géométries de l’objet et de l’environnement de travail étant éventuellement évolutives et/ou insuffisamment définies pour pouvoir réaliser lesdites opérations.
Par exemple, l’invention s’applique au secteur technique du démantèlement, dans lequel sont effectuées des opérations de mesure, de découpe, de préhension d’objets présentant éventuellement des risques liés à la radioactivité, sans que cela soit limitatif.
L’invention concerne plus précisément un procédé et une installation de réalisation automatique d’une opération sur un objet avec un outil porté par un système polyarticulé et déplaçable dans un environnement de travail, les positions et les géométries de l’objet et de l’environnement de travail étant évolutives et/ou insuffisamment définies pour pouvoir réaliser ladite opération en mode automatique. L’opération peut être de toute nature que ce soit dans tout type d’environnement, avec tout type d’outil et réalisée sur tout type d’objet.
La présente invention trouve par exemple une application avantageuse pour réaliser une opération sur un objet dans un environnement à risque et confiné, inaccessible à un opérateur ou dans lequel un opérateur évolue avec difficulté.
ETAT DE LA TECHNIQUE
Dans le domaine de l’invention, et par exemple celui du démantèlement d’objets radioactifs, les opérations de démantèlement peuvent être réalisées manuellement par un opérateur dans un environnement confiné.
Les opérations de démantèlement comprennent des opérations de mesure, de découpe, de préhension de l’objet. Notamment, l’opération de découpe a pour finalité de générer des éléments de dimensions plus petites dans un objectif d’optimiser le remplissage des conteneurs de déchets dans lesquels ils sont introduits par exemple. Ces pièces plus petites doivent donc être prises par le système pour être introduites dans le conteneur.
Ces différentes opérations sont réalisées par un opérateur équipé d’une disqueuse par exemple, ou de tout type d’outil lui permettant de réaliser les opérations concernées, et d’équipements de protection contraignants (par exemple, tenue ventilée, gants anti-coupure, etc.) eu égard notamment à l’environnement radioactif de l’atelier dans lequel il opère, et de la nature de l’opération à effectuer.
La réalisation de ces opérations n’est donc pas optimale, aussi bien en matière de sécurité pour l’opérateur, que de difficulté et de durée de réalisation.
Dans d’autres cas, les opérations ne peuvent pas être réalisées au contact par un opérateur, l’outil (de mesure, découpe, préhension) doit alors être porté par un système polyarticulé pour réaliser cette opération. L’opérateur pilote le système à distance à l’aide d’un renvoi de commande, en vision indirecte grâce à des caméras et des écrans. Les inconvénients d’un tel système sont d’une part son coût élevé, d’autre part l’imprécision de son pilotage en matière de vitesse, effort et positionnement, entraînant un temps de réalisation important et une usure prématurée des consommables des outils (lames, disques).
PRESENTATION DE L’INVENTION
L’invention vise à remédier aux inconvénients de l’art antérieur en fournissant un procédé et une installation de réalisation d’une opération sur un objet dans un environnement de travail, permettant d’assurer des conditions de sécurité, de précision et de vitesse optimales.
À cet effet, il a été mis au point un procédé de réalisation automatique d’une opération sur un objet avec un outil porté par un système polyarticulé déplaçable dans un environnement de travail.
Selon l’invention, le procédé comprend au moins :
-une étape A consistant:
- à capturer une image de l’objet et de tout ou partie de l’environnement de travail, avec au moins un capteur 3D, sous forme d’un nuage de points d’ensemble,
- à fusionner cette image avec un modèle CAO préexistant du système polyarticulé et un éventuel modèle CAO préexistant de tout ou partie de l’environnement tel que construit, résultant en une image de travail et
- à définir des paramètres d’anticollision;
-une étape B consistant à définir une trajectoire de l’outil sur la partie de l’image de travail représentant l’objet, et à exécuter une simulation du déplacement correspondant du système polyarticulé et de l’outil dans l’image de travail pour s’assurer que l’opération est réalisable;
-une étape C consistant, si l’opération est réalisable selon l’étape B, à exécuter le déplacement réel du système polyarticulé portant l’outil selon la trajectoire définie pour réaliser l’opération sur l’objet.
- à capturer une image de l’objet et de tout ou partie de l’environnement de travail, avec au moins un capteur 3D, sous forme d’un nuage de points d’ensemble,
- à fusionner cette image avec un modèle CAO préexistant du système polyarticulé et un éventuel modèle CAO préexistant de tout ou partie de l’environnement tel que construit, résultant en une image de travail et
- à définir des paramètres d’anticollision;
-une étape B consistant à définir une trajectoire de l’outil sur la partie de l’image de travail représentant l’objet, et à exécuter une simulation du déplacement correspondant du système polyarticulé et de l’outil dans l’image de travail pour s’assurer que l’opération est réalisable;
-une étape C consistant, si l’opération est réalisable selon l’étape B, à exécuter le déplacement réel du système polyarticulé portant l’outil selon la trajectoire définie pour réaliser l’opération sur l’objet.
Par capteur 3D, on entend au sens de l’invention, tout moyen de numérisation d’un objet ou partie d’objet sous forme d’image en trois dimensions, et comprend notamment les caméras 3D, scanners laser, moyens vidéo, webcams…
Les paramètres d’anticollision sont par exemple des distances seuils à partir desquelles des actions de mises en sécurité sont réalisées de façon automatique telles que l’arrêt total de tout mouvement ou la réduction de la vitesse de déplacement du système polyarticulé et de l’outil, par exemple jusqu’à une vitesse seuil qui constitue alors un paramètre d’anticollision.
De cette manière, l’invention permet de réaliser en mode automatique et à distance des opérations dans un environnement initialement incertain ou inconnu ou inaccessible tout en garantissant leur bonne exécution.
L’invention est avantageuse en ce que, avant tout déplacement du système polyarticulé, l’environnement de travail est numérisé sous forme d’un nuage de points d’ensemble. De cette manière, la position des différents obstacles vis-à-vis du déplacement du système polyarticulé, à savoir les éléments présents dans l’environnement de travail et l’objet sur lequel doivent être effectuées les opérations, est connue. Ainsi, toute collision entre le système polyarticulé ou son outil et les éléments de l’environnement peut être évitée, grâce aux paramètres d’anticollision.
Ceci est particulièrement avantageux lorsque l’environnement de travail n’est pas directement visible par l’opérateur qui contrôle le déroulement du procédé. L’opérateur visualise en nuage de points l’environnement de travail et l’objet sur l’afficheur, et vient définir une trajectoire de déplacement de l’outil pour réaliser l’opération désirée, par exemple une opération de découpe.
L’invention est aussi avantageuse en ce que le procédé permet d’exécuter une simulation, notamment en CAO, du déplacement correspondant du système polyarticulé et de son outil pour s’assurer que le déplacement est réalisable sans collision.
Ensuite, si la simulation du déplacement confirme sa faisabilité, le déplacement réel du système polyarticulé portant l’outil peut être exécuté pour réaliser l’opération en tant que telle sur l’objet.
Le procédé est réalisé ainsi en au moins trois étapes, à savoir:
- une étape A de sécurisation de l’environnement et de l’objet par numérisation sous forme d’un nuage de points d’ensemble,
- une étape B de définition et de simulation des trajectoires, et
- une étape C d’exécution.
- une étape A de sécurisation de l’environnement et de l’objet par numérisation sous forme d’un nuage de points d’ensemble,
- une étape B de définition et de simulation des trajectoires, et
- une étape C d’exécution.
De préférence, le procédé comprend également une étape A’, entre l’étape A et l’étape B, consistant à commander le déplacement du système polyarticulé pour capturer des images de détail de zones de l’objet avec un capteur 3D porté par le système polyarticulé, sous forme d’un nuage de points plus dense et plus précis que le nuage de points d’ensemble et à intégrer dans l’image de travail les images capturées de la zone correspondante de l’objet, en remplacement de la partie correspondante issue du nuage de points d’ensemble.
Cette étape supplémentaire permet de fournir une image de travail améliorée, d’une précision augmentée pour définir les différentes trajectoires de l’opération à réaliser. Par ailleurs, cette étape supplémentaire permet également de capturer des images des zones non visibles par le capteur utilisé pour l’étape A, grâce au déplacement du système polyarticulé, et de compléter ainsi l’image de travail.
Le capteur 3D porté par le système polyarticulé peut être fixé à demeure sur celui-ci, ou bien être entreposé à proximité. Dans cette dernière configuration, le procédé comprend une étape A’’, entre l’étape A est l’étape A’, consistant à déplacer automatiquement le système polyarticulé pour saisir et se connecter au capteur 3D entreposé à proximité.
Selon une forme de réalisation particulière, le procédé comprend une étape C’, entre l’étape B et l’étape C, consistant à déplacer automatiquement le système polyarticulé pour, éventuellement déconnecter et déposer un capteur 3D, et se connecter à l’outil entreposé à proximité.
Cette caractéristique permet d’avoir une pluralité d’outils à disposition entreposés à proximité, destinés à être connectés au système polyarticulé.
Dans l’hypothèse où plusieurs outils différents sont disponibles, le procédé comprend également, préalablement à l’étape B, une étape B’ consistant à sélectionner, dans et pour la simulation de l’étape B, dans une base de données d’outils, l’outil devant réaliser l’opération.
D’une manière avantageuse et afin d’éviter de détériorer l’outil, le procédé est également remarquable en ce que, lors de l’étape C, la vitesse de déplacement du système polyarticulé portant l’outil en contact direct avec l’objet peut-être, selon le besoin, régulée en temps réel en fonction d’une mesure directe ou indirecte de l’effort subi par l’outil.
Afin de sécuriser les déplacements du système polyarticulé portant le capteur 3D lors de l’étape A’, la vitesse de déplacement du système polyarticulé est automatiquement diminuée lorsque le capteur 3D ou une partie du système polyarticulé se rapproche de l’objet ou d’un élément de l’environnement de travail, et le déplacement est automatiquement arrêté lorsque le capteur 3D ou une partie du système polyarticulé se trouve à une distance de sécurité de l’objet ou d’un élément de l’environnement de travail, selon les paramètres d’anticollision définis à l’étape A.
La définition de la trajectoire de l’outil sur la partie de l’image de travail représentant l’objet selon l’étape B consiste à positionner sur l’image de travail soit au moins un couple point de départ - point d’arrivée, soit au moins une figure géométrique prédéfinie choisie dans une bibliothèque composée par exemple d’au moins une ligne, plans, masques…
L’invention concerne aussi une installation pour la mise en œuvre du procédé décrit ci-avant, caractérisée en ce qu’elle comprend un système polyarticulé et au moins un capteur 3D, reliés à un système de traitement informatique et à un afficheur, conçu pour:
- représenter sur l’afficheur un nuage de points d’ensemble de l’objet et de tout ou partie de l’environnement de travail à partir d’images capturées par au moins un capteur 3D;
- représenter une image de travail résultant de la fusion du nuage de points d’ensemble, d’un modèle CAO préexistant du système polyarticulé et d’un éventuel modèle CAO préexistant de tout ou partie de l’environnement tel que construit,
- représenter sur l’afficheur un nuage de points d’ensemble de l’objet et de tout ou partie de l’environnement de travail à partir d’images capturées par au moins un capteur 3D;
- représenter une image de travail résultant de la fusion du nuage de points d’ensemble, d’un modèle CAO préexistant du système polyarticulé et d’un éventuel modèle CAO préexistant de tout ou partie de l’environnement tel que construit,
le système de traitement informatique étant également conçu pour permettre de définir une trajectoire de l’outil sur la partie de l’image de travail représentant l’objet, et pour exécuter une simulation du déplacement correspondant du système polyarticulé et de l’outil dans l’image de travail pour s’assurer que l’opération est réalisable, et si l’opération est réalisable, pour exécuter le déplacement réel du système polyarticulé portant l’outil selon la trajectoire définie pour réaliser l’opération en tant que telle sur l’objet.
Avantageusement, l’installation comprend un moyen pour réguler, lors de l’étape C et en temps réel, la vitesse de déplacement du système polyarticulé portant un outil en contact direct avec l’objet, en fonction d’une mesure directe ou indirecte de l’effort subi par l’outil.
BREVE DESCRIPTION DES FIGURES
D’autres caractéristiques et avantages de l’invention ressortiront clairement de la description qui en est faite ci-après, à titre indicatif et nullement limitatif, en référence aux figures annexées, dans lesquelles:
L’invention concerne un procédé et une installation (1) de réalisation automatique d’une opération sur un objet (2) positionné dans un environnement de travail (3).
L’invention ne se limite pas à une opération en particulier, et peut concerner une opération de mesure, de découpe, de préhension, de soudure, d’écriture, de marquage, de décapage, de peinture, de surfaçage, de positionnement d’un capteur ou de tout type d’outil d’analyse, etc. L’opération en tant que telle est effectuée par l’intermédiaire d’un outil (4) porté par un système polyarticulé (5) déplaçable dans l’environnement de travail (3).
L’objet (2) sur lequel doit être réalisée l’opération selon le procédé de l’invention peut-être de toute nature, tel que par exemple un objet radioactif ou tout autre objet à démanteler, ou bien un objet à réparer, à souder, etc.
L’environnement de travail (3) lié à l’objet (2) peut être de toute nature, tel que par exemple un environnement de travail à risque, confiné, inaccessible à un opérateur ou dans lequel un opérateur évolue avec difficulté, tel qu’un environnement radioactif par exemple, ou encore un travail en hauteur.
En référence à la figure 1, l’installation (1) comprend un système polyarticulé (5), notamment sous la forme d’un bras robotisé déplaçable dans toutes les directions et dans l’environnement de travail (3). L’installation (1) comprend au moins un capteur 3D, par exemple une caméra 3D (6A, 6B, 6C) destinée à capturer une image de l’objet (2) et de tout ou partie de l’environnement de travail (3) pour le numériser et représenter, au moyen d’un système de traitement informatique connu, et d’un afficheur, une représentation tridimensionnelle d’un nuage (7) de points d’ensemble de l’objet (2) et de tout ou partie de l’environnement de travail (3).
Dans l’exemple illustré, l’installation (1) comprend trois caméras 3D (6A, 6B, 6C) positionnées de manière fixe sur une arche (8) autour et au-dessus du système polyarticulé (5).
Pour réaliser des opérations sur un objet (2) de manière sécurisée et en référence à la figure3, l’installation (1) met en œuvre un procédé comprenant au moins une étape A consistant à capturer, sous forme d’un nuage de points d’ensemble (7), une image de l’objet (2) et de tout ou partie de l’environnement de travail (3) avec la ou les caméras 3D (6A, 6B, 6C) fixées sur l’arche (8), à fusionner ce nuage de point d’ensemble (7) avec un modèle CAO préexistant du système polyarticulé (5) et un modèle CAO préexistant de l’environnement tel que construit, tel que celui de l’arche (8) et à représenter sur un afficheur l’image de travail en résultant (17) (ensemble de la figure 3).
Ceci permet de connaître les éventuels obstacles de l’environnement de travail (3) pour sécuriser les déplacements du système polyarticulé (5). À noter que, tout ou partie des éléments standards de l’environnement de travail (3), tels que l’arche (8), les caméras 3D (6A, 6B, 6C), le système polyarticulé (5) lui-même et son outil (4), peuvent être déjà connus, modélisés en CAO.
De cette manière, il est possible de connaître les déplacements du système polyarticulé (5) et de son outil (4) par rapport aux différents éléments de l’environnement de travail (3) et d’éviter automatiquement les collisions, grâce aux paramètres d’anticollision qui ont été préalablement définis.
Pour réaliser les opérations désirées sur l’objet (2), l’installation (1) comprend de préférence une pluralité d’outils (4) de types différents, et un capteur 3D, tel qu’une caméra 3D (16) entreposée à proximité, par exemple dans un bac dédié.
Cette caméra 3D (16) peut être du même type que les caméras 3D (6A, 6B, 6C) ou en être différente et, dans ce dernier cas, elle sera avantageusement plus précise que les caméras 3D (6A, 6B, 6C).
Ainsi, le procédé selon l’invention comprend avantageusement une étape A’’, après l’étape A, consistant à déplacer automatiquement, et donc de manière sécurisée, le système polyarticulé (5) pour aller saisir et se connecter à la caméra 3D (16) entreposée à proximité.
Après que le système polyarticulé (5) a saisi cette caméra 3D (16), le procédé comprend une étape A’, voir figure 2, consistant à commander le déplacement du système polyarticulé (5) pour capturer des images de détail de différentes zones de l’objet (2) avec la caméra 3D (16) plus précise que les caméras 3D (6A, 6B, 6C), sous forme d’un nuage de points plus dense et plus précis que le nuage de points d’ensemble (7) et à intégrer dans l’image de travail (17), voir figure 4, les images capturées (9) des zones correspondantes de l’objet (2) en remplacement de la partie correspondante issue du nuage de points d’ensemble (7) .
Le déplacement du système polyarticulé (5) pour capturer les différentes images est commandé, automatiquement ou par un opérateur distant de l’environnement de travail (3), par exemple au moyen d’un levier de commande et permet de capturer des images de zones inaccessibles, ou par exemple en sélectionnant directement sur le nuage de points d’ensemble (7) des zones spécifiques, ladite sélection entraînant le déplacement automatique du système polyarticulé. Dans cette configuration, l’opérateur sélectionne en pratique une zone pour laquelle il souhaite améliorer la précision de modélisation de l’objet. Le logiciel calcule ensuite les positions du système polyarticulé (5) nécessaires pour capturer les images avec les meilleurs points de vue. Pour rappel, le déplacement du système polyarticulé (5) s’effectue sans collision entre le système polyarticulé (5), la caméra 3D (16), l’objet (2) et les éléments de l’environnement de travail (3) puisque tout est modélisé au travers de l’image de travail (17), soit en CAO, soit par le nuage de points d’ensemble (7), soit par les images (9) de détails.
Par ailleurs, et afin d’améliorer la sécurité de fonctionnement de l’installation (1), lors de l’étape A’, la vitesse de déplacement du système polyarticulé (5) est automatiquement diminuée lorsque l’outil (4) ou une partie du système polyarticulé (5), dont les modélisations CAO sont connues, se rapproche de l’objet (2) ou d’un élément l’environnement de travail (3), et le déplacement est arrêté lorsque l’outil (4) ou une partie du système polyarticulé (5) se trouve à une distance de sécurité d’un obstacle.
De ce qui précède, l’opérateur qui commande le déplacement du système polyarticulé (5), et notamment de la caméra 3D (16) portée, vient capturer des images (9) de détails des zones sur lesquels il désire effectuer une opération. Ces images (9) de détails de l’objet (2) sont automatiquement intégrées dans l’image de travail (17), ce qui permet de reconstruire partiellement et plus précisément l’objet (2) et de connaître le détail de sa géométrie à l’endroit où l’opération doit être effectuée.
Dans l’hypothèse formulée où plusieurs outils (4) de types différents sont disponibles, le procédé comprend une étape B’ consistant à sélectionner, dans et pour la simulation, dans une base de données d’outils, l’outil (4) devant réaliser l’opération.
Ensuite, en référence à la figure 5, le procédé comprend une étape B consistant à définir une trajectoire (10) de l’outil (4) sur la partie de l’image de travail (17) représentant de l’objet (2), , et à exécuter une simulation du déplacement correspondant du système polyarticulé (5) et de l’outil (4) dans l’image de travail (17) pour s’assurer que l’opération est réalisable, notamment en termes d’orientation, d’accessibilité, et d’absence de collision, voir figure 6.
Le fait d’avoir capturé des images (9) de détails de l’objet (2) et de les avoir intégrées à l’image de travail (17) permet de fournir à l’opérateur un support d’une précision augmentée pour pouvoir définir et positionner les trajectoires (10) de l’outil (4).
Pour définir les trajectoires (10), l’opérateur peut positionner sur l’image de travail (17) visualisée sur l’afficheur, un couple point de départ – point d’arrivée ou une figure géométrique choisie dans une bibliothèque composée de lignes, plans ou masques… et le système de traitement informatique est conçu pour calculer automatiquement les trajectoires (10) sur l’objet (2). Si besoin, le système de traitement permet un ajustement manuel de la trajectoire (10), ou permet à l’opérateur de tracer directement les trajectoires (10) sur la représentation de l’objet (2).
Par exemple, en référence à la figure 5, un plan (11) a été positionné sur la représentation de la surface de l’objet (2) à découper, et le système de traitement informatique a défini la trajectoire (10) par l’intersection entre le plan (11) et ladite surface. Cette technique est également illustrée à la figure 7, où l’on voit le positionnement d’un plan (11), et à la figure 8 où l’on voit les trajectoires (10) calculées et tracées issues de l’intersection entre le plan (11) et la représentation de l’objet (2).
Après avoir calculé les trajectoires (10), le système de traitement informatique permet de simuler le déplacement correspondant du système polyarticulé (5) et de l’outil (4) dans l’image de travail (17) pour s’assurer que l’opération est réalisable, ceci dépendant bien entendu de la trajectoire (10) testée, de l’outil (4) et des possibilités d’accessibilité et de déplacement du système polyarticulé(5). Les étapes de test du déplacement sont par exemple illustrées aux figures6 et 9. Si la simulation montre que le déplacement est possible, c’est-à-dire qu’il est possible en matière d’orientation et d’accessibilité, et qu’il n’engendre aucune collision entre les différents éléments de l’installation (1) et de l’environnement de travail (3), le déplacement réel peut être effectué. L’étape B est réalisée autant de fois que nécessaire pour aboutir à un déplacement exécutable.
Le procédé comprend alors avantageusement une étape C’ consistant à déplacer automatiquement le système polyarticulé (5) pour déconnecter et déposer la caméra 3D (16), par exemple dans le bac dédié, et se connecter à l’outil (4) qui avait préalablement été sélectionné, entreposé aussi à proximité.
Après connexion de l’outil (4), le procédé comprend une étape C consistant, si la simulation a montré que l’opération est réalisable, à exécuter le déplacement réel du système polyarticulé (5) portant l’outil (4) selon la trajectoire (10) définie et validée pour réaliser l’opération en tant que telle sur l’objet(2).
De préférence, lors de l’étape C et pour éviter de détériorer l’outil (4), l’installation comprend un moyen pour réguler, lors de l’étape C et en temps réel, la vitesse de déplacement du système polyarticulé (5) portant l’outil (4) en contact direct avec l’objet (2), en fonction d’une mesure directe ou indirecte de l’effort subi par l’outil. Par exemple, cette mesure est obtenue par une mesure de courant consommé par l’outil (4) ou par des moteurs permettant le déplacement du système polyarticulé (5) ou est obtenue par un capteur d’effort positionné entre le système polyarticulé (5) et l’outil (4).
Dans un but de simplification de la compréhension, la succession des étapes du procédé apparaissent dans un organigramme simplifié illustré la figure 10.
D’une manière avantageuse, lorsqu’il est nécessaire de réaliser plusieurs opérations successives sur l’objet (2), par exemple plusieurs opérations de découpe, la trajectoire (10) de coupe suivante est définie, en temps masqué, pendant l’opération de découpe précédente, ou plusieurs trajectoires (10) sont simulées et enregistrées pour être ensuite réalisées les unes après les autres dans un ordre qui peut être modifié par l’opérateur.
L’invention est également particulièrement avantageuse dans un environnement évolutif, du fait de nouveaux éléments ou obstacles potentiels par ajout d’objets ou de la libération d’espace par exemple lié à la découpe de l’objet (2), les étapes A à C du procédé de l’invention étant alors répétées pour disposer des images et simulations les plus actualisées possible pour la poursuite des opérations sur l’objet (2), de manière facilitée et sans risque de collision.
L’afficheur illustre, en mode CAO, l’installation (1), l’objet (2) et les différents éléments de l’environnement. De préférence, le système polyarticulé (5) est représenté en couleurs interactives. En d’autres termes, le système polyarticulé (5) est par exemple représenté en vert et au fur et à mesure que l’une de ses parties se rapproche d’un obstacle, la couleur de la partie concernée passe successivement au orange lorsque le système polyarticulé (5)et / ou l’outil (4) entre dans la zone de risque de collision définie par les paramètres de gestion des collisions et au rouge lorsque le déplacement est arrêté car le système polyarticulé (5) et/ou l’outil (4) a atteint la distance seuil définie dans les paramètres de gestion des collisions.
Il ressort de ce qui précède que l’invention fournit un procédé et une installation (1) permettant de réaliser, d’une manière automatique et sécurisée, une opération sur un objet (2) présent dans un environnement de travail (3), les positions et géométries de l’objet et de l’environnement de travail étant évolutives et/ou insuffisamment définies pour pouvoir réaliser l’opération.
Le procédé s’adapte à tout type de géométrie ou de nature de l’objet (2). La première étape de sécurisation de l’environnement et de l’objet (2) par numérisation sous forme d’un nuage de points d’ensemble est réalisée avec des caméras 3D, ce qui permet une adaptation à tout type de position et de géométrie de l’objet (2) et d’éléments de l’environnement. Le temps de traitement est rapide, avec notamment 500000 points de mesure en une seconde. Les détails obtenus de l’environnement sont importants, l’information est continue. Cela permet d’avoir un rendu et une modélisation réaliste en temps réel, l’opérateur peut éventuellement facilement vérifier visuellement si la reconstruction en nuage de points (7) est correcte.
Claims (10)
- Procédé de réalisation automatique d’une opération sur un objet (2) avec un outil (4) porté par un système polyarticulé (5) déplaçable dans un environnement de travail(3), caractérisé en ce qu’il comprend au moins:
-une étape A consistant à capturer, sous forme d’un nuage de points d’ensemble (7), une image de l’objet (2) et de tout ou partie de l’environnement de travail (3) avec au moins un capteur 3D (6A, 6B, 6C); à fusionner ladite image (7) avec un modèle CAO préexistant du système polyarticulé (5) et un éventuel modèle CAO préexistant de tout ou partie de l’environnement de travail (3) tel que construit, cette fusion résultant en une image de travail(17); et à définir des paramètres d’anticollision;
-une étape B consistant à définir une trajectoire de l’outil (4) sur la partie de l’image de travail représentant l’objet (2), et à exécuter une simulation du déplacement correspondant du système polyarticulé (5) et de l’outil dans l’image de travail (17) pour s’assurer que l’opération est réalisable;
-une étape C consistant, si l’opération est réalisable selon l’étape B, à exécuter le déplacement réel du système polyarticulé (5) portant l’outil (4) selon la trajectoire (10) définie pour réaliser l’opération sur l’objet (2). - Procédé selon la revendication 1, caractérisé en ce qu’il comprend une étape A’, entre l’étape A et l’étape B, consistant à commander le déplacement du système polyarticulé (5) pour capturer des images (9) de détail de zones de l’objet (2) avec un capteur 3D (16) porté par le système polyarticulé (5), sous forme d’un nuage de points plus dense et plus précis que le nuage de points d’ensemble, et à intégrer dans l’image de travail (17) les images (9) capturées de la zone correspondante de l’objet (2), en remplacement de la partie correspondante issue du nuage de points d’ensemble (7).
- Procédé selon la revendication 2, caractérisé en ce qu’il comprend une étape A’’, entre l’étape A et l’étape A’, consistant à déplacer automatiquement le système polyarticulé (5) pour saisir et se connecter au capteur 3D (16) entreposé à proximité.
- Procédé selon l’une des revendications précédentes, caractérisé en ce qu’il comprend une étape C’, entre l’étape B et l’étape C, consistant à déplacer automatiquement le système polyarticulé (5) pour, éventuellement déconnecter et déposer un capteur 3D (16) et, se connecter à l’outil (4) entreposé à proximité.
- Procédé selon la revendication 1, caractérisé en ce que, préalablement à l’étape B, le procédé comprend une étape B’ consistant à sélectionner, dans et pour la simulation de l’étape B, dans une base de données d’outils, l’outil (4) devant réaliser l’opération.
- Procédé selon la revendication 1, caractérisé en ce que, lors de l’étape C, la vitesse de déplacement du système polyarticulé (5) portant l’outil (4) en contact direct avec l’objet (2) est régulée en temps réel en fonction d’une mesure directe ou indirecte de l’effort subi par l’outil (4).
- Procédé selon la revendication 1, caractérisé en ce que, lors de l’étape A’, la vitesse de déplacement du système polyarticulé (5) est automatiquement diminuée lorsque le capteur 3D (16) ou une partie du système polyarticulé (5) se rapproche de l’objet (2) ou d’un élément de l’environnement de travail (3), et le déplacement est automatiquement arrêté lorsque le capteur 3D (16) ou une partie du système polyarticulé (5) se trouve à une distance de sécurité de l’objet (2) ou d’un élément de l’environnement de travail (3), selon les paramètres d’anticollision définis à l’étape A.
- Procédé selon la revendication 1, caractérisé en ce que la trajectoire de l’outil (4) sur la partie de l’image de travail représentant l’objet (2) selon l’étape B est définie par le positionnement sur l’image de travail (17) soit d’au moins un couple point de départ – point d’arrivée soit au moins une figure géométrique prédéfinie, notamment un plan (11), au moins une ligne, ou un masque.
- Installation (1) pour la mise en œuvre du procédé de la revendication 1, caractérisé e en ce qu’elle comprend un système polyarticulé (5), et au moins un capteur 3D (6, 16), reliés à un système de traitement informatique et à un afficheur, le système de traitement informatique étant conçu pour:
- représenter sur l’afficheur un nuage de points d’ensemble (7) de l’objet (2) et de tout ou partie de l’environnement de travail (3) à partir d’images capturées par au moins un capteur 3D (6,16), et
- représenter une image de travail (17) résultant de la fusion du nuage de points d’ensemble (7), d’un modèle CAO préexistant du système polyarticulé (5) et d’un éventuel modèle CAO préexistant de tout ou partie de l’environnement de travail (3), et
-permettre de définir une trajectoire (10) de l’outil (4) sur la partie de l’image de travail (17) représentant l’objet (2), et
- exécuter une simulation du déplacement correspondant du système polyarticulé (5) et de l’outil (4) dans l’image de travail (17) pour s’assurer que l’opération est réalisable, et,
- si l’opération est réalisable, exécuter le déplacement réel du système polyarticulé (5) portant l’outil (4) selon la trajectoire (10) définie pour réaliser l’opération en tant que telle sur l’objet (2). - Installation (1) selon la revendication 9, caractérisée en ce qu’elle comprend un moyen pour réguler, lors de l’étape C et en temps réel, la vitesse de déplacement du système polyarticulé (5) portant l’outil (4) en contact direct avec l’objet (2), en fonction d’une mesure directe ou indirecte de l’effort subi par l’outil (4).
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR2002515A FR3108183B1 (fr) | 2020-03-13 | 2020-03-13 | Procédé de réalisation automatique d’une opération sur un objet avec un outil porté par un système polyarticulé |
US17/906,142 US20230106854A1 (en) | 2020-03-13 | 2021-03-05 | Method for automatically performing an operation on an object with a tool carried by a polyarticulated system |
KR1020227034950A KR20220154716A (ko) | 2020-03-13 | 2021-03-05 | 다관절 시스템에 의해 운반되는 도구를 사용하여 물체에 대한 작업을 자동으로 수행하는 방법 |
CN202180029322.7A CN115916476A (zh) | 2020-03-13 | 2021-03-05 | 利用由多关节系统承载的工具对物体自动执行操作的方法 |
EP21714659.6A EP4117867A1 (fr) | 2020-03-13 | 2021-03-05 | Procédé de réalisation automatique d'une opération sur un objet avec un outil porté par un système polyarticulé |
PCT/FR2021/050380 WO2021181035A1 (fr) | 2020-03-13 | 2021-03-05 | Procédé de réalisation automatique d'une opération sur un objet avec un outil porté par un système polyarticulé |
JP2022555706A JP2023530209A (ja) | 2020-03-13 | 2021-03-05 | 多関節システムによって保持されたツールを用いて対象物に対する操作を自動で行うための方法 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR2002515 | 2020-03-13 | ||
FR2002515A FR3108183B1 (fr) | 2020-03-13 | 2020-03-13 | Procédé de réalisation automatique d’une opération sur un objet avec un outil porté par un système polyarticulé |
Publications (2)
Publication Number | Publication Date |
---|---|
FR3108183A1 true FR3108183A1 (fr) | 2021-09-17 |
FR3108183B1 FR3108183B1 (fr) | 2022-02-25 |
Family
ID=72266362
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR2002515A Active FR3108183B1 (fr) | 2020-03-13 | 2020-03-13 | Procédé de réalisation automatique d’une opération sur un objet avec un outil porté par un système polyarticulé |
Country Status (7)
Country | Link |
---|---|
US (1) | US20230106854A1 (fr) |
EP (1) | EP4117867A1 (fr) |
JP (1) | JP2023530209A (fr) |
KR (1) | KR20220154716A (fr) |
CN (1) | CN115916476A (fr) |
FR (1) | FR3108183B1 (fr) |
WO (1) | WO2021181035A1 (fr) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113848803B (zh) * | 2021-10-14 | 2023-09-12 | 成都永峰科技有限公司 | 一种深腔曲面加工刀路生成方法 |
CA3173119A1 (fr) * | 2022-05-13 | 2023-11-13 | Xiaojia He | Systemes et methodes d'ajustement de surface, de planification de voie et de traitement de surface d'un objet |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2896441A1 (fr) * | 2006-01-23 | 2007-07-27 | Jerome Grosbois | Procede et systeme permettant la prehension automatisee de piece(s) |
US9669543B1 (en) * | 2015-12-11 | 2017-06-06 | Amazon Technologies, Inc. | Validation of robotic item grasping |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3817530B2 (ja) * | 2003-06-30 | 2006-09-06 | 本田技研工業株式会社 | 3次元形状測定方法及びその測定装置 |
JP2005138223A (ja) * | 2003-11-06 | 2005-06-02 | Fanuc Ltd | ロボット用位置データ修正装置 |
DE102006005958A1 (de) * | 2006-02-08 | 2007-08-16 | Kuka Roboter Gmbh | Verfahren zum Erzeugen eines Umgebungsbildes |
US8271132B2 (en) * | 2008-03-13 | 2012-09-18 | Battelle Energy Alliance, Llc | System and method for seamless task-directed autonomy for robots |
JP5259286B2 (ja) * | 2008-07-16 | 2013-08-07 | 株式会社日立製作所 | 3次元物体認識システム及びそれを用いた棚卸システム |
GB2494081B (en) * | 2010-05-20 | 2015-11-11 | Irobot Corp | Mobile human interface robot |
JP2012223839A (ja) * | 2011-04-15 | 2012-11-15 | Yaskawa Electric Corp | ロボットシステムおよびロボットシステムの駆動方法 |
JP6140204B2 (ja) * | 2015-02-06 | 2017-05-31 | ファナック株式会社 | 3次元センサを備えた搬送ロボットシステム |
JP6328599B2 (ja) * | 2015-11-20 | 2018-05-23 | ファナック株式会社 | ロボットの動作可能範囲を算出するロボットの手動送り装置 |
US9671777B1 (en) * | 2016-06-21 | 2017-06-06 | TruPhysics GmbH | Training robots to execute actions in physics-based virtual environment |
JP7009051B2 (ja) * | 2016-08-04 | 2022-01-25 | キヤノン株式会社 | レイアウト設定方法、制御プログラム、記録媒体、制御装置、部品の製造方法、ロボットシステム、ロボット制御装置、情報処理方法、情報処理装置 |
JP6807949B2 (ja) * | 2016-11-16 | 2021-01-06 | 三菱電機株式会社 | 干渉回避装置 |
KR101850410B1 (ko) * | 2016-12-26 | 2018-04-20 | 한국생산기술연구원 | 가상 현실 기반 로봇 교시를 위한 시뮬레이션 장치 및 방법 |
US10766140B2 (en) * | 2017-04-13 | 2020-09-08 | Battelle Memorial Institute | Teach mode collision avoidance system and method for industrial robotic manipulators |
JP7166767B2 (ja) * | 2017-05-25 | 2022-11-08 | キヤノン株式会社 | 機器、製造方法、およびシステム |
GB2571528A (en) * | 2018-02-28 | 2019-09-04 | Rolls Royce Plc | Controlling a robot in an environment |
US10821603B2 (en) * | 2018-09-05 | 2020-11-03 | The Boeing Company | Methods and apparatus for robot control |
CN109465753A (zh) * | 2018-11-21 | 2019-03-15 | 无锡荣恩科技有限公司 | 航空零部件全自动喷砂除漆方法 |
CN109822579A (zh) * | 2019-04-10 | 2019-05-31 | 江苏艾萨克机器人股份有限公司 | 基于视觉的协作机器人安全控制方法 |
EP3744482B1 (fr) * | 2019-05-27 | 2021-12-29 | Sick Ag | Fixation d'une pièce de machine mobile |
FI20195670A1 (en) * | 2019-08-12 | 2021-02-13 | 3R Cycle Oy | Method and apparatus for disassembling electronics |
CN110524581B (zh) * | 2019-09-16 | 2023-06-02 | 西安中科光电精密工程有限公司 | 一种柔性焊接机器人系统及其焊接方法 |
WO2021206671A1 (fr) * | 2020-04-06 | 2021-10-14 | Siemens Aktiengesellschaft | Reconstruction 3d orientée vers les tâches pour des opérations robotiques autonomes |
CN112091971B (zh) * | 2020-08-21 | 2021-10-12 | 季华实验室 | 机器人手眼标定方法、装置、电子设备和系统 |
US20240042605A1 (en) * | 2022-08-05 | 2024-02-08 | Mingfeng ZHANG | Apparatus and a Method for Automatically Programming a Robot to Follow Contours of Objects |
-
2020
- 2020-03-13 FR FR2002515A patent/FR3108183B1/fr active Active
-
2021
- 2021-03-05 JP JP2022555706A patent/JP2023530209A/ja active Pending
- 2021-03-05 CN CN202180029322.7A patent/CN115916476A/zh active Pending
- 2021-03-05 WO PCT/FR2021/050380 patent/WO2021181035A1/fr active Application Filing
- 2021-03-05 EP EP21714659.6A patent/EP4117867A1/fr active Pending
- 2021-03-05 KR KR1020227034950A patent/KR20220154716A/ko active Pending
- 2021-03-05 US US17/906,142 patent/US20230106854A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2896441A1 (fr) * | 2006-01-23 | 2007-07-27 | Jerome Grosbois | Procede et systeme permettant la prehension automatisee de piece(s) |
US9669543B1 (en) * | 2015-12-11 | 2017-06-06 | Amazon Technologies, Inc. | Validation of robotic item grasping |
Also Published As
Publication number | Publication date |
---|---|
EP4117867A1 (fr) | 2023-01-18 |
US20230106854A1 (en) | 2023-04-06 |
FR3108183B1 (fr) | 2022-02-25 |
CN115916476A (zh) | 2023-04-04 |
JP2023530209A (ja) | 2023-07-14 |
KR20220154716A (ko) | 2022-11-22 |
WO2021181035A1 (fr) | 2021-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107175329B (zh) | 一种3d打印逐层检测反求零件模型及定位缺陷装置与方法 | |
CA2674317C (fr) | Procede et systeme permettant la prehension automatisee de piece(s) | |
EP4182126B1 (fr) | Contrôle automatique d'un système d'ébavurage de pièces | |
WO2021181035A1 (fr) | Procédé de réalisation automatique d'une opération sur un objet avec un outil porté par un système polyarticulé | |
WO2009090542A2 (fr) | Procede pour l'apprentissage d'un robot ou similaire et dispositif pour la mise en oeuvre de ce procede | |
CA2923490C (fr) | Procede de generation d'un programme d'usinage interpretable par un controleur physique d'une machine-outil a commande numerique | |
JP6997726B2 (ja) | 目視検査デバイスのアーティキュレーションのための方法およびシステム | |
WO2007017597A2 (fr) | Procede et dispositif pour determiner la pose d'un moyen de capture video dans le repere de numerisation d'au moins un objet virtuel en trois dimensions modelisant au moins un objet reel | |
CN103106076A (zh) | 机器视觉检查系统和在该系统上编辑部件程序的方法 | |
EP0487415A1 (fr) | Procédé de contrôle de mesures dimensionnelles de pièces de fonderie | |
EP1671192B1 (fr) | Procede d' etalonnage d' une machine de percage de verres ophtalmiques, dispositif pour la mise en oeuvre d' un tel procede, et appareil d' usinage de verres ophtalmiques equipe d' un tel dispositif | |
CN106903425B (zh) | 用于处理工件的方法 | |
CA3138919A1 (fr) | Dispositif et procede pour le controle d'une piece en cours de fabrication | |
EP3092533B1 (fr) | Systemes d`usinage comportant une machine d`usinage et des procedes de commande | |
FR3080184A1 (fr) | Procede de mesure de la corrosion d'une piece et application au controle de la resistance mecanique d'une piece corrodee | |
FR3096599A1 (fr) | Collaboration d'un robot et d'un opérateur en vue de modifier une pièce | |
FR3149099A1 (fr) | Procédé de génération d’un programme d’usinage à l’aide d’un système de programmation. | |
FR3123680A1 (fr) | Procédé de saisie automatique d’un voussoir de revêtement d'un tunnel | |
FR2720026A1 (fr) | Procédé de génération d'une trajectoire d'outil sur une surface d'une pièce. | |
FR3141369A1 (fr) | Système et Procédé d’Acquisition et de Détermination des Axes des Soupapes dans des Moules de Vulcanisation de Pneumatiques | |
WO2023214063A1 (fr) | Procédé et système de réparation d'un objet | |
EP3658998A1 (fr) | Procédé de contrôle d'une surface | |
FR3028615A1 (fr) | Procede d’inspection d’un produit tel qu’un composant d’une nacelle de turboreacteur |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20210917 |
|
PLFP | Fee payment |
Year of fee payment: 3 |
|
OR | Opposition filed |
Effective date: 20221116 |
|
PLFP | Fee payment |
Year of fee payment: 4 |
|
PLFP | Fee payment |
Year of fee payment: 5 |