FR3116902A1 - Procede pour detecter d’eventuels enfoncements sur une surface apte a reflechir la lumiere - Google Patents
Procede pour detecter d’eventuels enfoncements sur une surface apte a reflechir la lumiere Download PDFInfo
- Publication number
- FR3116902A1 FR3116902A1 FR2012237A FR2012237A FR3116902A1 FR 3116902 A1 FR3116902 A1 FR 3116902A1 FR 2012237 A FR2012237 A FR 2012237A FR 2012237 A FR2012237 A FR 2012237A FR 3116902 A1 FR3116902 A1 FR 3116902A1
- Authority
- FR
- France
- Prior art keywords
- light source
- data processing
- processing device
- specular reflection
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 230000003287 optical effect Effects 0.000 claims description 18
- 230000000694 effects Effects 0.000 claims description 6
- 230000000994 depressogenic effect Effects 0.000 claims description 4
- 238000013473 artificial intelligence Methods 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims description 3
- 230000001186 cumulative effect Effects 0.000 claims description 2
- 238000007373 indentation Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/95—Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
- G01N21/9515—Objects of complex shape, e.g. examined with use of a surface follower device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8851—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64F—GROUND OR AIRCRAFT-CARRIER-DECK INSTALLATIONS SPECIALLY ADAPTED FOR USE IN CONNECTION WITH AIRCRAFT; DESIGNING, MANUFACTURING, ASSEMBLING, CLEANING, MAINTAINING OR REPAIRING AIRCRAFT, NOT OTHERWISE PROVIDED FOR; HANDLING, TRANSPORTING, TESTING OR INSPECTING AIRCRAFT COMPONENTS, NOT OTHERWISE PROVIDED FOR
- B64F5/00—Designing, manufacturing, assembling, cleaning, maintaining or repairing aircraft, not otherwise provided for; Handling, transporting, testing or inspecting aircraft components, not otherwise provided for
- B64F5/60—Testing or inspecting aircraft components or systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
- B64U10/10—Rotorcrafts
- B64U10/13—Flying platforms
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/01—Arrangements or apparatus for facilitating the optical investigation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/141—Control of illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/20—Remote controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U30/00—Means for producing lift; Empennages; Arrangements thereof
- B64U30/20—Rotors; Rotor supports
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/01—Arrangements or apparatus for facilitating the optical investigation
- G01N2021/0106—General arrangement of respective parts
- G01N2021/0112—Apparatus in one mechanical, optical or electronic block
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8806—Specially adapted optical and illumination features
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N2201/00—Features of devices classified in G01N21/00
- G01N2201/02—Mechanical
- G01N2201/021—Special mounting in general
- G01N2201/0214—Airborne
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10152—Varying illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Immunology (AREA)
- Mechanical Engineering (AREA)
- Life Sciences & Earth Sciences (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Biochemistry (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Remote Sensing (AREA)
- Pathology (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Manufacturing & Machinery (AREA)
- Transportation (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
Abstract
Un procédé pour détecter d’éventuels enfoncements (32) sur une surface (30) comprend :
Mettre à disposition un drone volant (12) avec un dispositif d’acquisition d’images (14) et une source de lumière (16) de forme allongée, et un dispositif de traitement de données (18) ;
Acquérir au moins une série d’images de portions de la surface (30) au moyen du dispositif d’acquisition d’images (14), en déplaçant le drone volant (12) en regard de la surface, selon une trajectoire telle que, pour chaque image de la série, la source de lumière (16) éclaire la portion correspondante de la surface (30) ;
Mettre en œuvre le dispositif de traitement de données (18) de sorte à analyser la forme d’un reflet spéculaire de la source de lumière (16) dans des images de la série d’images de manière à estimer la position des éventuels enfoncements (32) de la surface.
Figure pour l’abrégé : Figure 6
Description
La présente invention concerne un procédé pour détecter des enfoncements sur une surface apte à réfléchir la lumière, tel que la surface externe (ou peau) d'un aéronef. De tels enfoncements peuvent être provoqués notamment par la chute d'un objet ou par une collision avec un oiseau.
État de la technique antérieure
La détection des enfoncements sur la surface externe d'un d'aéronef a conventionnellement été réalisée par contrôle visuel. Le relevé de la position des enfoncements est dans ce cas réalisé manuellement au moyen d’outils de mesure tels que des mètres ruban, en référence à des éléments structurels visibles tels que des cadres, lisses ou nervures qui forment la structure interne du fuselage ou de la voilure.
Une telle opération mobilise plusieurs opérateurs et est longue à mettre en œuvre, notamment dans les cas nécessitant la mise en place d'échafaudages pour atteindre une partie haute de l'aéronef.
Il a également été proposé, dans le document FR3038109B1 (et son équivalent US9830411B2), d’utiliser des drones équipés de dispositifs de télémétrie afin d’effectuer la détection et la mesure d’enfoncements sur la surface externe d'un d'aéronef.
Cette méthode permet un gain de temps et une réduction de coûts considérable, mais requiert une connaissance précisea prioride la géométrie idéale (c’est-à-dire sans défaut) de la surface à analyser, et ne permet pas toujours d’atteindre une précision de mesure suffisante.
L'invention a pour objet un procédé adapté à l’inspection de surfaces de grandes dimensions (par exemple plusieurs centaines de mètres-carrés) qui soit rapide à mettre en œuvre et efficace, et qui permette de s’affranchir, au moins en partie, des inconvénients mentionnés ci-dessus. L’invention a également pour objet un système et un produit programme d’ordinateur permettant la mise en œuvre d’un tel procédé.
L’invention propose à cet effet un procédé pour détecter d’éventuels enfoncements sur une surface apte à réfléchir la lumière, comprenant au moins les étapes suivantes :
- A) Mettre à disposition un système, comprenant un drone volant équipé d’un dispositif d’acquisition d’images et d’au moins une source de lumière ayant une forme allongée définissant une direction longitudinale de la source de lumière, et un dispositif de traitement de données ;
- B) Acquérir au moins une série d’images de portions de la surface au moyen du dispositif d’acquisition d’images, en déplaçant le drone volant en regard de la surface, selon une trajectoire telle que, pour chaque image de la série, la source de lumière éclaire la portion correspondante de la surface ;
- C) Mettre en œuvre le dispositif de traitement de données de sorte à analyser la forme d’un reflet spéculaire de la source de lumière dans tout ou partie des images de la série d’images de manière à estimer la position des éventuels enfoncements de la surface.
D’une manière générale, le procédé selon l'invention permet l’analyse de surfaces de très grandes dimensions, par exemple de plusieurs centaines de mètres carrés, d’une manière particulièrement rapide, efficace et fiable, sans requérir de connaissance préalable précise de la forme de ces surfaces.
Lorsque cela est souhaité, le procédé selon l'invention permet l’automatisation de tout ou partie de l’étape C d’analyse. Dès lors que la géométrie idéale de la surface à inspecter est connue au moins grossièrement, la commande du drone volant peut être intégralement ou partiellement réalisée de manière programmée, de sorte que l’automatisation de l’étape B du procédé est également possible.
Dans un mode de réalisation de l’invention, pour la série d’images ou pour chaque séries d’images, la trajectoire du drone volant est telle qu’un axe optique du dispositif d’acquisition d’images demeure dans un plan de section correspondant de la surface, et que la source de lumière soit dans une orientation telle que la direction longitudinale de celle-ci soit sécante audit plan de section de la surface.
Dans un mode de réalisation de l’invention, l’étape C comprend les étapes suivantes :
- C-I) Pour chaque image de la série d’images, mettre en œuvre le dispositif de traitement de données de manière à :
- c1) Identifier le reflet spéculaire de la source de lumière dans l’image ;
- c2) À partir du reflet spéculaire identifié à la sous-étape précédente, estimer la position médiane, orthogonalement à la direction longitudinale de la source de lumière, d’un reflet spéculaire idéal de la source de lumière dans l’image, correspondant à la position médiane d’un tel reflet spéculaire en l’absence d’enfoncement de la surface ;
- c3) Déterminer une distance entre le drone volant et la surface ;
- c4) Déterminer la position, sur la surface, de chaque point d’une origine du reflet spéculaire de la source de lumière dans l’image ;
- c5) Estimer une pente locale de la surface en chaque point de l’origine du reflet spéculaire, au moins à partir d’une estimation de la distance éventuelle entre chaque point du reflet spéculaire de la source de lumière dans l’image et la position médiane estimée du reflet spéculaire idéal ;
- C-II) À partir de l’ensemble des estimations de pentes locales obtenues à l’issue de l’étape C-I pour au moins une région de la surface, mettre en œuvre le dispositif de traitement de données de manière à estimer la position d’éventuels enfoncements de la surface.
Dans un mode de réalisation de l’invention, la sous-étape c3 comprend la détermination, par le dispositif de traitement de données, d’une étendue longitudinale apparente du reflet spéculaire de la source de lumière dans l’image, à partir de laquelle le dispositif de traitement de données déduit la distance entre le drone volant et la surface.
Dans un mode de réalisation de l’invention, la sous-étape c4 comprend la mise en œuvre du dispositif de traitement de données de manière à :
- déterminer, à partir de la position médiane estimée du reflet spéculaire idéal dans l’image, un angle entre l’axe optique du dispositif d’acquisition d’images et un plan passant par un centre optique du dispositif d’acquisition d’images et dans lequel s’inscrit une position médiane d’une origine du reflet spéculaire idéal de la source de lumière sur une surface idéale correspondant à la forme qu’aurait la surface sans enfoncement ;
- en déduire l’orientation, par rapport à un plan de référence, de la direction normale à la surface, en tout point de l’origine du reflet spéculaire de la source de lumière en zone non enfoncée de la surface ;
- en déduire une correspondance entre chaque point de l’image et chaque point de la portion correspondante de la surface.
Dans un mode de réalisation de l’invention, la sous-étape c5 comprend la détermination, par le dispositif de traitement de données, d’une borne maximale d’un paramètre traduisant l’effet cumulé de la largeur de la source de lumière et d’un éventuel effet de peau d’orange inhérent à la surface, sur le reflet spéculaire de la source de lumière dans l’image, à partir d’une estimation, par le dispositif de traitement de données, de la largeur du reflet spéculaire idéal de la source de lumière dans l’image.
Dans un mode de réalisation de l’invention, l’étape C-II comprend la mise en œuvre du dispositif de traitement de données de manière à déterminer, le long de différents plans de section de la surface, des profils de pente locale correspondants compatibles avec l’estimation de pente locale obtenue à l’étape C, tout en minimisant une fonction représentative de la somme des valeurs absolues des pentes locales le long de chacun des plans de section.
Dans un mode de réalisation de l’invention, l’étape C-II comprend ultérieurement la mise en œuvre du dispositif de traitement de données de manière à déterminer un profil d’enfoncement en calculant, le long de chacun des différents plans de section de la surface, l’intégrale du profil de pente locale correspondant précédemment déterminé.
Dans un mode de réalisation de l’invention, l’étape C-II comprend ultérieurement la mise en œuvre du dispositif de traitement de données de manière à constituer une carte de profondeur d’au moins une partie de la surface, à partir des profils d’enfoncement précédemment déterminés pour les différents plans de section de la surface, puis à identifier d’éventuelles zones de profondeur supérieure à un seuil prédéterminé en tant qu’enfoncements de la surface.
Dans un mode de réalisation de l’invention, l’étape C comprend en outre une étape C-I-bis intercalée entre l’étape C-I et l’étape C-II, consistant, pour un opérateur ou une intelligence artificielle, à identifier visuellement un ou plusieurs enfoncements de la surface dans les images acquises à l’étape B et à sélectionner une ou plusieurs régions de la surface comportant le ou les enfoncements, et dans lequel l’étape C-II ne concerne que cette ou ces régions.
L’invention concerne également un système pour détecter d’éventuels enfoncements sur une surface apte à réfléchir la lumière, comprenant :
- un drone volant équipé d’un dispositif d’acquisition d’images et d’au moins une source de lumière ayant une forme allongée définissant une direction longitudinale de la source de lumière, et
- un dispositif de traitement de données configuré pour la mise en œuvre de l’étape C du procédé du type décrit ci-dessus.
Dans un mode de réalisation de l’invention, la source de lumière présente une étendue longitudinale supérieure à une envergure d’un ensemble constitué par le drone volant à l’exception de la source de lumière et/ou au moins égale à une fois et demie un écartement maximal entre des rotors du drone volant.
L’invention concerne également un produit programme d’ordinateur, comportant des instructions de code de programme qui, lorsqu’elles sont exécutées par le dispositif de traitement de données du système du type défini ci-dessus auquel est fourni une série d’images de portions d’une surface apte à réfléchir la lumière, acquises conformément à l’étape B du procédé du type défini ci-dessus conduisent le dispositif de traitement de données à mettre en œuvre l’étape C dudit procédé.
L’invention sera mieux comprise, et d’autres détails, avantages et caractéristiques de celle-ci apparaîtront à la lecture de la description suivante faite à titre d’exemple non limitatif et en référence aux dessins annexés dans lesquels :
Dans l’ensemble de ces figures, des références identiques peuvent désigner des éléments identiques ou analogues.
Exposé détaillé de modes de réalisation préférés
Un procédé pour détecter des enfoncements sur une surface apte à réfléchir la lumière, selon un mode de réalisation de l’invention, va maintenant être décrit en référence constante à l’organigramme de la .
Une première étape A de ce procédé comprend la mise à disposition d’un système 10. Le système 10, visible sur les figures 1 à 3, comprend un drone volant 12 équipé d’un dispositif d’acquisition d’images 14 et d’une source de lumière 16, et un dispositif de traitement de données 18.
Le dispositif d’acquisition d’images 14 est par exemple une caméra numérique ou un appareil photo numérique. Le drone volant 12 est par exemple un produit disponible dans le commerce intégrant le dispositif d’acquisition d’images 14.
La source de lumière 16 présente une forme allongée, préférentiellement longiligne, définissant une direction longitudinale D de celle-ci.
Dans le mode de réalisation illustré, la source de lumière 16 consiste en une rangée longitudinale d’éléments lumineux 20, par exemple des diodes électroluminescentes (LED), portés par – ou intégrés dans – un support de forme allongée dans la direction longitudinale D, tel qu’une barre ou une poutre, fixé sur un châssis 22 du drone volant 12. En variante, plusieurs rangées longitudinales d’éléments lumineux parallèles peuvent être prévues. En variante encore, la source de lumière 16 peut consister en un unique élément lumineux de forme allongée dans la direction longitudinale D, ou en plusieurs éléments lumineux de ce type parallèles les uns aux autres. La source de lumière 16, qui est peu directive de manière à permettre l’éclairage de surfaces à analyser, présente une direction centrale d’émission ED ( ) qui est par exemple inclinée vers le bas d’un angle ψ compris entre 30 degrés et 60 degrés, par exemple de 45 degrés, par rapport à un plan horizontal H du drone volant 12. Dans l’exemple illustré, dans lequel le drone volant 12 comporte des rotors 24 coplanaires, le plan horizontal H est simplement défini comme étant le plan des rotors. Plus généralement, le plan horizontal H est un plan correspondant à une attitude possible du drone volant 12 en vol stationnaire. La direction centrale d’émission ED et le degré d’ouverture du faisceau lumineux émis par la source de lumière 16 sont choisis en fonction de paramètres du procédé, notamment de la forme de la surface à analyser et de la distance moyenne prévue entre le drone volant 12 et une telle surface au cours de la mise en œuvre du procédé.
La source de lumière 16 présente de préférence une étendue longitudinale LLS supérieure à l’envergure d’un ensemble constitué par le drone volant 12 à l’exception de la source de lumière 16 elle-même, et par exemple égale à 1 mètre (figures 1 et 2), ou davantage. Dans des modes de réalisation de l’invention, cette étendue longitudinale LLS est au moins égale à une fois et demi l’écartement maximal Dmax entre les rotors 24 du drone volant 12 ( ). Une grande étendue longitudinale LLS par rapport à l’envergure précitée permet d’optimiser l’efficacité de mise en œuvre du procédé tout en limitant le dimensionnement, et donc le coût, du drone volant 12, comme cela apparaîtra plus clairement dans ce qui suit. La rangée d’élément lumineux 20 comporte par exemple un nombre d’éléments lumineux tel que les éléments lumineux 20 soient espacés de moins de 30 centimètres (cm) deux-à-deux, cet espacement μ étant préférentiellement inférieur à 1 centimètre ( ). Une densité linéique importante d’éléments lumineux permet une bonne homogénéité de l’éclairage de la surface à inspecter. Bien entendu, le choix de ces paramètres peut être optimisé notamment en fonction des dimensions d’une surface à inspecter. Une batterie 26 est en outre fixée au drone volant 12 de manière à alimenter la source de lumière 16 en énergie électrique (figures 1-3).
Enfin, le dispositif de traitement de données 18 est un dispositif générique du commerce tel qu’un ordinateur, une tablette ou un smartphone, doté d’un programme conçu pour la mise en œuvre du procédé, ou est un appareil conçu spécifiquement pour la mise en œuvre du procédé selon l’invention. Dans des modes de réalisation de l’invention, le dispositif de traitement de données 18 peut être partiellement ou totalement embarqué sur le drone volant 12. Dans tous les cas, le dispositif de traitement de données 18 est apte à échanger des données avec le dispositif d’acquisition d’images 14 qui équipe le drone volant 12, par exemple par liaison sans-fil. Le dispositif de traitement de données 18 peut avantageusement être conçu pour commander le vol du drone volant 12 ou pour s’interfacer avec une unité de commande du drone volant 12.
La illustre une partie d’une surface 30 à inspecter. Le procédé selon l'invention est applicable dès lors que la surface 30 présente une brillance suffisante pour permettre de distinguer un reflet spéculaire de la source de lumière 16 sur cette surface. À cet égard, le procédé est préférentiellement appliqué aux surfaces présentant un degré de brillant spéculaire au moins égal à 10% (au sens de la norme ISO 2813). Il est à noter que le procédé selon l'invention est applicable à des surfaces présentant un effet de peau d’orange (en anglais : « orange peel effect »), par exemple du fait du type de peinture dont peut être revêtue une telle surface, comme cela apparaîtra plus clairement dans ce qui suit.
L’invention est applicable à des surfaces à inspecter de géométries variées. Toutefois, dans le cadre du mode de réalisation illustré de l'invention, la surface 30 à inspecter présente, abstraction faite d’éventuels enfoncements, une géométrie telle que, dans tout plan de section orthogonale à une certaine direction, la fonction θ(s), qui détermine l’angle θ que fait le vecteur n normal à la surface au point d’abscissespar rapport à un plan de référence, tel qu’un plan horizontal (X, Y), défini par rapport à un repère orthonormé {X, Y, Z},en fonction de l’abscisse curvilignesdans ledit plan de section ( ), est une fonction bijective.
La surface 30 est ainsi une surface de forme cylindrique de section circulaire, ou, en variante, une surface de forme cylindrique de section elliptique ou ovale, ou plus généralement de section annulaire pouvant être localement approximée par un cylindre de révolution. Dans ce cas, le plan ou les plans de section considérés pour la mise en œuvre du procédé sont préférentiellement des plans transversaux à un axe AX de la surface, tandis que le plan horizontal de référence, pour la définition de l’angle θ et de l’abscisse curvilignes, comprend l’axe AX.
Dans une application particulière du procédé selon l’invention, la surface 30 est la surface extérieure d’un aéronef, en particulier la surface extérieure du fuselage d’un avion.
Dans d’autres modes de réalisation de l’invention, la surface 30 est une surface de forme conique, auquel cas la surface 30 est localement approximée par un cylindre de révolution pour la mise en œuvre du procédé.
En référence aux figures 5 à 8, le procédé selon l'invention comporte une étape B consistant à acquérir au moins une série d’images {I(1)…I(n)} de portions P(1)…P(n) de la surface 30 au moyen du dispositif d’acquisition d’images 14, en déplaçant le drone volant 12 en regard de la surface 30, selon une trajectoire T1 ou T3 telle qu’un axe optique 40 (figures 5 et 7) du dispositif d’acquisition d’images 14 demeure dans un plan de section A-A correspondant de la surface 30 (par exemple le plan de coupe des figures 6 et 7), et en maintenant la source de lumière 16 dans une orientation telle que la direction longitudinale D de celle-ci soit sécante audit plan de section A-A, et de sorte que, pour chaque image I(1)…I(n) de la série, la source de lumière 16 éclaire la portion P(1)…P(n) correspondante de la surface. Dans l’exemple illustré, la source de lumière 16 est maintenue dans une orientation telle que la direction longitudinale D de celle-ci soit orthogonale audit plan de section A-A.
Dans le mode de réalisation préféré de l'invention, la trajectoire du drone volant 12 pendant l’acquisition d’une série donnée d’images {I(1)…I(n)} est une trajectoire inscrite dans un plan de section A-A transversal à l’axe AX de la surface 30.
Le cas échéant, en référence à la , la trajectoire globale du drone volant 12 pour l’acquisition successive de plusieurs séries d’images comporte des premières portions de trajectoire T1 et T3 inscrites respectivement dans des plans de section A-A transversaux à l’axe AX de la surface 30, et des deuxièmes portions de trajectoire T2 reliant les premières portions de trajectoire T1, T3 deux-à-deux, en étant par exemple orientées sensiblement parallèlement à l’axe AX de la surface 30. Dans un but d’efficacité, les première portions T3 sont parcourues en sens inverse par rapport aux premières portions T1 et sont mises en œuvre en alternance avec ces dernières.
Les plans de section transversaux à l’axe AX, dans lesquels sont définis les premières portions de trajectoire T1 et T3, sont espacés les uns des autres d’une distance inférieure ou égale à l’étendue longitudinale LSR, sur la surface 30, d’un reflet spéculaire SR de la source de lumière 16 vu par le dispositif d’acquisition d’images 14 (figures 5, 8 et 9). Le reflet spéculaire SR balaye ainsi l’ensemble de la surface 30 ou d’une région de celle-ci.
Le procédé comporte en outre une étape C consistant à analyser la forme d’un reflet spéculaire ISR de la source de lumière 16 dans tout ou partie des images de la série d’images de manière à estimer la position d’éventuels enfoncements 32 de la surface 30, au moyen du dispositif de traitement de données 18.
Plus précisément, l’étape C comporte une étape C-I consistant, pour chaque image I(1)…I(n) de la série d’images (ou de chaque série d’images), à mettre en œuvre le dispositif de traitement de données 18 de manière à opérer les sous-étapes c1 à c5 qui suivent.
La première sous-étape c1 consiste à identifier un reflet spéculaire de la source de lumière 16 dans l’image ( ), par exemple par segmentation de celle-ci.
À cet effet, le dispositif de traitement de données met par exemple en œuvre un algorithme de seuillage adaptatif. La illustre l’image correspondante ainsi segmentée, et permet donc d’apercevoir le reflet spéculaire ISR ainsi déterminé.
La deuxième sous-étape c2 consiste, à partir du reflet spéculaire ISR identifié dans l’image à l’étape précédente, à estimer la position médiane, orthogonalement à la direction longitudinale D de la source de lumière 16, d’un reflet spéculaire idéal de la source de lumière 16 dans l’image, correspondant à la position médiane d’un tel reflet spéculaire en l’absence d’enfoncement de la surface 30.
À cet effet, le dispositif de traitement de données 18 détermine, par exemple par régression linéaire, une ligne médiane ML du reflet spéculaire ISR qui soit orientée parallèlement à la direction longitudinale D de la source de lumière 16 ( ). Une telle ligne peut être assimilée à la position médiane du reflet spéculaire idéal de la source de lumière 16, dès lors que les enfoncements 32 susceptibles d’affecter la surface 30 sont de petite dimension par comparaison avec l’étendue longitudinale LSR, sur la surface 30, du reflet spéculaire SR de la source de lumière 16 (figures 5, 8 et 9).
La troisième sous-étape c3 consiste à déterminer une distance Rcentre le drone volant 12 et la surface 30. Plus précisément, la distance Rcest définie entre un centre optique OC du dispositif d’acquisition d’images 14 et la surface 30 (c'est-à-dire la distance entre le centre optique OC et le point de la surface 30 situé au plus près du centre optique OC).
À cet effet, le dispositif de traitement de données 18 détermine une étendue longitudinale apparente LISR du reflet spéculaire ISR de la source de lumière 16 dans l’image ( ), et en déduit une distance Rc entre le drone volant 12 et la surface 30 ( ). En référence aux figures 8 et 9, l’étendue longitudinale LSR de l’origine SR, sur la surface 30, du reflet spéculaire ISR de la source de lumière 16, se déduit de l’étendue longitudinale LLS de la source de lumière 16 par de simples considérations d’optique géométrique. Par « origine du reflet spéculaire sur la surface 30 », il faut simplement comprendre les points de la surface 30 dont sont issus les rayons lumineux ayant formé le reflet spéculaire ISR dans l’image.
Dans l’exemple illustré, dans lequel le dispositif d’acquisition d’images 14 comporte une unique caméra centrée par rapport à la source de lumière 16, l’étendue longitudinale LSR de l’origine SR, sur la surface 30, du reflet spéculaire ISR, est égale à la moitié de l’étendue longitudinale LLS de la source de lumière 16. Connaissant l’étendue longitudinale LSR de l’origine SR du reflet spéculaire ISR sur la surface 30, ainsi que les caractéristiques intrinsèques du dispositif d’acquisition d’images 14 telles que la distance focale, la position du centre optique OC ( ), et d’éventuels paramètres de distorsion, l’étendue longitudinale apparente LISR précédemment déterminée du reflet spéculaire ISR de la source de lumière 16 dans l’image permet de déduire la distance Rc entre le drone volant 12 et la surface 30.
La troisième sous-étape c3 peut être mise en œuvre avant, pendant, ou après la mise en œuvre de la deuxième sous-étape c2.
La quatrième sous-étape c4 consiste à déterminer la position, sur la surface 30, de chaque point de l’origine SR du reflet spéculaire ISR de la source de lumière 16 dans l’image.
Dans le mode de réalisation illustré, cette sous-étape c4 est mise en œuvre d’une manière qui va être décrite ci-après en référence plus particulièrement à la .
À partir de données de départ que sont la position médiane estimée du reflet spéculaire idéal dans l’image, correspondant à la ligne ML dans l’exemple illustré, la distance Rcentre le drone volant 12 et la surface 30, et des caractéristiques du dispositif d’acquisition d’images 14 (distance focale, dimensions des photosites, position du centre optique OC, etc.), le dispositif de traitement de données 18 détermine l’angle γ entre l’axe optique 40 du dispositif d’acquisition d’images 14 et un plan P défini comme étant le plan passant par le centre optique OC du dispositif d’acquisition d’images et dans lequel s’inscrit une position médiane d’une origine du reflet spéculaire idéal de la source de lumière 16 sur une surface idéale 31 correspondant à la forme qu’aurait la surface 30 sans enfoncement. Par définition, l’origine du reflet spéculaire idéal se confond avec l’origine SR du reflet spéculaire ISR de la source de lumière 16, sur toute partie non enfoncée de la surface 30.
Le plan P comprend donc les rayons lumineux virtuels RI qui formeraient le reflet spéculaire de la source de lumière 16 reçu par le dispositif 14 si la surface 30 était sans déformation ( ). Dans toute partie non enfoncée de la surface 30, ces rayons lumineux RI sont orientés dans un plan P sensiblement normal à la surface 30 dès lors que la distance entre l’axe optique 40 du dispositif d’acquisition d’image 14 et un axe longitudinal moyen de la source de lumière 16 demeure négligeable par rapport à la distance Rc entre le drone volant 12 et la surface 30.
Par ailleurs, l’orientation ϕ de l’axe optique 40 par rapport à un plan horizontal (X, Y) est déterminée au moyen d’un gyroscope ou d’un dispositif analogue équipant le drone volant 12.
En additionnant l’angle γ entre l’axe optique 40 et le plan P comprenant les rayons lumineux virtuels RI, et l’inclinaison ϕ de l’axe optique 40, le dispositif de traitement de données 18 détermine l’angle correspondant θ, et en déduit l’abscissesde la position médiane de l’origine du reflet spéculaire idéal sur la surface 30, au moyen de la relation bijective existant entre θ ets.
Le dispositif de traitement de données 18 peut en déduire la position de l’ensemble des points de l’image sur la surface 30, et en déduit en particulier la position, sur la surface 30, de l’origine de chaque point du reflet spéculaire ISR de la source de lumière 16 dans l’image. Ainsi, le dispositif de traitement de données établit une correspondance entre chaque point de l’image et chaque point de la portion correspondante de la surface 30.
La cinquième sous-étape c5 consiste à estimer une pente locale de la surface 30 en chaque point du reflet spéculaire SR vu par le dispositif d’acquisition d’images 14, au moins à partir d’une estimation de la distance éventuelle entre chaque point du reflet spéculaire ISR de la source de lumière 16 dans l’image et la position médiane du reflet spéculaire idéal, correspondant à la ligne ML.
En référence à la , la mise en œuvre de la sous-étape c5 repose sur le modèle de reflet suivant : la surface 30 étant approximée par un cylindre de révolution comme expliqué ci-dessus, Ra désigne la courbure locale de la surface 30 dans un plan de section donné, et il est rappelé que Rc désigne la distance entre le drone volant 12 et la surface 30. L’angle α désigne l’angle entre la surface 30 (avec d’éventuels enfoncements) et la surface idéale (sans déformation). L’angle εc est l’angle entre un rayon lumineux réel RR produit par le reflet spéculaire SR vu par le dispositif d’acquisition d’image 14, dans le plan de section considéré, en présence d’un enfoncement 32 de la surface 30, et un rayon lumineux idéal RI que produirait le reflet spéculaire vu par le dispositif d’acquisition d’image 14, dans le plan de section considéré, en l’absence d’enfoncement. Ce dernier rayon est orienté dans le plan P sensiblement normal à la surface idéale 31 (correspondant à la forme qu’aurait la surface 30 sans l’enfoncement 32) comme expliqué ci-dessus. La distance ∆ est définie entre le point de la surface 30 d’où est issu le rayon lumineux réel RR et le point de la surface idéale 31 d’où est issu le rayon lumineux idéal RI.
La largeur de la source de lumière 16 (orthogonalement à sa direction longitudinale D) et l’éventuel effet de peau d’orange de la surface 30 sont modélisés conjointement par une distribution d’orientations Ω autour d’un angle moyen β. Il est aisément démontrable que :
La déviation Ω induite par la largeur de la source de lumière 16 et par l’éventuel effet de peau d’orange peut être considérée comme bornée :
Il est à noter que dans le cas d’une surface 30 de forme cylindrique de révolution ou de forme approximable par un cylindre de révolution (abstraction faite des éventuels enfoncements), et d’une source de lumière 16 longiligne sensiblement parallèle à l’axe de révolution AX, la distorsion du reflet spéculaire ne dépend au premier ordre que de l’angle α, tandis que l’inclinaison de la surface 30 dans la direction X de l’axe AX n’intervient qu’au second ordre.
Le dispositif de traitement de données 18 détermine une estimation du maximum de déviation Ωmax en estimant la largeur du reflet spéculaire idéal de la source de lumière 16 dans l’image (correspondant au reflet spéculaire qui serait perçu en l’absence d’enfoncement de la surface 30). À cet effet, le dispositif de traitement de données 18 détermine la largeur médiane lISR-CO de la plus grande portion connexe ISR-CO du reflet spéculaire ISR de la source de lumière 16 dans l’image ( ). Cette largeur médiane lISR-CO étant considérée comme une estimation de la largeur du reflet spéculaire idéal, le dispositif de traitement de données en déduit l’estimation du maximum de déviation Ωmax., égal à la largeur médiane lISR-CO divisée par le double de la distance Rc entre le drone volant 12 et la surface 30.
Enfin, le dispositif de traitement de données 18 estime la distance ∆ éventuelle entre chaque point du reflet spéculaire ISR de la source de lumière 16 dans l’image, et la position médiane du reflet spéculaire idéal, correspondant à la ligne ML ( ).
Étant donné que Ω ∈ [-Ωmax; +Ωmax] et que , le dispositif de traitement de données 18 en déduit une borne inférieure et une borne supérieure de la pente locale de la surface 30, égale à la dérivée de l’enfoncement de la surface 30 par rapport à l’abscisse curviligne :
À l’issue de la mise en œuvre de l’étape C-I pour l’ensemble des images de la série (ou de chaque série), le dispositif de traitement de données 18 dispose d’un ensemble d’inéquations concernant la pente locale de la surface 30 en chaque point de la surface 30 ayant renvoyé un reflet spéculaire de la source de lumière 16 au moins une fois au cours de l’étape B d’acquisition des images. À titre illustratif, la partie haute de la est un assemblage d’images ainsi acquises, qui montre un tel ensemble de points ayant renvoyé un reflet spéculaire de la source de lumière 16, dans une région donnée de la surface 30.
Dans une étape C-II ultérieure du procédé, le dispositif de traitement de données 18 s’appuie sur l’ensemble des estimations de pentes locales obtenues à l’issue de l’étape C-I, pour au moins une région de la surface 30, pour estimer la position d’éventuels enfoncements de la surface 30.
À cet effet, dans l’exemple préférentiel illustré, le dispositif de traitement de données 18 effectue une optimisation de manière à déterminer, le long de différents plans de section parallèles de la surface, des profils correspondants de la pente (figure 13 : partie basse) compatibles avec les valeurs de pentes minimales et maximales définies à l’étape C-I, tout en minimisant une fonction représentative de la somme des pentes le long de chacun des plans de section (en valeur absolue). L’optimisation réalisée par le dispositif de traitement de données porte par exemple sur l’intégrale suivante :
Le long de chacun des plans de section considérés, le dispositif de traitement de données 18 détermine un profil d’enfoncement correspondant en calculant l’intégrale des pentes locales précédemment déterminées (en faisant par exemple l’hypothèse d’un enfoncement nul à l’extrémité du domaine d’intégration). La figure 14 illustre la courbe d’enfoncement ainsi obtenue pour le plan de section A-A défini sur la partie haute de la .
En juxtaposant l’ensemble des profils d’enfoncement reconstruits sur des plans de sections adjacents, le dispositif de traitement de données 18 détermine une carte de profondeur de la surface 30, ou d’au moins une partie de celle-ci, comme illustré sur la .
Pour une série d’images donnée, le nombre de plans de section considérés dans l’étape C-II est par exemple égal à la définition longitudinale minimale (en pixels) du reflet spéculaire ISR de la source de lumière 16 dans les images de la série.
Le dispositif de traitement de données applique par exemple un filtrage spatial de manière à réduire ou supprimer le bruit de mesure et les basses fréquences correspondant à des déformations de grande dimension ne correspondant pas aux enfoncements à détecter.
Finalement, le dispositif de traitement de données 18 recense les éventuels enfoncements 32 de la surface 30 en assimilant toute zone de ladite carte de profondeur, correspondant à une profondeur supérieure à un seul prédéterminé, à un tel enfoncement.
D’une manière générale, à toute étape du procédé, l’homme du métier comprendra qu’il peut être opportun d’appliquer des techniques conventionnelles de réduction de bruit et d’optimisation du signal.
L’homme du métier comprendra également que l’ordre de certaines étapes peut être différent de ce qui est décrit ci-dessus. Par exemple, les étapes B et C-I peuvent être mise en œuvre en parallèle, le dispositif de traitement de données 18 mettant en œuvre les opérations de traitement de données de l’étape C-I pour un plan de section donné de la surface 30 pendant l’acquisition d’une série d’images pour un autre plan de section de la surface, ou, au sein d’une même série d’images, le dispositif de traitement de données 18 mettant en œuvre les opérations de traitement de données de l’étape C-I pour une image donnée pendant l’acquisition d’une autre image de la série.
Par ailleurs, en variante, le drone volant 12 peut être équipé de plusieurs dispositifs d’acquisition d’images, par exemple deux dispositifs disposés aux extrémités opposées de la source de lumière 16. Chaque dispositif perçoit ainsi des reflets spéculaires de la source de lumière 16 qui sont décalés sur la surface 30 à inspecter, de sorte que la partie de la surface analysée pour un trajet du drone volant selon un plan de section donné est accrue par rapport à ce qu’elle est avec un unique dispositif d’acquisition d’images.
En outre, le drone volant 12 peut être équipé de plusieurs sources de lumière chacune de forme longiligne, afin de générer simultanément plusieurs reflets spéculaires sur différentes parties de la surface à analyser.
La trajectoire suivie par le drone volant pour l’acquisition d’une ou de plusieurs séries d’images peut différer de ce qui est décrit ci-dessus. D’une manière générale, il est préférable que la trajectoire (ou le cas échéant les premières portions de trajectoire) du drone volant pour l’acquisition d’une série d’images (ou de chaque série d’images) soit définie selon un plan de plus grande courbure de la surface 30, tandis que, le cas échéant, les deuxièmes portions de trajectoire sont définies selon un plan de moindre courbure de la surface. Ainsi, dans l’exemple illustré, les plans de section définissant les premières portions de trajectoire T1 et T3 sont transversaux à la surface 30 et sont donc des plans dans lesquels la surface 30 présente une section incurvée (sensiblement circulaire), tandis que les deuxièmes portions de trajectoire T2 sont définies parallèlement à l’axe AX de la surface, direction dans laquelle la surface 30 présente une courbure nulle ou plus faible.
L’homme du métier comprendra par ailleurs que la fréquence de prise de vue peut être adaptée en fonction de l’échantillonnage spatial souhaité sur la surface 30 le long d’un plan de section donné, cet échantillonnage étant dépendant de la courbure de la surface et de la dimension des enfoncements susceptibles d’affecter la surface 30.
De manière facultative, le procédé peut comprendre une étape C-I-bis intercalée entre l’étape C-I et l’étape C-II, consistant pour un opérateur à identifier visuellement un ou plusieurs enfoncements 32 de la surface 30 dans les images acquises à l’étape B et à sélectionner une ou plusieurs régions de la surface comportant le ou les enfoncements, de telle sorte que l’étape C-II mise ensuite en œuvre par le dispositif de traitement de données 18 ne concerne que cette ou ces régions. Le temps de calcul requis par l’étape C-II peut ainsi être réduit. Une telle étape C-I-bis peut, en variante, être mise en œuvre au moyen d’une intelligence artificielle préalablement entraînée à reconnaître des déformations de reflet spéculaire caractéristiques d’un enfoncement de la surface.
Par ailleurs, la sous-étape c4 décrite ci-dessus est mise en œuvre en tirant profit du caractère bijectif de la fonction θ(s) reliant l’orientation θ de la normale localenà la surface 30 à l’abscisse curvilignessur cette surface le long d’un plan de section donné.
En variante, la sous-étape c4 peut reposer sur d’autres méthodes de recalage des images acquises, sur la surface 30, notamment des méthodes ne nécessitant pas que la surface 30 soit d’une forme telle que la fonction θ(s) précitée soit une bijection. À cet effet, la sous-étape c4 repose par exemple sur la reconnaissance, dans au moins certaines des images acquises, de motifs existants sur la surface 30. Dans le cas où la surface 30 est la surface extérieure d’un aéronef, de tels motifs sont par exemple constitués de rangées de rivets. En variante encore, la sous-étape c4 peut reposer sur l’émission d’une lumière structurée par la source de lumière 16 et l’analyse du reflet de structures formées par cette lumière sur la surface 30.
D’une manière générale, le procédé selon l'invention permet l’analyse de surfaces de très grandes dimensions, par exemple de plusieurs centaines de mètres carrés, d’une manière particulièrement rapide, efficace et fiable, sans requérir de connaissance préalable précise de la forme de ces surfaces.
Le procédé selon l'invention permet l’automatisation de l’ensemble des étapes d’analyse C-I, C-II, et le cas échéant, C-I-bis. Dès lors que la géométrie idéale de la surface 30 à inspecter est connue, au moins grossièrement, la commande du drone volant peut être intégralement ou partiellement réalisée de manière programmée, de sorte que l’automatisation de l’étape B du procédé est également possible.
Claims (13)
- Procédé pour détecter d’éventuels enfoncements (32) sur une surface (30) apte à réfléchir la lumière, comprenant au moins les étapes suivantes :
- A) Mettre à disposition un système (10), comprenant un drone volant (12) équipé d’un dispositif d’acquisition d’images (14) et d’au moins une source de lumière (16) ayant une forme allongée définissant une direction longitudinale (D) de la source de lumière, et un dispositif de traitement de données (18) ;
- B) Acquérir au moins une série d’images de portions de la surface (30) au moyen du dispositif d’acquisition d’images (14), en déplaçant le drone volant (12) en regard de la surface, selon une trajectoire (T1, T3) telle que, pour chaque image de la série, la source de lumière (16) éclaire la portion correspondante de la surface (30) ;
- C) Mettre en œuvre le dispositif de traitement de données (18) de sorte à analyser la forme d’un reflet spéculaire (ISR) de la source de lumière (16) dans tout ou partie des images de la série d’images de manière à estimer la position des éventuels enfoncements (32) de la surface.
- Procédé selon la revendication 1, dans lequel, pour la série d’images ou pour chaque série d’images, la trajectoire (T1, T3) du drone volant (12) est telle qu’un axe optique (40) du dispositif d’acquisition d’images (14) demeure dans un plan de section (A-A) correspondant de la surface, et que la source de lumière (16) soit dans une orientation telle que la direction longitudinale (D) de celle-ci soit sécante audit plan de section (A-A) de la surface.
- Procédé selon la revendication 1 ou 2, dans lequel l’étape C comprend les étapes suivantes :
- C-I) Pour chaque image de la série d’images, mettre en œuvre le dispositif de traitement de données (18) de manière à :
- c1) Identifier le reflet spéculaire (ISR) de la source de lumière (16) dans l’image ;
- c2) À partir du reflet spéculaire identifié à la sous-étape précédente, estimer la position médiane, orthogonalement à la direction longitudinale (D) de la source de lumière (16), d’un reflet spéculaire idéal de la source de lumière (16) dans l’image, correspondant à la position médiane (ML) d’un tel reflet spéculaire en l’absence d’enfoncement de la surface (30) ;
- c3) Déterminer une distance (Rc) entre le drone volant (12) et la surface (30) ;
- c4) Déterminer la position, sur la surface (30), de chaque point d’une origine (SR) du reflet spéculaire (ISR) de la source de lumière (16) dans l’image ;
- c5) Estimer une pente locale
- C-II) À partir de l’ensemble des estimations de pentes locales
- C-I) Pour chaque image de la série d’images, mettre en œuvre le dispositif de traitement de données (18) de manière à :
- Procédé selon la revendication 3, dans lequel la sous-étape c3 comprend la détermination, par le dispositif de traitement de données (18), d’une étendue longitudinale apparente (LISR) du reflet spéculaire de la source de lumière (16) dans l’image, à partir de laquelle le dispositif de traitement de données déduit la distance (Rc) entre le drone volant (12) et la surface (30).
- Procédé selon la revendication 3 ou 4, dans lequel la sous-étape c4 comprend la mise en œuvre du dispositif de traitement de données (18) de manière à :
- déterminer, à partir de la position médiane (ML) estimée du reflet spéculaire idéal dans l’image, un angle (γ) entre l’axe optique (40) du dispositif d’acquisition d’images (14) et un plan (P) passant par un centre optique (OC) du dispositif d’acquisition d’images et dans lequel s’inscrit une position médiane (MLS) d’une origine du reflet spéculaire idéal de la source de lumière (16) sur une surface idéale (31) correspondant à la forme qu’aurait la surface (30) sans enfoncement ;
- en déduire l’orientation (θ), par rapport à un plan de référence, de la direction normale à la surface (30), en tout point de l’origine (SR) du reflet spéculaire (ISR) de la source de lumière (16) en zone non enfoncée de la surface (30) ;
- en déduire une correspondance entre chaque point de l’image et chaque point de la portion correspondante de la surface (30).
- Procédé selon l'une quelconque des revendications 3 à 5, dans lequel la sous-étape c5 comprend la détermination, par le dispositif de traitement de données (18), d’une borne maximale
- Procédé selon l'une quelconque des revendications 3 à 6, dans lequel l’étape C-II comprend la mise en œuvre du dispositif de traitement de données (18) de manière à déterminer, le long de différents plans de section de la surface (30), des profils de pente locale
- Procédé selon la revendication 7, dans lequel l’étape C-II comprend ultérieurement la mise en œuvre du dispositif de traitement de données (18) de manière à déterminer un profil d’enfoncement (
- Procédé selon la revendication 8, dans lequel l’étape C-II comprend ultérieurement la mise en œuvre du dispositif de traitement de données (18) de manière à constituer une carte de profondeur d’au moins une partie de la surface (30), à partir des profils d’enfoncement (
- Procédé selon l'une quelconque des revendications 3 à 9, dans lequel l’étape C comprend en outre une étape C-I-bis intercalée entre l’étape C-I et l’étape C-II, consistant, pour un opérateur ou une intelligence artificielle, à identifier visuellement un ou plusieurs enfoncements (32) de la surface (30) dans les images acquises à l’étape B et à sélectionner une ou plusieurs régions de la surface comportant le ou les enfoncements, et dans lequel l’étape C-II ne concerne que cette ou ces régions.
- Système pour détecter d’éventuels enfoncements (32) sur une surface (30) apte à réfléchir la lumière, comprenant :
- un drone volant (12) équipé d’un dispositif d’acquisition d’images (14) et d’au moins une source de lumière (16) ayant une forme allongée définissant une direction longitudinale (D) de la source de lumière, et
- un dispositif de traitement de données (18) configuré pour la mise en œuvre de l’étape C du procédé selon l'une quelconque des revendications 1 à 10.
- Système selon la revendication 11, dans lequel la source de lumière (16) présente une étendue longitudinale (LS) supérieure à une envergure d’un ensemble constitué par le drone volant (12) à l’exception de la source de lumière (16) et/ou au moins égale à une fois et demi un écartement maximal (Dmax) entre des rotors (24) du drone volant (12).
- Produit programme d’ordinateur, comportant des instructions de code de programme qui, lorsqu’elles sont exécutées par le dispositif de traitement de données (18) du système selon la revendication 11 ou 12 auquel est fourni une série d’images de portions d’une surface (30) apte à réfléchir la lumière, acquises conformément à l’étape B du procédé selon l'une quelconque des revendications 1 à 10, conduisent le dispositif de traitement de données (18) à mettre en œuvre l’étape C du procédé selon l'une quelconque des revendications 1 à 10.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR2012237A FR3116902B1 (fr) | 2020-11-27 | 2020-11-27 | Procede pour detecter d’eventuels enfoncements sur une surface apte a reflechir la lumiere |
US17/533,929 US11803956B2 (en) | 2020-11-27 | 2021-11-23 | Method for detecting potential dents in a surface able to reflect light, system and computer program for the implementation thereof |
CN202111422336.3A CN114563406A (zh) | 2020-11-27 | 2021-11-26 | 检测能够反射光的表面中的凹痕的方法和系统及存储介质 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR2012237A FR3116902B1 (fr) | 2020-11-27 | 2020-11-27 | Procede pour detecter d’eventuels enfoncements sur une surface apte a reflechir la lumiere |
FR2012237 | 2020-11-27 |
Publications (2)
Publication Number | Publication Date |
---|---|
FR3116902A1 true FR3116902A1 (fr) | 2022-06-03 |
FR3116902B1 FR3116902B1 (fr) | 2023-05-05 |
Family
ID=74860057
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR2012237A Active FR3116902B1 (fr) | 2020-11-27 | 2020-11-27 | Procede pour detecter d’eventuels enfoncements sur une surface apte a reflechir la lumiere |
Country Status (3)
Country | Link |
---|---|
US (1) | US11803956B2 (fr) |
CN (1) | CN114563406A (fr) |
FR (1) | FR3116902B1 (fr) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR3084485B1 (fr) * | 2018-07-26 | 2022-08-05 | Donecle | Engin volant motorise de mesure du relief de surfaces d'un objet predetermine et procede de commande d'un tel engin |
PL444081A1 (pl) * | 2023-03-15 | 2023-12-18 | Immotion Labs Spółka Z Ograniczoną Odpowiedzialnością | Urządzenie do automatycznej detekcji uszkodzeń karoserii pojazdów samochodowych |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5734742A (en) * | 1994-09-19 | 1998-03-31 | Nissan Motor Co., Ltd. | Inspection system and process |
JP2001133409A (ja) * | 1999-08-23 | 2001-05-18 | Kanto Auto Works Ltd | 車両用塗面検査装置 |
US20160349746A1 (en) * | 2015-05-29 | 2016-12-01 | Faro Technologies, Inc. | Unmanned aerial vehicle having a projector and being tracked by a laser tracker |
US9830411B2 (en) | 2015-06-29 | 2017-11-28 | Airbus Operations (Sas) | System and method for locating impacts on an external surface |
WO2020021191A1 (fr) * | 2018-07-26 | 2020-01-30 | Donecle | Engin volant motorisé de mesure du relief de surfaces d'un objet prédéterminé et procédé de commande d'un tel engin |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8700437B2 (en) * | 2005-10-11 | 2014-04-15 | Progress Software Corporation | Analyzing operational results using rule-based policy models |
TW200734629A (en) * | 2006-02-21 | 2007-09-16 | Dainippon Screen Mfg | Appratus for detecting crack of substrate and substrate processing appratus |
CN206114549U (zh) * | 2016-10-31 | 2017-04-19 | 吉林大学 | 柱面反射式路面裂纹检测系统 |
KR101866781B1 (ko) * | 2016-11-21 | 2018-06-12 | 서해기술단 주식회사 | 드론을 이용한 구조물 안전진단 시스템 |
CN108414469B (zh) * | 2018-03-27 | 2023-10-27 | 安徽中科华仪科技有限公司 | 基于tdlas扫描收发一体式机动车尾气遥感测量装置及方法 |
US10520448B2 (en) * | 2018-05-22 | 2019-12-31 | Grey Gecko LLC | Method and system for detecting abnormalities in coated substrates |
CN109839366B (zh) * | 2018-07-26 | 2021-08-27 | 华域视觉科技(上海)有限公司 | 用于汽车车灯零件反射率测试的贴片及反射率测试方法 |
US11017491B2 (en) * | 2019-08-22 | 2021-05-25 | The Boeing Company | Nonconformance detection system |
-
2020
- 2020-11-27 FR FR2012237A patent/FR3116902B1/fr active Active
-
2021
- 2021-11-23 US US17/533,929 patent/US11803956B2/en active Active
- 2021-11-26 CN CN202111422336.3A patent/CN114563406A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5734742A (en) * | 1994-09-19 | 1998-03-31 | Nissan Motor Co., Ltd. | Inspection system and process |
JP2001133409A (ja) * | 1999-08-23 | 2001-05-18 | Kanto Auto Works Ltd | 車両用塗面検査装置 |
US20160349746A1 (en) * | 2015-05-29 | 2016-12-01 | Faro Technologies, Inc. | Unmanned aerial vehicle having a projector and being tracked by a laser tracker |
US9830411B2 (en) | 2015-06-29 | 2017-11-28 | Airbus Operations (Sas) | System and method for locating impacts on an external surface |
FR3038109B1 (fr) | 2015-06-29 | 2018-07-27 | Airbus Operations (S.A.S.) | Systeme et procede de localisation d'impacts sur une surface externe |
WO2020021191A1 (fr) * | 2018-07-26 | 2020-01-30 | Donecle | Engin volant motorisé de mesure du relief de surfaces d'un objet prédéterminé et procédé de commande d'un tel engin |
Non-Patent Citations (1)
Title |
---|
ANONYMOUS: "Laser Triangulation Sensors :: Mechanical Technology, Incorporated (MKTY)", 19 January 2017 (2017-01-19), XP055810418, Retrieved from the Internet <URL:https://web.archive.org/web/20170119173248/https://mtiinstruments.com/technology-principles/laser-triangulation-sensors/> [retrieved on 20210604] * |
Also Published As
Publication number | Publication date |
---|---|
US20220172343A1 (en) | 2022-06-02 |
CN114563406A (zh) | 2022-05-31 |
US11803956B2 (en) | 2023-10-31 |
FR3116902B1 (fr) | 2023-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
FR3116902A1 (fr) | Procede pour detecter d’eventuels enfoncements sur une surface apte a reflechir la lumiere | |
FR2940443A1 (fr) | Procede de controle non destructif d'une piece mecanique | |
CA2891149A1 (fr) | Procede de projection de donnees virtuelles et dispositif permettant cette projection | |
EP2109079A1 (fr) | Procédé et système de caractérisation d'un défaut de surface d'une pièce | |
CA3130432A1 (fr) | Procede de detection d'une degradation d'un pneumatique d'une roue | |
FR3025918A1 (fr) | Procede et systeme de modelisation automatisee d'une piece | |
FR3116806A1 (fr) | Drone volant pour l’inspection de surfaces et procédé d’inspection de surfaces au moyen d’un tel drone volant | |
FR2926639A1 (fr) | PROCEDE DE TRAITEMENT D'UNE IMAGE RADAR, ISSUE EN PARTICULIER D'UN RADAR AEROPORTE, AVEC EVALUATION DE L'ALTITUDE DE L'ISOTHERME 0 degresC | |
FR3084485A1 (fr) | Engin volant motorise de mesure du relief de surfaces d'un objet predetermine et procede de commande d'un tel engin | |
WO2017072447A2 (fr) | Contrôle d'un équipement par rapport à son modèle numérique | |
EP2288910A2 (fr) | Sonde destinee au controle par courants de foucault de la surface d'une alveole circonferentielle d'un disque de turboreacteur | |
FR3071611A1 (fr) | Procede et dispositif de controle non destructif d'une piece aeronautique | |
WO2012035257A1 (fr) | Dispositif et procédé de mesure de la forme d'un miroir ou d'une surface speculaire | |
EP3073441A1 (fr) | Procédé de correction d'une image d'au moins un objet présenté à distance devant un imageur et éclairé par un système d'éclairage et système de prise de vues pour la mise en oeuvre dudit procédé | |
EP3776471B1 (fr) | Procédé pour la localisation d'une cible à partir d'un contour elliptique | |
WO2021130458A1 (fr) | Procédé de détection de défauts d'un élément en matériau composite | |
EP3440452B1 (fr) | Procédé de détection d'un défaut sur une surface par éclairage multidirectionnel et dispositif associé | |
EP1391686A1 (fr) | Procédé et dispositif de localisation par visiometrie | |
EP3903282B1 (fr) | Méthode de segmentation d'une image | |
EP3517940A1 (fr) | Procede et système de determination de la variation d'intensite diffractee par un reseau bidimensionnel organise le long d'une direction donnee | |
WO2013175023A1 (fr) | Système et procédé de reconstruction tridimensionnelle et support de stockage informatique pour ces système et procédé | |
FR3051559B1 (fr) | Procede d'optimisation de la detection de cibles marines et radar mettant en oeuvre un tel procede | |
FR2817964A1 (fr) | Dispositif d'inspection automatique de surface d'une bande en defilement | |
FR3066815A1 (fr) | Procede de controle de l'etat d'une surface interne d'un pneumatique | |
FR2707008A1 (en) | Method for inspecting a weld bead, in particular on a motor-vehicle suspension sphere and device for implementing this method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20220603 |
|
PLFP | Fee payment |
Year of fee payment: 3 |
|
PLFP | Fee payment |
Year of fee payment: 4 |
|
PLFP | Fee payment |
Year of fee payment: 5 |