[go: up one dir, main page]

EP4432137A1 - Method for operating a cable processing device, cable processing device, evaluation and/or control device for a cable processing device and machine-readable program code - Google Patents

Method for operating a cable processing device, cable processing device, evaluation and/or control device for a cable processing device and machine-readable program code Download PDF

Info

Publication number
EP4432137A1
EP4432137A1 EP23161530.3A EP23161530A EP4432137A1 EP 4432137 A1 EP4432137 A1 EP 4432137A1 EP 23161530 A EP23161530 A EP 23161530A EP 4432137 A1 EP4432137 A1 EP 4432137A1
Authority
EP
European Patent Office
Prior art keywords
cable
interest
image
final configuration
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
EP23161530.3A
Other languages
German (de)
French (fr)
Other versions
EP4432137B1 (en
Inventor
Josef OHNI
Martina OßNER
Stefan Grandl
Peter HOFINGER
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MD Elektronik GmbH
Original Assignee
MD Elektronik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MD Elektronik GmbH filed Critical MD Elektronik GmbH
Priority to EP23161530.3A priority Critical patent/EP4432137B1/en
Priority to US18/583,658 priority patent/US20240310796A1/en
Priority to CN202410249258.9A priority patent/CN118645856A/en
Priority to MX2024002884A priority patent/MX2024002884A/en
Publication of EP4432137A1 publication Critical patent/EP4432137A1/en
Application granted granted Critical
Publication of EP4432137B1 publication Critical patent/EP4432137B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01RELECTRICALLY-CONDUCTIVE CONNECTIONS; STRUCTURAL ASSOCIATIONS OF A PLURALITY OF MUTUALLY-INSULATED ELECTRICAL CONNECTING ELEMENTS; COUPLING DEVICES; CURRENT COLLECTORS
    • H01R43/00Apparatus or processes specially adapted for manufacturing, assembling, maintaining, or repairing of line connectors or current collectors or for joining electric conductors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Definitions

  • the invention relates to a method for operating a cable processing device, a cable processing device, a control device for a cable processing device and a machine-readable program code.
  • the present invention is mainly described in connection with data cables. It is understood that the present invention can be used for any type of cable.
  • the cables are usually processed in an automated processing system and, for example, assembled, i.e. cut to the appropriate length and provided with appropriate electrical contacts and/or plugs.
  • a single automated processing system comprises several stations, which are also referred to as a cable processing unit in this application. In each cable processing unit, a defined processing step is carried out for a cable.
  • the cables in the respective processing plant must be checked to ensure that the individual processing steps have been implemented correctly.
  • the cables usually have an initial configuration. This is the state in which a cable or a cable section to be processed is fed to a cable processing unit. The cable or cable section is then subjected to a processing step and transferred from the initial configuration to a final configuration. This is the state in which a cable or a cable section leaves the cable processing unit that processes the cable or cable section.
  • a cable processing station which has an imaging sensor device by means of which a cable end can be detected.
  • a first and a second cable-specific image parameter are recognized by means of an image processing system.
  • a control-specific parameter is created by means of the image processing system, which is transmitted to a control device for controlling a tool.
  • Such a method is intended to enable rapid tracking of the cable processing process for recognized cable types.
  • the present invention relates in particular to a method for operating a cable processing device, comprising processing at least one cable section, in particular a cable end, by means of a cable processing unit from an initial configuration to a final configuration.
  • at least one image of the at least one final configuration is captured by means of an image recording device.
  • a trained neural network is applied to the at least one captured image, wherein the trained neural network is designed to determine at least one region of interest of the at least one final configuration from the at least one captured image in a first step and to second step, to determine a classification of the at least one determined region of interest with regard to the presence of at least one learned error pattern of the at least one final configuration and to determine a result associated with the classification.
  • a control signal is then generated, depending on the at least one determined region of interest and/or depending on the determined result of the classification of the at least one final configuration, and output.
  • the present method provides a robust and fast solution by means of which learned final configurations of a cable section can be recognized and/or classified.
  • the determination of the at least one region of interest and the classification can take place in real time, i.e. without delay in production.
  • a neural network trained in this way can be constructed with fewer layers, which on the one hand means that the response times for any control of a process of the cable processing device are shorter and thus a control intervention can be carried out more quickly. Furthermore, the effort required to train the network is reduced.
  • the trained neural network is advantageously designed as a deep neural network, also referred to as a deep neural network, in particular as a convolutional deep neural network, also referred to as a deep convolutional neural network.
  • the present invention therefore provides for the use of a specially trained artificial neural network and for the detection of error patterns to be carried out with the aid of the correspondingly trained neural network.
  • the neural network is trained using appropriate training data sets and developed as required.
  • the trainable neural network can be presented with appropriate training data, which have already been divided into positive training examples, e.g. final configurations having at least one error-free area of interest, and negative training examples, e.g. final configurations comprising at least one error-prone area of interest.
  • the training data also includes also a corresponding result of the classification.
  • Such a training data set can be created manually, for example, or from the results of a conventional image processing system in combination with the corresponding production information.
  • the images are easy to obtain because cable production can be monitored routinely and the data is stored for some time. Furthermore, cable production is still monitored for errors and types of errors, mainly by personnel.
  • a corresponding set of training images is generated for training the neural network.
  • the images show at least one area of interest in a final configuration and an associated classification result, e.g. "OK" or "not OK".
  • the training image data sets are qualified accordingly according to the area of interest shown and the classification result, whereby not only the criterion of error-prone vs. error-free can be provided, but the specific error pattern for the respective image can also be annotated.
  • the capture of corresponding images and their qualification can take place during normal production operations of the cable processing device, so that a large number of images with different sizes, viewing directions, rotation, contrast, lighting, occlusion, etc. can be generated and the area of interest, which is usually determined offline, and its classification or the classification result can be supplemented.
  • This qualification of the images can be done manually or at least partially by a conventional image processing system, whereby manual rework is possible.
  • the pre-qualified training images are then pre-processed accordingly for training.
  • the size of the training images can be adjusted to a predetermined size.
  • the number of pixels of the training images can be adjusted to the number of inputs of an input layer of the neural network.
  • the preprocessing of the training images can also include normalizing the images.
  • the images can be available as RGB images as they are transmitted by an image recording device. This means that preparation and preprocessing of the images are preferably avoided so that the trained neural network can handle corresponding raw data, which increases the subsequent speed of image evaluation.
  • the training images can be subjected to random image manipulations.
  • image manipulations can include, for example, rotating, enlarging, reducing and/or distorting. It goes without saying that corresponding orders of magnitude can be specified for the respective image manipulation.
  • a maximum enlargement or reduction in percent can be specified for enlarging or reducing, e.g. 110% or 90%.
  • a maximum or minimum angle of rotation can be specified, e.g. +/- 10°, 20° or 30°.
  • Corresponding limit values can also be specified for distortion. It goes without saying that different algorithms can be used for image distortion, which can have different parameters.
  • the image manipulations serve to provide the training data with greater variability.
  • the final configuration or the majority of final configurations will therefore be present in different places and in different sizes in the image. This prevents, for example, the neural network from learning to identify the given feature only in a small section of an image and falsely concluding that the feature is not present, even though it is just outside the section.
  • the neural network After preprocessing the training images, the neural network is trained with a portion of the training images obtained in this way.
  • the remaining training images can be used to check the learning success by feeding them to the trained neural network and comparing its output with the known or expected output for the respective training image.
  • This portion of the training images can therefore also be referred to as test data.
  • the quality of the training can be checked, as mentioned above, by qualifying the test data using the trained neural network. If the results reach the desired quality, training can be ended. If the results have not yet reached the desired quality, or if the neural network needs to be further developed, training can be continued with the appropriate training data or carried out again with changed parameters.
  • the at least one final configuration is recorded using at least one image from an image recording device.
  • the at least one image is preferably recorded digitally, for example using a CCD camera to generate images in a spectral range visible to the human eye.
  • the image recording device is positioned and aligned in such a way that the at least one final configuration is typically arranged in the recording area of the image recording device. If necessary, a plurality of images or a plurality of image recording devices can also be provided which reliably record the at least one final configuration. It can be more advantageous to enlarge the recording area and to adapt the resolution of the image recording device accordingly.
  • training can be carried out differently depending on the type of neural network used. Basically, with any type of training, the weights of the neural network are adjusted with each training run so that the error of the neural network's output is minimized compared to the known result from the training data set. This is usually achieved by so-called back-propagation.
  • a so-called number of epochs and a termination criterion can also be specified for training.
  • the number of epochs indicates the number of training runs.
  • a specified amount of training data e.g. all training data or just a selection of training data, can be used for each training run.
  • the termination criterion indicates how far the result of the trainable neural network can deviate from the ideal result in order for the training to be considered successfully completed and for the neural network to be considered sufficiently well trained.
  • the neural network can be designed as a deep convolutional neural network, abbreviated to dCNN.
  • CNNs and dCNNs deliver very good results, especially for classifying objects in image data. It goes without saying that other suitable neural networks from the field of machine learning are also possible.
  • Such a dCNN can have an input layer as well as a plurality of hidden layers and an output layer.
  • the hidden layers can have at least partially identical or repeating layers.
  • the input layer can have an input for each pixel of the captured images. It is understood that the images can be stored as an array or vector with the corresponding number of elements can be transmitted to the input layer. Furthermore, the size of the captured images can be the same for all images. For example, the images can be captured with 1024*1024 pixels, which represents a capture area of 25cm by 25cm for corresponding final configurations. It is understood that these details are only examples and other image parameters can be used.
  • a schematic layer structure of the neural network is explained below.
  • the image data to be analyzed is fed to the input layer of the neural network using the first layer of the trained neural network.
  • the hidden layers can carry out a kind of preparation of the input data for further processing by the neural network and then process it further in a large number of identical blocks.
  • These layers can be, for example, layers for filling with zeros, so-called zero padding layers, layers for convolution, layers for normalization, and layers for activation, in particular by means of a so-called ReLU function, also called a rectified linear unit.
  • Data from layer 6 can also be processed in parallel with just one convolution operation, which is then added to the result of layer 11 in layer 12. It goes without saying that different layer arrangements are possible and the above structure is shown only as an example.
  • corresponding information on the area of interest and the classification can then be output, e.g. number of areas of interest determined, type of areas of interest determined (e.g. crimp sleeve, grommet, internal contact, etc.), error status, such as faulty or error-free, a corresponding probability for the existence of the determined error status and identification of a specific error pattern.
  • a neural network with, for example, 274 layers can be provided, which is trained by means of corresponding training data to carry out the image evaluation in the manner according to the invention.
  • the end configurations can be designed in different ways.
  • the end configuration of a cable section is characterized by the preceding processing step which takes place between the initial configuration and the end configuration.
  • the cable section can be a cable end.
  • the entire cable is also considered to be the final configuration, in particular if different parts of the cable are processed in different cable processing units and different cable sections of the same cable are captured with different image capture devices.
  • the final configuration of the cable is always changed when a cable section of this cable is further processed.
  • the final configuration can comprise at least one further element, for example from the group of crimp sleeve, contact pin, plug, inner conductor, outer conductor, shielding braid, connecting tube, cable, cable sheath, insulator, grommet, laser marking of the cable as an alphanumeric character string, coupling, holder for grommets, cable holder, separator, housing, dirt flap, ferrule for optical conductors, label, silicone insulating tube, etc., which are processed in the processing step of the processing unit together with the cable section.
  • the final configuration can also comprise only elements of the cable, e.g. a stripped end with an adjacent non-stripped part as part of a partial stripping processing step.
  • the final configuration can also only include components arranged on the cable, but not the cable itself, e.g. the combination of housing and housing dirt flap.
  • At least one cable section in particular one cable end, is processed in the cable processing unit and a final configuration is always associated with the processed cable section
  • a corresponding plurality of final configurations can also be present when a plurality of cable sections are processed simultaneously by the cable processing unit.
  • the presence of at least one cable section means that at least one final configuration is present.
  • the majority of the final configurations of the cable sections that are processed simultaneously by the same cable processing unit are similar; e.g. all cable sections, e.g. cable ends, are each fitted with a crimp sleeve and crimped.
  • the final configuration here the crimp sleeve crimped onto the cable section, differs for the majority of cable sections generally only in terms of whether or not there is an error pattern for the respective final configuration of the respective cable section, e.g. whether it was crimped incorrectly or not.
  • the region of interest in the final configuration of at least one cable section is determined by means of the trained neural network as the region of interest which was learned as the region of interest according to the training data, provided that this region is present in the captured image.
  • the region of interest in the final configuration can in particular be selected from the group: crimp sleeve, contact pin, plug, inner conductor, outer conductor, shielding braid, connecting pipe, cable, cable sheath, insulator, grommet, laser marking of the cable as an alphanumeric character string, coupling, holder for grommets, cable holder, separator, housing, dirt flap, ferrule for optical conductors, label, silicone insulating hose, etc.
  • a plurality of regions of interest are determined accordingly, whereby only one region of interest or a plurality of regions of interest can be determined for each final configuration.
  • the result can be "OK” or "OK” for a final configuration that was determined to be error-free or "not OK” or “not OK” for a final configuration that was determined to be faulty.
  • the result can be communicated using color codes, e.g. green marking of an area of interest as error-free and red marking of an area of interest as faulty.
  • the specific error pattern can be identified from a large number of possible error patterns for faulty final configurations.
  • the complete information of the output vector of the neural network can also always be made available as standard, especially for a control device.
  • an image is captured by means of the image capture device which shows two to 100 final configurations
  • the trained neural network is designed to determine at least one region of interest for the two to 100 final configurations, in particular for each of the two to 100 final configurations, and to determine at least one result associated with the classification of the regions of interest
  • the trained neural network is applied to the captured image, wherein a control signal for the two to 100 captured final configurations, in particular for each of the two to 100 captured final configurations, is generated and output on the basis of the determined at least one region of interest and/or the result associated with the classification for the respective final configuration.
  • Such a design makes it possible to significantly increase the throughput of a cable processing unit through parallel processing, without running the risk that efficient and reliable error pattern control by a human supervisor is no longer possible. Rather, the use of an appropriately designed neural network enables reliable error pattern control in real time for a large number of cable sections or end configurations processed in parallel, thus significantly improving the production process.
  • the corresponding cable or cable section can be further processed depending on the classification result, for example it can be specifically excluded from further parallel processing.
  • the captured image shows at least 10 to 100, in particular 20 to 100, in particular 30 to 100, in particular 40 to 100 final configurations.
  • at least one region of interest is determined by means of the neural network trained for this purpose.
  • the trained neural network is designed to determine at least one region of interest with an associated probability value for a maximum number of final configurations, wherein the neural network is further designed to determine a probability value below a predetermined threshold value for a difference between the number of final configurations recorded and the maximum number, wherein the neural network is further designed so that regions of interest with a probability value below the predetermined threshold value are not classified.
  • the neural network can therefore be used flexibly for a variable number of cables processed in parallel. Furthermore, no classification is carried out for regions of interest whose probability value does not exceed a threshold value because they are not present in the recorded image, which increases the speed of the neural network and saves computing resources.
  • the trained neural network is designed to determine at least one first region of interest for at least one final configuration and at least one second region of interest that is spatially different from the first region of interest for the same final configuration from the at least one captured image, and the trained neural network is further designed to additionally take into account a relative parameter of the at least first region of interest and the second region of interest for the classification and to determine a result associated with the classification, and wherein the trained neural network is applied to the at least one image, wherein a control signal for the at least one final configuration is generated and output based on the result of the classification taking the relative position into account.
  • a plurality of different regions of interest in particular two, three or four regions of interest, can be determined for a final configuration.
  • a plurality of different regions of interest can be determined for a plurality of final configurations, in particular 2 to 100.
  • it allows a relational Relationship between different cable sections of the same cable, here taking into account the final configuration, in addition to the final configurations of the cable sections, across different cable processing units.
  • the classification is no longer carried out in isolation for the determined region of interest, but a relative parameter of the at least two determined regions of interest of the same final configuration is also taken into account for the classification of the final configuration.
  • the relative parameter can be, for example, the relative position.
  • Relative position is to be understood broadly in this context, and can include, for example, a relative orientation, a relative displacement or relative rotation or even a distance between the at least first and at least second regions of interest.
  • a crimp sleeve can be identified as the first region of interest and a stripped cable end as the second region of interest, with the distance between the first region of interest and the second region then being assessed. From this, it can be determined whether the crimp sleeve is positioned correctly on the stripped cable end, in particular whether the crimp sleeve covers the stripped cable end too far or is arranged too far away from the stripped region. Furthermore, the longitudinal direction of the crimp sleeve and the longitudinal direction of the stripped cable end can also be taken into account in order to determine whether the crimp sleeve is at an angle relative to the cable end.
  • a functional affiliation of the first and second areas of interest to a specific component class can be taken into account as a relative parameter. For example, it can be determined whether a grommet, the first area of interest, is arranged at one end of an almost completely processed cable and whether a crimp sleeve is provided at the other end, the second area of interest, which is still being processed.
  • the neural network is trained in such a way that a determined region of interest is associated with a specific component, e.g. that a first region of interest is a grommet and a second region of interest is a crimp sleeve, whereby a comparison of the number of grommets and crimp sleeves for the same cable is then taken into account as a relative parameter for the classification.
  • the neural network can be designed to determine whether for each determined region of interest in the form of a Crimp sleeve has exactly one area of interest in the form of a grommet along the cable. It is understood that this is only an example and the classification, which takes a relative parameter into account, can also be provided for other components.
  • This embodiment allows complex final configurations assembled using different components to be classified in real time and thus the manufacturing process to be handled reliably.
  • this form of classification can be applied to an image comprising 2 to 100 final configurations, so that complex processing processes can be monitored for errors at high throughput.
  • the image of the at least one final configuration is captured using a digital image recording device such that at least one region of interest is represented by at least 20 pixels, preferably more than 50 pixels. It has been shown that the trained neural network delivers particularly reliable results if a region of interest is represented by at least 20 pixels, preferably more than 50 pixels in the captured image. This can be achieved, for example, if the image recording device has a resolution of 1 megapixel or more and the recording area in which the plurality of final configurations is arranged is 25cm by 25cm.
  • the trained neural network is designed to determine the complete image capture of a final configuration, wherein the trained neural network is applied to the captured image, wherein in the case of the determined incomplete capture of at least one final configuration, a control signal is generated and output which causes an image capture error to be reported.
  • This is generally not an error in the manufacturing process, but an error in the image capture process. This does not mean that processed cable sections that were not captured correctly are faulty. It simply means that an area of interest and/or a classification cannot be carried out for this final configuration using the captured image due to the incomplete capture of a certain final configuration.
  • the trained neural network for determining the completeness of a final configuration is the same neural network which is also designed to perform the at least one region of interest and the classification of the at least one region of interest.
  • control signal causes a graphic display of the at least one determined region of interest in an image showing the at least one final configuration, in particular the image to which the trained neural network was applied, in particular as a colored border of the at least one determined region of interest, on an image output device.
  • a graphic display on an image output device it becomes clear to the staff whether and which region or regions in the captured image were determined as the region or regions of interest. This allows a plausibility check to be carried out.
  • a colored frame or a colored border can be used to make a determined region of interest or determined regions of interest quickly identifiable for the staff on the image showing the final configuration.
  • the frame can identify the type of area of interest determined, e.g. a specific cable section or a specific component, by means of the frame color.
  • control signal is used to cause a graphic display of the result of the classification for the at least one final configuration in an image showing the at least one final configuration, in particular the image on which the classification is based, on an image output device.
  • the graphic display of the result of the classification can in particular be reproduced as a color index and/or as a text block, e.g. "OK” or "OK” or "not OK” or "not OK".
  • the frame indicates by means of the color for which at least one determined region of interest there is a classification result that corresponds to an error image and for which at least one determined region of interest there is a classification result that corresponds to an error-free state.
  • This graphical output also allows the staff to quickly and easily visually determine which final configuration or which areas of interest were classified as faulty or fault-free.
  • the graphic display shows an error pattern associated with the result of the classification in the form of an error pattern name. This not only enables the staff to determine whether a final configuration is faulty or error-free in the sense of "OK” or “not OK", but the staff is also informed about the type of error pattern.
  • the operation of the cable processing unit is influenced by means of the control signal in such a way that the final configuration of a cable section to be processed subsequently is brought closer to a desired, in particular error-free, final configuration by means of the same cable processing unit.
  • the result of the classification is used for a control intervention of the cable processing unit in order to avoid, as far as possible, a corresponding error pattern for final configurations subsequently produced by means of the cable processing unit.
  • the determined region of interest and the result of the classification can be used as input data for a trained neural network for controlling the cable processing unit.
  • This trained neural control network is preferably designed to generate and output a control signal for influencing at least one control variable of the cable processing unit based on at least one determined region of interest and an associated classification result, which reduces the probability of the presence of an incorrect final configuration after processing for a next cable section to be processed.
  • control signal is used to influence a cable sequence processing of a cable sequence processing unit downstream of the cable processing unit of at least one classified final configuration depending on the result of the classification of this final configuration. This allows corrective processing of faulty final configurations by subsequent processes, as far as possible, in order to avoid production waste.
  • the determined region of interest and the result of the classification can be used as input data for a trained neural network for controlling a subsequent process, i.e. a processing process that follows the processing step in the context of which the final configuration was determined to be faulty.
  • This trained neural control network is preferably designed to generate and output a control signal for influencing at least one control variable of a cable sequence processing unit based on at least one determined region of interest and an associated classification result. This allows an incorrect final configuration to be processed individually in a corrective manner, so that production waste is avoided.
  • control signal is used to cause a cable section with a faulty final configuration to be rejected from a production process that is still to be completed, whereby rejection takes place when the result of the Classification for this final configuration corresponds to a given error pattern with a probability above a given probability threshold and cannot be corrected by means of a subsequent cable processing unit.
  • This alternative is advantageous if an error pattern of a final configuration cannot be corrected by subsequent processes. This can be the case for certain given error patterns that have been identified with a sufficiently high degree of certainty. These error patterns that cannot be corrected and are present with a high degree of certainty can depend on the respective production structure and can also depend on the arrangement of the cable processing units in the direction of material flow. If the error pattern of the final configuration cannot be corrected, it is advantageous to stop processing the faulty final configuration and to remove or separate it from the production process as soon as possible.
  • the invention also relates to a cable processing device comprising: a cable processing unit which is designed to receive at least one cable section, in particular a cable end, and to process it in such a way that the at least one cable section is transferred from an initial configuration to a final configuration, an image recording device, arranged and designed to record at least one image of the at least one final configuration, an evaluation device and a control device for controlling and/or regulating the cable processing device, wherein the evaluation unit is operatively connected to the image recording device and the control device, and wherein machine-readable program code can be loaded into the evaluation device and/or the control device, which, when executed, causes the method according to one of the preceding claims to be carried out.
  • a cable processing device in particular an automated quality check of the cable production process can be carried out.
  • the cable processing device thus comprises in particular a trained neural network for evaluating the at least one recorded image of the at least one final configuration, wherein the neural network is trained such that in a first step at least one region of interest of the at least one final configuration is determined from the image and in a second step a classification of the at least one determined region of interest takes place with regard to the presence of an error image of the final configuration, wherein the evaluation device is designed to output a control signal depending on the determined region of interest and/or depending on a determined result of the classification of the final configuration.
  • the invention also relates to a machine-readable program code for an evaluation device and/or control device, which comprises control commands which, when executed by the evaluation device and/or the control device, cause the method according to one of the method claims to be carried out.
  • the invention also relates to a control and/or evaluation device with machine-readable program code, which comprises control commands which, when executed by means of the evaluation device and/or control device, cause the method according to one of the method claims to be carried out.
  • the evaluation device advantageously accesses a trained neural network, in particular in the form of a machine-readable program code, which is designed to determine at least one region of interest of the at least one final configuration from the at least one captured image in a first step and, in a second step, to carry out a classification of the at least one determined region of interest with regard to the presence of a learned error image of the at least one final configuration and to determine a result associated with the classification, and to generate and output a control signal depending on the at least one determined region of interest and/or depending on the determined result of the classification of the at least one final configuration.
  • the evaluation device can access, in particular the program code implementing the trained neural network, by accessing a local memory; alternatively, access can also be by accessing a cloud on which the corresponding neural network is implemented.
  • the trained neural network which the evaluation device accesses, is further designed to determine at least one region of interest for two to 100 final configurations, in particular for each of the two to 100 final configurations, and to determine a result associated with the classification of the regions of interest, wherein a control signal for the two to 100 recorded final configurations, in particular for each of the two to 100 recorded final configurations, can be generated and output on the basis of the determined at least one region of interest and/or the result associated with the classification for the respective final configuration.
  • the trained neural network which the evaluation device accesses, is further designed to identify at least one first region of interest for at least one final configuration and at least one second region of interest for the same final configuration, which region is to determine a spatially different region of interest from the at least one captured image and the neural network is further designed to additionally take into account a relative parameter, in particular a relative position, of the at least first region of interest and the second region of interest for the classification and to determine a result associated with the classification, wherein a control signal for the at least one final configuration can be generated and output based on the result of the classification taking the relative position into account.
  • FIG. 1 shows a schematic view of a cable processing device 100.
  • the cable processing device 100 comprises at least one cable processing unit 200, by means of which a cable or a cable section K is processed from an initial configuration into a final configuration E.
  • the initial configuration refers to the state of the cable section K to be processed before processing.
  • the final configuration refers to the state of the processed cable section K.
  • a plurality of cable processing units 200 can be included in the cable processing device 100, each of which carries out different processing steps on the cable, possibly also on different cable sections of the same cable.
  • the final configuration E can depend on the processing status of the cable or the cable section K as well as on the type of cable to be manufactured.
  • the final configuration comprises the cable section K of the cable designed as an end region and a schematically shown crimp sleeve C arranged thereon.
  • the final configuration can be imaged in the flow direction after the processing step, possibly also after exiting the cable processing unit 200, for example on a cable receiving device 210.
  • This final configuration E is recorded by means of an image recording device 300.
  • the recording area of the image recording device 300 for recording final configurations E is preferably 25 cm by 25 cm. If a final configuration E is arranged within the recording area, the image recording device 300 can record the final configurations E arranged therein in the recording area.
  • the image recording device 300 is preferably designed as a digital camera and has a resolution of 1024x 1024 pixels. With this configuration of recording area and resolution, it is ensured that the image has a sufficiently good resolution to carry out a reliable image evaluation. A lower resolution with the same recording area or a larger recording area with a smaller resolution can have a negative impact on the result of the image evaluation. It should be ensured that an area of interest has at least 20 pixels, preferably 50 or more pixels. However, a larger recording area and a higher resolution can be selected, although this may have disadvantages in terms of the speed of subsequent image processing.
  • the cable processing device 100 further comprises an evaluation device 500.
  • An image evaluation is carried out by means of the evaluation device 500.
  • the evaluation device 500 comprises a trained deep convolutional neural network, which is designed to determine at least one region of interest of the at least one final configuration E from the at least one captured image in a first step and to determine a classification of the at least one determined region of interest with regard to the presence of a learned error image of the at least one final configuration E and a result associated with the classification in a second step.
  • a machine-readable code 600 is loaded into a non-volatile memory of the evaluation device 500, which includes the trained neural network.
  • the evaluation device 500 can determine at least one region of interest of the final configuration E and classify this at least one region of interest.
  • At least one region of interest is determined for each final configuration E captured by means of the image. It is also possible to determine several regions of interest per final configuration E.
  • the evaluation device 500 sends a control signal to a control device 700 included in the cable processing device 100.
  • This control device 700 is designed to control or regulate the cable processing device 100.
  • the evaluation device 500 can be provided separately from the control device 700.
  • the evaluation device 500 can also be integrated in the control device 700.
  • control device 700 is also operatively connected to an image output device 800.
  • the control device 700 is designed to cause the information provided by the evaluation device 500 to be displayed on the image output device 800.
  • the determined regions of interest and the respective classification results are preferably displayed on the image comprising the analyzed final configuration E.
  • the appropriately trained deep convolutional neural network is provided with raw data from the image recording device 300 that has not been preprocessed or otherwise prepared, for example in the form 1024x1024x3.
  • a tensor is therefore provided that has 1024x1024 pixels, each of which can have 3 RGB colors.
  • the aim is that the captured images can be evaluated directly using the evaluation device 500 without any further intermediate processing or preparation.
  • the output data can include, for example, the maximum number of regions of interest in the image, associated probability values for each of the regions of interest, the localization of the regions of interest by means of frames in the image, and the classification result, which distinguishes between those with errors and those without errors, and possibly other information, which can include, for example, the type of error pattern and a further probability value for the presence of a specific error pattern.
  • An output vector is thus output for the intended number of regions of interest that can be determined using the neural network, with the respective information on the respective regions of interest.
  • the deep convolutional neural network used is designed to initially determine at least one region of interest per final configuration E of a cable section K, preferably several regions of interest per final configuration E of a cable section K, for a large number of cable sections using the same deep convolutional neural network and then to classify the determined regions of interest. This step-by-step procedure is carried out using the same network that was trained for this procedure.
  • Figure 2 illustrates the embodiment according to Figure 1 with regard to the parallel cable processing capacity of the cable processing unit 200.
  • the cable processing unit 200 as well as the cable processing device 100, is designed to process a large number of cables, here n cables, in parallel.
  • n cables Preferably, 30 to 100 cables are processed simultaneously by the cable processing unit 200 and each is converted from an initial configuration to a final configuration.
  • the challenge is to provide real-time control for a large number of cables, eg 30 to 100 cables, to determine whether each individual cable has been processed without errors.
  • the n end configurations are designated E1, E2, E3 to En.
  • the corresponding cable sections are designated K1, K2, K3 to Kn.
  • the neural network is preferably designed in such a way that it is configured to determine up to 100 regions of interest from 100 final configurations E1, E2, E3, ..., En processed in parallel using the same cable processing unit 200. It is also configured to provide the 100 regions of interest with probability values. If fewer than 100 final configurations are processed simultaneously, it determines a probability value for the difference between the number of final configurations recorded and 100, which is below a predetermined threshold value. The regions of interest with a probability below this threshold value are no longer taken into account and are not classified by the neural network.
  • This provides a neural network that is suitable for handling a flexible cable throughput through the cable processing unit up to a maximum number of cables or maximum number of final configurations E1, E2, E3, ..., En in real time and for checking the production process.
  • the maximum number of areas of interest that can be determined using the neural network can be selected such that it corresponds to the maximum parallel processing capacity of the cable processing unit 200. For example, this can be selected to be a factor of 2 to 5 higher than the number of cables that can be processed in parallel at most, so that a plurality of areas of interest can also be determined for each final configuration E1, E2, E3, ..., En.
  • Figure 3 shows a cable processing device 100.
  • This comprises the already Figure 1 and 2 shown cable processing unit 200, as well as a cable follow-up processing unit 201 downstream of the cable processing unit in the flow direction, and a cable pre-processing unit 202 upstream of the cable processing unit 200 in the flow direction.
  • the cable processing device 100 comprises a higher-level control device 710, by means of which the cable pre-processing unit 202 and the cable subsequent processing unit 201 can be influenced at least indirectly.
  • the flow direction or material flow direction is designated by D.
  • the higher-level control device 710 is at least indirectly suitable for influencing the operation of at least one cable pre-processing unit 202 upstream of the cable processing unit 200 in the flow direction D. Furthermore, the higher-level control device 710 is also at least indirectly suitable for influencing the operation of at least one cable subsequent processing unit 201 downstream of the cable processing unit 200 in the flow direction D.
  • the cable pre-processing unit 202 and the cable subsequent processing unit 201 can be units directly preceding or following the cable processing unit 200. However, they can also be further away from the cable processing unit 200.
  • the evaluation device 500 determines at least one region of interest of the final configurations E and classifies the at least one region of interest. If the classification of a region of interest leads to the result that an error pattern exists for a specific final configuration E and what type of error pattern it is, the cable processing device 100 can be controlled and/or regulated, for example in the form of the control or regulation of the cable sequence processing device 201, such that for the faulty final configuration E, corrective processing of this final configuration E takes place in a subsequent processing step by means of the cable sequence processing unit 201.
  • This approach can generally be applied to all classified areas of interest that are known to have a repairable defect pattern that can be adequately corrected by downstream processing steps. This avoids waste, achieves greater manufacturing efficiency and reduces the cost per cable.
  • control device 700 is also designed to control and/or regulate the cable processing unit 200 based on the at least one determined region of interest and the associated classification result for a specific final configuration E in such a way that the determined error pattern is reduced or completely avoided for subsequently produced final configurations.
  • the contact pressure of the crimping press can be increased, in particular only for the position of the cable in the cable processing unit 200 for which the fault pattern was detected.
  • the determined area of interest and the associated classification can therefore be used to individually adapt the control variables of the cable processing unit 200 in such a way that a stable and optimized processing process is achieved for subsequent cable sections.
  • the cable processing device 100 can be made of Figure 3 be designed to influence the operation of a cable pre-processing unit 202 based on the at least one determined region of interest and the associated classification result in such a way that a specific error pattern in the final configuration E of the cable section K, detected after processing with the cable processing unit 200, is reduced. This can also be done by means of the higher-level controller 710.
  • the evaluation may show that the cable has not been stripped correctly and, for this reason, the crimp sleeve applied in the cable processing unit 200 is not positioned correctly.
  • the error is caused by the cable pre-processing unit 202, which carries out the step of stripping the cable section. Consequently, this error can be remedied if the operation of the cable pre-processing device 202 is influenced in a way that changes the stripping process back towards a desired result.
  • This approach makes it possible to avoid the need for an image capture device to record final configurations and evaluate the image after each cable processing unit. Instead, a few image evaluations at a few cable processing units are sufficient, and the results can be used to positively influence a large number of production processes.
  • Figure 4 shows a first example final configuration E of a cable section K.
  • the final configuration E comprises, from left to right, a sheath M of the cable, followed by a shield S of the cable, the shield S is followed by a crimp sleeve C.
  • the crimp sleeve C is again followed by a sheath M of the cable.
  • Such a final configuration E can be captured by means of an image from the image processing device and is fed to the evaluation device.
  • Figure 4 now shows an exemplary result of an application of the neural network included in the evaluation device to the captured image of the final configuration E. Accordingly, this can be done if the image shows a plurality of final configurations E.
  • the evaluation device is used to determine four regions of interest for the current final configuration E.
  • a first region of interest 401 is determined, which is assigned to the jacket on the left in the figure. This has a probability above a threshold value, so that R1 is marked using a box or a frame.
  • the neural network provides a position of the frame as an xy coordinate in the image with an associated length in x and y directions. This applies to all frames in Figure 4 and also the following characters accordingly.
  • a second region of interest 402 is determined by means of the neural network, which has a probability value that is above a threshold value. This second region of interest is assigned to the shielding S and is also marked with a frame R2 on the image.
  • a third region of interest 403 is determined by means of the neural network, which has a probability value that is above a threshold value. This third region of interest is assigned to the crimp sleeve and is also marked with a frame R3 on the image.
  • a fourth region of interest 404 is determined by means of the neural network, which has a probability value that is above a threshold value.
  • This fourth region of interest is the region of interest in the Figure 4 right-hand coat M and is also marked with a frame R4 in the picture.
  • the frames R1, R2, R3, R4 are preferably assigned information A1, A1, A2, A3, which contain further information on the determined region of interest 401, 402, 403 and 404.
  • the information A1 to A4 can each include the probability with which a region of interest was determined.
  • these pieces of information A1, A1, A2, A3 preferably include the result of the classification, as set out above.
  • a traffic light system can be used, with a green frame representing error-free and a high probability of error-free, red representing error-prone and a high probability of error, and yellow representing classification results with insufficiently high probability, meaning that they require checking.
  • the information A1 to A4 can, if necessary only upon user request, e.g. by hovering over the information using a control device, e.g. a mouse, to specifically identify the error pattern, so that the staff can quickly determine and see which error pattern is present for a final configuration E.
  • a control device e.g. a mouse
  • Each of these determined areas can be classified in isolation, e.g. whether the shielding braid has been processed in accordance with the process or not; whether the crimp sleeve C has been processed in accordance with the process or not, in particular whether this is the case in the pressed or unpressed state or whether the pressing was carried out without errors.
  • Such an exemplary evaluation can be carried out for a large number of final configurations E that are processed in parallel and captured in images.
  • Figure 5 shows a second exemplary final configuration E of a cable section.
  • This final configuration E shows a cable K, determined as the first area of interest 401, and a connecting pipe V, determined as the second area of interest 402.
  • the determined areas of interest 401 and 402 are again identified by means of a frame R1 or R2.
  • the corresponding information A1 or A2, such as for Figure 4 explained, are arranged in the corresponding frame R1 and R2.
  • the evaluation device uses the evaluation device to determine from the image capturing the final configuration E that there is a first region of interest 401, which is classified as a cable, and a second region of interest 402, which is a connecting pipe.
  • a first region of interest 401 which is classified as a cable
  • a second region of interest 402 which is a connecting pipe.
  • Figure 6 shows a third exemplary final configuration E of a cable section.
  • Figure 6 shows two cables K and two internal contact crimps IC arranged on the stripped cable ends AK, each also referred to as a contact pin.
  • the final configuration E captured in the image is fed back to the evaluation device.
  • the first and third areas of interest 401 and 403 correspond to the cable section in front of the stripped parts AK of the cable or the contact pins.
  • the second and fourth areas of interest 402 and 403 correspond to an internal contact crimp IC. Each internal contact crimp IC is guided with one of its sections over a contact pin and crimped.
  • the evaluation device it can be determined from the image capturing the final configuration E that there is a first and third area of interest 401, 403, which is classified as the cable section K adjacent to the contact pin AK, and a second and fourth area of interest 402 and 404, respectively, which is an internal contact crimp IC. These are again identified by corresponding frames R1 to R4. For reasons of clarity, the information in the frames has been omitted for Figure 6 waived.
  • the relative position of the first and second regions of interest 401 and 402 or the relative position of the third and fourth regions of interest 403 and 404 for the classification it can be determined whether the inner contact crimp was crimped onto the pin AK without errors. In particular, it can be determined from the distance of the first and second regions of interest 401 and 402 whether the position of the inner contact crimp to the pin is error-free. The same applies to the third and fourth regions of interest 403 and 404.
  • FIG 7 shows a fourth exemplary final configuration E.
  • This comprises two cables K, each of which is equipped with a connector S. These cables K are to be equipped by means of a cable holding device H, here also referred to as a separator.
  • the image capture of this final configuration E is again carried out using an appropriately prepared evaluation device.
  • the region of interest 401 is determined again, which here corresponds to the holding device H.
  • the subsequent classification of the determined region of interest 401 it can be determined whether the holding device H is attached to the cable sections K without errors.
  • an embodiment of the invention can also be used for checking the marking of Cables, in particular laser markings on the cable sheath, for the correct attachment of labels and tags to the cable, in particular with regard to compliance with the laser marking, the attachment of grommets and their holders, the attachment of couplings for sensor cables, the arrangement of protective caps on plugs, of ferrules on optical conductor end pieces, the arrangement of a silicone insulating tube on the cable, the attachment of outer conductors, etc.
  • Figure 7 shows a schematic process sequence as a flow chart for an embodiment of the method for operating a cable processing device.
  • a method step S1 at least one cable section, preferably a plurality of cable sections, is processed from an initial configuration to a final configuration.
  • This can be any processing step.
  • the processing step should, however, influence the optical appearance of the cable end piece, since subsequent evaluation is carried out on an image basis.
  • the at least one final configuration arranged in the recording area is recorded by means of an image recording device and the image is fed to an evaluation device for evaluating the final configuration recorded in the image.
  • an image recording device for evaluating the final configuration recorded in the image.
  • the neural network is used to check whether all of the final configurations shown have been fully captured in the image or whether the image shows final configurations that have been captured incompletely. If final configurations are captured incompletely, an error signal is output, possibly only when the classification for the fully captured final configurations is available, from which incomplete image capture becomes apparent. The reason for the incomplete capture can then be eliminated.
  • a next step S4 uses the neural network to determine a plurality of regions of interest from the image, whereby each final configuration also contains a plurality of regions of interest.
  • the neural network is trained to determine the desired number of areas of interest.
  • a next method step S5 the determined areas of interest are classified with regard to the presence of a defect pattern and a result corresponding to the classification is determined.
  • a control signal is generated and output which is dependent on the at least one determined region of interest and/or dependent on the determined result of the classification of the at least one final configuration.
  • the control signal is preferably output to a control device.
  • a method step S 7 the information determined by the evaluation device from the captured image is graphically output on the basis of the control signal.
  • the large number of determined regions of interest and an associated classification result are output on a monitor.
  • control device checks whether influencing the cable processing unit, a cable pre-processing unit or a cable subsequent processing unit, or separating a cable from production on the basis of the control signal is appropriate.
  • a control intervention for a corresponding manipulated variable of the production takes place in a process step S9, which helps to avoid an error pattern for a final configuration, corrects the error pattern for a specific final configuration or causes a cable or cable section to be separated from production.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Automation & Control Theory (AREA)
  • Quality & Reliability (AREA)
  • Manufacturing & Machinery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Die Erfindung betrifft eine Kabelverarbeitungsvorrichtung, eine Auswerte- und/oder Steuereinrichtung für eine Kabelverarbeitungsvorrichtung, maschinenlesbaren Programmcode und ein Verfahren zum Betreiben einer Kabelverarbeitungsvorrichtung (100), umfassend die Verfahrensschritte: Verarbeiten (S1) wenigstens eines Kabelteilstücks (K, K1, K2, K3, Kn), insbesondere eines Kabelendes, mittels einer Kabelverarbeitungseinheit (200) von einer Anfangskonfiguration zu einer Endkonfiguration (E, E1, E2, E3, En), Erfassen (S2) wenigstens eines Bilds der wenigstens einen Endkonfiguration (E1, E2, E3, En) mittels einer Bildaufnahmeeinrichtung (300), Anwenden (S4, S5) eines trainierten neuronalen Netzes auf das wenigstens eine erfasste Bild, wobei das trainierte neuronale Netz dazu ausgebildet ist, in einem ersten Schritt wenigstens einen interessierenden Bereich (401, 402, 403, 404) der wenigstens einen Endkonfiguration (E, E1, E2, E3, En) aus dem wenigstens einen erfassten Bild zu ermitteln (S4) und in einem zweiten Schritt eine Klassifikation des wenigstens einen ermittelten interessierenden Bereichs (401, 402, 403, 404) hinsichtlich des Vorliegens wenigstens eines angelernten Fehlerbilds der wenigstens einen Endkonfiguration (E, E1, E2, E3, En) durchzuführen und ein der Klassifikation zugeordnetes Ergebnis (A1, A2, A3, A4) zu ermitteln (S5), Erzeugen und Ausgeben (S6) eines Steuersignals abhängig vom wenigstens einen ermittelten interessierenden Bereich (401, 402, 403, 404) und/oder abhängig von dem ermittelten Ergebnis (A1, A2, A3, A4) der Klassifikation der wenigstens einen Endkonfiguration (E, E1, E2, E3, En), wodurch der Prozess der Kabelverarbeitung weiter verbessert wird.The invention relates to a cable processing device, an evaluation and/or control device for a cable processing device, machine-readable program code and a method for operating a cable processing device (100), comprising the method steps: processing (S1) at least one cable section (K, K1, K2, K3, Kn), in particular a cable end, by means of a cable processing unit (200) from an initial configuration to a final configuration (E, E1, E2, E3, En), capturing (S2) at least one image of the at least one final configuration (E1, E2, E3, En) by means of an image recording device (300), applying (S4, S5) a trained neural network to the at least one captured image, wherein the trained neural network is designed to, in a first step, select at least one region of interest (401, 402, 403, 404) of the at least one final configuration (E, E1, E2, E3, En) from the at least one image. to determine a captured image (S4) and, in a second step, to carry out a classification of the at least one determined region of interest (401, 402, 403, 404) with regard to the presence of at least one learned error image of the at least one final configuration (E, E1, E2, E3, En) and to determine a result (A1, A2, A3, A4) associated with the classification (S5), generating and outputting (S6) a control signal depending on the at least one determined region of interest (401, 402, 403, 404) and/or depending on the determined result (A1, A2, A3, A4) of the classification of the at least one final configuration (E, E1, E2, E3, En), whereby the cable processing process is further improved.

Description

Technisches GebietTechnical area

Die Erfindung betrifft ein Verfahren zum Betreiben einer Kabelverarbeitungsvorrichtung, eine Kabelverarbeitungsvorrichtung, eine Steuereinrichtung für eine Kabelverarbeitungsvorrichtung und einen maschinenlesbaren Programmcode. Die vorliegende Erfindung wird hauptsächlich in Verbindung mit Datenkabeln beschrieben. Es versteht sich, dass die vorliegende Erfindung für jede Art von Kabeln genutzt werden kann.The invention relates to a method for operating a cable processing device, a cable processing device, a control device for a cable processing device and a machine-readable program code. The present invention is mainly described in connection with data cables. It is understood that the present invention can be used for any type of cable.

Stand der TechnikState of the art

Bei der Herstellung von Datenkabeln werden die Kabel üblicherweise in einer automatisierten Verarbeitungsanlage bearbeitet und beispielsweise konfektioniert, also auf die entsprechende Länge abgelängt und mit entsprechenden elektrischen Kontakten und/oder Steckern versehen. Eine einzige automatisierte Verarbeitungsanlage umfasst dabei mehrere Stationen, die im Rahmen dieser Anmeldung auch als Kabelverarbeitungseinheit bezeichnet werden. In jeder Kabelverarbeitungseinheit wird ein definierter Verarbeitungsschritt für ein Kabel durchgeführt.When manufacturing data cables, the cables are usually processed in an automated processing system and, for example, assembled, i.e. cut to the appropriate length and provided with appropriate electrical contacts and/or plugs. A single automated processing system comprises several stations, which are also referred to as a cable processing unit in this application. In each cable processing unit, a defined processing step is carried out for a cable.

Um eine fehlerfreie Verarbeitung solcher Kabel in großen Stückzahlen zu ermöglichen, müssen die Kabel in der jeweiligen Verarbeitungsanlage auf die korrekte Umsetzung der einzelnen Verarbeitungsschritte überprüft werden. Insbesondere ist es innerhalb einer bestimmten Verarbeitungsanlage erforderlich, vor einzelnen Kabelverarbeitungseinheiten die dieser Kabelverarbeitungseinheit zugeführten bzw. die diese Kabelverarbeitungseinheit verlassenden Kabel dahingehend zu prüfen, ob die Kabel vorgegebenen Anforderungen entsprechen, um weiter verarbeitet werden zu können. Dabei weisen die Kabel in der Regel eine Anfangskonfiguration auf. Dies ist der Zustand, in welchem ein Kabel bzw. ein zu verarbeitendes Kabelteilstück einer Kabelverarbeitungseinheit zugeführt wird. Das Kabel bzw. Kabelteilstück wird dann einem Verarbeitungsschritt unterzogen und von der Anfangskonfiguration in eine Endkonfiguration überführt. Dies ist der Zustand, in welchem ein Kabel bzw. ein Kabelteilstück die das Kabel bzw. Kabelteilstück verarbeitende Kabelverarbeitungseinheit verlässt.In order to enable error-free processing of such cables in large quantities, the cables in the respective processing plant must be checked to ensure that the individual processing steps have been implemented correctly. In particular, within a specific processing plant, it is necessary to check the cables fed to or leaving individual cable processing units before they reach this cable processing unit to see whether the cables meet the specified requirements in order to be able to be processed further. The cables usually have an initial configuration. This is the state in which a cable or a cable section to be processed is fed to a cable processing unit. The cable or cable section is then subjected to a processing step and transferred from the initial configuration to a final configuration. This is the state in which a cable or a cable section leaves the cable processing unit that processes the cable or cable section.

Hierzu ist es bekannt, Kabel bzw. Kabelteilstücke mittels einer Bilderkennung zu erfassen und zu bewerten.For this purpose, it is known to detect and evaluate cables or cable sections using image recognition.

Bildverarbeitungsprogramme, die eine klassisch regelbasierte Objekterkennung zum Gegenstand haben, sind oft unflexibel und aufwendig und teilweise nur sehr schwer zuverlässig zu realisieren.Image processing programs that focus on classic rule-based object recognition are often inflexible and complex and sometimes very difficult to implement reliably.

Daher werden zunehmend KI-basierte Modelle zur Überwachung der Fertigung vorgesehen. Beispielsweise ist aus der Offenlegungsschrift EP 3 855 359 A1 eine Kabelbearbeitungsstation bekannt, welche eine bildgebende Sensoreinrichtung aufweist, mittels welcher ein Kabelende detektierbar ist. Mittels eines Bildverarbeitungssystems werden ein erster und ein zweiter kabelspezifischer Bildparameter erkannt. Auf Grundlage des erkannten ersten und zweiten kabelspezifischen Bildparameters wird mittels des Bildverarbeitungssystems ein steuerungsspezifischer Parameter erstellt, welcher an eine Steuerungseinrichtung zum Steuern eines Werkzeugs übertragen wird. Ein derartiges Verfahren soll ein rasches Nachführen des Kabelbearbeitungsprozesses für erkannte Kabeltypen ermöglichen.Therefore, AI-based models are increasingly being used to monitor production. For example, the disclosure document EP 3 855 359 A1 a cable processing station is known which has an imaging sensor device by means of which a cable end can be detected. A first and a second cable-specific image parameter are recognized by means of an image processing system. On the basis of the recognized first and second cable-specific image parameters, a control-specific parameter is created by means of the image processing system, which is transmitted to a control device for controlling a tool. Such a method is intended to enable rapid tracking of the cable processing process for recognized cable types.

Es hat sich gezeigt, dass auch derartige Verfahren einer weiteren Verbesserung bedürfen, da die Zuverlässigkeit und Genauigkeit für die Problemstellungen der Fertigung häufig nicht ausreichend hoch sind.It has been shown that such processes also require further improvement, since the reliability and accuracy are often not sufficiently high for the problems faced in manufacturing.

Beschreibung der ErfindungDescription of the invention

Es ist Aufgabe der Erfindung, eine Lösung bereitzustellen, mit dem eine robuste Möglichkeit geschaffen wird, eine Endkonfiguration eines Kabelteilstücks zuverlässig und schnell zu ermitteln und damit den Prozess der Kabelverarbeitung weiter zu verbessern.It is an object of the invention to provide a solution that creates a robust possibility to reliably and quickly determine a final configuration of a cable section and thus further improve the cable processing process.

Die Aufgabe wird durch die Gegenstände der unabhängigen Ansprüche gelöst. Vorteilhafte Weiterbildungen der Erfindung sind in den abhängigen Ansprüchen, der Beschreibung und den begleitenden Figuren angegeben. Insbesondere können die unabhängigen Ansprüche einer Anspruchskategorie auch analog zu den abhängigen Ansprüchen einer anderen Anspruchskategorie weitergebildet sein. Weitere Ausführungsformen und Weiterbildungen ergeben sich aus den Unteransprüchen sowie aus der Beschreibung unter Bezugnahme auf die Figuren.The object is achieved by the subject matter of the independent claims. Advantageous developments of the invention are specified in the dependent claims, the description and the accompanying figures. In particular, the independent claims of a claim category can also be developed analogously to the dependent claims of another claim category. Further embodiments and developments emerge from the subclaims and from the description with reference to the figures.

Die vorliegende Erfindung betrifft insbesondere ein Verfahren zum Betreiben einer Kabelverarbeitungsvorrichtung, umfassend das Verarbeiten wenigstens eines Kabelteilstücks, insbesondere eines Kabelendes, mittels einer Kabelverarbeitungseinheit von einer Anfangskonfiguration zu einer Endkonfiguration. Dabei wird wenigstens ein Bild der wenigstens einen Endkonfiguration mittels einer Bildaufnahmeeinrichtung erfasst. Es wird ein trainiertes neuronales Netz auf das wenigstens eine erfasste Bild angewendet, wobei das trainierte neuronale Netz dazu ausgebildet ist, in einem ersten Schritt wenigstens einen interessierenden Bereich der wenigstens einen Endkonfiguration aus dem wenigstens einen erfassten Bild zu ermitteln und in einem zweiten Schritt eine Klassifikation des wenigstens einen ermittelten interessierenden Bereichs hinsichtlich des Vorliegens wenigstens eines angelernten Fehlerbilds der wenigstens einen Endkonfiguration zu ermitteln und ein der Klassifikation zugeordnetes Ergebnis zu ermitteln. Es wird dann ein Steuersignal erzeugt, abhängig vom wenigstens einen ermittelten interessierenden Bereich und/oder abhängig von dem ermittelten Ergebnis der Klassifikation der wenigstens einen Endkonfiguration, und ausgegeben.The present invention relates in particular to a method for operating a cable processing device, comprising processing at least one cable section, in particular a cable end, by means of a cable processing unit from an initial configuration to a final configuration. In this case, at least one image of the at least one final configuration is captured by means of an image recording device. A trained neural network is applied to the at least one captured image, wherein the trained neural network is designed to determine at least one region of interest of the at least one final configuration from the at least one captured image in a first step and to second step, to determine a classification of the at least one determined region of interest with regard to the presence of at least one learned error pattern of the at least one final configuration and to determine a result associated with the classification. A control signal is then generated, depending on the at least one determined region of interest and/or depending on the determined result of the classification of the at least one final configuration, and output.

Mittels des vorliegenden Verfahrens wird eine robuste und schnelle Lösung bereitgestellt, mittels der angelernte Endkonfigurationen eines Kabelteilstücks erkannt und/oder klassifiziert werden können. Insbesondere kann die Bestimmung des wenigstens einen interessierenden Bereichs und der Klassifikation in Echtzeit erfolgen, d.h. ohne Verzögerung in der Fertigung.The present method provides a robust and fast solution by means of which learned final configurations of a cable section can be recognized and/or classified. In particular, the determination of the at least one region of interest and the classification can take place in real time, i.e. without delay in production.

Es hat sich gezeigt, dass die Verwendung desselben neuronalen Netzes für die Ermittlung des wenigstens einen interessierenden Bereichs und der nachfolgenden Klassifikation des ermittelten interessierenden Bereichs und der zugehörigen Ergebnisermittlung als besonders robust gegenüber variablen Umwelteinflüssen und Varianzen, insbesondere bei der Bilderfassung, herausgestellt hat und damit eine hohe Zuverlässigkeit aufweist.It has been shown that the use of the same neural network for the determination of at least one region of interest and the subsequent classification of the determined region of interest and the associated result determination has proven to be particularly robust against variable environmental influences and variances, especially during image acquisition, and thus has a high level of reliability.

Ferner kann ein derartig trainiertes neuronales Netz mit weniger Schichten aufgebaut werden, was einerseits dazu führt, dass die Ansprechzeiten für eine etwaige Steuerung eines Prozesses der Kabelverarbeitungsvorrichtung geringer sind und damit ein Steuereingriff schneller erfolgen kann. Ferner ist der Aufwand zum Anlernen des Netzes reduziert. Vorteilhafterweise ist das trainierte neuronale Netz als tiefes neuronales Netz, auch als deep Neural Network bezeichnet, insbesondere als faltendes tiefes neuronales Netz, auch als deep Convolutional Neural Network bezeichnet, ausgebildet.Furthermore, a neural network trained in this way can be constructed with fewer layers, which on the one hand means that the response times for any control of a process of the cable processing device are shorter and thus a control intervention can be carried out more quickly. Furthermore, the effort required to train the network is reduced. The trained neural network is advantageously designed as a deep neural network, also referred to as a deep neural network, in particular as a convolutional deep neural network, also referred to as a deep convolutional neural network.

Die vorliegende Erfindung sieht daher vor, ein besonders ausgebildetes künstliches neuronales Netz zu verwenden und die Erkennung von Fehlerbildern mit Hilfe des entsprechend trainierten neuronalen Netzes durchzuführen.The present invention therefore provides for the use of a specially trained artificial neural network and for the detection of error patterns to be carried out with the aid of the correspondingly trained neural network.

Das neuronale Netz wird mittels entsprechender Trainingsdatensätze trainiert und anspruchsgemäß ausgebildet. Im Rahmen eines solchen Trainings können dem trainierbaren neuronalen Netz entsprechende Trainingsdaten präsentiert werden, welche vorab bereits in positive Trainingsbeispiele, z.B. Endkonfigurationen aufweisend wenigstens einen fehlerfreien interessierenden Bereich, und negative Trainingsbeispiele, z.B. Endkonfigurationen umfassend wenigstens einen fehlerbehafteten interessierenden Bereich, unterteilt wurden. Ferner umfassen die Trainingsdaten auch ein entsprechendes Ergebnis der Klassifikation. Ein solcher Trainingsdatensatz kann z.B. händisch erstellt werden oder aus den Ergebnissen eines herkömmlichen Bilderverarbeitungssystems in Kombination mit entsprechender Fertigungsinformation. Die Bilder sind einfach erhältlich, da routinemäßig die Kabelfertigung überwacht werden kann und die Daten einige Zeit gespeichert werden. Ferner erfolgt auch heute eine v.a. vom Personal erfolgte Überwachung der Kabelfertigung auf Fehler und Fehlerart.The neural network is trained using appropriate training data sets and developed as required. In the context of such training, the trainable neural network can be presented with appropriate training data, which have already been divided into positive training examples, e.g. final configurations having at least one error-free area of interest, and negative training examples, e.g. final configurations comprising at least one error-prone area of interest. The training data also includes also a corresponding result of the classification. Such a training data set can be created manually, for example, or from the results of a conventional image processing system in combination with the corresponding production information. The images are easy to obtain because cable production can be monitored routinely and the data is stored for some time. Furthermore, cable production is still monitored for errors and types of errors, mainly by personnel.

Im Folgenden wird eine mögliche Ausführungsform für die Erstellung eines Trainingsdatensatzes und das Training des neuronalen Netzes beschrieben. Es versteht sich, dass die beschriebene Erstellung und das Training auch unabhängig von einer Kabelverarbeitungsvorrichtung erfolgen können. Die vorliegende Offenbarung offenbart daher explizit eine solche Erstellung und ein entsprechendes Training als separate
Gegenstände.
In the following, a possible embodiment for the creation of a training data set and the training of the neural network is described. It is understood that the described creation and training can also be carried out independently of a cable processing device. The present disclosure therefore explicitly discloses such creation and corresponding training as separate
objects.

Für das Training des neuronalen Netzes wird ein entsprechender Satz an Trainingsbildern erzeugt. Die Bilder zeigen wenigstens einen interessierenden Bereich einer Endkonfiguration und ein zugehöriges Klassifikationsergebnis, bspw. "in Ordnung" oder "nicht in Ordnung". Es erfolgt eine entsprechende Qualifizierung der von Trainingsbilddatensätzen nach gezeigtem interessierendem Bereich und Klassifikationsergebnis, wobei nicht nur das Kriterium fehlerbehaftet vs. fehlerfrei vorgesehen werden kann, sondern es kann bspw. auch das konkrete Fehlerbild für das jeweilige Bild annotiert werden.A corresponding set of training images is generated for training the neural network. The images show at least one area of interest in a final configuration and an associated classification result, e.g. "OK" or "not OK". The training image data sets are qualified accordingly according to the area of interest shown and the classification result, whereby not only the criterion of error-prone vs. error-free can be provided, but the specific error pattern for the respective image can also be annotated.

Die Erfassung entsprechender Bilder und deren Qualifizierung kann im normalen Fertigungsbetrieb der Kabelverarbeitungsvorrichtung erfolgen, so dass eine Vielzahl von Bildern mit unterschiedlicher Größe, Blickrichtung, Drehung, Kontrast, Beleuchtung, Verdeckung, usw. erzeugt werden können und der in der Regel offline ermittelte interessierende Bereich und dessen Klassifikation bzw. das Klassifikationsergebnis ergänzt werden kann. Diese Qualifizierung der Bilder kann per Hand erfolgen oder zumindest teilweise von einem herkömmlichen Bildverarbeitungssystem durchgeführt werden, wobei eine händische Nacharbeit möglich ist. Die vorab qualifizierten Trainingsbilder werden im Anschluss für das Training entsprechend vorverarbeitet.The capture of corresponding images and their qualification can take place during normal production operations of the cable processing device, so that a large number of images with different sizes, viewing directions, rotation, contrast, lighting, occlusion, etc. can be generated and the area of interest, which is usually determined offline, and its classification or the classification result can be supplemented. This qualification of the images can be done manually or at least partially by a conventional image processing system, whereby manual rework is possible. The pre-qualified training images are then pre-processed accordingly for training.

Beispielsweise kann die Größe der Trainingsbilder auf eine vorgegebene Größe angepasst werden. Insbesondere kann die Anzahl der Pixel der Trainingsbilder der Anzahl der Eingänge einer Eingangsschicht des neuronalen Netztes angepasst werden. Auch kann die Vorverarbeitung der Trainingsbilder das Normalisieren der Bilder aufweisen. Beispielsweise können die Bilder als RGB-Bilder vorliegen, wie sie von einer Bildaufnahmeeinrichtung übermittelt werden. D.h. vorzugsweise werden eine Aufbereitung und Vorverarbeitung der Bilder vermieden, so dass das trainierte neuronale Netz mit entsprechenden Rohdaten umgehen kann, was die spätere Geschwindigkeit der Bildauswertung erhöht.For example, the size of the training images can be adjusted to a predetermined size. In particular, the number of pixels of the training images can be adjusted to the number of inputs of an input layer of the neural network. The preprocessing of the training images can also include normalizing the images. For example, the images can be available as RGB images as they are transmitted by an image recording device. This means that preparation and preprocessing of the images are preferably avoided so that the trained neural network can handle corresponding raw data, which increases the subsequent speed of image evaluation.

Um die Ergebnisse des neuronalen Netzes zu verbessern und robuster zu gestalten, können die Trainingsbilder zufälligen Bildmanipulationen unterzogen werden. Solche Bildmanipulationen können z.B. ein Rotieren, ein Vergrößern, ein Verkleinern und/oder ein Verzerren aufweisen. Es versteht sich, dass entsprechende Größenordnungen für die jeweilige Bildmanipulation vorgegeben werden können.In order to improve the results of the neural network and make them more robust, the training images can be subjected to random image manipulations. Such image manipulations can include, for example, rotating, enlarging, reducing and/or distorting. It goes without saying that corresponding orders of magnitude can be specified for the respective image manipulation.

Beispielsweise kann für das Vergrößern oder Verkleinern eine maximale Vergrößerung bzw. Verkleinerung in Prozent angegeben werden, z.B. 110% oder 90%. Für die Rotation kann z.B. ein maximaler oder minimaler Rotationswinkel, z.B. +/- 10°, 20° oder 30°, angegeben werden. Ebenso können für das Verzerren entsprechende Grenzwerte vorgegeben werden. Es versteht sich, dass unterschiedliche Algorithmen für die Bildverzerrung genutzt werden können, welche unterschiedliche Parameter aufweisen können.For example, a maximum enlargement or reduction in percent can be specified for enlarging or reducing, e.g. 110% or 90%. For rotation, a maximum or minimum angle of rotation can be specified, e.g. +/- 10°, 20° or 30°. Corresponding limit values can also be specified for distortion. It goes without saying that different algorithms can be used for image distortion, which can have different parameters.

Die Bildmanipulationen dienen dazu, die Trainingsdaten mit einer größeren Variabilität zu versehen. Die Endkonfiguration bzw. die Mehrzahl an Endkonfigurationen wird folglich an unterschiedlichen Stellen und in unterschiedlicher Größe im Bild vorhanden sein. Damit wird z.B. verhindert, dass das neuronale Netz lernt, das vorgegebene Merkmal nur in einem kleinen Ausschnitt eines Bildes zu identifizieren, und fälschlicherweise den Schluss zieht, das Merkmal sei nicht vorhanden, obwohl es z.B. lediglich außerhalb des Ausschnitts liegt.The image manipulations serve to provide the training data with greater variability. The final configuration or the majority of final configurations will therefore be present in different places and in different sizes in the image. This prevents, for example, the neural network from learning to identify the given feature only in a small section of an image and falsely concluding that the feature is not present, even though it is just outside the section.

Nach der Vorverarbeitung der Trainingsbilder wird das neuronale Netz mit einem Teil der so erhaltenen Trainingsbilder trainiert. Die verbleibenden Trainingsbilder können zur Überprüfung der Lernerfolge genutzt werden, indem sie dem trainierten neuronalen Netz zugeführt werden und dessen Ausgabe mit der für das jeweilige Trainingsbild gekannten bzw. erwarteten Ausgabe verglichen wird. Dieser Teil der Trainingsbilder kann daher auch als Testdaten bezeichnet werden.After preprocessing the training images, the neural network is trained with a portion of the training images obtained in this way. The remaining training images can be used to check the learning success by feeding them to the trained neural network and comparing its output with the known or expected output for the respective training image. This portion of the training images can therefore also be referred to as test data.

Nach Abschluss des Trainings kann die Qualität des Trainings, wie oben bereits erwähnt, mittels einer Qualifikation der Testdaten durch das trainierte neuronale Netz überprüft werden. Erreichen die Ergebnisse die gewünschte Qualität, kann das Training beendet werden. Sollten die Ergebnisse die gewünschte Qualität noch nicht erreicht haben, oder soll das neuronale Netzwerk weitergebildet werden, kann das Training mit entsprechenden Trainingsdaten fortgesetzt oder mit veränderten Parametern erneut durchgeführt werden.After training has been completed, the quality of the training can be checked, as mentioned above, by qualifying the test data using the trained neural network. If the results reach the desired quality, training can be ended. If the results have not yet reached the desired quality, or if the neural network needs to be further developed, training can be continued with the appropriate training data or carried out again with changed parameters.

Die wenigstens eine Endkonfiguration wird mittels wenigstens einem Bild einer Bildaufnahmeeinrichtung erfasst. Vorzugsweise wird das wenigstens eine Bild digital erfasst, bspw. mittels einer CCD-Kamera zur Erzeugung von Bildern in einem für das menschliche Auge sichtbaren Spektralbereich. Die Bildaufnahmeeinrichtung ist dazu derart positioniert und ausgerichtet, dass typischerweise die wenigstens eine Endkonfiguration im Aufnahmebereich der Bildaufnahmeeinrichtung angeordnet ist. Ggf. kann auch eine Mehrzahl an Bildern bzw. auch eine Mehrzahl an Bildaufnahmeeinrichtungen vorgesehen werden, welche die wenigstens eine Endkonfiguration zuverlässig erfassen. Vorteilhafter kann es sein, den Aufnahmebereich zu vergrößern und die Auflösung der Bildaufnahmeeinrichtung entsprechend anzupassen.The at least one final configuration is recorded using at least one image from an image recording device. The at least one image is preferably recorded digitally, for example using a CCD camera to generate images in a spectral range visible to the human eye. The image recording device is positioned and aligned in such a way that the at least one final configuration is typically arranged in the recording area of the image recording device. If necessary, a plurality of images or a plurality of image recording devices can also be provided which reliably record the at least one final configuration. It can be more advantageous to enlarge the recording area and to adapt the resolution of the image recording device accordingly.

Es versteht sich, dass das Training je nach Typ des genutzten neuronalen Netzes unterschiedlich ausgeführt werden kann. Grundsätzlich werden bei jeder Art von Training die Gewichte des neuronalen Netzes bei jedem Trainingsdurchlauf angepasst, so dass der Fehler der Ausgabe des neuronalen Netzes gegenüber dem bekannten Ergebnis aus dem Trainingsdatensatz minimiert wird. Dies wird üblicherweise durch eine sog. Back-Propagation, Fehlerrückführung oder Rückpropagierung erreicht.It goes without saying that training can be carried out differently depending on the type of neural network used. Basically, with any type of training, the weights of the neural network are adjusted with each training run so that the error of the neural network's output is minimized compared to the known result from the training data set. This is usually achieved by so-called back-propagation.

Für das Training kann ferner eine sog. Epochenanzahl und ein Abbruchkriterium angegeben werden. Die Epochenanzahl gibt die Anzahl der Trainingsdurchläufe an. Dabei kann für jeden Trainingsdurchlauf eine vorgegebene Anzahl der Trainingsdaten, z.B. alle Trainingsdaten oder nur eine Auswahl der Trainingsdaten, genutzt werden. Das Abbruchkriterium gibt an, wie weit das Ergebnis des trainierbaren neuronalen Netzes vom idealen Ergebnis abweichen darf, um das Training als erfolgreich abgeschlossen ansehen zu können, und damit das neuronale Netz als ausreichend gut trainiert.A so-called number of epochs and a termination criterion can also be specified for training. The number of epochs indicates the number of training runs. A specified amount of training data, e.g. all training data or just a selection of training data, can be used for each training run. The termination criterion indicates how far the result of the trainable neural network can deviate from the ideal result in order for the training to be considered successfully completed and for the neural network to be considered sufficiently well trained.

Insbesondere kann das neuronale Netzwerk als deep Convolutional Neural Network, nachfolgend auch dCNN abgekürzt, ausgestaltet sein. Insbesondere zur Klassifikation von Objekten in Bilddaten liefern CNNs und dCNNs sehr gute Ergebnisse. Es versteht sich, dass auch andere geeignete neuronale Netze aus dem Bereich des maschinellen Lernens möglich sind.In particular, the neural network can be designed as a deep convolutional neural network, abbreviated to dCNN. CNNs and dCNNs deliver very good results, especially for classifying objects in image data. It goes without saying that other suitable neural networks from the field of machine learning are also possible.

Ein derartiges dCNN kann eine Eingangsschicht sowie eine Vielzahl von versteckten Schichten und eine Ausgangsschicht aufweisen. Die versteckten Schichten können dabei zumindest teilweise identische oder sich wiederholende Schichten aufweisen.Such a dCNN can have an input layer as well as a plurality of hidden layers and an output layer. The hidden layers can have at least partially identical or repeating layers.

Die Eingangsschicht kann einen Eingang für jeden Pixel der aufgenommenen Bilder aufweisen. Es versteht sich, dass die Bilder z.B. als Array oder Vektor mit der entsprechenden Anzahl an Elementen an die Eingangsschicht übermittelt werden können. Ferner kann die Größe der erfassten Bilder für alle Bilder gleich sein kann. Beispielsweise können die Bilder mit 1024*1024 Pixeln aufgenommen werden, welche einen Aufnahmebereich von 25cm mal 25 cm für entsprechende Endkonfigurationen wiedergeben. Es versteht sich, dass diese Angaben lediglich beispielhaft sind und andere Bildparameter verwendet werden können.The input layer can have an input for each pixel of the captured images. It is understood that the images can be stored as an array or vector with the corresponding number of elements can be transmitted to the input layer. Furthermore, the size of the captured images can be the same for all images. For example, the images can be captured with 1024*1024 pixels, which represents a capture area of 25cm by 25cm for corresponding final configurations. It is understood that these details are only examples and other image parameters can be used.

Nachfolgend wird ein schematischer Schichtaufbau des neuronalen Netzes erläutert. Mittels der ersten Schicht des trainierten neuronalen Netzes werden die zu analysierenden Bilddaten der Eingangsschicht des neuronalen Netzes zugeführt.A schematic layer structure of the neural network is explained below. The image data to be analyzed is fed to the input layer of the neural network using the first layer of the trained neural network.

Schicht 1: Input TensorLayer 1: Input Tensor

Die verdeckten Schichten können eine Art Aufbereitung der eingegebenen Daten zur Weiterverarbeitung durch das neuronale Netz vornehmen und diese dann in einer Vielzahl von identischen Blöcken weiterverarbeiten. Diese Schichten können z.B. Schichten zum Auffüllen mit Nullen, sog. Zero Padding Schichten, Schichten für eine Faltung, Schichten für eine Normalisierung, und Schichten zur Aktivierung, insbesondere mittels einer sog. ReLU Funktion, auch rectified linear unit genannt, sein.The hidden layers can carry out a kind of preparation of the input data for further processing by the neural network and then process it further in a large number of identical blocks. These layers can be, for example, layers for filling with zeros, so-called zero padding layers, layers for convolution, layers for normalization, and layers for activation, in particular by means of a so-called ReLU function, also called a rectified linear unit.

Ein beispielhafter Schichtaufbau solcher Schichten zur Aufbereitung der Daten kann wie folgt lauten:

  • Schicht 2: Transpose (Transponierung des input Tensors zur Weiterverarbeitung)
  • Schicht 3: Sub (Subtraktionsoperation für transponierten Tensor)
  • Schicht 4: Faltung (Faltungsoperation)
  • Schicht 5: Aktivierung (Aktivierungsfunktion - ReLU)
  • Schicht 6: MaxPooling (Selektion von Maximalwerten)
An example layer structure of such layers for processing the data can be as follows:
  • Layer 2: Transpose (transposing the input tensor for further processing)
  • Layer 3: Sub (subtraction operation for transposed tensor)
  • Layer 4: Convolution (convolution operation)
  • Layer 5: Activation (Activation Function - ReLU)
  • Layer 6: MaxPooling (selection of maximum values)

Es kann sich ein weiterer beispielhafter Block zur weiteren Analyse der aufbereiteten Daten anschließen:

  • Schicht 7: Faltung (Faltungsoperation)
  • Schicht 8: Aktivierung (Aktivierungsfunktion - ReLU)
  • Schicht 9: Faltung (Faltungsoperation)
  • Schicht 10: Aktivierung (Aktivierungsfunktion - ReLU)
  • Schicht 11: Faltung (Faltungsoperation)
  • Schicht 12: Addition (Additionsoperator)
Another example block for further analysis of the processed data can follow:
  • Layer 7: Convolution (convolution operation)
  • Layer 8: Activation (Activation Function - ReLU)
  • Layer 9: Convolution (convolution operation)
  • Layer 10: Activation (Activation Function - ReLU)
  • Layer 11: Convolution (convolution operation)
  • Layer 12: Addition (addition operator)

Hierbei können Daten aus Schicht 6 auch parallel mit nur einer Faltungsoperation verarbeiten werden, wobei diese dann mit dem Ergebnis der Schicht 11 in Schicht 12 addiert werden. Es versteht sich, dass abweichende Schichtanordnungen möglich sind und obiger Aufbau lediglich beispielhaft gezeigt wird.Data from layer 6 can also be processed in parallel with just one convolution operation, which is then added to the result of layer 11 in layer 12. It goes without saying that different layer arrangements are possible and the above structure is shown only as an example.

An diese Schichten können sich ferner Blöcke anschließen, die jeweils einen identischen Aufbau wie der vorher gezeigte Block aufweisen können.These layers can also be followed by blocks, each of which can have an identical structure to the previously shown block.

Mittels der Ausgabeschicht bzw. Ausgabelayer des neuronalen Netzes können dann entsprechende Informationen zum interessierenden Bereich und der Klassifikation ausgegeben werden, bspw. Anzahl der ermittelten interessierenden Bereiche, Art der ermittelten interessierenden Bereiche (z.B. Crimphülse, Tülle, Innenkontakt, usw.), Fehlerstatus, wie etwa fehlerbehaftet oder fehlerfrei, eine entsprechende Wahrscheinlichkeit für das Vorliegen des ermittelten Fehlerstatus und Identifikation eines bestimmten Fehlerbilds.Using the output layer of the neural network, corresponding information on the area of interest and the classification can then be output, e.g. number of areas of interest determined, type of areas of interest determined (e.g. crimp sleeve, grommet, internal contact, etc.), error status, such as faulty or error-free, a corresponding probability for the existence of the determined error status and identification of a specific error pattern.

Im Ergebnis lässt sich so beispielhaft ein neuronales Netz mit bspw. 274 Schichten bereitstellen, welches durch Training mittels entsprechender Trainingsdaten dazu ausgebildet ist, die Bildauswertung in erfindungsgemäßer Weise durchzuführen.As a result, a neural network with, for example, 274 layers can be provided, which is trained by means of corresponding training data to carry out the image evaluation in the manner according to the invention.

Die Endkonfigurationen können verschieden ausgestaltet sein. Typischerweise ist die Endkonfiguration eines Kabelteilstücks charakterisiert durch den vorhergehenden Verarbeitungsschritt, welcher zwischen der Anfangskonfiguration und der Endkonfiguration erfolgt. Insbesondere kann das Kabelteilstück ein Kabelende sein.The end configurations can be designed in different ways. Typically, the end configuration of a cable section is characterized by the preceding processing step which takes place between the initial configuration and the end configuration. In particular, the cable section can be a cable end.

Jedoch ist es möglich, dass auch das gesamte Kabel als Endkonfiguration angesehen wird, insbesondere, wenn unterschiedliche Teile des Kabels in unterschiedlichen Kabelverarbeitungseinheiten prozessiert werden und verschiedene Kabelteilstücke desselben Kabels mit unterschiedlichen Bildaufnahmeeinrichtungen erfasst werden. Die Endkonfiguration des Kabels wird stets dann geändert, wenn ein Kabelteilstück dieses Kabels weiterverarbeitet wird.However, it is possible that the entire cable is also considered to be the final configuration, in particular if different parts of the cable are processed in different cable processing units and different cable sections of the same cable are captured with different image capture devices. The final configuration of the cable is always changed when a cable section of this cable is further processed.

Die Endkonfiguration kann neben dem Kabelteilstück noch wenigstens ein weiteres Element umfassen, bspw. aus der Gruppe Crimphülse, Kontaktpin, Stecker, Innenleiter, Außenleiter, Schirmgeflecht, Verbindungsrohr, Kabel, Kabelmantel, Isolator, Tülle, Laserkennzeichnung des Kabels als alphanummerische Zeichenkette, Kupplung, Halterung für Tüllen, Kabelhalter, Separator, Gehäuse, Schmutzklappe, Ferrule für optische Leiter, Etikett, Silikon-Isolierschlauch, usw., die in dem Verarbeitungsschritt der Verarbeitungseinheit zusammen mit dem Kabelteilstück verarbeitet werden. Die Endkonfiguration kann auch nur Elemente des Kabels umfassen, z.B. ein abisoliertes Ende mit angrenzendem nicht abisoliertem Teil im Rahmen eines Verarbeitungsschritts der teilweisen Abisolierung. Die Endkonfiguration kann auch nur am Kabel angeordnete Bauelemente erfassen, nicht aber das Kabel selbst, bspw. die Kombination Gehäuse und Gehäuseschmutzklappe.In addition to the cable section, the final configuration can comprise at least one further element, for example from the group of crimp sleeve, contact pin, plug, inner conductor, outer conductor, shielding braid, connecting tube, cable, cable sheath, insulator, grommet, laser marking of the cable as an alphanumeric character string, coupling, holder for grommets, cable holder, separator, housing, dirt flap, ferrule for optical conductors, label, silicone insulating tube, etc., which are processed in the processing step of the processing unit together with the cable section. The final configuration can also comprise only elements of the cable, e.g. a stripped end with an adjacent non-stripped part as part of a partial stripping processing step. The final configuration can also only include components arranged on the cable, but not the cable itself, e.g. the combination of housing and housing dirt flap.

Da wenigstens ein Kabelteilstück, insbesondere ein Kabelende, in der Kabelverarbeitungseinheit verarbeitet wird, und eine Endkonfiguration stets dem verarbeiteten Kabelteilstück zugeordnet ist, können bei der gleichzeigen Verarbeitung einer Mehrzahl an Kabelteilstücken durch die Kabelverarbeitungseinheit auch eine entsprechende Mehrzahl an Endkonfigurationen vorliegen. In diesem Sinne folgt aus dem Vorliegen wenigstens eines Kabelteilstücks, das Vorliegen wenigstens einer Endkonfiguration.Since at least one cable section, in particular one cable end, is processed in the cable processing unit and a final configuration is always associated with the processed cable section, a corresponding plurality of final configurations can also be present when a plurality of cable sections are processed simultaneously by the cable processing unit. In this sense, the presence of at least one cable section means that at least one final configuration is present.

In der Regel sind die Mehrzahl der Endkonfiguration der Kabelteilstücke, welche gleichzeitig durch dieselbe Kabelverarbeitungseinheit verarbeitet werden, gleichartig; z.B. alle Kabelteilstücke, z.B. Kabelenden, werden jeweils mit einer Crimphülse bestückt und gecrimpt. D.h. die Endkonfiguration, hier die auf das Kabelteilstück gecrimpte Crimphülse, unterscheidet sich für die Mehrzahl an Kabelteilstücken i.d.R. nur dadurch, ob für die jeweilige Endkonfiguration des jeweiligen Kabelteilstücks ein Fehlerbild vorliegt oder nicht, z.B. fehlerhaft gecrimpt wurde oder nicht.As a rule, the majority of the final configurations of the cable sections that are processed simultaneously by the same cable processing unit are similar; e.g. all cable sections, e.g. cable ends, are each fitted with a crimp sleeve and crimped. This means that the final configuration, here the crimp sleeve crimped onto the cable section, differs for the majority of cable sections generally only in terms of whether or not there is an error pattern for the respective final configuration of the respective cable section, e.g. whether it was crimped incorrectly or not.

Als interessierender Bereich der Endkonfiguration des wenigstens einen Kabelteilstücks wird mittels des trainierten neuronalen Netzes derjenige Bildbereich ermittelt, welcher gemäß der Trainingsdaten als interessierender Bereich angelernt wurde, sofern dieser im erfassten Bild vorhanden ist. Als interessierender Bereich der Endkonfiguration können insbesondere gewählt sein aus der Gruppe: Crimphülse, Kontaktpin, Stecker, Innenleiter, Außenleiter, Schirmgeflecht, Verbindungsrohr, Kabel, Kabelmantel, Isolator, Tülle, Laserkennzeichnung des Kabels als alphanummerische Zeichenkette, Kupplung, Halterung für Tüllen, Kabelhalter, Separator, Gehäuse, Schmutzklappe, Ferrule für optische Leiter, Etikett, Silikon-Isolierschlauch, usw. Ist eine Mehrzahl an Endkonfigurationen vorhanden, da eine Mehrzahl an Kabelteilstücken mittels der Kabelverarbeitungseinheit verarbeitet werden, wird dementsprechend eine Mehrzahl an interessierenden Bereichen bestimmt, wobei für jede Endkonfiguration nur ein interessierender Bereich oder eine Mehrzahl an interessierenden Bereichen ermittelt werden kann.The region of interest in the final configuration of at least one cable section is determined by means of the trained neural network as the region of interest which was learned as the region of interest according to the training data, provided that this region is present in the captured image. The region of interest in the final configuration can in particular be selected from the group: crimp sleeve, contact pin, plug, inner conductor, outer conductor, shielding braid, connecting pipe, cable, cable sheath, insulator, grommet, laser marking of the cable as an alphanumeric character string, coupling, holder for grommets, cable holder, separator, housing, dirt flap, ferrule for optical conductors, label, silicone insulating hose, etc. If a plurality of final configurations are present because a plurality of cable sections are processed by means of the cable processing unit, a plurality of regions of interest are determined accordingly, whereby only one region of interest or a plurality of regions of interest can be determined for each final configuration.

Häufig genügt es, nur einen interessierenden Bereich pro Endkonfiguration zu ermitteln und diesen mittels des trainierten neuronalen Netzes zu klassifizieren. In diesem Fall erfolgt eine isolierte Klassifikation des ermittelten interessierenden Bereichs. Es können jedoch auch mehrere interessierende Bereiche für eine jeweilige Endkonfiguration bestimmt werden. Dies ist insbesondere von Interesse für unterschiedliche Bauelemente, was das Kabelteilstück einschließen kann, und umfassende Endkonfigurationen.It is often sufficient to identify only one area of interest per final configuration and to classify it using the trained neural network. In this case, an isolated classification of the identified area of interest is carried out. However, several regions of interest for a particular final configuration. This is particularly of interest for different components, which may include the cable section, and comprehensive final configurations.

Als Ergebnis der Klassifikation kann bspw. in einem ersten Schritt ermittelt werden, ob eine Endkonfiguration fehlerbehaftet ist oder fehlerfrei, bspw. kann als Ergebnis ausgegeben werden "in Ordnung" oder "i.O." für eine Endkonfiguration, welche als fehlerfrei ermittelt wurde bzw. "nicht in Ordnung" oder "nicht i.O." für eine Endkonfiguration, welche als fehlerbehaftet ermittelt wurde. Insbesondere kann das Ergebnis mittels Farbcodes kommuniziert werden, bspw. grüne Kennzeichnung eines interessierenden Bereichs als fehlerfrei und rote Kennzeichnung eines interessierenden Bereichs als fehlerbehaftet. In einem zweiten Schritt, bspw. auf Anforderung eines Benutzers oder einer Steuereinrichtung, kann für fehlerbehaftete Endkonfigurationen das konkrete Fehlerbild aus einer Vielzahl der möglichen Fehlerbilder identifiziert werden. Es kann auch stets die vollständige Information des Ausgangsvektors des neuronalen Netzes standardmäßig, insbesondere für eine Steuereinrichtung, verfügbar gemacht werden.As a result of the classification, it can be determined in a first step, for example, whether a final configuration is faulty or error-free. For example, the result can be "OK" or "OK" for a final configuration that was determined to be error-free or "not OK" or "not OK" for a final configuration that was determined to be faulty. In particular, the result can be communicated using color codes, e.g. green marking of an area of interest as error-free and red marking of an area of interest as faulty. In a second step, e.g. at the request of a user or a control device, the specific error pattern can be identified from a large number of possible error patterns for faulty final configurations. The complete information of the output vector of the neural network can also always be made available as standard, especially for a control device.

In einer weiteren Ausführungsform des Verfahrens wird mittels der Bilderfassungseinrichtung ein Bild erfasst, welches zwei bis 100 Endkonfigurationen zeigt, wobei das trainierte neuronale Netz dazu ausgebildet ist, jeweils wenigstens einen interessierenden Bereich für die zwei bis 100 Endkonfigurationen, insbesondere für jede der zwei bis 100 Endkonfigurationen, zu ermitteln und wenigstens ein der Klassifikation der interessierenden Bereiche zugeordnetes Ergebnis zu ermitteln, und das trainierte neuronale Netz auf das erfasste Bild angewendet wird, wobei ein Steuersignal für die zwei bis 100 erfassten Endkonfigurationen, insbesondere für jede der zwei bis 100 erfassten Endkonfigurationen, auf Grundlage des ermittelten wenigstens einen interessierenden Bereichs und/oder des der Klassifikation zugeordneten Ergebnisses für die jeweilige Endkonfiguration erzeugt und ausgegeben wird.In a further embodiment of the method, an image is captured by means of the image capture device which shows two to 100 final configurations, wherein the trained neural network is designed to determine at least one region of interest for the two to 100 final configurations, in particular for each of the two to 100 final configurations, and to determine at least one result associated with the classification of the regions of interest, and the trained neural network is applied to the captured image, wherein a control signal for the two to 100 captured final configurations, in particular for each of the two to 100 captured final configurations, is generated and output on the basis of the determined at least one region of interest and/or the result associated with the classification for the respective final configuration.

Mittels einer derartigen Ausgestaltung wird es ermöglicht, den Durchsatz einer Kabelverarbeitungseinheit durch parallelisierte Verarbeitung signifikant zu erhöhen, ohne dabei die Gefahr einzugehen, dass eine effiziente und zuverlässige Fehlerbildkontrolle durch einen menschlichen Überwacher nicht mehr möglich ist. Vielmehr wird durch die Verwendung eines entsprechend ausgestalteten neuronalen Netzes eine zuverlässige Fehlerbildkontrolle in Echtzeit für eine Vielzahl parallel verarbeiteter Kabelteilstücke bzw. Endkonfigurationen erst ermöglicht und damit der Fertigungsprozess deutlich verbessert. Indem ein entsprechendes Steuersignal erzeugt und ausgegeben wird, kann abhängig vom Klassifikationsergebnis das entsprechende Kabel bzw. Kabelteilstück weiterverarbeitet werden, bspw. gezielt aus der weiteren parallelisierten Verarbeitung ausgesondert werden.Such a design makes it possible to significantly increase the throughput of a cable processing unit through parallel processing, without running the risk that efficient and reliable error pattern control by a human supervisor is no longer possible. Rather, the use of an appropriately designed neural network enables reliable error pattern control in real time for a large number of cable sections or end configurations processed in parallel, thus significantly improving the production process. By generating and outputting a corresponding control signal, the corresponding cable or cable section can be further processed depending on the classification result, for example it can be specifically excluded from further parallel processing.

Vorzugsweise zeigt das erfasste Bild wenigstens 10 bis 100, insbesondere 20 bis 100, insbesondere 30 bis 100, insbesondere 40 bis 100 Endkonfigurationen. Für jede gezeigte Endkonfiguration wird wenigstens ein interessierender Bereich mittels des hierfür trainierten neuronalen Netzes bestimmt.Preferably, the captured image shows at least 10 to 100, in particular 20 to 100, in particular 30 to 100, in particular 40 to 100 final configurations. For each final configuration shown, at least one region of interest is determined by means of the neural network trained for this purpose.

In einer weiteren Fortbildung der vorgenannten Ausführungsform ist das trainierte neuronale Netz dazu ausgebildet, für eine Maximalanzahl von Endkonfigurationen jeweils mindestens einen interessierenden Bereich mit einem zugehörigen Wahrscheinlichkeitswert zu ermitteln, wobei das neuronale Netz ferner dazu ausgebildet ist, für eine Differenz der Anzahl der erfassten Endkonfigurationen und der Maximalanzahl einen Wahrscheinlichkeitswert unterhalb eines vorgegebenen Schwellwerts zu ermitteln, wobei das neuronale Netz ferner dazu ausgebildet ist, dass interessierende Bereiche mit einem Wahrscheinlichkeitswert unterhalb des vorgegebenen Schwellwerts nicht klassifiziert werden. Damit kann das neuronale Netz flexibel für eine variable Anzahl an parallel verarbeiteten Kabeln eingesetzt werden. Ferner wird keine Klassifikation für interessierende Bereiche vorgenommen, deren Wahrscheinlichkeitswert einen Schwellwert nicht überschreitet, da nicht im erfassten Bild vorhanden, was die Geschwindigkeit des neuronalen Netzes erhöht und Rechenressourcen schont.In a further development of the aforementioned embodiment, the trained neural network is designed to determine at least one region of interest with an associated probability value for a maximum number of final configurations, wherein the neural network is further designed to determine a probability value below a predetermined threshold value for a difference between the number of final configurations recorded and the maximum number, wherein the neural network is further designed so that regions of interest with a probability value below the predetermined threshold value are not classified. The neural network can therefore be used flexibly for a variable number of cables processed in parallel. Furthermore, no classification is carried out for regions of interest whose probability value does not exceed a threshold value because they are not present in the recorded image, which increases the speed of the neural network and saves computing resources.

In einer weiteren Ausführungsform des Verfahrens ist das trainierte neuronale Netz dazu ausgebildet, für wenigstens eine Endkonfiguration wenigstens einen ersten interessierenden Bereich und für die gleiche Endkonfiguration wenigstens einen zweiten, vom ersten interessierenden Bereich räumlich abweichenden interessierenden Bereich aus dem wenigstens einen erfassten Bild zu ermitteln und das trainierte neuronale Netz ferner dazu ausgebildet, für die Klassifikation zusätzlich einen Relativparameter des wenigstens ersten interessierenden Bereichs und des zweiten interessierenden Bereichs zu berücksichtigen und ein der Klassifikation zugeordnetes Ergebnis zu ermitteln und wobei das trainierte neuronale Netz auf das wenigstens eine Bild angewendet wird, wobei ein Steuersignal für die wenigstens eine Endkonfiguration anhand des Ergebnisses der die Relativlage berücksichtigenden Klassifikation erzeugt und ausgegeben wird.In a further embodiment of the method, the trained neural network is designed to determine at least one first region of interest for at least one final configuration and at least one second region of interest that is spatially different from the first region of interest for the same final configuration from the at least one captured image, and the trained neural network is further designed to additionally take into account a relative parameter of the at least first region of interest and the second region of interest for the classification and to determine a result associated with the classification, and wherein the trained neural network is applied to the at least one image, wherein a control signal for the at least one final configuration is generated and output based on the result of the classification taking the relative position into account.

Es kann somit für eine Endkonfiguration eine Mehrzahl an verschiedenen interessierenden Bereichen, insbesondere zwei, drei oder vier interessierende Bereiche, ermittelt werden. Ferner kann eine Mehrzahl an verschiedenen interessierenden Bereichen für eine Mehrzahl an Endkonfigurationen, insbesondere 2 bis 100, ermittelt werden. Darüber hinaus erlaubt es eine relationale Beziehung zwischen unterschiedlichen Kabelteilstücken desselben Kabels, hier die Endkonfiguration, neben den Endkonfigurationen der Kabelteilstücke, über unterschiedliche Kabelverarbeitungseinheiten hinweg zu berücksichtigen.Thus, a plurality of different regions of interest, in particular two, three or four regions of interest, can be determined for a final configuration. Furthermore, a plurality of different regions of interest can be determined for a plurality of final configurations, in particular 2 to 100. In addition, it allows a relational Relationship between different cable sections of the same cable, here taking into account the final configuration, in addition to the final configurations of the cable sections, across different cable processing units.

Bei dieser Ausführungsvariante erfolgt die Klassifikation nicht mehr nur isoliert für den ermittelten interessierenden Bereich, sondern für die Klassifikation der Endkonfiguration wird auch ein Relativparameter der wenigstens zwei ermittelten interessierenden Bereiche der gleichen Endkonfiguration berücksichtigt. Als Relativparameter kann bspw. die Relativlage vorgesehen sein. Relativlage ist in diesem Zusammenhang breit zu verstehen, so kann bspw. eine relative Orientierung, eine Relativverschiebung oder Relativdrehung oder auch ein Abstand des wenigstens ersten und wenigstens zweiten interessierenden Bereichs umfasst sein.In this embodiment, the classification is no longer carried out in isolation for the determined region of interest, but a relative parameter of the at least two determined regions of interest of the same final configuration is also taken into account for the classification of the final configuration. The relative parameter can be, for example, the relative position. Relative position is to be understood broadly in this context, and can include, for example, a relative orientation, a relative displacement or relative rotation or even a distance between the at least first and at least second regions of interest.

Mittels der Einbeziehung der Relativlage des wenigstens ersten und des wenigstens zweiten interessierenden Bereichs in die Klassifikation kann Aufschluss darüber gewonnen werden, ob verschiedene von einer Endkonfiguration erfasste Bauelemente fehlerfrei zueinander angeordnet sind. Bspw. kann als erster interessierender Bereich eine Crimphülse erkannt werden, und als zweiter interessierender Bereich ein abgemanteltes Kabelende, wobei dann der Abstand zwischen dem ersten interessierenden Bereich und dem zweiten Bereich bewertet wird. Daraus lässt sich ermitteln, ob die Crimphülse fehlerfrei auf dem abgemantelten Kabelende positioniert ist, insbesondere ob die Crimphülse das abgemantelte Kabelende zu weit überdeckt oder aber zu weit vom abgemantelten Bereich entfernt angeordnet ist. Ferner kann auch die Längsrichtung der Crimphülse und die Längsrichtung des abgemantelten Kabelendes berücksichtigt werden, um einen Schiefstand der Crimphülse relativ zum Kabelende zu ermitteln.By including the relative position of the at least first and at least second region of interest in the classification, information can be obtained as to whether different components covered by a final configuration are arranged correctly relative to one another. For example, a crimp sleeve can be identified as the first region of interest and a stripped cable end as the second region of interest, with the distance between the first region of interest and the second region then being assessed. From this, it can be determined whether the crimp sleeve is positioned correctly on the stripped cable end, in particular whether the crimp sleeve covers the stripped cable end too far or is arranged too far away from the stripped region. Furthermore, the longitudinal direction of the crimp sleeve and the longitudinal direction of the stripped cable end can also be taken into account in order to determine whether the crimp sleeve is at an angle relative to the cable end.

Ferner kann als Relativparameter eine funktionelle Zugehörigkeit des ersten und des zweiten interessierenden Bereichs zu einer bestimmten Bauelementklasse berücksichtigt werden. So kann bspw. ermittelt werden, ob an einem Ende eines annähernd fertig bearbeiteten Kabels eine Tülle, der erste interessierende Bereich, angeordnet ist und an dem anderen noch in der Verarbeitung befindlichen Ende, der zweite interessierende Bereich, eine Crimphülse passend vorgesehen ist.Furthermore, a functional affiliation of the first and second areas of interest to a specific component class can be taken into account as a relative parameter. For example, it can be determined whether a grommet, the first area of interest, is arranged at one end of an almost completely processed cable and whether a crimp sleeve is provided at the other end, the second area of interest, which is still being processed.

Das neuronale Netz ist in diesem Fall so mittels Training ausgebildet, dass ein ermittelter interessierender Bereich mit einem bestimmten Bauelement assoziiert ist, dass z.B. ein erster interessierender Bereich eine Tülle ist, und ein zweiter interessierender Bereich eine Crimphülse, wobei dann als Relativparameter für die Klassifikation ein Vergleich der Anzahl an Tüllen und Crimphülsen für das selbe Kabel berücksichtigt wird. Ferner kann das neuronale Netz dazu ausgebildet sein, zu bestimmen, ob zu jedem ermittelten interessierenden Bereich in Form einer Crimphülse genau ein interessierender Bereich in Form einer Tülle entlang des Kabels vorliegt. Es versteht sich, dass dies lediglich beispielhaft ist und die Klassifikation, welche einen Relativparameter berücksichtigt, auch für andere Bauelemente vorgesehen werden kann.In this case, the neural network is trained in such a way that a determined region of interest is associated with a specific component, e.g. that a first region of interest is a grommet and a second region of interest is a crimp sleeve, whereby a comparison of the number of grommets and crimp sleeves for the same cable is then taken into account as a relative parameter for the classification. Furthermore, the neural network can be designed to determine whether for each determined region of interest in the form of a Crimp sleeve has exactly one area of interest in the form of a grommet along the cable. It is understood that this is only an example and the classification, which takes a relative parameter into account, can also be provided for other components.

Diese Ausführungsform erlaubt es, komplexe mittels verschiedener Bauelemente zusammengesetzte Endkonfigurationen in Echtzeit zu klassifizieren und damit den Fertigungsprozess zuverlässig zu handhaben. Insbesondere kann diese Form der Klassifikation für ein 2 bis 100 Endkonfigurationen umfassendes Bild angewendet werden, so dass komplexe Verarbeitungsprozesse bei hohem Durchsatz auf Fehler überwacht werden können.This embodiment allows complex final configurations assembled using different components to be classified in real time and thus the manufacturing process to be handled reliably. In particular, this form of classification can be applied to an image comprising 2 to 100 final configurations, so that complex processing processes can be monitored for errors at high throughput.

In einer weiteren Ausgestaltung erfolgt die Erfassung des Bildes der wenigstens einen Endkonfiguration mittels einer digitalen Bildaufnahmeeinrichtung derart, dass wenigstens ein interessierender Bereich durch mindestens 20 Pixel, vorzugsweise mehr als 50 Pixel, wiedergegeben wird. Es hat sich gezeigt, dass das trainierte neuronale Netz besonders zuverlässige Resultate liefert, wenn ein interessierender Bereich mindestens von 20 Pixeln, vorzugsweise von mehr als 50 Pixeln im erfassten Bild repräsentiert wird. Dies kann bspw. erreicht werden, wenn die Bildaufnahmeeinrichtung eine Auflösung von 1 Megapixel oder mehr aufweist und der Aufnahmebereich, in welchem die Vielzahl an Endkonfigurationen angeordnet ist, 25cm mal 25cm beträgt.In a further embodiment, the image of the at least one final configuration is captured using a digital image recording device such that at least one region of interest is represented by at least 20 pixels, preferably more than 50 pixels. It has been shown that the trained neural network delivers particularly reliable results if a region of interest is represented by at least 20 pixels, preferably more than 50 pixels in the captured image. This can be achieved, for example, if the image recording device has a resolution of 1 megapixel or more and the recording area in which the plurality of final configurations is arranged is 25cm by 25cm.

In einer weiteren Ausführungsform ist das trainierte neuronale Netz dazu ausgebildet, die vollständige bildliche Erfassung einer Endkonfiguration zu ermitteln, wobei das trainierte neuronale Netz auf das erfasste Bild angewendet wird, wobei im Falle der ermittelten unvollständigen Erfassung wenigstens einer Endkonfiguration ein Steuersignal erzeugt und ausgegeben wird, welches die Mitteilung eines Bilderfassungsfehlers veranlasst. Hierbei handelt es sich in der Regel nicht um einen Fehler im Fertigungsprozess, sondern um einen Fehler im Bilderfassungsprozess. Dies bedeutet nicht, dass verarbeitete Kabelteilstücke, die nicht richtig erfasst wurden, fehlerbehaftet sind. Es bedeutet lediglich, dass ein interessierender Bereich und/oder eine Klassifikation aufgrund der unvollständigen Erfassung einer bestimmten Endkonfiguration, für diese Endkonfiguration nicht mit dem erfassten Bild erfolgen kann. Es bedarf im Fehlerfall somit einer Überprüfung, ob die Bilderfassungseinrichtung neu zu justieren ist oder aus anderen Gründen eine Endkonfiguration nicht vollständig erfasst wurde, z.B. defekte Führung von Kabeln. Vorzugsweise handelt es sich bei dem trainierten neuronalen Netz zur Ermittlung der Vollständigkeit einer Endkonfiguration um dasselbe neuronale Netz, welches auch dazu ausgebildet ist, den wenigstens einen interessierenden Bereich und die Klassifikation des wenigstens einen interessierenden Bereichs durchzuführen.In a further embodiment, the trained neural network is designed to determine the complete image capture of a final configuration, wherein the trained neural network is applied to the captured image, wherein in the case of the determined incomplete capture of at least one final configuration, a control signal is generated and output which causes an image capture error to be reported. This is generally not an error in the manufacturing process, but an error in the image capture process. This does not mean that processed cable sections that were not captured correctly are faulty. It simply means that an area of interest and/or a classification cannot be carried out for this final configuration using the captured image due to the incomplete capture of a certain final configuration. In the event of an error, a check must therefore be made as to whether the image capture device needs to be readjusted or whether a final configuration was not fully captured for other reasons, e.g. defective cable routing. Preferably, the trained neural network for determining the completeness of a final configuration is the same neural network which is also designed to perform the at least one region of interest and the classification of the at least one region of interest.

In einer weiteren Ausführungsform wird mittels des Steuersignals eine grafische Anzeige des wenigstens einen ermittelten interessierenden Bereichs in einem die wenigstens eine Endkonfiguration zeigenden Bild, insbesondere dem Bild auf welches das trainierte neuronale Netz angewendet wurde, insbesondere als farbliche Umrandung des wenigstens einen ermittelten interessierenden Bereichs, auf einer Bildausgabeeinrichtung veranlasst. Durch Ausgabe einer grafischen Anzeige auf einer Bildausgabeeinrichtung wird für das Personal ersichtlich, ob und welcher Bereich bzw. welche Bereiche im erfassten Bild als interessierender Bereich bzw. interessierende Bereiche ermittelt wurde. Damit kann eine Prüfung auf Plausibilität erfolgen. Vorzugsweise kann ein farblicher Rahmen bzw. eine farbliche Umrandung verwendet werden, um einen ermittelten interessierenden Bereich bzw. ermittelte interessierende Bereich auf dem die Endkonfiguration zeigenden Bild schnell für das Personal erfassbar zu machen.In a further embodiment, the control signal causes a graphic display of the at least one determined region of interest in an image showing the at least one final configuration, in particular the image to which the trained neural network was applied, in particular as a colored border of the at least one determined region of interest, on an image output device. By outputting a graphic display on an image output device, it becomes clear to the staff whether and which region or regions in the captured image were determined as the region or regions of interest. This allows a plausibility check to be carried out. Preferably, a colored frame or a colored border can be used to make a determined region of interest or determined regions of interest quickly identifiable for the staff on the image showing the final configuration.

Vorteilhaft kann der Rahmen mittels der Rahmenfarbe die Art des ermittelten interessierenden Bereichs, bspw. ein bestimmtes Kabelteilstück oder ein bestimmtes Bauelement, identifizieren.Advantageously, the frame can identify the type of area of interest determined, e.g. a specific cable section or a specific component, by means of the frame color.

Gemäß einer weiteren Ausführungsform wird mittels des Steuersignals eine grafische Anzeige des Ergebnisses der Klassifikation für die wenigstens eine Endkonfiguration in einem die wenigstens eine Endkonfiguration zeigenden Bild, insbesondere dem der Klassifikation zugrunde gelegten Bild, auf einer Bildausgabeeinrichtung veranlasst. Die grafische Anzeige des Ergebnisses der Klassifikation kann insbesondere als farbliche Indizierung und/oder als Textbaustein wiedergegeben werden, z.B. "in Ordnung" oder "i.O." bzw. "nicht in Ordnung" oder "nicht i.O.".According to a further embodiment, the control signal is used to cause a graphic display of the result of the classification for the at least one final configuration in an image showing the at least one final configuration, in particular the image on which the classification is based, on an image output device. The graphic display of the result of the classification can in particular be reproduced as a color index and/or as a text block, e.g. "OK" or "OK" or "not OK" or "not OK".

Insbesondere kann es vorteilhaft sein, wenn der Rahmen mittels der Farbe indiziert, für welchen wenigstens einen ermittelten interessierenden Bereich ein Klassifikationsergebnis vorliegt, welches einem Fehlerbild entspricht und für welchen wenigstens einen ermittelten interessierenden Bereich ein Klassifikationsergebnis vorliegt, welches einem fehlerfreien Zustand entspricht.In particular, it can be advantageous if the frame indicates by means of the color for which at least one determined region of interest there is a classification result that corresponds to an error image and for which at least one determined region of interest there is a classification result that corresponds to an error-free state.

Auch diese grafische Ausgabe erlaubt dem Personal eine schnelle und einfache optische Erfassung, welche Endkonfiguration bzw. welche interessierenden Bereiche als fehlerbehaftet oder als fehlerfrei klassifiziert wurden.This graphical output also allows the staff to quickly and easily visually determine which final configuration or which areas of interest were classified as faulty or fault-free.

In einer weiteren Ausführungsform wird mittels der grafischen Anzeige ein dem Ergebnis der Klassifikation zugeordnetes Fehlerbild in Form einer Fehlerbildbezeichnung wiedergegeben. Hierdurch wird für das Personal nicht nur erfassbar, ob eine Endkonfiguration fehlerbehaftet ist oder fehlerfrei im Sinne von "in Ordnung" oder "nicht in Ordnung", sondern das Personal wird auch über die Art der Fehlerbilds informiert.In a further embodiment, the graphic display shows an error pattern associated with the result of the classification in the form of an error pattern name. This not only enables the staff to determine whether a final configuration is faulty or error-free in the sense of "OK" or "not OK", but the staff is also informed about the type of error pattern.

In einer weiteren Ausführungsform der Erfindung wird mittels des Steuersignals der Betrieb der Kabelverarbeitungseinheit derart beeinflusst, dass die Endkonfiguration eines zeitlich nachfolgend zu verarbeitenden Kabelteilstücks mittels derselben Kabelverarbeitungseinheit einer gewünschten, insbesondere fehlerfreien, Endkonfiguration angenähert wird. In diesem Fall wird das Ergebnis der Klassifikation für einen Steuereingriff der Kabelverarbeitungseinheit verwendet, um ein entsprechendes Fehlerbild für nachfolgend hergestellte Endkonfigurationen mittels der Kabelverarbeitungseinheit möglichst zu vermeiden.In a further embodiment of the invention, the operation of the cable processing unit is influenced by means of the control signal in such a way that the final configuration of a cable section to be processed subsequently is brought closer to a desired, in particular error-free, final configuration by means of the same cable processing unit. In this case, the result of the classification is used for a control intervention of the cable processing unit in order to avoid, as far as possible, a corresponding error pattern for final configurations subsequently produced by means of the cable processing unit.

In diesem Zusammenhang kann der ermittelte interessierende Bereich und das Ergebnis der Klassifikation als Eingangsdaten für ein trainiertes neuronales Netz zur Steuerung der Kabelverarbeitungseinheit verwendet werden. Dieses trainierte neuronale Steuerungsnetz ist vorzugsweise dazu ausgebildet, auf Grundlage wenigstens eines ermittelten interessierenden Bereichs und einem zugehörigen Klassifikationsergebnis ein Steuersignal zur Beeinflussung wenigstens einer Stellgröße der Kabelverarbeitungseinheit zu erzeugen und auszugeben, welches für ein nächstes zu verarbeitendes Kabelteilstück die Wahrscheinlichkeit für das Vorliegen einer fehlerhaften Endkonfiguration nach dessen Verarbeitung verringert.In this context, the determined region of interest and the result of the classification can be used as input data for a trained neural network for controlling the cable processing unit. This trained neural control network is preferably designed to generate and output a control signal for influencing at least one control variable of the cable processing unit based on at least one determined region of interest and an associated classification result, which reduces the probability of the presence of an incorrect final configuration after processing for a next cable section to be processed.

In einer weiteren Ausführungsform wird mittels des Steuersignals eine Kabelfolgeverarbeitung einer der Kabelverarbeitungseinheit prozesstechnisch nachgelagerten Kabelfolgeverarbeitungseinheit wenigstens einer klassifizierten Endkonfiguration abhängig von dem Ergebnis der Klassifikation dieser Endkonfiguration beeinflusst. Dies erlaubt eine korrigierende Verarbeitung von fehlerbehafteten Endkonfigurationen durch nachfolgende Prozesse, soweit möglich, um Fertigungsausschuss zu vermeiden.In a further embodiment, the control signal is used to influence a cable sequence processing of a cable sequence processing unit downstream of the cable processing unit of at least one classified final configuration depending on the result of the classification of this final configuration. This allows corrective processing of faulty final configurations by subsequent processes, as far as possible, in order to avoid production waste.

In diesem Zusammenhang kann der ermittelte interessierende Bereich und das Ergebnis der Klassifikation als Eingangsdaten für ein trainiertes neuronales Netz zur Steuerung eines Folgeprozesses verwendet werden, d.h. eines Verarbeitungsprozesses, welcher dem Verarbeitungsschritt in dessen Zusammenhang die Endkonfiguration als fehlerhaft bestimmt wurde, nachfolgt. Dieses trainierte neuronale Steuerungsnetz ist vorzugsweise dazu ausgebildet, auf Grundlage wenigstens eines ermittelten interessierenden Bereichs und einem zugehörigen Klassifikationsergebnis ein Steuersignal zur Beeinflussung wenigstens einer Stellgröße einer Kabelfolgeverarbeitungseinheit zu erzeugen und auszugeben. Dadurch kann eine fehlerhafte Endkonfiguration individuell korrigierend verarbeitet werden, so dass Fertigungsausschuss vermieden wird.In this context, the determined region of interest and the result of the classification can be used as input data for a trained neural network for controlling a subsequent process, i.e. a processing process that follows the processing step in the context of which the final configuration was determined to be faulty. This trained neural control network is preferably designed to generate and output a control signal for influencing at least one control variable of a cable sequence processing unit based on at least one determined region of interest and an associated classification result. This allows an incorrect final configuration to be processed individually in a corrective manner, so that production waste is avoided.

In einer weiteren Ausführungsform wird mittels des Steuersignals eine Aussonderung eines Kabelteilstücks mit einer fehlerbildbehafteten Endkonfiguration aus einem noch zu durchlaufenden Fertigungsprozess veranlasst, wobei eine Aussonderung dann erfolgt, wenn das Ergebnis der Klassifikation für diese Endkonfiguration einem vorgegebenen Fehlerbild mit einer Wahrscheinlichkeit oberhalb eines vorgegebenen Wahrscheinlichkeitsschwellwerts entspricht und nicht mittels einer Kabelfolgeverarbeitungseinheit korrigierbar ist. Diese Alternative ist dann vorteilhaft, wenn ein Fehlerbild einer Endkonfiguration durch nachfolgende Prozesse nicht korrigiert werden kann. Dies kann für bestimmte vorgegebene Fehlerbilder der Fall sein, welche mit ausreichend hoher Sicherheit identifiziert sind. Diese nicht korrigierbaren mit hoher Sicherheit vorliegenden Fehlerbilder können abhängig vom jeweiligen Fertigungsaufbau sein, und können auch von der Anordnung der Kabelverarbeitungseinheiten in Materialdurchflussrichtung abhängen. Im Fall der Nichtkorrigierbarkeit des Fehlerbilds der Endkonfiguration ist es vorteilhaft, die fehlerhafte Endkonfiguration nicht mehr weiterzuverarbeiten und baldmöglichst aus dem Fertigungsprozess auszuschleusen bzw. auszusondern.In a further embodiment, the control signal is used to cause a cable section with a faulty final configuration to be rejected from a production process that is still to be completed, whereby rejection takes place when the result of the Classification for this final configuration corresponds to a given error pattern with a probability above a given probability threshold and cannot be corrected by means of a subsequent cable processing unit. This alternative is advantageous if an error pattern of a final configuration cannot be corrected by subsequent processes. This can be the case for certain given error patterns that have been identified with a sufficiently high degree of certainty. These error patterns that cannot be corrected and are present with a high degree of certainty can depend on the respective production structure and can also depend on the arrangement of the cable processing units in the direction of material flow. If the error pattern of the final configuration cannot be corrected, it is advantageous to stop processing the faulty final configuration and to remove or separate it from the production process as soon as possible.

Die Erfindung betrifft ebenfalls eine Kabelverarbeitungsvorrichtung, aufweisend:
eine Kabelverarbeitungseinheit, welche dazu ausgebildet ist, wenigstens ein Kabelteilstück, insbesondere ein Kabelende, aufzunehmen und derart zu verarbeiten, dass das wenigstens eine Kabelteilstück von einer Anfangskonfiguration in eine Endkonfiguration überführt wird, eine Bildaufnahmeeinrichtung, angeordnet und ausgebildet zur Aufnahme zumindest eines Bilds der wenigstens einen Endkonfiguration, eine Auswerteeinrichtung und eine Steuereinrichtung zur Steuerung und/oder Regelung der Kabelverarbeitungsvorrichtung, wobei die Auswerteeinheit mit der Bildaufnahmeeinrichtung und der Steuereinrichtung wirkverbunden ist, und wobei in die Auswerteeinrichtung und/oder in die Steuereinrichtung maschinenlesbarer Programmcode ladbar ist, welcher bei dessen Ausführung die Durchführung des Verfahrens nach einem der vorhergehenden Ansprüche veranlasst. Mittels einer derartigen Kabelverarbeitungsvorrichtung kann insbesondere eine automatisierte Qualitätsprüfung des Kabelfertigungsprozesses erfolgen.
The invention also relates to a cable processing device comprising:
a cable processing unit which is designed to receive at least one cable section, in particular a cable end, and to process it in such a way that the at least one cable section is transferred from an initial configuration to a final configuration, an image recording device, arranged and designed to record at least one image of the at least one final configuration, an evaluation device and a control device for controlling and/or regulating the cable processing device, wherein the evaluation unit is operatively connected to the image recording device and the control device, and wherein machine-readable program code can be loaded into the evaluation device and/or the control device, which, when executed, causes the method according to one of the preceding claims to be carried out. By means of such a cable processing device, in particular an automated quality check of the cable production process can be carried out.

Die Kabelverarbeitungsvorrichtung umfasst somit insbesondere ein trainiertes neuronales Netz zur Auswertung des zumindest einen aufgenommenen Bilds der wenigstens einen Endkonfiguration, wobei das neuronale Netz derart trainiert ist, dass in einem ersten Schritt wenigstens ein interessierender Bereich der wenigstens einen Endkonfiguration aus dem Bild ermittelt wird und in einem zweiten Schritt eine Klassifikation des wenigstens einen ermittelten interessierenden Bereichs hinsichtlich des Vorliegens eines Fehlerbilds der Endkonfiguration erfolgt, wobei die Auswerteeinrichtung dazu ausgebildet ist, ein Steuersignal abhängig vom ermittelten interessierenden Bereich und/oder abhängig von einem ermittelten Ergebnis der Klassifikation der Endkonfiguration auszugeben.The cable processing device thus comprises in particular a trained neural network for evaluating the at least one recorded image of the at least one final configuration, wherein the neural network is trained such that in a first step at least one region of interest of the at least one final configuration is determined from the image and in a second step a classification of the at least one determined region of interest takes place with regard to the presence of an error image of the final configuration, wherein the evaluation device is designed to output a control signal depending on the determined region of interest and/or depending on a determined result of the classification of the final configuration.

Die Erfindung betrifft ebenfalls einen maschinenlesbaren Programmcode für eine Auswerteeinrichtung und/oder Steuereinrichtung, welcher Steuerbefehle umfasst, welche bei deren Ausführung mittels der Auswerteeinrichtung und/oder der Steuereinrichtung die Durchführung des Verfahrens nach einem der Verfahrensansprüche veranlasst.The invention also relates to a machine-readable program code for an evaluation device and/or control device, which comprises control commands which, when executed by the evaluation device and/or the control device, cause the method according to one of the method claims to be carried out.

Die Erfindung betrifft ebenfalls eine Steuer und/oder Auswerteeinrichtung mit maschinenlesbarem Programmcode, welcher Steuerbefehle umfasst, welche bei deren Ausführung mittels der Auswerteeinrichtung und/oder Steuereinrichtung die Durchführung des Verfahrens nach einem der Verfahrensansprüche veranlasst.The invention also relates to a control and/or evaluation device with machine-readable program code, which comprises control commands which, when executed by means of the evaluation device and/or control device, cause the method according to one of the method claims to be carried out.

Vorteilhafterweise greift die Auswerteeinrichtung, insbesondere in Form eines maschinenlesbaren Programmcodes, auf ein trainiertes neuronales Netz zu, das dazu ausgebildet ist, in einem ersten Schritt wenigstens einen interessierenden Bereich der wenigstens einen Endkonfiguration aus dem wenigstens einen erfassten Bild zu ermitteln und in einem zweiten Schritt eine Klassifikation des wenigstens einen ermittelten interessierenden Bereichs hinsichtlich des Vorliegens eines angelernten Fehlerbilds der wenigstens einen Endkonfiguration durchzuführen und ein der Klassifikation zugeordnetes Ergebnis zu ermitteln, und ein Steuersignal abhängig vom wenigstens einen ermittelten interessierenden Bereich und/oder abhängig von dem ermittelten Ergebnis der Klassifikation der wenigstens einen Endkonfiguration zu erzeugen und auszugeben. Der Zugriff der Auswerteeinrichtung, insbesondere auf den das trainierte neuronale Netz implementierenden Programmcode, kann durch Zugriff auf einem lokalen Speicher erfolgen, alternativ kann der Zugriff auch durch Zugriff auf eine Cloud erfolgen, auf der das entsprechend neuronale Netz implementiert ist.The evaluation device advantageously accesses a trained neural network, in particular in the form of a machine-readable program code, which is designed to determine at least one region of interest of the at least one final configuration from the at least one captured image in a first step and, in a second step, to carry out a classification of the at least one determined region of interest with regard to the presence of a learned error image of the at least one final configuration and to determine a result associated with the classification, and to generate and output a control signal depending on the at least one determined region of interest and/or depending on the determined result of the classification of the at least one final configuration. The evaluation device can access, in particular the program code implementing the trained neural network, by accessing a local memory; alternatively, access can also be by accessing a cloud on which the corresponding neural network is implemented.

Vorteilhafterweise ist das trainierte neuronale Netz, auf welches die Auswerteeinrichtung zugreift, ferner dazu ausgebildet, jeweils wenigstens einen interessierenden Bereich für zwei bis 100 Endkonfigurationen, insbesondere für jede der zwei bis 100 Endkonfigurationen, zu ermitteln und ein der Klassifikation der interessierenden Bereiche zugeordnetes Ergebnis zu ermitteln, wobei ein Steuersignal für die zwei bis 100 erfassten Endkonfigurationen, insbesondere für jede der zwei bis 100 erfassten Endkonfigurationen, auf Grundlage des ermittelten wenigstens einen interessierenden Bereichs und/oder des der Klassifikation zugeordneten Ergebnisses für die jeweilige Endkonfiguration erzeugbar und ausgebbar ist.Advantageously, the trained neural network, which the evaluation device accesses, is further designed to determine at least one region of interest for two to 100 final configurations, in particular for each of the two to 100 final configurations, and to determine a result associated with the classification of the regions of interest, wherein a control signal for the two to 100 recorded final configurations, in particular for each of the two to 100 recorded final configurations, can be generated and output on the basis of the determined at least one region of interest and/or the result associated with the classification for the respective final configuration.

Vorteilhafterweise ist das trainierte neuronale Netz, auf welches die Auswerteeinrichtung zugreift, ferner dazu ausgebildet, für wenigstens eine Endkonfiguration wenigstens einen ersten interessierenden Bereich und für dieselbe Endkonfiguration wenigstens einen zweiten, vom ersten interessierenden Bereich räumlich abweichenden interessierenden Bereich aus dem wenigstens einen erfassten Bild zu ermitteln und das neuronale Netz ferner dazu ausgebildet ist, für die Klassifikation zusätzlich einen Relativparameter, insbesondere eine Relativlage, des wenigstens ersten interessierenden Bereichs und des zweiten interessierenden Bereichs zu berücksichtigen und ein der Klassifikation zugeordnetes Ergebnis zu ermitteln, wobei ein Steuersignal für die wenigstens eine Endkonfiguration anhand des Ergebnisses der die Relativlage berücksichtigenden Klassifikation erzeugbar und ausgebbar ist.Advantageously, the trained neural network, which the evaluation device accesses, is further designed to identify at least one first region of interest for at least one final configuration and at least one second region of interest for the same final configuration, which region is to determine a spatially different region of interest from the at least one captured image and the neural network is further designed to additionally take into account a relative parameter, in particular a relative position, of the at least first region of interest and the second region of interest for the classification and to determine a result associated with the classification, wherein a control signal for the at least one final configuration can be generated and output based on the result of the classification taking the relative position into account.

Kurze FigurenbeschreibungShort character description

Nachfolgend werden vorteilhafte Ausführungsbeispiele der Erfindung unter Bezugnahme auf die begleitenden Figuren erläutert. Es zeigen:

Figur 1
eine schematische Darstellung einer Ausführungsform der Kabelverarbeitungsvorrichtung,
Figur 2
eine andere schematische Darstellung der Ausführungsform aus Figur 1,
Figur 3
eine schematische Darstellung der Ausführungsform der Kabelverarbeitungsvorrichtung geeignet für eine übergreifende Beeinflussung der Kabelfertigung,
Figur 4
eine erste beispielhafte Endkonfiguration für welche eine Mehrzahl an interessierenden Bereichen und deren Klassifikation ermittelt wurde,
Figur 5
eine zweite beispielhafte Endkonfiguration für welche eine Mehrzahl an interessierenden Bereichen und deren Klassifikation ermittelt wurde,
Figur 6
eine dritte beispielhafte Endkonfiguration für welche eine Mehrzahl an interessierenden Bereichen und deren Klassifikation ermittelt wurde,
Figur 7
eine vierte beispielhafte Endkonfiguration für welche eine Mehrzahl an interessierenden Bereichen und deren Klassifikation ermittelt wurde,
Figur 8
ein Flussdiagramm zur schematischen Darstellung eines beispielhaften Ablaufs des Verfahrens.
Advantageous embodiments of the invention are explained below with reference to the accompanying figures. They show:
Figure 1
a schematic representation of an embodiment of the cable processing device,
Figure 2
another schematic representation of the embodiment of Figure 1 ,
Figure 3
a schematic representation of the embodiment of the cable processing device suitable for a comprehensive influence on cable production,
Figure 4
a first exemplary final configuration for which a plurality of regions of interest and their classification were determined,
Figure 5
a second exemplary final configuration for which a plurality of regions of interest and their classification were determined,
Figure 6
a third exemplary final configuration for which a plurality of regions of interest and their classification were determined,
Figure 7
a fourth exemplary final configuration for which a plurality of regions of interest and their classification were determined,
Figure 8
a flow chart schematically showing an exemplary procedure of the method.

Die Figuren sind lediglich schematische Darstellungen und dienen nur der Erläuterung der Erfindung. Gleiche oder gleichwirkende Elemente sind durchgängig mit den gleichen Bezugszeichen versehen.The figures are merely schematic representations and serve only to explain the invention. Identical or equivalent elements are provided with the same reference numerals throughout.

Detaillierte BeschreibungDetailed description

Figur 1 zeigt eine schematische Ansicht einer Kabelverarbeitungsvorrichtung 100. Die Kabelverarbeitungsvorrichtung 100 umfasst mindestens eine Kabelverarbeitungseinheit 200, mittels welcher ein Kabel bzw. ein Kabelteilstück K von einer Anfangskonfiguration in eine Endkonfiguration E verarbeitet werden. Die Anfangskonfiguration bezeichnet dabei den Zustand des zu verarbeitenden Kabelteilstücks K vor der Bearbeitung. Die Endkonfiguration bezeichnet den Zustand des verarbeiteten Kabelteilstücks K. Figure 1 shows a schematic view of a cable processing device 100. The cable processing device 100 comprises at least one cable processing unit 200, by means of which a cable or a cable section K is processed from an initial configuration into a final configuration E. The initial configuration refers to the state of the cable section K to be processed before processing. The final configuration refers to the state of the processed cable section K.

Es versteht sich, dass eine Mehrzahl an Kabelverarbeitungseinheiten 200 von der Kabelverarbeitungsvorrichtung 100 umfasst sein kann, die jeweils unterschiedliche Verarbeitungsschritte am Kabel, ggf. auch an unterschiedlichen Kabelteilstücken desselben Kabels, durchführen.It is understood that a plurality of cable processing units 200 can be included in the cable processing device 100, each of which carries out different processing steps on the cable, possibly also on different cable sections of the same cable.

Die Endkonfiguration E kann abhängig vom Bearbeitungsstand des Kabels bzw. des Kabelteilstücks K sein sowie abhängig von der Art des zu fertigenden Kabels. In Figur 1 umfasst die Endkonfiguration das als Endbereich ausgebildete Kabelteilstück K des Kabels sowie eine daran angeordnete schematisch dargestellte Crimphülse C. Die Endkonfiguration kann in Durchflussrichtung nach dem Verarbeitungsschritt, ggf. auch nach Austritt aus der Kabelverarbeitungseinheit 200, bspw. auf einer Kabelaufnahmeeinrichtung 210, bildlich erfasst werden.The final configuration E can depend on the processing status of the cable or the cable section K as well as on the type of cable to be manufactured. In Figure 1 the final configuration comprises the cable section K of the cable designed as an end region and a schematically shown crimp sleeve C arranged thereon. The final configuration can be imaged in the flow direction after the processing step, possibly also after exiting the cable processing unit 200, for example on a cable receiving device 210.

Diese Endkonfiguration E wird mittels einer Bildaufnahmeeinrichtung 300 erfasst. Der Aufnahmebereich der Bildaufnahmeeinrichtung 300 zur Erfassung von Endkonfigurationen E ist vorzugsweise 25cm mal 25cm. Ist eine Endkonfiguration E innerhalb des Aufnahmebereichs angeordnet, kann die Bildaufnahmeeinrichtung 300 die darin angeordneten Endkonfigurationen E im Aufnahmebereich erfassen.This final configuration E is recorded by means of an image recording device 300. The recording area of the image recording device 300 for recording final configurations E is preferably 25 cm by 25 cm. If a final configuration E is arranged within the recording area, the image recording device 300 can record the final configurations E arranged therein in the recording area.

Die Bildaufnahmeeinrichtung 300 ist vorzugsweise als Digitalkamera ausgebildet und weist eine Auflösung von 1024x 1024 Pixel auf. Bei dieser Konfiguration von Aufnahmebereich und Auflösung ist sichergestellt, dass das Bild ausreichend gut aufgelöst ist, um eine zuverlässige Bildauswertung durchzuführen. Eine geringere Auflösung bei gleichem Aufnahmebereich oder eine größerer Aufnahmebereich bei kleinerer Auflösung kann das Resultat der Bildauswertung nachteilig beeinflussen. E sollte sichergestellt werden, dass ein interessierender Bereich mindestens 20 Pixel, vorzugsweise 50 oder mehr Pixel, umfasst. Es können jedoch ein größerer Aufnahmebereich und eine größere Auflösung gewählt werden, was jedoch Nachteile hinsichtlich der Geschwindigkeit einer nachfolgenden Bildverarbeitung haben kann.The image recording device 300 is preferably designed as a digital camera and has a resolution of 1024x 1024 pixels. With this configuration of recording area and resolution, it is ensured that the image has a sufficiently good resolution to carry out a reliable image evaluation. A lower resolution with the same recording area or a larger recording area with a smaller resolution can have a negative impact on the result of the image evaluation. It should be ensured that an area of interest has at least 20 pixels, preferably 50 or more pixels. However, a larger recording area and a higher resolution can be selected, although this may have disadvantages in terms of the speed of subsequent image processing.

Ferner umfasst die Kabelverarbeitungsvorrichtung 100 eine Auswerteeinrichtung 500. Mittels der Auswerteeinrichtung 500 erfolgt eine Bildauswertung. Die Auswerteeinrichtung 500 umfasst ein trainiertes deep Convolutional Neural Network, das dazu ausgebildet, in einem ersten Schritt wenigstens einen interessierenden Bereich der wenigstens einen Endkonfiguration E aus dem wenigstens einen erfassten Bild zu ermitteln und in einem zweiten Schritt eine Klassifikation des wenigstens einen ermittelten interessierenden Bereichs hinsichtlich des Vorliegens eines angelernten Fehlerbilds der wenigstens einen Endkonfiguration E sowie ein der Klassifikation zugeordnetes Ergebnis zu ermitteln.The cable processing device 100 further comprises an evaluation device 500. An image evaluation is carried out by means of the evaluation device 500. The evaluation device 500 comprises a trained deep convolutional neural network, which is designed to determine at least one region of interest of the at least one final configuration E from the at least one captured image in a first step and to determine a classification of the at least one determined region of interest with regard to the presence of a learned error image of the at least one final configuration E and a result associated with the classification in a second step.

Hierzu wird ein maschinenlesbarer Code 600 in einen nichtflüchtigen Speicher der Auswerteeinrichtung 500 geladen, welcher das trainierte neuronale Netz umfasst. Mittels des trainierten neuronalen Netzes kann die Auswerteeinrichtung 500, indem sie das trainierte neuronale Netz auf das Bild anwendet, wenigstens einen interessierenden Bereich der Endkonfiguration E bestimmen und diesen wenigstens einen interessierenden Bereich klassifizieren.For this purpose, a machine-readable code 600 is loaded into a non-volatile memory of the evaluation device 500, which includes the trained neural network. By applying the trained neural network to the image, the evaluation device 500 can determine at least one region of interest of the final configuration E and classify this at least one region of interest.

Vorzugsweise wird für jede mittels des Bilds erfasste Endkonfiguration E wenigstens ein interessierender Bereich ermittelt. Es können auch mehrere interessierende Bereiche pro Endkonfiguration E ermittelt werden.Preferably, at least one region of interest is determined for each final configuration E captured by means of the image. It is also possible to determine several regions of interest per final configuration E.

Auf Grundlage des Ergebnisses der Klassifikation für die ermittelten interessierenden Bereiche sendet die Auswerteeinrichtung 500 ein Steuersignal an eine von der Kabelverarbeitungsvorrichtung 100 umfasste Steuereinrichtung 700. Diese Steuereinrichtung 700 ist dazu ausgebildet die Kabelverarbeitungsvorrichtung 100 zu steuern bzw. zu regeln. Die Auswerteeinrichtung 500 kann separat zur Steuereinrichtung 700 vorgesehen werden. Die Auswerteeinrichtung 500 kann auch in der Steuereinrichtung 700 integriert sein.Based on the result of the classification for the determined areas of interest, the evaluation device 500 sends a control signal to a control device 700 included in the cable processing device 100. This control device 700 is designed to control or regulate the cable processing device 100. The evaluation device 500 can be provided separately from the control device 700. The evaluation device 500 can also be integrated in the control device 700.

Ferner ist die Steuereinrichtung 700 ebenfalls mit einer Bildausgabeeinrichtung 800 wirkverbunden. Die Steuereinrichtung 700 ist dazu ausgebildet, eine Darstellung der von der Auswerteeinrichtung 500 bereitgestellten Informationen auf der Bildausgabeeinrichtung 800 zu veranlassen. Vorzugweise erfolgt die Darstellung der ermittelten interessierenden Bereiche und der jeweiligen Klassifikationsergebnisse auf dem die analysierten Endkonfiguration E umfassenden Bild. Dem entsprechend trainierten deep Convolutional Neural Network werden in der Eingangsschicht nicht vorverarbeitete oder anderweitig aufbereitete Rohdaten der Bildaufnahmeeinrichtung 300 zur Verfügung gestellt, bspw. in der Form 1024x1024x3. Es wird also ein Tensor bereitgestellt, der 1024x1024 Pixel aufweist, welche jeweils wiederum 3 RGB-Farben aufweisen können. Ziel ist es, dass direkt mit den erfassten Bildern ohne weitere Zwischenverarbeitung oder Aufbereitung eine Auswertung mittels der Auswerteeinrichtung 500 erfolgen kann.Furthermore, the control device 700 is also operatively connected to an image output device 800. The control device 700 is designed to cause the information provided by the evaluation device 500 to be displayed on the image output device 800. The determined regions of interest and the respective classification results are preferably displayed on the image comprising the analyzed final configuration E. In the input layer, the appropriately trained deep convolutional neural network is provided with raw data from the image recording device 300 that has not been preprocessed or otherwise prepared, for example in the form 1024x1024x3. A tensor is therefore provided that has 1024x1024 pixels, each of which can have 3 RGB colors. The aim is that the captured images can be evaluated directly using the evaluation device 500 without any further intermediate processing or preparation.

Als Ausgangsdaten können vorgesehen sein bspw. die Anzahl an maximal interessierenden Bereichen auf dem Bild, zugehörige Wahrscheinlichkeitswerte für jede der interessierenden Bereiche, die Lokalisierung der interessierenden Bereiche durch Rahmen im Bild, und das Klassifikationsergebnis, welches zwischen fehlerbehaftet und fehlerfrei unterscheidet sowie ggf. noch weitere Angaben, umfassen kann z.B. die Art des Fehlerbilds, sowie einen weiteren Wahrscheinlichkeitswert für das Vorliegen eines bestimmten Fehlerbilds. Es wird somit ein Ausgangsvektor für die vorgesehene Anzahl an mittels des neuronalen Netzes bestimmbaren interessierenden Bereichen ausgegeben, mit den jeweiligen Angaben zu den jeweiligen interessierenden Bereichen.The output data can include, for example, the maximum number of regions of interest in the image, associated probability values for each of the regions of interest, the localization of the regions of interest by means of frames in the image, and the classification result, which distinguishes between those with errors and those without errors, and possibly other information, which can include, for example, the type of error pattern and a further probability value for the presence of a specific error pattern. An output vector is thus output for the intended number of regions of interest that can be determined using the neural network, with the respective information on the respective regions of interest.

Das genutzte deep Convolutional Neural Network ist dazu ausgebildet, für eine hohe Anzahl an Kabelteilstücken mittels desselben deep Convolutional Neural Networks zunächst wenigstens einen interessierenden Bereich pro Endkonfiguration E eines Kabelteilstücks K, vorzugsweise mehrere interessierende Bereiche pro Endkonfiguration E eines Kabelteilstücks K, zu ermitteln und anschließend die ermittelten interessierenden Bereiche zu klassifizieren. Dieses stufenweise Vorgehen erfolgt mittels desselben Netzes, welche für dieses Vorgehen trainiert wurde.The deep convolutional neural network used is designed to initially determine at least one region of interest per final configuration E of a cable section K, preferably several regions of interest per final configuration E of a cable section K, for a large number of cable sections using the same deep convolutional neural network and then to classify the determined regions of interest. This step-by-step procedure is carried out using the same network that was trained for this procedure.

Figur 2 verdeutlich die Ausführungsform nach Figur 1 im Hinblick auf die parallele Kabelverarbeitungskapazität der Kabelverarbeitungseinheit 200. Die Kabelverarbeitungseinheit 200, als auch die Kabelverarbeitungsvorrichtung 100, ist dazu ausgebildet, eine Vielzahl von Kabeln, hier n Kabel, parallel zu verarbeiten. Vorzugsweise werden 30 bis 100 Kabel gleichzeitig von der Kabelverarbeitungseinheit 200 prozessiert und jeweils von einer Anfangskonfiguration in eine Endkonfiguration überführt. Figure 2 illustrates the embodiment according to Figure 1 with regard to the parallel cable processing capacity of the cable processing unit 200. The cable processing unit 200, as well as the cable processing device 100, is designed to process a large number of cables, here n cables, in parallel. Preferably, 30 to 100 cables are processed simultaneously by the cable processing unit 200 and each is converted from an initial configuration to a final configuration.

Damit besteht die Herausforderung gleichzeitig für eine hohe Anzahl an Kabeln, z.B. 30 bis 100 Kabel, eine Echtzeitkontrolle dahingehend bereitzustellen, ob jedes einzelne Kabel fehlerfrei verarbeitet wurde. Die n Endkonfigurationen sind mit E1, E2, E3 bis En bezeichnet. Die zugehörigen Kabelteilstücke sind mit K1, K2, K3 bis Kn bezeichnet.This means that the challenge is to provide real-time control for a large number of cables, eg 30 to 100 cables, to determine whether each individual cable has been processed without errors. The n end configurations are designated E1, E2, E3 to En. The corresponding cable sections are designated K1, K2, K3 to Kn.

Es hat sich gezeigt, dass mittels der zweistufigen Vorgehensweise, gemäß der wenigstens ein interessierender Bereich für wenigstens eine Endkonfiguration bestimmt wird, und der ermittelte wenigstens eine interessierende Bereich dann klassifiziert wird, auch für eine Vielzahl von parallel verarbeiteten Kabelteilstücken besonders erfolgreich ist. Vorausgesetzt ist ein mit entsprechendem Trainingsdaten trainiertes neuronales Netz.It has been shown that the two-stage procedure, according to which at least one region of interest is determined for at least one final configuration and the determined at least one region of interest is then classified, is particularly successful even for a large number of cable sections processed in parallel. This requires a neural network trained with appropriate training data.

Vorzugsweise ist das neuronale Netz derart ausgestaltet, dass es dazu ausgebildet ist, bis zu 100 interessierende Bereiche von 100 parallel, mittels der gleiche Kabelverarbeitungseinheit 200 prozessierten Endkonfigurationen E1, E2, E3, ..., En zu bestimmen. Ferner ist es dazu ausgebildet, die 100 interessierenden Bereiche mit Wahrscheinlichkeitswerten zu versehen. Werden weniger als 100 Endkonfigurationen gleichzeitig prozessiert, so bestimmt es für die Differenz der Anzahl an erfassten Endkonfiguration zu 100 einen Wahrscheinlichkeitswert, der unterhalb eines vorgegebenen Schwellwerts liegt. Die interessierenden Bereiche mit einer Wahrscheinlichkeit unterhalb dieses Schwellwerts werden nicht weiter berücksichtigt und durch das neuronale Netz nicht klassifiziert.The neural network is preferably designed in such a way that it is configured to determine up to 100 regions of interest from 100 final configurations E1, E2, E3, ..., En processed in parallel using the same cable processing unit 200. It is also configured to provide the 100 regions of interest with probability values. If fewer than 100 final configurations are processed simultaneously, it determines a probability value for the difference between the number of final configurations recorded and 100, which is below a predetermined threshold value. The regions of interest with a probability below this threshold value are no longer taken into account and are not classified by the neural network.

Damit wird ein neuronales Netz bereitgestellt, welches geeignet ist, einen flexiblen Kabeldurchsatz durch die Kabelverarbeitungseinheit bis zu einer maximalen Kabelanzahl bzw. maximalen Anzahl an Endkonfiguration E1, E2, E3, ..., En in Echtzeit zu handhaben und den Fertigungsprozess zu prüfen. Die Maximalanzahl an mittels des neuronalen Netzes bestimmbaren interessierenden Bereiche kann derart gewählt werden, dass diese mit der maximalen parallelen Verarbeitungskapazität der Kabelverarbeitungseinheit 200 korrespondiert. Z.B. kann diese um den Faktor 2 bis 5 höher gewählt werden als die Anzahl der maximal parallel verarbeitbaren Kabel, damit pro Endkonfiguration E1, E2, E3, ..., En auch eine Mehrzahl an interessierenden Bereichen bestimmt werden kann.This provides a neural network that is suitable for handling a flexible cable throughput through the cable processing unit up to a maximum number of cables or maximum number of final configurations E1, E2, E3, ..., En in real time and for checking the production process. The maximum number of areas of interest that can be determined using the neural network can be selected such that it corresponds to the maximum parallel processing capacity of the cable processing unit 200. For example, this can be selected to be a factor of 2 to 5 higher than the number of cables that can be processed in parallel at most, so that a plurality of areas of interest can also be determined for each final configuration E1, E2, E3, ..., En.

Es können für die Vielzahl an Endkonfigurationen E1, E2, E3, ..., En jeweils auch mehrere interessierende Bereiche ermittelt werden, was eine relationale Klassifizierung erlaubt, welche Relativparameter von zwei oder mehr interessierenden Bereichen zueinander berücksichtigt.For the multitude of final configurations E1, E2, E3, ..., En, several regions of interest can be determined, which allows a relational classification that takes into account relative parameters of two or more regions of interest to each other.

Figur 3 zeigt eine Kabelverarbeitungsvorrichtung 100. Diese umfasst die bereits aus Figur 1 und 2 gezeigte Kabelverarbeitungseinheit 200, sowie ferner eine in Durchflussrichtung der Kabelverarbeitungseinheit nachgelagerte Kabelfolgeverarbeitungseinheit 201, und eine in Durchflussrichtung der Kabelverarbeitungseinheit 200 vorgelagerte Kabelvorverarbeitungseinheit 202. Ferner umfasst die Kabelverarbeitungsvorrichtung 100 eine übergeordnete Steuereinrichtung 710, mittels welcher zumindest mittelbar die Kabelvorverarbeitungseinheit 202 und die Kabelfolgeverarbeitungseinheit 201 beeinflussbar sind. Die Durchflussrichtung bzw. Materialflussrichtung ist mit D bezeichnet. Figure 3 shows a cable processing device 100. This comprises the already Figure 1 and 2 shown cable processing unit 200, as well as a cable follow-up processing unit 201 downstream of the cable processing unit in the flow direction, and a cable pre-processing unit 202 upstream of the cable processing unit 200 in the flow direction. Furthermore, the cable processing device 100 comprises a higher-level control device 710, by means of which the cable pre-processing unit 202 and the cable subsequent processing unit 201 can be influenced at least indirectly. The flow direction or material flow direction is designated by D.

Während die Steuereinrichtung 700 dazu ausgebildet ist, den Betrieb der Kabelverarbeitungseinheit 200 zu steuern bzw. zur regeln, ist die übergeordnete Steuereinrichtung 710 zumindest mittelbar dazu geeignet, auch den Betrieb wenigstens einer der Kabelverarbeitungseinheit 200 in Durchflussrichtung D vorgelagerten Kabelvorverarbeitungseinheit 202 zu beeinflussen. Ferner ist die übergeordnete Steuereinrichtung 710 auch zumindest mittelbar dazu geeignet, den Betrieb wenigstens einer der Kabelverarbeitungseinheit 200 in Durchflussrichtung D nachgelagerten Kabelfolgeverarbeitungseinheit 201 zu beeinflussen.While the control device 700 is designed to control or regulate the operation of the cable processing unit 200, the higher-level control device 710 is at least indirectly suitable for influencing the operation of at least one cable pre-processing unit 202 upstream of the cable processing unit 200 in the flow direction D. Furthermore, the higher-level control device 710 is also at least indirectly suitable for influencing the operation of at least one cable subsequent processing unit 201 downstream of the cable processing unit 200 in the flow direction D.

Die Kabelvorverarbeitungseinheit 202 und die Kabelfolgeverarbeitungseinheit 201 können direkt zur Kabelverarbeitungseinheit 200 vorhergehende bzw. nachgeordnete Einheiten sein. Diese können jedoch auch weiter von der Kabelverarbeitungseinheit 200 beabstandet sein.The cable pre-processing unit 202 and the cable subsequent processing unit 201 can be units directly preceding or following the cable processing unit 200. However, they can also be further away from the cable processing unit 200.

Die wenigstens eine Kabelvorverarbeitungseinheit 202 und die wenigstens eine Kabelfolgeverarbeitungseinheit 201 können jeweils eine eigene Steuereinrichtung zur Steuerung und/oder Regelung deren Betriebs aufweisen. Eine solche ist in Figur 3 nicht gezeigt. Es versteht sich, dass nicht zwingend eine Beeinflussung einer Kabelvorverarbeitungseinrichtung 202 und einer Kabelfolgeverarbeitungseinrichtung 201 vorgesehen sein muss. Vielmehr kann auch nur eine Beeinflussung von der Kabelvorverarbeitungseinrichtung 202 oder der Kabelfolgeverarbeitungseinrichtung 201 vorgesehen sein.The at least one cable pre-processing unit 202 and the at least one cable sequence processing unit 201 can each have their own control device for controlling and/or regulating their operation. Such a control device is shown in Figure 3 not shown. It is understood that an influence on a cable pre-processing device 202 and a cable subsequent processing device 201 does not necessarily have to be provided. Rather, only an influence on the cable pre-processing device 202 or the cable subsequent processing device 201 can be provided.

Auf Grundlage des erfassten Bilds der Endkonfigurationen E mit der Bildaufnahmeeinrichtung 300 erfolgt mittels der Auswerteeinrichtung 500 eine Ermittlung wenigstens eines interessierenden Bereichs der Endkonfigurationen E und eine Klassifikation des wenigstens eines interessierenden Bereichs. Führt die Klassifikation eines interessierenden Bereichs zum Ergebnis, dass für eine bestimmte Endkonfiguration E ein Fehlerbild vorliegt und welcher Art das Fehlerbild ist, kann die Kabelverarbeitungsvorrichtung 100, bspw. in Form der Steuerung oder Regelung der Kabelfolgeverarbeitungseinrichtung 201, derart gesteuert und/oder geregelt werden, dass für die fehlerhafte Endkonfiguration E eine korrigierende Verarbeitung dieser Endkonfiguration E in einem nachfolgenden Verarbeitungsschritt mittels der Kabelfolgeverarbeitungseinheit 201 erfolgt.On the basis of the image of the final configurations E captured by the image recording device 300, the evaluation device 500 determines at least one region of interest of the final configurations E and classifies the at least one region of interest. If the classification of a region of interest leads to the result that an error pattern exists for a specific final configuration E and what type of error pattern it is, the cable processing device 100 can be controlled and/or regulated, for example in the form of the control or regulation of the cable sequence processing device 201, such that for the faulty final configuration E, corrective processing of this final configuration E takes place in a subsequent processing step by means of the cable sequence processing unit 201.

Wird bspw. in der Kabelverarbeitungseinheit 200 eine Crimphülse nicht ausreichend fest auf ein abgemanteltes Kabelende verpresst, so ist die Position der Crimphülse fehlerfrei, allerdings wird diese mittels der Klassifikation auch als fehlerhaft verpresst erkannt. Dieses Fehlerbild ist reparabel. Das Fehlerbild für diese Endkonfiguration kann bspw. bei der Gehäuseaufbringung korrigiert werden, indem das die Crimphülse aufnehmende Gehäuse mit einer entsprechend erhöhten Anpresskraft auf die als reparabel fehlerhaft klassifizierte Endkonfiguration appliziert wird. Hierdurch kann die fehlerhafte Verpressung der Crimphülse abgemildert bzw. ausgeglichen werden, so dass das hergestellte Kabel auslieferungsfähig ist und die Qualitätsstandards erfüllt.If, for example, a crimp sleeve is not pressed firmly enough onto a stripped cable end in the cable processing unit 200, the position of the crimp sleeve is correct, but this is also recognized as incorrectly pressed using the classification. This error pattern is repairable. The error pattern for this final configuration can be corrected, for example, when the housing is applied by applying the housing that holds the crimp sleeve with a correspondingly increased contact force to the final configuration classified as repairably faulty. This can mitigate or compensate for the incorrect pressing of the crimp sleeve so that the cable produced is ready for delivery and meets the quality standards.

Dieses Vorgehen kann generell für alle klassifizierten interessierenden Bereiche vorgesehen werden, von welchen bekannt ist, dass diese ein reparables Fehlerbild aufweisen, welches durch nachgelagerte Verarbeitungsschritte in ausreichendem Maße korrigiert werden kann. Hierdurch wird Ausschuss vermieden, eine höhere Effizienz der Fertigung erreicht und die Kosten pro Kabel reduziert.This approach can generally be applied to all classified areas of interest that are known to have a repairable defect pattern that can be adequately corrected by downstream processing steps. This avoids waste, achieves greater manufacturing efficiency and reduces the cost per cable.

Ferner ist die Steuereinrichtung 700 auch dazu ausgebildet, anhand des wenigstens einen ermittelten interessierenden Bereichs und des zugehörigen Klassifikationsergebnisses für eine bestimmte Endkonfiguration E die Kabelverarbeitungseinheit 200 derart zu steuern und/oder zu regeln, dass für nachfolgende hergestellte Endkonfigurationen das ermittelte Fehlerbild reduziert oder ganz vermieden wird.Furthermore, the control device 700 is also designed to control and/or regulate the cable processing unit 200 based on the at least one determined region of interest and the associated classification result for a specific final configuration E in such a way that the determined error pattern is reduced or completely avoided for subsequently produced final configurations.

Im angeführten Beispiel mit der Crimphülse kann bspw. die Anpresskraft der Crimppresse, insbesondere nur für die Position des Kabels in der Kabelverarbeitungseinheit 200, für welche das Fehlerbild erkannt wurde, erhöht werden. Der ermittelte interessierende Bereich und die zugehörige Klassifikation können daher dazu verwendet werden, die Stellgrößen der Kabelverarbeitungseinheit 200 individuell derart anzupassen, dass ein stabiler und optimierter Verarbeitungsprozess für nachfolgende Kabelteilstücke erreicht wird.In the example given with the crimp sleeve, for example, the contact pressure of the crimping press can be increased, in particular only for the position of the cable in the cable processing unit 200 for which the fault pattern was detected. The determined area of interest and the associated classification can therefore be used to individually adapt the control variables of the cable processing unit 200 in such a way that a stable and optimized processing process is achieved for subsequent cable sections.

Ferner kann die Kabelverarbeitungsvorrichtung 100 aus Figur 3 dazu ausgebildet sein, anhand des wenigstens einen ermittelten interessierenden Bereichs und des zugehörigen Klassifikationsergebnisses den Betrieb einer Kabelvorverarbeitungseinheit 202 derart zu beeinflussen, dass ein bestimmtes Fehlerbild in der Endkonfiguration E des Kabelteilstücks K, erfasst nach der Verarbeitung mit der Kabelverarbeitungseinheit 200, reduziert wird. Auch dies kann mittels der übergeordneten Steuerung 710 erfolgen.Furthermore, the cable processing device 100 can be made of Figure 3 be designed to influence the operation of a cable pre-processing unit 202 based on the at least one determined region of interest and the associated classification result in such a way that a specific error pattern in the final configuration E of the cable section K, detected after processing with the cable processing unit 200, is reduced. This can also be done by means of the higher-level controller 710.

Bspw. kann die Auswertung ergeben, dass eine Abmantelung des Kabels nicht korrekt erfolgt ist und aus diesem Grund die in der Kabelverarbeitungseinheit 200 aufgebrachte Crimphülse nicht richtig positioniert ist. In diesem Fall ist das Fehlerbild verursacht durch die Kabelvorverarbeitungseinheit 202, welche den Schritt des Abmantelns am Kabelteilstück durchführt. Folglich kann dieses Fehlerbild behoben werden, wenn der Betrieb der Kabelvorverarbeitungseinrichtung 202 in einer Weise beeinflusst wird, welche den Abmantelungsprozess wieder in Richtung eines Soll-Ergebnisses verändert.For example, the evaluation may show that the cable has not been stripped correctly and, for this reason, the crimp sleeve applied in the cable processing unit 200 is not positioned correctly. In this case, the error is caused by the cable pre-processing unit 202, which carries out the step of stripping the cable section. Consequently, this error can be remedied if the operation of the cable pre-processing device 202 is influenced in a way that changes the stripping process back towards a desired result.

Es versteht sich, dass dies lediglich beispielhafte Erläuterungen sind. Abhängig vom ermittelten interessierenden Bereich und dessen Klassifikation kann dies auf beliebige Endkonfigurationen des Kabelteilstücks erweitert werden. Dies gilt entsprechend für Kabelvorverarbeitungseinheit 202 und Kabelfolgeverarbeitungseinheit 201.It is understood that these are merely exemplary explanations. Depending on the determined area of interest and its classification, this can be extended to any final configuration of the cable section. This applies accordingly to cable pre-processing unit 202 and cable subsequent processing unit 201.

Durch derartiges Vorgehen wird es möglich, dass nicht nach jeder Kabelverarbeitungseinheit eine Bildaufnahmeeinrichtung zur Erfassung von Endkonfigurationen und eine Bildauswertung erfolgen muss. Vielmehr reichen wenige Bildauswertungen an wenigen Kabelverarbeitungseinheiten, anhand deren Ergebnisse eine Vielzahl an Fertigungsprozessen vorteilhaft beeinflusst werden kann.This approach makes it possible to avoid the need for an image capture device to record final configurations and evaluate the image after each cable processing unit. Instead, a few image evaluations at a few cable processing units are sufficient, and the results can be used to positively influence a large number of production processes.

Figur 4 zeigt eine erste beispielhafte Endkonfiguration E eines Kabelteilstücks K. Die Endkonfiguration E umfasst von links nach rechts einen Mantel M des Kabels, es folgt ein Schirm S des Kabels, der Schirmung S folgt eine Crimphülse C nach. Der Crimphülse C folgt wieder ein Mantel M des Kabels nach. Figure 4 shows a first example final configuration E of a cable section K. The final configuration E comprises, from left to right, a sheath M of the cable, followed by a shield S of the cable, the shield S is followed by a crimp sleeve C. The crimp sleeve C is again followed by a sheath M of the cable.

Eine derartige Endkonfiguration E kann mittels eines Bilds der Bildverarbeitungseinrichtung erfasst werden und wird der Auswerteeinrichtung zugeführt. Figur 4 zeigt nun ein beispielhaftes Resultat einer Anwendung des von der Auswerteeinrichtung umfassten neuronalen Netzes auf das erfasste Bild der Endkonfiguration E. Entsprechend kann dies erfolgen, wenn das Bild eine Vielzahl an Endkonfigurationen E zeigt.Such a final configuration E can be captured by means of an image from the image processing device and is fed to the evaluation device. Figure 4 now shows an exemplary result of an application of the neural network included in the evaluation device to the captured image of the final configuration E. Accordingly, this can be done if the image shows a plurality of final configurations E.

Mittels der Auswerteeinrichtung werden vier interessierende Bereiche für die vorliegende Endkonfiguration E ermittelt. Es wird ein erster interessierender Bereich 401 ermittelt, welcher dem in der Figur linksseitigen Mantel zugeordnet ist. Dieser weist eine Wahrscheinlichkeit oberhalb eines Schwellwerts auf, so dass mittels einer Box bzw. mittels eines Rahmens R1 markiert wird.The evaluation device is used to determine four regions of interest for the current final configuration E. A first region of interest 401 is determined, which is assigned to the jacket on the left in the figure. This has a probability above a threshold value, so that R1 is marked using a box or a frame.

Dabei liefert das neuronale Netz eine Position des Rahmens als x-y-Koordinate im Bild mit einer zugehörigen Längenangabe in x und y Richtung. Dies gilt für sämtliche Rahmen in Figur 4 und auch den Folgefiguren entsprechend.The neural network provides a position of the frame as an xy coordinate in the image with an associated length in x and y directions. This applies to all frames in Figure 4 and also the following characters accordingly.

Ferner wird mittels des neuronalen Netzes ein zweiter interessierender Bereich 402 ermittelt, welcher einen Wahrscheinlichkeitswert aufweist, welcher über einem Schwellwert liegt. Dieser zweite interessierende Bereich ist der Schirmung S zugeordnet und wird ebenfalls mit einem Rahmen R2 auf dem Bild markiert.Furthermore, a second region of interest 402 is determined by means of the neural network, which has a probability value that is above a threshold value. This second region of interest is assigned to the shielding S and is also marked with a frame R2 on the image.

Ferner wird mittels des neuronalen Netzes ein dritter interessierender Bereich 403 ermittelt, welcher einen Wahrscheinlichkeitswert aufweist, welcher über einem Schwellwert liegt. Dieser dritte interessierende Bereich ist der Crimphülse zugeordnet und wird ebenfalls mit einem Rahmen R3 auf dem Bild markiert.Furthermore, a third region of interest 403 is determined by means of the neural network, which has a probability value that is above a threshold value. This third region of interest is assigned to the crimp sleeve and is also marked with a frame R3 on the image.

Ferner wird mittels des neuronalen Netzes ein vierter interessierender Bereich 404 ermittelt, welcher einen Wahrscheinlichkeitswert aufweist, welcher über einem Schwellwert liegt. Dieser vierte interessierende Bereich ist dem in der Figur 4 rechtsseitigen Mantel M zugeordnet und wird ebenfalls mit einem Rahmen R4 auf dem Bild markiert.Furthermore, a fourth region of interest 404 is determined by means of the neural network, which has a probability value that is above a threshold value. This fourth region of interest is the region of interest in the Figure 4 right-hand coat M and is also marked with a frame R4 in the picture.

Den Rahmen R1, R2, R3, R4 sind vorzugsweise Angaben A1, A1, A2, A3 zugeordnet, welche weitere Informationen zum ermittelten interessierende Bereich 401, 402, 403 und 404 enthalten. Beispielsweise können die Angaben A1 bis A4 jeweils die Wahrscheinlichkeit umfassen, mit der ein interessierender Bereich ermittelt wurde. Ferner umfassen diese Angaben A1, A1, A2, A3 vorzugsweise das Ergebnis der Klassifikation, wie oben dargelegt.The frames R1, R2, R3, R4 are preferably assigned information A1, A1, A2, A3, which contain further information on the determined region of interest 401, 402, 403 and 404. For example, the information A1 to A4 can each include the probability with which a region of interest was determined. Furthermore, these pieces of information A1, A1, A2, A3 preferably include the result of the classification, as set out above.

Insbesondere kann es für die schnellere Erfassbarkeit des Personals vorteilhaft sein, das Ergebnis der Klassifikation, z.B. in Ordnung vs. nicht in Ordnung, als Farbcodierung der Rahmen R1 bis R4 wiederzugeben. So kann bspw. ein Ampelsystem genutzt werden, wobei ein grüner Rahmen für fehlerfrei und hohe Wahrscheinlichkeit der Fehlerfreiheit steht, rot für fehlerbehaftet und hohe Wahrscheinlichkeit des Fehlervorliegens, und gelb für Klassifikationsergebnisse mit nicht ausreichend hoher Wahrscheinlichkeit, so dass diese einer Überprüfung bedürfen.In particular, it can be advantageous for staff to be able to identify the result of the classification more quickly, e.g. OK vs. not OK, as a color coding of the frames R1 to R4. For example, a traffic light system can be used, with a green frame representing error-free and a high probability of error-free, red representing error-prone and a high probability of error, and yellow representing classification results with insufficiently high probability, meaning that they require checking.

Ferner kann die Angabe A1 bis A4, ggf. erst auf Benutzeranfrage, z.B. in dem man mittels eines Steuergeräts, z.B. einer Maus, über die Angabe hovert, das Fehlerbild konkret identifizieren, so dass für das Personal schnell ermittelbar und ersichtlich ist, welches Fehlerbild für eine Endkonfiguration E vorliegt.Furthermore, the information A1 to A4 can, if necessary only upon user request, e.g. by hovering over the information using a control device, e.g. a mouse, to specifically identify the error pattern, so that the staff can quickly determine and see which error pattern is present for a final configuration E.

Jede dieser ermittelten Bereiche kann isoliert klassifiziert werden, d.h. z.B. ist das Schirmgeflecht prozesskonform verarbeitet oder nicht; ist die Crimphülse C prozesskonform verarbeitet oder nicht, insbesondere liegt dies im verpressten oder unverpressten Zustand vor bzw. ist die Verpressung fehlerfrei erfolgt.Each of these determined areas can be classified in isolation, e.g. whether the shielding braid has been processed in accordance with the process or not; whether the crimp sleeve C has been processed in accordance with the process or not, in particular whether this is the case in the pressed or unpressed state or whether the pressing was carried out without errors.

In der vorliegenden Endkonfiguration E wird weiter eine relationale Komponente bei der Klassifikation berücksichtigt, nämlich ist die Crimphülse C, in Figur 4 der dritte interessierende Bereich 403, korrekt zwischen dem Schirmgeflecht S, in Figur 4 der zweite interessierende Bereich 402, und dem Mantel M, in Figur 4 dem vierten interessierenden Bereich 404, positioniert. D.h. ist die Relativlage des dritten interessierenden Bereich 403, zum zweiten und vierten interessierenden Bereich 402 und 404 fehlerfrei.In the present final configuration E, a further relational component is taken into account in the classification, namely the crimp sleeve C, in Figure 4 the third area of interest 403, correctly between the shielding braid S, in Figure 4 the second region of interest 402, and the jacket M, in Figure 4 the fourth region of interest 404. This means that the relative position of the third region of interest 403 to the second and fourth regions of interest 402 and 404 is error-free.

Es kann somit mittels der Auswerteeinrichtung für diese Endkonfiguration E ermittelt werden, ob die Crimphülse C an der richtigen Position angeordnet ist, nämlich zwischen dem Schirmgeflecht und dem Mantel und ob die Crimphülse korrekt verpresst wurde oder nicht korrekt verpresst wurde bzw. nicht verpresst wurde.It can thus be determined by means of the evaluation device for this final configuration E whether the crimp sleeve C is arranged in the correct position, namely between the shield braid and the jacket and whether the crimp sleeve has been correctly pressed or has not been correctly pressed or has not been pressed.

Eine derartige beispielhafte Auswertung kann für eine Vielzahl parallel verarbeiteter und bildlich erfasster Endkonfigurationen E erfolgen.Such an exemplary evaluation can be carried out for a large number of final configurations E that are processed in parallel and captured in images.

Figur 5 zeigt eine zweite beispielhafte Endkonfiguration E eines Kabelteilstücks. Diese Endkonfiguration E zeigt ein Kabel K, ermittelt als erster interessierender Bereich 401, und ein Verbindungsrohr V, ermittelt als zweiter interessierender Bereich 402. Die ermittelten interessierenden Bereiche 401 und 402 sind jeweils wieder mittels eines Rahmens R1 bzw. R2 kenntlich gemacht. Die entsprechenden Angaben A1 bzw. A2, wie bspw. zu Figur 4 erläutert, sind im zugehörigen Rahmen R1 bzw. R2 angeordnet. Figure 5 shows a second exemplary final configuration E of a cable section. This final configuration E shows a cable K, determined as the first area of interest 401, and a connecting pipe V, determined as the second area of interest 402. The determined areas of interest 401 and 402 are again identified by means of a frame R1 or R2. The corresponding information A1 or A2, such as for Figure 4 explained, are arranged in the corresponding frame R1 and R2.

Mittels der Auswerteeinrichtung kann aus dem die Endkonfiguration E erfassenden Bild ermittelt werden, dass es sich um einen ersten interessierenden Bereich 401 handelt, welches als Kabel klassifiziert ist, und um einen zweiten interessierenden Bereich 402, bei dem es sich um ein Verbindungsrohr handelt. Durch Berücksichtigung der Relativlage des ersten und zweiten interessierenden Bereichs 401 und 402 für die Klassifikation kann ermittelt werden, ob einerseits das Verbindungsrohr fehlerfrei zum Kabel angeordnet ist und ob ferner der Nullschnitt für das Kabel korrekt durchgeführt wurde.Using the evaluation device, it can be determined from the image capturing the final configuration E that there is a first region of interest 401, which is classified as a cable, and a second region of interest 402, which is a connecting pipe. By taking into account the relative position of the first and second regions of interest 401 and 402 for the classification, it can be determined whether the connecting pipe is correctly positioned in relation to the cable and whether the zero cut for the cable was carried out correctly.

Figur 6 zeigt eine dritte beispielhafte Endkonfiguration E eines Kabelteilstücks. Figur 6 zeigt zwei Kabel K und zwei an den abisolierten Kabelenden AK, jeweils auch als Kontakt-Pin bezeichnet, angeordnete Innenkontakt-Crimps IC. Die bildlich erfasste Endkonfiguration E wird wieder der Auswerteeinrichtung zugeführt. Figure 6 shows a third exemplary final configuration E of a cable section. Figure 6 shows two cables K and two internal contact crimps IC arranged on the stripped cable ends AK, each also referred to as a contact pin. The final configuration E captured in the image is fed back to the evaluation device.

Es werden vier interessierende Bereiche 401 bis 404 mittels der Auswerteeinrichtung ermittelt. Dabei entsprechen der erste und dritte interessierende Bereich 401 bzw. 403 jeweils dem Kabelteilstück vor den abisolierten Teilen AK des Kabels bzw. der Kontakt-Pins. Der zweite und der vierte interessierende Bereich 402 bzw. 403 entsprechen jeweils einem Innenkontakt-Crimp IC. Jeder Innenkontakt-Crimp IC wird mit einem seiner Abschnitte jeweils über einen Kontakt-Pin geführt und gecrimpt.Four areas of interest 401 to 404 are determined by means of the evaluation device. The first and third areas of interest 401 and 403 correspond to the cable section in front of the stripped parts AK of the cable or the contact pins. The second and fourth areas of interest 402 and 403 correspond to an internal contact crimp IC. Each internal contact crimp IC is guided with one of its sections over a contact pin and crimped.

Mittels der Auswerteeinrichtung kann aus dem die Endkonfiguration E erfassenden Bild ermittelt werden, dass es sich um einen ersten und dritten interessierenden Bereich 401, 403 handelt, welches dem an den Kontakt-Pin AK angrenzendes Kabelteilstück K klassifiziert ist, und um einen zweiten und vierten interessierenden Bereich 402 bzw. 404, bei dem es sich jeweils um eine Innenkontakt-Crimp IC handelt. Diese sind wieder über entsprechende Rahmen R1 bis R4 kenntlich gemacht. Auf die Angaben in den Rahmen wurde aus Gründen der Übersichtlichkeit für Figur 6 verzichtet.Using the evaluation device, it can be determined from the image capturing the final configuration E that there is a first and third area of interest 401, 403, which is classified as the cable section K adjacent to the contact pin AK, and a second and fourth area of interest 402 and 404, respectively, which is an internal contact crimp IC. These are again identified by corresponding frames R1 to R4. For reasons of clarity, the information in the frames has been omitted for Figure 6 waived.

Durch Berücksichtigung der Relativlage des ersten und des zweiten interessierenden Bereichs 401 und 402 bzw. der Relativlage des dritten und des vierten interessierenden Bereichs 403 und 404 für die Klassifikation kann ermittelt werden, ob der Innenkontakt-Crimp jeweils fehlerfrei auf den Pin AK gecrimpt wurde. Insbesondere kann aus dem Abstand des ersten und des zweiten interessierenden Bereichs 401 und 402 bestimmt werden, ob die Position des Innenkontakt-Crimps zum Pin fehlerfrei ist. Entsprechend für den dritten und vierten interessierenden Bereich 403 und 404.By taking into account the relative position of the first and second regions of interest 401 and 402 or the relative position of the third and fourth regions of interest 403 and 404 for the classification, it can be determined whether the inner contact crimp was crimped onto the pin AK without errors. In particular, it can be determined from the distance of the first and second regions of interest 401 and 402 whether the position of the inner contact crimp to the pin is error-free. The same applies to the third and fourth regions of interest 403 and 404.

Figur 7 zeigt eine vierte beispielhafte Endkonfiguration E. Diese umfasst zwei Kabel K, welche jeweils mit einem Stecker S bestückt sind. Diese Kabel K sollen mittels einer Kabelhaltevorrichtung H, vorliegend auch als Separator bezeichnet, bestückt werden. Figure 7 shows a fourth exemplary final configuration E. This comprises two cables K, each of which is equipped with a connector S. These cables K are to be equipped by means of a cable holding device H, here also referred to as a separator.

Die bildliche Erfassung dieser Endkonfiguration E erfolgt wieder mit einer entsprechend hergerichteten Auswerteeinrichtung. In einem ersten Schritt erfolgt zunächst wieder die Ermittlung des interessierenden Bereichs 401, welche hier der Halteeinrichtung H entspricht. Mittels der anschließenden Klassifikation des ermittelten interessierenden Bereichs 401 kann ermittelt werden, ob die Halteeinrichtung H fehlerfrei an den Kabelteilstücken K befestigt ist.The image capture of this final configuration E is again carried out using an appropriately prepared evaluation device. In a first step, the region of interest 401 is determined again, which here corresponds to the holding device H. By means of the subsequent classification of the determined region of interest 401, it can be determined whether the holding device H is attached to the cable sections K without errors.

Es versteht sich, dass die vorgenannten Beispiele für die Anwendung des entsprechend ausgebildeten neuronalen Netzes nicht abschließend sind, und eine Vielzahl weiterer Anwendungsfälle für die Kabelverarbeitung dem Fachmann geläufig sind. Insbesondere kann eine Ausführungsform der Erfindung auch angewendet werden für die Überprüfung der Kennzeichnung von Kabeln, insbesondere Laserkennzeichnungen auf dem Kabelmantel, für das korrekte Anbringen von Etiketten und Labels am Kabel, insbesondere im Hinblick auf die Übereinstimmung mit der Laserkennzeichnung, das Anbringen von Tüllen und deren Haltern, Anbringen von Kupplungen für Sensorleitungen, der Anordnung von Schutzkappen auf Steckern, von Ferulen auf optischen Leiterendstücken, Anordnung eines Silikonisolierschlauchs auf dem Kabel, Anbringung von Außenleitern, etc.It is understood that the above examples of the application of the correspondingly designed neural network are not exhaustive, and a large number of other applications for cable processing are familiar to the person skilled in the art. In particular, an embodiment of the invention can also be used for checking the marking of Cables, in particular laser markings on the cable sheath, for the correct attachment of labels and tags to the cable, in particular with regard to compliance with the laser marking, the attachment of grommets and their holders, the attachment of couplings for sensor cables, the arrangement of protective caps on plugs, of ferrules on optical conductor end pieces, the arrangement of a silicone insulating tube on the cable, the attachment of outer conductors, etc.

Figur 7 zeigt einen schematischen Verfahrensablauf als Flussdiagramm für eine Ausführungsform des Verfahrens zum Betreiben einer Kabelverarbeitungsvorrichtung. Figure 7 shows a schematic process sequence as a flow chart for an embodiment of the method for operating a cable processing device.

In einem Verfahrensschritt S1 erfolgt eine Verarbeitung mindestens eines Kabelteilstücks, vorzugsweise einer Vielzahl in Kabelteilstücken, jeweils von einer Anfangskonfiguration in eine Endkonfiguration. Es kann sich um einen beliebigen Bearbeitungsschritt handeln. Im Hinblick auf die nachfolgende bildliche Erfassung der wenigstens einen Endkonfiguration sollte der Bearbeitungsschritt aber das optische Erscheinungsbild des Kabelendstücks beeinflussen, da eine folgende Auswertung bildbasiert erfolgt.In a method step S1, at least one cable section, preferably a plurality of cable sections, is processed from an initial configuration to a final configuration. This can be any processing step. With regard to the subsequent image capture of the at least one final configuration, the processing step should, however, influence the optical appearance of the cable end piece, since subsequent evaluation is carried out on an image basis.

In einem Verfahrensschritt S2 wird mittels einer Bildaufnahmeeinrichtung die im Aufnahmebereich angeordnete wenigstens eine Endkonfiguration, vorzugsweise die Vielzahl an Endkonfigurationen, erfasst und das Bild einer Auswerteeinrichtung zur Auswertung der auf dem Bild erfassten Endkonfiguration zugeführt. Im nachfolgenden wird davon ausgegangen - ohne Beschränkung der Anwendbarkeit für das Prozessieren nur einer einzelnen Endkonfiguration -, dass eine Vielzahl von Endkonfigurationen erfasst wird. Die Bilderfassung kann von der Auswerteeinrichtung oder einer Steuereinrichtung veranlasst sein.In a method step S2, the at least one final configuration arranged in the recording area, preferably the plurality of final configurations, is recorded by means of an image recording device and the image is fed to an evaluation device for evaluating the final configuration recorded in the image. In the following, it is assumed - without limiting the applicability for processing only a single final configuration - that a plurality of final configurations are recorded. The image recording can be initiated by the evaluation device or a control device.

In einem Verfahrensschritt S3 erfolgt eine Prüfung mittels des neuronalen Netzes, ob alle abgebildeten Endkonfigurationen vollständig bildlich erfasst sind oder ob Endkonfigurationen auf dem Bild abgebildet sind, die unvollständig erfasst worden sind. Sind Endkonfigurationen unvollständig erfasst, erfolgt eine Ausgabe eines Fehlersignals, ggf. erst mit Vorliegen der Klassifikation für die vollständig erfassten Endkonfigurationen, aus dem eine unvollständige Bilderfassung ersichtlich wird. Es kann dann der Grund für die nicht vollständige Erfassung beseitigt werden.In a process step S3, the neural network is used to check whether all of the final configurations shown have been fully captured in the image or whether the image shows final configurations that have been captured incompletely. If final configurations are captured incompletely, an error signal is output, possibly only when the classification for the fully captured final configurations is available, from which incomplete image capture becomes apparent. The reason for the incomplete capture can then be eliminated.

Für die vollständig erfassten Endkonfigurationen erfolgt in einem nächsten Verfahrensschritt S4 mittels des neuronalen Netzes eine Bestimmung einer Vielzahl an interessierender Bereiche aus dem Bild, wobei auch jede Endkonfiguration eine Mehrzahl an interessierenden Bereichen aufweisen kann. Das neuronale Netz ist entsprechend ausgebildet, die gewünschte Vielzahl an interessierenden Bereichen zu bestimmen.For the fully recorded final configurations, a next step S4 uses the neural network to determine a plurality of regions of interest from the image, whereby each final configuration also contains a plurality of regions of interest. The neural network is trained to determine the desired number of areas of interest.

In einem nächsten Verfahrensschritt S5 erfolgt eine Klassifikation für die ermittelten interessierenden Bereiche hinsichtlich des Vorliegens eines Fehlerbilds und es wird ein der Klassifikation entsprechendes Ergebnis ermittelt.In a next method step S5, the determined areas of interest are classified with regard to the presence of a defect pattern and a result corresponding to the classification is determined.

In einem nächsten Verfahrensschritt S6 wird ein Steuersignal erzeugt und ausgegeben, welches abhängig vom wenigstens einen ermittelten interessierenden Bereich und/oder abhängig von dem ermittelten Ergebnis der Klassifikation der wenigstens einen Endkonfiguration ist. Vorzugsweise erfolgt die Ausgabe des Steuersignals an eine Steuereinrichtung.In a next method step S6, a control signal is generated and output which is dependent on the at least one determined region of interest and/or dependent on the determined result of the classification of the at least one final configuration. The control signal is preferably output to a control device.

In einem Verfahrensschritt S 7 erfolgt eine grafische Ausgabe der von der Auswerteeinrichtung ermittelten Informationen aus dem erfassten Bild auf Grundlage des Steuersignals. Es wird die Vielzahl an ermittelten interessierenden Bereichen und ein zugehöriges Klassifikationsergebnis auf einem Monitor ausgeben.In a method step S 7, the information determined by the evaluation device from the captured image is graphically output on the basis of the control signal. The large number of determined regions of interest and an associated classification result are output on a monitor.

Ferner prüft die Steuereinrichtung in einem Verfahrensschritt S8, ob eine Beeinflussung der Kabelverarbeitungseinheit, einer Kabelvorverarbeitungseinheit oder eine Kabelfolgeverarbeitungseinheit, oder eine Aussonderung eines Kabels aus der Fertigung auf Grundlage des Steuersignals zweckmäßig ist.Furthermore, in a method step S8, the control device checks whether influencing the cable processing unit, a cable pre-processing unit or a cable subsequent processing unit, or separating a cable from production on the basis of the control signal is appropriate.

Soweit erforderlich erfolgt in einem Verfahrensschritt S9 ein Steuereingriff für eine entsprechende Stellgröße der Fertigung, die zur Vermeidung eines Fehlerbilds für eine Endkonfiguration beiträgt, das Fehlerbild für eine bestimmte Endkonfiguration korrigiert oder eine Aussonderung eines Kabels oder Kabelteilstücks aus der Fertigung veranlasst.If necessary, a control intervention for a corresponding manipulated variable of the production takes place in a process step S9, which helps to avoid an error pattern for a final configuration, corrects the error pattern for a specific final configuration or causes a cable or cable section to be separated from production.

Da es sich bei der vorhergehend detailliert beschriebenen Vorrichtungen und Verfahren um Ausführungsbeispiele handelt, können sie in üblicher Weise vom Fachmann in einem weiten Umfang modifiziert werden, ohne den Bereich der Erfindung zu verlassen. Insbesondere sind die mechanischen Anordnungen und die Größenverhältnisse der einzelnen Elemente zueinander lediglich beispielhaft.Since the devices and methods described in detail above are exemplary embodiments, they can be modified to a large extent by those skilled in the art in the usual way without departing from the scope of the invention. In particular, the mechanical arrangements and the size relationships of the individual elements to one another are merely exemplary.

BEZUGSZEICHENLISTELIST OF REFERENCE SYMBOLS

100100
KabelverarbeitungsvorrichtungCable processing device
200200
KabelverarbeitungseinheitCable processing unit
201201
KabelfolgeverarbeitungseinheitCable processing unit
202202
KabelvorverarbeitungseinheitCable pre-processing unit
210210
KabelaufnahmeCable holder
300300
BildaufnahmeeinrichtungImage capture device
401401
interessierender Bereich, ersterarea of interest, first
402402
interessierender Bereich, zweiterarea of interest, second
403403
interessierender Bereich, dritterarea of interest, third
404404
interessierender Bereich, vierterarea of interest, fourth
500500
AuswerteeinrichtungEvaluation device
600600
Maschinenlesbarer ProgrammcodeMachine-readable program code
700700
SteuereinrichtungControl device
710710
KabelfertigungssteuerungCable production control
800800
BildausgabeeinrichtungImage output device
K, K1, K2, K3, KnK, K1, K2, K3, Kn
KabelteilstückeCable sections
E, E1, E2, E3, EnE, E1, E2, E3, En
EndkonfigurationenFinal configurations
CC
CrimphülseCrimp sleeve
ICIC
Innenkontakt-CrimpInternal contact crimp
SS
SteckerPlug
MM
MantelCoat
HH
KabelhalteeinrichtungCable holding device
R1, R2, R3, R4R1, R2, R3, R4
Rahmen, welche einen ermittelten interessierenden Bereich umgebenFrames surrounding a determined region of interest
A1, A2, A3, A4A1, A2, A3, A4
Angaben zur KlassifikationClassification information
S1S1
Gleichzeitige Verarbeitung einer Vielzahl von Kabelteilstücken jeweils von einer Anfangskonfiguration in eine Endkonfiguration mittels einer Kabelverarbeitungseinheit.Simultaneous processing of a plurality of cable sections from an initial configuration to a final configuration by means of a cable processing unit.
S2S2
Erfassung der im Aufnahmebereich angeordneten Vielzahl an EndkonfigurationenCapturing the multitude of final configurations arranged in the recording area
S3S3
Prüfung auf vollständige Erfassung von EndkonfigurationenCheck for complete capture of final configurations
S4S4
Ermittlung einer Vielzahl interessierender BereicheIdentification of a variety of areas of interest
S5S5
Durchführen der Klassifikation für die ermittelten interessierenden BereichePerforming the classification for the identified areas of interest
S6S6
Erzeugen und Ausgeben eines Steuersignals auf Grundlage der ermittelten interessierenden Bereiche und deren KlassifikationGenerating and outputting a control signal based on the identified areas of interest and their classification
S7S7
Grafische Ausgabe der Resultate der AuswerteeinrichtungGraphical output of the results of the evaluation device
S8S8
Prüfung auf Stellgrößeneingriff für Kabelverarbeitungseinheit, Kabelvorverarbeitungseinheit, Kabelfolgeverarbeitungseinheit und AussonderungTesting for control variable intervention for cable processing unit, cable pre-processing unit, cable subsequent processing unit and rejection
S9S9
Durchführen der aus der Prüfung bestimmten MaßnahmeImplementation of the measure determined from the examination

Claims (15)

Verfahren zum Betreiben einer Kabelverarbeitungsvorrichtung (100), umfassend die Verfahrensschritte: - Verarbeiten (S1) wenigstens eines Kabelteilstücks (K, K1, K2, K3, Kn)), insbesondere eines Kabelendes, mittels einer Kabelverarbeitungseinheit (200) von einer Anfangskonfiguration zu einer Endkonfiguration (E, E1, E2, E3, En), - Erfassen (S2) wenigstens eines Bilds der wenigstens einen Endkonfiguration (E1, E2, E3, En) mittels einer Bildaufnahmeeinrichtung (300), - Anwenden (S4, S5) eines trainierten neuronalen Netzes auf das wenigstens eine erfasste Bild, wobei das trainierte neuronale Netz dazu ausgebildet ist, in einem ersten Schritt wenigstens einen interessierenden Bereich (401, 402, 403, 404) der wenigstens einen Endkonfiguration (E, E1, E2, E3, En) aus dem wenigstens einen erfassten Bild zu ermitteln (S4) und in einem zweiten Schritt eine Klassifikation des wenigstens einen ermittelten interessierenden Bereichs (401, 402, 403, 404) hinsichtlich des Vorliegens wenigstens eines angelernten Fehlerbilds der wenigstens einen Endkonfiguration (E, E1, E2, E3, En) durchzuführen und ein der Klassifikation zugeordnetes Ergebnis (A1, A2, A3, A4) zu ermitteln (S5), - Erzeugen und Ausgeben (S6) eines Steuersignals abhängig vom wenigstens einen ermittelten interessierenden Bereich (401, 402, 403, 404) und/oder abhängig von dem ermittelten Ergebnis (A1, A2, A3, A4) der Klassifikation der wenigstens einen Endkonfiguration (E, E1, E2, E3, En). Method for operating a cable processing device (100), comprising the method steps: - processing (S1) at least one cable section (K, K1, K2, K3, Kn)), in particular a cable end, by means of a cable processing unit (200) from an initial configuration to a final configuration (E, E1, E2, E3, En), - capturing (S2) at least one image of the at least one final configuration (E1, E2, E3, En) by means of an image recording device (300), - applying (S4, S5) a trained neural network to the at least one captured image, wherein the trained neural network is designed to determine (S4) at least one region of interest (401, 402, 403, 404) of the at least one final configuration (E, E1, E2, E3, En) from the at least one captured image in a first step and to carry out a classification of the at least one determined region of interest (401, 402, 403, 404) with regard to the presence of at least one learned error image of the at least one final configuration (E, E1, E2, E3, En) in a second step and to determine (S5) a result (A1, A2, A3, A4) associated with the classification, - generating and outputting (S6) a control signal depending on the at least one determined region of interest (401, 402, 403, 404) and/or depending on the determined result (A1, A2, A3, A4) of the classification of the at least one final configuration (E, E1, E2, E3, En). Verfahren nach dem vorhergehenden Anspruch,
wobei mittels der Bilderfassungseinrichtung (300) ein Bild erfasst wird, welches zwei bis 100 Endkonfigurationen zeigt, wobei das trainierte neuronale Netz dazu ausgebildet ist, jeweils wenigstens einen interessierenden Bereich (401, 402, 403, 404) für die zwei bis 100 Endkonfigurationen (E, E1, E2, E3, En), insbesondere für jede der zwei bis 100 Endkonfigurationen (E, E1, E2, E3, En), zu ermitteln (S4) und ein der Klassifikation der interessierenden Bereiche (401, 402, 403, 404) zugeordnetes Ergebnis (A1, A2, A3, A4) zu ermitteln (S5) und das trainierte neuronale Netz auf das erfasste Bild angewendet wird (S4, S5), wobei ein Steuersignal für die zwei bis 100 erfassten Endkonfigurationen (E, E1, E2, E3, En), insbesondere für jede der zwei bis 100 erfassten Endkonfigurationen (E, E1, E2, E3, En), auf Grundlage des ermittelten wenigstens einen interessierenden Bereichs (401, 402, 403, 404) und/oder des der Klassifikation zugeordneten Ergebnisses (A1, A2, A3, A4) für die jeweilige Endkonfiguration (E, E1, E2, E3, En) erzeugt und ausgegeben wird (S6).
Method according to the preceding claim,
wherein an image is captured by means of the image capture device (300) which shows two to 100 final configurations, wherein the trained neural network is designed to determine (S4) at least one region of interest (401, 402, 403, 404) for the two to 100 final configurations (E, E1, E2, E3, En), in particular for each of the two to 100 final configurations (E, E1, E2, E3, En), and to determine (S5) a result (A1, A2, A3, A4) associated with the classification of the regions of interest (401, 402, 403, 404), and the trained neural network is applied to the captured image (S4, S5), wherein a control signal for the two to 100 captured final configurations (E, E1, E2, E3, En), in particular for each of the two to 100 captured final configurations (E, E1, E2, E3, En), based on the determined at least one region of interest (401, 402, 403, 404) and/or the result (A1, A2, A3, A4) associated with the classification for the respective final configuration (E, E1, E2, E3, En) and output (S6).
Verfahren nach einem der vorhergehenden Ansprüche,
wobei das trainierte neuronale Netz dazu ausgebildet ist, für wenigstens eine Endkonfiguration (E, E1, E2, E3, En) wenigstens einen ersten interessierenden Bereich (401, 402, 403, 404) und für dieselbe Endkonfiguration (E, E1, E2, E3, En) wenigstens einen zweiten, vom ersten interessierenden Bereich räumlich abweichenden interessierenden Bereich (401, 402, 403, 404) aus dem wenigstens einen erfassten Bild zu ermitteln und das neuronale Netz ferner dazu ausgebildet ist, für die Klassifikation zusätzlich einen Relativparameter, insbesondere eine Relativlage, des wenigstens ersten interessierenden Bereichs (401, 402, 403, 404) und des zweiten interessierenden Bereichs (401, 402, 403, 404) zu berücksichtigen und ein der Klassifikation zugeordnetes Ergebnis (A1, A2, A3, A4) zu ermitteln und wobei das trainierte neuronale Netz auf das wenigstens eine Bild angewendet wird (S4, S5), wobei ein Steuersignal für die wenigstens eine Endkonfiguration (E, E1, E2, E3, En) anhand des Ergebnisses (A1, A2, A3, A4) der die Relativlage berücksichtigenden Klassifikation erzeugt und ausgegeben (S6) wird.
Method according to one of the preceding claims,
wherein the trained neural network is designed to determine at least one first region of interest (401, 402, 403, 404) for at least one final configuration (E, E1, E2, E3, En) and at least one second region of interest (401, 402, 403, 404) that is spatially different from the first region of interest from the at least one captured image, and the neural network is further designed to additionally take into account a relative parameter, in particular a relative position, of the at least first region of interest (401, 402, 403, 404) and the second region of interest (401, 402, 403, 404) for the classification and to determine a result (A1, A2, A3, A4) associated with the classification, and wherein the trained neural network is applied to the at least one image (S4, S5), wherein a control signal for the at least one final configuration (E, E1, E2, E3, En) is generated and output (S6) based on the result (A1, A2, A3, A4) of the classification taking the relative position into account.
Verfahren nach einem der vorhergehenden Ansprüche,
wobei die Erfassung (S3) des Bildes der wenigstens einen Endkonfiguration (E, E1, E2, E3, En) mittels einer digitalen Bildaufnahmeeinrichtung (300) erfolgt, wobei der wenigstens eine interessierende Bereich (401, 402, 403, 404) durch mindestens 20 Pixel, vorzugsweise mehr als 50 Pixel, wiedergegeben wird.
Method according to one of the preceding claims,
wherein the capture (S3) of the image of the at least one final configuration (E, E1, E2, E3, En) is carried out by means of a digital image recording device (300), wherein the at least one region of interest (401, 402, 403, 404) is represented by at least 20 pixels, preferably more than 50 pixels.
Verfahren nach einem der vorhergehenden Ansprüche,
wobei das trainierte neuronale Netz dazu ausgebildet ist, die vollständige bildliche Erfassung einer Endkonfiguration (E, E1, E2, E3, En) zu ermitteln (S3), wobei das trainierte neuronale Netz auf das erfasste Bild angewendet wird (S3), wobei im Falle der ermittelten unvollständigen Erfassung wenigstens einer Endkonfiguration (E, E1, E2, E3, En) ein Steuersignal erzeugt und ausgegeben wird, welches die Mitteilung eines Bilderfassungsfehlers veranlasst.
Method according to one of the preceding claims,
wherein the trained neural network is designed to determine (S3) the complete image capture of a final configuration (E, E1, E2, E3, En), wherein the trained neural network is applied to the captured image (S3), wherein in the case of the determined incomplete capture of at least one final configuration (E, E1, E2, E3, En) a control signal is generated and output which causes the notification of an image capture error.
Verfahren nach einem der vorhergehenden Ansprüche,
wobei mittels des Steuersignals eine grafische Anzeige des wenigstens einen ermittelten interessierenden Bereichs (401, 402, 403, 404) in einem die wenigstens eine Endkonfiguration (E, E1, E2, E3, En) zeigenden Bild, insbesondere dem Bild, auf welches das trainierte neuronale Netz angewendet wurde, insbesondere als farbliche Umrandung (R1, R2, R3, R4) des wenigstens einen ermittelten interessierenden Bereichs(401, 402, 403, 404), auf einer Bildausgabeeinrichtung (800) veranlasst wird.
Method according to one of the preceding claims,
wherein by means of the control signal a graphic display of the at least one determined region of interest (401, 402, 403, 404) is generated in an image showing the at least one final configuration (E, E1, E2, E3, En), in particular the image to which the trained neural network was applied, in particular as a colored border (R1, R2, R3, R4) of the at least one determined region of interest (401, 402, 403, 404) on an image output device (800).
Verfahren nach einem der vorhergehenden Ansprüche,
wobei mittels des Steuersignals eine grafische Anzeige des Ergebnisses (A1, A2, A3, A4) der Klassifikation für die wenigstens eine Endkonfiguration (E, E1, E2, E3, En) in einem die wenigstens eine Endkonfiguration (E, E1, E2, E3, En) zeigenden Bild, insbesondere dem der Klassifikation zugrunde gelegten Bild, auf einer Bildausgabeeinrichtung (800) veranlasst wird.
Method according to one of the preceding claims,
wherein the control signal is used to cause a graphic display of the result (A1, A2, A3, A4) of the classification for the at least one final configuration (E, E1, E2, E3, En) in an image showing the at least one final configuration (E, E1, E2, E3, En), in particular the image on which the classification is based, on an image output device (800).
Verfahren nach Anspruch 7,
wobei mittels der grafischen Anzeige ein dem Ergebnis (A1, A2, A3, A4) der der Klassifikation zugeordnetes Fehlerbild in Form einer Fehlerbildbezeichnung (A1, A2, A3, A4) wiedergegeben wird.
Method according to claim 7,
whereby an error pattern assigned to the result (A1, A2, A3, A4) of the classification is reproduced in the form of an error pattern designation (A1, A2, A3, A4) by means of the graphic display.
Verfahren nach Anspruch 8,
wobei mittels der grafischen Anzeige eine Wahrscheinlichkeit (A1, A2, A3, A4) für das ermittelte Fehlerbild wiedergegeben wird.
Method according to claim 8,
whereby a probability (A1, A2, A3, A4) for the determined error pattern is shown by means of the graphic display.
Verfahren nach einem der vorhergehenden Ansprüche,
wobei mittels des Steuersignals der Betrieb der Kabelverarbeitungseinheit (200) derart beeinflusst wird (S9), dass die Endkonfiguration (E, E1, E2, E3, En) eines zeitlich nachfolgend zu verarbeitenden Kabelteilstücks (K) mittels der Kabelverarbeitungseinheit (200) einer gewünschten Endkonfiguration (E, E1, E2, E3, En) angenähert wird.
Method according to one of the preceding claims,
wherein the operation of the cable processing unit (200) is influenced (S9) by means of the control signal in such a way that the final configuration (E, E1, E2, E3, En) of a cable section (K) to be processed subsequently is approximated to a desired final configuration (E, E1, E2, E3, En) by means of the cable processing unit (200).
Verfahren nach einem der vorhergehenden Ansprüche,
wobei mittels des Steuersignals eine Kabelfolgeverarbeitung einer der Kabelverarbeitungseinheit (200) prozesstechnisch nachgelagerten Kabelfolgeverarbeitungseinheit (201) wenigstens einer klassifizierten Endkonfiguration (E, E1, E2, E3, En) abhängig von dem Ergebnis (A1, A2, A3, A4) der Klassifikation dieser Endkonfiguration (E, E1, E2, E3, En) beeinflusst wird.
Method according to one of the preceding claims,
wherein by means of the control signal, a cable sequence processing of a cable sequence processing unit (201) downstream of the cable processing unit (200) of at least one classified final configuration (E, E1, E2, E3, En) is influenced depending on the result (A1, A2, A3, A4) of the classification of this final configuration (E, E1, E2, E3, En).
Verfahren nach einem der vorhergehenden Ansprüche,
wobei mittels des Steuersignals eine Aussonderung eines Kabelteilstücks (K) mit einer fehlerbildbehafteten Endkonfiguration (E, E1, E2, E3, En) aus einem noch zu durchlaufenden Fertigungsprozess veranlasst wird, wobei eine Aussonderung dann erfolgt, wenn das Ergebnis (A1, A2, A3, A4) der Klassifikation für diese Endkonfiguration einem vorgegebenen Fehlerbild mit einer oberhalb eines vorgegebenen Wahrscheinlichkeitsschwellwerts entspricht und nicht mittels einer Kabelfolgeverarbeitungseinheit (202) korrigierbar ist.
Method according to one of the preceding claims,
wherein the control signal is used to cause a cable section (K) with a faulty final configuration (E, E1, E2, E3, En) to be rejected from a production process that is still to be completed, wherein rejection occurs when the result (A1, A2, A3, A4) of the classification for this final configuration does not match a predetermined Error pattern with a probability above a predetermined threshold value and cannot be corrected by means of a cable sequence processing unit (202).
Kabelverarbeitungsvorrichtung (100) aufweisend: - wenigstens eine Kabelverarbeitungseinheit (200), welche dazu ausgebildet ist, wenigstens ein Kabelteilstück (K), insbesondere ein Kabelende, aufzunehmen und derart zu verarbeiten, dass das wenigstens eine Kabelteilstück (K) von einer Anfangskonfiguration in eine Endkonfiguration (E, E1, E2, E3, En) überführt wird, - eine Bildaufnahmeeinrichtung (300), angeordnet und ausgebildet zur Aufnahme zumindest eines Bilds der wenigstens einen Endkonfiguration (E, E1, E2, E3, En), - eine Auswerteeinrichtung (500) und eine Steuereinrichtung (700) zur Steuerung und/oder Regelung der Kabelverarbeitungsvorrichtung (100), wobei die Auswerteeinheit (500) mit der Bildaufnahmeeinrichtung (300) und der Steuereinrichtung (700) wirkverbunden ist, und wobei in die Auswerteeinrichtung (500) und/oder in die Steuereinrichtung (700) maschinenlesbarer Programmcode (600) ladbar ist, welcher bei dessen Ausführung die Durchführung des Verfahrens nach einem der vorhergehenden Ansprüche veranlasst. Cable processing device (100) comprising: - at least one cable processing unit (200) which is designed to receive at least one cable section (K), in particular a cable end, and to process it in such a way that the at least one cable section (K) is transferred from an initial configuration to a final configuration (E, E1, E2, E3, En), - an image recording device (300) arranged and designed to record at least one image of the at least one final configuration (E, E1, E2, E3, En), - an evaluation device (500) and a control device (700) for controlling and/or regulating the cable processing device (100), wherein the evaluation unit (500) is operatively connected to the image recording device (300) and the control device (700), and wherein machine-readable program code (600) can be loaded into the evaluation device (500) and/or into the control device (700), which, when executed, causes the method according to one of the preceding claims to be carried out. Maschinenlesbarer Programmcode für eine Auswerteeinrichtung und/oder Steuereinrichtung, welcher Steuerbefehle umfasst, welche bei deren Ausführung mittels der Auswerteeinrichtung und/oder der Steuereinheit die Durchführung des Verfahrens nach einem der vorhergehenden Verfahrensansprüche veranlasst.Machine-readable program code for an evaluation device and/or control device, which comprises control commands which, when executed by the evaluation device and/or the control unit, cause the method according to one of the preceding method claims to be carried out. Steuer- und/oder Auswerteeinrichtung mit maschinenlesbarem Programmcode, welcher Steuerbefehle umfasst, welche bei deren Ausführung mittels der Auswerteeinrichtung und/oder Steuereinrichtung die Durchführung des Verfahrens nach einem der vorhergehenden Verfahrensansprüche veranlasst.Control and/or evaluation device with machine-readable program code which comprises control commands which, when executed by means of the evaluation device and/or control device, cause the method according to one of the preceding method claims to be carried out.
EP23161530.3A 2023-03-13 2023-03-13 Method for operating a cable processing device, cable processing device, evaluation and/or control device for a cable processing device and machine-readable program code Active EP4432137B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP23161530.3A EP4432137B1 (en) 2023-03-13 2023-03-13 Method for operating a cable processing device, cable processing device, evaluation and/or control device for a cable processing device and machine-readable program code
US18/583,658 US20240310796A1 (en) 2023-03-13 2024-02-21 Method for operating a cable processing device, cable processing device, evaluation and/or control device for a cable processing device and machine-readable program code
CN202410249258.9A CN118645856A (en) 2023-03-13 2024-03-05 Method for operating a cable processing device, evaluation/control device and machine-readable code
MX2024002884A MX2024002884A (en) 2023-03-13 2024-03-06 METHOD OF OPERATING A CABLE PROCESSING DEVICE, CABLE PROCESSING DEVICE, EVALUATION AND/OR CONTROL DEVICE FOR A CABLE PROCESSING DEVICE, AND MACHINE-READABLE PROGRAM CODE.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP23161530.3A EP4432137B1 (en) 2023-03-13 2023-03-13 Method for operating a cable processing device, cable processing device, evaluation and/or control device for a cable processing device and machine-readable program code

Publications (2)

Publication Number Publication Date
EP4432137A1 true EP4432137A1 (en) 2024-09-18
EP4432137B1 EP4432137B1 (en) 2025-02-19

Family

ID=85601749

Family Applications (1)

Application Number Title Priority Date Filing Date
EP23161530.3A Active EP4432137B1 (en) 2023-03-13 2023-03-13 Method for operating a cable processing device, cable processing device, evaluation and/or control device for a cable processing device and machine-readable program code

Country Status (4)

Country Link
US (1) US20240310796A1 (en)
EP (1) EP4432137B1 (en)
CN (1) CN118645856A (en)
MX (1) MX2024002884A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210049754A1 (en) * 2019-08-18 2021-02-18 Crimping & Stamping Technologies, Inc. Image-based control of wire harness and connector manufacturing processes using artificial intelligence
EP3855359A1 (en) 2020-01-23 2021-07-28 Schleuniger AG Cable processing station, cable machine with cable processing stations and computer implemented method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210049754A1 (en) * 2019-08-18 2021-02-18 Crimping & Stamping Technologies, Inc. Image-based control of wire harness and connector manufacturing processes using artificial intelligence
EP3855359A1 (en) 2020-01-23 2021-07-28 Schleuniger AG Cable processing station, cable machine with cable processing stations and computer implemented method

Also Published As

Publication number Publication date
US20240310796A1 (en) 2024-09-19
MX2024002884A (en) 2024-09-16
CN118645856A (en) 2024-09-13
EP4432137B1 (en) 2025-02-19

Similar Documents

Publication Publication Date Title
DE2909153C2 (en) Device for the digital analysis of image or drawing patterns
DE69207689T2 (en) Method for testing an electrical wire in the stripped state
WO2021148981A1 (en) Cable processing station, cable machine with cable processing stations, and computer-implemented method
EP1625936A2 (en) Method for qualitative evaluation of a material with at least one identification characteristic
WO2020125851A1 (en) Method for the robot-aided wiring of electrical components of an electrical switchgear arranged on a mounting plate
DE3336470A1 (en) METHOD AND ARRANGEMENT FOR COMPARING IMAGES
DE102017210787A1 (en) Method and apparatus for detecting anomalies in a communication network
EP4432137B1 (en) Method for operating a cable processing device, cable processing device, evaluation and/or control device for a cable processing device and machine-readable program code
DE102017219067A1 (en) DEVICE AND METHOD FOR THE VISUAL SUPPORT OF A USER IN A WORKING ENVIRONMENT
EP4152206A1 (en) Cable processing device and method
DE102020215415A1 (en) Method and device for detecting a sturgeon plant image in a camera raw image and image processing device
EP4085794B1 (en) Process for preparing and conducting quality testing of brushes, in particular toothbrushes, testing device and brush manufacturing machine
EP3185688B1 (en) Apparatus and method for assessing compliance with animal welfare on an animal for slaughter
WO2023025570A1 (en) Method and device for monitoring the state of a component
DE102021209993A1 (en) Method for determining the quality of a laser beam welded joint
WO2020260216A1 (en) Method, device and system for manufacturing an electric cable
DE102019120938B4 (en) Print inspection device and method for optically inspecting a printed image of a printed object
DE102018119232A1 (en) Konfektionierverfahren
DE102021117716A1 (en) Method, computer-readable storage medium, apparatus and system for selecting a photograph
DE102016118981B4 (en) Method and device for equipping connector housings with assembled cable ends of a cable
DE102021130505A1 (en) Method for determining an illumination color, image processing device and recording system
DE102008033171A1 (en) Method and device for inline quality assurance on printing machines
DE102022124744A1 (en) Iteratively reconstructing an input image
DE102023127028A1 (en) COMPUTER-CONTROLLED PROCESSING USING A NEURAL NETWORK-BASED SELECTION OF THE OPTIMAL PROCESS ALGORITHM
EP4141805A1 (en) Method for the generation, automated annotation and provision of training image data

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20230831

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC ME MK MT NL NO PL PT RO RS SE SI SK SM TR

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: GRANT OF PATENT IS INTENDED

INTG Intention to grant announced

Effective date: 20240926

GRAJ Information related to disapproval of communication of intention to grant by the applicant or resumption of examination proceedings by the epo deleted

Free format text: ORIGINAL CODE: EPIDOSDIGR1

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

INTC Intention to grant announced (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: GRANT OF PATENT IS INTENDED

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE PATENT HAS BEEN GRANTED

INTG Intention to grant announced

Effective date: 20241219

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC ME MK MT NL NO PL PT RO RS SE SI SK SM TR