CN113642593B - 影像处理方法与影像处理系统 - Google Patents
影像处理方法与影像处理系统 Download PDFInfo
- Publication number
- CN113642593B CN113642593B CN202010343996.1A CN202010343996A CN113642593B CN 113642593 B CN113642593 B CN 113642593B CN 202010343996 A CN202010343996 A CN 202010343996A CN 113642593 B CN113642593 B CN 113642593B
- Authority
- CN
- China
- Prior art keywords
- image data
- image
- training
- feature vector
- extraction model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
一种影像处理方法与影像处理系统,其中影像处理方法包括步骤:通过影像数据处理装置基于特征抽取模型分析多个影像数据,以产生对应上述影像数据的特征向量集合,其中影像数据包含与特征向量集合中的至少一第一特征相关的第一影像数据以及与特征向量集合中的至少一第二特征相关的第二影像数据;通过影像数据处理装置基于特征抽取模型从第一影像数据与第二影像数据中分别选取对应的第一训练图块组以及第二训练图块组,并对第一训练图块组以及第二训练图块组进行运算,以产生对应的至少一损失函数值;以及根据至少一损失函数值调整特征抽取模型。一种影像处理系统亦在此公开。
Description
技术领域
本公开内容涉及一种影像处理方法与影像处理系统,特别涉及一种基于深度学习抗光线干扰匹配的一种影像处理方法与影像处理系统。
背景技术
特征匹配(Feature Match)被泛用在许多电脑视觉如图像检索、相机定位等领域当中,影像的特征必须对尺度、方向、视角以及光线保持不变性与唯一性。
然而,在环境场景相似度比对的领域当中,现有特征匹配系统或方法并无针对光线差异与场景视野变化进行优化,导致匹配结果不如预期。
发明内容
本公开文件提供一种影像处理方法,其包括步骤:通过影像数据处理装置基于特征抽取模型分析多个影像数据,以产生对应上述影像数据的特征向量集合,其中影像数据包含与特征向量集合中的至少一第一特征相关的多个第一影像数据以及与特征向量集合中的至少一第二特征相关的多个第二影像数据;通过影像数据处理装置基于特征抽取模型从第一影像数据与第二影像数据中分别选取对应的第一训练图块组以及第二训练图块组,并对第一训练图块组以及第二训练图块组进行运算,以产生对应的至少一损失函数值;以及根据至少一损失函数值调整特征抽取模型,使得当影像数据处理装置基于经调整的特征抽取模型分析影像数据时,第一影像数据与第二影像数据匹配的程度增加。
本公开文件提供一种影像处理系统,其包括影像获取装置以及影像数据处理装置。影像获取装置,用以获取多个影像数据;以及影像数据处理装置,耦接影像获取装置,并用以基于特征抽取模型对影像数据中的多个第一影像数据与多个第二影像数据进行比对操作,且依据比对操作的结果输出影像定位结果;其中第一影像数据与至少一第一特征相关,第二影像数据与至少一第二特征相关,特征抽取模型是根据对第一影像数据及第二影像数据进行运算所产生的至少一损失函数值进行调整。
通过上述影像处理方法与影像处理系统,能够改善户外场景光线变化大时的特征匹配系统的准确度。
附图说明
图1为根据一些实施例所示出的影像处理系统的示意图。
图2为根据一些实施例所示出的运行影像处理系统的流程图。
图3为根据一些实施例所示出的影像数据的分类示意图。
图4A与图4B为根据一些实施例所绘制样本筛选机制的示意图。
图5为根据一些实施例所示出的分群共享参数步骤流程图。
附图标记说明:
110:影像获取装置
120:影像数据处理装置
130:特征抽取模型
140:指令库
200:影像处理方法
S210、S220、S230、S240、S250、S260、S270:步骤
300:影像数据
310:第一影像数据
320:第二影像数据
400:样本筛选机制
L1~L4:欧式距离
500:分群共享参数步骤
具体实施方式
下文是举实施例配合说明书附图作详细说明,但所描述的具体实施例仅仅用以解释本发明,并不用来限定本发明,而结构操作的描述非用以限制其执行的顺序,任何由元件重新组合的结构,所产生具有均等技术效果的装置,皆为本发明公开内容所涵盖的范围。
在全篇说明书与相关申请文件所使用的用词(terms),除有特别注明外,通常具有每个用词使用在此领域中、在此公开的内容中与特殊内容中的平常意义。某些用以描述本公开的用词将于下或在此说明书的别处讨论,以提供本领域技术人员在有关本公开的描述上额外的引导。
图1为根据一些实施例所示出的影像处理系统100的示意图。如图1所示,影像处理系统100包括影像获取装置110以及影像数据处理装置120。影像数据处理装置120与影像获取装置110耦接。影像处理系统100用以获取如后述图3中的多个影像数据300,例如各种不同的照片或是图案,并将其串流至影像数据处理装置120。
在一些实施例中,影像获取装置110可通过智能手机的摄像镜头、相机摄像镜头或是具有截图功能的程序软件实现。
在一些实施例中,影像数据处理装置120可通过诸如笔记本电脑、台式电脑等电脑系统实现。
在一些实施例中,影像数据处理装置120包含特征抽取模型130和指令库140,其中特征抽取模型130是预先配置于影像数据处理装置120中,且其架构是建立在IF-Net(Illumination Neural Network)的深度学习网络架构。
又在一些实施例中,特征抽取模型130是通过IF-Net基于深度学习的卷积神经网络(Convolutional Neural Network,CNN)来训练特征抽取模型130产生的特征描述器(descriptor),并通过其学习训练以找出适应性高的特征描述器。在一些实施例中,上述适应性高的特征描述器可以用来解决户外场景光线差异变化大的情况下的特征匹配误差。
在一些实施例中,指令库140存储有运算指令,通过影像数据处理装置120中的处理器(未示出)存取并执行。
图2为根据一些实施例所示出的影像处理系统100的运行流程图。如图2所示,影像处理系统100的运行流程包含步骤S210、步骤S220、步骤S230、步骤S240、步骤S250、步骤S260以及步骤S270。为了方便清楚说明,图2所示的影像处理方法200是参照图1来做说明,但不以其为限。
于步骤S210,影像获取装置110获取当前环境影像作为影像数据300(如图3所示)输入至影像数据处理装置120。接着,于步骤S220,影像数据处理装置120载入特征抽取模型130,并于步骤S230载入一环境场景模型。
于步骤S240,分别从环境场景模型与影像数据300中抽取环境特征,并于步骤S250中通过影像数据处理装置120对影像数据300进行环境特征相似度的比对操作。接着于步骤S260,影像数据处理装置120依据步骤S250中的比对结果进行空间定位,并于步骤S270中根据上述空间定位输出影像定位结果。
在一些实施例中,于步骤S240,影像数据处理装置120基于特征抽取模型130分析多个影像数据300,以产生对应影像数据300的特征向量集合。影像数据300包含后述图3中与上述特征向量集合中的至少一第一特征向量相关的多个第一影像数据310,以及与上述特征向量集合中的至少一第二特征向量相关的多个第二影像数据320。以下将参照图3举例说明。
图3为根据一些实施例所示出的影像数据300的分类示意图。第一影像数据310包含在不同观测距离或是观测角度下的影像数据,第二影像数据320包含在不同亮度或是光线下观测的影像数据,其中在较暗的光线下观测或是亮度较暗的的影像数据在图3的图示中以斜线涂满表示。换言之,在一些实施例中,上述至少一第一特征向量涉及影像观测角度以及影像观测距离中至少一者,上述至少一第二特征向量涉及影像亮度、影像伽玛值以及影像对比度中至少一者。
承上所述,由于在环境特征相似度比对的领域当中,现有技术中的特征抽取模型130对于光线差异与场景视野变化的干扰抵抗较差,导致匹配结果不如预期。因此,本公开文件提供一种影像处理方法来调整特征抽取模型130,以借此提高匹配结果。
在一些实施例中,上述影像处理方法包含通过影像数据处理装置120基于特征抽取模型130从第一影像数据310与第二影像数据320中分别选取对应的一第一训练图块组以及一第二训练图块组。以下将参照图4举例说明。
图4A与图4B为根据一些实施例所绘制样本筛选机制400的示意图。参照图4A,在一些实施例中,影像数据处理装置120是根据样本筛选机制400自第一影像数据310与第二影像数据320中选取第一训练图块组以及第二训练图块组。
在一些实施例中,第一影像数据310与第二影像数据320中分别具有基础图块(anchor)、多个同类图块(positive)与多个异类图块(negative)。同类图块与基础图块间有较高的匹配值,因此,同类图块与基础图块间具有较短的欧式距离(欧氏距离)。与同类图块相反,异类图块与基础图块间有较低的匹配值。因此,异类图块与基础图块间具有较长的欧式距离。
又在一些实施例中,如图4B所示,上述欧式距离是代表基于测量特征抽取模型130所产生的特征描述器所输出的图块间的距离。举例来说,同类图块的特征向量集合与基础图块的特征向量集合在特征描述器的空间上具有较短的欧式距离L1,而异类图块的特征向量集合与基础图块的特征向量集合间具有较长的欧式距离L2。
承上所述,在不同实施例中,测量经训练后的特征抽取模型130产生的特征描述器所输出图块间的距离将会变动。举例来说,同类图块的特征向量集合与基础图块的特征向量集合在特征描述器的空间上,将具有小于欧式距离L1的欧式距离L3,而异类图块的特征向量集合与基础图块的特征向量集合间将具有大于欧式距离L2的欧式距离L4。换言之,影像数据处理装置120基于经训练后的特征抽取模型130所抽取的特征将具有比原来更高的匹配程度。
因此,在一些实施例中,影像数据处理装置120选取第一训练图块组的步骤包含从第一影像数据310的多个同类图块中,选取与第一影像数据310的基础图块匹配的程度最低的至少一同类图块作为第一训练图块组,以及从第一影像数据310的多个异类图块中,选取与第一影像数据310的基础图块匹配的程度最高的至少一异类图块作为第一训练图块组。换言之,第一训练图块组包含与第一影像数据310中基础图块的欧式距离最长的同类图块,以及与第一影像数据310中基础图块的欧式距离最短的异类图块。
在另一些实施例中,影像数据处理装置120选取第二训练图块组的步骤包含从第二影像数据320的多个同类图块中,选取与第二影像数据320的基础图块匹配的程度最低的至少一同类图块作为第二训练图块组,以及从第二影像数据320的多个异类图块中,选取与第二影像数据320的基础图块匹配的程度最高的至少一异类图块作为第二训练图块组。换言之,第二训练图块组包含与第二影像数据320中基础图块的欧式距离最长的同类图块,以及与第二影像数据320中基础图块的欧式距离最短的异类图块。
通过上述实施例中所描述的步骤,可以有效最大化基础图块与异类图块间的欧式距离,以及缩短基础图块与同类图块间的欧式距离,以让特征抽取模型130产生更具有代表性的特征描述器。
在一些实施例中,影像数据处理装置120执行指令库140中的运算指令对第一训练图块组以及第二训练图块组进行运算,以产生对应的至少一损失函数值。上述进行运算的步骤包含通过离群损失函数对第一训练图块组以及第二训练图块组进行运算,以产生至少一损失函数值。其中,离群损失函数如以下公式:
L为损失函数值;n为图块总数目;wp与wn为权重值;dM(ai,pi)代表基础图块与同类图块的欧式距离,而dm(ai,ni)则代表基础图块与异类图块的欧式距离。
权重值wp为同一批次(batch)影像数据300的同类图块与基础图块间的欧式距离的平均,权重值wn为同一批次的异类图块与基础图块间的欧式距离的平均。如以下公式:
承上所述,若同一批次进行运算的数据群中参杂有噪声(noise),而上述噪声相对于训练数据来说为离群值,将会对训练效能产生造成影响。因此,在一些实施例中,上述损失函数值可以降低在训练IF-Net深度网络时的噪声影响,以在训练过程中更有效的达到让特征抽取模型130收敛的效果。
在一些实施例中,影像处理方法包含根据上述至少一损失函数值调整特征抽取模型130,使得当影像数据处理装置120基于经调整的特征抽取模型130分析影像数据300时,第一影像数据310与第二影像数据320匹配的程度增加。
又在一些实施例中,调整特征抽取模型130的步骤还包含将第一影像数据310与第二影像数据320输入至共享深度神经网络模型参数(shared-weight)的特征抽取模型130,以分别产生对应的不同损失函数值,以及将对应第一影像数据与第二影像数据的不同损失函数值存储并更新特征抽取模型130中的至少一网络参数。以下将参照图5举例说明。
图5为根据一些实施例所示出的分群共享参数步骤500流程图。如图5所示,在一些实施例中,影像数据处理装置120基于特征抽取模型130存取指令库140中的运算指令对第一影像数据310进行运算,以产生第一损失函数值,且对第二影像数据320进行运算,以产生第二损失函数值。影像数据处理装置120将第一损失函数值与第二损失函数值存储并更新特征抽取模型130中的网络参数。
在一些实施例中,上述分别将第一影像数据310与第二影像数据320输入至共享深度神经网络模型参数(shared-weight)的IF-Net,并一次性的更新网络参数的方法,可更有效的让特征抽取模型130具备处理不同类型数据的能力。
在一些实施例中,影像数据处理装置120基于经调整的特征抽取模型130来进行以下操作中的至少一者,如对第一影像数据310与第二影像数据320进行如上述步骤S250的比对操作、依据如上述的比对操作结果进行如步骤S270的空间定位操作以及依据空间定位操作的结果输出的影像定位结果。
承上所述,影像数据处理装置120基于经调整的特征抽取模型130于步骤S250中,将提高影像数据300的匹配程度,且于步骤S270中的影像定位结果也将更为准确。如下方表(一)为根据本公开文件中的实施例所产生的匹配程度数据比较表。
表(一)
在光线或是场景变化大的情况下,依照特征抽取模型130从影像数据300中抽取到的特征数量比例判断正确率,可明显由表(一)中看出本公开文件提出的影像处理方法与系统能够提升匹配的准确率。
虽然本公开内容已以实施方式公开如上,然其并非用以限定本公开内容,任何本领域具通常知识者,在不脱离本公开内容的构思和范围内,当可作各种的变动与润饰,因此本公开内容的保护范围当视权利要求所界定者为准。
Claims (9)
1.一种影像处理方法,包括步骤:
通过一影像数据处理装置基于一特征抽取模型分析多个影像数据,以产生对应所述多个影像数据的一特征向量集合,其中所述多个影像数据包含与该特征向量集合中的至少一第一特征向量相关的多个第一影像数据以及与该特征向量集合中的至少一第二特征向量相关的多个第二影像数据;
通过该影像数据处理装置基于该特征抽取模型从所述多个第一影像数据与所述多个第二影像数据中分别选取对应的一第一训练图块组以及一第二训练图块组,并对该第一训练图块组以及该第二训练图块组进行运算,以产生对应的至少一损失函数值;以及
根据该至少一损失函数值调整该特征抽取模型,
其中选取该第一训练图块组的步骤包含:
从所述多个第一影像数据的多个同类图块中,选取与所述多个第一影像数据的一基础图块匹配的程度最低的至少一同类图块作为该第一训练图块组;以及
从所述多个第一影像数据的多个异类图块中,选取与所述多个第一影像数据的该基础图块匹配的程度最高的至少一异类图块作为该第一训练图块组。
2.如权利要求1所述的影像处理方法,其中当该影像数据处理装置基于经调整的该特征抽取模型分析所述多个影像数据时,所述多个第一影像数据与所述多个第二影像数据匹配的程度增加。
3.如权利要求1所述的影像处理方法,还包含:
通过该影像数据处理装置基于经调整的该特征抽取模型进行以下操作中的至少一者:
对所述多个第一影像数据与所述多个第二影像数据进行一比对操作;
依据该比对操作的结果进行一空间定位操作;以及
依据该空间定位操作的结果输出一影像定位结果。
4.如权利要求1所述的影像处理方法,其中该至少一第一特征向量涉及影像观测角度以及影像观测距离中至少一者,该至少一第二特征向量涉及影像亮度、影像伽玛值以及影像对比度中至少一者。
5.如权利要求1所述的影像处理方法,其中选取该第二训练图块组的步骤包含:
从所述多个第二影像数据的多个同类图块中,选取与所述多个第二影像数据的一基础图块匹配的程度最低的至少一同类图块作为该第二训练图块组;以及
从所述多个第二影像数据的多个异类图块中,选取与所述多个第二影像数据的该基础图块匹配的程度最高的至少一异类图块作为该第二训练图块组。
6.如权利要求1所述的影像处理方法,其中对该第一训练图块组以及该第二训练图块组进行运算的步骤包含:
通过一离群损失函数对该第一训练图块组以及该第二训练图块组进行运算,以产生对应的该至少一损失函数值。
7.如权利要求1所述的影像处理方法,其中调整该特征抽取模型的步骤还包含:
将该第一影像数据与该第二影像数据输入至共享深度神经网络模型参数的该特征抽取模型,以分别产生对应的不同损失函数值;以及
将对应该第一影像数据与该第二影像数据的不同损失函数值存储并更新该特征抽取模型中的至少一网络参数。
8.一种影像处理系统,包括:
一影像获取装置,用以获取多个影像数据;以及
一影像数据处理装置,耦接该影像获取装置,该影像数据处理装置基于一特征抽取模型分析所述多个影像数据,以产生对应所述多个影像数据的一特征向量集合;其中
所述多个影像数据包含与该特征向量集合中的至少一第一特征向量相关的多个第一影像数据以及与该特征向量集合中的至少一第二特征向量相关的多个第二影像数据;
该影像数据处理装置基于该特征抽取模型从所述多个第一影像数据与所述多个第二影像数据中分别选取对应的一第一训练图块组以及一第二训练图块组,并对该第一训练图块组以及该第二训练图块组进行运算,以产生对应的至少一损失函数值;
该特征抽取模型是根据对所述多个第一影像数据及所述多个第二影像数据进行运算所产生的该至少一损失函数值而进行调整,
其中选取该第一训练图块组的步骤包含:
从所述多个第一影像数据的多个同类图块中,选取与所述多个第一影像数据的一基础图块匹配的程度最低的至少一同类图块作为该第一训练图块组;以及
从所述多个第一影像数据的多个异类图块中,选取与所述多个第一影像数据的该基础图块匹配的程度最高的至少一异类图块作为该第一训练图块组。
9.如权利要求8所述的影像处理系统,其中该第一特征向量涉及影像观测角度以及影像观测距离中至少一者,该至少一第二特征向量涉及影像亮度、影像伽玛值以及影像对比度中至少一者。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010343996.1A CN113642593B (zh) | 2020-04-27 | 2020-04-27 | 影像处理方法与影像处理系统 |
JP2021071358A JP7203889B2 (ja) | 2020-04-27 | 2021-04-20 | 画像処理方法と画像処理システム |
US17/238,138 US11715283B2 (en) | 2020-04-27 | 2021-04-22 | Image processing method and image processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010343996.1A CN113642593B (zh) | 2020-04-27 | 2020-04-27 | 影像处理方法与影像处理系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113642593A CN113642593A (zh) | 2021-11-12 |
CN113642593B true CN113642593B (zh) | 2024-03-01 |
Family
ID=78222382
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010343996.1A Active CN113642593B (zh) | 2020-04-27 | 2020-04-27 | 影像处理方法与影像处理系统 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11715283B2 (zh) |
JP (1) | JP7203889B2 (zh) |
CN (1) | CN113642593B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113642593B (zh) * | 2020-04-27 | 2024-03-01 | 台达电子工业股份有限公司 | 影像处理方法与影像处理系统 |
US12169518B2 (en) * | 2021-04-16 | 2024-12-17 | Georgetown University | Document retrieval using intra-image relationships |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107133579A (zh) * | 2017-04-20 | 2017-09-05 | 江南大学 | 基于CSGF(2D)2PCANet卷积网络的人脸识别方法 |
CN107423306A (zh) * | 2016-05-24 | 2017-12-01 | 华为技术有限公司 | 一种图像检索方法及装置 |
CN108537752A (zh) * | 2018-03-30 | 2018-09-14 | 广东工业大学 | 基于非局部自相似性与稀疏表示的图像处理方法及装置 |
US10289938B1 (en) * | 2017-05-16 | 2019-05-14 | State Farm Mutual Automobile Insurance Company | Systems and methods regarding image distification and prediction models |
US10607331B1 (en) * | 2019-06-28 | 2020-03-31 | Corning Incorporated | Image segmentation into overlapping tiles |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10181091B2 (en) | 2014-06-20 | 2019-01-15 | Google Llc | Fine-grained image similarity |
CN106295678B (zh) * | 2016-07-27 | 2020-03-06 | 北京旷视科技有限公司 | 神经网络训练与构建方法和装置以及目标检测方法和装置 |
EP3336774B1 (en) * | 2016-12-13 | 2020-11-25 | Axis AB | Method, computer program product and device for training a neural network |
US11417082B2 (en) | 2017-06-16 | 2022-08-16 | Markable, Inc. | Image processing system |
US10515295B2 (en) * | 2017-10-27 | 2019-12-24 | Adobe Inc. | Font recognition using triplet loss neural network training |
US10671888B1 (en) | 2017-12-14 | 2020-06-02 | Perceive Corporation | Using batches of training items for training a network |
US12248877B2 (en) | 2018-05-23 | 2025-03-11 | Movidius Ltd. | Hybrid neural network pruning |
CN109190446A (zh) | 2018-07-06 | 2019-01-11 | 西北工业大学 | 基于三元组聚焦损失函数的行人再识别方法 |
CN118609067A (zh) | 2018-09-20 | 2024-09-06 | 辉达公司 | 训练神经网络以用于车辆重新识别 |
US10848791B1 (en) * | 2018-10-30 | 2020-11-24 | Amazon Technologies, Inc. | Determining portions of video content based on artificial intelligence model |
CN109558806B (zh) | 2018-11-07 | 2021-09-14 | 北京科技大学 | 高分遥感图像变化的检测方法 |
US11126895B2 (en) * | 2019-05-22 | 2021-09-21 | Lawrence Livermore National Security, Llc | Mimicking of corruption in images |
CN110647865B (zh) | 2019-09-30 | 2023-08-08 | 腾讯科技(深圳)有限公司 | 人脸姿态的识别方法、装置、设备及存储介质 |
KR20210048315A (ko) * | 2019-10-23 | 2021-05-03 | 삼성에스디에스 주식회사 | 통합 특징 벡터 생성 방법 및 장치 |
CN113642593B (zh) * | 2020-04-27 | 2024-03-01 | 台达电子工业股份有限公司 | 影像处理方法与影像处理系统 |
US20220129708A1 (en) * | 2020-10-22 | 2022-04-28 | Applied Materials Israel Ltd. | Segmenting an image using a neural network |
-
2020
- 2020-04-27 CN CN202010343996.1A patent/CN113642593B/zh active Active
-
2021
- 2021-04-20 JP JP2021071358A patent/JP7203889B2/ja active Active
- 2021-04-22 US US17/238,138 patent/US11715283B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107423306A (zh) * | 2016-05-24 | 2017-12-01 | 华为技术有限公司 | 一种图像检索方法及装置 |
CN107133579A (zh) * | 2017-04-20 | 2017-09-05 | 江南大学 | 基于CSGF(2D)2PCANet卷积网络的人脸识别方法 |
US10289938B1 (en) * | 2017-05-16 | 2019-05-14 | State Farm Mutual Automobile Insurance Company | Systems and methods regarding image distification and prediction models |
CN108537752A (zh) * | 2018-03-30 | 2018-09-14 | 广东工业大学 | 基于非局部自相似性与稀疏表示的图像处理方法及装置 |
US10607331B1 (en) * | 2019-06-28 | 2020-03-31 | Corning Incorporated | Image segmentation into overlapping tiles |
Non-Patent Citations (1)
Title |
---|
一种基于输入向量机的高光谱影像分类算法;魏祥坡 等;测绘科学技术学报;第32卷(第04期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
JP2021174550A (ja) | 2021-11-01 |
US11715283B2 (en) | 2023-08-01 |
CN113642593A (zh) | 2021-11-12 |
US20210334583A1 (en) | 2021-10-28 |
JP7203889B2 (ja) | 2023-01-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020253127A1 (zh) | 脸部特征提取模型训练方法、脸部特征提取方法、装置、设备及存储介质 | |
WO2021012484A1 (zh) | 基于深度学习的目标跟踪方法、装置及计算机可读存储介质 | |
US20200356818A1 (en) | Logo detection | |
WO2017166933A1 (zh) | 一种基于核机器学习的非负矩阵分解人脸识别方法及系统 | |
CN109871821B (zh) | 自适应网络的行人重识别方法、装置、设备及存储介质 | |
CN109033955B (zh) | 一种人脸跟踪方法和系统 | |
CN113642593B (zh) | 影像处理方法与影像处理系统 | |
CN111401456B (zh) | 人脸姿态识别模型的训练方法及其系统和装置 | |
CN109711228A (zh) | 一种实现图像识别的图像处理方法及装置、电子设备 | |
US10528844B2 (en) | Method and apparatus for distance measurement | |
CN112836692B (zh) | 用于处理图像的方法、装置、设备和介质 | |
CN113343989B (zh) | 一种基于前景选择域自适应的目标检测方法及系统 | |
JP2013097467A (ja) | 画像処理装置及びその制御方法 | |
KR102178444B1 (ko) | 미세 조직 분석 장치 | |
CN112236800B (zh) | 学习设备、图像生成设备及其对应的方法和计算机可读存储介质 | |
CN111382791A (zh) | 深度学习任务处理方法、图像识别任务处理方法和装置 | |
CN111222558A (zh) | 图像处理方法及存储介质 | |
CN110929644A (zh) | 基于启发式算法的多模型融合人脸识别方法、装置、计算机系统与可读介质 | |
CN107193979B (zh) | 一种同源图片检索的方法 | |
CN106920212A (zh) | 一种发送风格化视频的方法及电子设备 | |
US20210124974A1 (en) | Method, apparatus, and device for processing image and storage medium | |
TWI752478B (zh) | 影像處理方法與影像處理系統 | |
US9189693B2 (en) | Information processing apparatus and information processing method | |
CN119234259A (zh) | 图像处理方法及装置 | |
CN116486151A (zh) | 图像分类模型训练方法、图像分类方法、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |