CN118366162B - 基于深度学习的图像分割方法及系统 - Google Patents
基于深度学习的图像分割方法及系统 Download PDFInfo
- Publication number
- CN118366162B CN118366162B CN202410794008.3A CN202410794008A CN118366162B CN 118366162 B CN118366162 B CN 118366162B CN 202410794008 A CN202410794008 A CN 202410794008A CN 118366162 B CN118366162 B CN 118366162B
- Authority
- CN
- China
- Prior art keywords
- image
- scenic
- segmentation
- area
- strategy
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003709 image segmentation Methods 0.000 title claims abstract description 41
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000013135 deep learning Methods 0.000 title claims abstract description 17
- 230000011218 segmentation Effects 0.000 claims abstract description 111
- 238000013136 deep learning model Methods 0.000 claims abstract description 27
- 238000012545 processing Methods 0.000 claims abstract description 14
- 238000012216 screening Methods 0.000 claims abstract description 12
- 238000012549 training Methods 0.000 claims description 45
- 239000012535 impurity Substances 0.000 claims description 28
- 238000004422 calculation algorithm Methods 0.000 claims description 21
- 238000012360 testing method Methods 0.000 claims description 19
- 238000004891 communication Methods 0.000 claims description 15
- 238000002372 labelling Methods 0.000 claims description 12
- 238000012795 verification Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000013095 identification testing Methods 0.000 claims description 6
- 238000012163 sequencing technique Methods 0.000 claims description 6
- 238000003064 k means clustering Methods 0.000 claims description 4
- 239000002131 composite material Substances 0.000 claims description 3
- 238000001514 detection method Methods 0.000 claims description 3
- 238000005192 partition Methods 0.000 claims description 3
- 230000008447 perception Effects 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims 1
- 230000008569 process Effects 0.000 abstract description 6
- 230000000007 visual effect Effects 0.000 abstract description 6
- 230000000694 effects Effects 0.000 abstract description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000005260 corrosion Methods 0.000 description 1
- 230000007797 corrosion Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 229910003460 diamond Inorganic materials 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/763—Non-hierarchical techniques, e.g. based on statistics of modelling distributions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/766—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/30—Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及图像处理技术领域,本发明公开了一种基于深度学习的图像分割方法及系统,包括:筛选出重复风景图像,并计算每幅风景图像的质量系数,根据质量系数剔除低质图像,得到第二图像集;对第j幅风景图像进行图像分割,获取包含多个分割区域的第j幅风景图像;将包含多个分割区域的第j幅风景图像输入至第一深度学习模型,获取主体分割区域和非主体分割区域;依据主体分割区域确定目标区域,并获取位置分布数据,将位置分布数据输入至第二深度学习模型,以确定最佳裁剪策略,根据最佳裁剪策略对目标区域进行剪裁,得到目标风景图像;重复上述过程,得到第三图像集;本发明能提升图像的视觉吸引力、展示效果和展示准确性。
Description
技术领域
本发明涉及图像处理技术领域,更具体地说,本发明涉及基于深度学习的图像分割方法及系统。
背景技术
随着旅游业的快速发展,旅游平台已成为人们获取旅游信息、规划旅游行程的重要工具;游客不仅希望通过文字了解景点信息,更希望通过高质量的图像直观地感受景点风景的魅力;然而,旅游平台上上传的风景图像数量庞大且来源多样,导致图像质量参差不齐;一些图像未被精准地分割出主要信息,使得用户难以获得良好的视觉体验,直接影响了用户体验和平台的竞争力;因此,如何保证上传图像的质量已成为旅游平台亟待解决的问题。
目前,现有旅游平台对上传的风景图像大多通过人工方式进行处理,然而此种方式不仅费时费力,图像处理效率低,还易造成分割准确性不高和图像质量不佳等问题;虽存在部分智能化的改进技术文献,例如授权公开号为CN111696112B的专利公开了一种图像自动裁剪方法、系统、电子设备及存储介质,此类方法通过自动剪裁处理提高了旅游平台图像展示的准确性;但对上述方法以及现有技术进行研究和实际应用发现,上述方法以及现有技术至少存在以下部分缺陷:
(1)图像处理效率较低,无法对上传至平台前的大量图像进行批量化的质量筛查,进一步地,无法识别并剔除存在不适当内容的图像(如低质量图像或重复图像);
(2)无法对筛选后保留的图像进行精准分割,难以将图像中的主要景点从背景中分离出来,使景点更加突出和清晰,进而无法大幅提升图像的视觉吸引力、展示效果和展示准确性,进一步地,难以增强旅游平台的用户体验和竞争力。
发明内容
为了克服现有技术的上述缺陷,本发明的实施例提供基于深度学习的图像分割方法及系统。
为实现上述目的,本发明提供如下技术方案:
一种基于深度学习的图像分割方法,所述方法包括:
S101:将待上传至平台展示页面的G幅风景图像构成第一图像集,利用感知哈希算法筛选出第一图像集中的重复风景图像,并计算每幅风景图像的质量系数,根据质量系数剔除低质的风景图像或重复风景图像,得到第二图像集,所述第二图像集中包含D幅风景图像,D、G为大于零的整数,D≤G;
S102:提取第二图像集中的第j幅风景图像,对第j幅风景图像进行图像分割,获取包含多个分割区域的第j幅风景图像,j为大于零的整数;
S103:将包含多个分割区域的第j幅风景图像输入至预构建的第一深度学习模型,获取第j幅风景图像中的P个主体分割区域和H个非主体分割区域,P、H为大于零的整数;
S104:依据主体分割区域确定目标区域,并获取H个非主体分割区域相对于目标区域的位置分布数据,将位置分布数据输入至预构建的第二深度学习模型,以确定最佳裁剪策略,根据最佳裁剪策略对第j幅风景图像中的目标区域进行剪裁,得到目标风景图像,并令j=j+1,并返回步骤S102;
S105:重复上述步骤S102~S104,直至j=D时,结束循环,得到第三图像集;所述第三图像集中包含多幅目标风景图像。
进一步地,所述筛选出第一图像集中的重复风景图像,包括:
对第一图像集中的G幅风景图像进行复制,得到G个风景图像副本;
利用感知哈希算法对G个风景图像副本进行哈希编码,得到W个哈希值,W为大于零的整数;
对G个哈希值进行两两分组比较,计算出每两个哈希值之间的汉明距离,将汉明距离与预设汉明距离阈值进行比对,若汉明距离大于预设汉明距离阈值,则判定两个哈希值对应的风景图像副本不相似;若汉明距离小于等于预设汉明距离阈值,则判定两个哈希值对应的风景图像副本相似;
将所有相似风景图像副本对应的风景图像标记为重复风景图像,并关联绑定每两幅重复风景图像。
进一步地,所述计算每幅风景图像的质量系数,包括:
a1:提取第一图像集中的第v幅风景图像,并提取第v幅风景图像的图像信息;所述图像信息包含每个像素点的水平梯度、垂直梯度、灰度值以及图像的平均灰度值;
a2:将图像数据输入预构建的数据计算模型中,得到第v幅风景图像的质量系数,并令v=v+1,并返回步骤a1;
其中,所述数据计算模型的表达式如下:
;
式中:为质量系数,为第i像素点的水平梯度,为第i像素点的垂直梯度,为第i像素点的灰度值,为第v幅风景图像的平均灰度值;
a3:重复上述步骤a1~a2,直至v=G时,结束循环,得到每幅风景图像的质量系数。
进一步地,所述剔除低质的风景图像或重复风景图像,包括:
b1:调取第一图像集中的第r幅风景图像,并获取第r幅风景图像的质量系数;
b2:将质量系数与预设质量系数阈值进行比较,若质量系数小于预设质量系数阈值,则将对应第r幅风景图像标记为低质的风景图像,并剔除,并令r=r+1,并返回步骤b1;若质量系数大于等于预设质量系数阈值,则继续判断对应第r幅风景图像是否为重复风景图像;若是,则调取与第r幅风景图像相关联绑定的重复风景图像;若否,则直接保留对应第r幅风景图像;
b3:将与第r幅风景图像相关联绑定的重复风景图像标记为关联风景图像,调取第r幅风景图像和关联风景图像的质量系数,并按数值从小到大,对第r幅风景图像和关联风景图像的质量系数进行排序,剔除排序第一质量系数对应的第r幅风景图像或关联风景图像,并令r=r+1,并返回步骤b1;
b4:重复上述步骤b1~b3,直至r=G时,结束循环,得到包含D幅风景图像的第二图像集。
进一步地,所述对第j幅风景图像进行图像分割,包括:
对第j幅风景图像进行灰度化处理,转为灰度图像;
利用K-means聚类算法对灰度图像进行像素点区分,将像素点聚类形成的区域作为分割区域,得到包含多个分割区域的第j幅风景图像。
进一步地,所述预构建的第一深度学习模型的生成逻辑如下:
获取历史分割区域数据,将历史分割区域数据划分为区域识别训练集和区域识别测试集;所述历史分割区域数据包括多幅包含多个分割区域的风景图像以及每个分割区域对应的标注标签;
其中,所述标注标签包括“0”和“1”,“0”代表分割区域为非主体分割区域,“1”代表分割区域为主体分割区域;
构建分类器,将区域识别训练集中包含多个分割区域的风景图像作为分类器的输入数据,以及将区域识别训练集中的标注标签作为分类器的输出数据,对分类器进行训练,得到初始分类网络;
利用区域识别测试集对初始分类网络进行模型验证,输出大于等于预设测试准确度的初始分类网络作为预构建的第一深度学习模型。
进一步地,所述依据主体分割区域确定目标区域,包括:
获取第j幅风景图像中的P个主体分割区域,对两两相邻的主体分割区域进行连通,得到C个主体连通区域;
获取所有主体连通区域的像素面积,按数值从大到小,对所有主体连通区域的像素面积进行排序,将排序第一的主体连通区域标记为目标区域。
进一步地,所述获取H个非主体分割区域相对于目标区域的位置分布数据,包括:
c1:获取第h个非主体分割区域的坐标集合,以及获取目标区域质心的坐标;所述坐标集合包括非主体分割区域中所有像素点的坐标;
c2:根据坐标集合目标和目标区域质心的坐标,计算出第h个非主体分割区域与目标区域的最短距离,并将最短距离和坐标集合,作为第h个非主体分割区域相对于目标区域的位置分布数据,并令h=h+1,并返回步骤c3;
c3:重复上述c1~c2,直至h=H时,结束循环,得到H个非主体分割区域相对于目标区域的位置分布数据。
进一步地,所述预构建的第二深度学习模型的生成逻辑如下:
获取历史裁剪策略训练数据,将历史裁剪策略训练数据划分为裁剪策略训练集和裁剪策略测试集;所述历史裁剪策略训练数据包括位置分布数据及其对应的最佳裁剪策略;其中,所述裁剪策略为呈轴对称的剪裁框;
其中,所述历史裁剪策略训练数据中最佳裁剪策略的获取逻辑如下:
d1:获取预先设计的裁剪策略集,并获取包含H个非主体分割区域和目标区域的风景图像,所述裁剪策略集中包含L个剪裁策略;
d2:提取裁剪策略集中的第f个剪裁策略,利用第f个剪裁策略对风景图像中的目标区域进行剪裁,得到剪裁图像;
d3:获取剪裁图像中包含非主体分割区域的像素面积,将剪裁图像中包含非主体分割区域的像素面积标记为杂质像素面积,将杂质像素面积与预设杂质像素面积阈值进行比较,若杂质像素面积小于等于预设杂质像素面积阈值,则将对应的第f个剪裁策略标记为最佳裁剪策略;若杂质像素面积大于预设杂质像素面积阈值,则令f=f+1,并返回步骤d2;
d4:重复上述d2~d3,直至得到最佳裁剪策略时,结束循环;
构建回归网络,将裁剪策略训练集中的位置分布数据作为回归网络的输入数据,以及将裁剪策略训练集中的最佳裁剪策略作为回归网络的输出数据,对回归网络进行训练,得到初始回归网络;
利用裁剪策略测试集对初始回归网络进行模型验证,输出小于等于预设测试误差的初始回归网络作为预构建的第二深度学习模型。
一种基于深度学习的图像分割系统,包括:
图像筛查模块,用于将待上传至平台展示页面的G幅风景图像构成第一图像集,利用感知哈希算法筛选出第一图像集中的重复风景图像,并计算每幅风景图像的质量系数,根据质量系数剔除低质的风景图像或重复风景图像,得到第二图像集,所述第二图像集中包含D幅风景图像,D、G为大于零的整数,D≤G;
图像分割模块,用于提取第二图像集中的第j幅风景图像,对第j幅风景图像进行图像分割,获取包含多个分割区域的第j幅风景图像,j为大于零的整数;
主体检测模块,用于将包含多个分割区域的第j幅风景图像输入至预构建的第一深度学习模型,获取第j幅风景图像中的P个主体分割区域和H个非主体分割区域,P、H为大于零的整数;
目标凸显模块,用于依据主体分割区域确定目标区域,并获取H个非主体分割区域相对于目标区域的位置分布数据,将位置分布数据输入至预构建的第二深度学习模型,以确定最佳裁剪策略,根据最佳裁剪策略对第j幅风景图像中的目标区域进行剪裁,得到目标风景图像,并令j=j+1,并触发图像分割模块;
循环处理模块,用于重复上述图像分割模块至目标凸显模块,直至j=D时,结束循环,得到第三图像集;所述第三图像集中包含多幅目标风景图像。
相比于现有技术,本发明的有益效果在于:
本申请公开了基于深度学习的图像分割方法及系统,包括:筛选出重复风景图像,并计算每幅风景图像的质量系数,根据质量系数剔除低质图像,得到第二图像集;对第j幅风景图像进行图像分割,获取包含多个分割区域的第j幅风景图像;将包含多个分割区域的第j幅风景图像输入至第一深度学习模型,获取主体分割区域和非主体分割区域;依据主体分割区域确定目标区域,并获取位置分布数据,将位置分布数据输入至第二深度学习模型,以确定最佳裁剪策略,根据最佳裁剪策略对目标区域进行剪裁,得到目标风景图像;重复上述过程,得到第三图像集;基于上述特征,本发明可对欲上传至平台展示页面的风景图像进行批量处理,剔除低质量和重复对象;与此同时,通过对保留的风景图像进行精准分割和裁剪处理,本发明能够将风景图像中的主要景点从背景中分离出来,使景点更加突出和清晰,进而有利于大幅提升风景图像的视觉吸引力、展示效果和展示准确性,进一步地,有利于增强旅游平台的用户体验和竞争力。
附图说明
图1为本发明提供的基于深度学习的图像分割方法的流程图;
图2为本发明提供的基于深度学习的图像分割系统的模块结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
请参阅图1所示,本实施例公开提供了基于深度学习的图像分割方法,所述方法包括:
S101:将待上传至平台展示页面的G幅风景图像构成第一图像集,利用感知哈希算法筛选出第一图像集中的重复风景图像,并计算每幅风景图像的质量系数,根据质量系数剔除低质的风景图像或重复风景图像,得到第二图像集,所述第二图像集中包含D幅风景图像,D、G为大于零的整数,D≤G;
需要说明的是:所述平台具体为旅游网站或旅游APP等;在该类平台上,存在多个展示页面,每个展示页面用来展示被上传的某一风景地点的风景图像;所述风景图像通过多源渠道获得,如:平台管理员手动上传、景区网站调取或游客拍摄上传等多种方式;
在实施中,所述筛选出第一图像集中的重复风景图像,包括:
对第一图像集中的G幅风景图像进行复制,得到G个风景图像副本;
利用感知哈希算法对G个风景图像副本进行哈希编码,得到W个哈希值,W为大于零的整数;
其中,所述感知哈希算法具体为差值哈希算法(dHash);
应当了解的是:差值哈希算法(dHash)通过比较相邻像素的亮度差异来生成哈希值,其具体过程为:首先进行图像预处理,将图像缩放到固定大小(如9x8),以确保生成的哈希值长度固定;然后进行灰度转换,将图像转换为灰度图;接着进行亮度差异计算,计算每行相邻像素的亮度差异,如果左边像素亮度大于右边像素,则记为1,否则记为0;最后生成哈希值:根据亮度差异生成一个64位的二进制哈希值;
对G个哈希值进行两两分组比较,计算出每两个哈希值之间的汉明距离,将汉明距离与预设汉明距离阈值进行比对,若汉明距离大于预设汉明距离阈值,则判定两个哈希值对应的风景图像副本不相似;若汉明距离小于等于预设汉明距离阈值,则判定两个哈希值对应的风景图像副本相似;
将所有相似风景图像副本对应的风景图像标记为重复风景图像,并关联绑定每两幅重复风景图像;
示例性地,假设存在3幅风景图像,分别为K1、K2和K3,在对K1、K2和K3进行复制后得到3个风景图像副本,分别为Z1、Z2和Z3;分别对Z1、Z2和Z3进行差值哈希算法处理,依照上述副本顺序得到3个64位的哈希值,分别为1010101010101010101010101010101010101010101010101010101010101010、1010101010101010101010101010101010101010101010101010101010101000和1010111010101010111010101011101011101010101010101010101010101000;将上述哈希值进行两两分组,得到U1、U2和U3,其中,U1包含Z1和Z2的哈希值,U2包含Z2和Z3的哈希值,U3包含Z1和Z3的哈希值;在对每组哈希值进行计算汉明距离发现,仅存在U1(即Z1和Z2之间)的汉明距离小于等于预设汉明距离阈值,因此则将Z1和Z2对应的K1和K2作为重复风景图像,并关联绑定K1和K2;
在实施中,所述计算每幅风景图像的质量系数,包括:
a1:提取第一图像集中的第v幅风景图像,并提取第v幅风景图像的图像信息;所述图像信息包含每个像素点的水平梯度、垂直梯度、灰度值以及图像的平均灰度值;
a2:将图像数据输入预构建的数据计算模型中,得到第v幅风景图像的质量系数,并令v=v+1,并返回步骤a1;
其中,所述数据计算模型的表达式如下:
;
式中:为质量系数,为第i像素点的水平梯度,为第i像素点的垂直梯度,为第i像素点的灰度值,为第v幅风景图像的平均灰度值;
其中,所述第i像素点的水平梯度和垂直梯度使用Sobel算子计算得到;
应当了解的是:梯度强度(Gradient Magnitude)是图像处理中用于表示图像在某个像素点处亮度变化率的一个量度;是通过计算图像在水平(x方向)和垂直(y方向)上的亮度变化来检测边缘和细节的重要工具,可用于衡量图像的清晰度;
a3:重复上述步骤a1~a2,直至v=G时,结束循环,得到每幅风景图像的质量系数;
在实施中,所述剔除低质的风景图像或重复风景图像,包括:
b1:调取第一图像集中的第r幅风景图像,并获取第r幅风景图像的质量系数;
b2:将质量系数与预设质量系数阈值进行比较,若质量系数小于预设质量系数阈值,则将对应第r幅风景图像标记为低质的风景图像,并剔除,并令r=r+1,并返回步骤b1;若质量系数大于等于预设质量系数阈值,则继续判断对应第r幅风景图像是否为重复风景图像;若是,则调取与第r幅风景图像相关联绑定的重复风景图像;若否,则直接保留对应第r幅风景图像;
b3:将与第r幅风景图像相关联绑定的重复风景图像标记为关联风景图像,调取第r幅风景图像和关联风景图像的质量系数,并按数值从小到大,对第r幅风景图像和关联风景图像的质量系数进行排序,剔除排序第一质量系数对应的第r幅风景图像或关联风景图像,并令r=r+1,并返回步骤b1;
b4:重复上述步骤b1~b3,直至r=G时,结束循环,得到包含D幅风景图像的第二图像集。
S102:提取第二图像集中的第j幅风景图像,对第j幅风景图像进行图像分割,获取包含多个分割区域的第j幅风景图像,j为大于零的整数;
在实施中,所述对第j幅风景图像进行图像分割,包括:
对第j幅风景图像进行灰度化处理,转为灰度图像;
利用K-means聚类算法对灰度图像进行像素点区分,将像素点聚类形成的区域作为分割区域,得到包含多个分割区域的第j幅风景图像;
应当了解的是:K均值聚类算法在图像处理中有广泛的应用,尤其在图像分类和分割任务中;它通过将图像像素聚类到不同的类中,实现对图像的有效分割。
S103:将包含多个分割区域的第j幅风景图像输入至预构建的第一深度学习模型,获取第j幅风景图像中的P个主体分割区域和H个非主体分割区域,P、H为大于零的整数;
在实施中,所述预构建的第一深度学习模型的生成逻辑如下:
获取历史分割区域数据,将历史分割区域数据划分为区域识别训练集和区域识别测试集;所述历史分割区域数据包括多幅包含多个分割区域的风景图像以及每个分割区域对应的标注标签;
其中,所述标注标签包括“0”和“1”,“0”代表分割区域为非主体分割区域,“1”代表分割区域为主体分割区域;
需要说明的是:所述分割区域的风景图像通过多源渠道获得,并通过图像分割算法进行分割后形成,详请参照上述介绍,在此不再重复赘述;所述非主体分割区域为非风景主体,包括但不限于行人和车等;所述主体分割区域为风景主体,如:山、水、树、名胜建筑、草地和天空等;
还需说明的是:所述标注标签由技术人员或AI数据标注专员事先对风景图像中的每个分割区域进行人为手动标注得到;
构建分类器,将区域识别训练集中包含多个分割区域的风景图像作为分类器的输入数据,以及将区域识别训练集中的标注标签作为分类器的输出数据,对分类器进行训练,得到初始分类网络;
利用区域识别测试集对初始分类网络进行模型验证,输出大于等于预设测试准确度的初始分类网络作为预构建的第一深度学习模型;
需要说明的是:所述分类器具体为卷积神经网络(CNN)或循环神经网络(RNN)等深度学习算法模型中的具体一种。
S104:依据主体分割区域确定目标区域,并获取H个非主体分割区域相对于目标区域的位置分布数据,将位置分布数据输入至预构建的第二深度学习模型,以确定最佳裁剪策略,根据最佳裁剪策略对第j幅风景图像中的目标区域进行剪裁,得到目标风景图像,并令j=j+1,并返回步骤S102;
在实施中,所述依据主体分割区域确定目标区域,包括:
获取第j幅风景图像中的P个主体分割区域,对两两相邻的主体分割区域进行连通,得到C个主体连通区域;
需要说明的是:对两两相邻的主体分割区域进行连通,可通过邻接矩阵法或形态学操作(包括但不限于腐蚀、膨胀、开运算和闭运算等)等方式实现;
获取所有主体连通区域的像素面积,按数值从大到小,对所有主体连通区域的像素面积进行排序,将排序第一的主体连通区域标记为目标区域;
在实施中,所述获取H个非主体分割区域相对于目标区域的位置分布数据,包括:
c1:获取第h个非主体分割区域的坐标集合,以及获取目标区域质心的坐标;所述坐标集合包括非主体分割区域中所有像素点的坐标;
c2:根据坐标集合目标和目标区域质心的坐标,计算出第h个非主体分割区域与目标区域的最短距离,并将最短距离和坐标集合,作为第h个非主体分割区域相对于目标区域的位置分布数据,并令h=h+1,并返回步骤c3;
c3:重复上述c1~c2,直至h=H时,结束循环,得到H个非主体分割区域相对于目标区域的位置分布数据;
在实施中,所述预构建的第二深度学习模型的生成逻辑如下:
获取历史裁剪策略训练数据,将历史裁剪策略训练数据划分为裁剪策略训练集和裁剪策略测试集;所述历史裁剪策略训练数据包括位置分布数据及其对应的最佳裁剪策略;
具体的,所述裁剪策略为呈轴对称的剪裁框,所述剪裁框的形状包括但不限于菱形、矩形、椭圆形和正圆形等;
需要说明的是:所述历史裁剪策略训练数据中的位置分布数据由技术人员事先收集得到,该位置分布数据的收集逻辑或过程详情参照上述描述,在此不再重复赘述;
其中,所述历史裁剪策略训练数据中最佳裁剪策略的获取逻辑如下:
d1:获取预先设计的裁剪策略集,并获取包含H个非主体分割区域和目标区域的风景图像,所述裁剪策略集中包含L个剪裁策略;
需要说明的是:每个剪裁策略具体为一种呈轴对称的剪裁框;所述呈轴对称的剪裁框由美学构图技术人员事先设计得到;
d2:提取裁剪策略集中的第f个剪裁策略,利用第f个剪裁策略对风景图像中的目标区域进行剪裁,得到剪裁图像;
d3:获取剪裁图像中包含非主体分割区域的像素面积,将剪裁图像中包含非主体分割区域的像素面积标记为杂质像素面积,将杂质像素面积与预设杂质像素面积阈值进行比较,若杂质像素面积小于等于预设杂质像素面积阈值,则将对应的第f个剪裁策略标记为最佳裁剪策略;若杂质像素面积大于预设杂质像素面积阈值,则令f=f+1,并返回步骤d2;
d4:重复上述d2~d3,直至得到最佳裁剪策略时,结束循环;
构建回归网络,将裁剪策略训练集中的位置分布数据作为回归网络的输入数据,以及将裁剪策略训练集中的最佳裁剪策略作为回归网络的输出数据,对回归网络进行训练,得到初始回归网络;
利用裁剪策略测试集对初始回归网络进行模型验证,输出小于等于预设测试误差的初始回归网络作为预构建的第二深度学习模型;
需要说明的是:所述回归网络具体为卷积神经网络(CNN)或循环神经网络(RNN)等深度学习算法模型中的具体一种;
还需要说明的是:在得到最佳裁剪策略后,则根据最佳裁剪策略对第j幅风景图像中的目标区域进行剪裁,换言之,则将对应的裁剪框重叠于目标区域上,根据裁剪框的形状对目标区域进行区域分割,以剔除风景图像中的非必要元素,尽可能地保留风景图像中的主体部分,进而有利于使景点更加突出和清晰,大幅提升图像的视觉吸引力、展示效果和展示准确性,进一步地,有利于增强旅游平台的用户体验和竞争力。
S105:重复上述步骤S102~S104,直至j=D时,结束循环,得到第三图像集;所述第三图像集中包含多幅目标风景图像;
可以理解的是:通过自动化的识别筛选过程,本发明可对欲上传到平台展示页面的风景图像进行批量处理,剔除低质量和重复对象;与此同时,通过对保留的风景图像进行精准分割和裁剪处理,本发明能够将风景图像中的主要景点从背景中分离出来,使景点更加突出和清晰,进而有利于大幅提升风景图像的视觉吸引力、展示效果和展示准确性,进一步地,有利于增强旅游平台的用户体验和竞争力。
实施例
请参阅图2所示,基于同一发明构思,本实施例公开提供了基于深度学习的图像分割系统,本实施例未详尽内容请参照上述实施例1中的相关部分叙述,所述系统包括:
图像筛查模块210,用于将待上传至平台展示页面的G幅风景图像构成第一图像集,利用感知哈希算法筛选出第一图像集中的重复风景图像,并计算每幅风景图像的质量系数,根据质量系数剔除低质的风景图像或重复风景图像,得到第二图像集,所述第二图像集中包含D幅风景图像,D、G为大于零的整数,D≤G;
图像分割模块220,用于提取第二图像集中的第j幅风景图像,对第j幅风景图像进行图像分割,获取包含多个分割区域的第j幅风景图像,j为大于零的整数;
主体检测模块230,用于将包含多个分割区域的第j幅风景图像输入至预构建的第一深度学习模型,获取第j幅风景图像中的P个主体分割区域和H个非主体分割区域,P、H为大于零的整数;
目标凸显模块240,用于依据主体分割区域确定目标区域,并获取H个非主体分割区域相对于目标区域的位置分布数据,将位置分布数据输入至预构建的第二深度学习模型,以确定最佳裁剪策略,根据最佳裁剪策略对第j幅风景图像中的目标区域进行剪裁,得到目标风景图像,并令j=j+1,并触发图像分割模块220;
循环处理模块250,用于重复上述图像分割模块220至目标凸显模块240,直至j=D时,结束循环,得到第三图像集;所述第三图像集中包含多幅目标风景图像。
上述公式均是去量纲取其数值计算,公式是由采集大量数据进行软件模拟得到最近真实情况的一个公式,公式中的预设参数、权重以及阈值选取由本领域的技术人员根据实际情况进行设置。
上述实施例,可以全部或部分地通过软件、硬件、固件或其他任意组合来实现。当使用软件实现时,上述实施例可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令或计算机程序。在计算机上加载或执行所述计算机指令或计算机程序时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以为通用计算机、专用计算机、计算机网络或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线网络或无线网络方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集合的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质(例如,软盘、硬盘、磁带)、光介质(例如,DVD)或者半导体介质。半导体介质可以是固态硬盘。
本领域普通技术人员可意识到,结合本发明中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其他的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一 种,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其他的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
最后:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于深度学习的图像分割方法,其特征在于,所述方法包括:
S101:将待上传至平台展示页面的G幅风景图像构成第一图像集,利用感知哈希算法筛选出第一图像集中的重复风景图像,并计算每幅风景图像的质量系数,根据质量系数剔除低质的风景图像或重复风景图像,得到第二图像集,所述第二图像集中包含D幅风景图像,D、G为大于零的整数,D≤G;
S102:提取第二图像集中的第j幅风景图像,对第j幅风景图像进行图像分割,获取包含多个分割区域的第j幅风景图像,j为大于零的整数;
S103:将包含多个分割区域的第j幅风景图像输入至预构建的第一深度学习模型,获取第j幅风景图像中的P个主体分割区域和H个非主体分割区域,P、H为大于零的整数;
S104:依据主体分割区域确定目标区域,并获取H个非主体分割区域相对于目标区域的位置分布数据,将位置分布数据输入至预构建的第二深度学习模型,以确定最佳裁剪策略,根据最佳裁剪策略对第j幅风景图像中的目标区域进行剪裁,得到目标风景图像,并令j=j+1,并返回步骤S102;
其中,所述预构建的第二深度学习模型的生成逻辑如下:
获取历史裁剪策略训练数据,将历史裁剪策略训练数据划分为裁剪策略训练集和裁剪策略测试集;所述历史裁剪策略训练数据包括位置分布数据及其对应的最佳裁剪策略;其中,所述裁剪策略为呈轴对称的剪裁框;
其中,所述历史裁剪策略训练数据中最佳裁剪策略的获取逻辑如下:
d1:获取预先设计的裁剪策略集,并获取包含H个非主体分割区域和目标区域的风景图像,所述裁剪策略集中包含L个剪裁策略;
d2:提取裁剪策略集中的第f个剪裁策略,利用第f个剪裁策略对风景图像中的目标区域进行剪裁,得到剪裁图像;
d3:获取剪裁图像中包含非主体分割区域的像素面积,将剪裁图像中包含非主体分割区域的像素面积标记为杂质像素面积,将杂质像素面积与预设杂质像素面积阈值进行比较,若杂质像素面积小于等于预设杂质像素面积阈值,则将对应的第f个剪裁策略标记为最佳裁剪策略;若杂质像素面积大于预设杂质像素面积阈值,则令f=f+1,并返回步骤d2;
d4:重复上述d2~d3,直至得到最佳裁剪策略时,结束循环;
构建回归网络,将裁剪策略训练集中的位置分布数据作为回归网络的输入数据,以及将裁剪策略训练集中的最佳裁剪策略作为回归网络的输出数据,对回归网络进行训练,得到初始回归网络;
利用裁剪策略测试集对初始回归网络进行模型验证,输出小于等于预设测试误差的初始回归网络作为预构建的第二深度学习模型;
S105:重复上述步骤S102~S104,直至j=D时,结束循环,得到第三图像集;所述第三图像集中包含多幅目标风景图像。
2.根据权利要求1所述的基于深度学习的图像分割方法,其特征在于,所述筛选出第一图像集中的重复风景图像,包括:
对第一图像集中的G幅风景图像进行复制,得到G个风景图像副本;
利用感知哈希算法对G个风景图像副本进行哈希编码,得到W个哈希值,W为大于零的整数;
对G个哈希值进行两两分组比较,计算出每两个哈希值之间的汉明距离,将汉明距离与预设汉明距离阈值进行比对,若汉明距离大于预设汉明距离阈值,则判定两个哈希值对应的风景图像副本不相似;若汉明距离小于等于预设汉明距离阈值,则判定两个哈希值对应的风景图像副本相似;
将所有相似风景图像副本对应的风景图像标记为重复风景图像,并关联绑定每两幅重复风景图像。
3.根据权利要求2所述的基于深度学习的图像分割方法,其特征在于,所述计算每幅风景图像的质量系数,包括:
a1:提取第一图像集中的第v幅风景图像,并提取第v幅风景图像的图像信息;所述图像信息包含每个像素点的水平梯度、垂直梯度、灰度值以及图像的平均灰度值;
a2:将图像数据输入预构建的数据计算模型中,得到第v幅风景图像的质量系数,并令v=v+1,并返回步骤a1;
其中,所述数据计算模型的表达式如下:
;
式中:为质量系数,为第i像素点的水平梯度,为第i像素点的垂直梯度,为第i像素点的灰度值,为第v幅风景图像的平均灰度值;
a3:重复上述步骤a1~a2,直至v=G时,结束循环,得到每幅风景图像的质量系数。
4.根据权利要求3所述的基于深度学习的图像分割方法,其特征在于,所述剔除低质的风景图像或重复风景图像,包括:
b1:调取第一图像集中的第r幅风景图像,并获取第r幅风景图像的质量系数;
b2:将质量系数与预设质量系数阈值进行比较,若质量系数小于预设质量系数阈值,则将对应第r幅风景图像标记为低质的风景图像,并剔除,并令r=r+1,并返回步骤b1;若质量系数大于等于预设质量系数阈值,则继续判断对应第r幅风景图像是否为重复风景图像;若是,则调取与第r幅风景图像相关联绑定的重复风景图像;若否,则直接保留对应第r幅风景图像;
b3:将与第r幅风景图像相关联绑定的重复风景图像标记为关联风景图像,调取第r幅风景图像和关联风景图像的质量系数,并按数值从小到大,对第r幅风景图像和关联风景图像的质量系数进行排序,剔除排序第一质量系数对应的第r幅风景图像或关联风景图像,并令r=r+1,并返回步骤b1;
b4:重复上述步骤b1~b3,直至r=G时,结束循环,得到包含D幅风景图像的第二图像集。
5.根据权利要求4所述的基于深度学习的图像分割方法,其特征在于,所述对第j幅风景图像进行图像分割,包括:
对第j幅风景图像进行灰度化处理,转为灰度图像;
利用K-means聚类算法对灰度图像进行像素点区分,将像素点聚类形成的区域作为分割区域,得到包含多个分割区域的第j幅风景图像。
6.根据权利要求5所述的基于深度学习的图像分割方法,其特征在于,所述预构建的第一深度学习模型的生成逻辑如下:
获取历史分割区域数据,将历史分割区域数据划分为区域识别训练集和区域识别测试集;所述历史分割区域数据包括多幅包含多个分割区域的风景图像以及每个分割区域对应的标注标签;
其中,所述标注标签包括“0”和“1”,“0”代表分割区域为非主体分割区域,“1”代表分割区域为主体分割区域;
构建分类器,将区域识别训练集中包含多个分割区域的风景图像作为分类器的输入数据,以及将区域识别训练集中的标注标签作为分类器的输出数据,对分类器进行训练,得到初始分类网络;
利用区域识别测试集对初始分类网络进行模型验证,输出大于等于预设测试准确度的初始分类网络作为预构建的第一深度学习模型。
7.根据权利要求6所述的基于深度学习的图像分割方法,其特征在于,所述依据主体分割区域确定目标区域,包括:
获取第j幅风景图像中的P个主体分割区域,对两两相邻的主体分割区域进行连通,得到C个主体连通区域;
获取所有主体连通区域的像素面积,按数值从大到小,对所有主体连通区域的像素面积进行排序,将排序第一的主体连通区域标记为目标区域。
8.根据权利要求7所述的基于深度学习的图像分割方法,其特征在于,所述获取H个非主体分割区域相对于目标区域的位置分布数据,包括:
c1:获取第h个非主体分割区域的坐标集合,以及获取目标区域质心的坐标;所述坐标集合包括非主体分割区域中所有像素点的坐标;
c2:根据坐标集合目标和目标区域质心的坐标,计算出第h个非主体分割区域与目标区域的最短距离,并将最短距离和坐标集合,作为第h个非主体分割区域相对于目标区域的位置分布数据,并令h=h+1,并返回步骤c3;
c3:重复上述c1~c2,直至h=H时,结束循环,得到H个非主体分割区域相对于目标区域的位置分布数据。
9.一种基于深度学习的图像分割系统,其特征在于,包括:
图像筛查模块,用于将待上传至平台展示页面的G幅风景图像构成第一图像集,利用感知哈希算法筛选出第一图像集中的重复风景图像,并计算每幅风景图像的质量系数,根据质量系数剔除低质的风景图像或重复风景图像,得到第二图像集,所述第二图像集中包含D幅风景图像,D、G为大于零的整数,D≤G;
图像分割模块,用于提取第二图像集中的第j幅风景图像,对第j幅风景图像进行图像分割,获取包含多个分割区域的第j幅风景图像,j为大于零的整数;
主体检测模块,用于将包含多个分割区域的第j幅风景图像输入至预构建的第一深度学习模型,获取第j幅风景图像中的P个主体分割区域和H个非主体分割区域,P、H为大于零的整数;
目标凸显模块,用于依据主体分割区域确定目标区域,并获取H个非主体分割区域相对于目标区域的位置分布数据,将位置分布数据输入至预构建的第二深度学习模型,以确定最佳裁剪策略,根据最佳裁剪策略对第j幅风景图像中的目标区域进行剪裁,得到目标风景图像,并令j=j+1,并触发图像分割模块;
其中,所述预构建的第二深度学习模型的生成逻辑如下:
获取历史裁剪策略训练数据,将历史裁剪策略训练数据划分为裁剪策略训练集和裁剪策略测试集;所述历史裁剪策略训练数据包括位置分布数据及其对应的最佳裁剪策略;其中,所述裁剪策略为呈轴对称的剪裁框;
其中,所述历史裁剪策略训练数据中最佳裁剪策略的获取逻辑如下:
d1:获取预先设计的裁剪策略集,并获取包含H个非主体分割区域和目标区域的风景图像,所述裁剪策略集中包含L个剪裁策略;
d2:提取裁剪策略集中的第f个剪裁策略,利用第f个剪裁策略对风景图像中的目标区域进行剪裁,得到剪裁图像;
d3:获取剪裁图像中包含非主体分割区域的像素面积,将剪裁图像中包含非主体分割区域的像素面积标记为杂质像素面积,将杂质像素面积与预设杂质像素面积阈值进行比较,若杂质像素面积小于等于预设杂质像素面积阈值,则将对应的第f个剪裁策略标记为最佳裁剪策略;若杂质像素面积大于预设杂质像素面积阈值,则令f=f+1,并返回步骤d2;
d4:重复上述d2~d3,直至得到最佳裁剪策略时,结束循环;
构建回归网络,将裁剪策略训练集中的位置分布数据作为回归网络的输入数据,以及将裁剪策略训练集中的最佳裁剪策略作为回归网络的输出数据,对回归网络进行训练,得到初始回归网络;
利用裁剪策略测试集对初始回归网络进行模型验证,输出小于等于预设测试误差的初始回归网络作为预构建的第二深度学习模型;
循环处理模块,用于重复上述图像分割模块至目标凸显模块,直至j=D时,结束循环,得到第三图像集;所述第三图像集中包含多幅目标风景图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410794008.3A CN118366162B (zh) | 2024-06-19 | 2024-06-19 | 基于深度学习的图像分割方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410794008.3A CN118366162B (zh) | 2024-06-19 | 2024-06-19 | 基于深度学习的图像分割方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN118366162A CN118366162A (zh) | 2024-07-19 |
CN118366162B true CN118366162B (zh) | 2024-08-20 |
Family
ID=91878537
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410794008.3A Active CN118366162B (zh) | 2024-06-19 | 2024-06-19 | 基于深度学习的图像分割方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN118366162B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118578926B (zh) * | 2024-08-07 | 2024-10-29 | 杭州富阳中恒电气有限公司 | 一种直流充电桩在线监控方法及系统 |
CN118861345B (zh) * | 2024-09-25 | 2025-03-25 | 青岛漫斯特数字科技有限公司 | 基于机器学习的图像内容搜索与匹配系统及方法 |
CN118898553B (zh) * | 2024-10-09 | 2025-01-24 | 青岛漫斯特数字科技有限公司 | 基于深度卷积神经网络的自适应图像虚化处理系统及方法 |
CN119251237B (zh) * | 2024-12-09 | 2025-03-11 | 武汉楚精灵医疗科技有限公司 | 一种大模型图文对数据集构建方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019139368A (ja) * | 2018-02-07 | 2019-08-22 | パイオニア株式会社 | 情報表示制御装置、情報表示制御方法及び情報表示制御プログラム |
CN110796663A (zh) * | 2019-09-17 | 2020-02-14 | 北京迈格威科技有限公司 | 图片剪裁方法、装置、设备和存储介质 |
-
2024
- 2024-06-19 CN CN202410794008.3A patent/CN118366162B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019139368A (ja) * | 2018-02-07 | 2019-08-22 | パイオニア株式会社 | 情報表示制御装置、情報表示制御方法及び情報表示制御プログラム |
CN110796663A (zh) * | 2019-09-17 | 2020-02-14 | 北京迈格威科技有限公司 | 图片剪裁方法、装置、设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN118366162A (zh) | 2024-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN118366162B (zh) | 基于深度学习的图像分割方法及系统 | |
CN110163198B (zh) | 一种表格识别重建方法、装置和存储介质 | |
CN113822247B (zh) | 基于航拍影像的违章建筑识别方法及系统 | |
CN111027547A (zh) | 一种针对二维图像中的多尺度多形态目标的自动检测方法 | |
CN109948547A (zh) | 城市绿地景观评价方法、装置、存储介质及终端设备 | |
CN110991435A (zh) | 一种基于深度学习的快递运单关键信息定位方法和装置 | |
CN112508975A (zh) | 一种图像识别方法、装置、设备及存储介质 | |
CN107273502A (zh) | 一种基于空间认知学习的图像地理标注方法 | |
CN110610483B (zh) | 裂纹图像获取、检测方法、计算机设备及可读存储介质 | |
CN112435214B (zh) | 基于先验框线性缩放的花粉检测方法、装置和电子设备 | |
CN112613553B (zh) | 图片样本集生成方法、装置、计算机设备和存储介质 | |
CN109492596B (zh) | 一种基于K-means聚类和区域推荐网络的行人检测方法及系统 | |
CN109284779A (zh) | 基于深度全卷积网络的物体检测方法 | |
CN111144215A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN113689436A (zh) | 图像语义分割方法、装置、设备及存储介质 | |
CN110827312A (zh) | 一种基于协同视觉注意力神经网络的学习方法 | |
CN109871829A (zh) | 一种基于深度学习的检测模型训练方法和装置 | |
CN105184225A (zh) | 一种多国纸币图像识别方法和装置 | |
CN110059696B (zh) | 一种图像标注方法、装置和计算机可读存储介质 | |
CN104751175A (zh) | 基于增量支持向量机的sar图像多类标场景分类方法 | |
CN116681657B (zh) | 基于改进YOLOv7模型的沥青路面病害检测方法 | |
CN115830514B (zh) | 一种适用于带弯曲河道的全河段表面流速计算方法及系统 | |
CN116258956A (zh) | 无人机树木识别方法、设备、存储介质及装置 | |
CN114972771A (zh) | 车辆定损理赔方法、装置、电子设备及存储介质 | |
CN113971627B (zh) | 一种车牌图片生成方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |