CN114511567B - 舌体与舌苔图像识别分离方法 - Google Patents
舌体与舌苔图像识别分离方法 Download PDFInfo
- Publication number
- CN114511567B CN114511567B CN202210412947.8A CN202210412947A CN114511567B CN 114511567 B CN114511567 B CN 114511567B CN 202210412947 A CN202210412947 A CN 202210412947A CN 114511567 B CN114511567 B CN 114511567B
- Authority
- CN
- China
- Prior art keywords
- tongue
- image
- color
- tongue body
- sub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000011248 coating agent Substances 0.000 title claims abstract description 35
- 238000000576 coating method Methods 0.000 title claims abstract description 35
- 238000000926 separation method Methods 0.000 title claims abstract description 29
- 238000012937 correction Methods 0.000 claims abstract description 88
- 238000000034 method Methods 0.000 claims abstract description 61
- 238000012545 processing Methods 0.000 claims abstract description 12
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 8
- 238000011176 pooling Methods 0.000 claims description 36
- 238000013528 artificial neural network Methods 0.000 claims description 33
- 239000000203 mixture Substances 0.000 claims description 30
- 238000004364 calculation method Methods 0.000 claims description 22
- 239000011159 matrix material Substances 0.000 claims description 22
- 238000001028 reflection method Methods 0.000 claims description 21
- 230000011218 segmentation Effects 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 18
- 238000001514 detection method Methods 0.000 claims description 14
- 150000001875 compounds Chemical class 0.000 claims description 10
- 238000012216 screening Methods 0.000 claims description 10
- 210000000214 mouth Anatomy 0.000 claims description 8
- 239000003086 colorant Substances 0.000 claims description 7
- 230000001815 facial effect Effects 0.000 claims description 6
- 238000004458 analytical method Methods 0.000 abstract description 7
- 108091006146 Channels Proteins 0.000 description 40
- 230000006870 function Effects 0.000 description 12
- 230000000694 effects Effects 0.000 description 11
- 238000003745 diagnosis Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 239000003814 drug Substances 0.000 description 6
- 238000000605 extraction Methods 0.000 description 6
- 230000004807 localization Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000002405 diagnostic procedure Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 206010043945 Tongue coated Diseases 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 206010018388 glossodynia Diseases 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000007170 pathology Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000035479 physiological effects, processes and functions Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 208000011580 syndromic disease Diseases 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Public Health (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了舌体与舌苔图像识别分离方法,步骤一:采集舌像图片;步骤二:根据采集设备的不同对获取的舌像图片进行不同方式的色彩校正,用以提升后续图像处理算法的准确度;步骤三:对舌像图片中的舌体区域进行定位,包括,对舌像图片进行任意裁剪成子图块,利用经过训练的卷积神经网络对子图块进行训练,根据人脸的左右眼位置,鼻尖位置和左右嘴角的位置对舌体进行定位,得到完整的包含舌体的矩形图像;步骤四:实现舌体与非舌体的分割;步骤五:根据舌苔与舌体颜色不同,实现对分割以后的舌像进行苔质分离。本发明的有益效果是,对采集到的舌体图像进行色彩的矫正,改善了色偏对后续舌体特征分析所带来的影响,实现了舌体与苔质的准确分离。
Description
技术领域
本发明涉及中医舌像处理技术领域,特别是舌体与舌苔图像识别分离方法。
背景技术
舌诊作为中医的特色诊法,具有相对完整的理论依据,通过表象揭示了人体生理病理的客观现象,并被人们广泛接受与认可。舌诊作为中医行之有效的一种特色诊断方法,在今天的临床实践中依然发挥着重要作用。到目前为止,舌诊依然是证候诊断指向明确、容易上手且行之有效的诊断方法之一,对疾病的认识、用药的指导、疗效的评价都发挥着重要作用。随着计算机技术的发展,人们开始利用深度学习,机器视觉等方法结合中医专家丰富的临床经验推动舌诊客观化、标准化等相关研究。
在中医舌诊当中,对颜色的准确描述和判断是非常重要的。但是在用摄影设备采集舌像的过程当中,由于采集仪器的精度不同、环境光不同等因素,极易导致采集到的舌像图片存在一定的色偏。这不仅会对算法后续舌体定位与分割、颜色特征的提取和分析部分造成影响,而且会给使用者和临床医师的诊断造成一定的干扰。
发明内容
本发明的目的是为了解决上述问题,设计了舌体与舌苔图像识别分离方法,包括以下步骤:
步骤一:通过采集设备采集舌像图片;
步骤二:根据采集设备的不同对获取的舌像图片进行不同方式的色彩校正,用以提升后续图像处理算法的准确度;
步骤三:对进行色彩校正后的舌像图片中的舌体区域进行定位,包括,对舌像图片进行任意裁剪成子图块,利用经过训练的卷积神经网络对子图块进行训练,根据人脸的左右眼位置,鼻尖位置和左右嘴角的位置对舌体进行定位,得到完整的包含舌体的矩形图像;
步骤四:根据颜色与位置的不同将舌体定位后的舌像图片分为前景模型和背景模型,通过高斯混合模型对前景模型和背景模型建模,得到分割以后的舌体图像,实现舌体与非舌体的分割;
步骤五:根据舌苔与舌体颜色不同,实现对分割以后的舌像进行苔质分离。
进一步地,若所述步骤一中的采集设备为固定式采集设备,则所述色彩校正方法为颜色校正矩阵算法,若所述步骤一中的采集设备为手持式或移动式采集设备,则所述色彩校正方法为灰度世界法和完美反射法相结合。
进一步地,所述颜色校正矩阵算法包括:
将RGB图像转化为灰度图像,对灰度图像进行二值化处理,并提取灰度图像的边缘;
检索灰度图像当中所有的轮廓,并对轮廓进行多边形拟合,去除拟合以后的多边形的顶点过多和过少的轮廓,同时用轮廓的面积对轮廓进行进一步筛选,获取筛选过后的轮廓的最小外接矩形的宽高比和最大外接矩形宽高比,将上述两个宽高比与预设的色卡块的宽高比进行对比,将灰度图像中宽高比过小和过大的轮廓筛除,得到n个标准的轮廓;
分别计算每一个轮廓到其他轮廓的距离,距离的计算公式如下:
式中,Di,j表示第i个轮廓和第j个轮廓之间的距离,rect.x和rect.y分别表示轮廓左上角点的横、纵坐标值;
统计每一个轮廓周围满足距离条件的轮廓个数,当个数大于阈值NC时,把这一轮廓的点压入栈中;
确定色卡的位置为包围栈中所有点的最小正矩形,根据色卡上色块的具体位置对色块进行提取并得到色块的颜色值;
通过公式(3-2)计算标准颜色色板的RGB颜色空间的R、G、B值。
进一步地,所述通过灰度世界法和完美反射法的结合进行色彩校正具体包括:
对R通道和B通道进行颜色校正:
当同时满足灰度世界法和完美反射法时,式(5-1)变形为:
进一步地,所述利用经过训练的卷积神经网络对子图块进行训练具体包括:
S1:构建舌体数据集,得到作为模型的训练数据:将原始图片缩放成不同的尺度,构成图像金字塔,对舌像图片进行随机裁剪成子图块,并将裁剪以后的子图块分为是舌头样本和非舌头样本;
S2:将训练数据输入在Caffe框架下的MTCNN神经网络进行模型训练,所述MTCNN神经网络包括P-Net子神经网络、R-Net子神经网络和O-Net子神经网络,P-Net子神经网络、R-Net子神经网络和O-Net子神经网络,分别得到子图块归属于是舌头样本还是非舌头样本的概率值,形成识别面部特征的矩形框,并输出与之对应的三个检测结果,三个检测结果包括判断图像当中是否有人脸、判断网络提取的图片当中的人脸框和定位人脸的特征点位置。
进一步地,所述P-Net子神经网络包括用于选出图片当中所有可能的不同尺度的人脸框的三个卷积层和一个池化层,所述R-Net子神经网络包括用于对P-Net中的预备人脸框进一步判定的三个卷积层、两个池化层和一个全连接层,所述O-Net子神经网络包括用于对人脸进一步筛选并输出最后结果的四个卷积层、三个池化层和一个全连接层池化层。
进一步地,所述S1中,对样本子图块进行标记,该标记对样本子图块是属于是舌头样本还是非舌头样进行注释,其中,如果样本子图块超过一半以上为舌体区域,则把该样本子图块标为是舌头区域,反之则把该样本子图块标为非舌体样本。
进一步地,所述步骤四中实现舌体的分割具体包括:
S3:对图像进行初始化:获取经过定位的舌体信息的舌像中所有像素的红色通道值R(i,j)、蓝色通道值B(i,j)以及绿色通道值G(i,j),其中舌像包括U*V个像素,i=1,...,U,j=1,...,V;按照像素点初始化中央区域为前景区域、可能前景区域,周围区域为背景、可能背景区域,前景区域和可能前景区域构成前景模型,背景和可能背景构成背景模型;
S4:高斯混合模型建模,具体包括:
S42:学习优化混合高斯模型参数,将可能前景区域像素点和可能背景区域像素点分别带入到前景模型和背景模型中计算,选择概率最大的混合高斯模型参数重新分配未知的像素点,然后根据重新分配以后的前景模型和背景模型对混合高斯模型的参数进行更新,将舌体定位后图片中心的颜色设置为前景区域,将牙齿的颜色、面区域的颜色、口腔的区域的颜色设置为可能背景区域并且设置为黑色,并通过min cut算法进行分割;
S43:重复步骤S42:直到收敛或达到规定的迭代次数以后,得到分割以后的舌体图像。
进一步地,所述步骤五中若分割以后的舌体图像的像素点满足式(1-1)所示的条件时,认为是舌苔像素点;若分割以后的舌图的像素点不满足式(1-1)所示的条件时,则认为是舌体像素点,
利用本发明的技术方案制作的舌体与舌苔图像识别分离方法,所达到的有益效果:
在舌体图像采集之后、舌体定位与分割之前增加了颜色校正的环节,实现对舌像的色彩管理,改善了色偏对于舌体定位与分割以及舌体特征部分分析造成的影响,根据采集设备不同可以选择不同的色彩校正方法,若用固定式采集设备,判断为运用颜色校正矩阵的方法采用色卡校正对采集到的舌体图像进行色彩校正,以提升后续图像处理算法的准确度;若用手持式或移动式设备,则判断为使用灰度世界法和完美反射法相结合进行色彩校正;
用MTCNN模型对舌体进行定位,并使用Grab-cut方法进行舌体与背景的分割,在进行舌体与背景的分割过程中,获取到舌体位置的像素大小,直接为后续舌体与舌苔分离提供了支持,将舌体分割苔质分离模块化,加快了舌像处理过程。
附图说明
图1是本发明所述舌体与舌苔图像识别分离方法的色卡定位过程图;
图2是本发明所述舌体与舌苔图像识别分离方法的颜色校正效果图;
图3是本发明所述舌体与舌苔图像识别分离方法的三种自动白平衡算法的校正效果;
图4是本发明所述舌体与舌苔图像识别分离方法的P-Net结构示意图;
图5是本发明所述舌体与舌苔图像识别分离方法的R-Net结构示意图;
图6是本发明所述舌体与舌苔图像识别分离方法的O-Net结构示意图;
图7是本发明所述舌体与舌苔图像识别分离方法的舌体定位过程图;
图8是本发明所述舌体与舌苔图像识别分离方法的Grab-cut算法流程图;
图9是本发明所述舌体与舌苔图像识别分离方法的舌体分割效果图;
图10是本发明所述舌体与舌苔图像识别分离方法的苔质分离后的舌体图片。
具体实施方式
为了更好的理解本发明,下面结合具体实施例和附图对本发明进行进一步的描述,舌体与舌苔图像识别分离方法。
步骤一:通过采集设备采集舌像图片;
步骤二:根据采集设备的不同对获取的舌像图片进行不同方式的色彩校正,用以提升后续图像处理算法的准确度;
步骤三:对进行色彩校正后的舌像图片中的舌体区域进行定位,包括,对舌像图片进行任意裁剪成子图块,利用经过训练的卷积神经网络对子图块进行训练,根据人脸的左右眼位置,鼻尖位置和左右嘴角的位置对舌体进行定位,得到完整的包含舌体的矩形图像;
步骤四:根据颜色与位置的不同将舌体定位后的舌像图片分为前景模型和背景模型,通过高斯混合模型对前景模型和背景模型建模,得到分割以后的舌体图像,实现舌体与非舌体的分割;
步骤五:根据舌苔与舌体颜色不同,实现对分割以后的舌像进行苔质分离。
其中,在对舌型特征,例如齿痕舌与老嫩舌的特征进行分析以及对苔质特征,例如腐腻苔与润燥苔进行特征分析前都需要采集舌体图像,并对其进行舌体定位以及舌像分割的操作,但是,由于在用摄影设备采集舌像的过程当中,由于采集仪器的精度不同、环境光不同等因素,采集到的舌像图片存在一定的色偏,若采集到舌像的颜色与原始图像的颜色偏差较大,会对后续与颜色有关特征的提取和分析部分,例如舌体与舌苔的分离判定以及腐腻苔与润燥苔的判断与分析造成影响。在采集完成舌体图像后,对采集到的舌体图像进行色彩校正。进行色彩校正的步骤如下:
若采用固定采集设备,通过颜色校正方法对色偏进行矫正,首先,将RGB图像转化为灰度图像,对灰度图像进行二值化处理,即将图像上的像素点的灰度值设置为0或255,也就是将整个图像呈现出明显的只有黑和白的视觉效果,并提取灰度图像的边缘。
检索灰度图像当中所有的轮廓,并对轮廓进行多边形拟合,去除拟合以后的多边形的顶点过多和过少的轮廓,同时用轮廓的面积对轮廓进行进一步筛选,获取筛选过后的轮廓的最小外接矩形的宽高比和最大外接矩形宽高比,将上述两个宽高比与预设的色卡块的宽高比进行对比,将灰度图像中宽高比过小和过大的轮廓筛除,得到n个标准的轮廓。
分别计算每一个轮廓到其他轮廓的距离,距离的计算公式如下:
确定色卡的位置为包围栈中所有点的最小正矩形,根据色卡上色块的具体位置对色块进行提取并得到色块的颜色值,色卡定位过程如图1所示,依次为原色卡图像,Canny算子边缘提取,色卡定位效果。得到色卡对应的24个色块的颜色值后,计算得到颜色校正矩阵。
颜色校正矩阵的计算方法如下:为通过高阶多项式回归得到的标准颜色色板的RGB颜色空间的多项式模型,具体为,记为T1,传统的CCM算法只是使用了图像的R、G、B值实现了从RGB空间到sRGB空间(标准颜色色板的RGB颜色空间)的转换,只是简单的线性转换,存在较大的误差。为了能进一步提升转化的维度,使用高阶多项式回归法,即在原式的基础上添加
,等阶数更高的项,但是并不是项数越多,阶数越大得到的校正效果就越好。因为随着阶数的增加,模型的推广性能会变差,所以最后的图像质量会变差,而且运算量也会随之增加。为了在保证颜色校正精确度的同时也保证图像的质量,最终选择了项数为10的多项式模型,
最后通过公式(2-3)计算标准颜色色板的RGB颜色空间的R、G、B值。
若采用手持式或移动式采集设备,往往要求色彩校正算法有更强的灵活性和便携性。灰度世界法认为自然界中的景物对光的反射的均值在总体上是一个定值,所以在一幅彩色图像当中,灰度世界法认为R、G、B三通道的均值在整体上也趋近于同一个灰度值。灰度世界法的操作简单,运算量很小,但是在图像的颜色不够丰富的时候校正效果不是很理想。完美反射法就是将图像当中亮度最大的点认为是白色的点,把它当做可以完全反射光源的“镜面”,然后根据这个白色点对整体图像上所有的像素点的颜色值进行校正。但是如果图片当中不存在较为理想的反射“镜面”时,使用完美反射法进行白平衡校正的效果也不理想。于是,结合灰度世界法和完美反射法的优点,在原有线性校正的基础上,R通道和B通道的校正表示为“平方”的形式。具体为
当同时满足灰度世界法和完美反射法时,式(4-1)变形为:
由上述操作进行色彩校正的图片进行舌像定位,具体操作如下:
S1:构建舌体数据集,得到作为模型的训练数据:将原始图片缩放成不同的尺度,构成图像金字塔,对舌像图片进行随机裁剪成子图块,并将裁剪以后的子图块分为是舌头样本和非舌头样本;该标记对样本子图块是属于是舌头样本还是非舌头样进行注释,其中,如果样本子图块超过一半以上为舌体区域,则把该样本子图块标为是舌头区域,反之则把该样本子图块标为非舌体样本。将这些图片的格式转换为Imdb格式作为模型的训练数据。一幅图像的金字塔是一系列以金字塔形状排列的分辨率逐步降低,且来源于同一张原始图的图像集合。其通过梯次向下采样获得,直到达到某个终止条件才停止采样。金字塔的底部是待处理图像的高分辨率表示,而顶部是低分辨率的表示。层级越高,则图像越小,分辨率越低。图像金字塔的建立可以保证在统一的尺度下检测人脸。在本实施例中,图像被分割为以下三种尺寸图块:12×12×3、24×24×3和48×48×3。
S2:将训练数据输入在Caffe框架下的MTCNN神经网络进行模型训练,所述MTCNN神经网络包括P-Net子神经网络、R-Net子神经网络和O-Net子神经网络,P-Net子神经网络、R-Net子神经网络和O-Net子神经网络,分别得到子图块归属于是舌头样本还是非舌头样本的概率值,形成识别面部特征的矩形框,并输出与之对应的三个检测结果,三个检测结果包括判断图像当中是否有人脸、判断网络提取的图片当中的人脸框和定位人脸的特征点位置。所述P-Net子神经网络包括用于选出图片当中所有可能的不同尺度的人脸框的三个卷积层和一个池化层,所述R-Net子神经网络包括用于对P-Net中的预备人脸框进一步判定的三个卷积层、两个池化层和一个全连接层,所述O-Net子神经网络包括用于对人脸进一步筛选并输出最后结果的四个卷积层、三个池化层和一个全连接层池化层。
Caffe是一种开源软件框架,用以实现GPU并行架构下的深度卷积神经网络。卷积层的功能是对输入数据进行特征提取;在卷积层进行特征提取后,输出的特征图会被传递至池化层进行特征选择和信息过滤。池化层包含预设定的池化函数,其功能是将特征图中单个点的结果替换为其相邻区域的特征图统计量。连接层的作用则是对提取的特征进行非线性组合以得到输出。
具体地,如图3所示,input size为输入的子图块的尺寸,Conv为卷积层卷积核的大小,MP为池化层卷积核的大小,P-Net子神经网络包括三个卷积层和一个池化层,输入经分割的子图片尺寸大小为12×12×3,卷积层的卷积核均为3×3,图片输入后,先经过第一个卷积层与池化层,得到5×5×10的图片,再经过第二个卷积层,得到3×3×16的图片,再经过第三个卷积层,得到1×1×32的图片,最后经过输出层,使用逻辑函数或归一化指数函数(softmax function)输出分类标签,得到1×1×2、1×1×4和1×1×10的训练模型,具体为,用来判断图像当中是否有人脸的第一部分“face classification”,输出用于网络提取的图片当中的人脸框的第二部分“bounding box regression”,输出用来定位人脸的特征点位置的“Facial landmark localization”的第三部分。
具体地,如图4所示,input size为输入的子图块的尺寸,Conv为卷积层卷积核的大小,MP为池化层卷积核的大小,R-Net子神经网络包括三个卷积层、两个池化层和一个全连接层,输入经分割的子图片尺寸为24×24×3,其中,前两个卷积层的卷积核均为3×3,第三个卷积层的卷积核为2×2,池化层位于第一个卷积层和第二个卷积层之后,池化层的核大小为2×2,图片输入后,先经过第一个卷积层与池化层,再经过第二个卷积层和池化层,再经过第三个卷积层,得到3×3×64的图片,最后经过输出层,第三个卷积层经过延展变换与全连接层相连。使用逻辑函数或归一化指数函数(softmax function)输出分类标签,得到2、4和10的训练模型,具体为,用来判断图像当中是否有人脸的第一部分“faceclassification”,输出用于网络提取的图片当中的人脸框的第二部分“bounding boxregression”,输出用来定位人脸的特征点位置的“Facial landmark localization”的第三部分。
具体地,如图5所示,input size为输入的子图块的尺寸,Conv为卷积层卷积核的大小,MP为池化层卷积核的大小,O-Net子神经网络包括四个卷积层、三个池化层和一个全连接层,输入经分割的子图片尺寸为48×48×3,其中,前三个卷积层的卷积核均为3×3,第四个卷积层的卷积核为2×2,池化层分别位于第一个卷积层、第二个卷积层和第三个卷积层之后,前两个池化层的核大小为3×3,位于第三个卷积层后的池化层的核大小为2×2,图片输入后,先经过第一个卷积层与池化层,再经过第二个卷积层和池化层,接着经过第三个卷积层和第三个池化层,再经过第四个卷积层,得到3×3×128的图片,第四个卷积层经过延展变换与全连接层相连。最后经过输出层,使用逻辑函数或归一化指数函数(softmaxfunction)输出分类标签,得到2、4和10的交叉熵,具体为,用来判断图像当中是否有人脸的第一部分“face classification”,输出用于网络提取的图片当中的人脸框的第二部分“bounding box regression”,输出用来定位人脸的特征点位置的“Facial landmarklocalization”的第三部分。
从P-Net到R-Net再到O-Net,网络层数不断增加,准确率越来越高。直接使用O-Net会使运行速度非常缓慢,先通过使用P-Net和R-Net这两个准确度不算高但是运行速率很快的网络对输入O-Net的舌部图片进行预筛选,会极大提高运行的效率,降低了处理时间。
舌体实现定位后,对其进行舌体的分割操作,具体包括:
S3:对图像进行初始化:获取经过定位的舌体信息的舌像中所有像素的红色通道值R(i,j)、蓝色通道值B(i,j)以及绿色通道值G(i,j),其中舌像包括U*V个像素,i=1,...,U,j=1,...,V;按照像素点初始化中央区域为前景区域、可能前景区域,周围区域为背景、可能背景区域,前景区域和可能前景区域构成前景模型,背景和可能背景构成背景模型;
S4:高斯混合模型建模,具体包括:
S42:学习优化混合高斯模型参数,将可能前景区域像素点和可能背景区域像素点分别带入到前景模型和背景模型中计算,选择概率最大的混合高斯模型参数重新分配未知的像素点,然后根据重新分配以后的前景模型和背景模型对混合高斯模型的参数进行更新,将舌体定位后图片中心的颜色设置为前景区域,将牙齿的颜色、面区域的颜色、口腔的区域的颜色设置为可能背景区域并且设置为黑色,并通过min cut算法进行分割;
S43:重复步骤S42:直到收敛或达到规定的迭代次数以后,得到分割以后的舌体图像。
分割后的图片如图8所示,图中,前景区域为GCD_FGD,背景区域为GCD_BGD,可能前景区域为GCD_PR_FGD和可能背景区域GCD_PR_BGD,其中前景区域和可能前景区域构成前景模型FGD_Model,背景区域和可能背景区域构成背景模型BGD_Model;通过高斯混合模型进行多次迭代使得分割后的舌像图片更加精确,图片边缘更加光滑。
若分割以后的舌体图像的像素点满足式(1-1)所示的条件时,认为是舌苔像素点;若分割以后的舌图的像素点不满足式(1-1)所示的条件时,则认为是舌体像素点,
在进行舌体分割时即记录了舌像各个位置的像素点,根据像素点的不同,即可将舌苔和舌体进行分离,简化了舌苔和舌体的分离步骤,直接影响舌诊客观化的可行性与准确性。
实验例:
步骤一:通过采集设备采集舌像图片;
步骤二:根据采集设备的不同对获取的舌像图片进行不同方式的色彩校正,用以提升后续图像处理算法的准确度;
使用固定式采集设备时,色彩校正方法为颜色校正矩阵算法,具体操作如下:
确定色卡的位置;进一步根据色卡上色块的具体位置对色块进行提取并得到色块的颜色值。本实验例中使用的颜色校正的标准颜色色板为定制的8cm*11.2cm的爱色丽24色色卡,色卡当中的24个色块的颜色信息如表1-1所示:
表1-1 爱色丽24色色卡色块信息
颜色序号 | R | G | B | 颜色序号 | R | G | B |
1 | 115 | 82 | 68 | 13 | 56 | 61 | 150 |
2 | 194 | 150 | 130 | 14 | 70 | 148 | 73 |
3 | 98 | 122 | 157 | 15 | 175 | 54 | 60 |
4 | 87 | 108 | 67 | 16 | 231 | 199 | 31 |
5 | 133 | 128 | 177 | 17 | 187 | 86 | 149 |
6 | 103 | 189 | 170 | 18 | 8 | 133 | 161 |
7 | 214 | 126 | 44 | 19 | 243 | 243 | 242 |
8 | 80 | 91 | 166 | 20 | 200 | 200 | 200 |
9 | 193 | 90 | 99 | 21 | 160 | 160 | 160 |
10 | 94 | 60 | 108 | 22 | 122 | 122 | 121 |
11 | 157 | 188 | 64 | 23 | 85 | 85 | 85 |
12 | 224 | 163 | 46 | 24 | 52 | 52 | 52 |
将得到的颜色校正矩阵与在该拍摄条件下采集图像的多项式模型相乘,即可得到色彩校正以后的图片,图2为色彩校正前后对比图像。左侧为进行色彩校正前的图像,右侧为进行色彩校正后的图像。通过颜色矩阵色彩校正方法校正以后图片的色差明显减小,对图片颜色的还原度更高。
若采用手持式或移动式采集设备,往往要求色彩校正算法有更强的灵活性和便携性。灰度世界法认为自然界中的景物对光的反射的均值在总体上是一个定值,所以在一幅彩色图像当中,灰度世界法认为R、G、B三通道的均值在整体上也趋近于同一个灰度值。灰度世界法的操作简单,运算量很小,但是在图像的颜色不够丰富的时候校正效果不是很理想。完美反射法就是将图像当中亮度最大的点认为是白色的点,把它当做可以完全反射光源的“镜面”,然后根据这个白色点对整体图像上所有的像素点的颜色值进行校正。但是如果图片当中不存在较为理想的反射“镜面”时,使用完美反射法进行白平衡校正的效果也不理想。于是,结合灰度世界法和完美反射法的优点,在原有线性校正的基础上,R通道和B通道的校正表示为“平方”的形式。具体为
当同时满足灰度世界法和完美反射法时,式(4-1)变形为:
偏色因子反应偏色的程度,计算方法如下:
CIE Lab颜色空间所计算出来的颜色之间的距离与实际感知上的差别基本一致。其直方图可以客观的反映图像色偏程度,在CIE Lab下进行偏色图像的自动检测更为合理。
经过对正常图像和偏色图像的分析发现,如果在ab色度坐标平面上的直方图中,色度分布基本上为单峰值,或者分布较为集中,而色度平均值D又较大时,一般都存在色偏,而且色度平均值越大,色偏越严重。然而,如果在ab色度坐标平面上的直方图中色度分布存在明显的多峰值,而且较为分散时,图像色偏程度将大大减轻,甚至没有色偏。所以在CIELab颜色空间的ab色度坐标平面计算偏色因子。其中,a为在CIE Lab颜色空间的ab色度坐标平面中图像的横坐标值,b为在CIE Lab颜色空间的ab色度坐标平面中图像的纵坐标值。
(4-4)
分别使用灰度世界法、完美反射法以及融合两种算法的颜色校正算法对三幅移动设备采集到的舌像图片进行颜色校正,如图3所示,并对这几种算法进行偏色检测,结果如表1-2所示:
表1-2 三种自动白平衡算法偏色检测
从表中可以看出,和没有经过色彩校正的原始图像相比三种颜色校正算法都可以在一定程度上减小图像的偏色。融合完美反射法和灰度世界法的颜色校正算法得到的颜色校正效果更为理想。
步骤三:对进行色彩校正后的舌像图片中的舌体区域进行定位,包括,对舌像图片进行任意裁剪成子图块,利用经过训练的卷积神经网络对子图块进行训练,根据人脸的左右眼位置,鼻尖位置和左右嘴角的位置对舌体进行定位,得到完整的包含舌体的矩形图像。训练后得到P-Net、 R-Net和O-Net分别对应的三个训练模型。模型训练的训练集图片数量为4090张,测试集图片数量为750张,测试过程中漏检4张图片,误检2张图片,对舌像检测的正确率高于95%。原始图像经过三个子网络的舌体检测与定位结果如图7,依次为通过P-Net、 R-Net和O-Net定位的结果:最左侧为P-Net的检测结果,中间位置为 R-Net的检测结果,最右侧为O-Net的检测结果。
步骤四:根据颜色与位置的不同将舌体定位后的舌像图片分为前景模型和背景模型,通过高斯混合模型对前景模型和背景模型建模,得到分割以后的舌体图像,实现舌体与非舌体的分割;具体包括:
S3:对图像进行初始化:获取经过定位的舌体信息的舌像中所有像素的红色通道值R(i,j)、蓝色通道值B(i,j)以及绿色通道值G(i,j),其中舌像包括U*V个像素,i=1,...,U,j=1,...,V;按照像素点初始化中央区域为前景区域、可能前景区域,周围区域为背景、可能背景区域,前景区域和可能前景区域构成前景模型,背景和可能背景构成背景模型;
S4:高斯混合模型建模,具体包括:
S42:学习优化混合高斯模型参数,将可能前景区域像素点和可能背景区域像素点分别带入到前景模型和背景模型中计算,选择概率最大的混合高斯模型参数重新分配未知的像素点,然后根据重新分配以后的前景模型和背景模型对混合高斯模型的参数进行更新,将舌体定位后图片中心的颜色设置为前景区域,将牙齿的颜色、面区域的颜色、口腔的区域的颜色设置为可能背景区域并且设置为黑色,并通过min cut算法进行分割;
S43:重复步骤S42:直到收敛或达到规定的迭代次数以后,得到分割以后的舌体图像。
对舌体图片进行Grab-cut分割,分割后的图片如图9所示,通过高斯混合模型进行多次迭代使得分割后的舌像图片更加精确,图片边缘更加光滑。
步骤五:根据舌苔与舌体颜色不同,实现对分割以后的舌像进行苔质分离。
若分割以后的舌体图像的像素点满足式(1-1)所示的条件时,认为是舌苔像素点;若分割以后的舌图的像素点不满足式(1-1)所示的条件时,则认为是舌体像素点,
上述技术方案仅体现了本发明技术方案的优选技术方案,本技术领域的技术人员对其中某些部分所可能做出的一些变动均体现了本发明的原理,属于本发明的保护范围之内。
Claims (8)
1.舌体与舌苔图像识别分离方法,其特征在于,包括以下步骤:
步骤一:通过采集设备采集舌像图片;
步骤二:根据采集设备的不同对获取的舌像图片进行不同方式的色彩校正,用以提升后续图像处理算法的准确度;
若所述步骤一中的采集设备为固定式采集设备,则所述色彩校正方法为颜色校正矩阵算法,若所述步骤一中的采集设备为手持式或移动式采集设备,则所述色彩校正方法为灰度世界法和完美反射法相结合;
步骤三:对进行色彩校正后的舌像图片中的舌体区域进行定位,包括,对舌像图片进行任意裁剪成子图块,利用经过训练的卷积神经网络对子图块进行训练,根据人脸的左右眼位置,鼻尖位置和左右嘴角的位置对舌体进行定位,得到完整的包含舌体的矩形图像;
步骤四:根据颜色与位置的不同将舌体定位后的舌像图片分为前景模型和背景模型,通过高斯混合模型对前景模型和背景模型建模,得到分割以后的舌体图像,实现舌体与非舌体的分割;
步骤五:根据舌苔与舌体颜色不同,实现对分割以后的舌像进行苔质分离;
所述步骤五中若分割以后的舌体图像的像素点满足式(1-1)所示的条件时,认为是舌苔像素点;若分割以后的舌图的像素点不满足式(1-1)所示的条件时,则认为是舌体像素点,
2.根据权利要求1所述的舌体与舌苔图像识别分离方法,其特征在于,所述颜色校正矩阵算法包括:
将RGB图像转化为灰度图像,对灰度图像进行二值化处理,并提取灰度图像的边缘;
检索灰度图像当中所有的轮廓,并对轮廓进行多边形拟合,去除拟合以后的多边形的顶点过多和过少的轮廓,同时用轮廓的面积对轮廓进行进一步筛选,获取筛选过后的轮廓的最小外接矩形的宽高比和最大外接矩形宽高比,将上述两个宽高比与预设的色卡块的宽高比进行对比,将灰度图像中宽高比过小和过大的轮廓筛除,得到n个标准的轮廓;
分别计算每一个轮廓到其他轮廓的距离,距离的计算公式如下:
式中,Di,j表示第i个轮廓和第j个轮廓之间的距离,rect.x和rect.y分别表示轮廓左上角点的横、纵坐标值;
统计每一个轮廓周围满足距离条件的轮廓个数,当个数大于阈值NC时,把这一轮廓的点压入栈中;
确定色卡的位置为包围栈中所有点的最小正矩形,根据色卡上色块的具体位置对色块进行提取并得到色块的颜色值;
通过公式(3-2)计算标准颜色色板的RGB颜色空间的R、G、B值;
5.根据权利要求1所述的舌体与舌苔图像识别分离方法,其特征在于,所述利用经过训练的卷积神经网络对子图块进行训练具体包括:
S1:构建舌体数据集,得到作为模型的训练数据:将原始图片缩放成不同的尺度,构成图像金字塔,对舌像图片进行随机裁剪成子图块,并将裁剪以后的子图块分为是舌头样本和非舌头样本;
S2:将训练数据输入在Caffe框架下的MTCNN神经网络进行模型训练,所述MTCNN神经网络包括P-Net子神经网络、R-Net子神经网络和O-Net子神经网络,P-Net子神经网络、R-Net子神经网络和O-Net子神经网络,分别得到子图块归属于是舌头样本还是非舌头样本的概率值,形成识别面部特征的矩形框,并输出与之对应的三个检测结果,三个检测结果包括判断图像当中是否有人脸、判断网络提取的图片当中的人脸框和定位人脸的特征点位置。
6.根据权利要求5所述的舌体与舌苔图像识别分离方法,其特征在于,所述P-Net子神经网络包括用于选出图片当中所有可能的不同尺度的人脸框的三个卷积层和一个池化层,所述R-Net子神经网络包括用于对P-Net中的预备人脸框进一步判定的三个卷积层、两个池化层和一个全连接层,所述O-Net子神经网络包括用于对人脸进一步筛选并输出最后结果的四个卷积层、三个池化层和一个全连接层池化层。
7.根据权利要求5所述的舌体与舌苔图像识别分离方法,其特征在于,所述S1中,对样本子图块进行标记,该标记对样本子图块是属于是舌头样本还是非舌头样进行注释,其中,如果样本子图块超过一半以上为舌体区域,则把该样本子图块标为是舌头区域,反之则把该样本子图块标为非舌体样本。
8.根据权利要求1所述的舌体与舌苔图像识别分离方法,其特征在于,所述步骤四中实现舌体的分割具体包括:
S3:对图像进行初始化:获取经过定位的舌体信息的舌像中所有像素的红色通道值R(i,j)、蓝色通道值B(i,j)以及绿色通道值G(i,j),其中舌像包括U*V个像素,i=1,...,U,j=1,...,V;按照像素点初始化中央区域为前景区域、可能前景区域,周围区域为背景、可能背景区域,前景区域和可能前景区域构成前景模型,背景和可能背景构成背景模型;
S4:高斯混合模型建模,具体包括:
S42:学习优化混合高斯模型参数,将可能前景区域像素点和可能背景区域像素点分别带入到前景模型和背景模型中计算,选择概率最大的混合高斯模型参数重新分配未知的像素点,然后根据重新分配以后的前景模型和背景模型对混合高斯模型的参数进行更新,将舌体定位后图片中心的颜色设置为前景区域,将牙齿的颜色、面区域的颜色、口腔的区域的颜色设置为可能背景区域并且设置为黑色,并通过min cut算法进行分割;
S43:重复步骤S42:直到收敛或达到规定的迭代次数以后,得到分割以后的舌体图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210412947.8A CN114511567B (zh) | 2022-04-20 | 2022-04-20 | 舌体与舌苔图像识别分离方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210412947.8A CN114511567B (zh) | 2022-04-20 | 2022-04-20 | 舌体与舌苔图像识别分离方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114511567A CN114511567A (zh) | 2022-05-17 |
CN114511567B true CN114511567B (zh) | 2022-08-05 |
Family
ID=81555529
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210412947.8A Active CN114511567B (zh) | 2022-04-20 | 2022-04-20 | 舌体与舌苔图像识别分离方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114511567B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115100685A (zh) * | 2022-07-07 | 2022-09-23 | 五邑大学 | 一种基于OpenCV的舌质舌苔识别方法 |
CN118632654A (zh) * | 2022-12-29 | 2024-09-10 | 香港浸会大学 | 收集与量化舌像特征的方法与装置 |
CN116596891B (zh) * | 2023-05-22 | 2024-09-10 | 南京林业大学 | 基于半监督多任务检测的木地板颜色分类及缺陷检测方法 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104156715A (zh) * | 2014-09-01 | 2014-11-19 | 杭州朗和科技有限公司 | 一种终端设备、信息采集方法及装置 |
CN106295139A (zh) * | 2016-07-29 | 2017-01-04 | 姹ゅ钩 | 一种基于深度卷积神经网络的舌体自诊健康云服务系统 |
CN107330889A (zh) * | 2017-07-11 | 2017-11-07 | 北京工业大学 | 一种基于卷积神经网络的中医舌色苔色自动分析方法 |
CN107977671A (zh) * | 2017-10-27 | 2018-05-01 | 浙江工业大学 | 一种基于多任务卷积神经网络的舌象分类方法 |
CN108109160A (zh) * | 2017-11-16 | 2018-06-01 | 浙江工业大学 | 一种基于深度学习的免交互式GrabCut舌体分割方法 |
CN109377441A (zh) * | 2018-08-20 | 2019-02-22 | 清华大学 | 具有隐私保护功能的舌像采集方法和系统 |
CN109410168A (zh) * | 2018-08-31 | 2019-03-01 | 清华大学 | 用于确定图像中的子图块的类别的卷积神经网络模型的建模方法 |
CN109584251A (zh) * | 2018-12-06 | 2019-04-05 | 湘潭大学 | 一种基于单目标区域分割的舌体图像分割方法 |
CN109636864A (zh) * | 2018-12-19 | 2019-04-16 | 新绎健康科技有限公司 | 一种基于颜色校正与深度卷积神经网络的舌分割方法及系统 |
CN110929740A (zh) * | 2019-11-21 | 2020-03-27 | 中电健康云科技有限公司 | 一种基于lgbm模型的舌质舌苔分离方法 |
CN113143201A (zh) * | 2020-01-22 | 2021-07-23 | 北京大学第三医院 | 基于舌苔舌质图像的诊断系统 |
CN113724228A (zh) * | 2021-08-31 | 2021-11-30 | 平安科技(深圳)有限公司 | 舌色苔色识别方法、装置、计算机设备及存储介质 |
CN114372926A (zh) * | 2021-12-21 | 2022-04-19 | 华东理工大学 | 一种基于图像修复与卷积神经网络的中医舌质老嫩识别方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100405402C (zh) * | 2006-08-18 | 2008-07-23 | 清华大学 | 舌头彩色数码照片的舌苔的分割提取方法 |
CN103985113B (zh) * | 2014-03-12 | 2017-09-29 | 浙江工商大学 | 舌像分割方法 |
CN107507250B (zh) * | 2017-06-02 | 2020-08-21 | 北京工业大学 | 一种基于卷积神经网络的面色舌色图像颜色校正方法 |
CN113130066A (zh) * | 2021-03-22 | 2021-07-16 | 杭州电子科技大学 | 一种基于人工智能的舌诊图像识别方法 |
-
2022
- 2022-04-20 CN CN202210412947.8A patent/CN114511567B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104156715A (zh) * | 2014-09-01 | 2014-11-19 | 杭州朗和科技有限公司 | 一种终端设备、信息采集方法及装置 |
CN106295139A (zh) * | 2016-07-29 | 2017-01-04 | 姹ゅ钩 | 一种基于深度卷积神经网络的舌体自诊健康云服务系统 |
CN107330889A (zh) * | 2017-07-11 | 2017-11-07 | 北京工业大学 | 一种基于卷积神经网络的中医舌色苔色自动分析方法 |
CN107977671A (zh) * | 2017-10-27 | 2018-05-01 | 浙江工业大学 | 一种基于多任务卷积神经网络的舌象分类方法 |
CN108109160A (zh) * | 2017-11-16 | 2018-06-01 | 浙江工业大学 | 一种基于深度学习的免交互式GrabCut舌体分割方法 |
CN109377441A (zh) * | 2018-08-20 | 2019-02-22 | 清华大学 | 具有隐私保护功能的舌像采集方法和系统 |
CN109410168A (zh) * | 2018-08-31 | 2019-03-01 | 清华大学 | 用于确定图像中的子图块的类别的卷积神经网络模型的建模方法 |
CN109584251A (zh) * | 2018-12-06 | 2019-04-05 | 湘潭大学 | 一种基于单目标区域分割的舌体图像分割方法 |
CN109636864A (zh) * | 2018-12-19 | 2019-04-16 | 新绎健康科技有限公司 | 一种基于颜色校正与深度卷积神经网络的舌分割方法及系统 |
CN110929740A (zh) * | 2019-11-21 | 2020-03-27 | 中电健康云科技有限公司 | 一种基于lgbm模型的舌质舌苔分离方法 |
CN113143201A (zh) * | 2020-01-22 | 2021-07-23 | 北京大学第三医院 | 基于舌苔舌质图像的诊断系统 |
CN113724228A (zh) * | 2021-08-31 | 2021-11-30 | 平安科技(深圳)有限公司 | 舌色苔色识别方法、装置、计算机设备及存储介质 |
CN114372926A (zh) * | 2021-12-21 | 2022-04-19 | 华东理工大学 | 一种基于图像修复与卷积神经网络的中医舌质老嫩识别方法 |
Non-Patent Citations (1)
Title |
---|
基于远程医疗的中医望诊智能分析系统研究;曹嘉伟;《中国优秀博硕士学位论文全文数据库(硕士)医药卫生科技辑》;20220115;正文第19-44页,图3-3,3-5,3-6,3-7 * |
Also Published As
Publication number | Publication date |
---|---|
CN114511567A (zh) | 2022-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114511567B (zh) | 舌体与舌苔图像识别分离方法 | |
CN103914699B (zh) | 一种基于色彩空间的自动唇彩的图像增强的方法 | |
CN108665463A (zh) | 一种基于对抗式生成网络的宫颈细胞图像分割方法 | |
CN105893925A (zh) | 基于肤色的人手检测方法及装置 | |
CN107220624A (zh) | 一种基于Adaboost算法的人脸检测方法 | |
CN106548165A (zh) | 一种基于图像分块加权的卷积神经网络的人脸识别方法 | |
CN102867295B (zh) | 一种彩色图像颜色校正方法 | |
WO2020038312A1 (zh) | 多通道舌体边缘检测装置、方法及存储介质 | |
CN103839079A (zh) | 一种基于分类学习的相似图像彩色化算法 | |
CN115631350B (zh) | 罐印图像的颜色识别方法和装置 | |
CN108615229B (zh) | 基于曲率点聚类及决策树的碰撞检测优化方法 | |
CN104504722A (zh) | 一种利用灰色点校正图像颜色的方法 | |
CN110853064A (zh) | 一种基于最小模糊散度的图像协同分割方法 | |
CN110648336B (zh) | 一种舌质和舌苔的分割方法及装置 | |
CN108711160A (zh) | 一种基于hsi增强性模型的目标分割方法 | |
CN113129390A (zh) | 一种基于联合显著性的色盲图像重新着色方法及系统 | |
CN116452526B (zh) | 一种基于图像检测的稻种识别和计数方法 | |
CN115601358B (zh) | 一种自然光环境下的舌象图像分割方法 | |
CN116597029B (zh) | 一种针对色盲的图像重着色方法 | |
CN118351468A (zh) | 一种基于无人机的农作物病虫害识别方法及系统 | |
CN112365485A (zh) | 一种基于Circular LBP和颜色空间转换算法的黑色素瘤识别方法 | |
CN115274093B (zh) | 生成包含自动标注文件的基准病理数据集的方法及系统 | |
CN106340038B (zh) | 一种基于单目图像中物体的深度次序推理方法 | |
CN114648512A (zh) | 舌下图像分析方法、装置、计算机设备和存储介质 | |
CN109658382B (zh) | 基于图像聚类和灰度投影的舌体定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |