[go: up one dir, main page]

CN108182380B - 一种基于机器学习的鱼眼瞳孔智能测量方法 - Google Patents

一种基于机器学习的鱼眼瞳孔智能测量方法 Download PDF

Info

Publication number
CN108182380B
CN108182380B CN201711248089.3A CN201711248089A CN108182380B CN 108182380 B CN108182380 B CN 108182380B CN 201711248089 A CN201711248089 A CN 201711248089A CN 108182380 B CN108182380 B CN 108182380B
Authority
CN
China
Prior art keywords
fish
fisheye
eye
pupil
classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711248089.3A
Other languages
English (en)
Other versions
CN108182380A (zh
Inventor
赵瑶池
胡祝华
刘世光
张逸然
骆剑
钟杰卓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201711248089.3A priority Critical patent/CN108182380B/zh
Publication of CN108182380A publication Critical patent/CN108182380A/zh
Application granted granted Critical
Publication of CN108182380B publication Critical patent/CN108182380B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/48Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/80Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in fisheries management
    • Y02A40/81Aquaculture, e.g. of fish

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于机器学习的鱼类瞳孔直径的智能测量方法,所述方法包括:采集鱼例图像,计算采集的鱼例图的鱼眼分类器,利用鱼眼分类器获得鱼眼区域,计算所述鱼眼区域的鱼眼瞳孔的像素尺寸,将所述鱼眼瞳孔的像素尺寸转换为鱼眼实际尺寸。本发明提供的方法,利用基于AdaBoost的机器学习方法训练得到的鱼眼分类器,能正确检测鱼例图像中的鱼眼区域,结合计算机视觉技术、图像处理技术能实现鱼眼瞳孔的无接触式智能测量,在保证测量数据的精确性和稳定性的同时提高测量的效率以及测量的智能性。

Description

一种基于机器学习的鱼眼瞳孔智能测量方法
技术领域
本发明涉及水产养殖领域的测量方法,涉及一种鱼眼瞳孔参数的智能测量方法。
背景技术
水产养殖过程中,鱼的特征参数具有重要的意义,例如,鱼类良种的选育中,需定期测量诸如体长、体宽、尾柄长以及鱼眼瞳孔等鱼类的生长性状,这些指标为制定选育和配种计划具有重要参考价值,对于良种选育的评估有着不可或缺的作用。另外,这些指标,在鱼的等级、新鲜度分类评价中,鱼的体长、体宽、尤其是鱼眼瞳孔数据是重要的评判参数。
然而,传统的鱼类体征参数的测量方法是在鱼体离水的情况下用直尺和游标卡尺等测量工具分步多次测量的,为了降低鱼类的剧烈应激反应,需将鱼麻醉后测量的,这样不仅耗时、耗力,并且在测量后部分测量活体可能会出现停止进食,甚至导致无法保活,对鱼类的生长和存活都造成了难以逆转的影响。因此,需要提供一种能够实现鱼类体征测量的智能化、精准化和无接触化。
使用计算机视觉和图像处理技术来测量鱼的各项体征指标可以实现无接触化测量,并可在很大程度上提高测量效率。利用该类技术在鱼体提取,鱼体征数据测量和进一步分级、分类方面已经开展了一些研究,但大都是针对体长、体宽和体重数据的测量,在鱼眼瞳孔测量方面,由于鱼眼是嵌入鱼的体内的,将其从鱼体中区分出来,并将鱼眼瞳孔从鱼眼虹膜中自动分割出来难度较大,无疑给基于计算机视觉的测量技术提出了较高的要求,因此鱼眼瞳孔智能测量与实际期待存在巨大距离。
发明内容
为了缩小或消除这一差距,本发明提供了一种新颖的鱼眼瞳孔直径智能测量方法。利用基于Adboost的机器学习算法训练获得鱼眼分类器,使用该分类器对鱼例图像检测并识别出其中的鱼眼区域,并利用Hough圆变换检测得到鱼眼瞳孔,并计算瞳孔直径。该方法可以解决传统鱼眼瞳孔直径测量中耗时耗力且精度差、效率低的弊端,实现无损、准确、智能化测量。
本发明提供了一种新颖的鱼眼瞳孔直径智能测量方法,其目的是为了利用机器学习方法和计算机视觉技术智能测量鱼眼瞳孔参数,在提升测量效率的同时,实现鱼眼瞳孔的无损和智能测量。
本发明采用下述技术方案:
一种基于机器学习的鱼眼瞳孔智能测量方法,所述方法包括:
S1.采集鱼例图像;
S2.计算采集的所述鱼例图像中的鱼眼分类器;
S3.利用鱼眼分类器获得并提取鱼眼区域;
S4.计算鱼眼区域的鱼眼瞳孔像素尺寸;
S5.将所述鱼眼瞳孔的像素尺寸转换为鱼眼实际尺寸。
优选地,所述鱼眼分类器包括:
S2-1.用采集的鱼例图生成鱼眼图像的正、负样本集;
S2-2.从所述样本集中提取出样本的特征值;
S2-3用AdaBoost算法从所述样本特征值得到鱼眼分类器。
进一步地,所述鱼眼图像样本的特征为Haar-like特征,包含边缘特征、线性特征和中心环绕特征。
优选地,所述检测并提取鱼眼区域包括:
S3-1.对鱼例图像中手动截取的鱼眼部分进行灰度化后作为正样本集;从鱼例图像灰度化后等分的小图像中剔除包含鱼眼的部分后剩下的作为负样本集;
S3-2.从所述样本集中提取Haar-like特征,并用积分图计算特征值;;
S3-3.从输入所述特征值的鱼眼分类器,获取所述鱼眼区域。
进一步地,所述鱼眼区域为圆形区域。
优选地,所述鱼眼瞳孔的像素尺寸的计算包括:
S4-1.对鱼眼区域灰度化;
S4-2.用Hough圆将所述灰度化的鱼眼区域变换所述鱼眼瞳孔的像素尺寸;
优选地,所述采集鱼例图像包括,
按下式将所述转换鱼眼瞳孔像素尺寸转换为实际尺寸:
Figure GDA0001597587100000031
上式中,LRP为图像采集装置平台实际底长,LCP为图像采集装置底长的像素
尺寸,LCFx表示瞳孔像素尺寸,LRFx表示瞳孔实际尺寸。
与最接近的现有技术相比,本发明具有以下有益效果:
1.本发明采用的技术方案利用计算机视觉和图像处理技术来测量鱼眼瞳孔直径,可以实现非接触、无损测量。
2.本发明利用了机器学习方法,用来训练鱼眼分类器,在测量过程中基本不依赖人工操作,也无需任何的经验值,可以实现智能测量。
3.与人工测量相比,本发明利用测量速度快,还可以避免人工操作过程中由于操作者生理疲劳带来的失误,提高测量精确度和测量效率。
附图说明
图1为本发明的流程图
图2为本发明基于机器学习的鱼眼瞳孔智能测量方法的结构图;
图3为本发明实施例中采集到的鱼例图像;
图4为本发明实施例中的正样本;
图5为本发明实施例中负样本;
图6为本发明实施例中用于描述鱼眼的特征示例;
图7为本发明实施例中将强分类器进行级联的流程图;
图8为本发明实施例中检测鱼眼区域步骤中得到的灰度图像以及检测到的鱼眼区域;
图9为本发明实施例中部分鱼例被检测到的鱼眼区域;
图10为本发明实施例中鱼眼瞳孔直径与人工测量直径的相对偏差统计图;
图11为本发明实施例中算法消耗的时间折线图。
具体实施方式
下面结合附图对本发明的具体实施方式做详细说明。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
本发明提供了一种新颖的鱼眼瞳孔直径智能测量方法,如图1-2所示,包括:
S1.采集鱼例图像;
S2.计算得到鱼眼分类器;
S3.利用鱼眼分类器检测并提取鱼眼区域;
S4.在鱼眼区域内计算得到鱼眼瞳孔的像素尺寸;
S5.将鱼眼瞳孔的像素尺寸转换为鱼眼实际尺寸。
优选地,所述训练鱼眼分类器包括:
S2-1.生成鱼眼图像的正、负样本;
S2-2.提取出样本的特征值;
S2-3采用AdaBoost算法对样本特征值训练得到鱼眼分类器。
进一步地,所述鱼眼图像样本的特征为Haar-like特征,包含边缘特征、线性特征和中心环绕特征。
优选地,所述检测并提取鱼眼区域包括:
S3-1.对鱼例图像进行灰度化;
S3-2.对步骤S3-1得到的鱼眼区域提取Haar-like特征,用积分图计算特征值;
S3-3.将步骤S3-2中得到的特征值输入到鱼眼分类器,检测并提取出鱼眼区域。
进一步地,所述鱼眼区域为圆形区域。
优选地,所述计算鱼眼瞳孔的像素尺寸包括:
S4-1.对鱼眼区域进行灰度化处理;
S4-2.对鱼眼区域采用Hough圆变换得到鱼眼瞳孔的像素尺寸;
优选地,按下式将所述转换鱼眼瞳孔像素尺寸转换为实际尺寸:
Figure GDA0001597587100000041
上式中,LRP为图像采集装置平台实际底长,LCP为图像采集装置底长的像素尺寸,LCFx表示瞳孔像素尺寸,LRFx表示瞳孔实际尺寸。
实施例:以卵形鲳鲹的眼部瞳孔尺寸的智能测量为例进一步说明本发明的具体的方法:
步骤1,在正常的光照条件下,海南省陵水县新村镇盐墩村海南蓝海洋水产养殖有限公司——海南大学海洋学院产学研基地,用OLYMPUS TG-4,f/2.0,焦距:4mm,自带镜头畸变校正的相机采集了1000张卵形鲳鲹的鱼例图像,图像的格式为JPEG,颜色模式为RGB,图像的尺寸为4608×3456,图像的采集平台长560mm,像素尺寸为4608。鱼例图像中,100张用于测定,其余的部分图例用于制作鱼例图像的正负样本,正负样本图像的尺寸分别为24*24和284*284。将测得的图像批量导入到鱼眼特征参数测量系统中,对每一张图像依次进行下述步骤的处理。
步骤2,从采集的图3所示的鱼例图像,制作图4所示的700张鱼眼的正样本图像,图5所示的2124张负样本图像。样本的制作步骤如下:
从鱼例图像中手动截取出鱼眼部分,灰度化后作为正样本集。将鱼例图像灰度化后等分成若干个小图像,剔除这些小图像中包含鱼眼的部分,对剩下的灰度化并作为负样本集。
用Adaboost算法计算正和负样本集图像的鱼眼分类检测器值,该计算包括:
(1)计算特征值
计算正和负样本的Haar-like特征值,用于描述鱼眼特征的Haar-like特征示例如图6所示,分别为边缘特征、线性特征和中心环绕特征。
(2)AdaBoost计算包括:
基于Haar-like特征的弱分类器值hj(x)如下式所示:
Figure GDA0001597587100000051
其中,pj是控制不等式方向的符号因子;fj(x)表示第j个Haar-like特征;θ是特征值fj对应的阈值,用此阈值判断该窗口是否为所要检测的物体。
按上述步骤,用Haar-like特征生成分类集,在分类集中寻找错误最小的弱分类器,最后将这些分类器级联成强分类器。算法如下:
Figure GDA0001597587100000052
Figure GDA0001597587100000061
(3)强分类器的级联
用多层检测方式,对强分类器进行如图7所示的级联,以取得更高的检出率,得到的AdaBoost分类器值用于鱼眼检测。
步骤3,鱼眼检测过程:先对实验图像进行灰度化,再根据计算得到的鱼眼检测分类器值从检测的图像中检测出鱼眼区域,得到ROI(Region of Interest)并从鱼例图像中分离出来。具体步骤如下:
(1)输入一张鱼例图像,将其转化为灰度图像;
(2)从灰度图像中提取Haar-like特征:,用积分图计算其Haar-like特征值;
(3)输入Haar-like特征值,计算得到AdaBoost分类器hj(x),检测出鱼眼区域,并求其内切圆,得到鱼眼区域,ROI区域;
(4)从步骤(1)的鱼例图中分离出ROI区域。
图8为本步骤中的鱼例灰度图像,以及检测到的鱼眼区域。本实施例中的鱼例图像中检测出的鱼眼区域示于图9的蓝色圆圈圈出的部分。
步骤4,从检测鱼眼瞳孔中得到像素尺寸。
用hough圆变换得到鱼眼瞳孔,其步骤如下:
(1)用Canny算子对ROI区域进行边缘提取;
(2)对提取的边缘进行形态学运算;
(3)在边缘上选取3点,再根据圆的方程和三点位置求取圆参数;
(4)重复步骤(3),从边缘上的任意三点求圆的参数;
(5)选取最密集区域的圆作为鱼眼瞳孔,从而得到瞳孔像素尺寸。
步骤5,按下式将鱼眼瞳孔的像素尺寸转换为鱼眼实际尺寸:
Figure GDA0001597587100000071
其中,LRP为图像采集装置底长的实际尺寸,LCP为图像采集装置底长的像素尺寸,LCFx表示瞳孔像素尺寸,LRFx表示瞳孔实际尺寸。瞳孔实际尺寸LRFx按式LRFx=LCFx*5600/4608计算。
用下式所示的相对误差δ检查本实施例的测量精度,:δ=(LRF-L)/L,其中,LRF为系统测量值,L为标准值本实施例中,LRF为3次人工测量的平均值。人工测量过程为:将麻醉后的鱼平放在量鱼板上,用卡尺对鱼眼瞳孔和虹膜分别测量3次,并记录测量结果,平均值作为L。
按上述步骤5测量卵形鲳参数与人工测量结果的相对偏差如图10所示,统计分析说明正确检测率为94.2%,漏检率为1.5%,误检率为4.3%。检测出的瞳孔的详细数据及实际效果列于表1。
本实施例的运行耗时情况的统计,本发明实施例的效率示于图11,,图11说明:平均耗时为324.371ms,本发明提供的技术方案检测速度可达约185尾鱼/min。实际测量统计:手工方式测量瞳孔速度仅约为8尾鱼/min。另外批量测量时,人工测量的操作者会出现生理疲劳性,而本发明方法检测速度稳定,测量结果更为准确、客观;另外,操作者的熟练度也会影响测量耗时,在这些情况下更能体现本发明提供的技术方案的优越性。
本发明的方法基本不需要人工操作,由于引入了机器学习方法,也无需任何的对鱼的先验知识要求,所以,本文方法还可以推广到其他绝大多数鱼类的鱼眼测量。
表1
Figure GDA0001597587100000081
Figure GDA0001597587100000091
最后应当说明的是:以上实施例仅用以说明本发明的技术方案而非对其限制,尽管参照上述实施例对本发明进行了详细的说明,所属领域的普通技术人员应当理解:依然可以对本发明的具体实施方式进行修改或者等同替换,而未脱离本发明精神和范围的任何修改或者等同替换,其均应涵盖在本发明的权利要求保护范围之内。

Claims (5)

1.一种基于机器学习的鱼眼瞳孔智能测量方法,采集鱼例图像,其特征在于,所述方法包括:
S1.计算采集的鱼例图的鱼眼分类器;
S2.利用鱼眼分类器获得鱼眼区域;
S3.计算所述鱼眼区域的鱼眼瞳孔的像素尺寸;
S4.将所述鱼眼瞳孔的像素尺寸转换为鱼眼实际尺寸;
生成所述鱼眼分类器包括:
S2-1.用采集的鱼例图生成鱼眼图像正、负样本集;
S2-2.从所述样本集提取样本的特征值;
S2-3用AdaBoost算法对样本特征值的鱼眼分类器;
用Adaboost算法计算正和负样本集图像的鱼眼分类检测器值,该计算包括:
(1)计算特征值;
计算正和负样本的Haar-like特征值,用于描述鱼眼特征的Haar-like特征:边缘特征、线性特征和中心环绕特征;
(2)AdaBoost计算包括:
基于Haar-like特征的弱分类器值hj(x)如下:
Figure FDA0004092927380000011
其中,pj是控制不等式方向的符号因子;fj(x)表示第j个Haar-like特征;θ是特征值fj对应的阈值,用此阈值判断是否为所要检测的物体;
按上述步骤(1)-(2),用Haar-like特征生成分类集,在分类集中寻找错误最小的弱分类器,最后将这些分类器级联成强分类器,算法如下:
Input:样本集(x1,y1),......,(xn,yn),当yi=-1时,代表负样本,即非鱼眼;当yi=1时,代表正样本,即鱼眼;n代表样本总数;
Initialize:当yi=-1时,权重
Figure FDA0004092927380000012
m代表负样本的数量;当yi=1
Figure FDA0004092927380000013
l代表正样本的数量;
Iteration:For t=1,......T:
1)归一化权重:
Figure FDA0004092927380000021
2)计算每一个特征fj的一个弱分类器值hj,且每个弱分类器都只能使用一种特征计算,该特征的误差为
Figure FDA0004092927380000022
其中,j表示Haar-like特征中的j特征,而i表示第i个样本;
3)选择对应最小特征误差∈t的弱分类器ht
4)更新权重:
Figure FDA0004092927380000023
其中
Figure FDA0004092927380000024
U为与ωt,i成正比,与β1成反比的一个阈值;
5)若∈t=0或
Figure FDA0004092927380000025
那么令T=t-1,退出循环;
Output:强分类器:
Figure FDA0004092927380000026
其中
Figure FDA0004092927380000027
所述强分类器的级联:
用多层检测方式,对强分类器进行级联,取得更高的检出率,得到的AdaBoost分类器值用于鱼眼检测。
2.如权利要求1所述的方法,其特征在于,所述获得鱼眼区域包括:
S3-1.对鱼例图像中手动截取的鱼眼部分进行灰度化后作为正样本集;从所述鱼例图像灰度化后等分的图像中剔除包含鱼眼的部分后剩下的作为负样本集;
S3-2.从所述样本集中提取Haar-like特征,并用积分图计算特征值;
S3-3.从输入所述特征值的鱼眼分类器中获取所述鱼眼区域。
3.如权利要求2所述的方法,其特征在于,所述鱼眼区域为圆形区域。
4.如权利要求1所述的方法,其特征在于,所述鱼眼瞳孔的像素尺寸的计算包括:
S4-1.对鱼眼区域灰度化;
S4-2.用Hough圆将所述灰度化的鱼眼区域变换为所述鱼眼瞳孔的像素尺寸。
5.一种如权利要求1所述的基于机器学习的鱼眼瞳孔智能测量方法,其特征在于,所述采集鱼例图像包括:样品存放器、支撑臂和摄像机;
所述支撑臂将所述摄像机支撑于所述样品存放器上方;
所述支撑臂为在水平方向距离和竖直方向高度均可调节的支撑臂,并记录信息,并用LRP表示图像采集装置平台的实际底长,I表示采集到的鱼例图像,LCP表示图像采集装置平台底长的像素尺寸。
CN201711248089.3A 2017-11-30 2017-11-30 一种基于机器学习的鱼眼瞳孔智能测量方法 Active CN108182380B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711248089.3A CN108182380B (zh) 2017-11-30 2017-11-30 一种基于机器学习的鱼眼瞳孔智能测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711248089.3A CN108182380B (zh) 2017-11-30 2017-11-30 一种基于机器学习的鱼眼瞳孔智能测量方法

Publications (2)

Publication Number Publication Date
CN108182380A CN108182380A (zh) 2018-06-19
CN108182380B true CN108182380B (zh) 2023-06-06

Family

ID=62545453

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711248089.3A Active CN108182380B (zh) 2017-11-30 2017-11-30 一种基于机器学习的鱼眼瞳孔智能测量方法

Country Status (1)

Country Link
CN (1) CN108182380B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110347134A (zh) * 2019-07-29 2019-10-18 南京图玩智能科技有限公司 一种ai智能水产养殖样本识别方法及养殖系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008151471A1 (fr) * 2007-06-15 2008-12-18 Tsinghua University Procédé de positionnementrobuste et précis de l'oeil dans une image d'arrière-plan compliquée
WO2012039139A1 (ja) * 2010-09-24 2012-03-29 パナソニック株式会社 瞳孔検出装置及び瞳孔検出方法
CN103136512A (zh) * 2013-02-04 2013-06-05 重庆市科学技术研究院 一种瞳孔定位方法及系统
CN103440476A (zh) * 2013-08-26 2013-12-11 大连理工大学 一种人脸视频中瞳孔的定位方法
CN104482860A (zh) * 2014-12-05 2015-04-01 浙江大学宁波理工学院 鱼类形态参数自动测量装置和方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008151471A1 (fr) * 2007-06-15 2008-12-18 Tsinghua University Procédé de positionnementrobuste et précis de l'oeil dans une image d'arrière-plan compliquée
WO2012039139A1 (ja) * 2010-09-24 2012-03-29 パナソニック株式会社 瞳孔検出装置及び瞳孔検出方法
CN103136512A (zh) * 2013-02-04 2013-06-05 重庆市科学技术研究院 一种瞳孔定位方法及系统
CN103440476A (zh) * 2013-08-26 2013-12-11 大连理工大学 一种人脸视频中瞳孔的定位方法
CN104482860A (zh) * 2014-12-05 2015-04-01 浙江大学宁波理工学院 鱼类形态参数自动测量装置和方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
基于AdaBoost的人眼检测优化算法;柳秀秀;《中国优秀硕士学位论文全文数据库信息科技辑》;20170515;摘要、第3-4章 *
基于图像处理的瞳孔大小检测算法研究;张慧敏等;《光电技术应用》;20170228;摘要、第1-3节 *
基于计算机视觉的卵形鲳鲹眼部特征检测方法研究;胡祝华等;《渔业现代化》;20170831;摘要、第1-6节 *

Also Published As

Publication number Publication date
CN108182380A (zh) 2018-06-19

Similar Documents

Publication Publication Date Title
CN102176228B (zh) 一种用于识别多个指针式仪表表盘信息的机器视觉方法
CN105389593B (zh) 基于surf特征的图像物体识别方法
CN109977780A (zh) 一种基于深度学习算法的硅藻的检测与识别方法
US9626577B1 (en) Image selection and recognition processing from a video feed
WO2019000653A1 (zh) 一种图像目标识别方法及装置
CN103093215A (zh) 人眼定位方法及装置
CN103810491B (zh) 融合深度和灰度图像特征点的头姿估计兴趣点检测方法
WO2020098038A1 (zh) 瞳孔跟踪图像处理方法
CN108470338B (zh) 一种水位监测方法
CN102760228B (zh) 基于标本图像的鳞翅目昆虫种类自动鉴别方法
CN108230307B (zh) 一种基于轮廓质心距离与神经网络的玉米破碎粒检测方法
CN106446952A (zh) 一种乐谱图像识别方法及装置
CN108564085A (zh) 一种自动读取指针式仪表读数的方法
CN109034269A (zh) 一种基于计算机视觉技术的棉铃虫雌雄成虫判别方法
CN109035254A (zh) 基于改进K-means聚类的运动鱼体阴影去除及图像分割方法
CN102855485B (zh) 一种小麦抽穗的自动检测方法
CN107464249A (zh) 一种羊只无接触体尺测量方法
CN110555384A (zh) 基于图像数据的牛肉大理石纹自动分级系统及方法
Gong et al. A method for wheat head detection based on yolov4
CN106709529A (zh) 一种光伏电池色差分类的视觉检测方法
CN106611159A (zh) 一种基于机器视觉的小鼠探索的识别方法
CN102915449A (zh) 一种照片分类方法
CN108182380B (zh) 一种基于机器学习的鱼眼瞳孔智能测量方法
CN107507192B (zh) 一种水稻剑叶夹角在体测量便携装置及在体测量方法
CN107220972B (zh) 一种基于红外图像的禽蛋品质鉴别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant