[go: up one dir, main page]

CN107274486A - 一种模型3d效果图的生成方法 - Google Patents

一种模型3d效果图的生成方法 Download PDF

Info

Publication number
CN107274486A
CN107274486A CN201710495621.5A CN201710495621A CN107274486A CN 107274486 A CN107274486 A CN 107274486A CN 201710495621 A CN201710495621 A CN 201710495621A CN 107274486 A CN107274486 A CN 107274486A
Authority
CN
China
Prior art keywords
model
image
wall
point
width
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710495621.5A
Other languages
English (en)
Inventor
张小波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Tianyiyun Information Technology Co ltd
Original Assignee
Guangzhou Tianyiyun Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Tianyiyun Information Technology Co ltd filed Critical Guangzhou Tianyiyun Information Technology Co ltd
Priority to CN201710495621.5A priority Critical patent/CN107274486A/zh
Publication of CN107274486A publication Critical patent/CN107274486A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • G06T3/608Rotation of whole images or parts thereof by skew deformation, e.g. two-pass or three-pass rotation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种模型3D效果图的生成方法,第一步,平面图像的预处理;第二步,区域分块;第三步,稀疏像素点矢量化;第四步,起始中轴点和追踪方向选取;第五步,稀疏点追踪;第六步,结点分割;第七步,线段整合;第八步,墙体与附属物识别;第九步,三维构建。本发明的模型3D效果图的生成方法,对用户提供的模型平面图像进行区域分块,有效地抽取包含墙体对象的子区域,并将分块图像的稀疏点像素矢量化,便于抽取墙体的位置和尺寸等信息;采用线性辨别分析方法,识别出墙体上的门窗和孔洞等建筑部件,并实现建筑部件在图纸中位置的精确定位,能够根据平面图快速生成3D效果图,提高了工作效率。

Description

一种模型3D效果图的生成方法
技术领域
本发明涉及一种模型3D效果图的生成方法,属于3D效果图生成技术领域。
背景技术
传统的建筑设计中一般使用平面图来表示建筑物的结构,然而,建筑工程图外在表达上的示意性、内部描述上的多样性、以及对局部环境的依赖性给识别和理解带来困难;人工读图依赖于一定的工程经验、领域知识的积累以及读图时的精神状态,如果缺乏足够的建筑专业知识或缺乏足够的专心与精力,则会出现理解上的偏差,所以这种建筑工程图需要一定的专业知识才能被读懂,并不方便非专业人员对于建筑物空间结构的了解;另外,不同建筑部门对于同一建筑工程图集会可能产生多次重复计算,如计算建筑物需要多少钢材和水泥等信息,布置电线和暖气时仍需要计算其用量等;这些重复的计算将会影响其整体效益的提高;而且传统的二维建筑图已经不能满足人们越来越高的视觉要求;随着三维制图软件的不断发展应用,在很多应用中都需要使用建筑物的三维模型来更加直观和方便的表示建筑物的空间结构。
发明内容
为解决上述问题,本发明提出了一种模型3D效果图的生成方法,能够根据平面图快速生成3D效果图,提高了工作效率。
本发明的模型3D效果图的生成方法,所述方法包括如下步骤:
第一步,输入扫描的模型平面图纸,并进行图像的预处理,
a.针对来源广泛,格式不一的输入图像首先将其统一转为灰度图;
b.进行二值化处理后转为黑白点阵图;
c.采用图像形态学的方法进行去噪处理,将模型部件之外的对象图像剔除;
d.通过霍夫变换提取平面图的两个主要方向,据此旋转矫正使得图像的两个主方向分别与图像的x、y坐标向平行,旋转矫正步骤有助于后续图像分块,并提高矢量化的效果;
第二步,基于积分投影的区域分块,将预处理后的图像通过平均积分投影函数来提取包含墙体线条的图像区域;当图像的某一列或行像素灰度均值发生变化时,这种变化会在该列或行的平均积分投影值上反应出来;平均积分投影函数如下:
式中,
I(x,y)表示点(x,y)处的像素灰度值;
Mv(x)表示在区间【y1,y2】上的垂直平均积分投影函数;
Mh(y)表示在区间【x1,y2】上的水平平均积分投影函数;
第三步,分块图像的稀疏像素点矢量化,经过积分投影步骤后,整个图像被分解为若干个子图像,每个子图像包含数个竖直或者水平的图像单元,经过处理后获取带宽度的线段集合,进一步获得墙体几何等基本模型信息;
第四步,起始中轴点和追踪方向选取,寻找起始中轴点,扫描线在分块二值图像上以预定步长自上而下扫描;
第五步,稀疏点追踪,根据长度方向,确定搜索顺序;如果长度方向是水平的,则追踪顺序为先右后左;如果长度方向是竖直的,则先下后上;
第六步,结点分割,当违反一个或多个继续追踪条件时,稀疏点追踪程序暂停,启用结点分割程序;结点分割包括以下三步迭代:
a.退回上一个中轴点;
b.调整追踪步长为当前步长的一半;
c.在新的位置处检测继续条件;
如果检测失败,则将步长减半后再执行一次迭代;但若在新位置处的点,所有条件都满足,那么自该点起恢复原始追踪步长,并执行追踪程序;重复迭代,直至追踪步的长度变为0,结点分割程序终止,最后找到的满足所有条件的点为新的中轴点;通过这种处理,程序能够较准确地将十字交叉区域,以交叉点为界分为三条直线段,也能十分精准地将拐角处的折线分为两段;
第七步,线段整合,输入待处理的各条线段,包含起始、终止坐标位置及线宽信息的数据结构;用终止坐标减去起始坐标得到每条线段的向量表示,运用向量求夹角公式,分别求出每两个向量的夹角,若两个向量夹角接近于0,则认为对应的两条线段的中心轴几乎平行;之后判断这两条平行线段的近邻点距离,如果不大于一个给定线宽,则合并两条直线,将由结点分割程序割裂的十字交叉线段整合为一条完整线;
第八步,墙体与附属物识别,在每个分块子图像中,获取若干带宽度的直线段,通过分析这些矢量内容,进一步识别出墙体和门窗等附属物信息;
第九步,三维构建,
a.将模型建模的各种部件与元素,包括地面、墙壁、门、窗和阳台等,定义为形状单元;一个形状单元表达为一个四元组S={ N,G,B,P},式中,N表示对象名称;G表示单元的几何信息,特指为多边形网格曲面;B表示带方向的几何包围盒,用于指定单元的位置、体量;P表示单元的其他属性;
b.对用户提供的模型平面图进行识别,并根据识别结果,进行三维模型的快速生成,得到3D效果图。
进一步地,所述第四步的具体操作步骤如下:
a.假设扫描到的第一个黑色像素点记为P0,自P0向右扫描,直至遇到第一个白色像素点记为 P0',并获得此次水平运行中点 P1(P0和P0'的中点);
b.继续从P1开始,在竖直方向上作方向相反的两次扫描,找到竖直运行的中点P2;同样,由P2找到水平运行中点P3直到Pi和Pi-1的距离小于事先定义好的阈值停止;该阈值通常为1个像素;这时,Pi点被选定为起始中轴点;得到起始中轴点Pi后,同时获得Pi点处水平和竖直运行的宽;
c.如果水平运行宽度比竖直运行宽度长,则线条在水平上的斜率小于45°,这时将该线段的长度方向设为水平,否则长度方向就设为竖直,线段的宽度方向与长度方向正交。
进一步地,所述第七步中的线宽为墙体线的宽度。
进一步地,所述第八步中,墙体与附属物识别的具体方法如下:先根据线宽判断是否为墙体,若折线的线宽超过阈值时,则认为是实心墙体;若所识别的线宽内容大于一个线宽长度,而小于给定线宽的倍数,则抽取原图像两条线段间的中断处区域生成子图;再调用模式分类方法,识别出具体模型的门窗等附属结构。
再进一步地,所述给定线宽的倍取值为3。
再进一步地,所述模式分类方法包括LDA算法。
再进一步地,所述模式分类方法包括以下步骤:
a.制备训练所需的样本图像,将门窗两边与墙体接触位置处的中心轴点坐标记录下来,计算出这两个中心轴点坐标在水平和竖直方向上的距离差,记为dh和dv;然后以该墙体附属物对象的中心位置为中心,分别以dh+2w和dv+2w为区域的长和宽,w为墙体的像素线宽,抽取出包含门窗的子图;再将上述子图统一缩为33x33大小的图像,得到n张样本训练图像;
b.模型训练,读入n张样本训练图像,生成mxn维数据矩阵A,式中,m为每张图像的数据维度;设需将样本分为 k类,则使用LDA/QR-GSVD算法计算生成 mx(k-1)维矩阵G;再将训练样本中的图像组装为m维列向量,分别与G相乘,获得相应的k-1维识别向量;
c.对象识别,将含有门窗的待识别子图也缩小为33x33的标准大小,然后将其与线性嵌入矩阵G相乘,对所得识别向量与训练样本的每类计算结果求欧式距离,并进行最近邻判断,距离最近的类即为待识别图像的类别。
进一步地,所述第九步的由四元组表达的形状单元中单元的其他属性包括模型建模相关的纹理和材质。
进一步地,所述第一步前还包括模型平面图绘制的步骤。
本发明与现有技术相比较,本发明的模型3D效果图的生成方法,对用户提供的模型平面图像进行区域分块,有效地抽取包含墙体对象的子区域,并将分块图像的稀疏点像素矢量化,便于抽取墙体的位置和尺寸等信息;采用线性辨别分析(LDA)方法,识别出墙体上的门窗和孔洞等建筑部件,并实现建筑部件在图纸中位置的精确定位,能够根据平面图快速生成3D效果图,提高了工作效率。
具体实施方式
本发明的模型3D效果图的生成方法,所述方法包括如下步骤:
首先确认模型尺寸,并绘制模型平面图;
第一步,输入扫描的模型平面图纸,并进行图像的预处理,
a.针对来源广泛,格式不一的输入图像首先将其统一转为灰度图;
b.进行二值化处理后转为黑白点阵图;
c.采用图像形态学的方法进行去噪处理,将模型部件之外的对象图像剔除;
d.通过霍夫变换提取平面图的两个主要方向,据此旋转矫正使得图像的两个主方向分别与图像的x、y坐标向平行,旋转矫正步骤有助于后续图像分块,并提高矢量化的效果;
第二步,基于积分投影的区域分块,将预处理后的图像通过平均积分投影函数来提取包含墙体线条的图像区域;当图像的某一列或行像素灰度均值发生变化时,这种变化会在该列或行的平均积分投影值上反应出来;平均积分投影函数如下:
式中,
I(x,y)表示点(x,y)处的像素灰度值;
Mv(x)表示在区间【y1,y2】上的垂直平均积分投影函数;
Mh(y)表示在区间【x1,y2】上的水平平均积分投影函数;
第三步,分块图像的稀疏像素点矢量化,经过积分投影步骤后,整个图像被分解为若干个子图像,每个子图像包含数个竖直或者水平的图像单元,经过处理后获取带宽度的线段集合,进一步获得墙体几何等基本模型信息;
第四步,起始中轴点和追踪方向选取,寻找起始中轴点,扫描线在分块二值图像上以预定步长自上而下扫描;
第五步,稀疏点追踪,根据长度方向,确定搜索顺序;如果长度方向是水平的,则追踪顺序为先右后左;如果长度方向是竖直的,则先下后上;
第六步,结点分割,当违反一个或多个继续追踪条件时,稀疏点追踪程序暂停,启用结点分割程序;结点分割包括以下三步迭代:
a.退回上一个中轴点;
b.调整追踪步长为当前步长的一半;
c.在新的位置处检测继续条件;
如果检测失败,则将步长减半后再执行一次迭代;但若在新位置处的点,所有条件都满足,那么自该点起恢复原始追踪步长,并执行追踪程序;重复迭代,直至追踪步的长度变为0,结点分割程序终止,最后找到的满足所有条件的点为新的中轴点;通过这种处理,程序能够较准确地将十字交叉区域,以交叉点为界分为三条直线段,也能十分精准地将拐角处的折线分为两段;
第七步,线段整合,输入待处理的各条线段,包含起始、终止坐标位置及线宽信息的数据结构;用终止坐标减去起始坐标得到每条线段的向量表示,运用向量求夹角公式,分别求出每两个向量的夹角,若两个向量夹角接近于0,则认为对应的两条线段的中心轴几乎平行;之后判断这两条平行线段的近邻点距离,如果不大于一个给定线宽,则合并两条直线,将由结点分割程序割裂的十字交叉线段整合为一条完整线;
第八步,墙体与附属物识别,在每个分块子图像中,获取若干带宽度的直线段,通过分析这些矢量内容,进一步识别出墙体和门窗等附属物信息;
第九步,三维构建,
a.将模型建模的各种部件与元素,包括地面、墙壁、门、窗和阳台等,定义为形状单元;一个形状单元表达为一个四元组S={ N,G,B,P},式中,N表示对象名称;G表示单元的几何信息,特指为多边形网格曲面;B表示带方向的几何包围盒,用于指定单元的位置、体量;P表示单元的其他属性;
b.对用户提供的模型平面图进行识别,并根据识别结果,进行三维模型的快速生成,得到3D效果图。
所述第四步的具体操作步骤如下:
a.假设扫描到的第一个黑色像素点记为P0,自P0向右扫描,直至遇到第一个白色像素点记为 P0',并获得此次水平运行中点 P1(P0和P0'的中点);
b.继续从P1开始,在竖直方向上作方向相反的两次扫描,找到竖直运行的中点P2;同样,由P2找到水平运行中点P3直到Pi和Pi-1的距离小于事先定义好的阈值停止;该阈值通常为1个像素;这时,Pi点被选定为起始中轴点;得到起始中轴点Pi后,同时获得Pi点处水平和竖直运行的宽;
c.如果水平运行宽度比竖直运行宽度长,则线条在水平上的斜率小于45°,这时将该线段的长度方向设为水平,否则长度方向就设为竖直,线段的宽度方向与长度方向正交。
所述第七步中的线宽为墙体线的宽度。
所述第八步中,墙体与附属物识别的具体方法如下:先根据线宽判断是否为墙体,若折线的线宽超过阈值时,则认为是实心墙体;若所识别的线宽内容大于一个线宽长度,而小于给定线宽的倍数,则抽取原图像两条线段间的中断处区域生成子图;再调用模式分类方法,识别出具体模型的门窗等附属结构。
所述给定线宽的倍取值为3。
所述模式分类方法包括LDA算法。
a.制备训练所需的样本图像,将门窗两边与墙体接触位置处的中心轴点坐标记录下来,计算出这两个中心轴点坐标在水平和竖直方向上的距离差,记为dh和dv;然后以该墙体附属物对象的中心位置为中心,分别以dh+2w和dv+2w为区域的长和宽,w为墙体的像素线宽,抽取出包含门窗的子图;再将上述子图统一缩为33x33大小的图像,得到n张样本训练图像;
b.模型训练,读入n张样本训练图像,生成mxn维数据矩阵A,式中,m为每张图像的数据维度;设需将样本分为 k类,则使用LDA/QR-GSVD算法计算生成 mx(k-1)维矩阵G;再将训练样本中的图像组装为m维列向量,分别与G相乘,获得相应的k-1维识别向量;
c.对象识别,将含有门窗的待识别子图也缩小为33x33的标准大小,然后将其与线性嵌入矩阵G相乘,对所得识别向量与训练样本的每类计算结果求欧式距离,并进行最近邻判断,距离最近的类即为待识别图像的类别。
所述第九步的由四元组表达的形状单元中单元的其他属性包括模型建模相关的纹理和材质。
本发明的模型3D效果图的生成方法,对用户提供的模型平面图像进行区域分块,有效地抽取包含墙体对象的子区域,并将分块图像的稀疏点像素矢量化,便于抽取墙体的位置和尺寸等信息;采用线性辨别分析(LDA)方法,识别出墙体上的门窗和孔洞等建筑部件,并实现建筑部件在图纸中位置的精确定位,能够根据平面图快速生成3D效果图,提高了工作效率。
以上述依据本发明的理想实施例为启示,通过上述的说明内容,相关工作人员完全可以在不偏离本项发明技术思想的范围内,进行多样的变更以及修改。本项发明的技术性范围并不局限于说明书上的内容,必须要根据权利要求范围来确定其技术性范围。

Claims (9)

1.一种模型3D效果图的生成方法,其特征在于:所述方法包括如下步骤:
第一步,输入扫描的模型平面图纸,并进行图像的预处理,
a.针对来源广泛,格式不一的输入图像首先将其统一转为灰度图;
b.进行二值化处理后转为黑白点阵图;
c.采用图像形态学的方法进行去噪处理,将模型部件之外的对象图像剔除;
d.通过霍夫变换提取平面图的两个主要方向,据此旋转矫正使得图像的两个主方向分别与图像的x、y坐标向平行;
第二步,基于积分投影的区域分块,将预处理后的图像通过平均积分投影函数来提取包含墙体线条的图像区域;平均积分投影函数如下:
式中,
I(x,y)表示点(x,y)处的像素灰度值;
Mv(x)表示在区间【y1,y2】上的垂直平均积分投影函数;
Mh(y)表示在区间【x1,y2】上的水平平均积分投影函数;
第三步,分块图像的稀疏像素点矢量化,经过积分投影步骤后,整个图像被分解为若干个子图像,每个子图像包含数个竖直或者水平的图像单元,经过处理后获取带宽度的线段集合,进一步获得墙体几何等基本模型信息;
第四步,起始中轴点和追踪方向选取,寻找起始中轴点,扫描线在分块二值图像上以预定步长自上而下扫描;
第五步,稀疏点追踪,根据长度方向,确定搜索顺序;如果长度方向是水平的,则追踪顺序为先右后左;如果长度方向是竖直的,则先下后上;
第六步,结点分割,当违反一个或多个继续追踪条件时,稀疏点追踪程序暂停,启用结点分割程序;结点分割包括以下三步迭代:
a.退回上一个中轴点;
b.调整追踪步长为当前步长的一半;
c.在新的位置处检测继续条件;
如果检测失败,则将步长减半后再执行一次迭代;但若在新位置处的点,所有条件都满足,那么自该点起恢复原始追踪步长,并执行追踪程序;重复迭代,直至追踪步的长度变为0,结点分割程序终止,最后找到的满足所有条件的点为新的中轴点;
第七步,线段整合,输入待处理的各条线段,包含起始、终止坐标位置及线宽信息的数据结构;用终止坐标减去起始坐标得到每条线段的向量表示,运用向量求夹角公式,分别求出每两个向量的夹角,若两个向量夹角接近于0,则认为对应的两条线段的中心轴几乎平行;之后判断这两条平行线段的近邻点距离,如果不大于一个给定线宽,则合并两条直线,将由结点分割程序割裂的十字交叉线段整合为一条完整线;
第八步,墙体与附属物识别,在每个分块子图像中,获取若干带宽度的直线段,通过分析这些矢量内容,进一步识别出墙体和门窗等附属物信息;
第九步,三维构建,
a.将模型建模的各种部件与元素,包括地面、墙壁、门、窗和阳台等,定义为形状单元;一个形状单元表达为一个四元组S={ N,G,B,P},式中,N表示对象名称;G表示单元的几何信息;B表示带方向的几何包围盒;P表示单元的其他属性;
b.对用户提供的模型平面图进行识别,并根据识别结果,进行三维模型的快速生成,得到3D效果图。
2.根据权利要求1所述的模型3D效果图的生成方法,其特征在于:所述第四步的具体操作步骤如下:
a.假设扫描到的第一个黑色像素点记为P0,自P0向右扫描,直至遇到第一个白色像素点记为 P0',并获得此次水平运行中点 P1;
b.继续从P1开始,在竖直方向上作方向相反的两次扫描,找到竖直运行的中点P2;同样,由P2找到水平运行中点P3直到Pi和Pi-1的距离小于事先定义好的阈值停止;该阈值通常为1个像素;这时,Pi点被选定为起始中轴点;得到起始中轴点Pi后,同时获得Pi点处水平和竖直运行的宽;
c.如果水平运行宽度比竖直运行宽度长,则线条在水平上的斜率小于45°,这时将该线段的长度方向设为水平,否则长度方向就设为竖直,线段的宽度方向与长度方向正交。
3.根据权利要求1所述的模型3D效果图的生成方法,其特征在于:所述第七步中的线宽为墙体线的宽度。
4.根据权利要求1所述的模型3D效果图的生成方法,其特征在于:所述第八步的墙体与附属物识别的具体方法如下:先根据线宽判断是否为墙体,若折线的线宽超过阈值时,则认为是实心墙体;若所识别的线宽内容大于一个线宽长度,而小于给定线宽的倍数,则抽取原图像两条线段间的中断处区域生成子图;再调用模式分类方法,识别出具体模型的门窗等附属结构。
5.根据权利要求4所述的模型3D效果图的生成方法,其特征在于:所述给定线宽的倍取值为3。
6.根据权利要求4所述的模型3D效果图的生成方法,其特征在于:所述模式分类方法包括LDA算法。
7.根据权利要求4所述的模型3D效果图的生成方法,其特征在于:所述模式分类方法包括以下步骤:
a.制备训练所需的样本图像,将门窗两边与墙体接触位置处的中心轴点坐标记录下来,计算出这两个中心轴点坐标在水平和竖直方向上的距离差,记为dh和dv;然后以该墙体附属物对象的中心位置为中心,分别以dh+2w和dv+2w为区域的长和宽,w为墙体的像素线宽,抽取出包含门窗的子图;再将上述子图统一缩为33x33大小的图像,得到n张样本训练图像;
b.模型训练,读入n张样本训练图像,生成mxn维数据矩阵A,式中,m为每张图像的数据维度;设需将样本分为 k类,则使用LDA/QR-GSVD算法计算生成 mx(k-1)维矩阵G;再将训练样本中的图像组装为m维列向量,分别与G相乘,获得相应的k-1维识别向量;
c.对象识别,将含有门窗的待识别子图也缩小为33x33的标准大小,然后将其与线性嵌入矩阵G相乘,对所得识别向量与训练样本的每类计算结果求欧式距离,并进行最近邻判断,距离最近的类即为待识别图像的类别。
8.根据权利要求1所述的模型3D效果图的生成方法,其特征在于:所述第九步的由四元组表达的形状单元中单元的其他属性包括模型建模相关的纹理和材质。
9.根据权利要求1所述的模型3D效果图的生成方法,其特征在于:所述第一步前还包括模型平面图绘制的步骤。
CN201710495621.5A 2017-06-26 2017-06-26 一种模型3d效果图的生成方法 Pending CN107274486A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710495621.5A CN107274486A (zh) 2017-06-26 2017-06-26 一种模型3d效果图的生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710495621.5A CN107274486A (zh) 2017-06-26 2017-06-26 一种模型3d效果图的生成方法

Publications (1)

Publication Number Publication Date
CN107274486A true CN107274486A (zh) 2017-10-20

Family

ID=60068925

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710495621.5A Pending CN107274486A (zh) 2017-06-26 2017-06-26 一种模型3d效果图的生成方法

Country Status (1)

Country Link
CN (1) CN107274486A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109308386A (zh) * 2018-09-11 2019-02-05 深圳市彬讯科技有限公司 工程图墙体识别方法、装置及电子设备
CN109711018A (zh) * 2018-12-15 2019-05-03 武汉兴联云立方科技有限公司 一种二维到三维的户型设计方法
CN110197153A (zh) * 2019-05-30 2019-09-03 南京维狸家智能科技有限公司 一种户型图中墙体自动识别方法
CN110555122A (zh) * 2019-07-19 2019-12-10 中国地质大学(武汉) 一种基于分段矩形的建筑平面图墙体矢量化方法
CN110973859A (zh) * 2019-12-19 2020-04-10 江苏艾佳家居用品有限公司 一种家装设计中定制厨柜的台面、前后挡水生成的方法
CN112861205A (zh) * 2020-12-25 2021-05-28 佛山欧神诺云商科技有限公司 一种墙体建模方法、电子设备、存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103390088A (zh) * 2013-07-31 2013-11-13 浙江大学 一种针对光栅建筑平面图的全自动三维转换方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103390088A (zh) * 2013-07-31 2013-11-13 浙江大学 一种针对光栅建筑平面图的全自动三维转换方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
李嫄姝: "基于稀疏像素矢量化的高效三维建筑建模", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
马晓路等: "《MATLAB图像处理从入门到精通》", 28 February 2013, 中国铁道出版社 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109308386A (zh) * 2018-09-11 2019-02-05 深圳市彬讯科技有限公司 工程图墙体识别方法、装置及电子设备
CN109308386B (zh) * 2018-09-11 2023-04-21 深圳市彬讯科技有限公司 工程图墙体识别方法、装置及电子设备
CN109711018A (zh) * 2018-12-15 2019-05-03 武汉兴联云立方科技有限公司 一种二维到三维的户型设计方法
CN109711018B (zh) * 2018-12-15 2022-11-22 武汉兴联云立方科技有限公司 一种二维到三维的户型设计方法
CN110197153A (zh) * 2019-05-30 2019-09-03 南京维狸家智能科技有限公司 一种户型图中墙体自动识别方法
CN110197153B (zh) * 2019-05-30 2023-05-02 南京维狸家智能科技有限公司 一种户型图中墙体自动识别方法
CN110555122A (zh) * 2019-07-19 2019-12-10 中国地质大学(武汉) 一种基于分段矩形的建筑平面图墙体矢量化方法
CN110555122B (zh) * 2019-07-19 2022-12-23 中国地质大学(武汉) 一种基于分段矩形的建筑平面图墙体矢量化方法
CN110973859A (zh) * 2019-12-19 2020-04-10 江苏艾佳家居用品有限公司 一种家装设计中定制厨柜的台面、前后挡水生成的方法
CN112861205A (zh) * 2020-12-25 2021-05-28 佛山欧神诺云商科技有限公司 一种墙体建模方法、电子设备、存储介质
CN112861205B (zh) * 2020-12-25 2023-03-28 佛山欧神诺云商科技有限公司 一种墙体建模方法、电子设备、存储介质

Similar Documents

Publication Publication Date Title
Chen et al. An end-to-end shape modeling framework for vectorized building outline generation from aerial images
CN107274486A (zh) 一种模型3d效果图的生成方法
US20210342585A1 (en) Systems and methods for extracting and vectorizing features of satellite imagery
US9286538B1 (en) Adaptive 3D to 2D projection for different height slices and extraction of robust morphological features for 3D object recognition
Christoph Stein et al. Object partitioning using local convexity
Matsushita et al. Illumination normalization with time-dependent intrinsic images for video surveillance
Kwak et al. Automatic representation and reconstruction of DBM from LiDAR data using Recursive Minimum Bounding Rectangle
CN103258203B (zh) 遥感影像的道路中线自动提取方法
CN107292234B (zh) 一种基于信息边缘和多模态特征的室内场景布局估计方法
CN113139453A (zh) 一种基于深度学习的正射影像高层建筑基底矢量提取方法
US20110248995A1 (en) System and methods for creating interactive virtual content based on machine analysis of freeform physical markup
Lie et al. A robust dynamic programming algorithm to extract skyline in images for navigation
Zhou et al. Research on pedestrian detection technology based on the SVM classifier trained by HOG and LTP features
Dal Poz et al. Automated extraction of road network from medium-and high-resolution images
CN108399424B (zh) 一种点云分类方法、智能终端及存储介质
Galvanin et al. Extraction of building roof contours from LiDAR data using a Markov-random-field-based approach
CN103337072A (zh) 一种基于纹理与几何属性联合模型的室内对象解析方法
Biswas et al. Construction of isothetic covers of a digital object: A combinatorial approach
US7567715B1 (en) System and method for representing and encoding images
CN105138990A (zh) 一种基于单目摄像头的手势凸包检测与掌心定位方法
CN110569711B (zh) 面向人体动作识别方法
CN105719279B (zh) 基于椭圆柱的人体躯干建模及手臂区域分割和手臂骨架提取方法
Delmerico et al. Building facade detection, segmentation, and parameter estimation for mobile robot stereo vision
Thiemann et al. 3D-symbolization using adaptive templates
Phan et al. Triangulation based skeletonization and trajectory recovery for handwritten character patterns

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20171020

RJ01 Rejection of invention patent application after publication