您好,欢迎来到世旅网。
搜索
您的当前位置:首页基于交互式条件随机场的RGB-D图像语义分割

基于交互式条件随机场的RGB-D图像语义分割

来源:世旅网
第34卷第3期 2017年3月 计算机应用与软件 Computer Applications and Software Vo1.34 No.3 Mar.2017 基于交互式条件随机场的RGB-D图像语义分割 左向梅赵振苟婷婷 (中国飞行试验研究院陕西西安7lo089) 摘 要 RGB.D图像语义分割是场景识别与分析的基础步骤,基于条件随机场(CRF)的图像分割方法不能有 效应用于复杂多变的现实场景,因此提出一种交互式条件随机场的RGB—D图像语义分割方法。首先利用中值滤 波和形态重构方法对Kinect相机拍摄的RGB.D图像进行预处理,降低图像噪声及数据缺失;其次,利用基于条件 随机场的分割方法对经过预处理的图像进行自动分割,得到粗略的分割结果;最后,用户通过交互平台,将代表正 确场景信息的标签反应到条件随机场模型中并进行模型更新,改善分割结果。通过多组实验验证了该算法不仅 满足用户对于复杂场景分割与识别的需求,而且用户交互简单、方便、直观。相较于传统的基于条件随机场分割 方法,该方法得到较高的分割精度和较好的识别效果。 关键词 条件随机场语义分割 交互式RGB・D图像 中图分类号TP391.41 文献标识码A DOI:10.3969/j.issn.1000—386x.2017.03.032 RGB.D IMAGE SEMANTIC SEGMENTATIoN METHoD BASED oN INTERACTⅣE CoNDITIoNAL RANDOM FIELDS Zuo Xiangmei Zhao Zhen Gou Tingting (Chinese Flight Test Establishment,Xi’an 710089,Shaanxi,China) Abstract RGB—D image semantic segmentation is the primary step of scene recognition and analysis,and the image segmentation method based on conditional random fields(CRF)cannot be applied in complex and volatile scenes, therefore an RGB—D image semantic segmentation method with interactive conditional random fields is proposed.Firstly, preprocess the depth and color images generated from Kinect with median filter and morphology reconstruction method, reducing the image noise"and missing data.Secondly,automatically segment the preprocessed images with conditional random fields to obtain the rough segmentation.Finally,user takes the correct labels into the conditional random fields’ model to update the model through an interactive platform,which can improve the segmentation results.Compared with the traditional segmentation method based on conditional random fields,the proposed method can achieve better performance in scene understanding and analysis. Keywords Conditional random fields Semantic segmentation Interactive RGB-D image 简单、廉价、方便的特性使它成为计算机视觉领域的研 0 引 言 究热点。Kinect相机获取的RGB.D图像…既包含了 被拍摄物体的RGB图像,也包含了深度信息,因其丰 随着科技的发展,Kinect深度相机的出现解决了 富的数据特点使得其广泛应用于图像语义分析与理解 在激光扫描设备和深度相机系统中存在的实际困难, 的相关领域。 收稿日期:2015—07—09。左向梅,工程师,主研领域:模式识别与图像处理。赵振,工程师。苟婷婷,硕士生。 第3期 左向梅等:基于交互式条件随机场的RGB—D图像语义分割 l75 罔像语义分割 包含 传统的图像分割和目标识 圳两个仃务, 目的足将图像分割成多个具有语义信 息的块,并以);0出分割块的类别,最终得到一幅含有语 义标注的图像 目前存在的语义分割方法一般是通过 构建条件随机场模碰来完成图像分割和识刖两个任 务 条件随机场模型 足一种基于无向图的概率模 型,用来对序列数据进行标记,具有很强的概率推理能 力 其优势在于充分考虑了 像[fl不同物体之间的位 置火系,能够对物体类别有合理的推断但是现实场 I 琏于交q 式条件随机场的图像分割流程『殳1 景复 ,纯粹的依靠算法来完伞自动实现分剖和以别 并不能满足要求:因此,用户干涉的图像分剖技术成 为新的研究热点。 1.1图像预处理 从Kinect得到的深度图含有大 的噪声,手动拍 日前广泛幢用的主要有琏于 剖 沦 、随机游 摄时Kinect轻微晃动以及场景中的光线干扰,都会增 加图像噪声。而且深度估计卜算法还产生大鳍的稍纵即 逝的人为干扰,尤其是靠近边缘的区域。所以在提取 图像特征并进行以别之前,必须进行图像去噪。为此, 止 、图 配 等交瓦式分割方法 虽然它们理沦依 据不同, 足都具有相似的步骤思想 夫体概括为:选 取I冬1像中的某 区域进行标记,片j标记的像素根据制 定的规则进行训练,得到相关分类模型后对其他像素 使用中值滤波器 。对图像进行去噪。 深度图像除了包含噪声外,还会出现数据缺失的 部分,这些区域从彩色相机是可见的,但没有出现在深 进行标记,完成图像语义分割 这些算法相较于自动 分割力。法虽然效果有所提高,但是依旧存在一些不足: 对用户输入要求较高+用户选择的位置和数 都会影 响分割结果,并且要不断调整输入,交互量较大;由于 度图像上。比如对黑色吸光物体或镜面和低反射率表 面,它们的深度没能被估计,出现了深度图卜的孑L .因 此本文使用形态学重构方法 对其进fi修补。 算法的限制,现有分割方法大多用于单一目标分割中, 对于多目标分割问题,很难快速得到准确的结果。 针埘以上问题,本文提出了一种交互式RGB—D图 像语义分割方法,巧妙地将手动操作融入到自动分割 使用中值滤波去噪和形态学重构补洞后效果如图 2所示 、 过程中,/JfI入少量的人工交互操作,却很好地改善l『分 割精度,这足以前自动方法所达不到的。 1 方 法 (a)原始深度图像 ㈣去噪补洞后的深度图像 本文办法主要分为二个步骤:首_尢对Kine,・t相 图2深度图像预处理 机获得的RGB.D图像进行预处理,去除噪声并改 1.2图像自动分割 图像进行预处理之后,在进行交互式分割之前,先 善像素缺失状况;其次,利用基于条件随机场的图 像分割方法对经过预处理的图像进行仞始分割,得 到大体的分割结果,这样有利于减少后续的交互工 使用基于条件随机场的方法进行自动分割,这样可以 减少后续的交互工作量。条件随机场 是由I ̄fferty 等提出的一个基于统计序列分割和标记的方法,是一 个在给定输入节点的前提下,计算输出节点的条件概 率的无向图模型。 作量;最后,用户通过交互平台,将反应场景正确信 息的标签传递到交互能量函数项r}】,并进行模型更 新,得到改善后的分割结果。图1为本文方法流 程图 本文中条件随机场能量函数 (y )测 了图像中 每个像素i对应的可能标签Y,的代价。Y 可以取一组 176 计算机应用与软件 2017.生 离散数据集{1,2,…,c},c代表类别数。能量函数由 三项组成:(1)一元代价函数 ,依赖于像素位置 、局 部描述符 和学习的参数 ;(2)相邻像素 和 的标 签势函数 (Y ,,,,);(3)相邻两像素点i和 之间的空 问连续性田(i,J),它的形式依不同的图像而有所不同。 能量函数定义如下: 的高斯滤波器来平滑以上所得到的平均映射。为了计 算真实的先验分布P(y ,i),对每个映射进行标准化使 得总和等于1/C,也就是:∑ P(y , )=1/C。需要 注意的是这里假设先验类分布是统一的。 三维位置先验分布:Kinect捕获的深度信息可以 估计场景中每个物体的三维位置。我们利用房间自身 的深度来标准化物体的深度。假设给定深度映射的任 (y)=∑ ( 。, ; +∑O(y ,yj)v( , )(1) ieN .JE 1.2.1一元势函数 本文中一元势函数 是由局部几何模型和位置先 验概率这两部分组成: ( ,i l )=一log(P(Y l ,0)P(Y ,i))(2) Appearance Location 1)几何模型 几何模型P(Y ,0)是用一系列D维的局部描述 符Xi训练而成。几何模型的训练框架描述如下: 首先,从S尺度下的相同密度网格中提取描述符。 如果 是在网格点i和尺度s下提取的描述符,那么 =cD ( ¨, ,…, )。 在给定从训练图片中提取出来的描述符集合: ={ :i=1,2,…,N}情况下,我们用大小为H(1000) 的单隐藏层和c维的最大软间隔输出层来训练一个 神经网络,表示成P(y ,0)。它含有参数 (大小为 (D+1)X H和(日+1)X C的两个权重矩阵),通过使 用反向传播和交叉熵损失函数学习而成。 我们使用纽约大学场景图像数据库的稠密图像标 签作为每一个描述符 的真实标签Y 。Y 的值设成 网格位置i的标签。 经过训练后,神经网络模型生成了P(Y , )和 描述符Xi之间的映射。在使用条件随机场模型之前, 本文利用基于图割的分割方法产生超像素 ,s:,…, s ,计算两种不同的超像素点集合:仅用颜色图像 得到的SRGB和利用颜色与深度图像共同生成的5 。 。。 我们利用超像素来聚合一元势函数产生的初步预测结 果。然后,对于图像的每个超像素s ,我们对所有落入 该超像素的概率P(Y , )求平均值,然后给在s 内 的每个像素点赋予计算出的均值类概率。 2)位置先验概率 位置先验概率P(Y ,i)有两种不同的形式,第一种 获得了目标的二维位置,类似于其他的语义分割方法。 第二种是一种新颖的利用深度信息的三维位置先验 概率。 二维位置先验概率:对于每一类的二维先验概率, 通过取所有训练图像的真实标签映射Y 的平均值来 构成。为了衡量二维的空间不变性程度,使用11 X 11 意一列,距离相机最远的点是在空间中的边框处。这 样就可以把具有相同深度的房间边界与物体分离开。 我们对给定列中所有点的深度值进行归一化,也就是 使得最远点相对深度值三=1。这有效的将每个房问 映射到一个半径为l的圆筒中。这就允许我们对每类 物体构建一个高规则性的深度配置文件。 在这个标准的参考框架下,我们从训练集中的物 体的三维位置建立直方图。这些三维直方图描述了3 个参数(h,W,;),其中h为相对于水平线的绝对场景 高度(以米为单位);W为与纵轴偏差的角度,j为相对 深度。 1.2.2标签势函数 关于这一项我们选用相对简单的Potts模型H : r0 v =v (Y ,Yj)={Ld  其他  .. (3) 使用简单的标签转换模型使得我们能够清楚地看 到相对于条件随机场中的其他两个势函数、深度值的 好处。在实验中我们将d的值设为3。 1.2.3空间转换势函数 空间转换代价 ( , )提供了一个机理来抑制或 者鼓励每个位置的标签转换(独立于建议的标签类)。 我们用下面的势函数形式表示: 叼(i√)=叼oexp{一otmax(I,( )一, )f—t,0){(4) 其中l,(i)一I(j)I表示在图像中相邻像素点i和. 之 间的梯度,t为一个阈值,而Ol和 。是尺度因子, 。= 100。 1.3交互式图像分割 对图像进行自动分割后,其分割结果并不是很好, 因此,我们在上述模型中增加了交互能量函数项,将当 前场景的正确信息反应到条件随机场模型中并进行模 型更新,改善分割结果。我们的交互项是通过交互平 台由用户对自动分割结果中错误的部分简单地画几笔 实现的。模型更新能量函数如下所示: E(c)=∑E (c : )+A∑E:(c : ) (5) ‘J 这里E (c : )测量了像素i的在特征 条件下标签为 Ci的概率,E:(c :c )测量了两个相连像素标签的一致 第3期 左向梅等:基于交互式条件随机场的RGB—D图像语义分割 177 性。通过使用图割方法¨ 可以有效最小化模型更新 对图像中的一个像素i,我们首先确定哪个平面拟合面 能量函数。下面详细描述我们能量函数各组成部分的 覆盖它,然后计算三类几何特征作为 g : 含义和作用。 ・高度h :像素i在平面拟合面上的投影到地面 1.3.1交互能量函数 的距离 能量函数E (C : )依据像素 的特征评价了它 ・尺寸s :覆盖该像素的平面拟合面的尺寸 属于某个物体标签的概率。它由两项组成,来自于深 ・方向 :平面拟合面法向量与地面法向量夹角 度相机的颜色和深度信息的局部外观和几何模型: P (C I )通常是由几何特征的直方图表示。为 E1(c : )=E。(c : )+E (C : g ) (6) 此,我们首先将每个特征用一个离散集合表示,比如对 这里E。(c : )代表外观函数,E (Ci: gi)表示几何函 高度来说,记为{hi} 。接下来,对每个离散值建立 数。 表示使用局部颜色信息计算的局部外观特征, 直方图,P (c l h )描述高度为hi的像素属于物体c 表示局部几何特征。 的后验概率。相似地,我们也为其他两类特征建立直 外观函数:外观函数E (C : )如下所示: 方图,接着计算整体后验概率: E。(cf: )=一log(1一 )P (c I )+ (c l xf)= (c I ) (c I s )Pt(c J )(10) 。P (c I ) (7) 用上述相同的方法构建P (e l戈 )。 它是两个学习得到的判别模型的融合:尸 (c l ) 能量项 (c ,cj)用来约束邻域像素标签的光滑 来自于场景图像数据库,P。(c I )来自于分割结果。 性。我们用下式来计算该项: 在我们的实验中权值 。=0.6来偏向于从分割结果 E2(c ,c )= c ≠cj]sim(fi ) (11) 中学习得到的判别模型。我们的实验证明将外观特征 这里, =[r,g,b,d] 为像素i的颜色值和深度值的 结合的操作是简单而且非常有效。 串联。两个像素之间的相似性由式(12)计算: 给定用户编辑的分割结果,学习得到一个反映我 们正在重建的当前场景几何模型。为了达到该目的, sim{f ̄,fj)=exPf一、  二O- )(12) 我们使用K—means方法¨ 从分割结果中学习一个判 别模型P (C I )。确切地说,我们为每个对象类汇 其中 是像素特征间的平均距离。 总分割结果中的像素,然后对它们的颜色值执行 1.3.2‘模型更新 K—means聚类。在我们的实验中将每个对象类聚为32 在图像的分割过程中,从当前现场学习的外观和 簇,这样每个对象类的聚类中心就代表了它的外观信 几何模型,也就是我们通过人工交互编辑的标签: 息。因此,我们计算P (c l ): P (c I )和尸 (c I )被添加到目标函数里,使从训 练数据库学习得到的初始模型适应到当前场景。用户 Pc( (8) 操作时使得这两个模型被更新。当它们只是当前分割 这里d( ,c )是当前像素与对象类c 最近聚类中心的 结果的对象类的一个子集时,我们只更新它们的条件 颜色值开方距离, 是一个比较小的数,为了避免分母 概率,并保留其余项。对于第一次获得的图像,只有从 为0,一般取10e一6。 场景数据库中学习的判别模型用来实现初始分割结 几何函数:几何函数E (c : )与外观函数设计 果。通常,在这个阶段因为没有关于当前场景的信息, 相同: 所以需要较多的交互工作量。其他图像的编辑量通常 Eg(c : g )=一log(1一 )P (c I )+ 比较小。交互工作量依赖于室内场景的大小,但是对 P (c l ) (9) 于中型场景需要用来修正分割结果的笔画不会超过 它也由两个判别几何模型组成:P (c I g )是从 30。当用户认为自动分割效果不理想时,可以随时编 纽约大学场景图像库中的深度图像学习的几何模型, 辑分割结果。 P (c l )来自于之前的分割结果, 为平衡系数,被 设为0.7。 局部几何特征 依据于提取的平面拟合面而不 2 系统实现及实验结果 是使用局部深度数据,因为对于深度数据中的噪声它 们更具有弹性,能产生更加精确的描述符。我们使用 2.1 系统实现 随机抽样一致性(RANSAC)算法提取平面拟合面 。 本文系统采用c++开发,所使用的开发环境是微 l78 计算机应用与软件 2017免 软的Visual Studio 2010,链接的库包括:微软基础类 表1所示,可以看出,交互式分割结果准确率『I』】 高于 自动分割结果 表1 自动分割与本文交互式分割准确率对比 、、(MFC),开放图像库(OpenGI ),开放计算机视觉库 (OpenCV)等 系统界面如图3所示,其中菜单 包括文件、 视图、运行、更新四项 左边子窗口为标签面板和 参数设置面板,中间为图像显示区域,右边为渲染 的深度数据显示区:其中文件项完成对文件的渎 取和保存;视图项调整界面显示内容;运行项包括 像标 、\(a) (1)) (( ) ({I) (P) \分割疗法  自动分割准确牢 交互式分俐准确 85.5% 71.6% 74.8% 75.5% 73.3% 94.2% 96.1% 97.5% 93.0% 96.3% 对用户标签、分割标签、模型存储等操作;更新项可 以重新加载数据~ ^ ^.tt…~一 .一  }h H斑帅 d咖 (f) 64.2% 94.8% 口 v 昌 ■ i [3 II II II II (LI1物体类别标签 w Lh 一瞄 口 ● 0n 髑 2.2 实验结果 滑 3 系统软件界 图4展示了对我们拍摄的几个场景中的部分图 像,使用交互式分割方法得到的结果.并与自动分割结 果进行了对比 图4(a)中的灰度条代表了不同类别 的物体标签;图4(1,)一(g)为六组图像分割结果,每一 组从左到右依次为RGB图像(包含人 1 交互笔画)、对 应的深度图像、自动分割结果、交互式分割结果..从图 中可以看出,使用自动分割方法虽然能达到大体分割 结果,但对于一些物体还是出现了标签错误的情况: 比如自动分割时图4(b)中倚子背部分被错分为沙发, )六组图像分割结果 图4(d)中桌子部分被错分为柜子,沙发部分被错分为 桌子。 I 4 自动 交 式隆lf尕r分削对比 使用我们的交互式分割方法,增加少量的人工交 除了对实验结果准确率的分析,我们还对同4 r{J 6组图像分割过程I+I交互的次数及时 进行了 记录,见表2所示。运行陔系统的计算机配置: Windows 7操作系统,至强3.2( Hz处理{}}},l 6 GB 内存:从表2可以看}{J,每幅图像第一?欠交,=£所需 的笔画数量最多,交互时问较长,随后只需要较少 互操作后,可以很大程度j-改善分割效果,得到用户要 求的分割精度 与其他交互式分割方法相比,不需要 用 预先进行盲目的标记,大大减少了上作量,从图中 可以看出每组图像的交互不超过6笔 而且我们不是 简单地进行前景和背景单一分割,而是实现了多目标 分割,识别了图像中多类物体。通过将自动分割结果 及交互式分割结果与真实标签图像进行误差计算,如 的交互量就可以在短时间内达到厢户期 的分割 结果,本文中所使用的实验图像最多只需要交互三 次就能完成语义分割、 第3期 左向梅等:基于交互式条件随机场的RGB—D图像语义分割 表2本文交互式分割时间表 I79 子错误标记为椅子,但是由于人工操作对系统影响降 第3次交互 时间/s 图像 交互 第1次交 (a) (h) 第2次交瓦 低,系统自身判断占据较大比重,所以依旧将桌子判断 为桌子,从而提高了系统的鲁棒性。 标号 次数 笔西i 时@/s 笔画 日寸问/s 笔 l 1 ‘ 4 2 2.5 1.9 l 0.7 (t・) 3 4 2.8 l 0.8 l 0.5 (f1) ( ) (f) 2 l 2 3 4 2 2.4 2.6 2.0 2 1.1 l 0.7 为了进一步验证本文系统的性能,将我们的方法 与基于 割的交互式分割方法 及SIOX交互式分割 __ % 0.6, O.7 ,=0.4,0【 0 5 方法 进行对比,分割结果见图5所示。图5(a)、 (1))为两组实验图像及结果,其中第一列为RGB图像 (包含人工交互笔画),第二列为基于图割的交互式分 割结果,第三列为SIOX交互式分割结果,第四列为本 文交互式分割结果 表3为图5(a)、(} )两组图像的 分割准确率及时问 从图5及表3可以看出,相比于 图6 两组引入人工错误信息后的实验结果对比图 尽管通过降低权重系数O/ 和 的值,可以减 轻人为错误信息引人后对系统系统性能的负面影 响,但这是以削弱人工对系统的影响为代价。有时 候系统本身判断的确足错误的,人工就需要多次的 操作才能纠正系统自身的判断失误,不免带来系统 其他两种方法,在近似相同的时间消耗情况下,我们的 方法能够得到更好的分割结果,从而达到用户对图像 的分割需求。 效率上的降低。因此,为了保证系统拥有较高的使 用效率的同时,对人为错误信息拥有一定的处理能 力,选取合适的权重系数 。和 的值需要根据用 户不同的需求来决定。 _ 罔5 ¨交 f:式分割 法对tL2, ̄果 表3不同交互式分割方法准确率和时间对比 3 结 语 本文提出了一种交互式的图像分割和标签方 法,提取RGB—D图像的语义区域。当对图像进行 分割时,首先使用基于条件随机场模型的方法对图 像进行初始分割,随后通过少量人工交互,动态地 像标 (a) (1)) 于图 的方法 SIOX分割方法 90.9 89.8 1.1 1.3 93.7 72.5 1.0 1.0 本文方法 97.2 96.8 1.1 1.2 调整辨别型模型来反映当前场景的信息,从而改善 分割结果。依据我们的实践,只需要简单的画几笔 准确率 时问/s 准确牢 t ̄Ih]/s 准确率 U ̄l;q/s 就能很好地提高分割精度,这对于自动分割方法来 说是很难达到的。而且,当前的分割信息自动地集 成到我们学习的条件随机场模型中,所以对于后续 的图像也能改善分割精度。虽然我们提出的交互 式图像分割方法能很好地提高分割精度,对用户交 上述实验是在假定人工交互给出的都是正确标签 的情况下进行的,所以外观函数里的权重系数 和几 何函数里的系数Ot ,设定为较大的值,从而增加人工交 互对分割结果的影响。但在实际操作中,难免会存在 错误的人工交互,通过减小权重系数 和O/ ,可以降 低人工交互对系统分割结果的影响。当人为引入错误 的信息后,系统依然保留原有的判断,从而提高系统的 鲁棒性 图6为两组实验结果,从图6中可以看出,当 和O/ 没以较大的值(O/ =0.6, =0.7),人工错 互操作量也比较少,但是交互操作会影响分割速 度,所以后续工作需要进一步优化能量函数,在提 高精度的同时不增加计算时间。 参考文献 [1]Shao L,Hart J,Kohli P.et a1.Computer vision and 11111一 误地操作将桌子标记为椅子,结果系统误将桌子显示 为椅子,由此可以看出人工交互对系统的影响较大。 chine learning with RGB—D sensors[M].Switzerland: Springer International Publishing.2014:3—26. 考虑到人为错误信息的引入,适当降低 和 的值 ( =0.4,O/ =0.5),图中可以看出,尽管人为将桌 [2]Kohli P,Ladi(’ L.Tort P H.Robust higher Olde【.poten— tials tbr enfoz’cing label consistency[J].Inlet‘national JllurI1 ̄1] l8O of Computer Vision,2009,82(3):302—324. 计算机应用与软件 2017丘 sparse coding in image classiifcation[C]//201 1 Conference Record of the Forty Fitfh Asilomar Conference on Signals, Systems and Computers,Paciifc Grove,CA,USA.Piscataway, [3]Lafferty J D,McCallum A,Pereira F C N.Conditional ran— dom fields:probabilistic models for segmenting and labeling sequence data[C]//Proceedings of the Eighteenth Interna— tional Conference on Machine] ̄aming,Williamstown,MA, USA.San Francisco,CA,USA:Morgan Kaufmann Publish— ers,2001:282~289. NJ,USA:IEEE Press,2011:2014~2018. [16]Jiang Z,Lin Z,Davis L S.Label consistent K—SVD:learning a discriminative dictionary ofr recognition[J].IEEE Transac— tions on Pattern Analysis and Machine Intelligence,2013,35 [4]Boykov Y Y,Jolly M:P.Interactive graph cuts.for optimal boundary and region segmentation of objects in N-D images (11):2651—2664. [17]Rubinstein R,Zibulevsky M,Bad M.Efficient implementation of the K—SVD algorithm using batch orthogonal matching pnr— [C]//Proceeding of the Eighth IEEE International Confer- ence on Computer Vision;Vancouver,BC,Canada,2001: 105—112. [5]Grady L.Random walks for image segmentati。on[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2006,28(11):1768—1783. [6]Noma A,Graciano A B V,Jr R M C,et a1.Interactive im— age segmentation by matching attributed relational graphs [J].Pattern Recognition,2012,45(3):1159—1179. [7]Hwang H,Haddad R A.Adaptive median filters:new algo— rithm and results[J].IEEE Transactions on Image Process— ing,1995,4(4):499—502. [8]文华.基于数学形态学的图像处理算法的研究[D].哈 尔滨:哈尔滨工程大学,2007. [9]Boykov Y,Funka・Lea G.Graph cuts and efifcient N-D im— age segmentation[J].International Journal of Computer Vi— sion,2006,70(2):109—131. [10]Yuan J,Bae E,Tai X C,et a1.A continuous max—lfow印一 proach to Potts model[C]//1lth European Conference on Computer Vision,Heraklion,Crete,Greece.Springer, 2010:379—392. [1 1]Boykov Y,Veksler 0,Zabih R.Fast approximate energy minimization via graph cuts[J].IEEE Transactions on Pat- tern Analysis and Machine Intelligence,2001,23(1 1): 1222—1239. [12]“Y,Sun J,Tang C K,et a1.Lazy snapping[J].ACM Trnasactions on Graphics,2004,23(3):303—308. [13]Chum‘0,Matas J.Randomized RANSAC with T(d,d)test [C]//Proceedings of the 13th British Machine Vision Con— ference,Cardif,UK,2002:448—457. [14]Rother C,Kolmogorov V,Blake A.“GrabCut”:Interactive foreground extraction using iterated graph cuts[J].ACM Transactions on Graphics,2004,23(3):309—314. [1 5]Friedland G,Jantz K,Rojas R.SIOX:simple interactive object extraction in still images[C]//Proceedings of the 2005 IEEE International Symposium on Multimedia,Irvine, CA,USA,2005:253—260. (上接第147页) [1 5]Thiagarajan J J,Spanias A.Learning dictionaries for local suit[R].Technical Repo ̄,CS Technion,2008:1—15. [1 8]Wang J,Kwon S,Shim B.Generalized orthogonal matching pursuit[J].IEEE Transactions on Signal Processing,2012, 60(12):6202—6216. [19]Aharon M,Elad M,Bruckstein A.rnlK—SVD:an algorithm for designing overcomplete dictionaries for sparse representa— tion[J].IEEE Transactions on Signal Processing,2006,54 (11):4311—4322. [20]Chen S s,Donoho D L,Saunders M A.Atomic decomposition by basis pursuit[J].SIAM Review,2001,43(1):129—159. [21]Chang C C,Lin C J.LIBSVM:a library for suppo ̄vector ma— chines[J].ACM Transactions on Intelligent Systems and Technology(TIST),2011,2(3):389—396. (上接第173页) [6]黄承亮.三维激光扫描技术在人体三维建模中的应用研 究[J].测绘,2013,36(1):13—15,22, [7]朱洲,李德华,关景火,等.基于结构光的三维全身人体扫 描仪[J].华中科技大学学报(自然科学版),2004,32 (1O):7—9. [8]汪霖,曹建福,韩崇昭.基于空间球的三维激光扫描仪标 定算法[J].西安交通大学学报,2013,47(4):79—85. [9]Dunker T,Luther S.Calibration of an infrared 3 d scanner [J].tm—Technisches Messen/Sensoren,Ger ̄ite,Systeme, 2014,81(1):8—15. [1 0]Subbarao M,Choi T.Accurate recovery of three—dimensional shape from image focus[J].IEEE Transactions on Pattern A— nalysis and Machine Intelligence,1995,17(3):266—274. [11]吴庆阳,苏显渝,李景镇,等.一种新的线结构光光带中心 提取算法[J].四川I大学学报(工程科学版),2007,39 (4):151—155. [12]高世一,杨凯珍.变边限高斯拟合提取激光条纹中心线方 法的研究[J].仪器仪表学报,2011,32(5):1132—1137. [13]赵瑞林.基于单片机控制步进电机恒变速系统的设计 [J].计算技术与自动化,2013,32(3):37—40. [14]刘增军,向为,孙广富.基于ADO的数据库开发技术研究 [J].科学技术与工程,2007,7(5):747—752. [15]谢季坚,刘承平.模糊数学方法及其应用[M].武汉:华中 科技大学出版社,2000. 

因篇幅问题不能全部显示,请点此查看更多更全内容

Copyright © 2019- esig.cn 版权所有

违法及侵权请联系:TEL:199 1889 7713 E-MAIL:2724546146@qq.com

本站由北京市万商天勤律师事务所王兴未律师提供法律服务