笔记:Dissimilarity-Based Sparse Subset Selection

来源:互联网 发布:大数据时代的管理变革 编辑:程序博客网 时间:2024/06/08 13:22

Elhamifar, E., Sapiro, G., & Sastry, S. S. (2016). Dissimilarity-based sparse subset selection. IEEE Transactions on Pattern Analysis and Machine Intelligence, 38(11), 2182-2197.
本文是这篇 PAMI 期刊论文的笔记,主要是对文中的理论方法进行展开详解。本人学术水平有限,文中如有错误之处,敬请指正。

摘要: 从一个大型的数据集或模板中找出有信息量的子集是一个重要的问题,对于许多的计算机视觉、推荐系统、生物/健康信息、和图像和自然语言处理的问题中。给予一对原集和目标集的元素之间的不相似度,考虑一个问题:从原集中找到一个子集,称为表示(representatives)或样例(exemplars),使得其可以有效地描述目标集。此文构建这个问题为一个行稀疏约束的迹最小化问题。由于该问题是一般的 NP-hard,需要考虑一个凸松弛代替。最优解找到一个表示,以及目标集中的每一个元素对原集中每一个的元素的赋值(权重)。也就是获得一个聚类。并分析了优化问题的解作为约束参数的解。此文并说明了当两个数据集被一起划分为多个组之后,此文的算法找到来自所有组的表示,并对数据集进行了聚类。另外,此文的算法可以有效地处理异常点。此文的算法可以处理任意的不相似度,可以是非对称的或违背了三角不等式。为了有效地实现该算法, 此文考虑了 Alternating Direction Method of Multipliers (ADMM) 交替乘子法,使得问题为平方级的复杂度。并且 ADMM 使得问题可以被并行化,更减少了计算的时间。最终,通过真实的数据集,此文的算法提升了最好的结果在两个问题中:场景分类(用图像表示)和时间序列建模和分割(用模型表示)。

1 简介

2 Dissimilarity-Based Sparse Subset Selection (DS3)

2.1 问题陈述

假设有一个原集 X={x1,,xM} 和一个目标集 Y={y1,,yN},分别包含 MN 个元素,已经得到了两个数据集之间每一对元素的的不相似度 {dij}j=1,,Ni=1,,M 。每一个 dij 表示一个 xi 能表示 yj 的程度,也就是 dij 的值越小,xi 能越好地表示 yj 。此文构建一个不相似度的矩阵

DdT1dTM=d11dM1d12dM2d1NdMNRM×N,(1)

其中 diRN 表示 D 的第 i 行。给定一个矩阵 D,目标是找到一个子集 X 可以很好地表示集合 Y 中的元素,如图 2 所示。

这里写图片描述

对比一些当前的最先进的算法 1 2 3,此文不限制 XY 有同类的元素或相等。比如,X 可以为一个模型集合,Y 可以为数据集合,在这样的情况下,此文选择一系列模板,使得很好地表示数据集,如图 3 所示。

这里写图片描述

这里的不相似度,可以表示为用模板表示数据的编码误差。另一方面,X,Y 可以包含同类的元素或相等。比如,X,Y 对应模板的集合,于是此文的目标是选择有表达能力的模板。不相似度的例子是动态系统之间的距离,和概率分布之间的 KL 散度。而且,当 X,Y 表示数据点,此文的目标是选择有表达性的数据点,如图 4 所示。比如数据点之间的汉明 (Hamming) 距离,欧几里得 (Euclidean) 距离,和测地距离。

这里写图片描述

2.2 不相似度

注意的是此文可以关注于相似度 {sij} 和不相似度 {dij},仅通过设置 dij=sij 。比如 当 X=Y,可以设置 dij=Kij,其中 K 表示一个数据集的核矩阵。当矩阵 X,Y 的元素的合适的向量空间的表示给定之后,可以使用预定义的函数计算不相似度,比如编码误差 dij=||xiAyj|| 对于一个适合的矩阵 A,欧几里得距离 dij=||xiyj||2,或截断二次距离 dij=min{β,||xiyj||22},其中 β 是一个常数。然而,这里可以计算(不)相似度而不通过数据的向量空间表示,比如社交网络图中的一些边,图像之间的按成对元素的主观比较,或句子之间的通过字符串核的比较。最终,可以得到(不)相似度,比如使用度量学习方法 4 5 。

2.3 DS3 算法

给定 D,目标是选择一个子集 X,称为表示(representatives)或样例(exemplars),使得其可以有效地表示 Y 。因此,考虑一个优化问题于未知的变量 zij 关联着不相似度 dij,其所有的变量的矩阵定义如下

ZzT1zTM=z11zM1z12zM2z1NzMNRM×N,(2)

其中 ziRNZ 的第 i 行。这里将 zij{0,1} 解释为 xi 表示 yj 的指示值,如果 xiyj 的表示,其值为 1 。为了确保每一个 yj 能被一个 xi 表示,必须满足 Ni=1zij=1

2.3.1 Simultaneous Sparse Recovery-Based Optimization

为了选择一部分的 X 的元素,根据不相似度,能很好地编码 Y,此文提出了基于 Z行稀疏约束的迹最小化问题(row-sparsity regularized trace minimization),实现两个目标。首先,Y 能够被很好地编码。如果 xi 被用于表示 yj,其表示的代价为 dijzij{0,dij} 。于是,使用 X 表示 yj 的代价是 Mi=1dijzij,并且,用 X 编码整个矩阵 Y 的代价为 Nj=1Mi=1dijzij 。第二,希望能使用尽可能少的数据来表示。注意当 xiY 的某一些元素的表示时,有 zi0,也就是 Z 的第 i 行是非零的。于是,有较少的表示对应着有较少的非零行在 Z 中。结合以上的两个目标,考虑如下的优化问题

min{zij}s.t.  λi=1MI(||zi||p)+j=1Ni=1Mdijzij  i=1Mzij=1, j; zij{0,1}, i,j,(3)

其中 ||||p 表示 p 范数, I() 表示一个指示函数,如果其参数为 0,值也为零;否则,值为 1 。目标函数的第一项对应表示的数量,第二项表示编码 Y 的总代价。约束参数 λ>0 权衡两项的大小。由于该函数包含计算 Z 的非零行的数量,和二值约束 zij{0,1} 是非凸的,一般是 NP-hard,所以此文考虑了如下的凸松弛
min{zij}s.t.  λi=1M||zi||p+j=1Ni=1Mdijzij  i=1Mzij=1, j; zij0, i,j,(4)

其中直接使用 p 范数的和代替计算非零行的个数。另外,使用了松弛 zij[0,1],所以 zij 可以理解为 xi 表示 yj 的概率。注意当 p1 时,该优化问题是凸的。此文选择 p{2,},尤其当 p=2 时,获得一个软赋值表示 {zij} 是在 [0,1] 之间的;当 p= 时,获得一个硬赋值表示 {zij}{0,1} 。将以上的目标函数重写为矩阵的形式
minZs.t.  λ||Z||1,p+tr(DTZ)  1TZ=1T, Z0,(5)

其中 ||Z||1,pMi=1||zi||p1 表示一个值全为 1 的向量,有着合适的维度。另外,tr() 表示迹函数,有时候将其也写作 tr(DTZ)=D,Z,也就是矩阵的内积。

2.3.2 约束参数的作用

当改变约束参数 λ 的大小时,找到的表达的数量就会改变。对于小的 λ 值,优化时更关注 X 能更好地编码 Y,能获得更多的表示的数量。在极限情况 λ0Y 中的每一个元素都由其对应 X 中的最近的元素表示,即 zijj=1,其中 ijargminidij 。另一方面,如果 λ 的值过大,优化时更关注于 Z 的行稀疏性,选择数量较少的表示。对于一个充分大的 λ,只从 X 中选择一个表达。

图 3 中一个近似非线性的流形,使用表达仿射模型(从带噪声的数据中获得)p= 。随着减少 λ 的值,会选择越来越多的仿射模型,使其更好地近似该流形。图 4 展示了表达(第一行)和系数 Z(第二行),对于 p= 和几个不同的 λ 值,应用于 3 个高斯分布混合的数据模型中,不相似度定义为两点之间的欧几里得距离。

2.4 处理异常点

此文的算法可以有效地处理异常值,于原集和目标集中。一个原集的异常值对应着一个元素不能很好地去表示目标集的元素。由于此文的框架是选择一些表示,X 中这样的异常值不会被选择,如图 5a 所示。其实,这是选择表示的优点之一,除了减少大的集合的数量,还能拒绝一些 X 中的异常点。

这里写图片描述

另一方面,目标集 Y 中,可能包含一些异常的元素,其不能被 X 中的任何元素有效地编码。比如,XY 对应模板和数据点,其中一些数据点不能有效地被任何的模板解释,也就是,有很大的表示误差。因为之前的优化问题要求 Y 中的每一个元素被编码,如果强迫使异常点被 X 编码,通常会导致选择一些不理想的表示。这样的情况,需允许优化问题不编码这些异常点。

为了实现这个目标,此文介绍了一个新的优化变量 ej[0,1] 关于每一个 yj,其数值表示 yj 是一个异常点的概率。据此,提出以下的优化目标

min{zij},{ej}s.t.    λi=1M||zi||p+j=1Ni=1Mdijzij+j=1Nwjej  i=1Mzij+ej=1, j; zij0, i,j; ej0, j.(6)

上述的约束表明,每一个 yj,有概率是一个正常点,会被 X 编码,加上其是一个异常点的概率,和必须为 1 。当 ej=0,可以得到 Mi=1zij=1 。这表示 yj 是正常点,必须使用 X 编码。另一方面,如果 ej=1,可以得到 Mi=1zij=0 。那么 yj 是一个异常点,不需要进行编码。权值 wj>0 惩罚 yj 选为一个异常点。如果 wj 的值越小,yj 越有可能是一个异常点。如果没有这个惩罚项,当每一个 wj 都为 0 时,就会得到无用的解:Y 的每一个元素都是异常点,因为通过只惩罚目标函数中的 zij,会得到每一个 zij=0 和 每一个 ej=1

将上述的目标优化重写为矩阵形式:

minZ,es.t.  λ||Z||1,p+tr[DwT]T[ZeT]  1T[ZeT]=1T, [ZeT]0,(7)

其中 e=[e1,,eN]TRN 是异常点的指示向量,w=[w1,,wN]TRN 是对应的权重向量。

一个可能的解是所有的权值都相等 wj=w,会使得优化中又多出一个约束参数。另一个选择是权值设置如下

wj=βexp(minidijτ),

其中参数 β>0, τ>0 。换句话说,如果原集中存在一个元素可以很好地表示 yj,那么 yj 成为一个异常点的可能性就应该减小,也就是 wj 应该增加,反之亦然。图 5b 阐述了处理异常点的优化的效果。

2.5 聚类

最优解 Z 不仅表示 X 中的元素被选择用作表示,也包含了 Y 中的元素的表示成员信息。具体来说,[z1j,,zMj]T 对应着概率向量 yjX 中的每一个元素表示。因此,赋予了 yj 软约束 zij[0,1] 。也可以得到一个硬赋值,也就是用优化的最终解得到 Y 的聚类。具体来说,如果 {x1,,xK} 表示一个表示的集合,可以赋予 yj 来给 xδj 表示,根据公式

δj=argmini{1,,K}dij.

因此,可以将 Y 分开至 K 个组,对应着 K 个表示。

2.6 Alternative Formulation

上述的优化问题并不直接要求具体的表示数量,而是旨在,通过 λ,来平衡编码代价和表示数量的关系。一种交替凸优化的方式 (对于 p1),通过 Lagrange 乘子

minZ tr(DTZ)s.t. 1TZ=1T, Z0, ||Z||1,pτ,(8)

其中 τ>0 是一个约束参数。其实,该优化问题,在给定的表示‘负担’τ 下,最小化编码误差。对于 p=,明显会得到结果 {0,1},并且 τ 对应着理想的表达数量。

3 DS3 实现

此文考虑 Alternating Direction Method of Multipliers (ADMM) 6 7 交替乘子法来实现 DS3 算法。这个实现的计算复杂度为 O(MN),其中 M,N 分别是不相似矩阵的行数和列数。另外,该提出的算法可以是并行化的,可以有效地减少计算的时间。

考虑用 ADMM 方法实现优化问题,首先介绍一个辅助的变量 CRM×N,并给出如下的优化问题

minZ,Cs.t.  λ||Z||1,p+tr(DTC)+μ2||ZC||2F  1TC=1T, C0, Z=C,(9)

其中 μ>0 是一个惩罚参数。此优化问题于原形式等价,都会找到相同的最优解 Z 。将最后一个等式约束加入到目标函数中,结合 Lagrange 乘子 ΛRM×N,可以得到无约束的 Lagrangian 函数如下
L=λ||Z||1,p+μ2Z(CΛμ)2F+h1(C,Λ)=i=1M(λ||Zi||q+μ2Zi(CiΛiμ)22)+h1(C,Λ),(10)

其中 Ai 表示矩阵 A 的第 i 行,h1() 表示该项不依赖于 Z 。可以将该函数重写为
L=μ2C(Z+ΛDμ)2F+h2(Z,Λ)=i=1Nμ2Ci(Zi+ΛiDiμ)22+h2(Z,Λ),(11)

其中 Ai 表示矩阵 A 的第 i 列,h2() 表示该项不依赖于 C 。在初始化 Z,C,Λ 之后,ADMM 的步骤包括:1) 最小化 L 关于 Z,固定其他变量;2) 最小化 L 关于 C,约束 {1TC=1T,C0},同时固定其他变量;3) 更新 Lagrange 乘子 Λ,固定其他变量。完成的算法步骤给出如下:


Algorithm 1: DS3 using ADMM

Initialize: μ=101, ε=107, maxIter=105, k=0, Z(0)=C(0)=I, Λ(0)=0, error1=error2=2ε.
1: While (error1>ε or error2>ε) and (k<maxIter) do
2: 更新 Z,C

Z(k+1)=argminZ λμ||Z||1,p+12Z(C(k)Λ(k)μ)2F,C(k+1)=argminC C(Z(k+1)+Λ(k)Dμ)2F,s.t.  1TC=1T, C0.

3: 更新 Lagrange 乘子矩阵
Λ(k+1)=Λ(k)+μ(Z(k+1)C(k+1)).

4: 更新误差
error1error2=Z(k+1)C(k+1),=Z(k+1)Z(k).

5: 更新 kk+1
6: End while
Output: 最优解 Z=Z(k)


该实现方法使得内存和计算时间复杂度为 D 的元素个数的倍数。另外,它可以被并行化,以减少计算的时间:

  1. 最小化 Lagrangian 函数关于 Z,其计算时间复杂度为 O(MN) 。这里可以获得最优解在 p=2 时,通过 shrinkage 操作;或是 p= 时,通过投影到 1 球中 8 9 。注意到优化问题可以被分为 M 个独立的子优化问题,根据 ZM 行。所以,如果有了 P 个并行处理资源,可以减少计算时间到 O([M/P]N)

  2. 最小化 Lagrangian 函数关于 C 服从单纯性的约束 {1TC=1T, C0},可以使用 一种算法 10 计算时间复杂度为 O(Mlog(M)N) 。注意到可以优化 N 个独立的子优化问题,根据 CN 行。如果有了 P 个并行处理资源,可以减少计算时间到 O(Mlog(M)[N/P])

  3. 更新参数 Λ 有着 O(MN) 计算时间,也可以由 M 行或 N 列独立更新,于是计算时间复杂度变为 O([M/P]N)O(M[N/P]),如果使用 P 个并行处理资源。

最终,此文提出的 ADMM 实现的算法,以 O(Mlog(M)N) 计算时间复杂度,但是可以减少到 O([MN/P]log(M)) 。相比于标准的凸优化解法,比如 CVX 11 需要立方级或更高的复杂度,有明显的提升。

表1 平均计算时间: CVX 和此文的算法 (μ=0.1), λ=0.01λmax,p,运行 100 次,基于随机生成的数据集大小 N×N

N 30 50 100 200 500 1000 2000 p=2 CVX 1.2×100 2.6×100 3.1×101 2.0×102 5.4×103 ADMM 8.3×103 7.5×102 1.8×101 2.5×100 3.6×100 2.4×101 8.3×101 p= CVX 4.3×100 1.5×101 2.5×102 9.1×103 ADMM 4.0×101 4.5×100 7.6×100 2.4×101 7.8×101 1.8×102 6.8×102

表 1 列出了 CVX 和此文提出的算法的平均计算时间,基于 100 次随机生成的数据集。实验平台为 X86-64 服务器, 1.2 GHz 处理器和 132 GB 内存。在 p=2p= 情况下,此文的算法都明显快于 CVX 。

4 理论分析

4.1 约束参数的作用

优化目标的约束参数对两个相对的项进行权衡:表示的数量,和表示产生的编码误差。换句话说,如果选择了较多的表示数量,就可以获得较小的编码误差。反之亦然。当增加 λ 的值时,则更重视惩罚表示的数量(相比于编码误差),所以此时更期望获得较少的表示数量。事实上,当 λ 超过一定的阈值之后,就会只得到一个表示。具体地,可以证明如下的结果:

Theorem 1 考虑之前的优化问题,令 argmini1Tdi,并且

λmax,2maxi N2||did||221T(did),λmax,maxi ||did||12.(12)

对于 p{2,},如果 λλmax,p,优化问题的最优解为 Z=e1T,其中 e 表示一个第 个元素为 1 而其他都为 0 的向量。所以,对于 λλmax,p,最优解对应着选择 x 作为 Y 的表示。

注意到阈值 λmax,p 一般来说对于 p=2p= 两种情况是不同的。但是,却可以从中获得相同的表示 x,也就是 X 的元素有着与 Y 相比、最小的不相似度的和。比如,当 X=Y 时,数据点和不相似度是通过欧几里得距离计算的,单个表示对应着那些最接近的几何中位数 12 的数据点,如图 4 右边所示。

λ 的值不断减小,更强调最小化 Y 的编码误差,相对于表示的数量。在极端情况下,当 λ 接近一个任意小的非负的值时,可以获得一个最小的编码误差,其中对于每一个 \mathbf{y}_jyj,可以得到

zijj=1,  ijargmini dij.(13)

换句话说,Y 中的而每一个元素选择其最近的 X 中的元素作为表示。

4.2 聚类证明

XY 都被分为多个组时,获得最优解之后,Y 的每一个分区选择它们的表示,从对应的 X 的分区中。这表明 X 中的每一个组都会被采样。为了更好地介绍这样的分区 XY,考虑如下的例子

例 1X={x1,,xM} 作为一系列模板,Y={y1,,yM} 作为一个数据点集合。假设 Gx1 表示前 q 个模板的索引,可以用于有效地表示前 q 个数据点,由 Gy1 索引,但是剩余的 Nq 个数据点有无限大的不相似度,由 Gy2。类似地,假设 Gx2 表示剩余的 Mq 个模板的索引,其可以有效地表示数据点(由 Gy2 索引),但是对 Gy1 的数据点有无限大的不相似度。最终,优化的解有如下的形式

Z=[Z100Z2],(14)

其中 Z1Rq×qZ2RMq×Nq 有较少的非零行。这样的情况下,XY 都被划分为两个组,(Gx1,Gy1)(Gx2,Gy2),其中 Y 的元素由 Gyk,记为 Y(Gyk)X 的元素由 Gxk 索引,记为 X(Gxk),对于 k=1,2

规范划分数据 XYL 个组 {(Gxk,Gyk)}Lk=1,在最优解之中,Gyk 的每一个分区选择其对应的分区 Gxk 。首先介绍标记“不相似度半径”(Gxk,Gyk) 和 “medoid” Gxk

定义 1Gxk{1,,M}Gyk{1,,N} 。定义关于 (Gxk,Gyk) 的不相似度半径为

rk=r(Gxk,Gyk)miniGxk maxjGyk dij.(15)

定义 ckGxk 的 medoid,根据其中的每一个元素,可以得出不相似度半径为
ck=c(Gxk,Gyk)argminiGxk(maxjGyk dij).(16)

换句话说,ck 对应着 X(Gxk) 中的元素与 Y(Gyk) 中的元素的最大不相似度最小的元素。同样,rk 对应着 ckY(Gyk) 的最大不相似度。接着定义联合划分集合 XY

定义 2 给定成对的 XY 之间的不相似度 {dij},则 X,Y 被联合划分为 L 个组 {(Gxk,Gyk)}Lk=1 。如果对每一个 Gyk 中的 yj,而 xckyj 之间的不相似度严格小于 yj 和其他任意组之间的最小不相似度,即

dckj<minkk miniGxk dij, k=1,,L, jGyk.(17)

接着,此文说明如果 XY 联合被划分为 L 个组,而且约束参数都选择合适的范围之后,Y(Gyk) 选择其表示从 X(Gxk) 中,如图 6 所示。

这里写图片描述

定理 2 给定成对的不相似度 {dij},假设 X,Y 被联合划分为 L 个组 {(Gxk,Gyk)}Lk=1 根据 定义 2。那么 λg 可以定义为

λgmink minjGyk(minkk miniGxk dijdckj).(18)

对任意的 λ<λgY(Gyk)X(Gxk) 选择表示,对所有的 k=1,,L

4.3 相同的原集和目标集

如果原集和目标集是一样的,就是一种特殊的情况,当前也有一些算法研究这个问题 13 14 15 。在给定数据集中数据点成对的不相似度后,可以找到其表示。

假设 1X=Y 时,假设 djj<dij 对任意的 jij,即假设每一个点最好的表示就是自身。

例 2 考虑如图 7 所示的数据集,其中所有点均由两个簇 G1G2 中收集到,对应的 medoids 为 xc1xc2 。两点之间的不相似度定义为欧几里得距离。为了能将数据划分为 G1G2 根据 定义 2,对每一个 xjj 属于 Gk),xjxck 之间的距离必定小于点 xj 和另一个集合 Gk 中任意的点 xi 之间的距离,kk 。正如图 7 左边和中间的部分所示。如此情况下,容易验证得到 λ<r12max{r1,r2},其中 ri 是每一个聚类簇的半径,rij 代表两个簇之间的最短距离。

这里写图片描述

X=Y 的情况下,当约束参数变得足够小的时候,每一个数据点都由其自身来表示,即 zii=1, i 。换句话说,每一个点形成自己的类簇。其实,使用 定理 2,可以获得 λmin 满足 λλmin,最优解就成了单位矩阵。

推论 1 假设 X=Y,并定义 λminminj(minijdijdjj) 。对于 λλminp{2,},优化的最优解为单位矩阵,即每一个数据点由其自身表示。

5 实验


  1. A. Kulesza and B. Taskar, “k-DPPs: Fixed-size determinantal point processes,” in Proc. Int. Conf. Mach. Learn., 2011. ↩
  2. B. J. Frey and D. Dueck, “Clustering by passing messages between data points,” Science, vol. 315, pp. 972–976, 2007. ↩
  3. R. H. Affandi, A. Kulesza, E. B. Fox, and B. Taskar, “Nystrom approximation for large-scale determinantal processes,” in Proc. Int. Conf. Mach. Learn., 2013. ↩
  4. E. P. Xing, A. Y. Ng, M. I. Jordan, and S. Russell, “Distance metric learning, with application to clustering with side-information,” in Proc. Adv. Neural Inf. Process. Syst., 2002, pp. 505–512. ↩
  5. J. V. Davis, B. Kulis, P. Jain, S. Sra, and I. S. Dhillon, “Informationtheoretic metric learning,” in Proc. 24th Int. Conf. Mach. Learn., 2007, pp. 209–216. ↩
  6. S. Boyd, N. Parikh, E. Chu, B. Peleato, and J. Eckstein, “Distributed optimization and statistical learning via the alternating direction method of multipliers,” Found. Trends Mach. Learn., vol. 3, pp. 1–122, 2011. ↩
  7. D. Gabay and B. Mercier, “A dual algorithm for the solution of nonlinear variational problems via finite-element approximations,”Comput. Math. Appl., vol. 2, pp. 17–40, 1976. ↩
  8. P. Combettes and V. Wajs, “Signal recovery by proximal forwardbackward splitting,” SIAM J. Multiscale Model. Simul., vol. 4, pp. 1168–2200, 2005. ↩
  9. C. Chaux, P. Combettes, J. C. Pesquet, and V. Wajs, “A variational formulation for frame-based inverse problems,” Inverse Problems, vol. 23, pp. 1495–1518, 2007. ↩
  10. J. Duchi, S. Shalev-Shwartz, Y. Singer, and T. Chandra, “Efficient projections onto the l1-ball for learning in high dimensions,” in Proc. Int. Conf. Mach. Learn., 2008, pp. 272–279. ↩
  11. M. Grant and S. Boyd. CVX: Matlab software for disciplined convex programming [Online]. Available: http://cvxr.com/cvx ↩
  12. G. Wesolowsky, “The Weber problem: History and perspective,”Location Sci., vol. 1, pp. 5–23, 1993. ↩
  13. R. H. Affandi, A. Kulesza, E. B. Fox, and B. Taskar, “Nystrom approximation for large-scale determinantal processes,” in Proc. Int. Conf. Mach. Learn., 2013. ↩
  14. A. Nellore and R. Ward, “Recovery guarantees for exemplarbased clustering,” arXiv:1309.3256, 2014. ↩
  15. P. Awasthi, A. S. Bandeira, M. Charikar, R. Krishnaswamy, S. Villar, and R. Ward, “Relax, no need to round: Integrality of clustering formulations,” in Proc. Conf. Innovations Theoretical Comput.
    Sci., 2015, pp. 191–200. ↩
0 0
原创粉丝点击