顾道长生

V1

2022/07/13阅读:18主题:自定义主题1

(CVPR-2022)用于改进步态识别的拉格朗日运动分析和视角嵌入

用于改进步态识别的拉格朗日运动分析和视角嵌入

paper题目:Lagrange Motion Analysis and View Embeddings for Improved Gait Recognition

paper是北航发表在CVPR 2022上的工作

paper链接:地址[1]

Abstract

步态被认为是人体的行走模式,包括形状和运动线索。然而,主流的基于外观的步态识别方法依赖于轮廓的形状。目前尚不清楚运动是否可以在步态序列建模中明确表示。在本文中,我们使用拉格朗日方程分析了人类步行,并得出结论,时间维度中的二阶信息对于识别是必要的。我们根据得出的结论设计了二阶运动提取模块。此外,通过分析当前的交叉视图任务方法没有明确考虑视图本身的问题,设计了一个轻量级的视角嵌入模块。在 CASIA-B 和 OU-MVLP 数据集上的实验表明了我们方法的有效性,并且对提取的运动进行了一些可视化以显示我们的运动提取模块的可解释性。

1.Introduction

步态是一种生物特征,可呈现行人的步行模式以进行身份识别,并且比其他生物特征(例如面部、虹膜或指纹)具有优势,因为它可以在没有触摸和远距离的情况下进行识别。尽管已经研究了多年,但在步态识别方面仍然存在一些挑战。例如,携带条件 [4, 15, 16, 42, 46]、外套穿着和视角差异 [41, 45] 等变化可能会导致步态外观发生变化,从而难以区分行人。

现有的基于外观的步态识别方法在很大程度上依赖于剪影的视觉外观。 然而,当视角接近时,两个不同的人之间的外观差异可能比从两个不同的角度看同一个人的差异要小。

解决上述问题的一种常见方法是学习视角不变或稳健的特征[6,10,20,21,35,37,38,43]。然而,这些工作侧重于如何提取外观信息以及空间或时间特征的融合。视角的检测或估计被忽视,很少有模型明确利用视角。换句话说,这些方法的视角鲁棒性完全基于数据的覆盖范围,这是一个众所周知的不适定问题。

即使视点接近,外观信息仍然不是很可靠。如图1所示,仅从身体形状上很难区分三个样本的身份。这种现象解释了为什么纯粹基于外观的方法,如步态能量图像(GEI)[34]不能达到理想的性能。类似的情况也会出现在最先进的Gaitset方法[6]中,该方法也没有使用时间信息。

图1
图1

图1. 来自CASIA-B数据集的三个样本,其中A和B分别表示ID39和ID77。A-1和A-2是选自不同序列的A的两个样本。可以发现,在视觉上很难找到A和B之间的区别。甚至在某些帧上,A-2与B-1比A-1更相似。

我们认为,图1中所示问题的最终解决方案是步态运动。最近,一些利用时间特征的方法被提出[7, 20, 20, 28, 39]。尽管这些模型在识别精度上显示出较强的优势,但它们没有讨论步态中的运动信息,以至于可能会遗漏一些判别性的生物信息。

在本文中,通过数学建模分析,我们认为只用一阶时间信息是很难区分人的。为了有效地对行人的行走模式进行建模,二阶运动是必要的。为了验证这一观点,我们提出了一种新型的运动辅助步态识别方法。为了进一步减少视角差异的负面影响,我们还引入了一种视角感知的嵌入方法。它产生了一个多分支框架,该框架结合了剪影序列的视角、外观和内在运动。实验结果表明,所提出的模型可以有效地缩小由视角差异引起的类内距离。

本文的主要贡献可以归纳为以下四个方面。

  • 我们通过拉格朗日方程对人类行走进行建模,并得出结论,除了一阶运动特征之外,我们还需要使用二阶运动特征来表示步态。

  • 基于拉格朗日运动分析的结论,我们提出了一个二阶运动提取模块来提取高层特征图上的特征。

  • 我们提出了一种新颖的、轻量级的视角嵌入,以缩小由视角变化引起的差异。

  • 我们将我们提出的方法应用于广泛使用的CASIA-B和OU-MVLP数据集,并验证了我们方法的有效性。为了进一步证明我们想法的有效性,我们进行了一些可视化的研究。

2. Related Works

步态识别方法可分为两类,即分别基于模型的方法和基于外观的方法。

基于模型的步态识别方法[2, 17, 19, 24, 33]利用姿势信息来模拟人类姿势不变的身份信息。这种方法对衣服变化和携带物品等干扰项目具有天然的鲁棒性。然而,基于模型的方法在很大程度上受到姿势估计准确性的影响。行人姿势估计本身仍然是一个具有挑战性的问题[14, 18],特别是对于跨域姿势估计[44],这是一个与步态识别更接近的场景。

如今,随着深度学习的发展,基于外观的方法的性能有了较大的突破。Wu等人[37]和Chao等人[6]首先提出了适用于步态识别的网络。Wolf等人[36]、Lin等人[20]和Huang等人[12]将三维卷积用于步态识别。Fan等人[7]和Huang等人[11]将时间模型考虑在内。

视角变化是生物统计学中的一个挑战性问题,包括人脸识别和步态识别。与人脸相比,在步态识别中考虑视角的方法较少。He等人[9]提出了一个多任务GAN,并使用视角标签作为监督来训练GAN。Chai等人[5]采用不同的投影矩阵作为视角嵌入方法,并在多个backbone上实现了高增长。然而,这些模型很复杂,有太多的参数。

光流是运动的一种表现形式,光流估计是一项预测两个相邻帧之间的像素到像素的对应关系的任务。最近,许多深度学习方法[29, 40]被用于光流估计。在这些方法中,RAFT[32]是目前具有完美性能和最快速度的方法。光流已经被用于许多领域,包括动作识别[3, 26]和视频生成[1]。

3. Why second-order motion?

步态被认为是可以区分行人的步行模式[23]。然而,在早些年,基于外观的卷积神经网络方法现在主要关注轮廓的二维特征。即使是最先进的 Gaitset [6] 也不依赖于任何时间特征。很难证明当前最先进的方法是依赖于人体形状还是传统的“步态”。早些年,一些方法 [8, 27, 30] 已经探索了运动以及加速度(二阶运动)对步态识别的影响,但他们并没有深入研究其背后的理论和物理学。

因此,为了探索本质信息,我们提出使用拉格朗日方程[13]来分析人类的行走。如图3所示,我们假设人类的大腿和小腿是刚性的,并对其进行机械建模。两条大腿和两条腿的长度和质量分别表示为 代表它们与垂直线之间的角度。同时,假设人体向前移动一小段距离

图3
图3

图3。行人行走分析图。

那么我们可以得到动能 为:。

势能 为:

让我们计算一下 。然后用 的拉格朗日方程,系统可以用 表述为。

其中 是广义的力,包括来自人体肌肉的力和阻力。这些力是行人的本质,它们在一个步态周期中逐渐连续变化。

可以看出,在式(3)中,为了维持这个动力系统,除了一阶导数 外,还需要二阶导数 。如果只有一阶变量,方程组就不是唯一的。

基于三维卷积的方法[12,20,21,36]表现更好并不奇怪,因为级联的三维卷积层可以在最佳情况下提取二阶信息。我们认为三维卷积可以提取时间信息,但很难证明级联的三维卷积层是否一定可以提取二阶运动信息。我们无法知道3D卷积是在进行运动,还是只是对特征图求和。

根据人体运动系统得出的结论,我们根据光流估计[32]中使用的方法设计了一个提取二阶运动特征的模块。与三维卷积相比,它可以明确地提取相邻帧之间的运动。

4. Methods

在本节中,我们提出了一个新的框架,称为LagrangeGait。如图4所示,该框架由三个分支组成。上分支为运动分支,根据第3节的结论提取二阶运动特征。中间分支是提取外观特征的主要分支,可以是Gaitset[6]或GaitGL[21]等任意主干。将主分支中浅层计算得到的特征图应用于运动分支。底部分支为视角分支,对输入轮廓序列的视角进行预测,生成可学习的视角嵌入。

图4
图4

图4。提出的LagrangeGait框架。

给定一个剪影序列,我们将其表示为 是序列的长度。从浅层提取的特征映射记为 ,其中 表示池化后特征映射在时间维度上的长度,例如:在Gaitset[6]中 ,在GaitGL[21]中 ,因为GaitGL有一个 的池化层,核大小和步长相同。将得到的 送入到不同的分支中,运动特征图 ,外观特征图 ,视角特征 分别计算为

其中 是对应的分支

然后我们首先预测序列的视角,然后将其与 融合:

其中 为预测视角, 为离散视图的个数。 是运动和外观的最终特征, , 表示使用HPP模块[6]为运动特征映射和外观特征映射切片的条带数量。 表示特征图的通道数。

最后,用于步态识别的特征可以表示为

4.1. Motion Extraction Module


根据第3节,设计了一个二阶运动提取模块。如图5所示,我们使用3D卷积作为一阶特征提取层。在二阶阶段,参考了RAFT[32]的结构,利用相邻的帧响应关系。

图5
图5

图5。二阶运动提取模块的结构。我们以三维卷积作为一阶运动提取模块,计算像素对像素的对应矩阵作为二阶运动特征。由于像素不能离原点太远,所以我们采用双线性采样来减少计算成本。

由式(4)得到 ,我们将 时刻的feature map分别记为 。然后相邻帧的相关性可以计算为

其中 为卷积层的组合,滤波器大小为 ,并进行维数合并操作。 。然后将相关图重构为 。对于 中的像素,它在下一帧Xorigin中对应的像素 ,我们假设它没有移动太多。所以对于 中的每一个像素 ,特征图 中的对应点为 。 采样范围为

其中, 为采样偏移量, 为采样半径。对于 上的每个像素 ,我们按照 对其进行采样,得到 。然后我们交换通道,形成

最后,将二阶特征图在时间维度上进行整合,得到序列的特征图:

这里 。我们使用 3D 卷积来提取最终特征:

其中 是内核大小为 的卷积层。

4.2. View Embedding


对于步态识别,很少有方法将视角本身考虑在内。在本文中,我们提出了一种更轻量级的视角嵌入方法。

首先,我们使用等式(4)中获得的特征图 计算输入序列的视角特征为

其中 是时间维度上的最大池化, 是全局平均池化。

然后使用 的预测可以表示为

这里 是视角数量,对于 CASIA-B [41] 和 OUMVLP [31] 层的权重, 层的偏差。 是视图预测的结果。

对于每个离散视角 ,我们将训练两个嵌入