forked from amusi/daily-paper-computer-vision
-
Notifications
You must be signed in to change notification settings - Fork 0
Commit
This commit does not belong to any branch on this repository, and may belong to a fork outside of the repository.
- Loading branch information
Showing
2 changed files
with
44 additions
and
0 deletions.
There are no files selected for viewing
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
Original file line number | Diff line number | Diff line change |
---|---|---|
@@ -0,0 +1,42 @@ | ||
**2018-06-15** | ||
|
||
Summary: 这篇文章有4篇论文速递,都是人脸方向,包括人脸识别、人脸检测和人脸表情识别。其中一篇是CVPR 2018。 | ||
|
||
[TOC] | ||
|
||
# Face Recognition | ||
|
||
**《Scalable Angular Discriminative Deep Metric Learning for Face Recognition》** | ||
|
||
Abstract:随着深度学习的发展,深度度量学习(DML)在人脸识别方面取得了很大的进步。具体而言,在训练过程中广泛使用的softmax损失通常会带来较大的类内(intra-class)变化,并且仅在测试过程中利用特征归一化(feature normalization)来计算这些配对相似性(pair similarities)。为弥补差距,we impose the intra-class cosine similarity between the features and weight vectors in softmax loss larger than a margin in the training step,并从四个方面扩展。首先,我们探索一个硬采样(hard sample)策略的效果。为缓解调整边缘超参数的人力劳动(human labor),提出了一种自适应边缘更新策略。然后,给出一个规范化版本以充分利用余弦相似性约束。此外,我们增强了前一个约束,迫使类内余弦相似度大于指数(exponential)特征投影空间中具有余量的平均类间余弦相似度。在Labeled Face in the Wild(LFW),Youtube人脸(YTF)和IARPA Janus Benchmark A(IJB-A)数据集上的大量实验表明,所提出的方法优于主流DML方法并接近最先进的性能。 | ||
|
||
arXiv:https://arxiv.org/abs/1804.10899 | ||
|
||
注:感觉这篇论文很硬很硬啊! | ||
|
||
# Facial Expression Recognition | ||
|
||
**《Unsupervised Features for Facial Expression Intensity Estimation over Time》** | ||
|
||
CVPR 2018 | ||
|
||
Abstract:脸部形状和人物运动的多样性是面部表情自动分析的最大挑战之一。在本文中,我们提出描述表达强度(expression intensity)随时间变化的特征(feature),同时对人和所表达的类型不变。我们的功能是适应整体表达 trajectory的多点动态加权组合。我们在几个都与时间分析面部表情有关的任务上评估我们的方法。所提出的特征与用于表达强度估计的最先进的方法进行比较,其表现优于其。我们使用我们提出的特征来暂时对齐记录的3D面部表情的多个序列。此外,我们展示了我们的特征如何用于揭示面部表情中人的特定差异。此外,我们应用我们的特征来识别基于动作单元标签的脸部视频序列中的局部变化。对于所有的实验,我们的特征证明对噪声和异常值具有很强的鲁棒性,使其适用于各种面部运动分析应用。 | ||
|
||
arXiv:https://arxiv.org/abs/1805.00780 | ||
|
||
注:哇,这个feature很棒棒哦! | ||
|
||
**《Local Learning with Deep and Handcrafted Features for Facial Expression Recognition》** | ||
Abstract:我们提出了一种方法,将卷积神经网络(CNN)学习的自动特征(automatic)与由视觉词袋(BOVW)模型计算的手工特征(handcrafted features)相结合,以获得面部表情识别中的最新结果。为了获得自动特征,我们试验了多种CNN体系结构,预先训练的模型和训练过程,例如,Dense-Sparse-Dense。融合这两种特征后,我们采用local 学习框架来预测每个测试图像的类别标签。local 学习框架基于三个步骤。首先,应用k最近邻模型来为输入测试图像选择最近的训练样本。其次,在所选择的训练样本上训练一对一支持向量机(SVM)分类器。最后,SVM分类器仅用于为其训练的测试图像预测类标签。尽管之前已经将local 学习与手工特征结合使用,但据我们所知,它从未与深层特征结合使用。 2013年面部表情识别(FER)挑战数据集和FER +数据集的实验表明我们的方法达到了最新的结果。 2013年FER数据集的最高准确率为75.42%,FER +数据集的最高准确率为86.71%,两组数据均超过所有竞争对手近2%。 | ||
|
||
arXiv:https://arxiv.org/abs/1804.10892 | ||
|
||
# Face Detection | ||
|
||
**《Precise Box Score: Extract More Information from Datasets to Improve the Performance of Face Detection》** | ||
|
||
Abstract:对于基于R-CNN框架的人脸检测网络的训练,如果与 ground-truth相交的 IoUs高于第一阈值(例如0.7),则将 anchor定分配为正样本;并且如果它们的IoU低于第二阈值(例如0.3)则为负样本。根据上述标签训练人脸检测模型。但是,本文不使用IoU在第一阈值和第二阈值之间的anchor。我们提出了一种新的训练策略,Precise Box Score(PBS),来训练目标检测模型。所提出的训练策略使用具有介于第一和第二阈值之间的IoU的anchor,其可以一致地提高人脸检测的性能。我们提出的训练策略从数据集中提取更多信息,更好地利用现有数据集。此外,我们还介绍了一种简单而有效的模型压缩方法(SEMCM),它可以进一步提高面部检测器的性能。实验结果表明,基于我们提出的方案,人脸检测网络的性能可以持续提高。 | ||
|
||
arXiv:https://arxiv.org/abs/1804.10743 | ||
|
||
注:厉害了,不知道将Precise Box Score 应用到通用型目标检测上,效果会怎样? |
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters