CN107437083B - 一种自适应池化的视频行为识别方法 - Google Patents

一种自适应池化的视频行为识别方法 Download PDF

Info

Publication number
CN107437083B
CN107437083B CN201710703259.6A CN201710703259A CN107437083B CN 107437083 B CN107437083 B CN 107437083B CN 201710703259 A CN201710703259 A CN 201710703259A CN 107437083 B CN107437083 B CN 107437083B
Authority
CN
China
Prior art keywords
video
frame
feature description
prediction
importance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710703259.6A
Other languages
English (en)
Other versions
CN107437083A (zh
Inventor
王嘉欣
刘袆楠
王兵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Hefu Artificial Intelligence Technology Group Co ltd
Original Assignee
Guangxi Hefu Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangxi Hefu Intelligent Technology Co Ltd filed Critical Guangxi Hefu Intelligent Technology Co Ltd
Priority to CN201710703259.6A priority Critical patent/CN107437083B/zh
Publication of CN107437083A publication Critical patent/CN107437083A/zh
Application granted granted Critical
Publication of CN107437083B publication Critical patent/CN107437083B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种自适应池化的视频行为识别方法,使用自适应池化的编码形式,可以有效利用视频中的重要信息,并将视频作为一个整体去进行相应的处理,可以对测试视频每一帧进行重要程度预测,并基于重要程度的高低,对视频帧进行池化编码操作。由于是基于当前视频中重要帧的分布来决定视频的特征编码,因此具有自适应的特性,可以对任意视频样本寻找出最适合的描述方案。

Description

一种自适应池化的视频行为识别方法
技术领域
本发明提出一种自适应池化的视频行为识别方法,是一种用于对视频样本进行分类识别的新型应用技术。
背景技术
随着智能手机以及互联网的普及,视频分享的数量得到了指数级的增长。其中大量网络视频的被拍摄目标都是人的某种行为活动。视频行为识别主要目的是将海量视频文件进行有效的分类,以方便人们可以快速提取出自己感兴趣的视频文件。视频行为识别已成为一个热门的领域,具有广泛的应用场景,如:异常目标行为分类、视频内容理解、家庭监控视频检测、视频推荐等。
在计算机视觉领域,有诸多方法可以用于视频行为识别。这些方法主要可以分为两类:一类是基于传统数据驱动特征设计的视频行为识别方法,另一类是基于神经网络深度学习的视频行为识别方法。
传统的数据驱动特征设计方法,主要基于视频自身数据的内容,结合开发者人工设计的数据描述形式。比如:利用视频同一帧内像素之间关系构建梯度方向直方图(HoG)、利用视频不同帧间运动信息构建的光流方向直方图(HoF)、利用运动信息的一阶导数构建的运动边界直方图(MBH)等等描述作为低层特征,并使用词袋模型(BoW)或费舍尔向量去进行视频级的特征描述,最终使用支持向量机(SVM)、随机森林(RF)等分类工具对视频样本进行训练以及分类操作。
相比传统数据驱动特征设计方法,基于神经网络深度学习的方法,如双路深度神经网络(two-streamDCNN)可以利用大量视频训练样本训练得到一系列针对视频内容本身的特征滤波器。常见的如:使用视频帧所训练得到的空域网络(spatial-streamDCNN)以及使用视频多叠加运动信息训练得到的时域网络(temporal-streamDCNN)。可以从视频的外观信息以及运动信息两个层面去更好的提取视频内在特征,并产生更好的分类效果。
基于神经网络深度学习的方法尽管有着传统数据驱动设计所不具备的优势。但是在对视频样本的描述时也会存在一些问题。由于邻近的视频帧图像内容比较相似,所以会产生大量冗余信息,一般基于神经网络深度学习的方法无法区分任意视频帧对于当前视频分类的重要程度。与此同时,此类方法在分类视频时,本质上是在完成多次图像分类的操作,并没有将视频当成一个整体去处理。
为了应对上述提出的两个主要问题,本文发明提出了一种自适应池化的视频行为识别方法。该方法可以有效对视频中的每一帧图像给出重要程度的判断,并且可以将判断为比较重要的视频帧使用池化的方式编码为视频样本的特征描述并进行分类。相比于传统的神经网络深度学习方案,本方法可以更为有效的发现视频中哪些信息才是重要信息,并对这些信息加以更充分的利用。
发明内容
为解决上述技术问题,本发明采用的一个技术方案是:一种自适应池化的视频行为识别方法,其特征在于,通过如下步骤实现:
步骤1:进行视频特征提取网络的预训练,包括基于视频外观的特征描述和基于叠加运动信息的视频特征描述,完成对于视频帧图像的特征描述;
步骤2:利用多层感知机的形式构建层数为3层的视频帧重要程度预测模块,其中运用tanh作为非线性单元,在最后一层使用sigmoid激活函数,采用基于历史累积的视频帧重要程度预测方法判断每一帧视频的重要程度,并根据其重要程度不同对视频进行池化编码,计算出视频帧的重要程度以及积累到某一时刻的视频联合特征描述;
步骤3:将得到的视频联合特征描述,进行二范数归一化,并使用全连阶层对视频样本进行类别预测,采用标准交叉熵计算预测类别与真实类别之间的损失。
具体而言,对于视频帧图像特征描述,我们采用两种方法:(1)基于视频外观信息进行描述,此时我们将视频帧图像尺寸归一化为224*224*3,并输入到在ImageNet预训练的VGG-16网络结构,提取第一层全连接层(FC-6)的输出作为每一帧视频的特征描述。(2)基于视频运动信息进行描述,我们首先计算出视频中任意相邻两帧之间的运动信息,并将连续10帧的水平方向运动以及垂直方向运动相叠加构成运动谱,之后将叠加运动信息尺寸归一化为224*224*20,然后将其输入到在UCF101视频数据库进行预训练的VGG-16网络结构,提取第一层全连接层(FC-6)的输出作为对应视频帧的特征描述。
对于自适应池化编码,考虑到视频本质上是一系列连续运动的图像。本发明设计了一种基于历史积累的视频帧重要程度预测方法。
该方法中,我们对视频第t+1帧的预测是基于第1帧至第t帧共同得到。对第t+1帧重要程度的预测由公式(1)给出:
Figure BDA0001380899230000031
其中,fimp为多层感知机结构,层数为3.
Figure BDA0001380899230000032
是第t+1帧的视频帧图像特征。
当我们得到第t+1帧的视频帧重要程度之后,我们可以计算出从第1帧至第t+1帧的联合特征描述形式,平均池化计算方法由公式(2)给出:
Figure BDA0001380899230000033
其中,ψ(X,t+1)表示为视频中第1帧至第t+1帧的联合特征描述,
Figure BDA0001380899230000034
表示视频中第1帧至第t+1帧的重要程度之和,
Figure BDA0001380899230000035
表示视频中第1帧至第t帧的重要程度之和,计算方法由公式(3)给出:
Figure BDA0001380899230000036
公式(3)中ρk表示第k帧的重要程度预测。
对于视频样本类别预测,本发明使用标准交叉熵去计算预测类别与真实类别之间的损失,在训练阶段,损失函数由公式(4)给出:
L(X,y)=LCE(X,y)+λLE(τ) (4)
其中,LCE(X,y)表示视频样本预测类别与真实类别之间的交叉熵损失,λ表示约束项LE(τ)的调节参数,当λ选择过大时,只有较少的视频帧参与分类,增大分类难度;当λ选择过小时,会有较多视频帧参与分类,但此时容易使训练过拟合,根据具体实验效果,我们将λ设置为105.LE(τ)用来保证选择到的视频帧都是重要程度较大的视频帧,计算方法由公式(5)给出:
Figure BDA0001380899230000041
其中N的计算方法由公式(6)给出:
N=∑t eρt (6)
其中ρt表示第t帧的重要程度。
区别于现有技术的情况,本发明的有益效果是:
首先本发明可以应对多种视频帧级特征作为输入,有着广泛的应用环境。其次,本方法可以有效的对视频每一帧进行重要程度预测,既可以有效筛选视频中的重要信息用以描述视频,也可以用以发现视频中的感兴趣信息。同时,利用对视频所有帧重要程度的预测,本文使用池化编码的形式,对不同视频实现了自适应的视频描述方案。并且最终将视频重要程度预测、池化编码以及视频识别分类模块内嵌到一个端到端的网络结构,从而实现了可以快速进行训练测试以及调试的工作。本发明提出的方法在公开数据集上进行测试,验证了方法的有效性。
附图说明
图1是本发明实施流程图。
图2是本发明自适应池化编码模块示意图。
图3是本发明基于视频外观信息特征提取示意图。
图4是本发明基于视频运动信息特征提取示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1提供的一种自适应池化的视频行为识别方法,通过如下步骤实现:
步骤1:进行视频特征提取网络的预训练,包括基于视频外观的特征描述和基于叠加运动信息的视频特征描述,完成对于视频帧图像的特征描述;
步骤2:利用多层感知机的形式构建层数为3层的视频帧重要程度预测模块,其中运用tanh作为非线性单元,在最后一层使用sigmoid激活函数,采用基于历史累积的视频帧重要程度预测方法判断每一帧视频的重要程度,并根据其重要程度不同对视频进行池化编码,计算出视频帧的重要程度以及积累到某一时刻的视频联合特征描述;
步骤3:将得到的视频联合特征描述,进行二范数归一化,并使用全连阶层对视频样本进行类别预测,采用标准交叉熵计算预测类别与真实类别之间的损失。
具体而言,
如图3、图4所示,对于视频帧图像特征描述,我们采用两种方法:(1)基于视频外观信息进行描述,此时我们将视频帧图像尺寸归一化为224*224*3,并输入到在ImageNet预训练的VGG-16网络结构,提取第一层全连接层(FC-6)的输出作为每一帧视频的特征描述。(2)基于视频运动信息进行描述,我们首先计算出视频中任意相邻两帧之间的运动信息,并将连续10帧的水平方向运动以及垂直方向运动相叠加构成运动谱,之后将叠加运动信息尺寸归一化为224*224*20,然后将其输入到在UCF101视频数据库进行预训练的VGG-16网络结构,提取第一层全连接层(FC-6)的输出作为对应视频帧的特征描述。
对于自适应池化编码,如图2所示,考虑到视频本质上是一系列连续运动的图像,本发明设计了一种基于历史积累的视频帧重要程度预测方法。
该方法中,我们对视频第t+1帧的预测是基于第1帧至第t帧共同得到。对第t+1帧重要程度的预测由公式(1)给出:
Figure BDA0001380899230000051
其中,fimp为多层感知机结构,层数为3.
Figure BDA0001380899230000052
是第t+1帧的视频帧图像特征。
当我们得到第t+1帧的视频帧重要程度之后,我们可以计算出从第1帧至第t+1帧的联合特征描述形式,平均池化计算方法由公式(2)给出:
Figure BDA0001380899230000061
其中,ψ(X,t+1)表示为视频中第1帧至第t+1帧的联合特征描述,
Figure BDA0001380899230000062
表示视频中第1帧至第t+1帧的重要程度之和,
Figure BDA0001380899230000063
表示视频中第1帧至第t帧的重要程度之和,计算方法由公式(3)给出:
Figure BDA0001380899230000064
公式(3)中ρk表示第k帧的重要程度预测。
对于视频样本类别预测,本发明使用标准交叉熵去计算预测类别与真实类别之间的损失,在训练阶段,损失函数由公式(4)给出:
L(X,y)=LCE(X,y)+λLE(τ) (4)
其中,LCE(X,y)表示视频样本预测类别与真实类别之间的交叉熵损失,λ表示约束项LE(τ)的调节参数,当λ选择过大时,只有较少的视频帧参与分类,增大分类难度;当λ选择过小时,会有较多视频帧参与分类,但此时容易使训练过拟合,根据具体实验效果,我们将λ设置为105.LE(τ)用来保证选择到的视频帧都是重要程度较大的视频帧,计算方法由公式(5)给出:
Figure BDA0001380899230000065
其中N的计算方法由公式(6)给出:
N=∑t eρt (6)
其中ρt表示第t帧的重要程度。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (7)

1.一种自适应池化的视频行为识别方法,其特征在于,通过如下步骤实现:
步骤1:进行视频特征提取网络的预训练,包括基于视频外观的特征描述和基于叠加运动信息的视频特征描述,完成对于视频帧图像的特征描述;
步骤2:利用多层感知机的形式构建层数为3层的视频帧重要程度预测模块,其中运用tanh作为非线性单元,在最后一层使用sigmoid激活函数,采用基于历史累积的视频帧重要程度预测方法判断每一帧视频的重要程度,并根据其重要程度不同对视频进行池化编码,计算出视频帧的重要程度以及积累到某一时刻的视频联合特征描述;
步骤3:将得到的视频联合特征描述,进行二范数归一化,并使用全连接层对视频样本进行类别预测,采用标准交叉熵计算预测类别与真实类别之间的损失。
2.根据权利要求1所述的自适应池化的视频行为识别方法,其特征在于:所述基于视频外观的特征描述的具体操作方法为,将视频帧图像尺寸归一化为224*224*3,并输入到在ImageNet预训练的VGG-16网络结构,提取第一层全连接层(FC-6)的输出作为每一帧视频的特征描述。
3.根据权利要求1所述的自适应池化的视频行为识别方法,其特征在于:所述基于叠加运动信息的视频特征描述的具体操作方法为,首先计算出视频中任意相邻两帧之间的运动信息,并将连续10帧的水平方向运动以及垂直方向运动相叠加构成运动谱,之后将叠加运动信息尺寸归一化为224*224*20,然后将其输入到在UCF101视频数据库进行预训练的VGG-16网络结构,提取第一层全连接层(FC-6)的输出作为对应视频帧的特征描述,采用该方法时,需要对连续20帧视频图像进行叠加,从视频末尾19帧开始,就不在构建此类特征表示。
4.根据权利要求1所述的自适应池化的视频行为识别方法,其特征在于:所述基于历史累积的视频帧重要程度预测方法通过如下方式进行计算:
基于第1帧至第t帧,通过公式
Figure FDA0002519179050000011
得到视频第t+1帧的重要程度预测,其中fimp为多层感知机结构,层数为3层,
Figure FDA0002519179050000021
是第t+1帧的视频帧图像特征;
当得到第t+1帧的视频帧重要程度之后,利用平均池化计算方法计算出从第1帧至第t+1帧的联合特征描述形式,计算公式由下式给出:
Figure FDA0002519179050000022
其中,山(X,t+1)表示为视频中第1帧至第t+1帧的联合特征描述,
Figure FDA0002519179050000023
表示视频中第1帧至第t+1帧的重要程度之和,
Figure FDA0002519179050000024
表示视频中第1帧至第t帧的重要程度之和,
Figure FDA0002519179050000025
的计算方式为
Figure FDA0002519179050000026
5.根据权利要求1所述的自适应池化的视频行为识别方法,其特征在于:在训练阶段,预测类别与真实类别之间的损失,由损失函数公式:
L(X,y)=LCE(X,y)+λLE(τ)
给出,其中,LCE(X,y)表示视频样本预测类别与真实类别之间的交叉熵损失,λ表示约束项LE(τ)的调节参数,当λ选择过大时,只有较少的视频帧参与分类,增大分类难度;当λ选择过小时,会有较多视频帧参与分类,此时对训练数据使用多尺度随机缩放移位翻转的操作来避免过拟合,LE(τ)用来保证选择到的视频帧都是重要程度较大的视频帧,计算方法下式给出:
Figure FDA0002519179050000027
其中,N由公式
Figure FDA0002519179050000028
计算得出,ρt表示第t帧的重要程度。
6.根据权利要求1所述的自适应池化的视频行为识别方法,其特征在于:训练时初始学习率设置为0.001并在每3000次迭代后递减为上一组的10%,优化算法选择为随机梯度下降算法。
7.根据权利要求1所述的自适应池化的视频行为识别方法,其特征在于:分类网络的初始学习率设置为10-6,使用adam算子进行优化。
CN201710703259.6A 2017-08-16 2017-08-16 一种自适应池化的视频行为识别方法 Active CN107437083B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710703259.6A CN107437083B (zh) 2017-08-16 2017-08-16 一种自适应池化的视频行为识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710703259.6A CN107437083B (zh) 2017-08-16 2017-08-16 一种自适应池化的视频行为识别方法

Publications (2)

Publication Number Publication Date
CN107437083A CN107437083A (zh) 2017-12-05
CN107437083B true CN107437083B (zh) 2020-09-22

Family

ID=60459972

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710703259.6A Active CN107437083B (zh) 2017-08-16 2017-08-16 一种自适应池化的视频行为识别方法

Country Status (1)

Country Link
CN (1) CN107437083B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107909602A (zh) * 2017-12-08 2018-04-13 长沙全度影像科技有限公司 一种基于深度学习的运动边界估计方法
CN109522822A (zh) * 2018-10-30 2019-03-26 北京奇虎科技有限公司 一种视频检测方法及装置
CN109753906B (zh) * 2018-12-25 2022-06-07 西北工业大学 基于域迁移的公共场所异常行为检测方法
CN110008900B (zh) * 2019-04-02 2023-12-12 北京市遥感信息研究所 一种由区域到目标的可见光遥感图像候选目标提取方法
CN110008899B (zh) * 2019-04-02 2021-02-26 北京市遥感信息研究所 一种可见光遥感图像候选目标提取与分类方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102763407A (zh) * 2009-11-13 2012-10-31 Jvc建伍株式会社 视频处理装置、视频处理方法及视频处理程序
WO2012167616A1 (en) * 2011-06-09 2012-12-13 The Hong Kong University Of Science And Technology Image based tracking
US9152860B2 (en) * 2013-05-10 2015-10-06 Tantrum Street LLC Methods and apparatus for capturing, processing, training, and detecting patterns using pattern recognition classifiers
US9576214B1 (en) * 2012-01-23 2017-02-21 Hrl Laboratories, Llc Robust object recognition from moving platforms by combining form and motion detection with bio-inspired classification
CN106462744A (zh) * 2014-06-12 2017-02-22 微软技术许可有限责任公司 基于规则的视频重要性分析
CN106709461A (zh) * 2016-12-28 2017-05-24 中国科学院深圳先进技术研究院 基于视频的行为识别方法及装置
CN106844573A (zh) * 2017-01-05 2017-06-13 天津大学 基于流形排序的视频摘要方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4153202B2 (ja) * 2001-12-25 2008-09-24 松下電器産業株式会社 映像符号化装置
CN102026001B (zh) * 2011-01-06 2012-07-25 西安电子科技大学 基于运动信息的视频帧重要性评估方法
CN103150373A (zh) * 2013-03-08 2013-06-12 北京理工大学 一种高满意度视频摘要生成方法
CN103310193B (zh) * 2013-06-06 2016-05-25 温州聚创电气科技有限公司 一种记录体操视频中运动员重要技术动作时刻的方法
CN103632372B (zh) * 2013-12-05 2016-02-24 宁波大学 一种视频显著图提取方法
CN104079925B (zh) * 2014-07-03 2016-05-18 中国传媒大学 基于视觉感知特性的超高清视频图像质量客观评价方法
US20160267669A1 (en) * 2015-03-12 2016-09-15 James W. Justice 3D Active Warning and Recognition Environment (3D AWARE): A low Size, Weight, and Power (SWaP) LIDAR with Integrated Image Exploitation Processing for Diverse Applications
CN104966104B (zh) * 2015-06-30 2018-05-11 山东管理学院 一种基于三维卷积神经网络的视频分类方法
CN105279769B (zh) * 2015-07-16 2017-06-13 北京理工大学 一种联合多特征的层次粒子滤波跟踪方法
CN105550699B (zh) * 2015-12-08 2019-02-12 北京工业大学 一种基于cnn融合时空显著信息的视频识别分类方法
CN106203283A (zh) * 2016-06-30 2016-12-07 重庆理工大学 基于三维卷积深度神经网络和深度视频的动作识别方法
CN106650655A (zh) * 2016-12-16 2017-05-10 北京工业大学 一种基于卷积神经网络的动作检测模型
CN106650674B (zh) * 2016-12-27 2019-09-10 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种基于混合池化策略的深度卷积特征的动作识别方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102763407A (zh) * 2009-11-13 2012-10-31 Jvc建伍株式会社 视频处理装置、视频处理方法及视频处理程序
WO2012167616A1 (en) * 2011-06-09 2012-12-13 The Hong Kong University Of Science And Technology Image based tracking
US9576214B1 (en) * 2012-01-23 2017-02-21 Hrl Laboratories, Llc Robust object recognition from moving platforms by combining form and motion detection with bio-inspired classification
US9152860B2 (en) * 2013-05-10 2015-10-06 Tantrum Street LLC Methods and apparatus for capturing, processing, training, and detecting patterns using pattern recognition classifiers
CN106462744A (zh) * 2014-06-12 2017-02-22 微软技术许可有限责任公司 基于规则的视频重要性分析
CN106709461A (zh) * 2016-12-28 2017-05-24 中国科学院深圳先进技术研究院 基于视频的行为识别方法及装置
CN106844573A (zh) * 2017-01-05 2017-06-13 天津大学 基于流形排序的视频摘要方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
《Video Action Recognition Based on Deeper Convolution Networks with Pair-Wise Frame Motion Concatenation》;Y. Han, etal;《2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW)》;20171231;全文 *

Also Published As

Publication number Publication date
CN107437083A (zh) 2017-12-05

Similar Documents

Publication Publication Date Title
CN107437083B (zh) 一种自适应池化的视频行为识别方法
US10891524B2 (en) Method and an apparatus for evaluating generative machine learning model
CN109492612B (zh) 基于骨骼点的跌倒检测方法及其跌倒检测装置
Kim et al. Deep convolutional neural models for picture-quality prediction: Challenges and solutions to data-driven image quality assessment
CN109891897B (zh) 用于分析媒体内容的方法
Li et al. No-reference image quality assessment with deep convolutional neural networks
CN112861635B (zh) 一种基于深度学习的火灾及烟雾实时检测方法
AU2020306013A1 (en) Machine learning systems and methods for improved localization of image forgery
CN111738054B (zh) 一种基于时空自编码器网络和时空cnn的行为异常检测方法
US20190236738A1 (en) System and method for detection of identity fraud
KR102132407B1 (ko) 점진적 딥러닝 학습을 이용한 적응적 영상 인식 기반 감성 추정 방법 및 장치
CN109657582A (zh) 人脸情绪的识别方法、装置、计算机设备及存储介质
Liu et al. Visual smoke detection based on ensemble deep cnns
CN107967442A (zh) 一种基于无监督学习和深层网络的指静脉识别方法及系统
CN111259838B (zh) 服务机器人服务环境下深度理解人体行为的方法及系统
CN117155706A (zh) 网络异常行为检测方法及其系统
Salem et al. Semantic image inpainting using self-learning encoder-decoder and adversarial loss
Kancharlapalli et al. A Novel Approach for Age and Gender Detection using Deep Convolution Neural Network
CN107633527B (zh) 基于全卷积神经网络的目标追踪方法及装置
Jebur et al. Abnormal Behavior Detection in Video Surveillance Using Inception-v3 Transfer Learning Approaches
CN109409224A (zh) 一种自然场景火焰检测的方法
CN116958769A (zh) 基于融合特征的翻越行为检测方法及相关装置
CN113807541B (zh) 决策系统的公平性修复方法、系统、设备及存储介质
CN115731620A (zh) 检测对抗攻击的方法和训练对抗攻击检测模型的方法
CN112052881B (zh) 基于多尺度近端特征拼接的高光谱图像分类模型的装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20200825

Address after: Room d1-35, block C, 7 / F, building 1, electronic industrial park, 8 Gaoke Road, high tech Zone, Nanning City, Guangxi Zhuang Autonomous Region

Applicant after: Guangxi Hefu Intelligent Technology Co.,Ltd.

Address before: Room 101, Building 11, No. 1158 Central Road, Songjiang District, Songjiang District, Shanghai 201600

Applicant before: SHANGHAI HEFU ARTIFICIAL INTELLIGENCE TECHNOLOGY (Group) Co.,Ltd.

Applicant before: CHENGDU JISHENG INTELLIGENTIZE ENGINEERING Co.,Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20240416

Address after: 201600 Room 101, building 11, 1158 Zhongxin Road, Songjiang District, Shanghai

Patentee after: SHANGHAI HEFU ARTIFICIAL INTELLIGENCE TECHNOLOGY (Group) Co.,Ltd.

Country or region after: China

Address before: Building 1, Electronics Industry Park, No. 8 Gaoke Road, High tech Zone, Nanning City, Guangxi Zhuang Autonomous Region, 530000, North of Building C, Building 7, D1-35

Patentee before: Guangxi Hefu Intelligent Technology Co.,Ltd.

Country or region before: China

TR01 Transfer of patent right