重庆邮电大学周丽芳获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉重庆邮电大学申请的专利一种特征增强的轻量化网络FGNet人脸表情识别方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116311414B 。
龙图腾网通过国家知识产权局官网在2026-05-12发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211559276.4,技术领域涉及:G06V40/16;该发明授权一种特征增强的轻量化网络FGNet人脸表情识别方法是由周丽芳;栗思秦;李伟生;全好设计研发完成,并于2022-12-06向国家知识产权局提交的专利申请。
本一种特征增强的轻量化网络FGNet人脸表情识别方法在说明书摘要公布了:本发明请求保护一种特征增强的轻量化网络FGNet人脸表情识别方法,属于模式识别技术领域。包括以下步骤:首先,针对深度卷积神经网络过于复杂的问题,设计了一个基于Keras神经网络框架的轻量级网络模型——FGNet,该模型在backbone的基础上加入了通道分片以及通道洗牌;其次,利用网络注意力模块对于通道和空间特征的提取能力,设计了轻量且高效的注意力模块来提取不同尺度的特征并输出具有丰富的多尺度信息,从而提高网络模型的性能;然后,针对人脸表情数据库样本类别不均衡问题,提出了自适应的类别权重,并加权于自定义的损失函数,来进一步的提升各类表情识别的准确率;最后,设计了一个人脸表情识别系统平台并进行了演示,实现端到端的人脸表情识别。
本发明授权一种特征增强的轻量化网络FGNet人脸表情识别方法在权利要求书中公布了:1.一种特征增强的轻量化网络FGNet人脸表情识别方法,其特征在于,包括以下步骤: 101、利用“幽灵”网络——GhostNet作为基础模型,结合“幽灵”模块的“幻影”特性图生成特性和ShuffleNetV2的通道“洗牌”以及特征复用特性,构建一个轻量级的人脸识别网络框架——特征加强幽灵网络框架FGNet,利用线性运算生成“幻影”特征图来优化网络参数量,利用通道“洗牌”来优化网络模型特征提取的能力; 102、利用网络中注意力模块对于通道和空间特征的提取能力,设计注意力模块来提取不同尺度的特征并输出多尺度信息,并将注意力模块添加在步骤101的网络模型中; 103、根据数据库样本数量为每一类表情样本计算权重,并加权于自定义的损失函数上;从而实现网络对于各个表情类别训练关注度的平衡; 104、将FGNet网络模型导入到人脸表情识别系统中,实现实时的的人脸表情识别; 所述步骤101中FGNet网络框架的设计表示如下: A1、采用“幽灵”网络中所提出的“幽灵”模块特性,生成特征图,基于原始的特征图上应 用一系列线性变换,从而生成包含所需信息的“幻影”特征图,具体来说,原始特征图Y’是由 输入x经过一次卷积生成,再对Y’中的每个原始特征应用线性运算,生成s个“幻影”特征 图: 1 其中是Y’中第i个原始特征图,是第j个线性运算,用于生成第j个“幻影”特征图; B1、网络模块具体设计如下:将输入x经过一层3×3的深度可分卷积后得到特征矩阵,再经过1×1的2D卷积得到,利用沙漏块的特性再经过一次1×1的2D 卷积得到,经过一层3×3的深度可分卷积后得到特征矩阵,利用 ResNet的恒等映射特性,将输入x与做一次恒等映射,得到,再 将与进行特征融合后得到第一层输出,将得到的作为下一层深度可分卷积的输入x,实现该模块的嵌套循环,经过n层网络后,输 出为; C1、在输入input使用通道分片运算将输入特征图在通道维度分成两个分支:通道数分别为a和A-a,左边分支做同等映射,右边的分支包含步骤A的网络模块,并且输入和输出通道相同;对两个分支的输出进行concat操作,最后再对concat后的结果进行通道洗牌,以保证两个分支信息交流; D1、将步骤C1最终输出的特征输入到步骤102设计的注意力模块中得到多尺度特征图; E1、网络末端采用步骤103设计的损失函数来进行表情图像分类,并得到最终识别的准确率; 所述步骤102中设计注意力模块来提取不同尺度特征并输出丰富的多尺度信息,具体为: A2、首先构建多尺度特征,假设输入为X,先将输入X拆分为S部分,表示拆分后的第S组,然后对不同部分提取不同尺度特征,最后将所提取的多尺度特 征通过Concat进行拼接;上述过程如下公式所示: 2 3 4 式中为每一部分输出的特征图,F为最终输出的特征图,Conv为卷积操作,K为卷积核 的大小,G为通道数分组大小; B2、通过有效的通道注意力ECA得到注意力向量以提取不同尺度特征,即对不同部分特 征提取注意力权值,输出的注意力向量可表示为: 5 C2、为实现注意力信息交互并融合跨维度信息,将注意力向量进行拼接: 6 D2、接下来再采用Softmax对注意力向量进行重校正,矫正后的注意力向量A定义如下: 7 E2、将校正后注意力向量作用于多尺度特征图并将结果作为输出,输出Y定义如下: 8; 所述步骤103中提出自适应类别权重并加权于自定义的损失函数,具体为: A3、焦点损失函数FocalLoss是在交叉熵损失函数上进行优化的损失函数,通过添加参数来分配难易样本权重;首先将二分类的焦点损失函数推广到多分类任务上使用,多分类焦点损失函数s的公式如下: 9 式中为模型预测样本属于该类别的概率,代表了样本难易分类的程度,当 时,为易分类样本,当时,为易分类样本;为平衡参数,代表计算损失时对应正 样本的调节权重,为衰减参数,占主导地位,设定参数取值时,随着增大时,要相应减 小; B3、针对样本类别不平衡问题,设计了自适应的类别权重,基于表情库样本总数以 及各个样本类别数量计算,由下列公式计算: 10 其中为表情数据库的分类数量,,为第类的类别权重,为第类的样本数量; C3、将公式10得到的类别权重加权于多分类焦点损失函数从而得到加权焦点损失 函数,其公式如下所示: 11 D3、级联中心损失函数CenterLoss使得同一个类别中的样本距离减小,不同类别中的 样本距离增大,中心损失函数的定义如下: 12 其中,表示第y个类别的中心,为样本数量,为第i类样本的特征向量; E3、采用得到的加权焦点损失函数和中心损失函数联合监督训练深度神经网络,最终 的损失函数定义如下: ==+13 式中用来平衡损失函数以及,进一步优化识别结果。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人重庆邮电大学,其通讯地址为:400065 重庆市南岸区南山街道崇文路2号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励