020-54903577
当前位置:主页»关于广东会»物业清洁»

追番必备 动漫角色也可以用人脸识别了

文章出处:广东会 人气:发表时间:2023-10-13 00:41
本文摘要:用人脸识别找到你「妻子」。机械之心报道,作者:小舟自七十年月以来,人脸识别已经成为了盘算机视觉和生物识别领域研究最多的主题之一。近年来,传统的人脸识别方法已经被基于卷积神经网络(CNN)的深度学习方法取代。 现在,人脸识别技术广泛应用于安防、商业、金融、智慧自助终端、娱乐等各个领域。而在行业应用强烈需求的推动下,动漫媒体越来越受到关注,动漫人物的人脸识别也成为一个新的研究领域。

广东会

用人脸识别找到你「妻子」。机械之心报道,作者:小舟自七十年月以来,人脸识别已经成为了盘算机视觉和生物识别领域研究最多的主题之一。近年来,传统的人脸识别方法已经被基于卷积神经网络(CNN)的深度学习方法取代。

现在,人脸识别技术广泛应用于安防、商业、金融、智慧自助终端、娱乐等各个领域。而在行业应用强烈需求的推动下,动漫媒体越来越受到关注,动漫人物的人脸识别也成为一个新的研究领域。

动漫形象虽然相对具有标志性,但也不乏相似的动漫形象和场景,究竟 B 站知名 up 主凉风「一眼识动漫」的技术不常有。人工不行,那么将人脸识别用于动漫角色识别呢?克日,来自爱奇艺的一项新研究提出了一个新的基准数据集,名为 iCartoonFace。该数据集由 5013 个动漫角色的 389678 张图像组成,并带有 ID、界限框、姿势和其他辅助属性。

iCartoonFace 是现在图像识别领域规模最大的卡通媒体数据集,而且质量高、注释富厚、内容全面,其中包罗相似图像、有遮挡的图像以及外观有变化的图像。论文地址:https://arxiv.org/pdf/1907.13394.pdf借助半自动标志算法,研究者为动漫媒体提供了两种类型的注释,即面部识别和面部检测。为了进一步研究这个具有挑战性的数据集,研究者提出了一种多任务域适应方法,该方法将人类和动漫域知识与三种判别性正则化联合起来。此外,研究者还对提出的数据集举行了基准分析,并验证了提出的方法在动漫人物人脸识别任务中的优越性。

图 1:iCartoonFace 嵌入示意图。类似于人脸识别,动漫角色人脸识别中也有一些经典的问题需要处置惩罚。如下图所示,使用 iCartoonFace 数据集可以将相似的动漫脸区离开,识别出是差别的动漫角色:同一动漫人物,差别视角,能够识别出是同一动漫角色:纵然图片中存在重度遮挡,也能够识别出动漫角色:此外,两张图片亮度差别,也能够识别出是同一动漫角色:接下来我们就来看一下这项研究的方法细节。

数据集的构建与分析半自动整合历程为了减轻标签肩负,研究者开发了一个半自动算法来收集 iCartoonFace 数据集并添加注释。该研究的框架能够分成三个阶段:分层数据收集数据过滤历程Q/A 手动注释1. 分层数据收集iCartoonFace 数据集是通太过层的方式收集的(从动漫剧集名称到动漫人物名称,最后到动漫人物图像)。该研究首先形成一个面向排行榜的动漫剧集名单。

然后凭据该名单从互联网上获取主要角色,进而获得动漫人物和相应动漫剧集的列表。下一步从多媒体下载可公然获得的图像,包罗图像、漫画书和视频源。研究者以这种方式获得了带有噪声标签的数百万个图像,用于后续的数据过滤历程。

2. 数据过滤实际上,下载的图像中有大量不相关或重复的数据,这给选择有效数据带来庞大的挑战,尤其是在没有任何先验知识的情况下。因此,该研究借助手动标志的人脸,对无用的样本举行大略的过滤。

换句话说,借用两个已有的人类知识来资助数据过滤历程,即面部检测过滤和面部识别过滤。3.Q/A 手动注释该研究开发了一个 Q/A 系统来手动注释动漫脸的身份信息。如图 2 所示,在注释页面中,一个部门显示参考图像,另一部门显示要标志的图像。

注释者需要确定每个新图像是否与参考图像共享相同的标识。参考图像是专家基于动漫人物所属的动漫剧集名称和动漫人物名称提供的身份图片。

在该数据集中,包罗了 5013 张图片,这意味着每种身份都有一个 probe。数据集概况1. 大规模iCartoonFace 数据集包罗了来自 1302 个动漫专辑的 5013 个动漫人物的 389678 张图像。这是现在规模最大的用于动漫人脸识此外手动注释图像数据集。如图 4(a) 所示,该数据集中的动漫人物包罗来自日本、中国、欧洲和美国四个国家的动漫人物。

广东会

2. 图片数量不均数据集是自然建立的。50% 的动漫人物只有不到 30 张图片,而有些动漫人物却有约莫 500 张图片。3. 高质量数据集经由手动标志之后,执行交织检查方法,二次检查的错误率确保低于 5%。

图 4(c) 显示图像的分辨率大于 100 × 100,其中 65% 的图像分辨率凌驾了 200 × 200。图像的清晰度是通过拉普拉斯怀抱尺度盘算的。大多数样本的值如图 4(e) 所示,为了确保图像界限的清晰度和锐度,需要大于 100。

4. 富厚的属性每个图像都提供了人脸界限框、身份、区域、姿势和性别之类的信息。关于姿势和性此外统计信息如图 4(b) 和图 4(d) 所示。选择随机的 10000 个样本,并用 3D 姿态信息注释。基于动漫和真人的多人物训练框架图 5 展示了该研究团队提出的基于动漫和真人的多人物训练框架。

该框架主要包罗:分类损失、未知身份拒绝损失和域迁移损失。其中,为了获得分类特征提取器,研究者接纳分类损失正则化动漫脸和真人脸分类器,对动漫脸和真人脸举行分类。未知身份拒绝损失旨在找到在差别域之间具有无监视正则化的特征重投影。

域适应损失则是为了减小动漫人脸和真人脸之间的域间隙。实验在实验部门,研究者提出了 3 个问题并对其举行相识答。1. 对于动漫脸来说,那种算法是最佳的?研究者对几种常用算法举行了评估,包罗 softmax、SphereFace、CosFace、ArcFace 和 Focal loss,并在下图中可视化了相应的 CMC 曲线。可以看到,ArcFace+FL 在 5 种算法中体现最优。

5 种算法的 CMC 曲线图。2.。


本文关键词:追番,必备,动漫,角色,也可,以用,人脸,识,别了,广东会

本文来源:广东会-www.jhsjwx.com

同类文章排行

最新资讯文章

Copyright © 2000-2023 www.jhsjwx.com. 广东会科技 版权所有  http://www.jhsjwx.com  XML地图  广东会(中国)集团官方网站