AGV机器人

当前位置:前位置:首页 > AGV机器人
全部 2062

面部识别中的有害偏见,阻碍了深度检测

时间:2023-09-06   访问量:0

南加州大学的研究人员在Deepfake数据集和检测模型上存在偏见。一个常用的数据集“绝大多数”是白人,尤其是白人女性。Deepfake检测器无法发现有色人种的欺诈图像和视频。

很多业内人士认为Deepfake算法发展如此迅速,以至于自动检测器很快就会成为找到它们的唯一希望。

一个基于研究者,三个基于它。性别并且在比赛中的误码率为10.7%,与众所周知的deepfake检测器不同。

他们发现流行的FaceForensics ++的平衡性非常差。值得注意的是,对人工智能数据集中的偏差的关注是非常新的。随着情况的改善,在一段时间内,任职人数不足的例子将会更多。

研究人员写道,在试图寻找虚假视频时,实现低误报率是一个“具有挑战性的问题”。

他们使用FaceForensics ++和混合图像生物特征数据集来训练MesoXception4、X让步和人脸X射线模型,这些模型都在视频检测中“被证明是成功的”。这是对“三个代表”重要思想的不同尺度、结构和缺失的描述。

这三种检测器在男女人脸上的表现是一样的,错误率的差别是0.1%到0.3%。用混合图像训练的检测器在显示暗非洲图像时效果最差,错误率从3.5%到6.7%不等。

“混合图像”和“人脸x光”在处理白人男性人脸方面最为成功,对所有白人人脸的错误率为9.8%,对白人男性的错误率为9.5%。

VentureBeat上的一篇文章将南加州大学的论文与科罗拉多大学博尔德分校去年发表的另一篇论文进行了比较。根据出版物,微软、Clarifai、亚马逊和其他公司。公司书面算法至少在95%的情况下正确识别男性。

但是跨性别38%的受访者将男性误认为女性。

一些研究人员正在研究面部生物特征活动检测。人们努力认识到,当血液以脉冲的形式在皮肤下流动时,人的面部会发生快速而微妙的颜色变化。

脸书仍然因为无法将危险的政治宣传与熟悉医疗保健的人区分开来而焦头烂额,它在去年6月结束的Deepfake检测挑战赛中提供了100万美元的奖金。

上一篇:智能机器人完成自主编队成群飞行

下一篇:中科推出新一代机器人,采用特殊驱动关节模式,能实现自由旋转

返回顶部