FaceApp 为应用的潜在种族主义功能道歉

FaceApp 为应用的潜在种族主义功能道歉

要是所有算法偏见像这样容易被发现就好了:FaceApp 是一款照片编辑应用,它可以 利用神经网络技术 对用户的自拍照进行以假乱真的修改。现在,该公司为应用中带有种族主义色彩的算法发表了道歉声明。

FaceApp 会让用户上传一张自拍照或脸部照片,然后通过一系列滤镜对照片进行细微或大幅度的修改,其中包括老化处理乃至性别转换。

问题在于,FaceApp 中还有一个所谓的“hotness”(热辣)滤镜,它带有种族主义色彩。正如用户 指出的那样 ,该滤镜会把处理对象的肤色变浅,以此达到其所谓的“美化”效果。如图所示,你可以看到奥巴马总统照片在滤镜处理前后的对比。

FaceApp 创始人兼首席执行官雅罗斯拉夫·冈恰罗夫(Yaroslav Goncharov)在发给我们的电邮声明中为这个种族主义算法道歉:“对于这个毫无争议的严重问题,我们深表歉意。这是为应用提供支持的神经网络造成的不幸副作用,其根源是训练数据集中存在的偏见,并非我们有意为之。为了缓和这个问题,我们已经对滤镜效果进行了重命名,以消除与之相关的任何积极赋义。此外,我们还在研究完整的解决方案,预计会很快跟大家见面。”

正如《卫报》早些时候指出的 ,FaceApp 在最近几周成为热门应用,这可能促使该公司意识到应用中的滤镜存在问题。

FaceApp 已经把该滤镜的名字从“hotness”更改为“spark”(亮化)。不过,在应用中取消这款滤镜直至非种族主义的替代方案问世或许才是更明智的选择。也许,FaceApp 眼下的大热对该公司的决策造成了一些干扰(显而易见,这款应用每天新增的用户人数大约在 70 万左右)。

虽然为 FaceApp 滤镜效果提供支持的 AI 技术包含了一些开源库(比如谷歌的 TensorFlow)的代码,但冈恰罗夫向我们证实,用来训练“hotness”滤镜的数据集是他们自己的,并非公共的数据集。所以,FaceApp 在这个问题上没办法把锅甩给别人。

坦率地说,这实在是展示算法包含偏见所具风险的绝佳(视觉)案例。机器学习模型的质量取决于它被馈入的数据,就 FaceApp 来说,这支位于莫斯科的团队显然没有使用足够多样化的数据集来训练他们的算法。这次 FaceApp 如此“大张旗鼓”地暴露了算法偏见的潜藏问题,我们至少可以在这一点上感谢他们。

在 AI 接管越来越多系统控制权的情况下,我们迫切需要建立 算法问责制 ,以此打造健全的系统,避免把人类偏见带给机器。自动化技术并不意味着“免于人的缺陷”,任何不承认这一点的开发者都是在试图说谎。

翻译:王灿均(@何无鱼

FaceApp apologizes for building a racist AI

Via: http://techcrunch.cn

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: