Twitter调查种族偏见的图像裁剪算法
Twitter正在调查其图像裁剪算法中的种族偏见,在用户发现它优先考虑白人面孔的黑人面孔之后。
用户首先注意到了温哥华大学经理Colin Madland在社交媒体平台上发布了关于他的黑色同事对Zoom的脸部检测算法的麻烦,每当他使用虚拟背景时一直在拆除他的头部。
当推特互动的图片时,Madden发现Twitter移动应用程序一直默认为他的脸而不是他的同事在预览中。即使他翻转图像的顺序也会发生这种情况。
该发现提示由其他Twitter用户旋转的实验,这些实验以类似的结果结束。
例如,当白人美国参议院多数领导人Mitch McConnell的脸上被置于黑色前美国总统巴拉克奥巴马的形象中,这是前者是预览的前面的脸部。
其他用户与虚构的卡通人物Lenny和Carl从辛普森一家结束时做了同样的实验,以相同的结果结束。
但是,根据Twitter,在继续生活之前已经过了种族和性别偏见的算法,发现了任何一种。“但很明显,我们有更多的分析来做,”它说。“我们将继续分享我们的学习,我们采取的行动,并将开源它,因此其他人可以审查和复制。”
Twitter的首席技术官,加拉格拉拉瓦尔,补充说:“我们在发布时对我们的模型进行了分析,但它需要持续改进。喜欢这个公共,开放和严格的考验 - 渴望从中学习。“
在从此删除的线程中,Twitter用户和德语开发人员Bianca Kastl定位了该算法可以根据“显着性”裁剪图像,这些图像是从Twitter的2018年1月博客文章中描述的“一个人”在自由地观看图像时可能会看它“。
“学术界通过使用眼跟踪器研究和测量了显着性,这些人记录了用眼睛固定的像素。一般来说,人们倾向于更加关注面孔,文本,动物,以及其他对比的物体和地区,“在帖子中的推特。
“此数据可用于培训神经网络和其他算法来预测人们可能想要查看的内容。基本思想是利用这些预测来围绕最有趣的地区的作物。“
Twitter的首席设计官员Dantley Davis表示,在某些情况下算法表示“对比度可能是有问题”,并且该公司根据从用户获得的反馈重新评估其模型。
“我和其他人一样烦恼。但是,我处于解决它的位置,我将“他发了推文,另外添加:“这是我们的错了100%。没有人应该换句话说。现在下一步是修复它。“
据巴塞罗那算法审计咨询咨询咨询咨询仪式的杰玛Galdon Clavell的说法,Twitter的图像裁剪算法的情况标识了许多主要问题,她的公司在审计算法时视为至关重要。
首先是简单地测试单独的偏见是不够的 - 结果应作为审计的一部分发布,因为“只有用户评估所做的努力足以确保算法是缓解偏差的一部分。
她补充说,该算法也经常在实验室环境中进行测试,其中开发人员将在真实上下文中复制的结果。因此,她每周告诉计算机,“偏见审计应该是连续运动”。
“使用机器学习时,开始时的”测试“也不够。随着算法的学习,真实生活动态的偏差和算法模型的技术短缺最终被系统复制,“她说。“特别有关Twitter Reps努力解释算法如何如何了解偏见,并且这一点到一个根本的问题:如何保护人们在系统中甚至没有他们的创造者理解或可以保持责任?
“虽然Twitter所做的努力至少识别偏见,但越来越明显,自动化提出了严重的关注,使得更多的关注,资源和特定方法在算法过程的黑匣子上闪光。”
对于Charles Radclyffe,AI治理专家和环境,社会和企业治理(ESG)基准机构的伦理通过设计,相关问题是为什么这些错误似乎似乎妨碍了色彩的人们。
“科技产业在结构上是种族主义者,我们需要迫切地改变它,”他说。“数据集是有偏见的,开发人员团队主要是不利的,并且客户这样的利益相关者倾向于宣传他们的问题并被听到。找到这些问题的技术解决方法不会解决问题。AI伦理需要被视为公司治理问题,并以同样的方式衡量和管理。“