Twitter调查种族偏见的图像裁剪算法
Verizon推进了5G网络安全
Northumbria大学在网络攻击后受到重大破坏
与关连文化的公司见员工生产力的提升
酒店使用API​​管理平台来降低成本
英国银行招募开发伙伴解锁云
隐私和在线安全是新的UKRI研究资金的重点
每年丢失一百万亿美元对网络犯罪
高度不寻常的黑客攻击直接威胁治疗患者
英国电信行业守卫欢迎电信法案提案
Chatbots不会替换呼叫中心代理
比利时安全研究员黑客Tesla用覆盆子pi
在Brexit过渡期限之前,政府在智能货运系统准备中“取得进展”
SKT和AWS首次亮相5G边缘云服务
Unilever与Google Cloud与Bolster供应链可持续性的合作伙伴
英国欧洲净零风险投资投资
Darwin Satcom与英国商业5克的第一个卫星自治车辆测试实验室进入齿轮
超过一半的公司打算虽然施莱姆斯II,但仍将继续进行美国数据转移
爱沙尼亚粗鲁觉醒马刺科技创业活动
Airbnb主机在内部泄漏中暴露的帐户数据
Optus与SD-WAN上的VMware团队
Fireeye的伦理黑客工具偷了国有攻击
谷歌和Ovhcloud将共建的云服务带到欧洲企业
爱丁堡列出了计划成为一个聪明的城市
橙色比利时揭示了安特卫普港的第一个5G创新
Ex UC全球经理说,被指控袭击Assange的Constange致力于厄瓜多尔智力
计算机每周买方指南功能列表2021
EquInix将13个Canadian数据区添加到其投资组合中,因为178万美元的钟声收购完成
Techuk说,英国与日本的“历史性”贸易协议承诺对科技界的优势
人道主义数据收集实践将移民处于危险之中
意大利记者说,维基解密导致新闻室使用加密来保护来源的方法
诺基亚软件开始使用HPE Greenlake的“碳负”数据传播
瑞典央行将E-Krona项目迁至下一阶段
萨默塞特学校设定为自由纤维宽带受益
CMA要求探测O2 / Virgin Merger的权利
新加坡建造5G人才管道
对威尔克利克的创始人朱利安·索兰(Court)表示,“不是不公正”
北欧Cio采访:ÅsaMelvanius,隆德市
Thkd Taps SAP和Azure以提高患者体验
5.5g在华为预测高级通讯的黄金十年的途中
IBM Business Split:大蓝景点最大的赌注还在混合云上
朱利安·索兰将在法院审理的Supermax监狱的被定罪的恐怖主义Abu Hamza举行
几乎三分之二的小区站点将在2026到2026年部署打开ran
5G作为沃达丰,巨大的加入中德兰兹未来的流动性
泰勒建筑成功试用5克,为高科技应用
思科加速了与WebEx增强和计划的“波浪”的合作
Mod推出科学和技术战略
NAO说,透明度和诚实的主要计划成功的关键
皇家海军和美国海军进化联合AI和ML工作
挪威安全机构之间的合作计划在议会上进行网络攻击
您的位置:首页 >科技 > 消费电子 >

Twitter调查种族偏见的图像裁剪算法

2021-09-16 13:44:14 [来源]:

Twitter正在调查其图像裁剪算法中的种族偏见,在用户发现它优先考虑白人面孔的黑人面孔之后。

用户首先注意到了温哥华大学经理Colin Madland在社交媒体平台上发布了关于他的黑色同事对Zoom的脸部检测算法的麻烦,每当他使用虚拟背景时一直在拆除他的头部。

当推特互动的图片时,Madden发现Twitter移动应用程序一直默认为他的脸而不是他的同事在预览中。即使他翻转图像的顺序也会发生这种情况。

该发现提示由其他Twitter用户旋转的实验,这些实验以类似的结果结束。

例如,当白人美国参议院多数领导人Mitch McConnell的脸上被置于黑色前美国总统巴拉克奥巴马的形象中,这是前者是预览的前面的脸部。

其他用户与虚构的卡通人物Lenny和Carl从辛普森一家结束时做了同样的实验,以相同的结果结束。

但是,根据Twitter,在继续生活之前已经过了种族和性别偏见的算法,发现了任何一种。“但很明显,我们有更多的分析来做,”它说。“我们将继续分享我们的学习,我们采取的行动,并将开源它,因此其他人可以审查和复制。”

Twitter的首席技术官,加拉格拉拉瓦尔,补充说:“我们在发布时对我们的模型进行了分析,但它需要持续改进。喜欢这个公共,开放和严格的考验 - 渴望从中学习。“

在从此删除的线程中,Twitter用户和德语开发人员Bianca Kastl定位了该算法可以根据“显着性”裁剪图像,这些图像是从Twitter的2018年1月博客文章中描述的“一个人”在自由地观看图像时可能会看它“。

“学术界通过使用眼跟踪器研究和测量了显着性,这些人记录了用眼睛固定的像素。一般来说,人们倾向于更加关注面孔,文本,动物,以及其他对比的物体和地区,“在帖子中的推特。

“此数据可用于培训神经网络和其他算法来预测人们可能想要查看的内容。基本思想是利用这些预测来围绕最有趣的地区的作物。“

Twitter的首席设计官员Dantley Davis表示,在某些情况下算法表示“对比度可能是有问题”,并且该公司根据从用户获得的反馈重新评估其模型。

“我和其他人一样烦恼。但是,我处于解决它的位置,我将“他发了推文,另外添加:“这是我们的错了100%。没有人应该换句话说。现在下一步是修复它。“

据巴塞罗那算法审计咨询咨询咨询咨询仪式的杰玛Galdon Clavell的说法,Twitter的图像裁剪算法的情况标识了许多主要问题,她的公司在审计算法时视为至关重要。

首先是简单地测试单独的偏见是不够的 - 结果应作为审计的一部分发布,因为“只有用户评估所做的努力足以确保算法是缓解偏差的一部分。

她补充说,该算法也经常在实验室环境中进行测试,其中开发人员将在真实上下文中复制的结果。因此,她每周告诉计算机,“偏见审计应该是连续运动”。

“使用机器学习时,开始时的”测试“也不够。随着算法的学习,真实生活动态的偏差和算法模型的技术短缺最终被系统复制,“她说。“特别有关Twitter Reps努力解释算法如何如何了解偏见,并且这一点到一个根本的问题:如何保护人们在系统中甚至没有他们的创造者理解或可以保持责任?

“虽然Twitter所做的努力至少识别偏见,但越来越明显,自动化提出了严重的关注,使得更多的关注,资源和特定方法在算法过程的黑匣子上闪光。”

对于Charles Radclyffe,AI治理专家和环境,社会和企业治理(ESG)基准机构的伦理通过设计,相关问题是为什么这些错误似乎似乎妨碍了色彩的人们。

“科技产业在结构上是种族主义者,我们需要迫切地改变它,”他说。“数据集是有偏见的,开发人员团队主要是不利的,并且客户这样的利益相关者倾向于宣传他们的问题并被听到。找到这些问题的技术解决方法不会解决问题。AI伦理需要被视为公司治理问题,并以同样的方式衡量和管理。“

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。