对AI风险盲目的决定盲目信仰
2021-08-10 12:44:40 [来源]:
汉娜·弗莱,在高级分析中心的城市数学中的讲师,UCL认为人类不应将他们所有的信任都不在算法中。
在IP世博会的数字转换流中发言,Fry使用了她的演示来向观众展示,Dave Cope开发的音乐算法是如何欺骗观众,以思考它是一个真正的巴赫交响乐。
在展示中,展会上的观众分开了50:50,当被问到正在播放的一段音乐是由算法或真正的巴赫创建的。
如果人们没有考虑AI机器的局限,人们无法区分算法和人类决定的人可能会产生深刻的影响。
“我们看到机器匹配我们,”弗莱说。但是,算法可能是不可避免的。
“我们必须接受算法将犯错误。无论你如何训练他们,他们都没有与我们和我们相同的世界。在图像识别中。“
作为一个例子,Fry显示了Microsoft Azure上的图像识别算法如何错误地将景观照片作为与奶牛的景观,即使没有农场动物实际上是在图像中;通过握住羊肉的孩子的图片,算法假设羔羊填充。
虽然这些可能似乎是微不足道的例子,但弗里警告说:“当你在权威地位的机器中缺点时,会出错。”
Shealso用她的谈话来触摸道德的主题,特别是因为机器越来越多地被人们赚取决定。通常,这些人对算法盲目信仰。
回忆一下她在柏林举行的谈话描述了一个她在2011年在伦敦的遇见警察完成的项目,以确定暴徒如何在城市移动,弗莱说:“你不能只是把算法放在架子上并说'那很棒'。你必须考虑如何被人使用。“
指向伦理算法的伦理,她说软件拿起不守规矩的行为可以应用于沉默合法的示范。
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。