Twitter新计划:审视自家算法里的“无心之失”
本文作者:周蕾 Twitter宣布了一项新计划。 该计划被称为“负责任的机器学习”,主要研究Twitter所采用的算法的公平性。 计划的内容之一,就是由来自公司内部的数据科学家和工程师们,研究Twitter对机器学习的使用如何导致算法偏差,并评估其算法可能造成的“无意伤害”,再将研究结果公之于众。 “我们正在进行深入的分析和研究,以评估我们使用的算法是否存在潜在危害,” Twitter在官方文件中写道。 首要任务之一是评估Twitter图像裁剪算法中的种族和性别偏见。随着越来越多的新闻网站和社交媒体采用AI识别、提取图片,人们开始注意到许多算法,尤其是面部识别中存在的种族偏见。 此前有Twitter用户指出,在有不同人种的照片中,Twitter的自动图像裁剪算法会在选择预览推文呈现的缩略图区域时,更加突出肤色更浅的人像区域。 去年9月,有研究人员发现,点击这些原始图片,可以看到其中包含更多其他肤色的人群,但即使改变了原图中深色人种和浅色人种出现的位置,预览结果也不会改变。 也有网友认为,出现这一情况是因为算法更倾向于提取图像中的亮度高和色彩密度大的区域,并不是“歧视”。 针对算法被指控种族歧视一事,Twitter当时回应称,将展开更多调查,并承诺将其图像裁剪的机器学习算法开源,接受更多用户的审查和建议。 首席技术官Parag Agarwal表示,该算法需要不断改进,团队也渴望从经验中学习。 从上个月起,Twitter开始测试显示完整图像而不是裁剪预览。 但就算Twitter的算法并非“故意”种族歧视,但研发过程中很可能会有一些缺陷导致种族歧视的出现。 NVIDIA的AI研究总监Anima Anandkumar就曾指出,显著性算法采用的训练集,是异性恋男性的眼球追踪的数据,这显然会将受试者的种族偏见转移给算法。 此外,Twitter还将研究其内容建议,包括时间线信息流在不同种族群体中的差异性等。 Twitter表示将与第三方学术研究人员“紧密合作”,分析结果后续将会分享出来,并征询公众的反馈。 目前尚不清楚这一计划将产生多大影响。Twitter表示,这些研究成果不一定会体现在肉眼可见的产品变化是,更多时候是围绕他们构建和应用机器学习的方式进行重要讨论。 Twitter首席执行官杰克?多西(Jack Dorsey)也曾表示,他希望创建一个算法市场,类似应用商店的形式,让用户能够控制自己使用的算法。该公司在其最新的博客文章中说,他们正处于探索“算法选择”的早期阶段。 不只是Twitter,其实对各大社交媒体平台来说,这是一个迫在眉睫的问题。 受美国国内一些社会事件的影响,立法者向Twitter、YouTube和Facebook施压,要求他们提高算法的透明度。一些立法者提议立法,要求巨头们评估算法是否存在偏见。 Twitter决定要分析自己的“算法偏见”,是在Facebook等其他社交网络之后做出的——Facebook在2020年成立了类似的团队。 此前微软也曾发生类似事件:早在2018年,微软在识别肤色较浅的男性时,准确性就已达到了100%,但在识别深色皮肤女性时,准确率仅为79.2%。 去年六月初,微软也同样因为面部识别涉及种族歧视,引起了舆论风波。 英国知名女团Little Mix成员Jade Thirlwall发文,猛烈抨击微软新闻网站MSN在关于自己的报道中混淆使用了团内另一位成员的照片。 该篇报道证实是由AI抓取并生成,却在寻找配图时把黑皮肤的Leigh和阿拉伯裔的Jade弄混了。 在收到越来越多的的用户投诉,以及反种族歧视浪潮的升温之后,许多包括IBM和Amazon在内的一大批科技公司被迫反思系统,尤其是面部识别技术中存在的偏见。 本文经雷锋网授权转载。 (编辑:南京站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |