您好、欢迎来到现金彩票网!
当前位置:刘伯温论坛 > 图像分类 >

Google的包容性图像竞赛促进了较少偏见的图像分类AI的发展

发布时间:2019-06-19 06:21 来源:未知 编辑:admin

  偏差是人工智能(AI)中一个公认的问题,并且是在不具代表性的数据集上训练的典型模型。要解决这个问题比你想象的要困难得多,特别是在种族,社会和种族偏见经常使他们丑陋的头脑出现的图像分类任务中。

  在多方面试图解决这个问题的过程中,Google于9月与NeurIPS竞赛赛道合作推出了包容性图像比赛。这要求团队使用开放图像 - 一个公开可用的数据集,其中包含从北美和欧洲采样的900张标记图像 - 用于训练根据从世界各地收集的照片评估的人工智能系统。它托管在Google的数据科学和机器学习社区门户网站Kaggle上。

  Google脑研究员Pallavi Baljekar在今天早上的算法公平性演示中给出了进展更新。

  “[图像分类]表现......在过去几年中已经大幅改善...... [和]几乎超过人类表现[在某些数据集上]”Baljekar说。“[但我们想]看看模型对真实数据的影响有多好。”

  为此,Google AI科学家在Open Images数据集上设置了一个预先训练的Inception v3模型。一张照片 - 穿着西式长裙和全裙式婚纱的白种人新娘 - 制作了“礼服”,“女人”,“婚礼”和“新娘”等标签。然而,另一张照片 - 也是新娘的照片,但是亚洲血统和民族服饰 - 制作了诸如“服装”,“事件”和“表演艺术”之类的标签。更糟糕的是,模特完全错过了形象中的人物。

  Baljekar说:“当我们远离西方关于新娘的样子时......模特不太可能[生产]作为新娘的图像标签。”

  原因并不神秘。Open Images数据集中的相对较少的照片来自中国,印度和中东。研究已经表明计算机视觉系统容易受到种族偏见的影响。

  一个 2011的研究 发现,AI在中国,日本开发的,韩国有更多的麻烦白人面孔比东亚人之间的区别,并在单独的 研究 中从供应商Cognitec 2012面部识别算法进行执行5至更糟10%的非裔美国人比在高加索人。最近,众议院监督委员会 关于面部识别技术的听证会显示,联邦调查局用于识别犯罪嫌疑人的算法在15%的时间内都是错误的,而亚马逊的Rekognition计划错误地将28名国会议员误认为是罪犯,对有色人种的偏见。

  因此,包容性图像竞赛的目标是激励竞争对手开发图像分类器,以便在数据收集困难的情况下 - 如果不是不可能的话。

  为了编译可以评估提交的模型的多样化数据集,Google AI使用了一个应用程序,指示用户拍摄周围的对象并使用设备上的机器学习生成字幕。标题被转换为动作标签并通过图像分类器,由人类团队验证。第二个验证步骤确保人们在图像中被正确标记。

  在两个竞赛阶段的第一阶段,其间有400个团队参与,Google AI发布了32,000张来自不同地理位置的不同数据图像以及来自Open Image数据的标签分布。在第二阶段,Google从第一阶段和训练数据集中发布了100,000张具有不同标签和地理分布的图像。

  那么外卖是什么?前三个团队使用网络和数据增强技术的组合,他们的AI系统在第一阶段和第二阶段都保持相对较高的准确性。虽然五个顶级球队的模型中有四个在应用于原始的两个新娘图像时没有预测“新娘”标签,但他们确实在图像中识别出一个人。

  Baljekar说:“即使使用小型,多样化的数据集,我们也可以提高看不见的目标分布的性能。”

http://airgomusic.com/tuxiangfenlei/372.html
锟斤拷锟斤拷锟斤拷QQ微锟斤拷锟斤拷锟斤拷锟斤拷锟斤拷锟斤拷微锟斤拷
关于我们|联系我们|版权声明|网站地图|
Copyright © 2002-2019 现金彩票 版权所有