• 首页 首页 icon
  • 工具库 工具库 icon
    • IP查询 IP查询 icon
  • 内容库 内容库 icon
    • 快讯库 快讯库 icon
    • 精品库 精品库 icon
    • 知识库 知识库 icon
  • 更多 更多 icon
    • 服务条款 服务条款 icon

亚马逊和科学基金会拨款1000万美元用于AI公平性研究

武飞扬头像
xhjyxxw
帮助0

知行礼动

大家好,今日小经来聊聊一篇关于亚马逊和科学基金会拨款1000万美元用于AI公平性研究的文章,现在让我们往下看看吧!

“随着人工智能在日常生活中的使用越来越多,人工智能的公平性在学术界、政府和行业中越来越重要,”Alexa AI集团自然理解副总裁Prem Natarajan写道。“在亚马逊,我们为支持我们的业务而建立的机器学习系统的公平性对于建立和维护客户的信任至关重要。”

与亚马逊NSF的合作伙伴关系将关注可解释性、潜在的不利偏见和影响、缓解策略、公平性验证和包容性考虑,旨在“更广泛地接受”人工智能系统,并允许“进一步利用资本”人工智能技术的潜力。这两个组织希望从今天到5月10日接受的提案将产生新的开源工具、开放数据集和出版物。

亚马逊将为此计划提供部分资金,NSF将根据其绩效评估流程独立做出奖励决定。该计划预计将在2020年和2021年继续进行,并呼吁更多人表达兴趣。

“我们很高兴宣布与亚马逊开展新的合作,研究人工智能的公平性,”科学基金会计算机和信息科学与工程负责人吉姆库斯特(Jim kuster)说。“该计划将支持与可靠的人工智能系统的开发和实施相关的研究,这些系统从一开始就将透明、公平和责任融入了他们的设计。”

随着今天的宣布,亚马逊加入了越来越多从事道德人工智能研究的公司、学术机构和行业联盟。他们的集体工作已经产生了算法偏差缓解工具,这些工具有望加速实现更公正的模型。

五月,脸书宣布公平交通。如果算法基于种族、性别或年龄对某人做出不公平的判断,它会自动发出警告。埃森哲发布了一个工具包,可以自动检测人工智能算法中的偏差,并帮助数据科学家减轻这种偏差。微软在5月份推出了自己的解决方案,9月份推出了What-If工具,这是TensorBo机器学习框架TensorBoard web dashboard的偏移检测功能。

IBM也不甘示弱,在去年秋天发布了AI Fairness 360,这是一个全自动的基于云的套件。“不断提供关于人工智能系统如何做出决定和建议调整的[见解]——例如,算法调整或平衡数据——可能会减少偏见的影响。IBM的沃森和云平台部门最近的研究专注于人工智能模型,以减少偏见,特别是面部识别。

值得一提的是,今天的新闻是麻省理工学院的研究人员发表的一项研究发现,Rekognition——亚马逊网络服务(AWS)的对象检测API在某些情况下无法可靠地确定女性和深色皮肤人脸的性别。该研究的共同作者声称,在2018年进行的实验中,Rekognition的面部分析功能错误地将女性的照片识别为男性,将深色皮肤的女性识别为男性的比例分别为19%和31%。

亚马逊不同意这些发现——而且仍然存在争议。在内部,它表示,在Rekognition更新版本的测试中,它发现所有种族的性别分类准确性“没有差异”。它还说,那篇有问题的论文没有详细说明实验中使用的置信度阈值。

这篇好文章是转载于:知行礼动

  • 版权申明: 本站部分内容来自互联网,仅供学习及演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,请提供相关证据及您的身份证明,我们将在收到邮件后48小时内删除。
  • 本站站名: 知行礼动
  • 本文地址: /knowledge/detail/tanhcjcihg