• 首页 首页 icon
  • 工具库 工具库 icon
    • IP查询 IP查询 icon
  • 内容库 内容库 icon
    • 快讯库 快讯库 icon
    • 精品库 精品库 icon
    • 知识库 知识库 icon
  • 更多 更多 icon
    • 服务条款 服务条款 icon

IBMResearch推出可解释的AI工具包

武飞扬头像
xhjyxxw
帮助0

知行礼动

大家好,今日小科来聊聊一篇关于IBMResearch推出可解释的AI工具包的文章,现在让我们往下看看吧!

本次发布是继一年前IBM发布AI failure 360之后的发布,用于检测和缓解AI模型中的偏差。

IBM研究员、负责任的AI领导者Saska Mojsilovic在接受VentureBeat电话采访时表示,IBM正在分享其最新的工具包,以增加人工智能的信任和验证,并帮助必须遵守法规的企业使用AI。

“这一点至关重要,因为我们知道,组织中的人不会使用或部署人工智能技术,除非他们真的相信自己的决定。因为我们为世界上很大一部分地区创建基础设施,这对我们非常重要——不是因为我们在内部部署了人工智能或我们在该领域可能拥有的产品,而是因为我们的客户创建这些功能非常重要。世界将使用它们,”她说。

Mojsilovic表示,该工具包也正在被共享,因为该行业在创建值得信赖的人工智能方面的进展“非常缓慢”。

AI可解释性360借鉴了IBM研究小组成员的算法和论文。材料包括“TED:解释其决策的人工智能教学”,这是在AAAI/ACM会议上发表的一篇论文,涉及人工智能、道德和社会,以及经常被引用的“通过自解释神经网络的稳健可解释性”发表在NeurIPS 2018上。

该工具包从解释结果的许多不同方法中吸取了经验教训,例如比较解释,这是一种试图解释重要缺失信息的算法。

该算法还针对特定场景,如用于解释原型的Protodash,以及用于向最近拒绝贷款的消费者解释信用评分模型结果的算法,或者需要解释AI模型决策的贷款官员。遵守法律。

工具包中的八种算法都来自IBM Research,但未来还会添加更多来自更广泛的AI社区的算法。

“并不是一个研究小组或一个组织就能动针;当我们携手合作时,我们都将受益,这就是为什么我们打算开发工具箱,”Mojsilovic说。

这篇好文章是转载于:知行礼动

  • 版权申明: 本站部分内容来自互联网,仅供学习及演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,请提供相关证据及您的身份证明,我们将在收到邮件后48小时内删除。
  • 本站站名: 知行礼动
  • 本文地址: /news/detail/tanhbihief