IT必须注意隐性偏见 采取措施尽量减少伤害

大家好,今日小科来聊聊一篇关于IT必须注意隐性偏见 采取措施尽量减少伤害的文章,现在让我们往下看看吧!
当我在20世纪80年代末开始使用AI系统时,我很早就知道这种偏见。事实上,人们对人工智能系统进行编程和教学,所以那些人工智能系统往往带有教它们的人的固有偏见。
利用云托管昂贵的人工智能系统实际上让情况变得更糟,因为能够负担人工智能的公司数量增加了,但拥有可靠人工智能技能的人数却没有以同样的速度增加。因此,除了广泛使用的人工智能工具的天然偏见之外,人才的缺乏也意味着在一段时间内,如何构建知识库的更多错误将变得普遍。
这些偏见是什么样的?女性可能会发现她们中风的时间很短。这是因为男性在人工智能的开发和教学中占绝大多数,所以他们有意识或无意识的偏见被编码。例如,2015年的一项研究显示,谷歌搜索中“首席执行官”的形象只有11%是女性——尽管在美国,27%的首席执行官是女性。(虽然在谷歌上选择很容易,但很快就纠正了这些问题。)
公司将不得不为这些内置的人工智能偏见买单。例如,他们需要吸收没有向足够多的女性发放贷款的利润,这些女性约占市场的55%。而且,至少是恶业,最坏的情况会让你进入法律的热水。
对此我还能做什么?现实是,有偏见的人工智能系统比其他系统更正常。因此,IT需要认识到偏差的存在或可能,并采取措施限制损害。幸运的是,工具正在出现,帮助你发现基于人工智能的偏见。
这篇好文章是转载于:知行礼动
- 版权申明: 本站部分内容来自互联网,仅供学习及演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,请提供相关证据及您的身份证明,我们将在收到邮件后48小时内删除。
- 本站站名: 知行礼动
- 本文地址: /news/detail/tanhbiaggc