• 首页 首页 icon
  • 工具库 工具库 icon
    • IP查询 IP查询 icon
  • 内容库 内容库 icon
    • 快讯库 快讯库 icon
    • 精品库 精品库 icon
    • 知识库 知识库 icon
  • 更多 更多 icon
    • 服务条款 服务条款 icon

让人工智能为大家服务

武飞扬头像
xhjyxxw
帮助0

知行礼动

大家好,今日小科来聊聊一篇关于如何让人工智能为大家服务的文章,现在让我们往下看看吧!

有哪些人工智能的例子可以帮助解决世界上的一些问题?

我发现几个激励的例子是人工智能用于提供医疗保健的领域,人类的支持可能相当严格或不够。AI还可以提高准确率,以更安全的方式帮助更多的人。

另一个例子是我们在AI for Good中开发的名为rAInbow的产品,在该产品中,我们构建了一个人工智能工具来帮助发现家庭暴力和虐待的早期迹象。这是一个影响三分之一妇女的问题,无论是身体虐待、性虐待、心理虐待还是经济虐待。

这是一个例子,当人类在早期可能不是最适合和他们交谈的时候,人工智能可以提供帮助,尤其是对于被判断包围的羞耻、羞耻、尴尬和家庭暴力等问题。去年11月,我们在南非启动了该项目,自那时以来,我们收到了35万多名妇女的咨询,她们希望以非判断和不偏不倚的方式了解虐待的早期迹象。

这不是答案,也不能替代人力支持服务。事实上,我们设计的产品与不同领域的人合作,包括那些为有需要的人提供面对面支持的人。人工智能可以在帮助人们迈出第一步,然后将他们指向正确的服务方面发挥作用。这样,人们可以更加积极主动,而不是被动反应。

众所周知,决策中的算法偏见,如抵押贷款、贷款和求职,会歧视女性和少数民族背景的人。如何处理算法偏差,确保这些决策公平做出?

有三件事需要考虑。1:数据从何而来?很多时候是有偏差的,因为基础数据有偏差。它是关于积极观察其他数据集,并尽早发现偏差。

二是与不同社区的人合作。如果是同质化的技术群体,很难有这种不偏不倚的心态。将主题专家、人类学家、了解社会的人、伦理学家和律师纳入这一过程非常重要。

第三个方面是如何解释算法。一个系统可能会提取结果,但如何使用这些信息取决于我们人类。不仅仅是构建算法;而是如何运用这些见解。你是否以一种纯粹自动化的方式使用它们?

在“为善的人工智能”中,我们正在印度做一个关于生殖健康和性健康的有趣项目。我们做了很多人工干预,因为这是一个非常敏感的问题,而偏见包括人类提供者的偏见是一个大问题。判断机器可能并不总是重要的。在设计过程中,你可以在合适的时间把人带进来。

这篇好文章是转载于:知行礼动

  • 版权申明: 本站部分内容来自互联网,仅供学习及演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,请提供相关证据及您的身份证明,我们将在收到邮件后48小时内删除。
  • 本站站名: 知行礼动
  • 本文地址: /news/detail/tanhbibkfh