科技前沿信息人工智能最令人担忧的五大趋势

大家好,今日小经来聊聊一篇关于科技前沿信息:人工智能中最令人担忧的五大趋势的文章,现在让我们往下看看吧!
一份来自顶尖研究人员的新报告警告说,人工智能已经开始逐渐失控。在天网这种意义上并没有那么多,但更多的是在'技术公司和政府已经在使用人工智能的方式加强监视并进一步边缘化弱势群体的方式。
上周四,在AI现在研究所,它是隶属于纽约大学,是家庭对顶部人工智能研究者与谷歌和微软公布的报告显示,2018年,详细说明,从本质上讲,AI的状态,以及令人不安的趋势筏在展开领域。报告称,我们广泛定义的AI - 机器学习,自动化系统等 - 目前正在开辟得比我们的监管系统准备好的更快。
它有可能巩固部署人工智能的科技公司和压迫性政府的权力,同时使其他人更容易受到其偏见,监视能力和无数功能障碍的影响。
该报告包含10项决策者建议,所有这些建议看起来都很合理,并且诊断出最具潜在破坏性的趋势。“政府需要对人工智能进行监管,”第一项建议劝告,“通过扩大特定部门机构的权力来监督,审计和监控这些技术。”
研究人员警告说,一个庞大的人工智能部门试图规范大规模的领域将不会削减它 - 该报告建议监管机构遵循联邦航空治理局制定的例子并解决人工智能问题,因为它逐字逐句显示。
但它也传达了对AI中关键问题区域的简洁评估,因为它们在2018年就位。如AI Now所述,它们是:
建立人工智能系统(以及从中获利)和那些受系统影响的人(你和我)之间的责任差距正在扩大。不喜欢受到人工智能系统的想法,这些系统会收集您的个人数据或为您确定各种结果?太糟糕了!该报告发现,大多数公民必须解决可能影响他们的人工智能系统的问题是萎缩而不是增长。
AI通常以可怕的方式用于放大监视。如果你认为面部识别技术的监视能力令人不安,那么等到你看到它的表现更加严谨,影响识别。Intercept的Sam Biddle对报告对情感识别的处理有很好的描述,这是基本上现代化的颅相学,实时实施。
政府正在以节约成本的名义采纳自主决策软件,但这些系统往往是弱势群体的灾难。从旨在简化在线福利申请流程的系统到声称能够确定谁有资格获得住房的系统,所谓的ADS系统能够上传偏见并错误地拒绝申请人无根据。正如Virginia Eubanks在她的“自动化不平等”一书中所详述的那样,这些系统失败的人是那些最不能集中时间和资源来解决它们的人。
人工智能测试“在野外”已经猖獗。报告指出,“硅谷以'快速行动,打破事物'的心态而闻名”,这导致公司在公共部门测试人工智能系统 - 或者直接将其公布到消费领域 - 没有实质性的疏忽。Facebook最近的记录就足以说明为什么这种策略可以证明是灾难性的。
对有偏见或有问题的AI系统的技术修复证明是不合适的。当谷歌宣布它正在解决机器学习的道德问题时,谷歌发出了波澜,但这些努力已经证明过于狭窄和技术导向。工程师倾向于认为他们可以通过更多工程来解决工程问题。但报告认为,真正需要的是对AI系统训练的数据集的历史和社会背景有更深刻的理解。
该报告全文非常值得一读,既为AI进入公共领域的各种途径旅-与公共利益冲突-在2018年,并进行了详细的食谱我们的机构会如何留在此之上不断复杂化情况。
这篇好文章是转载于:知行礼动
- 版权申明: 本站部分内容来自互联网,仅供学习及演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,请提供相关证据及您的身份证明,我们将在收到邮件后48小时内删除。
- 本站站名: 知行礼动
- 本文地址: /news/detail/tanhebgage