像教育孩子一样教导AI?

2020-03-19 18:30:03 作者:给予迩温柔  阅读:141 次  点赞:1 次  鄙视:0 次  收藏:0 次  由 www.5kdb.com 收集整理
听新闻 - 像教育孩子一样教导AI?
00:00 / 00:00

+

-

自动播放×

御姐音

大叔音

萝莉音

型男音

温馨提示:
是否自动播放下一条内容?
立即播放当前内容?
确定
确定
取消

(本文阅读时间:4 分钟)

本篇文章由微软和安永联合著作。微软正在与安永合作进行人工智能成熟度调研,共同剖析各行业内企业人工智能成熟度现状,展望崭新业务机会,后续也将联手推出白皮书报告和系列相关活动,敬请期待。

“文化变革在很大程度上是由领导者推动的,它需要能够产生能量、激励员工的方法论,也需要一种能够培育、奖励这种文化的治理模式,以解决人工智能在运营和伦理方面带来的转型挑战。在一个AI就绪的组织中,信任是至关重要的

——施博德(Brad Smith)微软总裁兼首席法务官

人工智能正被应用到越来越广泛的业务场景中,以实现在以往由人执行的活动和任务上的自动化。对于AI系统的设计人员、架构师和开发人员而言,充分意识到AI相关法规和社会影响变得越来越重要。此外,他们还应该采用符合道德规范的设计以及参考AI治理方面的最佳实践。

建立对人工智能的信任

AI的负面影响包括运营压力、诉讼、负面新闻、客户流失、盈利能力降低和监管审查等,其中个人数据滥用问题更可能导致企业公信力危机。

安永开发的AI框架可以帮助企业了解可能会影响系统、产品、品牌和声誉的潜在风险。框架的核心着重在AI相关系统。企业必须了解、治理、调整和保护AI系统内部和相连的所有组件才能达到对AI完全信任。

要建立对AI的信任既需要技术也需要企业文化的支持。AI要想被用户接受,AI首先需要能够被理解,也就是说其决策框架是可以解释和验证的。AI还需要达到预期的性能,并且得到可靠的产出结果。

建立负责任的人工智能

前微软全球执行副总裁,微软人工智能及微软研究事业部负责人沈向洋博士与微软公司总裁,首席法务官施博德(Brad Smith)在《计算未来 人工智能及其社会角色》一书中强调负责任的人工智能所需的六个原则[1]:“公平,可靠,隐私与保障,包容,透明,负责。”

建立可信任人工智能的重要步骤

安永认为可信任的人工智能是基于以下三个重要步骤:

目的性设计:有目的地设计和构建系统,维护机器人、智能和自主功能之间的平衡,关注因果关系、限制条件、准备情况和相应风险

密切监控:持续微调、整合和监控系统,以确保性能的可靠性,发现和纠正偏差并提高透明度和包容性

“教育AI就像养育孩子一样,你不仅需要教AI怎样做一件事,还要教它社会规范和价值观。开发人员在AI设计和开发之初就应该考虑到道德和信任风险。”

——凯茜·科比(Cathy Cobey)

安永全球人工智能信任主管合伙人

建立可信任的AI的治理模式

尽管越来越多企业意识到AI必须符合道德规范并具备可信赖性,但要确保AI的透明、公正、安全、准确和可审核性可能会超出开发人员的能力。企业需要建立可信任的AI生态系统。

微软已经设立了开发和研究人工智能与道德标准(AETHER)委员会。该委员会囊括了来自微软公司开发、研究、咨询和法律部门的高管,专注于积极制定内部政策,以及如何应对所出现的具体问题。AETHER委员会审查和界定最佳实践,提供指导原则,指导微软人工智能产品和解决方案的开发和部署,并帮助解决微软人工智能研究、产品和客户沟通中产生的伦理和社会影响问题。

微软协同安永提供帮助

由微软Azure支持的安永可信赖人工智能平台(EY Trusted AI Platform)为用户提供了一种集成的方法来评估,监视和量化AI的影响和可信赖性。

人工智能在各个行业的应用和未来发展趋势受到热议,敬请关注下一期AI成熟度调研系列文章,来自微软和安永的行业专家将对热点问题答疑解惑。

[1]《计算未来 人工智能及其社会角色》

参考文献:《如何教导人工智能信任价值》, 安永返回搜狐,查看更多

本文关键词:人工智能 , 微软 , 信任

相关文章

X

5kdb.com上所有的内容均由网友收集整理,纯属个人爱好并供广大网友交流学习之用,作品版权均为原版权人所有。
如果版权所有人认为在本站放置您的作品会损害您的利益,请指出,本站在核实之后会立即删除。
Copyright 2020 5kdb.com Inc. all Rights Reserved

  • 蜀ICP备16009809号-11
  • ×

    分享到微信朋友圈

    扫描二维码在微信中分享