职业教育研究所培训中心主办 中科铂标教育科技中心承办
你的位置: 首页 > 公共服务
 
机床操作工逐渐短缺,需要加大培训力度
2020/1/12 12:41:19  来源: 互联网  点击量: 870


要建立对 AI 的信任既需要技术也需要企业文化的支持。AI 要想被用户接受,AI 首先需要能够被理解,也就是说其决策框架是可以解释和验证的。AI 还需要达到预期的性能,并且得到可靠的产出结果。

建立负责任的人工智能

前微软全球执行副总裁,微软人工智能及微软研究事业部负责人沈向洋博士与微软公司总裁,首席法务官施博德(Brad Smith)在《计算未来 人工智能及其社会角色》一书中强调负责任的人工智能所需的六个原则[1]:“公平,可靠,隐私与保障,包容,透明,负责。”

建立可信任人工智能的重要步骤

安永认为可信任的人工智能是基于以下三个重要步骤:

目的性设计:有目的地设计和构建系统,维护机器人、智能和自主功能之间的平衡,关注因果关系、限制条件、准备情况和相应风险

敏捷治理:从社会、法规、声誉和道德领域出发,识别并跟踪新出现的问题,为流程治理提供指导。在过程中保障流程管理系统的完整性、系统使用、架构和嵌入式组件、数据寻源和管理、模型训练和监控

密切监控:持续微调、整合和监控系统,以确保性能的可靠性,发现和纠正偏差并提高透明度和包容性

“教育 AI 就像养育孩子一样,你不仅需要教 AI 怎样做一件事,还要教它社会规范和价值观。开发人员在 AI 设计和开发之初就应该考虑到道德和信任风险。”

——凯茜·科比(Cathy Cobey)

安永全球人工智能信任主管合伙人

建立可信任的AI的治理模式

尽管越来越多企业意识到 AI 必须符合道德规范并具备可信赖性,但要确保 AI 的透明、公正、安全、准确和可审核性可能会超出开发人员的能力。企业需要建立可信任的 AI 生态系统。

微软已经设立了开发和研究人工智能与道德标准(AETHER)委员会。该委员会囊括了来自微软公司开发、研究、咨询和法律部门的高管,专注于积极制定内部政策,以及如何应对所出现的具体问题。AETHER 委员会审查和界定最佳实践,提供指导原则,指导微软人工智能产品和解决方案的开发和部署,并帮助解决微软人工智能研究、产品和客户沟通中产生的伦理和社会影响问题。

微软协同安永提供帮助

由微软 Azure 支持的安永可信赖人工智能平台(EY Trusted AI Platform)为用户提供了一种集成的方法来评估,监视和量化 AI 的影响和可信赖性。

人工智能在各个行业的应用和未来发展趋势受到热议,敬请关注下一期 AI 成熟度调研系列文章,来自微软和安永的行业专家将对热点问题答疑解惑。

[1]《计算未来 人工智能及其社会角色》

参考文献:《如何教导人工智能信任价值》, 安永返回搜狐,查看更多