要建立对 AI 的信任既需要技术也需要企业文化的支持。AI 要想被用户接受,AI 首先需要能够被理解,也就是说其决策框架是可以解释和验证的。AI 还需要达到预期的性能,并且得到可靠的产出结果。
建立负责任的人工智能
前微软全球执行副总裁,微软人工智能及微软研究事业部负责人沈向洋博士与微软公司总裁,首席法务官施博德(Brad Smith)在《计算未来 人工智能及其社会角色》一书中强调负责任的人工智能所需的六个原则[1]:“公平,可靠,隐私与保障,包容,透明,负责。”
建立可信任人工智能的重要步骤
安永认为可信任的人工智能是基于以下三个重要步骤:
目的性设计:有目的地设计和构建系统,维护机器人、智能和自主功能之间的平衡,关注因果关系、限制条件、准备情况和相应风险
敏捷治理:从社会、法规、声誉和道德领域出发,识别并跟踪新出现的问题,为流程治理提供指导。在过程中保障流程管理系统的完整性、系统使用、架构和嵌入式组件、数据寻源和管理、模型训练和监控
密切监控:持续微调、整合和监控系统,以确保性能的可靠性,发现和纠正偏差并提高透明度和包容性
“教育 AI 就像养育孩子一样,你不仅需要教 AI 怎样做一件事,还要教它社会规范和价值观。开发人员在 AI 设计和开发之初就应该考虑到道德和信任风险。”
——凯茜·科比(Cathy Cobey)
安永全球人工智能信任主管合伙人
建立可信任的AI的治理模式
尽管越来越多企业意识到 AI 必须符合道德规范并具备可信赖性,但要确保 AI 的透明、公正、安全、准确和可审核性可能会超出开发人员的能力。企业需要建立可信任的 AI 生态系统。
微软已经设立了开发和研究人工智能与道德标准(AETHER)委员会。该委员会囊括了来自微软公司开发、研究、咨询和法律部门的高管,专注于积极制定内部政策,以及如何应对所出现的具体问题。AETHER 委员会审查和界定最佳实践,提供指导原则,指导微软人工智能产品和解决方案的开发和部署,并帮助解决微软人工智能研究、产品和客户沟通中产生的伦理和社会影响问题。
微软协同安永提供帮助
由微软 Azure 支持的安永可信赖人工智能平台(EY Trusted AI Platform)为用户提供了一种集成的方法来评估,监视和量化 AI 的影响和可信赖性。
人工智能在各个行业的应用和未来发展趋势受到热议,敬请关注下一期 AI 成熟度调研系列文章,来自微软和安永的行业专家将对热点问题答疑解惑。
[1]《计算未来 人工智能及其社会角色》
参考文献:《如何教导人工智能信任价值》, 安永返回搜狐,查看更多