人工智能北京共识:针对人工智能的研发、使用、治理三方面提出15条规范原则

2017-10-27 11:12 编辑:懂王

人工智能北京共识是怎么回事?有很多小伙伴们都不知道,那么下面就由小编来为大家带来人工智能北京共识详情介绍吧。

人工智能北京共识:针对人工智能的研发、使用、治理三方面提出15条规范原则

人工智能北京共识详情介绍

《人工智能北京共识》发布

针对人工智能的研发、使用、治理三方面提出15条规范原则

科创

本报讯(记者 雷嘉)昨天,北京智源人工智能研究院联合北大、清华、中科院自动化研究所、中科院计算技术研究所、新一代人工智能产业技术创新战略联盟等单位共同发布《人工智能北京共识》,针对人工智能的研发、使用、治理三方面,提出了各参与方应该遵循的、有益于人类命运共同体构建和社会发展的15条原则。

研发方面,《人工智能北京共识》提倡要有益于增进社会与生态的福祉,服从人类的整体利益,设计上要合乎伦理,体现出多样性与包容性,尽可能地惠及更多人,要对潜在伦理风险与隐患负责,提升技术水平控制各种风险,并最大范围共享人工智能发展成果;使用方面,提倡善用和慎用,避免误用和滥用,以最大化人工智能技术带来的益处、最小化其风险,应确保利益相关者对其权益所受影响有充分的知情与同意,并能够通过教育与培训适应人工智能发展带来的影响;治理方面,对人工智能部分替代人类工作保持包容和谨慎态度,鼓励探索更能发挥人类优势和特点的新工作,广泛开展国际合作,共享人工智能治理经验。人工智能的准则与治理措施应做到适应和适度,并开展长远战略设计,以确保未来人工智能始终保持向对社会有益的方向发展。

人工智能伦理与规范是未来智能社会发展的重要基石,已经引起了相关国际组织、政府和学术界、企业界等的广泛关注。《人工智能北京共识》的发布,为规范和引领人工智能健康发展提供了“北京方案”。

为降低人工智能发展过程中可能存在的技术风险和伦理隐患,北京智源人工智能研究院专门成立人工智能伦理与安全研究中心,中科院自动化研究所曾毅研究员任中心主任。研究中心将围绕人工智能伦理与安全的理论探索、算法模型、系统平台、行业应用等开展一系列研究,目前主要包括四方面:低风险机器学习模型与平台的构建,建立机器学习模型安全性的评估体系,并结合具体领域进行验证;开展符合人类伦理道德的智能自主学习模型研究,实现人工智能行为与人类价值观的校准,并在模拟环境与真实场景中进行验证;建设数据安全示范应用系统,建立数据基础设施、数据分级、权限控制、数据审计,最大限度防止数据泄密,降低风险,探索允许用户撤销个人数据授权的机制及计算平台;构建人工智能风险与安全综合“沙盒平台”,建设自动检测平台,对人工智能产品及应用进行风险与安全综合检测评估,引导行业健康发展。

免责声明:本文转载来自互联网,不代表本网站的观点和立场。

本文统计

  • 发布时间:2017-10-27 11:12:29
  • 最后一次修改时间:2021-09-27 21:50:47
  • 编辑次数:0
  • 浏览次数:13
  • 评论数量:0
  • 点赞次数:0

本文标签

评论(0)

举报
验证码
发表
最新评论

暂无评论,期待你的妙语连珠

举报文章问题
验证码
预约新游

预约成功!,

到时你将收到我们的短信提醒。

回复 宏伟路口 :
我真不理解,我只有一个女王和双生希儿!!还是比较喜欢360安全卫士的弹窗过滤,图标就在首页的右下角,开启非常的方便。而且强力过滤模式的话,可以将很多顽固的软件弹窗过滤掉,很彻底值得推荐。
CopyRight © 1999-2023 ejdz.cn All Right Reserved 易家知识网 版权所有 意见反馈

渝ICP备20008086号-17 渝公网安备50010702505138号渝公网安备50010702505138号

ejdz2023#163.com(#替换为@)   QQ:2368208271