En

人工智能技术发展中的伦理规范与行业自律

2021-01-14

随着人工智能(AI)技术的快速发展和广泛应用,与之相关的伦理问题越发得到各界重视。各国政府、国际组织、学术机构和企业界都积极参与相关伦理标准的讨论和制定,确保人工智能技术发展“以人为本”、技术向善。

联合国是推动建立全球AI伦理规范的重要力量。2019年,联合国教科文组织启动了全球AI伦理建议书的撰写,并于2020年9月完成草案,提交193个会员国协商,预计将于2021年末发布。联合国教科文组织还于2017年联同世界科学知识与技术伦理委员会发布了《机器人伦理报告》。经合组织(OECD)也高度重视AI准则的制定,于2019年5月发布首套政府间人工智能政策指南,共42个国家签署,随后也被G20采纳。

各国政府也积极推进AI伦理标准的制定。目前,全球已有28个国家发布了有关人工智能的国家战略及政策,而伦理问题是各国政策的重要领域之一。美国2019年修订了《国家人工智能研究与发展战略计划》,提出包括应对伦理、法律和社会影响、确保人工智能系统安全等八项战略重点。欧盟在2019年4月发布了《可信赖的AI伦理指南》,并在2020年2月发布《人工智能白皮书》,将伦理监管作为重要政策目标。去年10月,欧洲议会通过了三项有关监管人工智能的立法倡议,以更好地平衡技术创新和社会治理的关系。

与此同时,行业组织、学术机构和企业界也提出了相关倡议。国际化标准化组织(ISO)于2017年成立人工智能委员会,负责涵盖算法偏见、隐私保护等领域的标准研制工作。电气和电子工程师协会(IEEE)在2017年提出了“人权、福祉、问责、透明、慎用”的五项原则,已成为国际上最具影响的AI伦理原则之一。在学术界,牛津大学、剑桥大学和Open AI公司等7家机构于2018年共同发布《人工智能的恶意使用:预测、预防和缓解》,分析了人工智能可能带来的安全威胁并提出应对建议。在企业界,微软、谷歌、IBM等科技企业制定了人工智能开发的伦理原则,脸书也在2019年初联合慕尼黑工业大学建立了AI伦理研究所。

中国政府高度重视人工智能产业发展中的伦理问题。2017年7月,国务院在《新一代人工智能发展规划》中提出,要“制定促进人工智能发展的法律法规和伦理规范;开展人工智能行为科学和伦理等问题研究;制定人工智能产品研发设计人员的道德规范和行为守则”。2019年2月,国家新一代人工智能治理专业委员会成立,并于6月发布了《新一代人工智能治理原则——发展负责任的人工智能》。同年4月,国家人工智能标准化总体组发布了《人工智能伦理风险分析报告》,提出“人类根本利益原则”和“责任原则”。

中国的学界和企业界也积极关注AI伦理问题。2019年5月,由科技部和北京市政府指导成立的北京智源人工智能研究院成立了人工智能伦理与安全研究中心,并联合北大、清华、中科院、新一代人工智能产业技术创新战略联盟(发起成员包括百度、阿里、腾讯、华为等)和其他学术机构及产业组织共同发布《人工智能北京共识》,提出了人工智能研发、使用和治理应遵循的“有益于人类命运共同体的构建和社会发展”的15条原则。2019年8月,深圳人工智能行业协会与旷视科技、科大讯飞等数十家企业联合发布《新一代人工智能行业自律公约》。百度、腾讯等主要科技企业也提出了企业自身的AI伦理准则;旷视科技成立了人工智能道德委员会,以推动“可持续、负责任、有价值的人工智能生态”。

来源:搜狐