从原则到实践:人工智能的“伦理转向”

作者

曹建峰腾讯研究院高级研究员

按语/人工智能作为一项新兴的通用型技术,正在深刻改变我们的经济与社会。人工智能伦理,即负责任地发展安全可信的人工智能应用,日益成为了必选项。2016年以来,人工智能伦理大致经过了三个阶段,第一阶段以各界纷纷提出伦理原则为标志,第二阶段人们开始寻求原则层面的共识,第三阶段科技公司、政府等推动将抽象的伦理原则转变为实践,将伦理原则与价值要求融入、嵌入人工智能技术研发与应用的全生命周期。从原则到实践的路径,诸如伦理委员会、技术工具、最佳实践做法、伦理培训、标准认证、监管等等,真正让负责任的人工智能落到实处,是AI伦理的最新发展阶段。

当前人工智能的发展主要受益于以深度学习为代表的机器学习技术,这让计算机可以从大量数据中自主学习与进化,从而作出比人类更高效、更精准、更廉价的预测与决策。正因如此,人工智能作为新的通用型技术,被认为将给经济和社会带来变革性影响,已被各国上升到国家战略和科技主权高度,成为不断升温的全球科技竞争的新焦点。

在应用层面,人工智能已经渗透到各行各业,算法帮我们过滤掉垃圾邮件,给我们推荐可能喜欢的歌曲,为我们翻译不同的语言文字,替我们驾驶汽车。新冠肺炎疫情暴发以来,人工智能在辅助医疗诊断与新药研发等方面崭露头角,无人物流配送、无人驾驶汽车等新模式助力非接触服务发展。总之,人工智能潜力巨大,可以成为一股向善的力量,不仅带来经济增长,增进社会福祉,还能促进可持续发展。

但与此同时,人工智能及其应用的负面影响与伦理问题也日益凸显,呼吁人们在技术及其产业化之外更加关注伦理视域。例如,人工智能模型训练及其应用离不开大量数据的支持,可能导致违法违规或过度收集、使用用户数据,加深人工智能与数据隐私保护之间的紧张关系;人脸识别技术在一些场景的应用也引发了国内外对该技术侵犯个人隐私的争议。人工智能技术也可能被不法分子滥用,例如用来从事网络犯罪,生产、传播假新闻,合成足以扰乱视听的虚假影像等。

随着算法歧视的不断发酵,人工智能参与决策的公平性问题也备受关注。有研究发现,很多商业化的人脸识别系统都存在种族、性别等偏见,这样的技术用于自动驾驶汽车,就可能导致黑人等深色皮肤的人更容易被自动驾驶汽车撞到。人工智能在招聘、广告投放、信贷、保险、医疗、教育、司法审判、犯罪量刑、公共服务等诸多方面的应用也伴随公平性争议。此外,人工智能的知识产权保护问题也日益浮现,目前人工智能已能够独立创造诗歌、小说、图片、视频等,知识产权制度将需要尽快回应人工智能创造物的保护问题。自动驾驶汽车、AI医疗产品等人工智能应用一旦发生事故,也面临谁来担责的难题。最后,人工智能的应用可能取代部分手工的、重复性的劳动,给劳动者就业带来一定冲击。

2020年被认为是人工智能监管元年,美欧采取的监管路径大相径庭。欧盟《人工智能白皮书》提出的“重监管”模式更多倚重事前的规制,考虑为技术开发与应用设置严苛条件;美国《人工智能应用监管指南》提出的“轻监管”模式更多倚重标准、指南等弹性手段,考虑为人工智能应用设置避风港、“监管沙箱”等。在全球科技竞争日趋激烈、数字经济日趋成为国家核心竞争力等背景下,考虑到我国科技行业发展实际,我国对人工智能需要创新治理,倚重敏捷监管、伦理治理、技术治理等多元手段来共同确保人工智能正向应用与向善发展。

首先,监管不仅需要对人工智能应用分级分类、以问题和风险防范为导向,而且需要具有敏捷性与适应性。人工智能技术的一个核心特征是快速发展迭代,制定强制性法律必然赶不上技术发展步伐,所以国外大都采取出台指南、伦理框架等“软法”。此外,自动驾驶汽车、智能医疗等人工智能应用的发展落地仍面临较多法规政策障碍,需要考虑修订阻碍性的法律法规,同时通过“数字沙箱”“安全港”“试点”等方式推动其试验与应用落地。

其次,采取伦理治理,把伦理原则转化为伦理实践。目前,国内外很多科技公司都出台了人工智能伦理原则,也在通过伦理审查委员会、伦理嵌入等方式落实其伦理原则。行业的这些伦理治理措施已在国内外获得较大共识,更能适应AI技术发展。

再次,以技术手段防范人工智能滥用。例如,深度合成作为一项人工智能应用,在影视制作、教育、医疗、娱乐等领域具有很大正向应用价值,但也可能被不法分子滥用来制造、传播虚假影像以从事欺诈欺骗活动。对此,行业内已在积极研发、部署内容鉴别与溯源技术,以对抗深度合成的滥用。面对复杂性与迭代速度不断增强的人工智能应用,技术治理将发挥越来越大的作用。

/往期文章

“在看”我吗?