从原则到制度:AI科技伦理治理如何真正落地

智观行业
昨天发布

科技伦理是人工智能等前沿科技产业健康发展的“安全带”

随着数字化、网络化、智能化深入发展,我国数字经济和前沿科技产业的健康、可持续发展越来越离不开科技伦理的保障。以人工智能领域为例,随着大模型能力的持续提升及其应用领域的持续拓展,人工智能对经济增长、社会治理、可持续发展等持续释放出巨大价值;但与此同时,人工智能在隐私保护、社会公平、信息信任、法律责任、劳动就业、伦理道德、安全可控等方面带来新的挑战。这给加强科技伦理建设、落实科技伦理治理提出更高要求。

2017年以来,国家持续加强科技伦理顶层设计,成立了国家科技伦理委员会,明确科技伦理是科技活动必须遵守的价值准则;将“健全科技伦理治理体系”“健全科技伦理体系”分别写入党的十九届四中全会《决定》和《“十四五”规划和2035年远景规划纲要》;修订《科技技术进步法》,提出科技伦理管理主体责任、科技伦理审查机制等要求。在科技伦理问题较为突出的人工智能与算法领域,国家新一代人工智能治理专业委员会先后发布了《新一代人工智能治理原则——发展负责任的人工智能》和《新一代人工智能伦理规范》,为各界开展人工智能活动提供伦理指引;网信办等国家部委联合发布了《关于加强互联网信息服务算法综合治理的指导意见》,明确要求强化科技伦理意识,建立科技伦理审查等方面的管理制度和技术措施。

在这些工作的基础上,2022年3月,随着中办、国办印发《关于加强科技伦理治理的意见》,国家对加强科技伦理治理作出全面部署。表明国家对科技伦理治理高度重视,将其作为科技创新的重要支撑。可以说,国家科技战略规划已经迈上科技创新与科技伦理并重的新台阶。因为随着全球科技竞争日益激化,科技伦理治理不仅事关社会伦理风险防范,而且事关国家科技竞争力。所以《意见》明确要求加强科技伦理治理,将科技伦理作为开展科学研究、技术开发等科技活动的价值理念和行为规范,防控科技伦理风险,推动科技向善,实现科技自立自强。除了科学研究活动,《意见》还把由行业和企业主导的技术开发活动纳入了规制范围,表明科技伦理日益成为科技行业的“必选项”和“必答题”。科技企业等创新主体需履行科技伦理管理主体责任,坚持科技伦理底线,建立伦理审查评估、风险监测预警等机制,并对科技人员开展理论培训等。2023年9月,科技部等印发《科技伦理审查办法(试行)》,推动科技伦理治理从抽象原则转向具体的伦理审查制度。该办法对伦理委员会、伦理审查程序作出了具体规定,为相关行业领域推进科技伦理审查奠定了规范基础。其中,人工智能、生命科学、医学是科技伦理治理的三个重要领域,相关行业主管部门积极探索科技伦理监管举措。

《人工智能科技伦理审查与服务办法》正式出台推动AI领域科技伦理治理落地

在上述制度基础上,2026年4月,工业和信息化部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》(以下简称《办法》),标志着我国人工智能伦理治理实现了从原则倡导、行业自律向制度化、程序化、全链条、可落地的关键跨越。《办法》旨在以科技伦理服务支持促进AI创新,为AI创新保驾护航。

《办法》明确,开展人工智能科技活动应将科技伦理要求贯穿全过程,遵循增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明、保护隐私安全、确保可控可信七项伦理原则。在审查重点上,《办法》从公平公正、透明可解释、隐私保护三个维度提出具体要求:训练数据选择与算法设计是否合理,是否采取措施防止偏见歧视;是否合理披露算法运行逻辑与潜在风险,提升可解释性;数据处理活动是否充分保护隐私。

在实施机制上,《办法》构建了多层次的审查体系。高校、科研机构、企业等须按要求设立人工智能科技伦理委员会,将伦理要求嵌入研发、测试、应用、迭代全流程;鼓励地方建立专业化的伦理审查与服务中心,面向社会提供审查、复核、培训、咨询等第三方服务,破解基层单位“不会审、审不了”的现实难题。《办法》还专设“服务与促进”章节,围绕标准建设、服务体系、鼓励创新、宣传教育、人才培养五方面制定支持举措,帮助企业尤其是中小微企业提升科技伦理风险防控能力,降低合规成本。

值得关注的是,《办法》将影响人类主观行为、心理情绪与生命健康的人机融合系统,以及具备舆论动员与社会意识引导能力的算法模型列为重点复核对象,体现了对“算法权力”的制度化约束。

推动AI科技伦理治理从原则共识走向实践落地的四点思考

《办法》的出台为AI伦理治理提供了制度框架,但从制度到实践仍有较大空间需要探索。

第一,将价值对齐纳入人工智能科技伦理治理的核心议程。随着大模型能力的飞速提升,确保AI系统的行为与人类价值观保持一致——即价值对齐(value alignment)——已成为全球AI治理的前沿议题。《办法》提出的增进人类福祉、公平公正、可控可信等原则,本质上都指向价值对齐的要求。未来应推动将价值对齐从技术研究层面提升为伦理治理的制度性要求,探索建立大模型价值对齐的评估标准和测试基准,使抽象的伦理原则转化为可衡量、可审查的技术指标。

第二,推动伦理嵌入设计(Ethics by Design),实现伦理治理的前置化。传统的伦理审查往往发生在技术开发完成之后,属于事后把关。而更为有效的路径是将伦理要求嵌入AI系统的设计、开发全流程,实现“伦理嵌入设计”。这意味着在数据采集、模型训练、系统部署的每一个环节都应考虑公平性、透明性、隐私保护等要求,而非在产品成型后再做合规审查。《办法》要求将科技伦理贯穿全过程,为伦理嵌入设计提供了制度依据,但仍需配套开发实用的伦理风险评估工具和技术解决方案,帮助开发者将伦理原则落地到具体的技术设计中。与此相关,还应借鉴“嵌入式伦理”(Embedded Ethics)的理念,在AI设计开发团队中直接融入伦理学、法学、社会学等领域的专家,使伦理审视成为技术研发的日常实践而非外部检查,从而真正实现对伦理风险的全过程关注。

第三,构建适应性治理框架,平衡创新激励与风险防范。随着AI技术的不断发展,针对人工智能的任何监管和治理举措都必须保持轻量化和灵活性,避免过于规范性,以免阻碍AI创新或延缓人们实现AI益处的能力。平衡发展与治理的关键在于构建适应性治理框架,在促进创新与防范风险之间找到平衡点。为此,未来的AI伦理治理应保持适度的灵活性和适应性,根据技术发展动态调整审查重点和方式。当然,鉴于技术变化的速度,各类评估方法很快就会过失,因此科技伦理治理应避免过于僵硬的要求和标准,这可能适得其反,对AI发展和应用都不利。

第四,将AI愿景纳入AI科技伦理治理,积极思考AI如何造福人类的愿景和路线图。AI愿景是AI治理的重要组成部分,社会在构建治理和安全机制的同时需要描绘AI造福人类的未来图景。为此,未来的AI科技伦理治理不应仅围绕风险展开,还必须包含对积极未来的想象与规划,清晰描绘AI造福人类的未来图景。倘若缺乏明确而有力的正向愿景,社会将难以凝聚共识去应对技术带来的挑战。因此,除了识别和应对风险,更重要的是描绘一个值得人类共同努力实现的未来图景。

总之,需要在全社会塑造科技向善的文化理念,通过必要的制度和机制让科技伦理发挥好对人工智能等前沿科技产业“安全带”和“加速器”的双重价值,让科技更好增进人类福祉。只有坚持以人为本、智能为人的发展理念,构建完善的治理体系,培育向善的文化氛围,我们才能在享受AI技术带来便利的同时,有效防范和化解潜在风险,真正实现技术与人类社会的和谐发展。

来源:曹建峰(深圳大学法学院副教授)

联系信息


邮箱:xiaosea2@163.com

电话:15733175200

企查查:15733175200

天眼查:15733175200

黄页88:15733175200

顺企网:15733175200

阿里巴巴:15733175200

网址:https://zizun.niushi.cc

© 版权声明
THE END
喜欢就支持一下吧
点赞 0 分享 收藏
评论
所有页面的评论已关闭