最近,中央深改委会议审议通过了《关于加强科技伦理治理的指导意见》,该指导意见在很大程度上是对我国近年科技伦理治理实践的工作经验和理论研究的总结。进入21世纪,随着纳米、生命、信息、认知等会聚技术和大数据、人工智能、神经科学等突破性创新的迅猛发展,科技创新的社会伦理风险日益凸显。2017年以来,在人工智能战胜人类围棋棋手等事件的推动下,科技伦理问题成为世界关注的焦点,各种科技伦理规范和伦理治理机构纷纷建立,出现了人类科技发展史上的“科技伦理时刻”。
科技伦理影响社会对科技创新的信任和支持
世界各国和全社会之所以如此重视科技伦理,最根本的原因是它越来越影响到社会对突破性科技创新的信任和支持。大量前沿科技和突破性创新的发展经验表明,如果不充分重视科技的社会伦理风险防范,科技创新很可能会因为某些科技伦理事件成为新闻焦点,引发各方对潜在风险的焦虑,从而不得不作出必要的伦理调整。一方面,很多科技前沿的探索实验触及科技伦理的边缘地带,如果对突破伦理边界的活动缺乏专业认知和道德敏感性,不能主动地与同行进行公开讨论并向管理部门披露问题,贸然前行往往很容易触碰科技伦理底线,结果必然是欲速而不达。另一方面,诸多应用性的突破性创新的本质是科技—社会的整体创新,这类新兴技术的发展可能遭遇的壁垒不仅是技术方面的,而且很可能因为显现出的社会伦理风险而遇到来自社会的不信任和抵制。在这两种情况下,由于科技伦理风险意识的或缺,前沿科技研究和突破性创新都可能不得不进行伦理回调,不论是否存在误判,这种被动的伦理回调难免对科技创新造成负面的影响。
应对科技活动的后果与风险有更深入的认识
众所周知,科技创新尤其是突破性创新往往会因为各种问题而陷入“死亡之谷”,在科技伦理问题备受重视的今天,科技伦理治理的关键目标应该是为创新构建必要的保护空间。为此,应该对科技活动的后果与风险的评估和预见规律有深入的认知。
针对技术的社会影响的评估,未来学家阿马拉(Roy Amara)曾提出著名的阿马拉定律,即人们总是高估一项技术所带来的短期效果,却又低估它的长期影响。这一定律的启示在于,对于突破性创新的弊端,应该注意到外界的评判和社会舆论容易出现偏颇,特别是可能会因为对未知风险的焦虑而将它们放大为对该技术的极度不信任,管理者要避免在政策层面高估其负面影响而过度治理和刚性监管。
对于科技的社会伦理风险的预见,科技政策学家科林格里奇(David Collingridge)曾经提出过著名的科林格里奇两难,指出了人们在预见和防范技术长远发展时所面临的一个双重约束困境(double-bind problem)。其一是信息困境,即人们很难在技术生命周期的早期对一项技术的社会后果进行预见;其二是控制困境,即当人们不希望的出现的后果被发现时,技术却往往已经成为整个经济和社会结构的一部分,以至于难以对其加以调控。由此可见,对科技创新带来的复杂未知社会伦理风险进行预见和认知虽尤为困难,却不得不为之。而正因为如此,对这一问题的根本化解之道是将其作为科技创新的内在环节,将科技伦理规范和价值观作为从0到1的创新的有机目标。具体而言,为了促进科技创新的发展,应从价值观和伦理规范等软约束入手,尽早在科技活动的全过程引入伦理治理框架,以提升相关责任主体的社会伦理风险意识,促使他们在具体的创新实践中思考行为的对错,做出合乎正确价值观和伦理规范的抉择。
依据这两方面的认知,不难理解指导意见为何强调科技伦理治理要坚持促进创新与防范风险相统一、制度规范与自我约束相结合的治理原则。基于这一原则,指导意见提出了软硬兼施的制度框架。一方面,强调通过完善政府科技伦理管理体制和压实创新主体科技伦理管理主体责任等构建科技伦理治理体制,健全科技伦理治理制度,进而强化科技伦理审查和监管。另一方面,就是要通过伦理先行、敏捷治理等基本要求和发挥科技类社会团体的伦理自律功能、引导科技人员自觉遵守科技伦理要求等制度设计,为科技创新构建起必要的伦理软着陆机制。
为了确保我国高水平科技自立自强之路走向伦理创新和科技向善的正确方向,科技伦理治理任重道远,大有可为。
(作者系中国社会科学院哲学所研究员)
热门