近年来,人工智能掀起了新一轮大发展浪潮,各种应用层出不穷,同时也带来了侵犯个人隐私、算法歧视、责任不便界定等诸多难题。各国政府和行业组织、大型企业开始密集关注人工智能的伦理约束。从2017年生命未来研究所提出《阿西洛马人工智能原则》、IEEE提出《道德准则设计》,到2019年日本政府提出《以人类为中心的人工智能社会原则》、欧盟提出《AI伦理指导方针》、澳大利亚英联邦科学和工业研究组织(CSIRO)提出《人工智能:澳大利亚的道德框架》,每年都有政策或倡议被提出,这些文献主要源于大型企业的自律公约或者学者在论坛会议上的呼吁,以及政府机构主导的专家组意见的集合,并没有上升为法律,不具备强约束力,更多的是一种对外的沟通或表态,缺乏有效手段对落实情况进行监督;但都属于利益攸关方及中介机构希望规范新技术未来发展方式的一种有益尝试,目标是使技术更好地服务人类未来发展,在正确的轨道上演进。
各文献之所以具有趋同性和宏观性,更多的是一些原则性问题的宣示,显得大而空,主要或囿于以下障碍:
传统伦理本身存在多样性。人的道德伦理是一定人群在一定时期对规则的共识,在不同群体之间或不同时期差异较大。在一些有争议的问题上,如堕胎权、分配原则、涉及宗教信仰方面的非科学理论约束问题,不同立场的支持者数量都很庞大,短期内难以提出全人类一致认可的规则。
绝对平等的实质不确定。平等是人类的普遍追求,其确切含义和实践也是长期以来富有争议的问题。伦理准则多数会提到透明性问题,但是AI本身无法对所有人做到透明,甚至对从业的科学技术人员都难以透明,否则岂不是会出现无数个谷歌公司?特别是对于基本不具备数理训练经验的人,更难以实现算法透明。要求算法公平、无歧视,对个体无差异性要求过高,以至于无法实现,如语音助手难以应对所有语种、方言的问题。
科学的客观性与伦理约束。除了绝对平等方面的追求对人工智能伦理条件的影响外,科学的客观性能否得到足够的尊重和包容也是值得探讨的问题。诺贝尔生理学或医学奖得主、有 DNA之父 之称的詹姆斯 沃森,因在节目中公然宣称基因差异导致了黑人和白人在智力方面的差异而被其就职的研究所剥夺了荣誉头衔。这种做法究竟是政治因素多一些还是伦理因素多一些,难以确定。因为法律导向和群体意识倾向之间存在着并非完全对应的关系,因此对人工智能的结果干预难以达到预期效果。
人工智能本身存在不确定输出条件下构建唯理主义的可行性存疑。社会上对人工智能的炒作,把它描绘成了一个无所不能的技术,实际上其应用中也有许多力所不及的地方,有必要区分技术可行与技术不可行。在对深度伪造、骚扰电话及钓鱼网站进行识别时,人工智能技术存在误识别、过滤不完全等诸多问题,尽管已投入大量人力为人工智能的运行提供基础数据,但是在未来相当长的时期内还难以做到尽善尽美。因此,严格立法实际上得不偿失,会导致任何强制性手段都必须设置一个宽泛的容忍度,反而造成大量的执法偏差。
歧视与合理偏好的区分。如何区分歧视与合理偏好是伦理层面难以直接说明或不便说明的地方,人工智能或许会得到比较贴合实际的运行结果,但是这个结果并不一定符合社会所宣称的价值导向。
拟人化思维和科幻经验的重要不良影响。人工智能的实现过程对于大多数人而言是陌生的,很多关于人工智能的直接感受来自科幻小说或影片,这可能使得人们高估了其对未来的影响,或者倾向于对其伦理方面提出过高的要求,把技术拟人化。一个重要的影响因素是,拟人的思维方式本身也是非普遍理性的。人的思维可能受到局限,每个人的知识、受到的训练不一样,对不同事务的判断和看法也会不一样。拟人化的思维容易把这样一个算法模型局限于个体的头脑概念中,成为一个片面的存在。未来应重视人工智能的科普教育,防范拟人化思维及科幻式认识陷阱,以及助长对改造社会、加强变革方面的非理性期待,引发不当管制。
跨区域合规成本与可实现程度。因具体伦理道德存在的多样性,以及上文提到的人工智能技术本身存在变迁和概率性误差,在对其进行规制时需要充分考虑技术成熟度、可行性问题。不同地区对隐私保护的力度、对内容过滤的严格程度等区别很大,单一模型无法涵盖所有情况,且私营部门难以直接判决得出恰当的结果。这些差异势必增加合规成本和人工智能实现难度,从而阻碍了更细化和更具强制力的伦理指导方针的出台。
人工智能未来的伦理研究趋势,预计会保持三方面特征。
首先,人工智能伦理研究进展与技术发展须基本保持同步。人工智能不是一项单一的、不变的技术,而是一套不断变化发展的算法模型,其算法和模型本身均在不断改进和动态变化,其赖以存在的硬件设施、数学理论、软件工程理论也在不断演变中。人们对人工智能的体验将自然地推进对其伦理的研究工作,不会滞后太多,但是如果伦理约束过度超前,则会陷入拟人化和构建唯理主义的泥淖,不利于技术发展,也难以确保管理措施切实可行。
其次,人工智能伦理的研究,落脚点会在对人的教育,包括对公众的科普教育,对软件工程师、项目经理等的人文伦理学教育,及科研工作者与立法者的积极互动。人工智能看似技术在特定方面能模仿人的智能,但并没有改变其技术中性的本质,无法脱离具体环境判定好坏,对相关人的劝教始终是伦理学研究的落脚点。
最后,以人工智能的伦理为主体的立法进展会十分缓慢,除隐私保护等具体方面外,大多数难以单独施行,更多的是与现行法律相结合,综合进行伦理方面的管理。因为人工智能作为一套技术无法承担法律义务,同时又可能存在非故意的 违法行为 ,很多具体的伦理问题本身存在争议,无法形成全国或全球标准。普遍性违法、选择性执法本身会损害法律的权威性。所以从长期来看,人工智能伦理形成独立系统的法律缺乏可操作性,基本上会停留在广泛倡议阶段。
(作者:中国信息通信研究院数据研究中心 全湘溶)