点击右上角
微信好友
朋友圈

请使用浏览器分享功能进行分享

【哲思感悟】
作者:王福玲(中国人民大学伦理学与道德建设研究中心暨哲学院副教授)
数智时代,信任问题已经成为技术发展与社会伦理交织的核心议题。随着人工智能技术的迅猛发展和广泛应用,人工智能不仅影响我们的决策方式、工作模式与交往形态,更在潜移默化中参与意义建构、价值生成乃至主体性塑造的过程。医疗诊断、司法辅助、情感陪伴等,人工智能正以前所未有的广度与深度介入人类生活实践。在此背景下,人机共存与人机协作必然是未来社会发展不可抗拒的交往态势。因此,人机信任也不再是一个可有可无的科技伦理议题,而是维系未来社会稳定运行的必然要求。
信任是维系人际交往的重要基石,信任是需要主动建构的。仁义礼智信是中华伦理体系的支柱。其中,信被视为人际关系中的重要法则。孔子认为,“民无信不立”,“人而无信,不知其可也”,这些箴言既是对个人的道德劝诫,更是社会运转的存在论宣言。个人失信,将难以立足于社会;人与人之间缺乏信任,合作便无从谈起;国家失信,则社会秩序终将瓦解。信任不是可有可无的道德装饰,亦非可以随意放弃的选项,而是社会运行得以可能的先决要素,是个体生存的前提条件。而数智时代的真正挑战就在于,我们如何在技术不确定性、算法黑箱与思想观念多样的情境下,主动建构一种可问责、可解释、可修正的信任机制,使其既能回应人类对安全与控制的理性诉求,又能承载对合作、意义与共同生活的伦理期待。
国家新一代人工智能治理专业委员会发布的《新一代人工智能伦理规范》提出,要“在算法设计、实现、应用等环节,提升透明性、可解释性、可理解性、可靠性、可控性”。在处理人机关系中,算法应用的透明性、可解释性、可理解性、可靠性、可控性是实现人机信任的关键前提。我们会发现,人与人之间的信任常常建立在情感纽带、共同价值与制度保障之上,而非详尽的解释和说明,人与人的深度互信有时恰恰体现为“无需解释”的默契。但人机交往或人机协作却与此不同。当生成式人工智能在虚拟空间担任类似“亲人”“朋友”“合作者”等角色时,高度互信的人机关系需要建立在“可信人工智能”的基础之上,并基于人机信任,形成一种技术交往层面的深度“默契”。因此,笔者认为,应从价值规范、制度设计以及文化培育三个层面防范人机交往或协作过程中可能出现的价值失准、伦理失衡等信任风险与挑战,增进数智时代的人机信任,进而推动形成人机协同、跨界融合、共创分享的智能社会新形态。
首先,强化价值引导,防范系统性偏见的生成与放大。当前主流人工智能系统,尤其是基于大规模预训练的大模型,其知识与行为模式高度依赖人类历史积累的语言、行为与决策数据。这些数据不仅是信息载体,更深层地嵌入了特定社会的文化心理结构与价值偏好。当数据的采集、标注与使用过程缺乏价值反思时,人工智能系统便可能无意识地学习、复制乃至强化既有偏见,如性别歧视、阶层固化等。更严重的是,此类偏见一旦被编码进模型,便可能以系统性、隐蔽性和规模化的方式扩散,原本隐藏于数据背后的偏见会逐渐被客观化。经过人工智能系统的处理与人机交互过程的反馈,这些偏见以一种看似科学、客观的形式来呈现,变得更加难以甄别与纠正,形成算法偏见的再生产机制。国务院印发的《关于深入实施“人工智能+”行动的意见》提出,“推动哲学社会科学研究方法向人机协同模式转变,探索建立适应人工智能时代的新型哲学社会科学研究组织形式,拓展研究视野和观察视域。深入研究人工智能对人类认知判断、伦理规范等方面的深层次影响和作用机理,探索形成智能向善理论体系,促进人工智能更好造福人类”。基于此,我们应积极推动哲学社会科学与技术等多学科的交叉融合与深度合作,揭示人工智能如何重塑人类的价值实践机制,为制度设计提供理论支撑。在利用人工智能拓展人类认知边界的同时,警惕其算法逻辑对人文精神的遮蔽。此外,要构建和完善多元主体参与的价值治理框架。技术开发者、政策制定者、伦理专家与公众用户应共同介入人工智能价值取向的识别、清理与重塑过程。唯有在系统设计之初就嵌入公平、正义与人类尊严等伦理考量,才能确保人工智能的发展方向真正契合人类的公共利益与长远福祉。技术与价值的深度协同,才是“可信人工智能”的根基所在。
其次,明确责任归属,构建制度信任机制。在人类成员之间的合作中,个体对他人的信任,从根本上来说是基于对制度性约束的信心,即相信违约行为会受到应有的惩罚。这种“制度信任”构成了现代社会合作的基石。同理,在人机交互中,真正的信任不仅需要建立在算法内部运作的透明性和可解释性上,更依赖于清晰的责任认定与追责机制。国家网信办等七部门颁布实施的《生成式人工智能服务管理暂行办法》中的相关规定在凸显责任明晰、透明治理原则的同时强调对弱势群体的特殊保护,为生成式人工智能的健康发展提供了重要的伦理依据和制度保障。我们须清醒地认识到,无论人工智能在计算能力或认知能力上如何逼近甚至超越人类,其终究不具备承担责任的资格和能力。因为缺乏血肉之躯的人工智能无法真正理解适用于人类共同体中的奖惩意味着什么,亦无法以人类共同体承认的方式来担责。只有人类才是承担责任的唯一主体,因此明确人工智能研发和使用过程中不同环节的责任归属非常必要。这也是《新一代人工智能伦理规范》明确要求必须确保人工智能始终处于人类控制之下的伦理依据。在人机协作中,通过透明性、可解释性来说明人工智能“如何运行”是基本前提。而人们需要处理的更为重要的问题是,面对人工智能给出的决策建议,应该如何作出自己的选择?以及谁应该为最终的决定负责?这一点是必须解释和说明的。唯有建立起权责清晰、可追溯、可问责的制度框架,才能为人机协同提供稳定的信任预期。就此而言,人机信任不仅依赖于算法技术上的透明性和可靠性,也需要在伦理层面达成共同的价值坚守,并不断完善相关制度保障。在追求可解释性的同时,我们更应致力于构建一个技术向善、权责分明、价值共识的社会生态。
最后,在价值引导、制度设计与技术治理之外,构建可信的人工智能乃至更广泛的社会信任体系,还需深入文化心理层面,营造一种支持社会信任体系的文化氛围。研究表明,普遍性信任往往植根于一种深层的、带有道德色彩的乐观主义世界观,这种世界观最初是从我们的父母那里学到的,而且这种基于幼年、童年时获得的生活态度奠定了我们的信任底色,影响个体在未来人际交往中的开放性与合作意愿。成年个体对他人的信任,是童年习得的价值观与后期社会经验相互作用的复合产物,而其早期经验往往构成基础性心理结构。当“不信任”被反复强化为与外界互动的首要原则后,人的社会联结能力与合作基础就会受到侵蚀,未来社会成员普遍信任的心理基础也可能面临结构性削弱。培育一个普遍信任的社会文化,必须从源头着手,营造有利于儿童形成积极、开放与信任取向的成长环境。在保障儿童安全的前提下培育信任文化。这不仅要求以社会主义核心价值观为引领,加强社会治理、完善法律制度以减少现实风险,也呼唤一种更具前瞻性的教育理念。在识别、防范风险的基础上,依然存有对他人善意的基本信念与社会参与的勇气。在此基础上,只有人类遵循全人类共同价值,坚持公共利益优先,才能在人机交往中实现和谐友好关系,并在人机交互中增强获得感和幸福感。
在智能技术深度嵌入社会结构与日常生活的情境下,人类的交往模式正经历前所未有的转型。社会互动的复杂性显著增强,生活世界的不确定性亦随之加剧。面对这种由技术驱动的结构性变迁,信任不仅是一种人际情感或道德品质,且日益成为维系社会协作、支撑系统运行、化解复杂风险的核心机制。未来社会,无论是人际合作,还是人机协同,都亟须建立更加稳定、可持续的信任关系。这样一种稳定的、可持续的信任关系要求我们一方面致力于在技术和制度层面建立值得信赖的系统,另一方面营造信任的文化氛围,培育信任能力。
《光明日报》(2026年01月05日 15版)
