点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
视觉中国供图
编者按
当前,生成式人工智能产业蓬勃发展,截至2024年12月,我国生成式人工智能产品的用户规模已达2.49亿人。做短视频、查找资料、图文创作……当AI工具不可避免地融入更多人的日常生活,如何培养“与AI共存”的媒介素养,成为一道时代的必答题。
这种素养,不仅停留于读懂数据、理解算法的技术性素养,更包括识别AI幻象、数据偏见、算法风险的批判性素养,关涉隐私与公平的伦理性素养,以及在不同场景灵活应用AI工具并保持反思能力的实践性素养。只有理解了AI运行的底层逻辑,清醒意识到使用AI工具的伦理边界,人类才能保持在数智时代的独立、理性与尊严,抵抗被算法塑形和操控的命运。
步入人工智能时代,监管机制如何因时而变,为AI服务提供者制定清晰的运行规范?媒体与记者作为AI的使用者,在推动人机协同的同时,应当如何以专业操守守护内容真实?内容创作者和网民应如何提升数字素养和培养批判思维?大学教育怎样坚守唤醒学生自觉、培养学生独立思考能力的使命,帮助学生摆脱“AI依赖”困境?这些摆在眼前的重要议题,都有必要得到严肃而深入的回答。
人是会思考的芦苇,AI时代更需呵护好这一宝贵的特性。保持人类的独立思维,共同坚守技术向善的底线,才能更好、更有尊严地与AI同行。
——————————
在这个数据密集型的世界里,具备“数据素养”(dataliteracy)非常重要。数据素养是阅读、理解、创建、解释、评估和交流数据的能力。过去我们所理解的这一概念,多指个人在信息社会中对数据的获取、分析和运用——即“能读懂数据,会用数据”。
比如,数据可视化曾是数据素养的重要组成部分。随着可视化工具在传统媒体、社交媒体和技术报告中得到越来越广泛的应用,受众不仅要正确地阅读它们,还要批判性地思考它们,并意识到它们可能会被滥用。所以,传统数据教育十分关注统计图表与信息可视化。
然而,当AI以算法推荐、生成模型和自动决策的形式深度介入社会生活时,这一数据素养的传统定义已显得过于狭隘。如今,数据不仅是信息资源,更是算法训练的燃料、社会控制的媒介以及人机互动的基础结构,甚至是资本积累的新形式。
算法通过看似中立的逻辑,选择性地呈现世界,从而重构了人们的注意力与信任机制。人们往往相信“数据不会说谎”,却容易忽视数据选择与建模背后的社会偏见。为此,进入人工智能全面渗透的时代,数据素养这一概念需要被重新激活。
AI时代的数据素养应包括算法素养(algorithmicliteracy),其核心不仅在于了解算法的技术原理,更重要的是提出一系列关键性问题:数据从哪里来?算法以谁的利益为优化目标?数据处理过程隐去了哪些声音?这样的素养不再是统计意义上的“读图能力”,而是一种理解算法权力运作的社会能力。
除了从“阅读数据”到“理解算法”的变化,还有从“个体能力”到“社会责任”的扩展。数据素养曾长期被定义为个人技能问题,强调“公民应具备使用数据参与社会的能力”。然而AI带来的权力集中使这一假设被迫修正。数据的收集、分析与运用往往掌握在大型科技公司与国家机构手中,普通公民即使具备高水平的数据技能,也可能在制度上无从选择或拒绝。
因此,AI的核心问题不在于“我们理解数据的能力”,而在于“我们被数据所塑造的程度”。在算法化的社会结构中,个人的选择、消费、信用乃至情感都在被加以数据化评估与分类。因此,数据素养必须扩展为一种社会伦理素养,即理解数据治理的权力关系、参与数据政策讨论、质疑算法不公的能力。这种扩展意味着数据素养的教育目标也需要改变:不再仅是“让学生能用Python处理数据”,而是培养能够理解数据背后的社会后果的公民。
在新的数据教育当中,必须致力于打破技术中立的幻觉。如我所言,当前的数据教育往往停留在“技能培训”层面,例如学习编程语言、统计模型或机器学习方法。这种培训固然重要,但它维持着一种危险的幻觉——即技术是中立的,只要学会使用,就能掌握未来。
然而AI系统的每一个决策——从人脸识别到信用评估——都内含价值判断。正如凯西·奥尼尔在《算法霸权》一书中揭示的,算法的偏差可能在无形中放大社会不平等,而受害者往往无法察觉。因此,真正的数据素养教育应当跨越理科与人文的边界,将统计知识与伦理反思、社会批判结合起来。它既要让学生理解模型与代码,也要引导他们思考:当数据被用来“预测人生”或“自动判断价值”时,我们是否还拥有被理解的权利?
值得注意的是,AI不仅改变了数据的结构,也改变了数据素养本身的学习方式。当前各类智能学习平台和AI助教(如ChatGPT、Copilot)使数据分析技能的门槛大幅降低。然而,这种便利也带来新的问题:一方面,AI确实使更多人能“快速上手”数据科学工具;但另一方面,它削弱了人对算法细节的理解,使学习过程从“理解原理”变成“调用结果”。换句话说,AI在提升表层素养的同时,可能正在侵蚀深层素养。
这种趋势会导致一种“自动化的愚昧”,或者,用矛盾修饰法来说,是一种“智能化的愚昧”——人们使用AI解决问题,在对其背后的机制毫无认知的情况下,形成对AI的过度依赖,从而失去批判与创造的能力。AI时代的数据素养,必须在“使用AI”与“理解AI”之间保持张力。
数据素养因此不应仅是“技能教育”,而必须成为一种批判性理解的能力:理解数据如何被生产、被操控、被用来影响我们的认知与决策。换言之,AI时代的数据素养,是一种关于权力、伦理与人性的素养。
这种素养可以分解为:技术性素养——读懂数据、理解算法、掌握基本分析工具(如Python、Excel);批判性素养——能识别数据偏见、算法风险、黑箱与权力机制;伦理性素养——关心隐私、AI治理、公平性与透明性;实践性素养——能在生活/工作/学术中灵活应用AI数据工具并保持反思能力。
总之,在这个“数据即语言,算法即权力”的时代,数据素养已不仅是专业能力,更是一种公民素养。提升数据素养不仅是职业发展的需要,更关乎信息判断力、社会责任感与自我认知能力的建立。
我认为,AI时代真正的数据素养,是一种抵抗的素养——抵抗被算法塑形的命运,抵抗把人简化为数据点的冲动,抵抗那种以“智能”为名消解人性的理性主义。它召唤我们以批判的眼光重新学习,以理解取代盲信,以共情取代计算。它推动我们更加关注权力关系,以及沿着更公平、更有教育意义的路径重新想象人工智能。
只有这样,数据科学才能回到它最初的使命:帮助人类理解世界,而非被世界所取代。
(作者系北京大学新闻与传播学院教授 胡泳)
来源:中国青年报
2025年10月17日 05版