点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
新修订的《科普法》明确,“科普工作应当践行社会主义核心价值观,弘扬科学精神和科学家精神,遵守科技伦理,反对和抵制伪科学。”以及“组织和个人提供的科普产品和服务、发布的科普信息应当具有合法性、科学性,不得有虚假错误的内容。”这就要求科普从业者,科普内容的发布平台以及科普内容本身都必须做到负责,科普因为负责才能有效,而非有效就一定意味着负责。就此而论,科普的全过程都需要把握住科技伦理以及科普伦理。
五年前,包括中国自然科学博物馆学会、中国科普作家协会在内的五家单位联合发布了《科普伦理倡议书》,呼吁科普工作者秉持科技向善、科普向善的价值追求,坚持科普“以人民为中心”的初心,更好地面向公众开展科普,促进科普工作服务于国家发展和人民幸福生活,并针对这一目标表达科普工作者主动提升科普质量、承担社会责任的使命担当。
如今,我们正在大踏步进入数智时代,人工智能大模型成为很多公众日常信息收集获取的首选,它快速搜集整理信息的能力节省了很多时间成本和智力成本,同时还为用户提供了有益的参考,而且这些大模型的广泛部署和使用也给科普内容的生产和传播带来了巨大的便利,一些科普从业者也开始在大模型的基础上生产科普内容。
不过在我们利用人工智能大模型给科普带来的便捷性的同时,还需要关注它可能牵涉的科技伦理和科普伦理问题,当然,这不是“劝退”,而是一种提醒,也就是在踩油门的时候一定要备刹车,同时在公众对一系列应用“狂欢”之下,我们是否也有必要做一些冷静的观察,其目的无外乎让人工智能大模型更智能,更好地服务于公众的日常生活。
首先,我们需要承认的是,人工智能大模型的训练离不开“草料”,而这些“草料”的质量在某种程度上决定了它的产出,曾经有一种观点认为,和“吃草产奶”的奶牛不同,它依然是“吃草产草”,换句话说,那就是你喂给它什么决定了它能产生什么。由于训练素材的偏倚,有可能导致它所产生的内容存在偏见甚至是某些方面的缺失,以及一定程度上的歧视,所以这就需要对它的产出进行科学性的审核,同时也需要提高公众的科学认识,理性地看待它的产出,毕竟它所生成的内容可能因训练数据偏差或算法缺陷而导致科学错误,甚至在一些专业领域,它给出的回答可能很离谱,基于此,就有必要引入专家审核机制,重点核查内容的科学性、意识形态合规性及伦理问题。当然,也需要扩大训练素材的来源,用更权威的数据源训练模型,避免输出伪科学信息。
其次,需要关注到人工智能大模型所生产的内容可能被滥用,甚至成为谣言传播的新方式。比如通过“移花接木”“断章取义”等方式生成虚假的科学信息,这有可能导致或者加剧社会上的张力,腐蚀公众对科学的信任。在这方面,我们还需要认识到人工智能可能会产生某种“幻觉”,也就是它会编造它认为是真实存在的甚至看起来合理或可信的信息,而如果公众过度依赖的话,那就有可能导致对专家观点的忽视和无视,进一步加剧“宁可信其有,不可信其无”的现象。而对科普从业者来说,过度依赖也会导致自身创造力的弱化,甚至被禁锢,因为对于任何人来说,框架都是一种无法摆脱的模式,因而如何在数智时代发挥科普创作者的主动性更加值得关注。
再次,它还有可能涉及洗稿,侵犯版权,恶意抄袭等问题。因为人工智能大模型所给出的内容必然要基于它能获取到的素材,并在此基础上进行整合和再创作,这就有可能导致它会对现有的一些内容“正说说,反说说,换个角度再说说”。当然,我们也不能对它要求过高,毕竟它还不能媲美“人脑”,只不过作为需要在科普创作的过程中发挥主动性的创作者来说,我们需要意识到这样的问题是有可能存在的,并且在借助它辅助进行科普内容生产的过程中尽量避免。
总之,数智时代是不可逆的科技发展潮流,也会给人类社会带来更大的福祉,当然其前提条件是人类要理性地使用它,并且不断地完善它,让它始终走在“科技向善”的大路上,而对于科普而言,一方面既需要向公众阐释清楚它带来的便利和机遇,也需要讲清楚它还存在哪些不足,另一方面,使用它的科普创作者也需要意识到其中可能牵涉的伦理问题,进而发挥自身的主动性尽力避免,从而提供高质量的科普作品,满足公众的科普需求。
(王大鹏,中国科普研究所副研究员、中国科普作家协会理事)