点击右上角微信好友

朋友圈

请使用浏览器分享功能进行分享

正在阅读:AI“模型崩溃”风险需警惕
首页> 科技频道> 综合新闻 > 正文

AI“模型崩溃”风险需警惕

来源:科技日报2024-09-25 09:26

  图片来源:美国《The Week》

  【今日视点】

  ◎记者 张佳欣

  从客户服务到内容创作,人工智能(AI)影响了众多领域的进展。但是,一个日益严重的被称为“模型崩溃”的问题,可能会使AI的所有成就功亏一篑。

  “模型崩溃”是今年7月发表在英国《自然》杂志上的一篇研究论文指出的问题。它是指用AI生成的数据集训练未来几代机器学习模型,可能会严重“污染”它们的输出。

  多家外媒报道称,这不仅是数据科学家需要担心的技术问题,如果不加控制,“模型崩溃”可能会对企业、技术和整个数字生态系统产生深远影响。天津大学自然语言处理实验室负责人熊德意教授在接受科技日报记者采访时,从专业角度对“模型崩溃”进行了解读。

  “模型崩溃”是怎么回事

  大多数AI模型,比如GPT-4,都是通过大量数据进行训练的,其中大部分数据来自互联网。最初,这些数据是由人类生成的,反映了人类语言、行为和文化的多样性和复杂性。AI从这些数据中学习,并用它来生成新内容。

  然而,当AI在网络上搜索新数据来训练下一代模型时,AI很可能会吸收一些自己生成的内容,从而形成反馈循环,其中一个AI的输出成为另一个AI的输入。当生成式AI用自己的内容进行训练时,其输出也会偏离现实。这就像多次复制一份文件,每个版本都会丢失一些原始细节,最终得到的是一个模糊的、不那么准确的结果。

  美国《纽约时报》报道称,当AI脱离人类输入内容时,其输出的质量和多样性会下降。

  熊德意解读称:“真实的人类语言数据,其分布通常符合齐普夫定律,即词频与词的排序成反比关系。齐普夫定律揭示了人类语言数据存在长尾现象,即存在大量的低频且多样化的内容。”

  熊德意进一步解释道,由于存在近似采样等错误,在模型生成的数据中,真实分布的长尾现象逐渐消失,模型生成数据的分布逐渐收敛至与真实分布不一致的分布,多样性降低,导致“模型崩溃”。

  AI自我“蚕食”是坏事吗

  对于“模型崩溃”,美国《The Week》杂志近日刊文评论称,这意味着AI正在自我“蚕食”。

  熊德意认为,伴随着这一现象的出现,模型生成数据在后续模型迭代训练中占比越高,后续模型丢失真实数据的信息就会越多,模型训练就更加困难。

  乍一看,“模型崩溃”在当前似乎还是一个仅需要AI研究人员在实验室中担心的小众问题,但其影响将是深远而长久的。

  美国《大西洋月刊》刊文指出,为了开发更先进的AI产品,科技巨头可能不得不向程序提供合成数据,即AI系统生成的模拟数据。然而,由于一些生成式AI的输出充斥着偏见、虚假信息和荒谬内容,这些会传递到AI模型的下一版本中。

  美国《福布斯》杂志报道称,“模型崩溃”还可能会加剧AI中的偏见和不平等问题。

  不过,这并不意味着所有合成数据都是不好的。《纽约时报》表示,在某些情况下,合成数据可以帮助AI学习。例如,当使用大型AI模型的输出训练较小的模型时,或者当可以验证正确答案时,比如数学问题的解决方案或国际象棋、围棋等游戏的最佳策略。

  AI正在占领互联网吗

  训练新AI模型的问题可能凸显出一个更大的挑战。《科学美国人》杂志表示,AI内容正在占领互联网,大型语言模型生成的文本正充斥着数百个网站。与人工创作的内容相比,AI内容的创作速度更快,数量也更大。

  OpenAI首席执行官萨姆·奥特曼今年2月曾表示,该公司每天生成约1000亿个单词,相当于100万本小说的文本,其中有一大部分会流入互联网。

  互联网上大量的AI内容,包括机器人发布的推文、荒谬的图片和虚假评论,引发了一种更为消极的观念。《福布斯》杂志称,“死亡互联网理论”认为,互联网上的大部分流量、帖子和用户都已被机器人和AI生成的内容所取代,人类不再能决定互联网的方向。这一观念最初只在网络论坛上流传,但最近却获得了更多关注。

  幸运的是,专家们表示,“死亡互联网理论”尚未成为现实。《福布斯》杂志指出,绝大多数广为流传的帖子,包括一些深刻的观点、犀利的语言、敏锐的观察,以及在新背景下对新生事物的定义等内容,都不是AI生成的。

  不过,熊德意仍强调:“随着大模型的广泛应用,AI合成数据在互联网数据中的占比可能会越来越高,大量低质量的AI合成数据,不仅会使后续采用互联网数据训练的模型出现一定程度的‘模型崩溃’,而且也会对社会形成负面影响,比如生成的错误信息对部分人群形成误导等。因此,AI生成内容不仅是一个技术问题,同时也是社会问题,需要从安全治理与AI技术双重角度进行有效应对。”

[ 责编:宋雅娟 ]
阅读剩余全文(

相关阅读

您此时的心情

光明云投
新闻表情排行 /
  • 开心
     
    0
  • 难过
     
    0
  • 点赞
     
    0
  • 飘过
     
    0

视觉焦点

  • 福建泉金客运码头迎来清明节两岸人员往来高峰

  • “地球彩带”孕育火热“花经济”

独家策划

推荐阅读
征求意见稿提出,任何组织和个人提供、使用数字虚拟人服务,不得以丑化、污损等形式侵害他人人格权,未经特定自然人同意,不得提供足以识别特定自然人身份的数字虚拟人服务。
2026-04-03 17:59
近日,《关于加快建立长期护理保险制度的意见》(以下简称《意见》)印发。《意见》明确,用3年左右时间,基本建立适应我国基本国情的长期护理保险制度。
2026-04-03 10:07
春天,风媒花粉对过敏症患者尤其是患有慢性呼吸系统病人群的影响特别大,是过敏性哮喘的高发季节。
2026-04-03 10:04
个人信息保护法施行以来,中央网信办会同有关部门持续加大个人信息保护工作力度,查处各类违法违规处理个人信息行为,督促指导个人信息处理者不断提升合规水平,取得了积极成效。
2026-04-03 09:59
日前,福建龙岩长汀县远丰优质稻专业合作社正忙着把秧苗往田里送,并用机器进行插秧。一粒粒种子在智慧育秧工厂从孕育到出苗,直至送入农田进行机械化插秧,合作社负责人傅木清都看在眼里。
2026-04-03 09:53
据报道,在3月29日结束的世界超级摩托车锦标赛(WSBK)葡萄牙站WorldSSP组别中,我国摩托车制造商“张雪机车”在该站赛事双回合正赛中相继夺冠。说起“张雪机车”的成功,不得不提到中国的“摩托之都”重庆。
2026-04-03 09:50
在一间会议室里,记者找到了研究院副院长张金友。”  为了尽快解决这个“烧脑”的问题,这段时间,张金友和团队几乎每天井场、实验室、会议室三点一线。“如果说我们正在采的页岩油是已经蒸熟的‘米饭’,那低熟页岩油就是‘生米’,需要人工在地下为其加热,催化生成石油。
2026-04-03 09:47
历时多年攻关,刘河生带领团队不断改进脑功能区定位技术,实现快速精准绘制个体脑图,并研发出可无创干预脑区功能的设备,在帕金森等疾病治疗研究中取得重大进展。
2026-04-02 10:11
我国智能航运发展现状如何?“十五五”时期如何迈向国际先进水平?记者采访了交通运输部海事局及相关企业。
2026-04-02 10:07
科技创新是发展新质生产力的核心要素,加强原始创新和关键核心技术攻关,是抢占科技制高点、实现高水平科技自立自强的根本所在。
2026-04-02 10:04
近日,国家医保局发布《医疗保障基金使用监督管理条例实施细则》,于2026年4月1日起正式施行。
2026-04-02 10:03
国家卫健委和国家中医药局1日联合印发《关于开展基层医疗卫生机构医疗质量改善三年行动(2026—2028年)的通知》,推进基层医疗质量提升,推动实现分级诊疗“基层首诊”落地。
2026-04-02 10:01
人与自然和谐共生是中国式现代化的重要特征之一,守好碧海银滩,构建人海和谐的海洋生态环境是中国式现代化的题中应有之义。
2026-04-01 09:45
2021年长江十年禁渔实施以来,禁渔秩序总体平稳,退捕渔民生计有效保障,水生生物资源衰退趋势得到决定性扭转,长江水生生物完整性指数稳步提升,取得阶段性明显成效。
2026-04-01 09:44
“过去雷达网建设主要解决‘有没有’的问题,现在AI让这张网从‘能探测’升级为‘会思考’。”在张兴赢看来,“AI正在成为工程的‘第二大脑’。”
2026-04-01 09:43
硒是人体必需的微量矿质营养素。然而,我国约7亿人口存在硒摄入不足。
2026-04-01 09:42
强对流天气的形成是水汽条件、不稳定状态的大气层结构、地形等多种条件协同作用的结果,包括雷暴、短时强降水、大风、冰雹等天气现象,具有影响快、强度强、致灾性强的特点。
2026-04-01 09:39
3月30日,世界数据组织正式成立并落户北京,理事长由中国科学院院士谭铁牛担任。这不仅是对谭铁牛个人学术成就的认可,更是国际社会对中国数据发展和治理能力的充分肯定,是中国科学家提升全球科技治理话语权的生动缩影。
2026-03-31 10:23
教育部30日印发《校园食品安全“十必须”》《学校食堂工作人员“十不准”》,进一步筑牢校园食品安全防线,明确中小学、幼儿园食堂不得制售冷荤类食品、生食类食品、冷加工糕点,不得加工制作四季豆、鲜黄花菜、野生蘑菇、发芽土豆等高风险食品。
2026-03-31 10:22
30日19时00分,力箭二号遥一运载火箭在东风商业航天创新试验区发射升空,将搭载的新征程01卫星、轻舟初样试飞船和天视卫星01星顺利送入预定轨道,发射任务取得圆满成功。
2026-03-31 10:17
加载更多