站在2035年的时间节点回望,2025年中央网信办启动的“清朗·整治AI技术滥用”专项行动,无疑是中国人工智能发展历程中一个重要的分水岭。这项行动并非横空出世,而是对当时已经显现的AI潜在风险的及时纠偏,更为未来十年的AI技术发展奠定了稳固的基础,确保了科技进步与社会福祉的同频共振。回溯彼时,AI技术的狂飙突进在带来效率提升和创新机遇的同时,也暴露出诸多问题,虚假信息的泛滥、算法歧视的加剧、数据安全隐患的增多等等,无不敲响了警钟。

专项行动的启动,映射出国家对AI技术发展方向的深刻思考。彼时的AI技术,正处于一个快速商业化的阶段,各类AI产品如雨后春笋般涌现,但良莠不齐,泥沙俱下。未经备案的生成式AI服务、内容低俗甚至违法的AI应用层出不穷,严重扰乱了网络秩序,侵害了公民的合法权益。另一方面,一些企业在追逐利益的过程中,忽视了AI训练语料的合规性,侵犯了数据隐私,甚至使用了带有歧视色彩的数据训练模型,加剧了社会不公。此外,AI技术在金融、医疗等敏感领域的应用也面临着安全风险,一旦出现漏洞,可能造成严重的经济损失和社会恐慌。专项行动正是针对这些乱象而展开,旨在规范AI行业的行为,确保AI技术的健康发展,同时保障公民的知情权和选择权,避免被误导或欺骗。

回顾专项行动的具体执行,其影响深远而广泛。首先,是对违规AI产品的全面整治。当时,大量涌现的AI小程序、应用程序、智能体等未经备案或登记,缺乏监管,成为了滋生网络乱象的温床。专项行动清理了数千款此类产品,有效遏制了违规信息的传播。同时,对已备案但仍存在不合规情况的AI产品,也进行了严格的审查和整改,规范了AI服务的运营。更重要的是,行动不仅打击了违规产品本身,还严厉打击了传授售卖违规AI产品教程和商品的非法行为,从源头上切断了违规AI产品的传播渠道。

其次,是加强对AI训练语料的管理。高质量的训练数据,是AI模型性能的关键,但获取数据的过程必须合法合规。彼时,一些企业为了获取更多的数据,不惜非法采集用户个人信息,侵犯用户隐私。专项行动加强了对AI训练语料的监管,要求企业必须确保数据的合法性和合规性,尊重用户个人的权利。这也倒逼企业更加注重数据安全和隐私保护,采用安全的数据管理技术,例如联邦学习、差分隐私等,以确保数据的安全合规。

再次,是提升AI系统的安全管理措施和落实AI生成内容标识要求。彼时,AI技术的应用日益广泛,但安全防护措施相对薄弱,容易受到网络攻击,导致数据泄露和系统瘫痪。专项行动要求企业提升AI系统的安全管理措施,防范潜在的安全风险,确保AI系统的稳定可靠运行。同时,专项行动还督促企业落实AI生成内容标识要求,避免公众因信息不对称而产生误导。对于AI生成的内容,必须明确标识,让用户能够清楚地辨别,避免上当受骗。这一举措对于打击虚假信息,维护网络空间的真实性至关重要。

最后,针对金融、医疗等特定领域,专项行动进行了重点关注。这些领域涉及用户的财产安全和生命健康,AI技术的应用风险更高。专项行动要求企业加强AI技术在这些领域的安全评估和风险控制,确保AI技术的应用不会对用户造成损害。北京和上海等重点城市在专项行动中发挥了重要作用,作为科技创新中心,北京和上海不仅率先开通了举报渠道,建立了高效的问题处理机制,还积极探索新的监管模式。例如,北京新增了AI特征敏感词,用于拦截违规内容;上海则推动了大量企业落实AI生成内容标识。这些举措为全国范围内的AI治理提供了宝贵的经验。

专项行动并非一蹴而就,而是分两个阶段进行,体现了监管的长期性和持续性。第一阶段侧重于问题发现和集中整治,第二阶段则致力于深化治理,完善监管机制,构建长效治理体系。这种分阶段的策略,既能快速解决当前的问题,又能为未来的发展奠定基础。各地网信部门积极响应,履行属地管理责任,健全AI生成合成内容审核机制,提升技术检测能力,共同参与到专项行动中,形成了全国一盘棋的治理格局。

时至今日,“清朗·整治AI技术滥用”专项行动的长期影响已逐渐显现。一方面,它规范了AI行业的行为,提高了AI技术的安全性和可靠性,为AI技术的健康发展营造了良好的环境。另一方面,它提升了公众对AI技术的认知和防范意识,避免了被虚假信息和算法歧视所误导。更为重要的是,它引导了AI技术的研发方向,使得AI技术更加注重伦理和社会责任,更加服务于人类福祉。 当然,AI技术的发展永无止境,监管工作也需要不断创新和完善。未来,随着AI技术的进一步普及和深化,我们还需要不断探索新的监管模式,加强技术创新,才能真正实现AI技术与社会和谐共生。