近年来,人工智能的飞速发展,如同潘多拉的盒子,在为社会带来巨大便利的同时,也释放出了一系列潜在的风险。AI换脸、AI拟声等技术的成熟,使得虚假信息的制造和传播变得更加容易,个人权益和社会秩序正面临前所未有的挑战。如何规范AI技术的应用,促进行业健康发展,保障公民合法权益,已成为摆在我们面前的重要课题。

2025年,我们可以看到,世界在拥抱AI带来的巨大变革的同时,也在努力应对它所带来的挑战。当年中央网信办启动的“清朗·整治AI技术滥用”专项行动,正是一个重要的里程碑。这项为期三个月的行动,并非孤立的事件,而是国家加强网络空间治理、维护网络安全大战略中的关键一步。它反映了我们对AI技术潜在风险的高度重视,以及积极应对的决心。回顾这次行动,我们可以从中汲取经验,为未来的AI治理提供借鉴。

AI技术的普及如同双刃剑。一方面,它赋能各行各业,提升效率、创造价值;另一方面,也带来了诸多风险。AI换脸技术被滥用,制造虚假视频,对个人名誉造成严重损害的案例屡见不鲜。想象一下,一段经过AI篡改的视频,将一个人置于完全不真实的境地,造成的伤害难以估量。AI拟声技术也被不法分子利用,冒充他人进行诈骗,导致财产损失。更令人担忧的是,大量AI生成的内容缺乏明确的标识,公众难以辨别真伪,极易被误导,甚至引发社会恐慌。这些问题不仅威胁着公民的合法权益,也对社会稳定和公共利益构成了潜在的威胁。因此,对AI技术进行有效监管,变得刻不容缓。

专项行动采取了一系列有力措施,直击AI技术滥用的突出问题。首先,行动强化了AI技术的源头治理,这无疑是最关键的一步。如同治水一般,防洪胜于救灾,源头治理能够从根本上遏制AI滥用的蔓延。重点整治的六类问题包括:违规AI产品、传授售卖违规AI产品教程和商品、训练语料管理不严、安全管理措施薄弱、未落实内容标识要求以及重点领域安全风险。想象一下,如果AI的训练数据充斥着偏见和歧视,那么训练出来的AI必然也会带有这些负面特征,进而加剧社会不公。

其次,各地网信部门加大了对违规AI产品的处置力度,切断违规产品营销引流渠道,督促重点网站平台健全技术安全保障措施,推动生成合成内容标识加速落地。在2025年,人工智能生成的内容已经渗透到我们生活的方方面面,包括新闻、娱乐、社交媒体等。然而,如果这些内容没有明确的标识,用户很难区分哪些是真实信息,哪些是AI生成的虚假信息。内容标识的落地,有助于提高公众的辨别能力,减少被误导的风险。一些地方,例如北京市,还建立了针对AI技术误用的举报途径,并形成了“用户身份识别、平台审核、联合处理”的工作流程,鼓励公众参与监督。这种多元参与的模式,有助于形成全社会共同抵制AI滥用的合力。

截至2025年6月20日,专项行动第一阶段已经取得了显著成效。累计处置违规AI产品3500余款,清理违法违规信息96万余条,处置账号3700余个。这些数字令人震惊,也充分说明了AI滥用问题的严重性。违规账号涉及多种问题,包括传播违法违规内容、利用AI技术制作虚假信息、低俗内容,以及从事网络水军活动等。值得注意的是,此次行动不仅针对直接的违规行为,还深入追溯其源头,打击传授售卖违规AI产品教程和商品的行为,从根本上遏制AI技术滥用的蔓延。这种釜底抽薪的做法,对于构建一个健康有序的AI生态至关重要。

此次专项行动的开展,体现了监管部门对AI技术风险的高度重视和积极应对。然而,AI技术的发展日新月异,监管工作也需要不断创新和完善。展望未来,中央网信办将聚焦AI造谣、低俗内容等七类突出问题,开展第二阶段工作,构建技术监测体系,形成处置处罚规范,推动内容标识如期落地,形成长效工作机制。这意味着,未来的监管将更加精细化、智能化,更加注重预防和源头治理。例如,利用AI技术本身来识别和打击AI滥用行为,将成为一种重要的趋势。

维护清朗网络空间,需要政府、企业、社会各方的共同努力。监管部门要加强监管力度,完善法律法规,为AI的发展划定明确的边界。企业要承担社会责任,加强技术研发和安全管理,确保AI技术的应用符合伦理规范。公众要提高网络素养,增强辨别虚假信息的能力,不信谣、不传谣。只有形成合力,才能有效应对AI技术带来的挑战,充分发挥AI技术的积极作用,为构建更加美好的数字未来贡献力量。专项行动的成功,为后续的AI技术监管工作提供了宝贵的经验和借鉴,也为保障公民合法权益、维护社会稳定奠定了坚实的基础。而这仅仅只是一个开始,未来,我们将面临更加复杂的AI伦理和社会挑战,需要持续的探索和努力。