人工智能技术的快速发展,如同一把双刃剑,在深刻改变我们生活的同时,也带来了前所未有的挑战。近年来,AI换脸、AI拟声等技术日趋成熟,其滥用现象日益突出,对个人隐私、社会秩序乃至公共安全构成了潜在威胁,已经是不容忽视的社会问题。如何在享受AI带来的便利的同时,有效防范和治理其潜在风险,成为了摆在我们面前的一道重要课题。面对这一挑战,监管部门积极行动,旨在规范AI服务和应用,促进行业健康有序发展,保障公民合法权益。

2025年4月,中央网信办启动了为期三个月的“清朗・整治AI技术滥用”专项行动,并在近期公布了第一阶段的整治成果。这一行动并非偶然,而是中央网信办持续开展“清朗”系列专项行动的重要组成部分。长期以来,网信部门致力于打击网络上的各类乱象问题,从严处置违规平台和账号,旨在净化网络空间,维护健康的网络生态。“清朗・整治AI技术滥用”专项行动的推出,体现了监管部门对新兴技术风险的敏锐洞察和积极应对。

监管的重点聚焦于多个方面。首先,针对AI换脸拟声侵犯公众权益的问题,专项行动采取了强硬措施。这些技术如果被恶意利用,例如用于制造虚假信息、诽谤他人名誉甚至进行诈骗活动,将对社会稳定和公众利益造成严重损害。监管部门明确表示,对利用AI技术进行非法活动的行为将坚决打击,绝不姑息。其次,AI内容标识缺失误导公众也是整治的重点。由于AI生成的内容往往难以与真实内容区分,缺乏明确标识容易造成公众误解甚至上当受骗。监管部门要求AI内容提供者必须明确标识其内容由AI生成,以避免误导公众。

专项行动的推进,需要多方力量的协同。一方面,各地网信部门被部署加大违规AI产品处置力度,切断违规产品营销引流渠道,并督促重点网站平台健全技术安全保障措施。这意味着监管部门不仅要打击已经出现的违规行为,还要从源头上预防AI技术被滥用。另一方面,北京市网信办积极探索建立“用户身份识别、平台审核、联合处理”的工作流程,开通了举报渠道,鼓励用户参与到AI技术滥用的监督和治理中来。这种“用户标记-平台核查-联合处置”的模式,有效提升了治理效率,也体现了监管部门对社会力量的积极引导和利用。用户举报机制的建立,让每一个普通公民都能成为网络安全的守护者,共同维护健康的网络环境。

专项行动的第一阶段已经取得了显著成果。截至目前,累计处置违规小程序、应用程序、智能体等AI产品超过3500款,清理了超过96万条违法违规信息,并对3700多个违规账号进行了处理。这些数据充分说明了监管部门在打击AI技术滥用方面的决心和力度。同时,这些成果也提醒我们,AI技术滥用已经是一个非常普遍和严重的问题,需要我们持续保持警惕。

此次专项行动的意义不仅在于遏制了AI技术滥用的蔓延趋势,维护了公众的合法权益,特别是个人隐私和名誉权,更重要的是,它为AI行业的健康发展提供了保障。通过规范AI服务和应用,促使企业更加注重技术伦理和社会责任,推动AI技术朝着更加积极、健康的方向发展。同时,也向全社会传递了一个明确的信号,即网络空间不是法外之地,任何违法违规行为都将受到严厉打击。监管的加强,能够引导AI技术的发展更加注重社会效益,避免单纯追求经济利益而忽视潜在的风险。

面向未来,AI技术的监管将面临更加复杂的挑战。随着技术的不断进步,新的滥用方式可能会不断涌现。因此,监管部门需要持续加强对AI技术的监测和预警,不断完善监管机制,提升监管能力。例如,可以利用AI技术来检测AI生成的内容,实现“以AI制AI”。此外,还需要加强对AI从业人员的伦理教育,引导他们自觉遵守法律法规,坚守职业道德。只有从技术和伦理两个层面同时加强监管,才能有效地防范AI技术被滥用。

最后,加强国际合作,共同应对AI技术带来的全球性挑战也至关重要。AI技术的发展具有全球性,其潜在风险也可能波及全球。因此,各国需要加强信息共享,共同制定AI伦理规范,共同打击利用AI技术进行的违法犯罪活动。此次“清朗・整治AI技术滥用”专项行动,是监管部门在AI技术监管领域迈出的重要一步,为构建安全、健康、有序的网络空间奠定了坚实的基础。我们相信,在监管部门、企业、社会公众的共同努力下,AI技术一定能够为人类社会带来更多的福祉。