人工智能的飞速发展如同双刃剑,在深刻改变我们生活的同时,也带来了前所未有的挑战。AI换脸、AI拟声等技术的日益成熟,虽然为娱乐、教育等领域带来了创新,但其滥用现象也如影随形,严重威胁着个人隐私、社会秩序和公共安全。面对这一复杂局面,监管部门正以前所未有的力度,试图在创新与安全之间找到平衡。2025年4月,中央网信办启动了为期三个月的“清朗・整治AI技术滥用”专项行动,并在近期公布了第一阶段的整治成果,这正是政府应对AI技术滥用风险,维护社会公共利益的重要举措。

这一专项行动并非横空出世,而是中央网信办持续开展“清朗”系列专项行动的自然延续。多年来,网信部门始终致力于打击网络上的各类乱象问题,对违规平台和账号进行严厉处置,形成了强大的震慑效应。可以预见,未来的“清朗”系列专项行动将继续聚焦网络生态治理,致力于维护一个健康、积极的网络空间。而此次针对AI技术的专项行动,无疑是监管部门对新兴技术风险的高度重视,以及维护社会公共利益决心的有力体现。

AI技术滥用乱象主要集中在三个核心方面,监管部门的整治行动也主要围绕这三点展开。首先,是AI换脸、AI拟声等技术侵犯公众权益的问题。利用AI技术制作的虚假信息,可能被恶意用于诽谤、欺诈、敲诈勒索等违法犯罪活动,从而给个人名誉和财产安全带来无法估量的损害。设想一下,如果有人利用AI换脸技术制造政治人物的不实言论,或者利用AI拟声技术冒充亲友进行诈骗,其后果将不堪设想。因此,对这类侵犯公众权益的AI技术滥用行为进行严厉打击,是维护社会稳定的重要一步。更进一步,我们还需要思考,如何从源头上预防此类事件的发生,例如加强对AI技术的开发者和使用者的监管,建立更加完善的法律法规体系。

其次,是AI生成内容标识缺失误导公众的问题。在信息爆炸的时代,人们越来越难以辨别信息的真伪。如果缺乏明确标识的AI生成内容混杂在真实信息中,就很容易让公众误以为真,从而做出错误的判断和决策。这不仅会影响个人的选择,甚至可能对社会舆论产生负面影响。例如,未经标识的AI生成的虚假新闻,可能会引发社会恐慌,扰乱市场秩序,甚至煽动社会矛盾。因此,推动AI生成内容标识的加速落地,让公众能够清晰地辨别AI生成内容和真实信息,是维护社会诚信和信息安全的重要保障。未来的技术发展方向,或许包括开发更加智能化的AI内容识别工具,以及建立更加完善的AI内容溯源体系。

第三,是对未进行大模型备案或者不合规的AI产品进行全面治理。大模型作为AI技术的核心组成部分,其安全性和合规性至关重要。如果大模型未经备案或者存在安全隐患,就可能被用于开发各种违规的AI产品和服务,从而给社会带来潜在的风险。因此,对未进行大模型备案或者不合规的AI产品进行全面治理,是规范AI服务提供者,确保其技术应用符合法律法规和伦理规范的关键举措。这需要监管部门建立更加完善的备案制度和监管机制,同时加强对AI技术研发和应用的伦理审查。

在专项行动的第一阶段,中央网信办部署各地网信部门加大违规AI产品处置力度,切断违规产品的营销引流渠道,督促重点网站平台健全技术安全保障措施,推动生成合成内容标识加速落地。各地网信办积极响应,采取了多种有效措施。北京市网信办建立了针对AI技术误用的举报途径,并构建了“用户身份识别、平台审核、联合处理”的工作流程,有效推动了用户参与。上海网信办则在加强训练语料管理方面做出了努力,提升AI内容的安全性。这些举措不仅体现了监管部门的决心,也为未来的监管工作提供了宝贵的经验。

截至目前,专项行动已取得显著成效。累计处置违规小程序、应用程序、智能体等AI产品3500余款,清理违法违规信息96万余条,并对3700多个违规账号进行了处理。微博、通义平台等重点网站平台也积极配合,清理了大量违规内容,并公布了典型案例。这些数据充分表明,专项行动在打击AI技术滥用方面取得了实实在在的进展。然而,我们也必须清醒地认识到,AI技术监管并非一蹴而就,随着技术的不断发展,新的滥用方式和风险也可能不断涌现。

面对AI技术的快速发展和潜在风险,未来的监管之路任重道远。我们需要持续加强监管力度,完善法律法规,提升技术防范能力,并加强国际合作,共同应对AI技术带来的挑战。同时,我们也需要引导AI技术的健康发展,鼓励其在各个领域发挥积极作用,为社会进步和经济发展做出贡献。监管部门将继续深化“清朗”系列专项行动,为构建清朗、健康、有序的网络空间而不懈努力。这不仅仅是监管部门的责任,也需要全社会共同参与,共同营造一个安全、可信、负责任的AI发展环境。