人工智能(AI)技术如同双刃剑,在推动社会进步的同时,也带来了前所未有的挑战。其飞速发展及广泛应用,固然极大地便利了社会生产和生活,提高了效率,创造了新的可能性,但也伴随着AI技术滥用问题的日益凸显。这些滥用行为对公众权益和社会秩序构成了潜在的威胁,引发了社会各界的广泛关注。因此,如何有效规范AI服务和应用,促进行业健康有序发展,保障公民合法权益,成为了摆在我们面前的重要课题。

面对AI技术发展过程中出现的乱象,监管势在必行。在2025年4月,中央网信办启动了为期三个月的“清朗·整治AI技术滥用”专项行动,正是对此种必然趋势的积极响应。诸如AI换脸、AI拟声等技术,在娱乐和创新领域展现出巨大潜力,但同时也被不法分子所觊觎,成为了实施诈骗、诽谤、侵犯隐私等违法犯罪活动的工具。想象一下,利用AI换脸技术伪造他人视频,进行敲诈勒索,对受害者的经济和精神造成双重打击;利用AI拟声技术模仿亲友声音,进行电信诈骗,让人防不胜防。这些行为不仅给受害者造成经济损失,更会对其名誉和精神造成严重伤害,破坏社会信任。而一些AI产品缺乏明确的内容标识,更是加剧了公众难以辨别真伪的困境,容易受到误导,甚至被卷入虚假信息传播的漩涡。例如,深度伪造的新闻事件如果被广泛传播,可能引发社会恐慌,甚至影响国家安全。

专项行动的重点正是聚焦于这些AI技术滥用中的突出问题,并采取了一系列强有力的措施。首先,行动重点关注了AI换脸、拟声等技术对公众权益的侵犯。通过技术手段和人工审核相结合的方式,严厉打击利用这些技术进行违法犯罪的行为,切实保护公民的个人信息安全和名誉权。一方面,加强对相关平台的监管,要求其建立完善的审核机制,对上传的内容进行严格审查,防止违法违规内容的传播。另一方面,鼓励技术创新,研发更加精准的鉴别技术,能够快速识别AI生成的内容,提高打击效率。其次,行动强调了AI内容标识的重要性。督促AI产品开发者和运营者,在产品中明确标注AI生成内容的标识,让用户能够清晰地识别,避免被误导。例如,要求所有AI生成的图片、视频、音频等内容,都必须添加“AI生成”的水印或标签,以便用户区分。同时,加强对相关标准的制定和推广,确保所有AI产品都能够符合统一的标识规范。第三,行动部署各地网信部门加大违规AI产品处置力度,切断违规产品营销引流渠道,从源头上遏制AI技术滥用的蔓延。这包括对违规的应用程序、小程序、智能体等AI产品进行下架处理,对违法违规信息进行清理,并对相关账号进行封禁。同时,加强对相关企业的监管,要求其承担起社会责任,加强对AI技术的管理和控制。

在专项行动的第一阶段中,中央网信办联合各地网信部门,对违规的AI产品展开了严厉打击,取得了显著成效。数据显示,累计处置违规小程序、应用程序及智能体等AI产品超过3500款,清理违法违规信息96万余条,并对3700多个相关账号进行了处置。这一系列数据的背后,体现了中央网信办对AI技术滥用问题的严肃态度和坚决治理决心。但更值得注意的是,此次行动不仅仅是对现有违规产品的处理,更重要的是通过健全技术安全保障措施,推动AI行业建立起一套完善的监管体系,从根本上防范AI技术滥用风险。这包括加强对AI算法的监管,防止其被用于歧视或操控用户;加强对AI数据的保护,防止其被滥用或泄露;加强对AI伦理的审查,确保其发展符合社会伦理道德规范。

“清朗·整治AI技术滥用”专项行动的开展,也引发了对AI技术监管的更深层次思考。AI技术的发展日新月异,监管手段也需要不断创新和完善。一方面,要加强对AI技术研发和应用的伦理审查,确保AI技术的发展符合社会伦理道德规范。这需要建立一个由伦理专家、技术专家、法律专家和社会公众组成的伦理审查委员会,对AI技术的研发和应用进行全面的评估,确保其符合伦理原则。另一方面,要建立健全AI技术监管法律法规,明确AI技术开发者的责任和义务,为AI技术的健康发展提供法律保障。这包括制定AI技术安全法、AI技术伦理法等法律法规,明确AI技术的研发、应用、监管等方面的法律责任,为AI技术的健康发展提供法律依据。此外,还应加强对公众的AI技术普及教育,提高公众对AI技术风险的防范意识,共同营造一个安全、健康、有序的AI发展环境。

“清朗·整治AI技术滥用”专项行动的开展,是中央网信办积极履行监管职责、维护网络空间清朗的重要举措。通过此次行动,不仅有效遏制了AI技术滥用乱象,也为AI技术的健康发展奠定了坚实的基础。未来,随着AI技术的不断进步,监管工作也将面临新的挑战。只有不断完善监管机制,加强行业自律,才能确保AI技术真正服务于人民,造福社会。此次行动的成功经验,也为其他领域的网络治理提供了有益的借鉴,值得进一步推广和应用。更重要的是,我们需要认识到,AI监管是一个持续的过程,需要政府、企业、社会公众共同参与,形成合力,才能真正实现AI技术的健康可持续发展。