近年来,人工智能(AI)技术的迅猛发展犹如一把双刃剑,在深刻改变我们生活方式的同时,也伴随着一系列前所未有的挑战。AI换脸、AI拟声等技术的日趋成熟,无疑为创意表达和信息传播带来了新的可能性,然而,其潜在的滥用风险也日益凸显,对个人隐私、社会秩序乃至公共安全构成了潜在威胁。在AI技术被恶意利用的案例频频发生,甚至造成严重社会影响的背景下,如何规范AI服务与应用,促进行业健康有序发展,保障公民合法权益,成为了摆在我们面前的紧迫课题。
面对AI技术滥用带来的诸多问题,监管势在必行,且需构建多维度、立体化的监管体系。2025年4月,中央网信办启动了为期三个月的“清朗·整治AI技术滥用”专项行动,这无疑是对此问题的一次积极回应,也体现了国家层面对AI技术发展的高度重视和对公民权益的坚决维护。这次专项行动并非头痛医头、脚痛医脚的短期行为,而是着眼于AI治理的全局和长远,力求在规范AI技术发展的同时,促进其健康有序发展。
专项行动的重点之一是整治AI换脸、AI拟声等技术侵犯公众权益的乱象,以及AI内容标识缺失误导公众的问题。这些问题直接关系到公民的个人隐私和社会公众的知情权,也是当前AI技术滥用最为突出的表现形式。专项行动并非孤立进行,而是部署各地网信部门加大对违规AI产品的处置力度,切断违规产品营销引流渠道,并督促重点网站平台健全技术安全保障措施。这种自上而下的全面治理模式,确保了整治行动的有效性和覆盖面,体现了政府部门在应对新技术风险时的决心和力度。
专项行动初期成果已经显现。截至目前,已累计处置违规小程序、应用程序、智能体等AI产品超过3500余款,清理违法违规信息高达96万余条,并对3700多个违规账号进行了处理。这些数据直观地反映了专项行动的成效,也表明了AI技术滥用问题在现实中存在的普遍性和严重性。更为重要的是,这些举措不仅直接打击了违规行为,也对潜在的违法者起到了震慑作用,有效遏制了AI技术滥用乱象的蔓延。各地网信部门也积极探索新的治理模式,例如,北京市网信办积极探索“用户标记-平台核查-联合处置”的工作流程,开通了AI技术误用的举报渠道,有效推动了用户参与,使广大网民成为监督者和参与者。这种模式充分发挥了社会力量,构建了多元参与的治理格局。上海网信办也积极行动,京东平台新增了100个AI特征敏感词,有效拦截了违规内容。微博平台通过策略识别和用户举报等多种渠道,累计处置违规内容4800余条,并公布了典型案例,起到了警示作用。通义平台也在加强训练语料管理方面做出了积极努力,进一步体现了各平台积极响应,并做出改变。
要实现对AI技术的有效治理,仅仅依靠事后监管是远远不够的,更需要注重源头治理和长效机制的建立。中央网信办要求加强AI生成合成技术和内容标识管理,推动网站平台健全技术安全保障措施,这正是对AI技术发展方向的引导和规范。AI生成内容标识的强制执行,有助于提高公众对AI生成内容的识别能力,避免被虚假信息误导。同时,加强对AI技术的源头管理,可以有效降低AI技术被滥用的风险。此外,建立用户身份识别、平台审核、联合处理等工作流程,也为后续的常态化监管奠定了基础。这些措施的实施,将有助于构建一个更加安全、可信的AI生态环境。
专项行动的成功经验,也为其他领域的网络治理提供了有益的借鉴。在享受AI技术带来的便利的同时,我们必须警惕其潜在的风险,并积极参与到规范AI发展的行动中来。未来,随着AI技术的不断进步,相关监管也将不断完善,以确保AI技术始终服务于人类,而不是成为侵犯个人权益、扰乱社会秩序的工具。通过构建政府监管、行业自律、社会参与相结合的治理体系,我们才能更好地应对AI技术带来的挑战,让AI技术真正造福于社会,为人类文明的进步做出贡献。我们需要建立健全的法律法规体系,明确AI技术的应用边界,规范AI企业的行为,保障用户的合法权益。同时,要加强对AI技术的伦理研究,引导AI技术朝着符合人类价值观的方向发展。更要加强对公众的教育,提高公众对AI技术的认知水平,增强公众的风险意识,共同营造一个健康、理性的AI发展环境。只有这样,我们才能真正把握AI技术带来的机遇,化解其潜在的风险,让AI技术成为推动社会进步的强大动力。
发表评论