人工智能技术的迅猛发展,如同一把双刃剑,在为社会进步带来前所未有的机遇的同时,也引发了一系列伦理、法律和社会问题。近年来,AI换脸、AI拟声等技术的日渐成熟并被广泛应用,使得滥用现象日益突出,对公众权益和网络环境造成了严重的潜在威胁。这些威胁不仅包括个人名誉权、隐私权的侵犯,还延伸到网络秩序的扰乱以及公众对信息信任度的降低。面对这一复杂局面,如何规范AI服务与应用,促进行业健康有序发展,保障公民合法权益,成为摆在我们面前的重要课题。

2025年4月,中央网信办启动了为期三个月的“清朗·整治AI技术滥用”专项行动,正是应对这一挑战的重要举措。该行动聚焦于AI技术滥用所引发的乱象,特别是AI换脸拟声侵犯公众权益、AI内容标识缺失误导公众等问题。这些问题的普遍性,深刻揭示了技术发展与社会责任之间的鸿沟。例如,未经授权的AI换脸Deepfake视频可能被用于制作虚假色情内容,严重侵害个人尊严;而AI拟声技术则可能被用于诈骗,模仿声音骗取钱财,给民众带来巨大经济损失。与此同时,部分AI生成的内容缺乏明确的标识,使得受众难以辨别真伪,进一步加剧了信息时代的信任危机。

专项行动的成果是令人鼓舞的。各地网信部门积极响应,加大了对违规AI产品的处置力度,切断违规产品的营销引流渠道,并督促重点网站平台健全技术安全保障措施,加速生成合成内容标识的落地。截至目前,已累计处置违规小程序、应用程序、智能体等AI产品3500余款,清理违法违规信息96万余条,并处理了3700多个违规账号。这些数字背后,是无数执法人员的辛勤付出,也是对侵权行为的有力震慑。例如,北京网信办开通了AI技术滥用治理举报渠道,建立了“用户标记-平台核查-联合处置”的工作模式,有效处理了26起举报案件。这一模式的建立,充分体现了政府部门与民众之间的良性互动,也为快速响应和解决问题提供了有效的机制。上海等地也积极行动,采取了诸如约谈相关企业,开展技术自查等措施,共同为规范AI技术的应用贡献力量。

更重要的是,此次专项行动不仅关注事后惩处,更强调源头治理的重要性。第一阶段的重点工作是强化AI技术源头治理,清理整治违规AI应用程序,加强AI生成合成技术和内容标识管理。这意味着监管的重心从对已发生问题的处理,转向对技术开发的规范和引导。通过从根本上规范AI技术的开发和应用,防止滥用现象的再次发生,才能真正解决问题。各地网信部门也在积极探索新的监管模式,例如建立健全AI生成合成内容审核机制,提升技术检测能力,做好整改落实工作。例如,要求AI服务提供商必须对模型进行安全评估,确保其不会被用于非法目的;同时,还要建立完善的用户协议,明确用户使用AI技术的责任和义务。这些措施的推行,有助于构建更加安全、可靠的AI生态。

然而,我们也要清醒地认识到,监管AI技术的发展并非一蹴而就,而是一项长期而艰巨的任务。如何在监管与创新之间取得平衡,是我们需要不断思考和探索的问题。“清朗·整治AI技术滥用”专项行动并非一味地限制AI技术的发展,而是旨在规范其应用,促进行业的健康有序发展。中央网信办明确强调,要平衡AI技术监管与发展,既要防范风险,又要鼓励创新。通过加强监管,可以引导AI技术朝着更加健康、积极的方向发展,更好地服务于社会和人民。为了鼓励创新,政府可以设立专项基金,支持AI领域的研发,特别是那些能够提升安全性、可靠性的关键技术。同时,还可以通过举办比赛、论坛等活动,促进学术界和产业界之间的交流与合作,激发创新活力。

总体而言,“清朗·整治AI技术滥用”专项行动的开展,体现了国家对网络安全的重视和对公民权益的保护。在AI技术快速发展的背景下,加强监管,规范应用,是维护网络清朗空间,构建和谐网络环境的重要举措。未来,随着AI技术的不断进步,监管部门需要不断完善监管机制,加强技术研发,提升监管能力,以应对新的挑战,确保AI技术能够安全、可靠地服务于社会发展和人民生活。此次专项行动的成功,为后续的AI技术监管工作提供了宝贵的经验和借鉴,也为构建更加健康、有序的网络环境奠定了坚实的基础。我们需要继续加强国际合作,共同应对AI技术带来的全球性挑战,努力构建一个更加安全、负责任、可持续的AI未来。