2025年,人工智能的浪潮席卷全球,它以前所未有的速度渗透到各个领域,深刻地改变着我们的生活方式。然而,硬币总有两面。AI技术在带来巨大便利的同时,也伴随着滥用风险,对社会秩序、公共安全和个人权益构成潜在威胁。特别是在内容生成和信息传播领域,AI换脸、AI拟声等技术的滥用,不仅侵犯个人隐私和名誉权,更可能被用于制造虚假信息、进行网络诈骗,甚至煽动社会对立,对社会稳定造成不良影响。面对这一挑战,中国政府以前瞻性的思维和果断的行动,加强了对AI技术的监管,力图在发展与安全之间找到平衡点,确保AI技术能够更好地服务于社会发展和人民福祉。
网络空间并非法外之地,技术的进步更不能成为逃避监管的理由。为了规范AI应用,维护网络空间清朗,中央网络信息办公室(网信办)于2025年4月发起并深入推进了“清朗・整治AI技术滥用”专项行动。这项行动并非一时之举,而是国家加强网络治理、规范新兴技术应用的重要组成部分。其核心在于,既要鼓励AI技术的创新发展,也要坚决遏制AI技术的滥用,确保技术进步与社会和谐同步。
监管决心与显著成效
专项行动伊始,便展现了强大的决心和力度。各方数据显示,第一阶段累计处置违规小程序、应用程序、智能体等AI产品超过3500款,清理违法违规信息高达96万余条,并对超过3700个违规账号进行了处理。这些数字清晰地表明了国家对AI技术滥用问题的高度重视和强硬的监管决心。行动重点整治了诸如AI换脸拟声侵权、内容标识误导等突出问题,这些问题不仅侵犯了个人隐私和名誉权,也容易造成社会恐慌和信任危机。例如,利用AI技术制作的虚假信息可能被用于诽谤、欺诈,甚至煽动社会对立,对社会稳定造成不良影响。这些数字不仅仅是简单的统计,更是监管力度和决心最直接的体现。
多元参与与协同共治
AI治理并非政府的单打独斗,而是需要政府、企业、社会各方共同参与、协同共治。各地网信部门积极配合中央网信办的部署,采取多措并举的方式,加强AI技术监管。例如,北京开通了举报渠道,建立了“用户标记-平台核查-联合处置”模式,处理了多起举报案件。上海等地也积极开展相关工作,确保AI技术的健康发展。这些地方举措,不仅体现了地方政府对中央政策的积极响应,也展现了地方政府在结合自身实际情况,灵活高效地推进AI治理方面的能力。更为重要的是,它构建了一个全社会参与的监管网络,让违规行为无处遁形。
平台责任与源头治理
专项行动也强调了平台企业的责任。微博等平台通过策略识别、用户举报等多渠道审核,累计处置违规内容4800余条,并公布典型案例,起到了警示作用。通义平台等AI模型训练平台也在加强训练语料管理,从源头上减少AI生成内容的违规风险。平台企业在AI技术监管中扮演着重要的角色,需要承担起相应的社会责任,建立健全的内容审核机制,确保AI技术的应用符合法律法规和伦理规范。平台作为AI技术应用的重要载体,其责任不仅仅在于事后处理违规内容,更在于事前预防,从源头上减少违规内容的产生。通过加强训练语料管理、优化算法策略,平台可以有效地降低AI生成内容的违规风险,为用户提供更加安全、可靠的服务。
值得注意的是,此次专项行动并非一蹴而就,而是一个持续的过程。中央网信办表示,下一步将继续深入推进专项行动,加强对AI技术滥用乱象的整治力度,不断完善监管机制,为AI技术的健康发展营造良好的网络环境。随着AI技术的不断发展,监管也将不断创新,以适应新的形势和挑战。例如,可以探索利用AI技术本身来辅助监管,提高监管效率和准确性。同时,也需要加强对公众的AI素养教育,提高公众对AI技术风险的认知和防范能力。只有持续的监管和规范,才能确保AI技术始终朝着正确的方向发展,更好地服务于社会。
展望未来,中国的AI治理将更加精细化、智能化。政府将继续加强监管力度,完善法律法规,为AI技术的健康发展提供坚实的制度保障。企业将承担更大的社会责任,建立健全的内容审核机制,从源头上减少AI生成内容的违规风险。社会各界将共同参与AI治理,形成合力,共同应对AI技术带来的挑战。通过持续的努力,我们有理由相信,AI技术将更好地服务于社会,为人民带来更多的福祉,为构建人类命运共同体贡献力量。
发表评论