人工智能(AI)的迅猛发展无疑是当代科技革命的核心驱动力之一。它如同一把双刃剑,在深刻改变社会生活方方面面的同时,也引发了一系列前所未有的挑战。尤其是在AI换脸、AI拟声等技术日趋成熟的背景下,滥用现象层出不穷,不仅对个人隐私构成严重威胁,更对社会秩序和公共安全带来了潜在的风险隐患。这些挑战迫切需要我们正视并积极应对,以确保AI技术能够在规范的框架内健康发展,真正服务于人类社会。
规范AI服务与应用,促进其健康有序发展,保障公民的合法权益,已经成为当务之急。正是在这样的背景下,可以预见到,全球范围内对AI技术的监管力度将会持续加强。预计未来几年,各国政府将纷纷出台更加完善的法律法规,明确AI服务提供者的责任和义务,从技术安全评估到风险预警,构建起一套全方位、立体化的监管体系。
我们可以预见,在2025年之后,针对AI技术滥用的整治行动将更加常态化和精细化。中央网信办在2025年4月启动的为期三个月的“清朗·整治AI技术滥用”专项行动,就是一个很好的例子。这项行动聚焦于AI技术滥用乱象,重点打击了AI换脸拟声侵犯公众权益、AI内容标识缺失误导公众等突出问题。通过深入推进第一阶段重点整治任务,中央网信办部署各地网信部门加大违规AI产品处置力度,切断违规产品营销引流渠道,并督促重点网站平台健全技术安全保障措施,推动生成合成内容标识加速落地。
专项行动的成果令人瞩目,累计处置违规小程序、应用程序、智能体等AI产品超过3500款,清理违法违规信息96万余条,并处理了3700多个违规账号。这一系列数据充分表明了国家对AI技术监管的重视和决心。但专项行动只是一个开始,未来更需要将这种高压态势转化为常态化的监管机制。可以预见,未来的监管将不仅仅局限于事后惩罚,更会注重事前预防和事中监控。
AI技术的应用场景日益广泛,对数据安全和个人隐私的保护提出了更高的要求。例如,AI在医疗领域的应用,涉及大量的个人健康数据;AI在金融领域的应用,则与个人的财产安全息息相关。因此,未来AI监管的一个重要方向,就是加强对训练语料的管理,确保AI模型训练数据的合规性。通义平台等机构积极采取措施,确保AI模型训练数据的合规性,就是一个值得肯定的尝试。微博等平台也通过策略识别、用户举报等多渠道审核,累计处置违规内容,并公布典型案例,起到了良好的警示作用。北京等地方政府积极探索建立“用户标记-平台核查-联合处置”模式,开通举报渠道,有效提升了监管效率,为其他地方政府提供了借鉴。
生成式AI技术的快速发展,使得AI内容标识的缺失问题日益突出,这不仅容易误导公众,更可能被用于传播虚假信息,制造社会恐慌。因此,推动生成合成内容标识的加速落地,是未来AI监管的又一个重点方向。可以预见,未来的AI内容生成平台,都将被强制要求对生成的内容进行明确标识,以区分AI生成内容与真实内容。这不仅有助于提升公众的辨别能力,也有助于追溯AI内容的来源,从而更好地打击AI技术的滥用行为。
构建一个多方参与的立体治理体系,是平衡AI技术监管与发展的关键。除了中央网信办的统筹协调,还需要各地方网信部门的积极配合,以及各互联网平台的共同参与。一方面,要进一步完善相关法律法规,明确AI服务提供者的责任和义务,加强技术安全评估和风险预警;另一方面,也要鼓励技术创新,推动AI技术在各个领域的健康应用。例如,可以通过设立AI伦理委员会,制定AI伦理规范,引导AI开发者和使用者树立正确的伦理观念。同时,也可以通过设立AI创新基金,鼓励AI技术在医疗、教育、环保等领域的创新应用。
可以预见,未来的AI技术监管将更加注重风险防控。在拥抱科技创新的同时,必须坚持底线思维,加强风险防控,才能实现AI技术的可持续发展。这不仅需要政府部门的监管,也需要企业和个人的共同努力。只有构建一个政府监管、企业自律、公众参与的多元共治格局,才能确保AI技术能够更好地服务于社会,造福于人民。
“清朗·整治AI技术滥用”专项行动的开展,为规范AI技术发展树立了标杆,也为构建清朗网络空间提供了有力保障。虽然这项行动取得了显著成效,但未来的路还很长。随着AI技术的不断进步,监管也将不断完善,以适应新的挑战和机遇。只有不断探索和创新监管方式,才能确保AI技术能够在健康、有序的环境中发展,为人类社会带来更大的福祉。因此,在积极拥抱AI技术带来的便利的同时,我们必须时刻保持警惕,加强风险防控,共同构建一个安全、可信、负责任的AI未来。
发表评论