近年来,随着人工智能技术的飞速发展,AI应用已渗透到社会生活的方方面面。从智能助理到内容生成,AI产品极大地提升了人们的工作效率和生活便利。然而,伴随着这些技术的广泛应用,个人信息保护问题也日益凸显。2025年5月,国家网络与信息安全信息通报中心发布了针对应用宝平台的专项通告,指出包括“智谱清言”、“Kimi”等在内的35款移动应用存在违法违规收集和使用个人信息的情况,这一事件迅速引发社会对于个人隐私安全及AI应用规范的关注和讨论。

此次调查显示,这些应用普遍存在多种侵犯用户隐私的违规行为。首先,部分应用超越用户授权范围大量收集个人信息。例如,“智谱清言(版本2.9.6)”被检测出收集信息远超用户同意的范围,严重违背了个人信息收集的最小化原则。这意味着用户在使用时实际上并未完全知情,也未明确授权这一过度收集,给用户隐私带来了极大风险。其次,部分应用收集的信息与其业务功能无直接关联,典型代表“Kimi(版本2.0.8)”就是如此。它收集了大量与其核心服务完全无关的用户数据,这不仅增加了数据泄露的可能性,也为后续数据滥用埋下隐患。此外,通告中还指出,多个应用未以结构化、清晰的清单形式告知用户其个人信息收集和使用规则,使得用户难以明确知晓自身数据的去向和用途,从而削弱了用户对应用的信任感。值得注意的是,除AI应用外,多款剪辑软件如“爱剪辑”、“妙剪”等同样因类似问题被点名,反映出当前移动应用生态中普遍存在对个人隐私保护意识薄弱甚至存在不当操作的现象。

这类违规收集行为不仅触及法律红线,也带来了严重的社会影响。最直接的后果是用户隐私泄露风险被大大放大。过度和无关联的数据收集,一旦遭遇黑客攻击或数据非法买卖,将可能导致用户身份信息泄露、行为习惯被追踪,甚至引发经济财产安全问题。同时,这种行为还损害了用户对整个AI应用生态的信任基础。智能技术的发展需要依赖用户的信赖和支持,违规行为导致用户疑虑丛生,不利于行业的良性发展和创新动力的释放。更为严重的是,企业若触犯《中华人民共和国网络安全法》《个人信息保护法》等相关法规,不仅将面临罚款、应用下架甚至刑事责任,还会导致品牌形象及商业信誉受损,影响企业长远发展。

面对频繁曝光的个人信息违规现象,完善法律法规和提高企业自律成为行业发展的关键抓手。首先,监管部门需要强化对移动应用数据收集行为的监控,推动建立更高标准的技术规范及个人信息保护体系。同时,应督促各大平台和应用明确、透明地发布隐私协议及操作流程,让用户能够清晰了解个人数据的采集和使用情况。其次,AI应用开发企业应主动承担起合规责任,合理设计数据采集范围,确保所收集信息与业务功能紧密相关,避免过度索取。同时,应公开透明地告知用户数据使用情况,尊重用户的数据权利,营造健康合规的数据治理环境。最后,提升用户的隐私保护意识也不可忽视。广大消费者应掌握基本的个人信息保护知识,理性选择软件,谨慎授权应用权限,并关注相关违法违规信息通报,积极维护自身的隐私安全。

总体来看,随着AI技术的深入普及,个人信息保护问题日益凸显,成为企业和监管部门绕不开的话题。此次“智谱清言”、“Kimi”等35款应用的违规收集事件提醒我们,科技带来的便利绝不应以牺牲用户隐私为代价。只有在法律的规范下,结合技术手段和管理机制的协同作用,构建一个透明、公正且高效的个人信息保护体系,才能保障人工智能技术健康发展,让它真正成为促进社会进步的正能量,而非隐私泄露的潜在威胁。