随着人工智能技术的迅猛发展,生成式AI如ChatGPT、Google Gemini等大模型正在深刻地改变我们的世界。然而,在技术进步的光环下,数据安全问题日益凸显,成为制约人工智能健康发展的关键因素。从企业内部的知识产权保护,到用户个人信息的安全,再到AI模型自身的安全,数据泄露的风险无处不在。正因为如此,构建一个安全可靠的数据保护体系,已成为当前科技领域乃至整个社会亟待解决的重大课题。

在企业层面,特别是那些走在AI技术前沿的巨头,如OpenAI,已经率先行动起来,采取了一系列积极措施应对日益严峻的数据安全挑战。OpenAI 近期推出了一系列安全升级,以应对企业间谍活动风险,保护其核心技术和商业机密。其中,“信息隔离”政策是核心措施之一,这反映了OpenAI对于核心技术安全的极度重视。这项政策的具体实施体现了对不同部门员工访问权限的严格限制。例如,在备受瞩目的o1模型的开发过程中,只有经过严格筛选和验证的团队成员,才被允许在共享办公空间内讨论该模型。这种精细化的管理,有效降低了敏感信息泄露的风险,确保了技术细节的安全性。除了内部管理,OpenAI 还积极通过外部激励来增强安全性。为了鼓励安全研究人员发现并报告潜在的安全漏洞,OpenAI 显著提高了漏洞赏金计划的奖励金额,最高可达10万美元。这不仅吸引了全球范围内的安全专家参与到漏洞挖掘中,也形成了一种积极的安全文化,促进了持续的安全改进。此外,OpenAI还积极构建众包治理体系,公开征求公众对于如何确保其未来人工智能模型“符合人类价值观”的意见和建议。这一举措彰显了 OpenAI 对人工智能伦理和可靠性的高度关注,也体现了其在构建安全体系时兼顾社会责任的决心。OpenAI 的这些举措并非孤立的,而是从基础架构、保护措施、敏感数据存储、开发人员访问管理等多个维度构建了一个全面的安全体系,力求在各个环节实现安全防护。

然而,数据安全问题并非仅仅是技术层面的挑战,制度和法律的完善同样至关重要。人工智能模型训练需要海量数据,这些数据来源广泛,其中可能包括受版权保护的材料。如果未经授权获取或处理这些数据,就会面临著作权侵权的风险。例如,美国《纽约时报》就曾起诉OpenAI、StabilityAI、Meta、Alphabet等生成式人工智能研发企业,指控其未经授权使用了受版权保护的材料。为了应对这些法律风险,各国政府正在积极制定相关法律法规,为数据安全提供法律保障。中国在这方面也采取了积极的行动,相继出台了《网络安全法》、《个人信息保护法》和《数据安全法》,以及《数据出境安全评估办法》等一系列法律法规,构建了相对完善的数据安全法律框架。这些法律法规为数据安全提供了明确的规范和保护,为企业和个人在使用人工智能技术时提供了法律依据。除了法律法规,网络安全审查也成为保障数据安全的重要手段。通过对关键信息基础设施和数据处理活动进行审查,可以有效防范潜在的安全风险,确保数据安全得到充分保障。这些审查机制能够及时发现并纠正安全漏洞,提升整体的网络安全水平。

随着技术的不断发展,安全领域的创新也在加速。奇安信等国内安全厂商发布了AI安全整体应对方案,并推出了安全机器人等产品,旨在保护人工智能自身与应用安全,以及人工智能赋能安全。华为则侧重于数据基础设施内生安全能力的打造,通过存储系统原生的防护措施,如勒索侦测,确保AI数据来源的可靠性。这说明,安全厂商正在积极研发各种技术手段,以应对AI时代的特殊安全挑战。一些研究人员也在探索新型人工智能存储技术,通过将安全功能融入到AI存储系统中,实现对数据的保护,避免将敏感信息暴露在外部网络中。Azure OpenAI in Foundry模型则提供了安全的企业就绪生成式AI解决方案,集成了AI代理,并确保了访问和微调模型的安全性。与此同时,AI大模型能力不断提升,新的安全挑战也随之而来,比如“双重越狱”等。这些新出现的风险促使安全研究人员不断探索和创新,以保持对安全威胁的动态响应。为了应对这些新的挑战,需要持续投入研发,不断提升安全防护能力。网络安全保障能力需要加强,数据安全保护能力需要强化,密码应用保障体系需要健全,新技术新业态安全保护(云安全、算法安全、模型安全等)同样不可或缺。运营商也在积极重构网络安全防线,将AI纳入企业安全反制招数,构建更加完善的安全体系。国际合作也至关重要。共同应对AI安全挑战需要加强国际合作,分享经验,协同防御,确保AI技术的健康发展,为人类社会带来福祉。

保障人工智能的安全是一项长期而复杂的工作。OpenAI 的经验表明,需要持续的投入和努力,需要在技术、制度、法律等多个层面协同推进,才能有效应对日益复杂的安全威胁。只有这样,我们才能确保人工智能技术在安全可控的框架下发展,真正发挥其巨大的潜力,为人类社会带来福祉。