Gartner:到 2027年,4成AI数据泄露将源于跨境AI滥用
CBISMB
责任编辑:张金祥
ISMB
时间:2025-02-18 11:06
Gartner 数据泄漏 AI
根据Gartner公司的最新预测,到2027年,超过40%的与人工智能相关的数据泄露将因跨境不当使用生成式人工智能(GenAI)而造成。如今,终端用户对GenAI技术的迅速采用已经超过了数据治理和安全措施的发展速度,这引发了对数据本地化的广泛担忧。
Gartner副总裁分析师Joerg Fritsch指出,当前监管的不足造成了意外的跨境数据传输频繁发生,尤其是在GenAI被集成进现有产品中时,往往没有明确的描述或公告。“组织发现员工使用GenAI工具生成的内容发生变化。虽然这些工具可以用于经过批准的业务应用程序,但如果将敏感提示发送至托管在未知位置的AI工具和API,就会带来安全风险。”他警告道。
跨境数据流动的监管挑战
Gartner的报告还强调,全球人工智能标准化的差距导致运营效率低下。缺乏一致的全球最佳实践和人工智能与数据治理标准使得市场面临分化的挑战,迫使企业制定针对特定地区的战略,而这可能限制它们在全球范围内扩大业务规模并从人工智能产品和服务中获益的能力。
Fritsch提到:“由于人工智能政策的本地化,管理数据流和维护质量的复杂性可能导致运营效率降低。组织必须对先进的人工智能治理和安全进行投资,以保护敏感数据并确保合规性。这种需求可能推动AI安全、治理和合规服务市场的增长,同时增强AI流程的透明度和控制力。”
企业应采取积极措施应对数据泄露风险
Gartner建议,企业在人工智能治理成为全球使命之前,应采取以下战略行动以减轻AI数据泄露的风险,特别是在跨境GenAI的使用方面:
加强数据治理:企业必须扩展数据治理框架,纳入人工智能数据处理的指导方针,确保遵守国际法规,并监控意外的跨境数据传输。这一过程需要在常规隐私影响评估中纳入数据追溯和数据传输影响评估。
建立治理委员会:组建专门委员会以加强对人工智能系统的监督,确保人工智能部署和数据处理的透明沟通。这些委员会需负责技术监督、风险与合规管理,以及沟通和决策的报告。
加强数据安全:企业应使用先进技术如加密和匿名化来保护敏感数据。例如,在特定地理区域内部验证可信执行环境,并在数据必须离开这些区域时应用差异隐私等先进匿名化技术。
投资TRiSM产品:企业需规划并分配针对人工智能技术的信任、风险和安全管理(TRiSM)产品与功能的预算。Gartner预测,到2026年,应用AI TRiSM控制的企业将至少减少50%的不准确或非法信息,从而降低错误决策发生的风险。
结语
随着全球对人工智能和自动化技术的发展,企业必须积极应对潜在的安全风险和合规挑战。Gartner的研究为企业提供了一系列切实可行的措施,从而帮助它们在快速变化的AI领域中保持竞争优势并确保数据安全。