给开源AI投喂敏感数据后…
创始人
2026-01-09 00:02:36

当前,AI大模型赋能千行百业,这位能干又贴心的“数字伙伴”正加速融入我们的日常生活。当AI的触角延伸越广、嵌入越深,一些风险也随之而来。来看国家安全部近日披露的案例。

国家安全部近日披露案例,个别单位因直接使用开源框架建立联网大模型,导致攻击者未经授权即可自由访问内部网络,从而引发数据泄露和安全风险。

案例显示,某单位工作人员在处理内部文件时,违规使用开源AI工具,由于电脑系统默认开启公网访问且未设密码,导致敏感资料被境外IP非法访问和下载。

何为“开源大模型”?有哪些安全隐患?

刚才提到的开源框架大模型指的是什么?存在哪些安全隐患?我们来听专家的解读。

中国网络空间安全协会人工智能安全治理专业委员会委员 王媛媛:开源大模型是指将模型的架构、参数、训练数据公开给客户免费使用的人工智能模型,目前互联网上开放的开源大模型是非常多的,有的擅长推理,有的擅长编写代码,有的擅长处理文本,还有的擅长处理影像等等。比如说给它一个体检报告,可以帮助我分析我的身体有什么样的异常,应该如何进行调整,会给我一些非常专业的建议。

专家表示,网民在使用AI工具时,往往忽略了一个问题,就是AI工具有储存数据的功能。网民投喂给AI的任何文件、图片等数据,AI都会进行存储。

中国网络空间安全协会人工智能安全治理专业委员会委员 王媛媛:数据安全其实是开源大模型最大的隐患,这很可能会被大家忽略。那么上传到开源大模型的任何数据,大模型自身都会进行存储,这是它的工作原理,因为只有这样才能对数据做分析。如果把公司内部比较机密的一些数据上传到开源大模型,实际上这些数据已经面临泄露的风险。

网民将敏感数据投喂给AI工具后,这些被AI存储的数据是如何泄露的呢?

首先这些数据对AI工具的开发者是完全开放的,开发者可以利用权限看到这些数据。另外,目前AI工具很多都是开源的,黑客也会利用大模型本身漏洞攻击入侵大模型后台,获得数据。

保护数据安全

切勿给AI工具投喂敏感数据

AI工具具有数据存储功能,因此专家提醒,在日常使用中,切勿给AI工具投喂敏感数据。

中国网络空间安全协会人工智能安全治理专业委员会委员 王媛媛:一方面在日常作为普通的网民,在正常使用互联网开源大模型的时候,要注意不要将个人的敏感信息、隐私信息上传到开源大模型中。

另外企业在使用开源大模型的时候,在训练自己的数据的时候,要注意一定要做到私有化部署的方式,也就是将所有的数据都保存在本地,这样就不会把一些内部的数据上传到互联网上了。但是这样的私有化部署的方式,相应地也要投入一些基础设施和专业的团队来进行维护。

来源 | 央视新闻客户端

编辑 | 王婧宇

校对 | 胡佳

审核 | 宋柏

相关内容

热门资讯

谷歌Gemini和苹果的顶级华... 新智元报道 编辑:艾伦 【新智元导读】谷歌 Gemini 数据联合负责人 Andrew Dai 联...
山东北电电气取得可调节变压器整... 国家知识产权局信息显示,山东北电电气有限公司取得一项名为“一种可调节的变压器整流器”的专利,授权公告...
雷军发话了,还会坚持辟谣,让更... 作者:龚进辉 最近,小米掌门人雷军、小米董事长特别助理徐洁云均在新年首场直播中回应了“200km/h...
凡人善举|敬业奉献何小虎:在非... 一个普通人的努力,能给国家和社会带来多大的贡献和影响? 1986年底出生的何小虎,用15年时间不仅从...
中国银行:以A轮融资为起点,配... 文:韦亚军 摄影:Bob “计划”将以A轮融资为起点……解决一批“卡脖子”难题。 近日,中国银行发...