清华大学教授黄民烈:AIGC时代保障数据安全要靠算法而不是人

清华大学教授黄民烈:AIGC时代保障数据安全要靠算法而不是人
2024年04月27日 22:21 环球网

【环球时报-环球网报道 记者 倪浩】生成式人工智能(AIGC)时代实现数据安全,要依靠算法和工具,而不是人。在4月27日下午在“2024中关村论坛数据安全治理与发展论坛”上,清华大学计算机科学与技术系教授、人工智能研究院基础模型研究中心副主任黄民烈教授表示,与过去传统的数字经济时代不同,人工智能(AI)时代尤其是生成式人工智能(AIGC)的出现,让人类所面临的数据安全问题已有很大的不同,而进行风险管控的方法也有根本的不同。

清华大学计算机科学与技术系教授黄民烈在发言 (主办方供图)清华大学计算机科学与技术系教授黄民烈在发言 (主办方供图)

在这次论坛的圆桌会议上发言时,黄民烈表示,“过去,我们把一些不好的、脏的、有害的数据过滤掉,清洗干净就可以了。但是现在,生成式人工智能(AIGC)是一种生成式的模型,它会通过训练组合生成新的内容,这些新的内容在过去的语料里根本没有出现过,但它依然可能是有害的。所以,即使是我们把大模型训练之前的有害数据清除的很干净,在生成式人工智能(AIGC)时代我们依然会面临有害内容产生的风险。”

那么怎么应对生成式人工智能(AIGC)所带来的新的数据全安的风险呢?要靠算法的研究,而不是人。黄民烈说,一般情况下,在各种大模型中,人们采用关键词过滤,进行风险检测后上线,对外提供服务。但是,有些人依然有办法让它“越狱”,让这种安全管控失效,并产生有害的内容。为杜绝这种风险,就要依赖背后的算法的研究。

黄民烈说,“这些算法有几类,其中包括研究有针对性的对抗和攻击的方法,比如事先让一些算法自动发现这个模型的漏洞和风险;第二,可以研究算法去追踪模型存在哪些漏洞,再针对性的制定安全手段。这两种手段都是通过算法把一些问题在大模型上线前进行自动修复。

“一句话来讲,在生成式人工智能(AIGC)时代,在数据安全层面,其实我们面临的是不断组合和创造出来的新的数据安全风险问题,这种风险彻底的解决是需要我们的算法和工具的支撑,而不是靠人。”黄民烈说,靠一些静态的方法去做一些相对固定的检测,实际上是不能够胜任新的生成式人工智能(AIGC)时代的数据检测和安全的要求的。

海量资讯、精准解读,尽在新浪财经APP

VIP课程推荐

加载中...

APP专享直播

1/10

热门推荐

收起
新浪财经公众号
新浪财经公众号

24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)

股市直播

  • 图文直播间
  • 视频直播间

7X24小时

  • 04-29 瑞迪智驱 301596 25.92
  • 04-25 欧莱新材 688530 9.6
  • 04-01 宏鑫科技 301539 10.64
  • 03-29 灿芯股份 688691 19.86
  • 03-27 无锡鼎邦 872931 6.2
  • 新浪首页 语音播报 相关新闻 返回顶部