清华大学苏世民书院院长薛澜:发展人工智能一定要设“红线”

清华大学苏世民书院院长薛澜:发展人工智能一定要设“红线”
2024年04月29日 16:32 每日经济新闻

每经记者 周逸斐    每经编辑 陈星    

2024中关村论坛年会于4月25日至29日举行。《每日经济新闻》记者从现场获悉,本届年会以“创新:建设更加美好的世界”为主题,设置了论坛会议、技术交易、成果发布、前沿大赛、配套活动5大板块。

中关村论坛是中国面向全球科技创新交流合作的国家级平台,已成功举办14届。本届论坛设置了论坛会议、技术交易、成果发布、前沿大赛、配套活动5大板块,将举办近120场活动,100多个国家和地区、150余家外国政府部门和国际组织机构等受邀参会。

在26日举行的全球科技集群创新论坛上,清华大学苏世民书院院长薛澜发表了题为《国际科技创新中心评估——结果与启示》的主旨演讲。

人工智能发展迅速,也引起一部分人的担忧:若预防AI(人工智能)犯错的技术落后于AI自身的发展,很可能会出现失控局面。对此,薛澜回应《每日经济新闻》记者,发展人工智能的时候,一定要设“红线”。

薛澜接受采访 每经记者 周逸斐 摄薛澜接受采访 每经记者 周逸斐 摄

诸多业内人士也呼吁要给人工智能“装上刹车再上路”。薛澜表示,所谓“刹车”就是一套针对人工智能潜在风险的治理体系,它可以对滥用、恶用、误用人工智能等潜在风险进行合理规制。

他进一步解释,这套治理体系分多个层次。从国家层面来看,2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能治理的框架和行动指南。2021年,《新一代人工智能伦理规范》发布,旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。此外,国家还出台了个人信息保护法等法律。

在具体领域也有一些法规、措施出台。比如针对“骑手困在算法中”等问题,相关部门专门出台了关于算法的规定,保护劳动者、消费者的权益。2023年,中国还出台了全球首部专门规范生成式人工智能服务的立法。

另外,国家鼓励相关企业加强内部机制建设,保证企业技术应用符合前述法律法规。

薛澜认为,上述多层次、综合性措施可以保证人工智能“上路”是有“刹车”的。

记者注意到,一段时间以来,如何避免被人工智能取代的话题被反复提及。薛澜认为,目前更需要探讨的是怎样利用人工智能技术为人类服务?人类下一步发展更希望得到什么?哪些工作可能是人工智能无法替代的?思考后找到的方向就是人类需要掌握的技能。

“另一方面也需要开拓就业新领域。随着新技术的发展和物质文化生活的不断丰富,人类会产生更多的新需求,这些需求也许就是未来的就业新模式、新方向。”薛澜说。

海量资讯、精准解读,尽在新浪财经APP

VIP课程推荐

加载中...

APP专享直播

1/10

热门推荐

收起
新浪财经公众号
新浪财经公众号

24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)

股市直播

  • 图文直播间
  • 视频直播间

7X24小时

  • 04-29 瑞迪智驱 301596 25.92
  • 04-25 欧莱新材 688530 9.6
  • 04-01 宏鑫科技 301539 10.64
  • 03-29 灿芯股份 688691 19.86
  • 03-27 无锡鼎邦 872931 6.2
  • 新浪首页 语音播报 相关新闻 返回顶部