生成式人工智能(以下简称AIGC,Artificial Intelligence Generated Content)作为人工智能领域的重要分支,在文本生成、图像设计、音乐创作等领域都取得了突破进展,国内大模型项目的数量呈井喷式增长的态势,引发了各行各业的广泛关注。技术的迅猛发展,也伴随着安全和挑战。

10月18日,由北京市科学技术协会指导,北京软件和信息服务业协会主办,北京人工智能产业联盟人工智能安全专委会协办的2023年首都学术资源开放共享沙龙“生成式人工智能应用及安全”专场活动于中关村知识产权大厦成功举办。活动邀请了人工智能领域的专家学者、产业和技术大咖分享其在AIGC研究和实践中的经验,探讨AIGC应用的安全与合规、发展与治理、知识产权保护等话题,助力AIGC行业的健康与规范发展。活动由北京软件和信息服务业协会首席研究员仓剑主持。

北京软件和信息服务业协会首席研究员仓剑

嘉宾演讲

今年以来,围绕AIGC的竞赛愈加激烈,国内科技企业争相进入了大模型赛道,据悉,北京市已有百余款大模型产品,占全国总量的一半左右。自8月15日起,《生成式人工智能服务管理暂行办法》(以下简称“《暂行办法》”)施行,对生成式人工智能进行专项监管。8月底,北京首批五个大型模型备案,并陆续向公众提供服务。《暂行办法》对于AIGC的提供者和使用者的影响和作用是什么?在主旨演讲环节,中国信通院产业与规划所主任工程师王强对其重点内容进行了分享,他表示,促进AIGC健康发展和规范应用,是《生成式人工智能服务管理暂行办法》的核心主旨,为此,《办法》通过“划定合规底线”、“采取有效措施鼓励发展”、“采取更精细化监管举措”这三个层面推进落实。

中国信通院产业与规划所主任工程师 王强

AIGC飞速发展,与此同时,虚假信息、学术伦理等安全合规的问题也引发了关注和热议,中国政法大学教授、博士生导师、中国政法大学互联网金融法律研究院院长李爱君以法学的视角围绕“生成式人工智能安全合规”的主题进行了发言。她表示,生成式人工智能的安全合规的核心是数据安全合规和生成内容的合规。AIGC的发展过程中应充分发挥《数据二十条》中的原则和指导思想进而促进AIGC的健康发展。

中国政法大学教授、博士生导师、 中国政法大学互联网金融法律研究院院长 李爱君

伴随着大模型演进发展,AIGC内容的合规性要求也越发清晰,百度安全副总经理冯景辉围绕大模型在训练,部署,推理和运营的全生命周期内遇到的安全挑战,分别从数据清洗,敏感数据保护、业务风险控制和内容合规等多个角度介绍目前主要的风险类型,并贴合《生成式人工智能服务管理暂行办法》及“生成式人工智能上线备案要求”等合规性规范,阐述了百度在构建大模型安全防线的最佳实践。

百度安全副总经理 冯景辉

分享交流

在分享交流环节,北京师范大学新闻传播学院副教授刘茜、北京邮电大学计算机学院副教授张成文、国家工业信息安全发展研究中心人工智能所工程师王淼、中国科学院自动化研究所研究员赵晓光、华为战略研究院AI治理产业发展首席专家柳嘉琪、腾讯安全内容安全总经理王翔、智谱AI安全负责人王笑尘、中科闻歌副总经理王璋盛、智源研究院数据智能研究中心赵波博士等十余位专家、学者、企业代表畅所欲言,碰撞思维的火花。围绕AIGC在快速发展和不同场景应用落地的过程中所面临的安全风险问题和应对措施进行了深入的交流和热烈的讨论。

活动尾声

当前,AIGC的迅猛发展持续为各行各业带来新变化,并不断催生着新产业、新业态和新商业模式,培育了经济发展的新动能。北京是我国人工智能行业发展的开拓先驱和创新高地,北京软件与信息服务业协会基于数字驱动创新的发展模式,秉承“提供价值服务 促进产业发展”的宗旨,将为产、学、研、用各方搭建交流、场景开放、需求对接台,以推动人工智能产业的深度融合发展。

免责声明:市场有风险,选择需谨慎!此文仅供参考,不作买卖依据。

推荐内容