(资料图片仅供参考)

经济日报刊发评论文章称,大模型的高速发展和渗透带来生成式人工智能的广泛应用,形形色色的生成式人工智能插件在短短几个月内交互到了人类社会的生产生活中,引发新一轮智能化浪潮。正如数十年前计算机技术、互联网革命引领了技术与生产方式的历史性变革,生成式人工智能开始深刻地影响人们生活的方方面面。当我们使用生成式人工智能高效搜索、生成文本、提高工作效率,当我们感受训练聊天机器人的新鲜感,当我们在文本之上使用图像生成、音频视频生成,生成式人工智能的潜在风险也在不知不觉中逐渐渗透。  科技创新的二元性历来受到社会广泛关注,从互联网的数据隐私到智能机器人的道德伦理,再到生成式人工智能对于个人隐私的处理和引发潜在欺诈行为风险,如何规范应用值得我们深度思考。  用户会给生成式人工智能工具提供个人、公司或所属社会组织的非公开信息,模型获得了这些数据,便有可能在后续各类生成任务中泄露信息。过去担忧手机APP等软件在用户未察觉时对其隐私进行观察和调用,而在生成式人工智能应用场景中,亦存在隐私和信息泄露风险。例如,生成式人工智能可以被用来创建背景丰富、看似来源可靠的信息,进而诱导用户点击恶意链接或下载恶意软件;可以塑造丰富立体的社交媒体形象,甚至模仿某人的声音或外貌,引导造谣与诈骗;可以被训练为向特定用户推荐误导性内容,或在某些情况下加强他们已有的偏见,等等。  生成式人工智能可处理海量数据(603138),但也给知识产权保护、个人隐私保护、打击虚假信息等方面带来新挑战。积极推进人工智能治理,法治与社会教育是促进守正创新的两大抓手。  一方面,营造安全有序的法治环境,规范生成式人工智能服务。为减少虚假信息的传播,建议明确禁止或限制其在特定领域的使用。例如,批量化的虚拟形象创建和对话;为降低隐私泄露风险,建议规定生成式人工智能使用个人数据时需经用户同意,确保数据隐私得到保护,用户有权决定哪些数据可以被使用,以及生成的内容如何使用;为减少对社会公序良俗的破坏,建议严格限制仇恨言论、歧视性内容创建。可考量设立专门的机构负责技术审查和认证,评估生成式人工智能系统的安全性、可信度、伦理问题等。  同时,对于生成式人工智能系统出现问题时的法律责任和赔偿机制,可考虑进行系统设计,对开发者、运营商以及使用者的责任分配展开讨论。本质上,机器产生的任何行为都需要有主体负责,而生成式人工智能能否以及如何界定责任主体,是一个重要而紧迫的问题。自动驾驶的技术发展、商业应用和社会问题,为我们作出了可参考的探索。  另一方面,加强对公众的教育与培训也至关重要。技术的风险不仅来源于自身,也来自于不当使用。如何让公众更好地理解技术、更明智地利用技术,进一步完善科技伦理体系,都需要强有力的社会教育作为支撑。要加强对公众进行教育和培训,强调伦理和法律约束,以提高对这些潜在风险的认识;要增强用户对伦理和法律问题重要性的认识,特别是在生成内容时,明白不应该滥用工具;要鼓励公众充分了解生成式人工智能的逻辑和可解释性、推断和生成过程,鼓励选择更透明和可解释的模型,以便更好理解生成内容的来源和原理,不轻信在看似严肃的行文和环境中插入的各类信息和煽动性观点;要提醒用户保护个人隐私和数据安全,不分享敏感信息尤其是机密信息;政府、行业、企业等相关各方应加强风险研判,有效防控人工智能的科技伦理风险,进一步加强行业自律,不断推动科技向善、造福人类。

推荐内容