中国互联网络信息中心近日发布了《生成式人工智能应用发展报告(2025)》。报告显示,我国生成式人工智能产品用户规模已达5.15亿。报告还指出,随着生成式人工智能的快速普及,换脸变声、侵犯版权、学术滥用等问题日益突出。这些问题在实践中如何体现?如何管理和应对这些挑战?
利用AI改变人脸、声音生成虚假广告的案例频发
生成式人工智能的多模态能力可以让用户轻松改变视频中人物的面孔和声音,甚至直接生成完全虚构的视频,给犯罪分子以可乘之机。最近,出现了很多AI通过基因改变面孔和声音的案例。对虚假广告进行评分。比如,有的假冒奥运冠军推荐免费鸡蛋,有的则冒充医生形象推销保健品,严重误导公众。
这个变声变脸AI深度合成是怎么做到的?如何识别这些假视频?
业内人士告诉记者,随着AI变声、换脸越来越成熟,已经足以以假乱真。判断视频或声音是否深度合成的最佳方法是使用人工智能进行识别。也就是用AI来识别AI。
人工智能大模型研究员 潘吉明:从技术角度来说,最快的方式就是基于AI进行识别,比如专门的Deepfake识别模型,用来分析视频和音频中的非自然特征,比如检测眨眼频率、面部肌肉运动的生理一致性率、音频和纯唇形同步率、光源恒定等温和物理现象。身体虐待。
专长:主要管理在于内容识别系统的全面实施
近两年,明星视频被AI深度合成,面孔、声音一一变现。对此,专家表示,主要管理在于全面推行内容标签制度。
北京航空航天大学法学院副教授赵景武:我国从2025年9月起正式实施《人工智能生成合成内容标注办法》,明确要求所有人工智能生成的文本、图像、视频等内容必须明确标注“其身份清晰”,同时鼓励数字水印等隐性标签。平台企业必须按照《人工智能生成的合成内容标注办法》从源头嵌入识别机制,不附对生成的内容添加不可篡改的数字水印,并保证这些标签在编辑和压缩后仍然可以被准确识别。
专家表示,人工智能深度合成用户在通过人工智能制作视频时,应该有侵权的法律界限,并应以合法合法的方式使用人工智能深度合成。
北京航空航天大学法学院副教授 赵景武:在明确合法性边界方面,要严格区分换脸技术的合法适用和非法滥用。合法应用通常包括影视制作、教育教学、医疗康复等具有合法价值的场景。这些应用程序必须遵循法律规定的最低必要原则,确保使用范围与目的相对应,并获得相应的权限。正确的。滥用 滥用主要表现在未经授权使用传播虚假信息,制作淫秽色情内容。
AI大模型训练引发版权问题。冲突如何解决?
我们来看看人工智能带来的版权侵权问题。去年年初,一万多名文学界、音乐界人士发表联合声明,谴责“未经授权使用创意作品训练生成人工智能”。大型人工智能模型使用的数据为何会引发版权纠纷,如何解决?我们来听听专家是怎么说的。
AI业内人士告诉记者,目前大规模人工智能模型训练的数据大部分来自互联网,而这些数据中就包含了版权相关的数据。
人工智能大模型研究员 潘继明:现有的大模型都是基于海量数据训练的。来源包括互联网数据,以及书籍、论文、行业数据等。经过数据预处理、无支持学习、正则化、强化学习后,可以用于内容生成。然而,该模型没有版权意识。除非现有数据上有明确的版权标记,否则不知道哪些内容涉及版权,哪些内容不能随便生成。现在,无论是否有版权,大模型通常都会进行数据提取。
对于人工智能大型模型涉及的版权问题,专家表示,人工智能的发展不能以牺牲版权为代价,两者的和谐共存必须建立在尊重知识产权的基础上。
北京航空航天大学法学院副教授赵景武表示,人工智能开发者和运营者需要建立完善的版权合规机制,包括:
训练数据采集阶段进行版权检查,优先考虑obta获得许可并使用开放许可的资源;在模型训练过程中维护数据源记录;
在内容生成过程中嵌入反抄袭检测;
输出阶段需要添加版权标志和水印。
另一方面,主管部门需要拓宽训练数据的供给渠道,解决训练数据不足与版权之间的矛盾。
学生和研究人员滥用AI写论文、抄作业引关注
除了刚才提到的问题之外,报告还提到,学生和研究人员使用生成式人工智能来撰写论文和抄作业也正在引起社会各界的关注。
专家表示,随着人工智能发展在学术研究中的广泛应用,学术诚信体系面临前所未有的挑战。事实证明,简单的禁令无效且难以执行ce. “堵不如留”的管理理念正在成为全球学术界的共识。主要是要认识到人工智能技术对于提高科研效率的积极价值,同时通过规范引导确保其应用不损害学术诚信。
北京航空航天大学法学院副教授赵景武:在教学活动中,教师应设置专门环节,正确引导学生使用人工智能工具,纠正此类工具从“偷懒”、“省事”的错误定位,转向“提高学习效率”、“辅助科研”的正确定位功能,明确辅助定位“和”的特征。同时,教师还需要设计能够评估学生思维过程的评估方法,减少对纯文本输入的依赖,增加过程评估的比例。
校园风采
>校区风采 换脸变声、侵犯版权……如何应对Generative AI的滥用?
2025-10-23
