财联社3月4日讯(记者 付静)国产大模型DeepSeek横空出世惊艳业界,当前人工智能技术日新月异,但社会上借助人工智能作恶的现象也层出不穷。

今年全国两会,人工智能再成热点话题,财联社记者梳理采访获悉,截至发稿已有近十位代表、委员将打击AIGC虚假新闻、完善AI视频传播管理机制、防止AI欺诈与侵权在内的诸多AI安全思考写进两会建议,对人工智能如何平衡技术创新与安全风险这一重要课题给出解法。

AI频遭利用 虚假信息传播引担忧

财联社记者前期采访获悉,近期一系列虚假信息借由AI问答或AI内容生成大面积传播,别有用心者试图以此制造社会话题。有害信息“穿”上AI的外衣,其传播随之更隐蔽、更“可信”、也更具破坏性,不仅误导公众、扰乱舆论,甚至或将引发使用者对AI大模型技术本身的安全担忧。

多位委员、代表围绕这一现象发声,例如:全国政协委员、四川大学华西医院教授甘华田拟提出加强对AI生成虚假信息治理的建议;全国政协委员、新疆新的社会阶层人士联谊会副会长海尼扎提·托呼提拟提交“关于加强AI生成不实信息治理”等提案。

此前的2025上海两会期间,上海市人大代表、合合信息(688615.SH)董事会秘书刘忱也提出建议:多方联合,共同协作打击AIGC虚假新闻;鼓励企业研发AI防御与鉴伪技术;构建伦理训练与数据集体系;用科技强化知识产权保护法律“武器”。

据财联社记者观察,虚假信息传播乱象频发,形式已不仅限于文字。

“AI技术降低了视频合成和制作的门槛,使得虚假内容的生成变得容易。网络上出现的各类AI生成视频中,有些是模仿明星或专家的形象和声音进行传播,有些则是虚构人设,用于推销产品,误导消费者购买不必要的商品,造成财产损失,甚至产生信任危机。还有些视频通过流量变现的形式去获利,加剧乱象。”全国人大代表、美的集团(000333. SZ)副总裁兼首席财务官钟铮告诉财联社记者。

她认为,现在生成式人工智能在法律法规体系上仍不完善,特别是在界定AI生成内容的版权归属,以及侵权责任认定、隐私保护标准方面存在空白。此外,目前对于生成式人工智能视频的审核,技术条件有限,还需要继续完善技术手段。

此次钟铮计划提出《关于完善生成式人工智能视频传播管理机制的建议》:一是修订《著作权法》等相关法律法规,加强原创版权和隐私保护。二是平台方应加强对AI生成视频的审核和监督,确保内容的真实性。对于AI生成的视频,应强制标注警示性提示,提醒消费者注意辨别。三是利用AI技术审核AI合成的视频内容,同时投入更多资源开发高效的AI审核工具,并结合人工审核,通过双重校验提高识别准确率。四是加强行业自律与政府监管,对违法违规行为进行严厉惩治,督促行业健康发展。

AI欺诈与侵权问题何解?

今年全国两会期间,防止AI深度伪造欺诈亦受到关注。

全国人大代表,TCL创始人、董事长李东生带来的《关于加强AI深度伪造欺诈管理的建议》提到,随着生成式人工智能技术的发展,深度伪造技术也快速发展。要规范对于这一新兴技术的不当利用,有必要要求深度合成服务提供商对人工智能生成的内容进行强制标识,减少恶意滥用,并有助于厘清责任、对违法犯罪行为追责。近年来,我国相关立法虽有关注这一议题,但已出台的规章制度尚不成体系,还不具备可操作的细则和明确的处罚标准。

“近期,中国也参加了法国等61个国家在巴黎的人工智能行动峰会,我们也签署了《巴黎人工智能宣言》,这是全球AI治理的一个重要尝试,也标志着全球AI治理迈入新阶段。考虑到技术创新和相关监管需要,可适度推后对未履行标识义务的AI深度合成服务商的惩罚制度,可提前明确相应处罚措施,有利于相关企业尽早做好合规的准备。”李东生在接受财联社记者采访时表示。

李东生建议:第一,加快人工智能深度合成内容标识管理规章制度的出台。第二,明确对人工智能深度合成服务商未履行标识义务的惩罚制度。完善对深度合成内容服务提供商未按要求进行标识的行为界定、分类细则,以及相应的处罚标准。第三,加强深度合成内容标识技术标准和发布的管理。出台深度合成内容标识的技术标准,保证标识的有效性;此外,对相关内容平台出台要求,用户在发布深度合成的视频、音频等内容时,有义务对其进行标识。第四,加强国际合作,形成人工智能生成合成内容的有效监管。

全国人大代表、小米集团董事长兼CEO雷军也提出建议:加强“AI换脸拟声”违法侵权重灾区治理。

“‘AI换脸拟声’不当滥用造成了违法侵权行为的重灾区,易引发侵犯肖像权、侵犯公民个人信息以及诈骗等犯罪行为,甚至造成难以挽回的大规模形象和声誉损害,带来社会治理等风险。AI深度合成技术所需素材获取便利、技术使用门槛低、侵权主体及其手段隐蔽性强等特点,给治理带来较大挑战。”雷军称。

雷军认为,首先应加快单行法立法进程,在安全与发展并重的基础上提升立法位阶;其次,强化行业自律共治,压实平台企业等各方的责任和义务;最后,加大普法宣传的广度力度,增强民众的警惕性和鉴别力。

大模型仍面临诸多安全挑战

去年两会,“人工智能+”被写入政府工作报告,一度成为科技行业热词。多家通信、计算机企业曾在接受财联社记者采访时表示,人工智能成为新生产工具,系新质生产力的重要驱动因素之一。过去一年国内人工智能产业的快速发展有目共睹,特别是国产大模型DeepSeek横空出世,在世界范围内备受关注,不过,随着人工智能技术的深度应用,大模型所面临的、所带来的安全挑战也日益严峻。

“Deepseek一问世,针对性的高强度网络攻击就爆发了,给人工智能行业敲响了坚守安全底线的警钟。我们发现,现在越来越多的企业、个人开始搭建DeepSeek大模型私有化部署,而将近90%的服务器都没有采取安全措施,服务运行和数据安全岌岌可危。”第十四届全国政协委员、全国工商联副主席、奇安信(688561.SH)集团董事长齐向东在接受财联社记者采访时如是表示。

今年两会前夕,全国政协委员、360集团创始人周鸿祎亦在接受记者采访时谈及了上述问题。他认为,对DeepSeek来讲,AI安全问题至少分四个层面,即基座模型、用户端安全问题、知识库引发的数据安全问题、“以模制模”问题。

齐向东告诉记者,人工智能发展面临的安全问题大致可分三类:大模型自身安全问题、利用人工智能开展网络攻击的问题、通过攻击人工智能引发的“网络攻击大爆炸”。

聚焦大模型自身安全问题,齐向东分析,“开发风险、数据风险、应用风险和基础环境风险这四大安全风险比较突出。开发方面,开源大模型要重点防范代码缺陷和预留后门等问题;应用方面要防‘内鬼’对训练数据投毒,进行模型篡改、配置篡改;数据方面,要小心内部配置错误和弱口令等造成的数据库暴露;基础环境方面要重点关注云、API、传统设备漏洞等等。目前,已有团队发现DeepSeek存在严重漏洞,并可借此获取后端隐私数据、API 密钥、操作元数据,尽管漏洞很快被修补,但是根据我们的经验,新漏洞会不断被挖掘出来。”

周鸿祎则表示,为保障大模型技术健康发展,需从大模型安全、网络安全和数据安全三个方向发力。

针对前述大模型安全问题,齐向东告诉记者,要从技术保障、制度保障、成果应用三方面入手,包括建立适配大模型的纵深防御体系,筑牢人工智能的安全根基;制定大模型安全强制合规要求,夯实人工智能安全发展的制度保障;推广“AI+安全”创新成果落地,走好提升安全能力的必经之路。

(财联社记者王碧微、陆婷婷对本文亦有贡献)