伴随人工智能产业发展而来的刑事合规风险,有因人工智能企业内部员工“内鬼”造成计算机信息系统安全风险,也有因生成式人工智能数据投喂造成的个人信息泄露、知识产权风险,更有甚者利用AI产品当作犯罪工具
《法治周末》记者 孟伟
在当今科技浪潮的推动下,人工智能产业的市场规模持续扩大,为社会带来了前所未有的变革和机遇,越来越多的企业纷纷投入大量资源进行研发,推动了技术的不断创新和突破。然而,伴随其蓬勃发展,一系列合规风险也逐渐浮出水面,值得我们高度关注。
前不久,在“2024全球数字经济大会”人工智能产业发展与知识产权保护专题论坛上,北京市人民检察院副检察长祁治国发布了《关于人工智能产业发展刑事合规风险提示》(以下简称《风险提示》)。这些问题的产生有因人工智能企业内部员工“内鬼”造成计算机信息系统安全风险,也有因生成式人工智能数据投喂造成的个人信息泄露、知识产权风险,更有甚者利用AI产品当作犯罪工具。
海量训练数据面临隐私保护、著作权保护风险
生成式人工智能模型想要达到理想的训练效果,一般需要海量的训练素材作为支撑,这些素材除了公共信息外,可能涉及公民个人信息或受到版权保护的作品数据。在AI训练阶段使用数据的合法性就可能存在风险。
此次发布的《风险提示》中,祁治国就提到一则相关事例。某科技公司数据分析师为改进公司用于身份识别相关的人工智能模型算法时,非法购买含有姓名、住址、联系方式等公民个人信息。祁治国表示,该案涉及公民个人信息保护风险。
这类风险在生成式人工智能领域中早已存在。
2023年6月,OpenAI(美国人工智能研究公司)就曾遭到一批匿名人士起诉,称OpenAI从互联网上窃取了3000亿个单词,它们来自“书籍、文章、网站和帖子——包括未经同意获得的个人信息”。同年12月,美国报业巨头《纽约时报》向OpenAI及其投资人微软公司提起侵犯版权诉讼,指控这两家机构未经许可就采集该报数百万篇文章以训练人工智能。
中国政法大学数据法治研究院教授、联合国高级别人工智能咨询机构中方专家张凌寒在接受《法治周末》记者采访时表示,一些公司和个人对隐私保护的法律法规不够重视,或者对相关法律规定不够了解,导致违法行为的发生,“人工智能模型尤其是身份识别相关的模型需要大量的高质量数据进行训练和优化。为了提高模型的准确性和实用性,开发者往往需要多样化和大量的个人信息数据。合法途径获取大量高质量的个人信息数据成本高、难度大。例如,数据的合法获取需要满足隐私保护法规的要求,可能需要获得数据主体的同意,还需要支付相应的费用。数据分析师和相关开发人员可能受到业绩压力和商业利益的驱动,选择铤而走险非法获取数据,以快速改进模型性能”。
北京航空航天大学法学院教授裴炜告诉记者,“训练人工智能需要海量的数据进行投喂,人工智能企业获得外部数据一般需要通过合作协议、授权等方式正规获取,但更多可能是通过一些权属不明,甚至是违法的方式去获取数据”。
裴炜称:“随便将个人信息拿去做模型训练可能会对公民个人信息产生一定的侵犯,如果数量比较大也会落入刑法的相应的保护范围之内。”
北京盈科(上海)律师事务所数智化建设委员会副主任李锐告诉记者:“为保障生成式人工智能服务的安全,我国发布了《生成式人工智能服务安全基本要求》,其中对语料的来源、内容、标注等方面进行规定,确保语料不包含违法不良信息,且在使用包含个人信息的语料时需获得对应个人的同意。”
张凌寒建议:“公司和员工应加强对相关法律法规的学习,增强法律意识,确保数据处理的合法合规性。建立合规机制。公司应建立完善的合规机制和数据处理流程,确保数据收集、使用、存储等环节符合法律要求。严格审查数据来源,确保数据的合法性,不从非法渠道获取数据。采用匿名化、去标识化等技术手段,在确保数据可用性的同时保护个人隐私。定期开展员工培训,增强员工的隐私保护意识和合规操作能力。”
不法分子利用AI实施犯罪的风险
随着人工智能技术的不断突破,AI换脸、AI语音学习技术已经逐步成熟,甚至用一部手机花几分钟时间就可以实现。便捷的技术也使得一些不法分子动起了歪脑筋。
此次《风险提示》中就包含一起不法分子利用社交软件收受他人非法提供的、承载人脸信息的不特定女性的照片,再通过深度伪造技术、AI软件,将不特定女性的照片制作成淫秽物品贩卖牟利。
2023年5月24日,中国互联网协会发文提示“AI换脸”新骗局,利用“AI换脸”“AI换声”等虚假音视频,进行诈骗、诽谤的违法行为屡见不鲜。
2023年8月,浙江省杭州市萧山区人民检察院诉虞某某个人信息保护民事公益诉讼案(以下简称虞某某案)中,被告通过互联网学习掌握“AI换脸”软件使用方法后,于2021年至2022年8月间,利用“AI换脸”软件,将从互联网等渠道收集到的被不特定人脸信息与部分淫秽视频中的主体人脸信息进行替换合成,制作生成的伪造视频、图片,并创建了多个社交群组发布大量淫秽视频、图片。甚至还提供换脸视频定制服务,根据客户提供的他人面部视频或照片素材及要求,制作换脸视频,从中收取出售费、服务费等6万余元,侵害不特定人群的个人信息权益。
张凌寒介绍:“AI根据真人照片制作淫秽物品属于深度伪造。深度伪造是一种能够将人的面部表情和声音与另一个人的图像和声音结合起来,从而创造出虚假的视频或音频的人工智能技术。深度伪造风险必然随着人工智能技术的发展而出现,人工智能技术越先进,生成物越接近用户的设想。人工智能模型降低了文字、图像、声音、视频等的形成和传播门槛,很容易被用作诈骗、诬陷造谣、制作淫秽物品等违法犯罪活动。”
华南理工大学法学院副教授叶竹盛表示,“伪造不特定女性的淫秽物品进行传播,对不特定女性的名誉、人格尊严以虚构事实的方式进行贬损,甚至可能涉及侮辱罪或者网络寻衅滋事罪”。
叶竹盛指出:“对于既可以服务于合法的目的,也有可能会被滥用实施违法犯罪的行为的人工智能模型、产品,开发企业应当识别,监测和禁止用于违法犯罪目的的行为。如果企业没有尽到合规义务的话,相应所产生的违法犯罪的责任与后果,企业就有可能要承担共犯的责任,或者刑事责任。”
裴炜坦言:“人工智能极有可能会被犯罪分子利用成为犯罪工具,在法律层面应该明确合理使用的范围,避免人工智能的滥用。”同时,她还提出,人工智能也有可能被当作新的犯罪目标,被投喂污染的数据,对人工智能技术产出进行干扰,使它的技术可靠性存疑影响到后续的应用。对此类情况,法律应有相应的保护,对攻击人工智能的行为予以制裁。
张凌寒强调:“人工智能企业不仅需要履行网络信息安全义务,对其所开发应用生成内容的合法合规性负责,还需对其在提供业务过程中发现的违法内容及时采取措施切断传播,并向有关主管部门报告。因此,在现有的技术水平之下,服务提供者应当尽最大可能预见到生成式人工智能可能引发的危害结果,并采取相应的反制措施,阻止危害结果的发生。”
李锐表示,为避免人工智能产品被不法分子利用后被追究刑事责任,开发此类产品的人工智能企业要对自己进行先行保护,“除了加强审核外,还要进行算法备案或大模型备案。《互联网信息服务深度合成管理规定》中有明确要求算法备案,要提交敏感词屏蔽清单,如果后期发现有他人利用该产品进行涉黄等行为,企业可以以此减轻部分风险”。
“内鬼”给企业造成风险
人工智能企业员工的行为,也会给企业带来数据安全问题。
《风险提示》发布了这样一起案例:某人工智能企业服务运维管理人员利用企业服务器算力资源优势和工作便利,在未经授权的情况下,在100多台服务器上安装“挖矿”程序,通过占用、消耗服务器算力资源获取比特币等虚拟货币,严重影响企业正常经营。
张凌寒告诉记者,“这种利用‘挖矿’行为会消耗大量计算资源,使系统、软件、应用服务运行缓慢,个人电脑或服务器一旦被‘挖矿’程序控制,则会造成数据泄露或感染病毒,容易引发网络安全问题”。
《风险提示》中还有一起涉及商业秘密和著作权的保护事例:某数据科技公司员工离职后,未经公司许可擅自在与原公司有竞争的新公司使用原公司人工智能芯片软件,在对软件升级改造后用于经营。
记者了解到,2023年年底,上海警方侦破了一起侵犯芯片技术商业秘密案。2021年2月,某科技公司原高管张某、刘某等人为牟取非法利益,在离职后设立某某科技公司。随后,上述张某、刘某以支付高薪、股权利诱等方式,诱导多名原权利公司研发人员跳槽至其公司,并指使这些人员在离职前通过摘抄、截屏等方式非法获取某公司芯片技术信息。这些芯片技术信息随后被抄袭、运用于张某公司设计的同类型芯片上,嫌疑人和涉案公司企图以此非法牟利。经鉴定,侵权芯片技术有40个技术点、权利公司商业秘密的密点之间具有90%以上同一性,构成实质性相同。
2023年4月19日,张某、刘某等4名主要犯罪嫌疑人已因涉嫌侵犯商业秘密罪被警方依法执行逮捕,其余10名犯罪嫌疑人已被依法取保候审。
叶竹盛表示:“在实践中此类行为经常发生,但侵犯商业秘密罪在办理过程中有较大的举证难度,此类案件的办案量并不大。”
裴炜将这种行为称为“内鬼”,这些涉及内部员工违规、违法使用人工智能企业涉及知识产权、个人信息方面的资产所产生的违法行为还是比较普遍的。在此类情况中,企业的权益受到了不当侵害,也是受害方。
从企业防范内部工作人员实施违法犯罪行为的角度来看,裴炜建议:“企业要建立内部保护机制。在以往的司法案例中,此类情况需要企业论证自己的人工智能技术是否受到商业秘密的保护,并采取了有效的保密措施,因此进行有效的内部管控尤为重要。”