企业采购AI服务时,法务应当看什么?
出版物 | März 2023
2022年11月,OpenAI推出了基于GPT-3.5架构的大型语言模型(“LLM”)的聊天机器人ChatGPT1,激发了各行业对于人工智能(“AI”)领域前沿技术的兴趣。ChatGPT展现出强大的对于人类自然语言的理解能力和生成能力。同时它所具备的通用性(即不局限于解决特定场景的任务)和对话式互动模式等特征,使它获得了前所未有的广泛关注。
在ChatGPT横空出世之前,市场上已经有一些基于LLM且主要针对特定用户群的垂类应用。例如,专注于文案生成的Jasper AI2极大地赋能营销人员的内容创作能力。
未来人类社会是否会在更广泛的维度上使用通用型AI从而根本上改变专用型AI的市场环境尚未可知。但我们预期,在中长期的时间内各垂直领域将会涌现大量架构于LLM之上的AI工具和应用程序3。目前常见的使用案例包括聊天机器人、搜索引擎、概括总结、内容创作(如代码、电子邮件和文档)和语言翻译4(“拟定范围”)。
围绕AI技术的开发、商业化和部署过程,不同的市场参与者会面临不同面向的法律问题。我们计划在系列文章中探讨一些常见法律问题,帮助读者聚焦核心要点。作为本系列的第一篇,本文尝试提供一份简要的路线图,梳理企业在向第三方AI产品服务提供商(“AI服务商”)采购与拟定范围相关的产品与服务以赋能员工提高工作效率时,企业内部法律顾问(“内部法务”)应关注的核心法律议题。
中国的法律框架
中国在AI技术研发和扩散方面拥有自己独特的监管体系。任何在中国境内运营的AI服务商都应遵守现行法律规定。
AI相关的法律框架包括治理数据与网络空间的一般法(包括但不限于《网络安全法》5,《数据安全法》6,《个人信息保护法》7和《互联网信息服务管理办法》8),以及针对AI领域的特别法(包括但不限于针对《互联网信息服务算法推荐管理规定》9和《互联网信息服务深度合成管理规定》10)。
由于当前的AI技术并未明确落入中国加入世界贸易组织时的承诺11中,因此我们预计境外管理和运营但以跨境方式交付给中国用户的AI服务将面临监管挑战12。“防火墙”的存在也使技术上实现跨境交付的方案充满不确定性。13此外,数据跨境传输(特别是数据出境)相关法律问题将进一步降低跨境交付模式的可行性。就本地化的交付模式而言,我们已经看到本土科技巨头和初创公司正在竞相推出自己的AI产品与服务14。
服务商资质
当企业进行供应商尽职调查时,AI服务商是否依法展业是需要考察的关键问题之一。取决于具体服务的性质与特征,AI服务商可能落入法定许可制度的管辖范畴。
如果AI服务涵盖《电信业务分类目录》15中列明的业务或功能类型(比如信息搜索查询服务和信息即时交互服务等),那么AI服务商须取得主管通信管理部门颁发的增值电信业务经营许可证(如ICP证)。《互联网信息服务深度合成管理规定》还特别规定:深度合成服务提供者和技术支持者从事网络出版服务、网络文化活动和网络视听节目服务的,应当同时符合新闻出版、文化和旅游、广播电视主管部门的规定。
内部法务也应考虑AI服务商是否已经建立并实施了全面稳固的安全系统,以保护信息技术系统基础设施和运行其上的模型/数据的安全。该等评估将考察《网络安全法》的相关规定和要求(如网络安全等级保护制度)、适用的国家标准16及行业标准17/最佳实践的遵守情况。
合同问题
越来越多的企业在生产工作场景中使用基于云的软件服务(“SaaS”),相关的法律问题对内部法务而言可能并不陌生。我们预计AI服务的交付方式将与SaaS基本保持一致。具体而言,B2B的AI工具将以云端订阅的方式提供给企业。对于有特殊需求的企业,本地许可证授权模式仍是可行的选择。内部法务需要仔细审查许可条款,以确保服务提供方/许可方与服务接收方/被许可方之间的权利义务得到合理分配。
另一方面,B2C的AI服务将依然通过“点击接受”许可条款的方式对个人订阅者开放。
数据保护
根据适用的中国法律,AI服务商收集、产生的数据很可能需要存储在中国境内,因此本文暂不考虑数据跨境传输的问题。内部法务应注意整个工作流程中涉及的潜在数据问题。
如果提供给 AI 工具(作为提示(prompt))的数据可能包含个人信息,则需要考虑供应商是否具有完备合规的隐私政策来收集、传输、处理和存储这些数据。对于数据主体的授权范围,内部法务需要澄清被收集的个人信息是否将被AI服务商用于模型/算法的预训练(pre-train)或微调(fine-tune)。如果存在这样的情况,则必须获得数据主体的(明示)同意或进行数据漂白(匿名化处理)。
此外,业务团队和内部法务都应考虑与企业业务相关(可能构成商业秘密的)信息是否可能会被提供给 AI 工具并上载到云端,以及如何应对相应风险(例如商业秘密的泄露、篡改和丢失)。
数据治理的监管框架正在快速发展,实时跟进法律环境的变化显得尤为重要。18
网络安全
使用云端AI服务时,了解恶意软件攻击和数据泄露的风险非常重要。除了采取上述对AI服务商进行安全评估的措施之外,缓释该等风险的其他常见方法包括加强访问安全性(例如实施强密码和启用多因素身份验证),监控可疑账户活动以及定期更新软件和系统(使用升级的安全补丁解决已知漏洞)。
知识产权
与生成式AI技术相关的另外一个热门话题是,AI工具生成的或辅助生成的内容是否受知识产权保护。这对于从事、经营内容创作的企业(例如营销广告公司)尤其相关。
要回答中国法项下知识产权是否产生、存续以及谁是权利人等问题,应回归具体事实进行具体分析。 AI工具在没有或者几乎没有人为干预的情况下自动生成文字内容,以及AI工具仅对用户的文字创作进行语言润色或语法修正,前述两种情况将对《著作权法》项下的讨论产生不同的影响。
另外需要内部法务考虑的问题是著作权或商标侵权的风险。由于底层LLM在预训练或者AI工具在微调过程中使用的训练数据通常是从互联网上“爬取”而来,语料库来源、数据抓取规则往往对用户不透明,因此很难排除企业利用AI生成的内容存在侵犯第三方著作权或商标权的风险。19
不同的应用开发企业调用API20接入同一个LLM以及不同的用户使用同一款AI工具,前述情况的存在使得用户的输入(其中可能包含用户自己或者企业的知识产权)存在被底层模型提供商、AI应用开发企业或者其他终端用户滥用的风险。
偏见和歧视
偏见和歧视是围绕AI技术的常见伦理问题。21举个例子,如果企业使用AI工具来筛选员工候选人,则该工具可能会根据其从历史数据中习得的知识做出排除特定人群的决定,背后的原因可能是该历史数据本身存在偏见或歧视22。就业歧视被《就业促进法》23明文禁止,因此直接依赖AI工具做出的决定可能会导致企业承担法律责任。
机器学习中的所谓“黑盒”问题使人类难以理解和监控算法中的决策过程24。研究人员正在研发可解释的AI技术,以增加算法决策机制的透明度25。此外,AI服务商和企业用户可以考虑采取特定约束措施,使生成的内容更安全。该等系统设计通常包括26:
- 保持人为监督(human in the loop);
- 限制最终用户访问权限;
- 输出后处理;
- 内容过滤;
- 输入/输出长度限制;
- 主题限制;
- 话题限制。
对于为技术限制所缚的企业用户,另外一个降低风险的实用方法是确保AI服务商制定并实施了AI工具开发使用的伦理准则、原则及管理制度27。这些准则和制度应同时符合企业用户自身所奉行的道德价值观。
不公平竞争
底层大模型可能会因为对算力资源的巨大投入而被极少数市场玩家垄断。而某些企业经营者反过来也可能利用AI模型的强大能力从事损害竞争对手商业利益的行为,获得不公平的竞争优势。因此,反不正当竞争和反垄断的法律框架对AI技术的开发和部署也将高度相关。
一方面,AI服务商本身可能会在某些情况下受到监管审查。例如,从事图片生成的AI服务商从竞争对手的数据池中抓取图片数据以训练、优化自己的算法,从而导致竞争对手的市场份额减少。这种数据抓取行为可能被视为违反《反不正当竞争法》28。
另一方面,取决于AI工具在工作流程中的角色,使用相关服务的企业用户也可能会面临来自监管机构或竞争对手的挑战。比如企业用户使用AI服务商的工具生成了涉嫌不公平竞争的内容,并将该等内容直接融入针对下游客户的产品和服务中。
另外,“黑盒”问题的存在,为监控AI工具生成的内容并确保其符合监管要求的任务(如不生成或传播有关竞争对手的虚假或误导性信息29)带来挑战。这也使在某些情况下确定AI工具用户是否存在“恶意”要件30进而判断其是否实施了不公平竞争的行为变得更加复杂。
刘永和亦对本文有贡献。