商业秘密法在AI领域的应用亟须重新界定边界,以缓解技术创新与公共利益之间的张力,其中严禁使用保密信息训练GenAI等公共AI工具已成为基本前提。
近年来,美国专利商标局、美国版权局发布了一系列指南或研究报告,明确限制人工智能(AI)辅助创新的专利和版权保护。例如,美国专利商标局要求人类对AI输出可能形成的发明做出“显著贡献”方能获得专利保护;美国版权局则指出,当AI技术决定其输出的表达性元素时,生成的材料不受版权保护。这使得商业秘密法成为企业保护AI相关创新的重要工具,因为它既不要求发明人或作者身份,也无需政府批准或注册。
商业秘密法凭借其高度包容性和广泛适用范围,为AI技术创新提供了强有力的保护,能够覆盖专利和版权无法涵盖的敏感信息,例如用于训练AI系统的数据或模型权重。因此,业内有人戏称,用商业秘密保护AI技术堪称“天作之合”。AI开发者和用户可以借助商业秘密法保护与AI技术相关的核心信息,同时规避传统知识产权保护所面临的时间限制和程序繁琐等约束。然而,将商业秘密法应用于AI技术的保护也面临诸多挑战,包括技术透明性不足、法律手段滥用以及公共利益受损等。
AI技术的快速发展带来了“饥饿”与“喂养”的矛盾:一方面,AI对数据、算法和算力有着永无止境的需求;另一方面,商业秘密法作为保护AI技术创新的重要工具,其“黑箱化”特性与社会对AI技术透明性需求之间的冲突日益凸显,可能使AI技术从“喂养”阶段逐步演变为“吞噬”阶段,带来深远的社会和伦理影响,进一步加剧AI技术治理的难度。
能用保密信息喂养GenAI吗
日常使用生成式人工智能(GenAI)处理文件或生成报告虽具便利性,但用保密数据喂养GenAI已被多国明确认定为违法泄密,且存在不可逆的泄露风险。例如欧盟《通用数据保护条例》禁止传输可识别的自然人信息,欧盟《商业秘密保护法》则保护企业核心机密数据(如定价策略、技术图纸、客户名单);中国《个人信息保护法》和《反不正当竞争法》同样严令禁止这类行为,违者将面临高额罚款乃至刑事责任。
国际案例反复印证由此引起的泄密风险:三星电子员工2023年3月使用ChatGPT调试半导体设备源代码,导致核心代码及良品率数据泄露,20天内连发3起事故,迫使三星全面禁用公共AI工具;2024年1月30日,美国科技媒体Ars Technica报道ChatGPT曾泄露私人聊天密码及未公开研究项目细节;2023年4月,意大利监管机构一度封禁ChatGPT,禁止OpenAI处理意大利用户数据。
GenAI技术层面存在系统性缺陷:即便将数据脱敏(如市占率从具体数值泛化为区间值),仍无法消除身份识别风险且显著降低数据的商业价值。因此必须建立严格规范:核心商业秘密禁止接触公共AI,非敏感数据需经身份隐藏与业务背景剥离双重处理。最可靠方案是采用本地化部署实现数据物理隔离。全球案例表明:公共AI与机密数据本质互斥,效率提升绝不能突破法律底线。
商业秘密法与AI:从保护到反噬
鉴于商业秘密法的高度包容性,其保护范围在AI领域广泛扩张,涵盖了算法、模型权重、数据集和运行逻辑等几乎所有技术要素。这种全面保护虽然为企业提供了法律支持,但也导致了过度保护和滥用,甚至引发了一系列法律、伦理、经济和社会危机。这些问题相互交织,构成了复杂的系统性挑战。
商业秘密法的核心作用是保护经营创新和技术创新,确保经营信息和技术信息一定的独占性,从而推动企业研发投入和技术进步。这种保护机制能够有效制止不正当竞争,维护市场秩序,为AI技术的开发和应用提供法律支持。然而,在实际应用中,商业秘密法的功能也可能带来负面影响,例如过度保护导致技术共享受限,打击健康的创新生态,甚至阻碍AI技术的开放与协作。
与此同时,商业秘密法通过保护经营信息和技术信息,强化了企业的私权保障,使其能够通过独占信息获取竞争优势。然而,私权保护的扩张也带来了权利失衡的问题:公众对技术的知情权、监督权和参与权空间受到压缩,中小企业因技术壁垒被排除在AI研发与应用之外。一些企业甚至可能滥用商业秘密法,通过恶意诉讼限制竞争对手或员工合理流动,进一步强化技术垄断,损害整体社会公平。
透明性缺失是商业秘密法在AI领域的另一大挑战。AI技术的“黑箱化”特性与透明性需求之间存在根本矛盾,尤其在医疗、司法和公共政策等高风险领域可能导致严重后果。例如,公众无法了解AI系统的决策依据,容易掩盖算法偏见并误导决策者。同时,商业秘密法限制了公众和监管机构对AI技术的监督,使技术滥用或错误决策隐蔽化。
在公共利益领域,商业秘密法的私权保护可能与社会需求发生冲突,尤其在医疗、司法和环境等关乎公共利益的领域。例如,AI诊断算法的保密性可能导致误诊或歧视性医疗服务,司法算法因训练数据偏见破坏司法公平,气候预测模型的不透明性可能阻碍全球应对气候变化目标的实现。这些问题不仅损害社会整体利益,还可能引发公众对AI技术的失信。
AI技术的“黑箱化”与商业秘密法的保密性叠加,加剧了透明性危机,破坏公众信任,并掩盖技术滥用的风险。
在经济维度上,商业秘密法的保护机制可能强化少数AI巨头的技术垄断地位,导致市场壁垒提高和技术红利集中化。少数公司控制AI核心技术,排斥中小企业和研究机构参与,损害市场竞争与创新动力。同时,AI技术红利集中于少数科技公司和资本集团,普通公众难以受益,进一步加剧了社会资源分配的不平等。
AI技术的快速迭代及其可能带来的危机表明,商业秘密法的应用必须在保护AI技术创新与维护公共利益之间找到平衡点。通过规范保护范围、增强技术透明性、促进技术开放与共享,并在涉及公共利益的领域优先考虑社会需求,才能缓解商业秘密法在保护AI上的局限性。同时,法律、伦理、经济和社会治理需要协同推进,以确保AI技术既能推动社会进步,又能避免对人类社会的反噬。
商业秘密法与伦理治理协同
规避AI技术“反噬效应”的关键在于重新审视商业秘密法的适用边界,并在法律与伦理协同治理框架下进行调整。通过引入透明性要求、限定保护范围、实施强制许可制度以及推动法律与技术协同发展,可以在保护企业AI私权与维护公共利益之间寻求动态平衡,从而实现AI技术创新与社会发展的和谐共存。
在涉及公共利益的高风险AI系统(如医疗、司法、环境等领域)中,透明性是保障社会信任和技术伦理的核心。商业秘密法的保密性逻辑与AI透明性需求形成矛盾,必须通过算法透明性披露、独立第三方审查和分级透明性机制来缓解这一冲突。透明性要求并非完全公开企业的核心敏感技术,而是通过限定披露范围和程度,在高风险领域确保公共利益优先,同时维护社会信任和伦理秩序。
限定商业秘密法的保护范围是防止其滥用与过度扩张的重要措施。将商业秘密限定于真正具有商业价值且无法合法获取的技术信息(如排除通用算法和公共数据集),并动态调整保护期限以适应AI技术迭代速度,可以有效避免长期保护抑制竞争。同时,建立惩罚机制防止恶意诉讼,进一步维护AI技术生态的开放性和公平性。
强制许可制度的引入是优先保障公共利益的必要补充。在特定紧急情况下(如公共健康危机、全球气候变化、自然灾害),商业秘密的保密性可能与公共利益发生冲突。通过引入公共利益优先原则,赋予政府在重大领域强制使用受保护技术的权力,并建立明确的适用条件、程序和补偿机制,可以确保关键AI技术服务于公众,同时给予该技术提供方合理的经济补偿。这一制度体现了公共利益优先原则,是商业秘密法在特殊情况下不可或缺的平衡机制。
推动法律与技术协同发展是调整优化商业秘密法保护AI技术的必要路径。通过跨学科合作,将透明性要求纳入AI行业标准,开发算法可解释性工具,可以促进商业秘密法与AI技术的深度融合。
小结:商业秘密法的边界重塑
面对AI技术快速发展带来的法律、伦理、经济和社会挑战,商业秘密法在AI领域的应用亟须重新界定边界,以缓解技术创新与公共利益之间的张力,其中严禁使用保密信息训练GenAI等公共AI工具已成为基本前提。
必须构建四重协同监管机制:首先合理限定商业秘密保护范围,仅覆盖具有实质商业价值的核心算法与数据集,排除通用技术及公共数据,并根据AI技术迭代速度动态调整保护期限;其次实施强制性透明披露要求,对高风险领域建立分级透明制度,要求披露算法决策逻辑框架并引入独立第三方审计;同时确立公共利益优先原则,在紧急情况下启动强制许可机制;最后推动技术与法律深度融合,开发可解释性工具(如模型蒸馏技术)并将AI伦理标准纳入认证体系。
这种系统性重构能使商业秘密法从封闭保护转向包容性开放治理,既保障企业核心创新安全,又通过物理隔离公共AI(如本地化部署)和双重脱敏处理非敏感数据来严守法律底线,最终在打破技术垄断中实现AI红利共享与社会信任重建,确保技术私权与公共利益的动态平衡。这种平衡不仅关乎商业秘密法的完善,更决定着AI技术的未来。只有在法律框架内实现技术透明与社会责任的统一,才能确保AI技术创新与社会发展和谐共进,避免因数据“饥饿”与“喂养”失衡而对社会造成“反噬效应”。
(作者系华中科技大学知识产权与竞争法中心主任、二级教授)