许中缘,郑煌杰
(中南大学 法学院,湖南 长沙 410083)
2023年被认为是生成式人工智能(Generative Artificial Intelligence)的元年,也是人工智能(以下简称“AI”)领域的重要拐点,ChatGPT类应用的崛起标志着人类社会正在经历一场知识革命。比尔·盖茨坦言在其一生中只见到两项真正具有革命性的技术,一个是用户图形界面(现代操作系统的先驱),另一个就是Open AI研发出的GPT模型。ChatGPT类应用之所以能现象级蹿红,主要是因为GPT模型在算法(如Large Language Models,LLM等大语言模型)方面实现了新的突破,即可以基于其训练数据,独立自主地创造文本、代码、图形等连贯性、具有意义的内容。这种人机互动、横跨多领域应用、以及自我生成内容的技术特征,正在加快ChatGPT类应用与人类社会形成更加稳固、泛在的联系。为了促进生成式人工智能的健康发展,国家网信办等七部门于2023年7月14日联合公布《生成式人工智能服务管理暂行办法》,其中明确了其适用范围、责任主体认定、服务规范等方面内容,旨在促进生成式人工智能健康发展和规范应用,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益。
在上述背景下,针对生成式人工智能的理论研究亦十分火热。然而,当前大多研究者都在关注生成式人工智能的潜在风险,如数据安全、算法侵权、生成内容版权不明等风险[1]。但现阶段ChatGPT类应用在我国尚未全面推广,能否合法应用于各领域也有待商榷,故提前进行严格地监管与干预难免为时尚早,容易阻碍其技术的创新与发展。简言之,对于生成式人工智能而言,既要关注其引发的安全风险,亦要重视其保护以赋能数字经济的发展,后者则是当前学界研究甚少之处,即便有所论及,也是较为零碎化,没有进行体系化研究。对于ChatGPT类应用保护的核心关键,在于生成式人工智能算法(以下简称“AI算法”)的保护,这是数字时代亟需回应的核心问题。对此,可将“如何对AI算法进行保护”这一问题,划分为三个子问题:第一,对于AI算法而言,当前存在哪些保护路径?第二,其应选择何种保护路径?第三,在确定某种保护路径后,应如何基于其技术特征进行体系化展开?本文将基于以上问题展开论述分析,并提出针对性因应之策,希冀对生成式人工智能的规范应用与健康发展有所裨益。
与传统计算机软件算法(以下简称“传统算法”)不同,AI算法的技术特征在于将预训练和微调体系引入自然语言算法处理过程。前者通常只具备特定功能(如人脸识别、智能绘图等),后者则在模型算法方面实现了新的突破,即事先对输入的文本内容进行无监督地“自主学习”,包括文本的语法、语义等,再利用Transformer模型构建能让人们所理解的语言算法模型。也就是说,用户输入指令后,ChatGPT类应用将其转化为算法语言数字序列,分析输入内容的含义及特征,再生成算法语言数字序列,最后将其转换为文本输出(见图1)[2]。简言之,传统算法是基于其程序运行来分析数据,而AI算法则是增加了接收和反馈的环节,后者的技术要求更高。因此,对于AI算法保护路径的分析也需基于其技术特征出发,以精准回应其保护需求。
图1 AI算法模型的运行机制
尽管AI算法运行依赖于外部数据输入,但仍需要将抽象内容转换为代码。所以,AI算法的保护可以借鉴我国对于代码保护的法律规定[3]。从技术层面来看,可以将计算机软件分为文档和程序两部分。文档主要是指计算机内的文字、符号或图片,程序则可以划分为“源程序”和“目标程序”①(1)①《基本术语:源程序,目标程序,翻译程序》,源程序:用源语言编写的,有待翻译的程序,称为“源程序”。源语言可以是汇编语言,也可以是高级程序设计语言(比如C++语言),用它们写出的程序都是源程序。目标程序:是源程序通过翻译加工以后所生成的程序。目标程序可以用机器语言表示(因此也称之为“目标代码”),也可以用汇编语言或其它中间语言表示,https://blog.csdn.net/dl0914791011/article/details/8161136,访问日期2023年10月8日。,其主要是以0/1的代码形式显现,这两部分(程序和文档)与著作权法中的“文字作品”十分相似。我国《计算机软件保护条例》也明确规定,可以通过保护计算机软件代码的方式来实现对其保护①(2)①《计算机软件保护条例》第三条:本条例下列用语的含义:(一)计算机程序,是指为了得到某种结果而可以由计算机等具有信息处理能力的装置执行的代码化指令序列,或者可以被自动转换成代码化指令序列的符号化指令序列或者符号化语句序列。同一计算机程序的源程序和目标程序为同一作品。。申言之,如果AI算法是以代码形式呈现,那么就有可能纳入上述规定的保护范围。
诚然,AI算法采取著作权保护具有一定合理性,但这种保护路径仍存在许多冲突之处:首先,计算机软件设计的目的在于发挥功能性作用,而不是外观表现形式。对于设计者来说,如设计的“作品”被他人侵权,其主观诉求并不是想禁止他人复制程序的代码,而是试图阻止他人应用代码设计出相同功能的“作品”[4]。其次,著作权保护的“思想/表达二分法”如适用于计算机程序保护,那么将难以区分“设计作品”究竟是属于程序还是表达[5]。例如,在“Herbert Rosenthal Jewely Corp. v.Kalpakian”案中,原告指控被告复制了其珠宝造型蜜蜂箱的设计。美国第九巡回法院指出:有实质性证据表明,审判法院裁定被告的设计在事实上是一个独立的设计。两个人的设计都是建立在描述自然生物的基础上。考虑到复制不需要意识这一原则,它可能是由在过去的某一个时候阅读或视听著作权作品的无意识记忆而产生的。由于独立的创造可能是这样一个事实,即法院不能以合理的理由确定被告是否复制了原告的作品,即使被告的行为构成复制,所取走的只是思想②(3)②See Herbert Rosenthal Jewelrey Corp. v. Kalpakian (446 F.2d 738).。再次,著作权保护只能禁止复制、传播等行为,难以保护“作品”的思想内容。例如,设计者虽利用不同代码,但设计出的程序功能却相似,那么将此类行为定性为“侵权”则存在一定难度,无法保障原始设计者的“著作权益”。此外,则是关于著作权保护的“自动取得”和“保护期”设置。计算机软件的更新速度远远短于“五十年”,采用“保护期”设置只会造成资源的浪费。而“自动取得”则可能为一些不法分子提供帮助,如设计者出于谋取非法利益设计算法,由于目前我国算法监管制度尚不完善,故极易侵害他人的合法权益。
商业秘密通常是指具有秘密性、价值性、采取保密措施手段的技术性信息,由于其基本是处于封闭状态,故无法被公众所获知进行重复性研究。当前许多高新数字技术企业将创新性成果(涉及商业秘密内容)“物化”为前沿智能产品,如ChatGPT类应用、机器人等,这既让其获得了巨大的商业利益,也推动了数字经济的发展。这些智能应用的研发方法,一旦公之于众,各种山寨产品将可能层出不穷。所以,企业为了保护其研发成果,防止智能产品涉及的算法被他人模仿抄袭,通常是将算法视为一种商业秘密,不对外公开。客观而言,商业秘密保护与本文提倡的专利保护相比具有一定的优势:第一,前者比后者所耗费的成本更低、所需承担的风险更小。就算AI算法能获得专利保护,但仍需要进行专利申请等程序步骤,这过程所涉及的成本往往较高,而且企业也无法保证其获得专利保护后必定具有商业价值。因此,商业秘密保护可以说是一种“效益比”更高的路径。第二,前者要件判定标准比后者低,即只需要满足商业秘密的构成要件即可,同时企业自身也能自由决定是否需要对其进行保护。第三,前者并不用对外公开,就能够直接使用,从而避免AI算法在专利审查过程中的“泄露”(公开)风险。
然而,商业秘密保护亦存在较大局限性:其一,这种保护路径无法制止他人对AI算法相关软件或程序进行破解以获取源代码,一旦源代码被他人获取,涉及的企业不仅将丧失竞争优势,还会失去对算法的独家使用权。其二,商业秘密保护使得人们更难以知晓AI算法的决策过程,这将进一步加剧算法的“不可解释性”。尤其在涉及财产利益、人身利益时,倘若AI算法缺乏透明度,一旦发生损害后果,被侵权人的合法权益将难以及时得到救济。其三,采用这种路径将加深数字鸿沟。在市场环境下,企业出于追求效率与效益的目的,可能无限扩张其私人权益,这将导致公众权益日益限缩。例如,在当前的算法推荐服务(如“抖音”等APP的推荐内容)中,人们已经深陷信息茧房,却毫不知情,类似的问题还包括“大数据杀熟”等现象频发,这些都将可能不断扩大“数字弱势群体”的范围。
通常而言,技术应用需要以开源软件为基础,而开源软件虽能够随意发布,但在发布时必须附带软件的源代码,也要默认其他使用者修改或复制源代码①(4)①开源软件(Open Source Software,OSS)意味着每个运用它的人都可以根据自己的意愿修改、改进或利用软件,而不受任何限制。因此,可以在现有开源软件的基础上针对自己的特定应用对其定制化。。当然,使用者在进行“二次发布”时也需承担开源软件的附带义务,开源代码相当于一种“代码公共资源”,设计者只要遵循标识(编号)与禁止性义务,就可在此基础上继续设计新代码[6]。申言之,开源代码所遵循的义务既可以说是一种行业自律行为,也能认为是一种能够促进代码、软件、程序等内容的创新机制。从框架开源,数据集、算法开源,再到模型开源,开源机制极大推动了AI在技术、应用等方面的发展。比如,基于开源社区的孵化,2022年最火热的Stable Diffusion模型在不到两个月的时间便流行开来,国内企业和研究机构也迅速跟进,如OneFlow将Stable Diffusion的图片生成速度加速到1秒以内等②(5)②前沿开源技术领域解读——开源AI,https://baijiahao.baidu.com/s?id=1757684243981702389&wfr=spider&for=pc,访问日期2023年10月9日。。更重要的是,开源机制使得AI标准化和规模化趋势开始成型,从算法的标准化开始,带来了软件标准化的机会,进而能够打破技术壁垒,促进AI算法不断地发展与创新。
不过,这种保护路径也存在诸多风险:第一,大规模使用开源软件,很容易引发知识产权侵权风险,如使用者不遵守开源许可协议导致版权侵权。又如,当开源软件中包含诸多专利时,如使用者未得到专利权人的许可,那么也会引发专利侵权③(6)③根据新思科技《2021开源安全与风险分析报告》统计,2020 年审计的代码库中,65%的代码库包含存在许可证冲突的开源组件,通常涉及“GNU通用公共许可证”。版权侵犯风险与商标侵权风险较易规避,而专利侵权风险与许可证冲突则较难规避。。此外,既有许可力度小的开源软件协议(如EPL、CDDL),也有许可力度大的开源软件协议(如AGPL、GPL)④(7)④软件授权协议有什么作用,例如GPL、Apache License、CDDL、EPL这些协议有什么区别?,https://www.zhihu.com/question/19962512/answer/2310308409,访问日期2023年10月9日。,倘若使用者选择不恰当的协议,那么也会引发侵权风险。第二,开源机制虽然能对外共享相关代码或软件,但难免会有不法分子为了谋取私益,而故意发布一些“瑕疵软件或代码”,抑或是不标识软件的“发源处”,这将造成其他使用者“无意”就实施了侵权行为[7]。第三,这种保护路径具有一定的脆弱性。市场经济本质上还是以私人利益最大化为导向,而AI算法的研发往往需要事先投入大量资源成本,故为了取得效益与效率的竞争优势,许多企业并不会积极主动地遵守行业自律规范[8]。
知识产权制度具有激励创新和利益平衡的双重功能,对AI产业发展乃至建设创新型国家具有不可替代的作用。AI算法的保护理应由知识产权制度来完成,各国的法律体系也基本采用这种路径来实现这一目标。知识产权具有“权利束”的特征,可提供多种路径来规制和保护AI算法。通过前文分析,现有制度中与AI算法紧密相关的著作权、商业秘密等保护路径,都存在难以逾越的价值冲突困境。审视人类社会发展历史,科技的创新与发展与专利制度存在紧密联系,科技创新催生专利制度的建立,而专利制度的建立又对科技创新发挥着激励、引导、保护的作用。简言之,专利制度不是激励和保护科技创新的唯一方法,但往往是最为行之有效的手段。专利法以“公开换保护”的制度机能,既能够防范“算法权力”的社会风险,也能够激励AI算法的发展。因此,AI算法可适用专利保护,并可基于专利制度相关理论加以论证其保护的契合性。
上已述及,AI算法在处理数据过程中,能够进行“自主学习”,进而生成“预测性”结果,这种技术特征使得人类的主导力量逐渐弱化。对此,分析AI算法能否获得专利保护,首先需要阐释的是专利制度的基础理论——劳动理论与人格精神理论。易言之,可否在人类劳动和思想转化为权利的过程中,加入“AI”这一客体要素。就劳动理论而言,洛克在《政府论》中已通过阐释“财产”来引出该理论,即人们有权享有经由其劳动所取得的物品,该理论包括三个要素:劳动、先占、需求①(8)①约翰·洛克《政府论》财产权何以存在?如何取得财产?(上),https://baijiahao.baidu.com/s?id=1776161697532912621&wfr=spider&for=pc,访问日期2023年10月12日。。其中“劳动”要素最为关键,人类劳动是取得财产的前提,只要物品在“生成”过程中加入了某人的劳动,那么就能认为其具有拥有该物品的正当性。虽然有学者对此理论适用于无形财产(如智力成果等)是否可行存疑[9]。但客观来说还是具有可行性,因为无形财产无法被消耗,也不可能被消耗,故仍属于洛克所预设的共有状态。然而,将该理论引入AI算法的设计—运行—输出阶段过程中,会发现人类劳动部分占比较小。例如,深度学习算法在设计后,基本不需要人类的参与,就能自行分析处理数据,进行“自主学习”,甚至生成全新的算法。因此,貌似无法借助“劳动”这一要素与“专利权”相连接。但该问题的本质还是在于AI能否拥有法律主体地位,即AI的“劳动”能不能看作是“人的劳动”? 对此,有学者认为人类可以借助“仆人”(工具)的劳动获得财产[10]。洛克则认为“仆人”本质上还是属于“劳动”的一部分,因为其也是人类通过劳动所获得。审视当下,大多数涉及AI的发明创造(包括ChatGPT类应用)基本都掺入了人们的“劳动”,即使这些“劳动”只起到一部分作用。此外,鉴于当前仍处于弱AI时代,虽然AI算法能通过“自主学习”生成全新算法,但并不意味着在这过程中完全不存在人类的“劳动”。所以,可以通过目的解释,将AI算法涉及的“劳动”部分解释成ChatGPT类应用的研发者、设计者、投资者等主体“劳动”的延伸。易言之,在劳动理论下,AI算法专利保护具有一定的正当性。
就人格精神理论而言,黑格尔在《法哲学原理》中提出“财产”的正当性,应当建立在人类的意志与人格之上②(9)②物权的人格化还是人格权的物化?——黑格尔论人格、人格权和物权,https://mp.weixin.qq.com/s?__biz=MzIxODM4NTgxOQ==&mid=2247486522&idx=4&sn=0da9877c01521e305def2dca02cea506&chksm=97ea10cea09d99d8ca284a6da9eba834c70d7012a8e312c85c56c25f8b6f072a0886ce852187&scene=27,访问日期2023年10月13日。。在意志层面,人类的意识体现于对“物”的占有。此时的“物”应作广义理解,既包括有形物,也包含“智力成果”等无形物,因为后者如果能够“物化”,那么就有可能成为私人财产。在人格层面,则需要借助“财产”这一形式得以保障,倘若人类无法对己所有物享有支配权,那么将无法实现完整的人格自由。申言之,“财产”是人格与意志自由的前置要件,两者能否完全实现也取决于对财产的占有状况。相比于劳动理论,人格精神理论更契合专利法领域,即财产不一定需要有形化,就能获得专利保护。在意志之上的人格是自由发展的,而意志对财产的占有取决于人的主观意识形态。简言之,“物”能否成为财产很大程度上受意志的影响,所以发明、技术抑或是AI算法等客体,只要人类在客观上能够对其享有支配权,那么其就具有成为“财产”的可能性,也就具备获得专利保护的正当性[11]。
得益于算法、算力、数据相关技术的发展,ChatGPT类应用的浪潮才能兴起。如今,AI算法正在应用于不同场景,其市场前景也被许多企业所看好,这使得企业通常是将其作为一种商业秘密进行保护,防止其相关技术未成熟时就被他人“窃取”,从而丧失市场竞争优势[12]。诚然,采取这种封闭式保护路径虽有助于企业的私益保护,但难以充分发挥出AI算法的功能性作用。申言之,如选择将算法进行公开及推广使用,不仅会给人们生活带来极大的便利,也能在公开共享开放的算法环境下,促进其不断进行创新与发展,这正是功利理论之应用体现。
具体来说,功利理论的核心在于“利益驱动”,即以对价利益带动人们创新的积极性,以个人利益的实现为基础推动社会总体利益①(10)①如美国宪法对专利制度的功利理论提供了法律依据,美国宪法第一条第八款写道:“为促进科学和实用技艺的进步,对作家和发明家的著作和发明,在一定期限内给予专利权的保障”,该条款直接将促进科技进步作为授予专利权的理据。。市场主体具有逐利的本性,如缺少利益的激励,只会导致许多企业前期担心风险而无法投入太多成本,进而阻碍AI算法的创新。对此,有观点认为AI相关发明创造并不需要“专利激励”,提出“无限猴子定理”,倘若猴子有大量时间去敲击键盘,那么就有可能创作出经典或新型作品②(11)②“无限猴子定理”源于法国数学家埃米尔·博雷尔1913年出版的一本论述概率的书籍。他在书中提出,“想像有一百万只猴子每天打字十个小时,那么将可能打出全世界藏书最丰富的图书馆里所有的书。”。当时间基数足够大时,即使概率低的事件也可能会经常发生。AI算法亦是如此,倘若具有足够多的试错时间,那么其也会生成具有技术特征的算法。然而,这种“试错行为”未能体现出AI算法的本质。AI算法的最初“创造源泉”还是来自于人类,设计人员利用代码搭建模型,代码的编写并不是“凭空捏造”的,往往需要借鉴已公开代码的内容,在此基础上不断推陈出新。由此可见,在功利理论下,AI算法专利保护具有一定的必要性:既能够营造出创新与发展的算法环境,其带来的商业利益也会进一步提高企业自主创新的积极性。
事物皆有两面性。AI算法在给人们带来生活便利的同时,也引发了一系列安全风险。比如,意大利数据保护机构以保护个人信息与隐私为由,临时封禁了ChatGPT,在Open AI采取相应措施后才解除封禁③(12)③意大利禁用ChatGPT!防止AI泄漏隐私成难题,https://baijiahao.baidu.com/s?id=1762157925960519593&wfr=spider&for=pc,访问日期2023年10月14日。。美国AI与数字政策中心(Center for AI and Digital Policy)向监管机关投诉,提出对OpenAI进行合规调查,并要求其在建立安全防护措施之前禁止发布新的AI模型④(13)④美国人工智能和数字政策中心向FTC提交投诉,敦促对OpenAI展开调查,https://www.weiyangx.com/421645.html,访问日期2023年10月14日。。又如,当前许多科技企业正在研发AI自动驾驶,但由于难以解决AI算法的“不可解释性”问题,导致这项技术至今无法得到全面推广[13]。进言之,技术人员虽然可以通过破解目标程序或识别源程序的方式,进而推理出传统算法的程序代码,但AI算法在应用过程中,通常只能观察到其神经网络参数,存在“算法黑箱”问题,导致无法及时规制其引发的安全风险。
在此前提下,亟需阐释AI算法保护的特殊性,即对于AI算法的风险规制,应当是基于保护公共利益还是私人利益出发?自罗马法之后,权力与权利的共存是法律的基础,换言之,利益的保护不能局限于私人权利保护的“权利——义务”逻辑,而是应当将放在整个国家、社会的背景下进行综合考量[14]。前述的劳动理论、人格精神理论与激励理论,主要还是基于私人权利层面的分析,缺少对“政策性”“社会性”层面的解读,而这正是公共利益理论的核心要素⑤(14)⑤公共利益理论(PublicInterest Theory)由施蒂格勒在1971年提出,旨在纠正市场失灵的缺陷,保护社会公众利益,由政府对这些行业中的微观经济主体行为进行直接干预,从而达到保护社会公众利益的目的。。就“政策性”而言,以英国专利制度为例,其就曾经通过为技术人员颁发许可证的方式,以合法授予其技术或产品的市场垄断权⑥(15)⑥1449年,Utynam的一个名叫约翰的人以其彩色玻璃制造方法获得为期20年的垄断权。据史料记载,这是第一件英国发明专利,http://www.iprtop.com/swzlfl/info_8.html,访问日期2023年10月15日。。以美国为首的科技强国亦然,为了能够增强本国的科技实力,激励企业自主创新,美国通过改革的方式促进其专利制度发展①(16)①美国科技创新历史专题研究:从引入到创新、到引领全球,https://baijiahao.baidu.com/s?id=1751068440884123105&wfr=spider&for=pc,访问日期2023年10月15日。。从“社会性”来看,有学者认为不是道德调节人们的生活,而是人们的生活调节道德,社会生活是社会道德的根本,后者随着前者的变化而变化[15]。专利制度亦同,随着社会生活的变化而不断演变,社会责任、社会道德等体现“社会性”内容与专利制度息息相关。鉴此,我国现行专利法规定不予保护的范围,不仅影响客体的专利授权,也体现了对公共利益的保护。例如,“疾病的诊断和治疗方法”之所以无法成为专利客体,不是在于其不具有可操作性,而是出于社会道德与社会责任等层面的考量。简言之,AI算法如采取专利保护,可最大实现其保护的特殊性:既有利于规制其引发的安全风险,在一定程度上也有助于保障公共利益。
“新型”技术方案或客体需满足专利审查相关规定,才能获得专利保护,而《专利法》第2条、第25条、第22条等涉及专利审查判断的法律规定很多,这意味通过专利审查将十分困难。同时,AI算法复杂的技术特征又进一步加大其审查难度,这势必会冲击专利制度体系。对此,现行专利制度应立足于AI算法的技术特征,并从确定其专利客体属性,明确其专利授权范围,修正“专利三性”审查标准展开,以进行针对性地调整与回应。
在当前制度背景下,AI算法应定性为何种法律客体?其与相关客体又有何差异?这不仅是其适用专利保护的前置要件,也是防止引发重叠保护的关键所在,详言之:首先,AI算法不同于“智力活动规则”。智力活动规则使得人类不仅能够高效地进行分析、表达、记忆等思维活动,还能够实现改造客观世界的目的。在这过程中,人类既没有使用技术手段或自然规律,也没有解决相关技术问题,故智力活动规则也就不能属于专利保护的“技术方案”,倘若对此类客体予以保护,可能会造成思想的“非法垄断”。在“Benson”案中,法官认为算法等同于智力活动规则,并将后者定性为一种“思维过程”,认为其不属于专利保护客体,故算法也不应受保护②(17)②See ottschalk vs.benson,409U.S.63(1972).。在“Parker v. Flook”案中,法官根据“新颖点测试法”来排除算法的“可专利性”③(18)③See Parker v. Flook,437U.S.584 (1978).。而在“Inre Freeman”案中,法官则推翻上述判例的结论,将算法定性为能够解决某种特定问题的步骤,同时厘清了算法与数学公式的区别④(19)④See In re Freeman,573 F.2d 1237197 USPQ 464 (CCPA 1978).。自此案后,算法不再是直接被排除于专利保护客体范畴之外,而是会事先进行专利实质性审查。美国专利及商标局(United States Patent and Trademark,USPTO)也在2019年发布了《专利主题适格性指南》,其中明确了“抽象概念”的分类,这也使得AI算法区别于智力活动规则,具有可专利性⑤(20)⑤USPTO更新《2019年专利客体适格性审查指南》,就如何应用美国最高法院的Alice/Mayo测试法向专利审查员发出了新指示,该测试法用以确定一项权利要求是否指向“抽象概念”(abstract ideas)等不适格的客体,https://gdoip.com/dynamic/41.html,访问日期2023年10月16日。。
其次,AI算法与“商业方法”存在差异。AI算法和商业方法的不同之处在于两者的应用领域。商业方法应用于市场经济领域,根据美国《商业方法专利促进法》的规定,其中将商业方法认定为商业信息处理过程涉及的技术方法,倘若其要获得专利授权,需应用于商业领域⑥(21)⑥美国议员曾在《2000年商业方法专利促进法》的提案中指出,商业方法包含企业经营、管理、财务信息处理;竞技、训练或个人技巧;以及借助计算机辅助实施的如上方法,http://www.iprdaily.cn/article_18567.html,访问日期2023年10月16日。。另外,商业方法可以与算法或计算机程序相结合应用,甚至能产生全新的用途。比如在“Benson”案中,法官就认为该案的“方法”无法获得专利保护,判决依据在于该“内容”基本都是数字公式。在“Parker v. Flook”案中,专利审查人员也拒绝本案“方法”的专利申请,认为申请目的只是为了获得数字公式的“专利权”。然而,在万物互联的商业模式下,商业流程的各个环节都发生巨大变化,线上与线下交易逐渐实现一体化,使得算法与商业方法具有紧密关系。易言之,在商业领域,二者往往是同时并用,一旦脱离此领域,“算法”和“商业方法”则存在较大差异,甚至可以说是不同的法律客体。
再次,AI算法区别于传统算法。在技术层面,两者有紧密联系,但就法律层面而言,两者却有着不同意涵:一方面,后者通常以自然语言、计算机程序语言等形式表达,前者仅是因为目前较为先进的技术表达载体是计算机,才以该形式表达,如未来出现更为先进的“载体”(类似于计算机程序),那么AI算法也能以其他形式进行表达。另一方面,AI算法并不总是以代码形式表现。传统算法的代码由设计者根据主观喜好编写,根据我国《专利审查指南》规定,具有技术特征的算法可纳入专利客体范畴,换言之,倘若传统算法满足技术特征及相关专利审查要件,那么其可能获得专利保护,反之则无法获得保护①(22)①关于修改《专利审查指南》的公告(第343号):在《专利审查指南》第二部分第九章增加第6节,内容如下:6.包含算法特征或商业规则和方法特征的发明专利申请审查相关规定:涉及人工智能、“互联网+”、大数据以及区块链等的发明专利申请,一般包含算法或商业规则和方法等智力活动的规则和方法特征,本节旨在根据专利法及其实施细则,对这类申请的审查特殊性作出规定。。然而,AI算法最大的问题在于,受训练数据的影响,其源代码会实时发生改变,甚至有时以神经网络参数等非代码形式表现,因而其是否具有专利性,就存在较大的解释空间。不过,一个“新型”的专利客体能否获得专利保护,还是在于是否符合专利法规定。对此,我国《专利审查指南》不仅明确了“算法”可独立于“计算机程序”,可单独作为一种专利客体,还指出某种商业方法具有技术特征,那么其也可能获得专利保护②(23)②《专利审查指南》(2020)第二部分:关于涉及计算机程序的发明专利申请审查的若干规定,第九章第六节。。申言之,倘若AI算法表现出的“技术特征”是超出法律描述的商业特征范围,那么其就具有可专利性。
综上,可以将AI算法视为一种特殊的专利客体,其应当被纳入专门制度体系中。虽然AI算法与专利制度存在契合性,但也不能简单地将其视作一种“新型”专利客体。一方面,AI算法是人类智力劳动的成果,只应用于解决特定的技术问题,而与起到区分作用的标识、文学艺术或者表达作用的作品相区别[16]。也就是说,其专注于解决如何实现设计人员所理解的智能这一特定技术问题,不是抽象意义的“智力活动规则”,也不被用于解决其他的技术问题。另一方面,强调AI算法作为一种特殊的专利客体,可以将其与传统算法、商业方法等“相似”客体划定清晰的边界,也能使其与计算机程序等技术类著作权客体相区别。
我国于2020年修改的《专利审查指南》虽承认了“包含算法特征或商业规则和方法特征的技术方案”作为专利的客体,但其中并未涉及计算机程序和商业方法的审查规则,故仍然存在不足之处:一方面,忽略了算法与计算机软件之间的实质性联系,导致了对同一内容进行多重保护的局面。另一方面,没有对算法和商业方法的概念进行阐释,仅仅规定了审查的基准,反而使现有审查规则变得模糊不清③(24)③ 《专利审查指南》第六章第6节:6.1 审查基准:审查应当针对要求保护的解决方案,即权利要求所限定的解决方案进行。在审查中,不应当简单割裂技术特征与算法特征或商业规则和方法特征等,而应将权利要求记载的所有内容作为一个整体,对其中涉及的技术手段、解决的技术问题和获得的技术效果进行分析。。鉴此,倘若AI算法可成为专利客体,那么亟需划定其专利授权范围。具体可从“正向界定”与“反向排除”展开:
就AI算法专利授权范围的“正向界定”而言,可从技术领域、技术特征、技术高度入手。具言之:第一,单纯的AI算法本身并不属于专利客体。若一个方案的权利要求所保护的内容是数学算法,该算法在执行过程中仅涉及数值计算,并仅提供数值型结果的改变,则该方案可被视为“智力活动的规则和方法”。以“基于特征选择和决策树的网络异常分类规则提取方法”为例①(25)①国家知识产权局专利申请查询:(专利申请号为201510916818.2)。,该发明基于混合人工智能技术实现网络异常检测,其中采用遗传算法发现特征并利用决策树算法作出决策,相比于单一的检测方法,该方案提高了网络异常检测的准确性。然而,该方案未获得专利授权,原因在于其并未解决某一领域具体问题,仅仅是一种普通的提高网络异常检测准确性的方法。第二,应用于技术领域,解决技术问题的AI算法可构成一种专利客体。以“基于深度学习的人脸关键点对齐算法”为例②(26)②国家知识产权局专利申请查询:(专利申请号为201511028892.7)。,该发明提供了一种基于深度学习的人脸关键点对齐算法,该算法具有提高人脸识别准确性和效率的技术特征,因此可被视为一种专利客体。在一种基于贝叶斯网络的网络认知自适应算法中,贝叶斯网络是一种数学模型,权利要求中的手段均是数学算法的推演,解决的也是数学问题。在其权利要求书中并未记载该方法应用于认知网络的具体步骤或流程,故而贝叶斯网络应当属于一种数学方法③(27)③机器学习算法(二十七):贝叶斯网络,https://blog.csdn.net/weixin_39910711/article/details/123600867,访问日期2023年10月18日。。权利要求的主题名称、权利要求所限定的全部内容均需要体现出算法的具体处理过程,如何与技术领域相关联,并且确定算法所解决的技术问题与产生的技术效果。第三,“有益的技术效果”在专利申请中具有重要意义。例如,美国《联邦法典》第101条表明,那些能够具体改进传统技术的AI发明是符合专利资格的④(28)④《联邦法典》(United States Code)第35编第101条(35 U.S.C.§101)明确了可授权专利客体的类别,即“任何新颖且有用的方法(process)、机器(machine)、产品(manufacture)或物质组合(a composition of matter)或其新而有用的改进”四种法定类型。。然而,欧洲专利局(European Patent Office, EPO)的技术上诉委员会不像简单采取“贡献”方法,而是提高了对“技术效果”的门槛,通过有效地添加新颖性和创造性评估来进行专利资格审查⑤(29)⑤论专利权在欧洲国家的多种保护途径,https://zhuanlan.zhihu.com/p/476480786,2023年10月19日。。这一门槛既可以预防专利滥诉的现象,也使得那些不符合资格的技术方案能够早期被驳回,进而提高行政效率。
就AI算法专利授权范围的“反向排除”而言,主要是指AI算法在专利申请中被排除的情况。这种排除可以广义解释为不被视为专利客体或不授予专利权的客体,也可以狭义解释为由于“专利三性”审查和公共政策要素的考虑而被排除于专利客体的技术方案。申言之,专利制度以激励发明人为手段,促进社会创新和经济发展,但并非所有对人类有益的事物都可以获得专利权。AI算法在与具体特征相结合时的使用领域通常十分广泛(如ChatGPT能实现跨领域应用),故在促进AI发展的同时,需要坚守专利法底线,警惕任何不正当获得专利权的行为。具体来说:一方面,有悖公共秩序、伦理道德的AI算法不应授予专利权。AI系统由人类创造,人类的偏见和主观判断反映在算法中就会对人格尊严具有侵犯性。AI算法的自动决策若内含“歧视”则会导致算法的不平等性,进而侵犯人的法律主体地位[17]。另一方面,特定场景下(如医疗领域)的AI算法也不应获得专利授权。如今,AI算法正在被运用于不同场景,如医疗、交通、教育等多个领域。在医疗场景中,AI算法通过对病人健康数据的积累和对诊断数据的了解,能够辅助医生在最短时间内做出决策,甚至能够独立生成医疗方案并实施,这与以往以医生为主导开处方不同。AI算法在诊断与治疗中的广泛应用能够增加方法的重复利用性,因为即使不同人的身体具有不同特征并且需要不同的治疗方法,对于算法而言,这些往往只是输入不同的数据,而如何选择和判断数据完全取决于算法内部设置的优先级,这种判断方法具有完全的重复性。然而,如果完全由AI算法决定疾病的诊断和治疗方法,将会导致“算法黑箱”,威胁人的生命权。同时,若将此类算法及其技术特征赋予专利权,也会限制医生在诊断过程中选择方法的自由度。
专利客体审查通常是一种形式审查,“专利三性”审查标准则是一种实质审查。易言之,倘若AI算法需获得专利授权,也应满足上述要件。然而,AI算法的技术特征使得其与一般发明专利存在较大差异,这亦给现行专利审查标准带来了巨大挑战。专利审查部门若对此视而不见,也将会造成资源的浪费,打击研发人员的积极性。为此,“专利三性”审查标准应基于AI算法的技术特征作出相应地修正。具体来说:
1.“新颖性”修正
新颖性一般采取“单独比对原则”,其判断标准主要有两种:“心理创造力”与“历史创造力”,前者是指相对于个人思想或某项技术而言是新颖的,后者则是指相对于整个历史是新颖的,专利法上的新颖性标准主要指后者[18]。然而,AI算法“自主学习”的技术特征无疑加大了新颖性的审查难度:第一,专利审查部门难以将AI算法涉及的数据与现有数据库进行全面比对。如ChatGPT类应用在数据收集、分析等方面具有天然的优势,其专利申请书涉及的数据内容可能来源于无法被公众知晓的数据库,这就给“与现有技术比对”审查带来了困难。第二,AI能够利用其智能性,利用语言替换方式生成“新型”技术方案,这使得其易被划入“现有技术”范围。申查人员可能会认为只要是相近词组的专利申请内容,一般不具有新颖性。对此,AI算法专利的新颖性审查标准应作出如下调整:
一方面,单独比对原则的审查范围应不限于“申请日前被公众知晓”的技术领域。也就是说,应限缩“现有技术”范围,防止申请者恶意使用“同意替换”的方式生成“新型”技术方案[19]。以美国网站“All Prior Art.com”为例,该网站对已公开的专利申请书内容进行归纳、分析、总结,生成“潜在”的专利权利要求书,以对已获得的专利权进行防御保护①(30)①All Prior Art.com网站利用人工智能算法,通过重新排列短语,或用替代定义、同义词或反义词来替换术语产生大量的从形式看具有新颖性的权利要求及其排列组合,https://www.163.com/dy/article/I7J3U7J6051187VR.html,2023年10月20日。。然而,这种方式必然将扩大现有技术范围,使得原本具有新颖性的专利技术无法获得保护。由于AI算法专利的申请也能利用替换词汇的方式生成新“技术方案”,故审查人员应适当排除“不合理技术范围”。另一方面,专利申请人应当公开和AI生成发明相关的数据内容,包括数据的来源、种类、数量等。理由在于:其一,数字技术发展使得数据容量不断扩大,这加大了审查人员对现有技术的检索难度,无法对现有技术进行“彻底”地比对,这将导致专利法适用的不确定性。以《美国发明法案》第112条为例,其中就明确规定专利申请人应公开其技术方案的来源方式②(31)②《美国发明法案》(America Invents Act)中,第112条对权利要求书和说明书的不清楚问题进行了规定,主要包括以下六个方面:(a)一般规定(in General)(b)结论(Conclusion)(c)格式(Form)、(d)从属权利要求援引其他权利要求(Reference in Dependent Forms)(e)含有多项从属权利要求的权利要求援引其他权利要求(Reference in Multiple Dependent Form)(f)组合发明的权利要求构成要素(Element in Claim for a Combination)。。其二,由于ChatGPT类应用的运行本质上属于“数据训练”过程,所以其专利申请审查要求公开涉及的数据内容,也具有一定的合理性。其三,AI算法的“自主学习”特征使得生成的技术方案繁多复杂,易增加专利审查人员的负担,造成作出错误的判断,故申请人应尽可能公开专利相关内容,以降低审查人员无意义的劳动消耗。
2.“创造性”修正
我国对于创造性审查分为三步骤:其一,确定与专利申请相类似的“现有技术”内容。其二,明确两者之间的差异,以及各自能解决哪些技术难题。其三,相关技术领域人员能否直接应用该专利。然而,AI算法专利申请加大了创造性的审查难度:一方面,审查人员难以精准判定AI算法的应用领域。在过去,AI发明通常应用于特定领域,如AlphaGo应用于围棋比赛领域,“Siri”应用于苹果语音助手等。但如今,AI算法正在实现跨领域应用,如深度学习算法能够应用于自动驾驶、人脸识别等领域,ChatGPT类应用不仅能撰写邮件,还能设计代码等。申言之,AI算法应用范围越广泛,其应用领域就越难确定,这可能导致其无法通过现行创造性审查标准。另一方面,审查人员也难以确定AI算法能否促进现有技术的发展。AI算法具有高效分析、处理数据等功能,因此其专利申请者容易利用此类技术特征来“混淆”其技术效果,进而“模糊”其创造性审查。对此,可以结合“普通技术人员”①(32)①我国《专利审查指南》规定,“普通技术人员”指一种拟制的“人”,虽然不具有创造能力,但是知晓申请日或者优先权日之前发明所属技术领域所有的“一般技术知识”以及所属领域的“现有技术”,并且具有应用该日期之前常规实验手段的能力。“一般技术水平”这一要素以前两个要素的确定为前提和基础,是实践操作问题而非理论问题,故而不在本文讨论。、“一般技术知识”以及“现有技术”三要素进行综合判断,以修正创造性审查标准[20]。具体来说:
第一, 扩大“技术领域”的审查范围。在未来,AI的发展越趋近甚至超越“人脑”,其应用范围将不再束缚于特定技术领域,而是实现跨领域通用型AI(ChatGPT类应用已呈现出该趋势),故判断其是否具备“创造性”,应当综合考量其涉及的所有应用领域。第二,“普通技术人员”对于申请专利的技术水平理解,应当符合“现有技术”水平。美国最高法院就曾提出,对于“创造性”审查需要考虑现有技术的发展水平,我国《专利审查指南》虽未明确提出专利申请人需要说明专利发明创造方法,但也应满足一个前置条件:通过对比特定领域的“一般发明实践”或参考“行业趋势”,以判断AI的“应用”水平(有无创造性)②(33)②1966年在Graham案中,美国最高法院对《专利法》第103条加以解释,提出了“非显而易见”判断的“Graham要素”:决定现有技术的范围和内容;明确现有技术与所审查的权利要求之间的区别;确定本领域技术人员的水平。商业上的成功、长期渴望解决的技术需求、他人的失败等辅助判断因素,可以用来评价专利申请的技术方案所处的技术背景。。第三,既需要有“普通技术人员”的设定,还应根据不同技术背景进行灵活调整。例如,在“Environmental Designs,Ltd.v.Union Oil Co”案中,法院确定“普通技术人员”标准时会考虑多个因素:发明人的教育水平、现有技术解决问题的方法、技术的成熟度等③(34)③See Environmental Designs, Ltd. v. Union Oil Co., 713 F.2d 693, 696, 218 USPQ 865, 868 (Fed. Cir. 1983).。这些因素在每个案例中并非都必然存在,而在一个具体案例中,一个或多个因素可能占主导地位。美国法律对于发明的可专利性并不基于发明方式来判断,即无论是天才般的“灵感闪现”还是技术人员的“长期努力”都可以获得专利权。对此,有学者则提出可根据现有技术水平,来调整“普通技术人员”的技术标准[21]。也有学者认为,特定技术领域应用的AI可以替代“普通技术人员”[22]。还有学者认为,“普通技术人员”的范围,应是AI的使用者抑或是AI本身[23]。上述观点并未与我国现行创造性审查标准存在较大冲突,故可为其修正提供理论方向。
3.“实用性”修正
我国对于实用性的审查也是分为三步骤:其一,发明专利能否“再现”。其二,专利能否解决特定技术问题。其三,专利能否产生特定技术效果。然而,AI算法的技术特征也冲击了该审查标准:首先,专利申请者难以确保能“再现”AI算法相关应用。“再现”的要求是能够重复实施,而AI算法设计初虽有人类参与,但在设计后其主要依靠“自主学习”,逐渐演变成一种“技术黑箱”。其次,专利申请者也无法确定AI算法能否解决特定技术难题。正如EPO曾提出,一项发明能否解决技术难题,有时是隐藏于在技术领域之外④(35)④欧洲专利公约(European Patent Convention,EPC)没有对术语“发明”和“技术”给出积极的定义。但是,具有技术性是EPC第52条意义上的发明的隐含要求。由于一项发明只有在涉及EPC第52条的(2)所列项目时才会被排除在可专利性之外。。再次,AI算法的“不可解释性”使得专利申请者,也无法确定其会产生特定的技术效果。鉴此,AI算法专利的实用性审查可作以下调整:
一方面,严格审查AI算法的“技术效果”。首先,应将“技术效果”作为评估AI算法专利的核心因素。对于AI算法来说,技术效果的实现需要考虑其效益,即能够创造商业价值和经济利益,旨在确保其专利权授予是有意义且合理的。其次,还必须考虑AI算法对社会和人类生活的积极影响。专利审查人员应当根据实用性标准中的“技术方案对社会产生积极效果”的要求,评估AI算法的社会效益和贡献,这包括但不限于对提高人类生活质量、减少资源消耗和环境影响的潜力,以及对社会公共利益的积极影响。再次,还需要关注AI算法及其相关发明是否符合道德和伦理规范。AI技术的发展对人类社会带来了许多伦理和法律挑战,如隐私保护、数据安全、算法偏见等。因此,审查人员需要通过专利审查过程中的伦理审查环节,对AI算法及相关发明进行道德和社会价值层面进行综合考量,排除那些违背伦理规范、危害社会公共利益的专利申请。
另一方面,加入“人类干预”这一要素。AI算法技术效果的审查是一个具有抽象性和模糊性的过程,如果缺乏人类参与,算法可能会脱离人类的控制。因此,有学者提出“是否存在人类参与”应成为评估算法积极效果的一个因素[24]。在AI相关发明的创造过程中,人类有责任承担事前预防、及时中止和事后审查的义务,从而实现对AI算法全过程的监督,尽可能降低其“不可解释性”。详言之:首先,在AI算法设计之初,人类参与“事前预防”能够帮助设计者指引算法的设计方向,以确保其与社会、道德和法律价值保持一致。通过规定和约束AI算法的设计目的,可以有效引导算法产生积极效果,以满足社会需要。其次,在AI算法运行过程中,人类参与“及时中止”也是不可或缺的。特别是当算法决策涉及复杂、敏感或高风险领域时,如医疗诊断、法律判断等,人类具有判断能力、伦理意识和情感理解,可以识别出算法存在的潜在问题,并及时采取措施纠正错误,从而保护公众利益和个体权益。最后,人类参与“事后审查”能够分析算法决策的结果,并对其进行评估和改进。通过搜集数据、观察反馈等审查行为,可以有效掌握AI算法实施的真实效果和潜在风险,以便对其进行进一步优化和调整。
以ChatGPT为代表的生成式人工智能应用的诞生,标志着AI技术即将迈向一个新的起点。如今,各个领域中智能产品和服务的出现越来越频繁,社会公众对于“算法”这一原本晦涩的技术概念也变得更加熟悉。在现实生活中,生成式人工智能算法的设计和研发工作充满了困难和挑战,同时也极大地依赖于数据供给和庞大的资源投入。因此,保护其知识产权具有合理性和必要性。然而,现有著作权、商业秘密、行业自律保护路径均存在局限性,无论是从理论层面还是出于实践层面的考量,生成式人工智能算法采取专利保护可谓是最优解。在专利保护体系下,亟需厘清生成式人工智能算法与相关客体之间的差异,将其视为一种特殊的专利客体,争取纳入到专利制度范畴,充分利用专利制度中的“公开换保护”机制,促使更多的技术信息从“黑盒”状态向开放状态转变。同时,基于其技术特征,划定其专利授权范围,修正“专利三性”审查标准,构建契合生成式人工智能算法的可专利性规则,以助于我国抢占数字时代发展先机,解决“卡脖子”难题,尽快实现从“跟跑者”向“领跑者”的历史跨越。
猜你喜欢 客体专利算法 专利水运工程(2022年7期)2022-07-29符号学视域下知识产权客体的同一性及其类型化解释研究生法学(2020年6期)2020-04-13基于MapReduce的改进Eclat算法成都信息工程大学学报(2019年4期)2019-11-04Travellng thg World Full—time for Rree阅读与作文(英语初中版)(2019年8期)2019-08-27发明与专利传感器世界(2019年4期)2019-06-26进位加法的两种算法小学生学习指导(低年级)(2018年11期)2018-12-03一种改进的整周模糊度去相关算法现代防御技术(2016年1期)2016-06-01旧客体抑制和新客体捕获视角下预览效应的机制*心理科学进展(2015年5期)2015-02-26关税课税客体归属论海关与经贸研究(2014年5期)2014-02-28“活”源于怦然心动——写生对客体借用中的情感因素天津大学学报(社会科学版)(2013年1期)2013-03-11扩展阅读文章
推荐阅读文章
老骥秘书网 https://www.round-online.com
Copyright © 2002-2018 . 老骥秘书网 版权所有