台商大陸智財權服務網-破解 AI「黑盒子」困境

破解 AI「黑盒子」困境

2026-04-01 出處 / 工業總會-智慧財產權委員會

文:張遠博(工總智慧財產權處資深專員)

隨著人工智慧(AI)技術由實驗室快速走入產業應用,相關專利申請量亦呈現爆發式成長。然而,AI尤其是以深度學習(Deep Learning)為核心的神經網路模型,長期被視為難以解釋的「黑盒子(Black Box)」。即便開發者能清楚掌握輸入資料與輸出結果,卻難以用傳統工程邏輯,完整說明模型內部數以百萬計參數的運作機制。

AI常常是「會用但難解釋」,但專利要求「要講到別人能照著做」。所以AI的黑盒特性,會和專利的充分揭露/可據以實施產生拉扯。若說明書本身仍呈現「黑盒子」狀態,僅泛稱「使用AI即可達成高準確率」,卻未具體揭露訓練方式、資料處理或參數設計,各國專利局勢必將其視為揭露不足而予以核駁。

本文彙整近期工業總會舉辦「國際關鍵市場專利申請與訴訟實務論壇」中,嘗試從實務角度出發,解析AI黑盒子在專利制度下面臨的挑戰,並試著整理出具備全球布局思維說明書撰寫策略供產業參考。

 

AI是否已進入「高度不可預測」領域?

在傳統機械或軟體專利中,所屬技術人員通常可依物理定律或邏輯推演合理預期結果;然而,在近年的AI專利審查實務中,一項明顯的趨勢正在形成──審查機關愈來愈傾向將AI視為類似化學、醫藥或生物技術的「高度不可預測」技術領域。

論壇中童啟哲專利師指出,傳統上軟體被視為電路設計的延伸,具有相對可預測性;但當前以深度學習為核心的AI技術,其行為表現高度依賴資料特性與參數設定,其不可預測程度,實已更接近化學或醫藥領域,變異性大且難以單憑理論預測結果。因此,在這類高變異性技術中,僅憑理論敘述,往往不足以證明發明可被實施,說明書的揭露門檻自然隨之提高。

換言之,若僅於說明書中記載「使用深度學習模型進行預測」,就如同在化學專利中僅宣稱「混合A與B會產生新物質」,卻未交代反應條件,顯然難以滿足可據以實施要件。即便採用相同模型架構,只要訓練資料或參數不同,實際效果往往差異極大。

這種對「不可預測性」的重新定位,已實質提高各國對實施例與實驗數據的要求。以經濟部智慧局(TIPO)為例,若輸入與輸出之間的關聯性非屬顯而易見(例如以體型特徵推薦床墊),而說明書又欠缺訓練過程或實驗數據佐證,極易被認定為揭露不足。韓國與中國的審查指引亦採取類似立場,要求透過具體訓練手段補足技術特徵的具體化。因此,撰寫AI專利的心態轉換在於不再只是功能描述,而更接近「技術實驗報告」。

 

歐洲觀點:拒絕抽象描述,必須說清楚「為何有效」

歐洲專利局(EPO)對AI專利的嚴格標準,已成為產業界的共識。其審查邏輯核心在於:AI演算法本身屬於抽象的數學方法,唯有在被具體應用於解決「技術問題(Technical Problem)」時,才具備可專利性。

在揭露充分性層面,EPO更進一步要求說明模型結構、訓練方式與技術效果之間的因果歷程。德國專利律師王曉迪指出,若僅描述「使用神經網路」而未交代訓練方式,將被視為無法重現技術效果,進而構成公開不足。

例如,若發明涉及圖像分類,僅強調準確率提升仍不足以構成技術性;審查員關心的是,該分類是否服務於具體技術目的。若僅用於一般圖片標籤,恐難通過審查;但若應用於醫學影像病灶識別或自駕車障礙物偵測,則較能被認定為技術手段。

EPO判決亦進一步釐清,單純的電腦模擬仍屬數學運算,除非該模擬直接對實體系統產生技術效果,或其設計本身反映具體技術原理。因此,在歐洲市場中,僅描述「輸入→AI→輸出」的黑盒流程,幾乎注定難以成立。

 

亞洲實務:以數據補足理論說明的不足

相較歐洲對因果說明的高度要求,台灣、韓國與中國大陸的審查實務,則展現出較為務實的取向。當AI黑盒子的內部運作難以完全解釋時,審查重點轉而聚焦於輸入與輸出之間是否存在「合理關聯性(Reasonable Correlation)」。

韓國金張法律事務所解律師曾舉例說明,若一項房屋溫度控制系統,以「霧霾濃度」作為輸入,卻未能說明其與溫控效果的關聯性,亦未提出實驗數據佐證,將被認定為揭露不足。

這類案例對產業界的啟示相當明確:當輸入特徵與輸出結果的關聯性非屬一般常識,說明書即負有舉證責任。實務上,各國已普遍接受以「結果反推過程」的方式補強揭露,例如提供準確率比較、輸入輸出對照表或對照實驗數據。

即便無法解釋神經網路中每一層權重的意義,只要能以數據證明特定特徵組合確實顯著提升模型效能,即足以構成合理關聯性的證據。此一「以數據說服審查員」的策略,已成為亞洲市場中攻克AI專利審查的關鍵。中國大陸實務亦指出,對於模型訓練類申請,需記載算法步驟及訓練過程,並說明輸入與輸出數據間的關聯關係;若能進一步提供實驗數據或分析論證,將更有助於支撐模型功能與技術效果。

 

實務建議:將AI技術進行「白箱化」撰寫

在AI相關專利或技術文件的實務撰寫上,關鍵在於將原本不透明的「黑盒子」技術加以白箱化,使其具備可理解性與可據以實施性。首先,應對訓練數據進行具體的特徵化說明,明確交代資料來源、篩選標準、解析度或標註方式,而非僅以「大數據」等概括性用語帶過。

其次,需將資料預處理流程具象化,清楚描述原始資料如何經由清洗、轉換或編碼,最終形成可供模型訓練的資料集,以凸顯技術實際介入的環節。再者,對於模型架構與參數設計,應說明模型層數、所採用的函數類型及其參數調整邏輯,特別著墨於體現發明進步性的技術設計重點。同時,也須清楚界定輸入與輸出之間的對應關係,說明特定技術問題如何透過特定資料結構與模型設計獲得解決。

最後,應輔以實驗數據與效果驗證,例如比較實驗結果或準確率等量化指標,以支持技術效果具備可再現性,從而強化整體技術揭露的完整性與說服力。

 

結語

對產業界而言,這代表專利策略必須更深度地與研發流程結合;研發團隊需意識到,模型成果本身並不足以支撐專利權,相關資料處理、參數調整與實驗紀錄,都是未來權利穩定性的基礎。撰寫人員則需扮演橋樑角色,將工程語言轉譯為專利制度所理解的「解決技術問題之具體手段」。

訂閱電子報

每月寄送一次,提供智財權發展與
新知讓您完整掌握最新消息、國際動態