
2026/02/05
圖文引用自:tw.news.yahoo.com
立法院於去年底三讀通過《人工智慧基本法》,成為我國科技治理的重要里程碑,確保技術應用符合社會倫理,維護國家文化價值及提升國際競爭力。前司法官學院院長林輝煌日前投書《最高檢察署月刊》(註)指出,若是僅制定《人工智慧基本法》而未同步建構具體可操作的專法或調整現行相關法規,恐使AI治理流於形式,甚至帶來刑事程序失衡、行政裁量失控及憲法審查空洞化等風險。
我國向來以先進科技為傲,贏得科技島美名,尤以人工智慧(Artificial Intelligence, 以下簡稱AI)的高度發展為最。繼許多國家紛紛制定人工智慧法規範,監理人工智慧的持續發展,我國不落人後,經由立法院於2025年12月23日三讀通過《人工智慧基本法》,作為回應人工智慧發展風險與治理需求的核心立法選擇。
該法共計17條,明確提出「永續發展與福祉」、「人類自主」、「隱私保護與資料治理」、「資安與安全」、「透明與可解釋」、「公平與不歧視」以及「問責」等七大原則,旨在促進以人為本的人工智慧研發與產業發展,並強調建構安全的AI應用環境,以保障人民基本權利及落實數位平權。
AI基本法的挑戰:治理起點還是終點?
近年來,台灣立法體系中頻繁出現以「基本法」回應新興風險的趨勢,包括弱勢族群、環境生態、科技發展及人權保障等領域。然而,有關基本法是否能承載制度建構的重任,或僅淪為政策宣示的工具,仍需進一步檢驗。
林輝煌表示,人工智慧技術對社會秩序的影響已遠超出產業創新或行政效率層面,其涉及人民基本權利、國家公權力行使方式及司法判斷結構的深層變革。若僅以《人工智慧基本法》作為治理框架,恐無法應對AI治理中高度複雜且風險導向的挑戰,甚至可能因規範密度不足而導致制度性缺陷。
三大制度風險浮現
林輝煌從刑事程序、行政法治及憲法審查三個面向分析指出,《人工智慧基本法》可能引發以下三大風險:
1、刑事程序中正當法律程序的弱化
人工智慧技術已廣泛應用於犯罪預測、風險評估、證據分析等刑事司法流程,但目前相關規範僅停留於抽象原則層面,對具體運用情境缺乏明確指引。這可能導致演算法被視為「中立」或「客觀」的證據來源,削弱法院對證據可靠性的審查,進一步侵蝕程序正義。
2、行政裁量的擴張與法律保留原則的空洞化
在行政管制中,若僅依賴原則性規範,可能導致行政機關裁量權過度擴張或責任模糊。此外,私人企業開發並運作的AI系統,其決策結果直接影響公共利益,但現行法律對監督機制與責任歸屬未有具體規範,恐形成治理真空。
3、憲法審查中的可審查性不足
人工智慧對隱私權、平等權等基本權利的潛在影響顯著,但目前《人工智慧基本法》僅為價值宣示性文件,缺乏足夠的規範密度以支持憲法層級的審查。在面對AI決策引發的基本權爭議時,可能無法提供有效救濟基礎。…