日本企業因應歐盟人工智慧法將強化AI安全機制
據媒體報導,歐盟於5月21日通過全面監管人工智慧(AI)法律,適用於開發生成式AI等基礎模型以及提供應用AI服務等廣泛領域,預計於2026年正式實施。新法中AI將依風險程度進行分類,制定包括禁止使用或受監管等風險管理,並對AI產品進行標註等相應規範。
日本政府在歐盟通過人工智慧法後隔天即舉行「AI戰略會議」,確認將開始討論是否在日本國內引入新法規。媒體指出,隨著生成AI的快速普及,各界對於風險管理的擔憂日益加劇,歐盟對AI加強管制之趨勢將對日本企業產生重大影響。
日本富士企業在歐盟推出加強資料保護等領域規範後,籌組內部專家委員會,建立機制以評估企業AI技術的安全性。另外,該公司於2021年在歐盟發表人工智慧法後,設置專門應對團隊之外,2023年在歐洲與美國等地區分別設置AI風險管理負責人,加強因應措施。
NEC於2018年設立以人權與隱私觀點所制定之AI商業戰略組織,未來該公司將因應歐盟人工智慧法,加強風險管理。
關於AI規範問題,如何在AI技術開發與應用普及階段,確保安全性與可信度,未來將是個重大挑戰。目前歐盟、美國與日本各國在法律規範與企業自主規範之間的重視程度已產生相對差異。同時,AI商業的國際競爭日益激烈,日本企業需要依各國規範做出更加細緻的因應方式。
野村綜合研究所指出,由於歐盟新法規不僅適用於開發者,也適用於提供AI服務的業者,整體供應鏈須共同應對新法規,日本企業亦需跨越組織建立風險管理機制。另外,人工智慧法要求企業自行評估風險,各企業將面臨更大困難,內部不僅須建立風險評估機制,同時也需兼顧提高國際競爭力目標。