韓聯社消息稱,韓國《關於人工智能發展和構建信賴基礎的基本法》(簡稱“AI 基本法”)於 1 月 22 日起正式施行,由此成為全球首個全面實施 AI 法律框架的國家。
該法案旨在規範 AI 模型的安全使用,建立了一個監管框架,以防止涉及這一新興領域的虛假信息和其他危險影響。核心是要求公司和 AI 開發者承擔更大的責任,以應對 AI 模型可能生成的深度偽造內容和虛假信息,並賦予政府權力對違規行為處以罰款或展開調查。
具體來説,該法案引入了“高風險 AI”的概念,指的是用於生成可能對用户日常生活或安全產生重大影響的內容的 AI 模型,包括就業過程中的應用、貸款審查和醫療建議。
使用此類高風險 AI 模型的實體必須告知用户其服務基於 AI,並負責確保安全。AI 模型生成的內容必須帶有水印,以表明其由 AI 生成。一位韓國部委官員表示:“對 AI 生成的內容應用水印是防止濫用 AI 技術(例如深度偽造內容)產生副作用的最低限度保障措施。”
在韓國提供 AI 服務的全球公司,如果符合以下任一標準——全球年收入達到 1 萬億韓元(6.81 億美元)或以上,國內銷售額達到 100 億韓元或以上,或在韓國擁有至少 100 萬日活躍用户 —— 則必須指定一名當地代表。目前,OpenAI 和 Google 都符合這些標準。
違反該法案者可能被處以最高 3000 萬韓元的罰款,政府計劃實行一年寬限期,以幫助私營部門適應新規。該法案還包括政府促進 AI 產業發展的措施,要求韓國科學部長每三年提交一份政策藍圖。