
意大利競爭與市場管理局(AGCM)剛宣佈,隨著中國 AI 巨頭 DeepSeek提出咗有約束力嘅改進承諾,局方已決定結束對其進行嘅反壟斷及消費者權益調查。今次調查嘅重點,係在於呢個 AI 系統之前未有充分話比用家知,生成嘅內容可能有假嘢,亦即係行內通稱嘅「AI 幻覺」(AI Hallucinations)。呢個決定,標誌住歐盟國家喺監管外地 AI 模型方面有新進展,同時亦為中資科企出海合規化做咗個樣板。
講返轉頭,舊年 6 月,負責反壟斷同保障消費者權益嘅意大利監管機構 AGCM 正式開 file 查 DeepSeek。當時局方最擔心嘅係,DeepSeek 喺意大利做生意嗰陣,個介面設計同用戶指引唔夠清晰,無有效咁提醒用家,個 AI 模型處理問題時,隨時有機會整啲唔準確、誤導甚至係完全虛構嘅資訊出嚟。呢種情況喺技術層面叫做「幻覺」,即係話個大型語言模型(LLM)收到指令後,係靠估(概率預測)而唔係查證事實,似層層咁整啲同現實脫節嘅內容出嚟。如果用家唔知頭唔知路,信晒呢啲料去搞醫療、法律或者金融呢啲大鑊嘢,後果可以好嚴重。
喺 AGCM 禮拜一發布嘅最新每周公報入面,當局詳細披露咗結案嘅理據。負責 DeepSeek 全球營運嘅主體,杭州深度求索人工智能有限公司(Hangzhou DeepSeek Artificial Intelligence Co., Ltd.)同埋佢嘅關聯公司北京深度求索人工智能有限公司,為咗回應監管機構嘅指控,同埋避開巨額罰款或者更嚴厲嘅制裁,主動提出咗一攬子具體嘅整改承諾。
根據 AGCM 嘅公告顯示,DeepSeek 承諾會明顯改善相關資訊嘅披露機制。具體嚟講,即係有關「幻覺」風險嘅提示唔會再收埋喺長氣嘅使用條款入面,而係要變得更加容易搵到、透明度高啲、普通用家易啲明,仲要喺關鍵時刻及時彈出嚟。即係話,將來用家問 DeepSeek 嘢或者寫嘢嗰陣,會更直觀見到關於內容準確性嘅免責聲明或者實時警示,減少因為盲信 AI 輸出而中伏嘅風險。
呢單案嘅背景,正值中國 AI 技術喺全球極速上位之際。DeepSeek 作為中國 AI 界嘅龍頭,憑住超高性價比同開源策略,喺 2024 年底到 2025 年初震驚咗全球科技同財經界。外界普遍認為,呢個模型用好低嘅訓練同推理成本,就做到同美國矽谷(Silicon Valley)頂級對手不相伯仲嘅表現。呢種突破唔單止打破咗歐美科技巨頭喺高端 AI 模型上嘅壟斷,仲加速咗 AI 喺各行各業嘅普及。不過,隨著用家數目爆發式增長,數據安全、內容合規同保障消費者呢啲問題亦都浮晒上水面,成為各國監管機構嘅焦點。
意大利作為歐盟入面監管 AI 最嚴嘅國家之一,對呢類新科技一直睇得好緊。事實上,DeepSeek 喺意大利嘅路亦唔易行。早喺舊年 1月,意大利數據保護機構(Garante per la protezione dei dati personali)就曾經因為數據私隱風險,一度下令 DeepSeek 喺 Apple 同 Google 嘅 App Store 落架,要求佢整改數據處理流程去符合歐盟嘅《通用數據保障條例》(GDPR)。
其實意大利並唔係第一次向全球熱門 AI 產品「開刀」。早喺 2023 年,當地部門就試過因為涉嫌違反歐盟私隱規則,令意大利成為西方國家之中首個暫時禁止使用 OpenAI 旗下 ChatGPT 嘅國家。呢連串強硬手段突顯咗意大利喺平衡科技創新同公民權利方面企得好硬。AGCM 今次對 DeepSeek 查完又結案,進一步強化咗呢個邏輯:即係 AI 企業追求性能突破之餘,一定要對消費者負責任,確保技術透明同安全。
對 DeepSeek 嚟講,今次同意大利監管機構和解,雖然意味著要改下產品介面同流程,但長遠睇,亦係佢全球化戰略必經嘅一步。通過主動配合監管要求,完善「幻覺」風險提示,DeepSeek 唔單止可以消除歐洲市場嘅法律不確定性,仲有助建立更負責任嘅品牌形象。隨著 AI 技術越嚟越成熟,點樣減少「幻覺」同建立用家對 AI 工具嘅正確預期,已經係全球科技界共同面對嘅課題。今次意大利嘅監管案例,無疑會為將來其他國家處理類似問題提供重要嘅參考。