
路透引述《金融時報》報道,高盛香港銀行家已被要求停用Anthropic嘅Claude模型;Anthropic方面就話,Claude從來未喺香港提供正式商業支援。呢件事唔只係一間公司禁用一個AI工具,而係香港係咪正式被劃入中國AI風險邊界嘅核心訊號,背後含義值得深入拆解。
根據《金融時報》、《彭博》同路透多方確認,高盛喺香港嘅員工,幾星期前開始已經用唔到內部AI平台入面嘅Claude;高盛解釋,呢個係同Anthropic磋商之後,對原有合約「採取嚴格詮釋」嘅結果——換句話講,高盛係主動出手,將香港員工排除喺Anthropic產品使用範圍之外。Anthropic嘅回應同樣關鍵:Claude從未喺香港獲得官方支援。同時要留意,呢個禁令並無影響高盛同其他AI供應商,例如OpenAI嘅合作,意味問題唔喺AI本身,而係Anthropic特定服務條款同合規定義。
第一個關鍵問題:點解係Claude?點解係而家?要理解呢條時間線,要睇返本月初彭博另一則報道:4月10日,美國財政部長Bessent同聯儲局主席鮑威爾,曾召集多間大銀行CEO,討論Anthropic新模型帶嚟嘅金融風險。即係話,美方監管機關已經正式將前沿AI模型,納入金融體系穩定性議題。銀行面對嘅唔再只係合約風險,而係隨時被監管機關介入嘅政策風險。喺呢個背景之下,高盛先對香港員工開刀,其實係典型合規操作——先收緊灰色地帶,再慢慢觀望。
第二個關鍵問題:「Claude從未喺香港獲得正式支援」應該點解讀?呢句說話其實反映咗美國科技公司喺中港市場嘅尷尬處境——表面冇禁令,但服務條款一直將香港列為「不支援地區」。對Anthropic嚟講,香港貼近中國大陸嘅法律同數據邊界,本身就難處理:銀行內部資料一旦上傳到Claude,究竟受中國國安法、個人資料保護法,定美國出口管制法監管?無人想踩呢條紅線。高盛今次嘅做法,等於將原本隱藏嘅灰色地帶公開化,其他國際大行之後再難當睇唔到。
由此引申出三個合規風險。第一係法律不確定性風險。香港目前對AI模型使用,仍未有獨立清晰規範,金管局同證監會都有出指引,但兩套規則唔重疊、覆蓋有限,國際銀行只能用最嚴標準自保。第二係供應商市場切割風險。一旦Anthropic開咗先例,其他AI供應商例如OpenAI、Mistral、Cohere,可能跟進將香港列為「特別審視地區」,對依賴AI做投行分析、定價同合規搜尋嘅銀行嚟講,等於工具箱被逐步收窄,競爭力慢慢流失。
第三係聲譽同人才流失風險。香港近年積極推AI金融,金管局推「金融科技2025」,證監會亦放寬AI輔助投資決策,但國際大行反而自我收緊,整個定位開始出現矛盾。本地AI人才會唔會轉去新加坡、日本或者阿聯酋,將會係未來幾季嘅關鍵觀察點。新加坡金管局過去兩年已經主動吸引美國AI公司設區域基地,配合國家AI戰略;阿聯酋亦透過G42等主權基金加速吸納相關資源。
呢件事亦顯示美國對華科技戰嘅方式正在改變。以前係政府制裁、出口管制、實體清單;而家係企業內部合規部門自動執行。呢種「自我收緊式」操作,冇正式禁令,但效果一樣係將香港逐步排除喺前沿AI生態之外。就好似歷史上朱元璋清洗將領,結果後來應對內部叛亂時無人可用——當最先進工具被切走,本地金融機構喺高端業務競爭上,就會少咗一件關鍵武器,補都補唔返,最終只能被其他市場超前。
接落嚟要留意三條線索。第一,摩根士丹利、JPMorgan、瑞銀、滙豐等其他大行,未來四星期內會唔會跟高盛一樣收緊AI使用政策;第二,金管局同證監會會唔會就跨境AI使用,特別係香港、中國內地、新加坡之間嘅數據流動,推出補充指引;第三,Anthropic、OpenAI、Google DeepMind等服務條款,會唔會對「香港」作出新修訂。如果三條線同時收緊,香港作為國際金融中心嘅AI優勢,可能會比預期更快流失。而5月4日Segantii案開審,以及5月中特朗普訪華,會唔會進一步影響市場對香港監管環境嘅信心,亦值得密切觀察。