
當地時間3月24日,美國馬里蘭州巴爾的摩市正式入稟,起訴 xAI、X 以及相關被告,指控旗下人工智能產品 Grok 生成大量非自願性色情深偽(deepfake),當中包括涉及未成年人嘅影像,並尋求禁制令同民事金錢處罰。呢單案最大意義唔只係「又有人告科技公司」,而係一座城市政府開始用消費者保護框架,正面追究一個主打高速部署、流量驅動嘅 AI 生態系統。
巴爾的摩巡迴法院案件文件顯示,原告係巴爾的摩市政府,代表消費者保護處提告;被告除咗 xAI 相關公司,仲包括 X Corp. 以及 SpaceX。起訴方向唔係普通私人民事侵權咁簡單,而係指被告向消費者提供或推廣一個被描述為安全、可信賴嘅 AI 助手,但實際上容許或促成非自願性色情深偽生成,涉嫌違反當地消費者保護法。路透社形容,呢係目前已知首單由美國主要城市針對 xAI 發起嘅同類訴訟。
最受關注嘅,當然係數字。起訴書引述研究,指 Grok 在短時間內生成大約300萬張性化影像,其中大約2.3萬張涉及兒童;文件亦提到,在馬斯克公開推廣相關功能後,影像生成量明顯激增,並提到部分功能其後轉為 X Premium 付費用戶可用。呢啲內容都喺起訴書白紙黑字寫明,亦與外部研究機構 CCDH 的報告相呼應。不過,呢啲數字目前屬原告文件嘅的主張同所引用研究估算,並唔係法院已裁定為真。
過去一段時間,全球社會對 AI 深偽最大嘅爭議之一,就係平台到底係「中立工具提供者」,定係當產品設計、付費機制、分發流量同防護失效一齊出現時,平台本身已經變成高風險內容生產鏈條嘅一部分。巴爾的摩今次選擇唔只係控訴個別用戶濫用,而係直接追究產品設計、警示不足、保護失效同商業模式,意味住未來法院可能要回答一條更大嘅問題:當 AI 公司明知風險可預見,仍然快速開放功能,責任邊界畫喺邊?
而且,巴爾的摩唔係孤立個案。美聯社報道,另外有三名田納西州未成年女仔已就類似深偽色情影像,對 xAI 提出集體訴訟。路透社在年初亦已報道,Grok 的防護措施曾被發現不足,導致可生成女性與未成年人嘅性化影像,事件亦引起歐洲監管機構批評。即係話,巴爾的摩案件之所以重要,並唔係因為佢第一個指出風險,而係因為佢將風險正式放進一個公共法執法框架:由城市政府代表公眾利益入場,而唔係只靠受害者逐個打私人官司。當訴訟由個人維權升級到公權力執法,企業面對嘅壓力、披露責任同整改成本,都會完全唔同。
巴爾的摩起訴 xAI,已足夠成為2026年 AI 法律風險版圖上一個重要節點,因為佢將 deepfake 爭議由倫理討論,推進到城市層級嘅正式執法;但而家仍然只係起跑線,唔係終局。跟住最應該睇嘅,係四件事:第一,法院會唔會批准初步禁制令;第二,被告會點樣抗辯;第三,案件會唔會進入證據開示,迫使企業交代內部風險評估;第四,其他州、市甚至聯邦層面會唔會跟進。真正決定 AI 行業未來責任邊界嘅,唔係今晚邊個 headline 最刺激,而係法庭有冇能力將「你早知有風險」呢句話,轉化成具體法律責任。