人工智能研究機構AI Now近期發布其《2023年度景觀報告:對抗科技力量》(2023 Landscape: Confronting Tech Power)。報告認為,由于具備數據、計算能力和地緣政治優勢,科技行業的權力集中成為人工智能政策面臨的一大緊迫挑戰。為此,圍繞ChatGPT、算法問責制、生物識別監控、反壟斷等關鍵要素,AI Now提出了一系列可行的破解之策。
沒有大科技就沒有人工智能。
在過去的幾十年里,少數私人參與者積累了與國家相抗衡的權力和資源,同時開發和宣傳人工智能,將其融入關鍵社會基礎設施的建設當中。如今,人工智能遍及求職、醫療、教育、商品流通、交通秩序等各行各業,越來越頻繁地影響著社會的發展軌跡。
與此同時,令人擔憂的問題開始浮出水面:例如技術并不全都依照規定方式運轉,且可能生成高錯誤率或歧視性的結果。人工智能的不透明性問題意味著我們可能無法完全了解和掌控這項技術。
究其原因,人工智能的核心屬性說明了問題:它從根本上依賴于僅由少數大型科技公司擁有和控制的資源。
三個關鍵維度
大型科技公司在人工智能領域的主導地位體現在三個關鍵維度:
1、數據優勢:那些能夠獲得最廣泛、最深入行為數據的公司,在開發消費級人工智能產品方面占據主導。這反映在科技公司通過收購、合并擴大這種數據優勢。科技公司已經積累了巨大的經濟實力,這使它們能夠將自己作為核心基礎設施嵌入健康、消費品、教育、信貸等許多行業。
2、計算能力優勢:人工智能從根本上說是一個數據驅動的行業,嚴重依賴用于訓練、調整和部署模型的計算能力。算力的高昂造價和芯片材料的依賴性意味著人工智能需要具備規模效率和高技能技術工人等條件,而只有少數公司才能真正構建起人工智能系統的基礎云和計算資源。這意味著盡管“AI初創公司”比比皆是,但它們只能成為大型科技公司“船體上的藤壺”——因為大型科技公司會利用其對必要資源的控制來遏制中小企業發展。
3、地緣政治優勢:當前,人工智能系統不僅僅是商業產品,更是國家的戰略經濟和安全資產,人工智能公司也成為這場地緣政治斗爭中的關鍵杠桿。
為什么是“大科技”?
本報告特別關注針對大型科技公司的政策干預。“大科技”(Big Tech)一詞起源于2013年,現在通常用于指代Google、Apple、Facebook、Amazon和Microsoft(縮寫為GAFAM),有時還包括Uber或Twitter等公司。
這些大公司積累了強大的網絡效應、數據和基礎設施資源。其經濟實力使這些公司能夠在社交媒體、醫療保健、教育和跨媒體等各個領域鞏固優勢地位。關注大型科技公司有利于對科技政策干預進行把握,理由包括:
① 便于監管機構調查大型科技企業的侵入性數據監視、對用戶自主權的干涉、壟斷以及歧視等重要問題。
② 大型科技企業對更廣泛的生態系統產生了一系列連鎖反應,激勵甚至迫使其他公司加入進來。例如,谷歌和Facebook采用行為廣告商業模式,推動商業監控成為互聯網的商業模式之一。
③ 整個科技行業和政府對大型科技公司的依賴與日俱增。這些公司的核心業務戰略是讓自己成為基礎設施,使自己成為技術生態系統中許多環節(如云計算、廣告、支付系統)不可或缺的環節。如果這些公司在運營過程中出現問題,則容易引發連鎖反應。
戰略重點
基于上述背景,以下戰略優先事項顯得尤為重要:
1、責任倒置:在危害發生時,應當讓公司證明他們沒有造成損害,而不是由公眾和監管機構在傷害發生后介入調查、識別和尋找解決方案。
2、打破政策領域之間的孤島,更好地解決一項政策議程的進展對其他政策議程的影響,避免企業利用政策間的不一致來發揮自己的優勢。
3、確定政策方法是否能夠有效監管行業行為,并及時地調整戰略,防止科技企業逃避政府監管。
4、超越對立法和政策的狹隘關注,接受基礎廣泛的變革理論。例如,可以利用股東提案讓大型科技企業對侵犯人權的行為負責。
行動之窗:AI監管格局
圍繞人工智能政策的關鍵需求,報告從大規模AI模型、反競爭行為、算法問責制、數據最小化、科技和金融資本、生物識別監控、國際數字貿易等方面闡述了未來AI的監管策略。要點包括:
1、削弱科技公司的數據優勢。
數據政策就是人工智能政策,為遏制公司的數據優勢而采取措施是限制科技公司權力集中的關鍵。因此,報告建議:
① 制定公司收集或生成消費者數據的明確限制規則(也稱為數據最小化規則)。
② 在人工智能政策的制定過程中將隱私法和競爭法進行有效銜接,避免公司利用這些規則的不適配來為自己謀取利益。
③ 優化監管指南和執法措施,對企業的數據優勢整合行為進行審查,使執法者能夠在損害發生之前進行干預,制止濫用數據的行為。
2、改革競爭執法手段,降低科技行業的技術集中度。
① 遏制大型科技企業利用數據優勢兼并其他公司,并在企業從事反競爭行為時對其進行調查和處罰。
② 推進反壟斷法案的進程,為反壟斷執法者提供更強大的工具來挑戰科技行業特有的濫用行為。
③ 整合技術政策領域的競爭分析。確定互聯網平臺公司可能利用隱私措施鞏固自身優勢的場景,分析云市場的過度集中如何對網絡安全產生連鎖影響(例如,2017年亞馬遜網絡服務公司的云服務器發生導流故障,導致多個醫療保健和醫院系統癱瘓)。
3、規范ChatGPT、BARD等大型模型。
① 從正在出臺的歐盟人工智能法案中吸取經驗,防止“通用人工智能”出現監管例外。警惕大型語言模型(LLM)和其他類似技術帶來的系統性風險,傾注更多而不是更少的監管審查。
② 強制保留技術文檔,從而確保這些模型的開發人員對數據和設計選擇負責。
③ 貫徹競爭法,以遏制生成式人工智能的結構依賴性、解決反競爭行為,同時對人工智能系統建立公共責任制,防止對消費者和正常市場競爭造成損害。
4、反對將審計作為人工智能的主要政策監管方法。
① 越來越多的政策提倡對人工智能系統進行審計。但審計無法應對大型科技公司與公眾之間的權力失衡,可能進一步鞏固科技行業的內部權力,并且會分散對結構性風險的關注。
② 審計規則基于流程的性質使它很容易被公司內部化,淡化更為根本且重要的結構性變革方法,阻礙“利益相關者提出基本原則問題的能力,并將道德因素(即使系統完美地執行了任務,但是否代表該系統就是公正的?)從更根本的改革中排除出去。
③ 因此,報告建議對有害人工智能施加強有力的結構性改革措施,例如禁令、停業規則等。
5、防止生物識別監控在智能汽車等新領域的無序擴展。
① 實踐證明,數據保護法在防止生物識別系統危害方面的監管并不到位。在這種環境下,全面明令禁止企業在某些領域收集和使用數據應當是未來政策干預的關鍵。
② 汽車制造商正在與大型科技公司建立合作伙伴關系,從而實現與汽車硬件系統的深度集成。然而,當下的生物識別實際應用已經蔓延到對情感、性格和意圖的推斷上。例如,用于跟蹤送貨司機的車內監控系統集成了情緒識別系統,聲稱可以監控司機的“注意力”,并密切關注潛在的攻擊行為。該行為不僅可能不符合相稱性、公平性和透明度原則,還可能具有歧視性影響。
③ 有鑒于此,歐盟人工智能法案已經提出要明確禁止情感識別,并將其列為最高級別類別的“不可接受風險”。另外,報告還建議應該更嚴格地執行數據最小化條款,以遏制虛擬現實和汽車等新領域中生物特征數據收集的擴展。
6、防止數字貿易協定削弱國家對算法問責制和競爭政策的監管。
① “數字貿易”規則可能會削弱數據隱私、算法問責制和科技行業競爭的監管效果。貿易協定包括具有約束力的國際規則,這些規則限制了政府監管商業公司的范圍。由于談判的保密性和相對不受公眾政治壓力的影響,它們已成為科技行業為爭取優惠待遇而進行激烈游說的焦點。
② 然而,貿易協定中的非歧視禁令規則不應被視作大型科技公司免受國外競爭監管的工具。報告認為數字貿易協定樹立了一個危險的先例:科技行業現在把貿易協定視為一個舞臺,它們可以通過游說確立政策立場,從而形成對它們有利的規則。
③ 另外,貿易協議中對源代碼和算法的保密規則不應該被當做削弱算法透明度的工具,監管當局應當對人工智能系統進行更主動和持續的監控。
編輯:黃飛
?
評論
查看更多