在 AI 行業最炙手可熱的時刻,郝珂靈(Karen Hao)可能是硅谷“最不受歡迎”的記者之一。
這位麻省理工學院機械工程專業出身的美籍華裔記者,曾任《麻省理工科技評論》高級 AI 編輯、《華爾街日報》記者,現爲《大西洋月刊》撰稿人。2025 年,她被《時代》雜誌列入 TIME100 AI 名單,評語是“從根本上塑造了許多人對 AI 革命中心公司的認知”。
同年 5 月,她出版了《AI 帝國:山姆·奧特曼的 OpenAI 之夢和夢魘》(Empire of AI: Dreams and Nightmares in Sam Altman ''s OpenAI),一舉登上《紐約時報》暢銷書榜。這本書的編寫基於郝珂靈超過 250 人的採訪,其中 90 多位是 OpenAI 現任或前任員工和高管,深入調查了 OpenAI 的內部運作以及 AI 行業對全球勞工、環境和社會的影響。

(來源:MIT TR)
最近,被稱爲“AI 吹哨人”的她接受了 YouTube 頻道 The Diary of a CEO 的專訪。視頻一經上線,不到一週播放量已突破 200 多萬。
在兩個小時的對話中,郝珂靈詳細闡述了自己對 AI 行業的批判性觀察,普通人和世界正在經歷和遭受的困境。她還披露了大量關於山姆·奧特曼(Sam Altman)和 OpenAI 的內幕,並提出了一個核心論斷:這些 AI 公司的運作方式,與舊時代的帝國別無二致。

(來源:Youtube)
一個硅谷局內人的覺醒
在採訪開頭,郝珂靈介紹,她走上科技記者這條路,是因爲一次幻滅。
她在 MIT 學的是機械工程,畢業後搬到舊金山,加入了一家專注於應對氣候變化的科技創業公司。“我當時真的相信硅谷的使命,”她回憶道。然而,入職幾個月後,董事會以公司不盈利爲由解僱了 CEO。
“那是一個轉折點。我意識到,如果這個地方最終是爲了盈利而存在,而世界上很多真正需要解決的問題:比如氣候變化,並不能帶來利潤,那我們到底在做什麼?”
她開始重新思考自己的職業方向。兩年後,她加入《MIT 科技評論》,成爲全職 AI 記者。“我想探索的問題是:誰有權決定我們建造什麼技術?金錢和意識形態如何驅動這些技術的生產?我們如何確保創新生態系統真正服務於全世界的人?”
2019 年,她深入 OpenAI 辦公室做了三天採訪,最終在 2020 年發佈了一篇深度報道《OpenAI 拯救世界背後混亂而隱祕的真相》(The Messy, Secretive Reality Behind OpenAI’s Bid to Save the World)。文章發表後,OpenAI 高層非常不滿。因爲她在書中引用了山姆·奧特曼(Sam Altman)發給全公司的郵件,高層認爲這個影響“非常不好”。

(來源:麻省理工科技評論)
從那以後,OpenAI 對她關上了大門。“有一次,我的同事收到 OpenAI 的新聞稿,想轉給我跟進。OpenAI 的人說:‘不行,我們和她有點過節。’”
但郝珂靈認爲這反而成全了她。“當時我覺得自己搞砸了,甚至懷疑是不是應該對他們更友善一些。但現在回頭看,正因爲他們的門永遠不會爲我打開,我才能真正獨立地報道我看到的事實,不管這些公司喜不喜歡。”這也是郝珂靈編寫《AI 帝國》這本書的重要起點。
那麼爲什麼把這本書叫做《AI 帝國》?
郝珂靈在採訪中解釋說,“帝國”是她找到的唯一能夠完整涵蓋這些公司行爲模式的隱喻。她在採訪中詳細闡述了 AI 公司與舊時代帝國的四個平行之處:
第一,侵佔不屬於自己的資源。這些公司聲稱對藝術家、作家和創作者的知識產權擁有使用權,用於訓練模型。它們還在全球各地瘋狂圈地,建造超級計算設施。
第二,剝削大量勞動力。它們僱傭數十萬承包商進行數據標註工作,工資低廉,工作條件惡劣。同時,它們設計的工具本身就是爲了自動化勞動,進一步侵蝕勞動者的權益。
第三,壟斷知識生產。“如果世界上大多數氣候科學家都由化石燃料公司資助,你覺得我們能得到準確的氣候危機圖景嗎?同樣的邏輯,AI 行業僱傭和資助了世界上大多數 AI 研究人員。”她舉了 Google 解僱 AI 倫理團隊負責人蒂姆尼特·格布魯(Timnit Gebru)的例子。格布魯本來被聘來批評 Google 正在開發的 AI 系統,當她合著了一篇揭示大語言模型負面影響的論文時,卻被解僱了。
第四,帝國敘事。“帝國總會告訴公衆:我們是好帝國,我們必須成爲帝國,因爲世界上還有壞帝國。如果你讓我們獲取所有資源、使用所有勞動力,我們承諾會給你帶來進步和現代化。但如果邪惡帝國先做到了,我們就會墜入地獄。”
郝珂靈指出,在 OpenAI 早期,這個“邪惡帝國”是 Google。而現在,它變成了中國。
AI 領袖們的帝國“宮鬥”
在 250 多次對科技從業者的採訪中,郝珂靈還發現了一個有趣的現象:沒有人對奧特曼持中立的看法。
“他們要麼認爲他是這一代最偉大的科技領袖,堪比現代的喬布斯;要麼認爲他極其善於操縱人、是個騙子。”
她分析說,這種兩極化取決於你是否認同奧特曼的願景。“如果你認同,他就是你能擁有的最大資產,這個人極其善於說服,講故事的能力一流,能調動資本,能招募人才,能獲取實現願景所需的一切資源。但如果你不認同,你就會覺得自己被他操縱了,被拉去支持一個你根本不同意的願景。”
Anthropic CEO 達里奧·阿莫代伊(Dario Amodei)就是後者的代表。他曾是 OpenAI 的高管,最初以爲奧特曼和自己是同一條船上的人,後來卻感到被利用了,他的技術能力被用來實現一個他根本不認同的未來。
採訪中,郝珂靈還披露了一些關於奧特曼的內幕:
2015 年,奧特曼在一篇博客中寫道:“超人類機器智能的發展可能是人類持續存在面臨的最大威脅。”但郝珂靈指出,這篇文章是專門寫給一個人看的——埃隆·馬斯克(Elon Musk)。“當時馬斯克到處宣揚 AI 是最大的生存威脅。奧特曼需要說服馬斯克加入,所以他的語言完全在跟風追捧馬斯克的說法。”
後來,當 OpenAI 需要從非營利轉型爲營利組織時,伊爾亞·蘇茨克維(Ilya Sutskever)和格雷格·布羅克曼(Greg Brockman)最初選擇了馬斯克擔任 CEO。
但奧特曼私下找到老友布羅克曼,說:“把這麼強大的技術交給馬斯克真的好嗎?他是名人,壓力很大,可能會做出不可預測的事。”這番話說服了布羅克曼,布羅克曼又說服了伊爾亞。馬斯克因此出局,最終憤而離開,這也是他至今與奧特曼纏鬥的起點。
2023 年底,OpenAI 董事會突然解僱奧特曼,震驚了整個科技圈。郝珂靈採訪了六七位直接參與或接觸決策過程的人士,還原了這一事件的來龍去脈。
故事要從伊利亞·蘇茨克維說起。這位 OpenAI 聯合創始人兼首席科學家,長期以來對奧特曼的領導方式感到不滿。他認爲奧特曼在公司內部製造了太多混亂,讓團隊互相競爭、對不同人說不同的話。在他看來,奧特曼不僅沒有緩解 ChatGPT 爆火後的混亂局面,反而在火上澆油。
但伊爾亞糾結了很久才決定開口。“他擔心如果奧特曼發現了會對自己不利。”他先找到獨立董事海倫·託納(Helen Toner)試探口風,然後逐漸敞開心扉。與此同時,時任首席技術官米拉·穆拉蒂(Mira Murati)也向董事會表達了類似的擔憂。
獨立董事們開始調查,發現了一些令人不安的事實。比如,Open AI 董事亞當·德安傑洛(Adam D''Angelo)在一次舊金山派對上聽到傳言,說 OpenAI 的創業基金結構有問題。等他們拿到文件才發現,那根本不是“OpenAI 的創業基金”,而是“奧特曼的創業基金”。
“這是我們反覆遇到的情況,”郝珂靈說,“奧特曼描述的情況和實際情況之間,總是存在不一致。”
最終,董事會決定解僱奧特曼,而且要快。他們擔心奧特曼一旦察覺,憑他的說服能力,這件事就做不成了。於是,他們在幾乎不通知任何人的情況下執行了這個決定。微軟在行動前幾分鐘才接到電話。
結果可想而知:所有利益相關方都憤怒了,一場讓奧特曼迴歸的運動隨即展開。幾天後,奧特曼重新坐上了 CEO 的位置。而伊爾亞再也沒有回來,米拉也在不久後離開。
郝珂靈引用了伊利亞的一句話:“我不認爲奧特曼是那個應該掌控 AGI 按鈕的人。”
數據標註工人:AI 繁榮背後的隱形勞工
除了 OpenAI 內部的混亂之外,郝珂靈還在採訪中提到受到這些 AI 公司影響的普通人們。採訪中,郝珂靈多次提到《紐約雜誌》最近的一篇深度報道,講述了大量被裁員的白領如何淪爲數據標註工人。
“這些人是高學歷人羣:大學畢業生、博士、律師、醫生,甚至獲獎的好萊塢導演,他們被解僱後找不到工作,就被這個行業吸收了。”
數據標註是什麼?簡單說,就是用人類經驗教 AI 回答問題。ChatGPT 之所以能聊天,是因爲有成千上萬的人坐在電腦前,一條一條地示範“當用戶這樣問的時候,你應該這樣回答”。單條數據標註工作的時薪通常很高,因此吸引了許多人蔘與,對一些人來說,這甚至是關鍵營生。
郝珂靈描述了這些工人的處境:“他們守在電腦前,等着通知項目什麼時候開始。因爲他們不知道項目什麼時候來、什麼時候結束,所以必須在窗口期內拼命幹活。”
她引用了報道中一位女性的故事:項目來的時候,正好是她孩子放學回家的時間。她瘋狂地敲鍵盤,孩子過來跟她說話,她只感到惱火,直接衝孩子吼了起來。這位母親對郝珂靈說:“因爲這個工作,我變成了一個怪物。我連上廁所的時間都沒有,更別說照顧孩子了。”
更諷刺的是,這些人正在訓練的模型,很可能就是讓他們失業的那個模型。“一個市場營銷人員被裁員,然後去做數據標註,訓練模型學會做市場營銷。如果模型學會了,就會有更多市場營銷人員被裁。這是一個惡性循環。”
郝珂靈指出,這打破了傳統的職業階梯。“以前是入門級、中級、高級的晉升路徑。現在中間被挖空了,只剩下高層和底層。人們怎麼往上走?”這樣的工作機會也只是在不斷擠佔人們自身的生存空間。
數據中心:看不見的環境代價
除了個人生存問題之外,AI 帝國還在造成更大的環境問題。在採訪中,郝珂靈展示了一張圖:Meta 在美國路易斯安那州規劃的超級計算設施,面積是曼哈頓的五分之一,耗電量相當於紐約市平均用電量的一半。
“OpenAI 在德州阿比林的設施,將消耗超過紐約市 20% 的電力。”
但更觸目驚心的是埃隆·馬斯克(Elon Musk)在美國孟菲斯建造的 Colossus。“那是一個工薪階層社區,黑人和棕色人種爲主。馬斯克用了 35 臺甲烷燃氣輪機來供電。居民們怎麼發現這件事的?他們聞到了客廳裏好像有煤氣泄漏的味道。”
她指出,這個社區本就長期遭受環境種族主義的侵害,肺癌發病率極高。現在,這個超級計算機正在向空氣中排放數千噸有毒物質,加劇兒童的哮喘症狀,惡化成年人的呼吸系統疾病。“而這些社區甚至沒有被告知會成爲這些設施的所在地。”
主持人接着問:你覺得這些 AI 公司是在“欺騙”公衆嗎?
“是的。”郝珂靈回答得很乾脆。她認爲 AI 領袖們不僅在欺騙公衆,也在欺騙自己。
她用電影《沙丘》來類比。在這部科幻史詩中,各大家族爭奪“香料”,同時利用宗教神話來控制民衆。主角保羅·厄崔迪(Paul Atreides)來到 Arrakis 星球,那裏流傳着一個關於救世主降臨的神話。保羅知道這是神話,但他選擇扮演救世主的角色,以便更好地控制人民、實現自己的目標。
“問題是,因爲他日復一日地活在這個神話中,他自己也開始分不清了,他到底是在演救世主,還是真的成爲了救世主?”
郝珂靈認爲,AI 領袖們也是如此。“一方面,他們清楚地知道自己在製造神話。我有大量內部文件顯示,他們非常清楚如何通過炫目的技術演示、精心設計的使命宣言來爭取公衆支持。另一方面,因爲他們必須每天活在這個神話中,他們也迷失在其中了。”
“所以當 Anthropic CEO 達里奧·阿莫代伊說他認爲有 10% 到 25% 的概率未來會是災難性的,他既是在主動製造神話,也是在迷失於神話。如果你問他是不是真的相信,他會說''是的'',因爲他已經分不清什麼是表演、什麼是信念了。”
打破帝國敘事,從造更多的“自行車”開始
採訪最後,主持人問:就算觀衆認同你說的一切,他們又能做什麼?
郝珂靈給出了自己的解法。她認爲,首先要認識到,這些公司需要持續的資源、數據和勞動力才能繼續運轉。“OpenAI 的員工告訴我,公司內部都知道,要達到收入目標,一切都必須完美運轉。每個人都得用他們的產品,每個地方都得采用他們的服務,數據中心必須按計劃建成。”
“如果我們不同意他們在做的事,就別讓一切完美運轉。”
她建議人們可以:拒絕捐贈數據(支持藝術家和作家的版權訴訟);在學校和公司討論 AI 採用政策;反對當地數據中心的建設;支持替代方案的發展。
她特別強調了“AI 的自行車”這個概念。“大語言模型是 AI 的火箭。資源消耗巨大,爲一部分人提供巨大價值,同時給另一部分人帶來巨大代價。爲什麼我們不多造一些 AI 的自行車?”
她舉了 DeepMind 的 AlphaFold 作爲例子。這個系統能預測蛋白質摺疊結構,對藥物研發和理解人類疾病意義重大,2024 年獲得了諾貝爾化學獎。“它用的是小型、精選的數據集,計算資源需求大大降低,能耗也低得多,但提供了巨大的公共價值。”
“我要說的不是這些技術沒有用處,而是生產這些技術的政治經濟結構正在對人們造成大量傷害。研究表明,同樣的能力完全可以用更高效的方法、更少的資源消耗來實現。”
採訪結束時,郝珂靈說了一組數據:80% 的美國人認爲 AI 行業需要被監管。“什麼時候 80% 的美國人能在一件事上達成一致?”全球各地已經爆發了數十起反對數據中心的抗議活動,其中一些已經成功阻止或禁止了項目。
“我去過幾十個城市做新書分享,每一場都是滿座,每一場觀衆都在討論同樣的問題。對話正在發生。”
“所以,我們應該打破帝國敘事,開闢 AI 發展的新路徑,一條對所有人都有益的路徑。”
參考鏈接:
採訪視頻:
https://www.youtube.com/watch?v=Cn8HBj8QAbk
運營/排版:何晨龍




