原文標題: 與 OpenAI CEO Sam Altman 和 AWS CEO Matt Garman 關於 Bedrock Managed Agents 的訪談
原文作者: Ben Thompson,Stratechery
翻譯:Peggy,BlockBeats
編者按:4 月 27 日,OpenAI 與 Microsoft 剛剛修改合作協議,Azure 不再獨佔 OpenAI 模型,OpenAI 也因此得以將產品擴展到 AWS 等其他雲平台。
註:Azure 是 Microsoft 旗下的雲端運算平台,全稱通常叫 Microsoft Azure。它和 AWS、Google Cloud 一樣,主要為企業提供伺服器、資料庫、儲存、網路、安全、AI 模型部署等雲端服務。
對外界而言,這看似只是一次雲服務分發渠道的變化;但從 Sam Altman 與 AWS CEO Matt Garman 的討論來看,更關鍵的變化在於,AI 正在從「模型調用」進入「企業級工作流」階段。
本文翻譯自科技商業分析媒體 Stratechery 對 Sam Altman 與 Matt Garman 的訪談,圍繞 OpenAI 與 AWS 合作推出的 Bedrock Managed Agents 展開,討論了雲運算與 AI 平台轉移的相似之處、企業級 agent 的部署難點、AgentCore 與托管式服務的區別,以及 AWS 在 AI 基礎設施競爭中的位置。
註:Stratechery 由科技分析師 Ben Thompson 創辦,長期關注科技公司戰略、平台經濟、雲運算、AI 與媒體產業變化,其內容以深度分析和高管訪談為主,在矽谷科技與投資圈具有較高影響力,常被視為觀察大型科技公司戰略動向的重要窗口
Bedrock Managed Agents 的核心,不只是讓 AWS 客戶用上 OpenAI 模型,而是把模型嵌入 AWS 原生的身份、權限、日誌、治理、部署和安全體系中。換句話說,企業真正需要的並不是一個更聰明的聊天窗口,而是一套能在組織內部運行、訪問數據、執行任務、遵守權限邊界的「虛擬同事」系統。
這也是本次合作最值得關注的地方:AI 競爭的重心正在從「誰有最強模型」轉向「誰能把模型變成可用的企業基礎設施」。在個人開發者情境裡,Codex 可以依賴本地環境解決許多複雜問題;但在企業情境中,agent 要面對的是資料庫、SaaS、權限系統、安全邊界和合規要求。
某種意義上,這場合作也重演了雲端運算早期的邏輯。AWS 當年降低了創業公司啟動成本,讓小團隊不必自建伺服器就能構建互聯網產品;如今,OpenAI 和 AWS 試圖降低企業部署 AI agent 的門檻,讓公司不必自己拼接模型、權限、資料和安全系統,就能把 AI 放進真實業務流程。不同的是,這一次採用速度更快,企業需求也更迫切。
因此,本文真正討論的不是 OpenAI 模型「上架」AWS,而是 AI 基礎設施進入下一階段:模型、雲端、資料與企業權限系統開始深度綁定。未來的競爭,可能不再只是 API 價格、晶片性能或模型榜單,而是誰能構建出讓企業放心使用、持續擴展、真正執行工作的 AI 平台。
以下為原文:
早安,正如我昨天提到的,今天的 Stratechery 訪談在我的發布時間安排上算是提前了(從週四提前到週二);但在實際送達時間上又算是延後了(從美東時間早上 6 點推遲到下午 1 點),因為這次主題受到 embargo(報導禁令)限制。
過去幾天,這個禁令也讓我處在一個有點微妙的境地:上週五,我訪談了 OpenAI CEO Sam Altman 和 AWS CEO Matt Garman,主題是由 OpenAI 提供支援的 Bedrock Managed Agents。很自然地,我提出的一個問題是:這項合作與 OpenAI 和 Microsoft 之間那份讓 Azure 獨家獲得 OpenAI 模型訪問權的協議,究竟如何協調?
注:Bedrock Managed Agents 是 AWS 推出的托管式 AI agent 服務,由 OpenAI 提供模型能力支援。它並不只是讓企業在 AWS 上調用 OpenAI 模型,而是將模型嵌入 AWS 原生的身份認證、權限管理、日誌、安全、治理和部署體系中,使企業能夠在自己的雲端環境內構建可執行任務、訪問內部資料、遵守權限邊界的 AI agent。簡單來說,可以理解為運行在 AWS 企業環境中的 OpenAI agent 基礎設施。
週日晚些時候,我從小道消息聽說,Microsoft 會在週一早上宣布一些事情。我當時還在想,會不會是一場先發制人的訴訟!
到了週一,Microsoft 和 OpenAI 宣布雙方已經修訂協議,允許 OpenAI 在其他云服務商上提供其產品,其中也包括 AWS。
於是,就有了現在這篇訪談。
我認為,Microsoft 與 OpenAI 這筆新安排對雙方來說都很合理。以下是 Microsoft 官方文章中列出的新協議要點:
·Microsoft 仍然是 OpenAI 的首要雲合作夥伴;OpenAI 產品將優先在 Azure 上發布,除非 Microsoft 無法支援或選擇不支援相關必要能力。OpenAI 現在可以通過任何雲服務商向客戶提供其全部產品。
·Microsoft 將繼續獲得 OpenAI 模型和產品相關 IP 的授權,有效期至 2032 年。但 Microsoft 的授權現在將不再是獨家的。
·Microsoft 將不再向 OpenAI 支付收入分成。
·OpenAI 向 Microsoft 支付的收入分成將持續到 2030 年,這一安排不受 OpenAI 技術進展影響,比例保持不變,但設有總額上限。
·Microsoft 作為主要股東,將繼續直接參與 OpenAI 的成長。
我認為,最重要的是最後一點。此前,Azure 因為是唯一能夠提供 OpenAI 模型的超大規模雲廠商,確實擁有真正的競爭優勢。但這種獨佔性也在限制 OpenAI,尤其是在越來越多企業最關心的是能否在自己當前使用的雲平台上訪問模型之後,這一點變得更加明顯。我已經多次指出,這正是 Anthropic 的一個重要競爭優勢。換句話說,Azure 的獨家權利實際上正在損害 Microsoft 對 OpenAI 的投資。考慮到 Anthropic 今年的快速增長,Microsoft 必須照看好這筆投資,即使這意味著 Azure 的差異化優勢會被削弱。
與此同時,OpenAI 显然將 AWS 視為一個巨大機會——大到它願意在未來幾年放棄與 Azure 相關的一部分收入。結合上一點,這也會讓 Azure 管理層在失去獨家權利時更容易接受:畢竟,不再向 OpenAI 支付收入分成之後,Azure 的損益表會好看得多。OpenAI 也將 Microsoft 從 AGI 條款中釋放出來;如今,無論發生什麼,兩家公司之間的協議都會持續到 2032 年。
現在看起來相當明確的是,OpenAI 接下來的重點將放在 AWS 上。而最有力的證據,正是本次訪談的主題:由 OpenAI 提供支持的 Bedrock Managed Agents。理解這個產品最簡單的方式,是把它看作 AWS 裡的 Codex。Codex 能夠運行得好,很大程度上是因為它是本地化的,這讓很多複雜問題,尤其是安全問題,可以天然地得到解決。但要讓 agents 在一個組織內部跨部門、跨系統運轉,則完全是另一回事。這個產品的目標,就是讓那些大部分數據已經放在 AWS 上的組織,更容易使用這類工作流。
圍繞這一點,在這次訪談中,我們討論了 AWS 如何開創整個雲計算品類,以及它對創業公司的影響;也討論了 AI 與那一次範式轉變之間有哪些相似之處,又有哪些不同。隨後,我們談到了 Bedrock Managed Agents:它是什麼,以及它與 Amazon 現有的 AgentCore 產品有什麼區別。我們還聊到了 Trainium,為什麼晶片對大多數 AI 用戶來說並不會那麼重要,以及相較於 Google 對全棧整合的重視,為什麼合作是一種合理選擇。
提醒一下,所有 Stratechery 內容,包括訪談,都可以通過播客收聽;點擊這封郵件頂部的鏈接,即可將 Stratechery 添加到你的播客播放器。
進入訪談。
本訪談經過輕度編輯,以提升清晰度。
Ben Thompson(主持人):Matt Garman、Sam Altman——Matt,歡迎來到 Stratechery;Sam,歡迎回來。我此前曾在 2025 年 10 月、2025 年 3 月和 2023 年 2 月採訪過 Altman。
Sam Altman(OpenAI CEO): 謝謝。
Matt Garman(AWS CEO): 謝謝,感謝邀請我。
主持人:Matt,這是你第一次來到 Stratechery。遺憾的是,我想 Sam 的出現會讓我們沒法按慣例進行「認識嘉賓」的環節。況且,他大概也不想聽我們回憶在 Kellogg 商學院的日子。不過,能在播客裡邀請到一位校友,還是很高興。
Matt Garman: 是的,我很高興來到這裡。下次我可以再來,我們可以更深入地聊一聊。
主持人:那太好了。你從實習生時期就開始參與 AWS,現在又在 AI 浪潮中負責整個 AWS 組織。你覺得,打造 AI 業務和當年打造最初的通用計算業務相比——姑且先這麼說——有哪些地方是相同的?又有哪些地方是真的不同?
Matt Garman: 我覺得相同的地方在於,我看到了同樣的興奮感,也看到了外面的建設者們開始能夠做以前做不了的事情。當年我們剛開始做 AWS 時,很酷的一點是,開發者突然能夠獲得以前只有最大型公司才能使用的基礎設施。過去,只有那些有數百萬美元預算去建設數據中心的公司,才能擁有這類能力。而現在,開發者只需要一張信用卡、幾美元,就可以啟動應用。這極大拓展了互聯網建設者能夠做的事情。
我們當時的想法是,人們可以去構建任何他們想構建的東西。我們不會預設他們應該做什麼。我們相信,世界各地的創造力是存在的;只要把強大的工具放到他們面前,他們就會創造出有趣且驚人的東西。
我認為 AI 對建設者的賦能,至少同樣具有變革性,甚至可能更強。想想現在什麼變得可能了:你不必上學學十年編程,才能構建一個應用;你不需要擁有數百人的龐大團隊,也不需要幾個月、幾個月、再幾個月的時間去做事情。你可以用小團隊快速構建、快速迭代。AI 正在解鎖世界各個領域的創新。從很多方面看,這和當年非常相似。看到它給客戶群體帶來的能力,真的令人非常興奮。
主持人:不過,當年 AWS 出現的時候,你們是唯一的玩家,所以無論是好處還是壞處,某種意義上都自然落到了你們身上。有沒有這樣一種感覺:在 AWS 時代,很多事情是關於通用計算的——讓計算變得可替代、有彈性、便宜;但在 AI 領域,尤其是在訓練階段,獲勝的抽象方式似乎更像是高度垂直整合的超級集群,非常先進的網路,以及軟件和硬件之間極其緊密的聯動。對你們來說,這算是一種意外嗎?因為這一次,你們並不是從零開始,也不是「我們是唯一在這裡的人」;你們過去對於大規模計算有一套特定理解,但至少在 AI 的最初幾年裡,它似乎並沒有完全對齊。
Matt Garman: 我不確定這對我們來說有多不同。我認為真正不同的是,採用速度快得驚人。我覺得這可能讓所有人都感到意外。Sam,如果你不同意,可以補充。但人們接受這些能力的速度,以及抓住這些能力的速度,我認為超出了所有人的預期。
這和我們剛開始做雲計算時很不一樣。當時,我們花了非常長的時間去解釋,為什麼一家賣書的公司會來提供計算能力。我們必須花很多力氣解釋什麼是雲計算。這裡面有很多艱苦工作,現在人們常常會忘記。但在 2006 年,沒有人理所當然地認為世界的計算會遷移到雲上。那時確實有大量艱難的解釋和推動工作。
主持人:那你覺得現在是否也需要做一些解釋?因為很多人最初都錨定在訓練時代,而你們會說,「我們思考的是推理時代」,那會是另一種東西。你們是不是也需要重新啟用那套解釋能力?
Matt Garman: 是需要的,但人們理解你在說什麼的速度,已經完全不一樣了。所以我認為,是的,當你要把人們從「這東西看起來挺酷,我能和一個智能聊天機器人對話」帶到「它真的可以在你的企業裡完成工作」時,確實需要一些教育過程。但從技術演進速度來看,這個過程已經相對很快了。
主持人:我保證,我們很快就會進入今天的產品主題。不過 Sam,從創業生態的角度看,回過頭去看,AWS 显然是变革性的,它彻底改变了創業門槛。現在任何人都可以開始創業。種子輪、天使投資人也隨之出現,融資門槛被往後推了。你不需要在 PPT 里寫「我們要買伺服器」,你可以先做出一個應用,然後再去融 A 輪或者別的輪次。
那從你的角度看,當年 AWS 所開啟的世界,和今天 AI 所開啟的世界相比,有哪些不同?又有哪些相同?
Sam Altman: 我認為,歷史上有四次大規模賦能創業公司的平台性時刻:互聯網、雲、移動,以及 AI。在這四個時刻裡,第一個我作為成年人經歷到的是雲。在 YC 早期,很難誇大這件事對創業公司的改變有多大。
在那之前,創業公司要租托管機房空間,自己組裝伺服器,把設備放進去。這是一件極其複雜的事,而且你必須先融到很多錢。然後突然之間,雲出現了。雖然雲是在 YC 創立之後才出現的,應該是第二年。
主持人:我正想問這個——歸根結底,YC 和雲是不是比你們當時意識到的更加密不可分?
Sam Altman: 當時我們就感覺它們是高度綁定在一起的。感覺 YC 從一開始就在乘著雲這波浪潮前進,因為在 AWS 之前也已經有一些早期雲服務的例子。
主持人: 如果 AWS 存在,那麼讓一家創業公司啟動起來所需的資金,確實比以前少得多。
Sam Altman: 這是一次巨大的賦能變化,也是為什麼 YC 當時聽起來那麼瘋狂。人們會說,「不可能用幾萬美元投資一家創業公司,這根本不可能,光伺服器成本就超過這個數了。」所以這徹底改變了創業公司可以用少量資本完成的事情。
通常來說,當出現一次大的平台轉移,並且你能夠用比過去更快的周期、更少的資本做事時,創業公司就會贏。這是創業公司擊敗大公司的經典方式。在我職業生涯的早期,我親眼見證了雲帶來的這種變化。現在看著公司基於 AI 構建產品,方向上其實感覺非常相似。但正如 Matt 所說,這一次的速度非常瘋狂。
主持人:有沒有這樣一種情況:現有的大公司、這些行業巨頭,採用 AI 的速度比當年採用雲計算要快得多?
Sam Altman: 這種情況當然更多了。但我說的還包括創業公司收入增長的速度。最近我在 YC 演講,最後我問了一下:「現在一個好公司在 YC 結束時,大家對它的收入預期是什麼?」他們說:「這個答案每個月都在變。可能同一期 YC,batch 開始時和結束時,答案都會不一樣。」以前從來沒有發生過這種事。人們基於這個新平台建立規模化業務的速度,是我過去從未見過的。
主持人:Matt,在整個雲時代,AWS 基本上是所有創業公司的首選雲,這給你們帶來了巨大優勢。那今天,什麼讓你們仍然成為首選云?因為現在很多人是在 OpenAI API 上構建產品;還是說你們其實感覺,「我們是從一個非常不同的角度進入這個市場的。我們有龐大的既有客戶基礎,他們都在要求我們提供 AI 能力,但對 Sam 所說的這整個創業公司群體,我們的可見度沒有那麼高」?
Matt Garman: 我認為這裡有幾個方面。第一,我們對這次合作非常興奮,我也認為它會對很多新創公司產生非常重要的意義。但即便在今天,如果你去和新創公司聊,大多數正在擴張的新創公司仍然是在 AWS 上擴張,這背後有很多原因。規模在那裡,可用性在那裡,安全性在那裡,可靠性在那裡,其他 ISV 的合作夥伴生態在 AWS 上,客戶也在 AWS 上。
主持人:(笑)不管願不願意,大家都用過 AWS 控制台,所以他們也習慣了。
Matt Garman: 而且我們會幫助他們。我們花了大量時間賦能新創公司,不只是給 credits,還包括建議他們如何搭建系統、如何思考 go-to-market,以及很多類似的事情。我認為很多新創公司都非常認可這些。我們投入了大量時間和精力來確保這一點,因為我們真的認為,新創公司是 AWS 的生命線。從一開始就是這樣,正如 Sam 剛才所說,今天依然如此。我現在仍然每個季度都會去矽谷或其他地方,直接和新創公司見面,聽他們在做什麼,確認我們正在構建的東西是否真的能滿足他們的需求。
所以,今天爭奪新創公司注意力的競爭,確實比 20 年前更多了。但這件事對我們來說仍然和過去一樣重要。我們投入大量時間,確保自己能夠滿足這些新創公司的需求。
主持人:可以這麼說嗎?那些直接基於 OpenAI API 構建產品的人,而不是使用 Azure 版本 OpenAI 服務的人,更可能採用這樣一種技術棧:常規計算放在 AWS 上,AI 部分使用 OpenAI?
Matt Garman: 我認為這是今天很多新創公司非常常見的一種模式,完全是這樣。
主持人:這就把我們帶到了今天的公告:由 OpenAI 提供支持的 Bedrock Managed Agents。我想我沒說錯。按照我的理解,這個產品的賣點並不只是 OpenAI 模型可以在 AWS 中使用——我認為這應該還不被允許——而是 OpenAI 的前沿模型被封裝進了一個 AWS 原生的 agent runtime 中,裡面包括身份、權限狀態、日誌、治理和部署。Sam,這樣表述準確嗎?
Sam Altman: 是的,概括得相當好。
主持人:謝謝。那這到底是什麼?現在請用大白話解釋一下。
Sam Altman: 我認為 AI 的下一階段,將從「你給 agent 一些文本,然後拿回更多文本」,甚至從「你給它一堆程式碼,然後拿回更多程式碼」,進入到一個新階段:這些 agents 會在公司內部運行,去完成各種不同類型的工作。
「虛擬同事」是我聽過的所有描述裡最不差的一個說法,但還沒有人真正找到最準確的語言來描述它。我們正在共同打造一個新產品,幫助那些想要構建這類有狀態 agents 的公司,把它們真正做出來,並且讓它們可以被使用。再強調一次,我認為我們現在還不知道世界最終會如何談論這些 agents、如何使用它們。但如果你看看 Codex 正在發生什麼,我認為那就是一個很好的例子,可以讓我們看到這一切將走向哪裡。
主持人:要讓 AI agent 真正跑起來,光有模型還不夠。它還需要一整套配套系統:運行環境、可調用的工具、任務狀態、記憶、權限管理,以及效果評估。你剛才特別提到「狀態」這個詞。那這些模型之外的基礎設施,對 agent 能否真正工作到底有多關鍵?
Sam Altman: 它的重要性怎麼強調都不為過。我現在已經不再把配套系統(Harness)和模型看作兩個完全可以分開的東西。以我自己的使用體驗來說,當我在 Codex 裡啟動一個任務,它為我完成了一件很驚艳的事情時,我非常清楚的一點是:我並不總是知道這其中有多少功勞應該歸於……
主持人:是模型很強,還是 配套系統(Harness)很強?
Sam Altman: 對,正是這樣。
主持人:那配套系統(Harness)在多大程度上是和模型一起開發的?這種整合發生在哪裡?是在 post-training 裡?是在 prompt 裡?到底是什麼讓這種整合奏效?
Sam Altman: 兩者都有。它其實不太屬於 pre-training 過程的一部分。但我會說,這裡有一個更有趣的現象:過去我們已經多次看到,一些我們原本以為非常可以分開的事情,會越來越深地被烘焙進系統之中。
比如我們最初理解 tool-calling 的方式。現在它已經是我們使用這些模型的關鍵部分,但最開始,我們並沒有認為它需要被深度整合進訓練過程。隨著時間推移,我們在這方面做得越來越多。
我也懷疑,模型和配套系統(Harness)會隨著時間推移越來越融合。進一步說,我也預期 pre-training 和 post-training 最終也會隨著時間推移更加融合。這句話說出來很像陳詞濫調,但我還是要說,因為我認為它非常、非常真實:我們在整個範式裡仍然處在非常早期的階段。這個行業真正成熟的程度,大概還相當於 Homebrew Computer Club 那個時代。
主持人:這也是為什麼我覺得這件事很有趣。我幾周前寫過,在任何價值鏈中,最終都會出現一個整合點,那個點非常關鍵,因為兩個部分必須結合在一起,才能讓事情運作起來。隨著時間推移,很多價值顯然會在那個地方沉澱下來。我當時的判斷是,配套系統(Harness)與模型的整合就是這個關鍵點。這當然符合你的利益,但聽起來你也同意這個判斷。
Sam Altman: 這確實符合我的利益,我也確實同意。但我還會說得更寬一點:真正重要的是,你在 Codex 裡輸入你想要發生的事情,然後它真的發生了。
主持人:你並不關心實現細節。
Sam Altman: 我們在摸索這些事情的過程中,已經有太多這樣的例子:有些事情一開始必須在 system prompt 層面解決,後來就不需要了。這裡的總體觀察是,隨著模型變得更聰明,你就有更大的靈活性,讓它們按照你想要的方式行事。這聽起來像是一句顯而易見的話,但它確實是……
主持人:讓一個 10 歲小孩做事,比讓一個 5 歲小孩做事更容易。
Sam Altman: 當我回想 GPT-3 時代,我們為了從這些模型裡榨出一點點實用性所必須做的事情,再看看現在,你根本不需要那樣做了,因為模型當然已經能理解,並且開箱即用地把事情做好。這個趨勢可能還會繼續走得更遠。
Matt Garman: 我想補充一點。我完全同意 Sam 的說法。而且當你和客戶交流時,他們其實很清楚自己到底希望這些系統做什麼。在我們這次共同合作之前,客戶某種程度上是被迫自己把這些東西拼起來。他們希望這些模型和 agents 能夠記住某些東西,能夠良好協作,能夠整合進他們現有的系統。而且這不只是第三方工具的問題,也包括他們自己的工具。他們希望這些 agents 能了解他們自己的數據、自己的應用,以及自己的運行環境。而今天,至少目前來說,所有這些整合工作都需要每個客戶自己完成。
所以,我們這次共同合作的一部分,就是一起構建一種新類型的產品,把這些東西更緊密地放在一起,讓客戶能夠更容易地完成他們想做的事情。比如,身份能力已經內建進產品裡;連接數據庫並完成認證的能力,也會在你的 AWS VPC,也就是 Virtual Private Cloud 裡完成。如果只是 OpenAI API 在一邊、AWS 在另一邊,這些事情理論上也可以做到。但通過共同構建這個東西,我們讓客戶更容易、更快地實現價值,並且在他們自己的企業環境中完成他們想完成的事情。
主持人:所以你的意思是,在一個通用配套系統(Harness)裡也可以構建一個可運行的 agent,只是困難得多?你們是在讓它變得更容易?還是說,如果這些東西沒有綁在一起,有些事情其實根本做不了?
Sam Altman: 回到你之前的類比,在 AWS 出現之前,如果你願意站在機房隔間裡,買一堆伺服器,弄清楚怎麼把它們連起來,再雇自己的網路工程師,你確實可以做很多事情。你可以讓很多事情發生。然後突然之間,你只需要登入 AWS 控制台,點擊一下「我需要另一個 S3 實例」之類的東西,你就能做更多事情,因為基礎工作所需要的啟動能量和工作量大幅下降了。
今天,你當然也可以用模型做很多事情。但每次我看到有人使用我們的模型,或者嘗試搭建 Matt 剛才說的那些工作流時,我都會很矛盾。一方面,我很高興他們覺得這些模型很令人印象深刻,覺得這是一種魔法般的技術;另一方面,我也快要抓狂,因為他們為了讓任何東西真正跑起來,經歷了太多痛苦和折磨。
這不僅對構建這些產品的開發者成立。即便只是使用 ChatGPT,我看到人們從這裡複製粘貼到那裡,嘗試組織一套複雜的 prompt,我也知道這些都會消失,而這讓我很興奮。現在一切仍然太早期,也太糟糕了。
主持人:只要你別取消它和 BBEdit 的整合就行。那是我對 ChatGPT app 最喜歡的功能,沒有之一。
註:BBEdit 是 macOS 上一款老牌文本與程式碼編輯器。這裡主持人是在半開玩笑地說,雖然未來 AI agent 會減少複製粘貼和手動操作,但他仍希望 ChatGPT 保留與本地編輯器聯動的功能。
Sam Altman: 好吧。
主持人:(笑)謝謝。
Sam Altman: 第一,現在這些事情實在太難做了。我們認為,如果能讓它變得容易得多,它會給開發者和企業帶來更多價值。第二,有很多事情現在根本無法可靠地運行。我認為,通過我們這次共同合作,它不僅會是一個關於易用性的故事,不只是「不用再自己搭 colo」之類的問題。我們還會一起摸索出很多新的東西,讓人們能夠構建出過去即便經歷很多痛苦和折磨也無法做出來的產品和服務。
主持人:我之後還想回到「有什麼東西可以被構建」這個點。但先快速回到 Codex。Codex 是 配套系統(Harness)加模型,而且它在本地運行。為什麼現在讓 agents 在本地工作會更容易?
Sam Altman: 其實我們一開始是讓它在雲端運行的。我認為最終你確實會希望它在雲端運行。
主持人:當然。我是在順著過渡到這個雲端產品的路徑來問。但你們為什麼又回到本地?
Sam Altman: 因為你的整個環境都在那裡。你的電腦已經配置好了,你的數據也在那裡,你不用去考慮太多事情。雖然這不是最終狀態,但它就是更容易跑起來。
不過,進入一個 agents 真正在雲端運行的世界,顯然會很好。比如你有一個非常高強度的任務,或者你需要關掉電腦,或者別的情況,你可以把工作交給雲端繼續處理。這個方向顯然會很棒。但短期內,我們能夠提供的易用性,很明顯還是使用用戶本地環境更佔優。
主持人:我有一種理解方式:過去的安全模型更像是「城堡與護城河」模式,而現在你們正在轉向一種新的零信任安全模型,每個東西都要有合適的權限結構、認證機制,以及所有這些細節。對我來說,本地運行某種程度上像是一種自我施加的「城堡與護城河」:所有東西都在本地,我就假定它們都沒問題,也很容易處理。
而我理解這個產品的一種方式是,要讓所有這些部分在生產環境中真正運作起來,你不可能全都放在本地。你必須從一開始就在這個環境裡運行。Matt,這種說法對你來說成立嗎?
Matt Garman: 我不認為有任何運算環境真正擺脫了客戶端。本地運行確實有好處。你的大多數 iPhone 應用之所以也有本地組件,是有原因的,不管是連接性、延遲、本地運算,還是對檔案和應用的訪問。
本地客戶端確實有它的特點。正如 Sam 所說,它簡單,運行得很好,但它也是受限的,有邊界。你無法擴展你的本地筆記型電腦,你有什麼就是什麼。一旦進入企業場景,比如兩個人之間共享,事情就會變得更難;要思考權限、安全邊界,也會變得更難。
所以這裡有很多部分。我不會說本地環境是一件壞事,它只是另一種東西。我認為,最終你會希望在本地和雲端之間建立橋樑。
主持人:這正是我的問題。雲時代有 container,幫助你把本地環境和生產環境拉近。但在 agents 這個場景裡,聽起來如果你要處理 agents,就像你剛才說的,它像一個虛擬同事,或者類似的東西。如果它們有自己的身份、自己的權限以及所有這些東西,那麼即便只是構建它們,你也需要處在最終部署它們時所在的那個正確環境裡。在我看來似乎是這樣。
Sam Altman: 我認為這裡還有太多東西需要弄清楚。舉一個例子,如果你是一家公司的員工,當你使用某項服務時,你是否應該只有一個帳戶?然後你的 agent 是否也應該使用你的帳戶?還是說你的 agent 應該使用另一個帳戶,這樣伺服器才能分辨到底是誰?
主持人:或者,如果你想要很多 agents 呢?
Sam Altman: 沒錯。我懷疑我們真正需要的是某種我們還沒有想清楚的東西。也許當 Ben 的 agent 以 Ben 的身份登錄時,它會使用 Ben 的帳戶,但會標記自己是一個 agent,而不是真正的 Ben。我們甚至還沒有一個基礎概念來思考這件事,但我們可能很快就必須弄清楚。
而我的感覺是,還會有另外 50 件類似的事情。隨著 agents 加入勞動力,並以越來越高的自主性和任務複雜度行動,我們關於軟體如何運作、公司內部以及更廣泛互聯網中的訪問控制和權限如何運作的許多心智模型,都必須演進。
主持人:Matt,你如何看待 agents 的安全、訪問策略以及類似問題?
Matt Garman: 是的,我確實認為,當你把更多這類工作負載遷移到雲端時,作為一個中心化組織,你可以對安全相關部分施加更多控制。我們一直和客戶交流,而這確實是他們擔心的事情。他們會說:「我很喜歡這些強大模型和 agents 能帶來的前景,但我如何確保自己不會因為搞砸了而製造出一個足以終結公司的事件?」
這種擔憂是真實存在的。
我認為我們可以在這方面提供幫助,因為這些問題是可以解決的。確實可以。我認為,我們可以給客戶一些信心:比如「它運行在這個 VPC 裡面」,那麼你至少可以控制這個邊界,知道它能訪問什麼;或者它通過某個 gateway,你可以給它分配權限,就像你在環境裡的其他部分給它分配一個角色一樣。
這些都是我們過去 20 年建立起來的能力。我們已經圍繞這些結構構建出非常豐富的能力,不只是讓 Y Combinator 的創業公司可以使用 AWS,也讓全球銀行、醫療機構、世界各地的政府機構都可以使用 AWS。圍繞 AWS 建立起來的整套安全結構,我認為可以幫助我們進一步加速客戶利用這項技術,同時為他們提供快速行動所需的安全護欄。
很多時候,在一家企業裡,尤其是在風險規避傾向較強的行業裡,如果你有這些安全護欄,讓他們可以說:「只要它運行在這個沙盒裡,我就願意快速推進」,這實際上可以幫助很多客戶開始把這些技術用於更廣泛的場景。
主持人:你剛才提到的許多能力,是 AWS 在過去 20 年裡建立起來的,而你們現在正試圖把它們用於 agents。這些能力今天已經通過 AgentCore 暴露出來。那麼,由 OpenAI 提供支援的 Bedrock Managed Agents 和 Bedrock AgentCore 之間是什麼關係?
注:AgentCore 可以理解為 AWS 給企業開發 AI agent 準備的一套「底層工具箱」或「基礎組件平台」。可以這樣理解兩者的關係,AgentCore = 底層積木;Bedrock Managed Agents = AWS 和 OpenAI 拼好的成品方案
Matt Garman: 我們共同構建的許多東西,是基於 AgentCore 的 building blocks,把這些部分組合起來。
主持人:所以它有點像是位於 AgentCore 之上的一個超集?
Matt Garman: AWS 團隊和 OpenAI 團隊一起使用了 AgentCore 的組件,再結合 OpenAI 模型以及其他許多部分,共同構建了這個產品。
AgentCore 可以理解為我們提供的一組基礎構建模塊。就像在 AWS 上,如果你想自己搭建 agent 工作流,你可以直接使用這些模塊:比如 memory 組件、安全執行環境、權限管理能力等。你可以自行配置這些能力,並組合出適合自己業務的 agent 系統。現在已經有客戶在生產環境中運行這些能力,而且做出了不少很酷的應用。
主持人:但不是用 OpenAI。
Matt Garman: 但不是用 OpenAI。今天他們必須使用不同的模型,這是真的。其實,不對,這也不完全對。我們確實有人在用 OpenAI 做這件事。
主持人:喔,只是調用另一個雲上的模型,或者類似方式。
Matt Garman: 他們就是直接調用 OpenAI 模型。所以今天確實已經有人用 OpenAI 來做這件事,只是不是以 Bedrock 原生方式在裡面使用,但他們仍然在使用它。這是一個開放生態,你可以拉取不同的能力,去構建你想構建的任何事。我打賭,人們還會繼續這麼做。
外面有一些建造者很喜歡——借用 Sam 的比喻——即便今天已經沒有必要,他們仍然喜歡在家自己組裝電腦。人們喜歡構建。我們認為,在很長一段時間裡,人們都會繼續構建自己的 agents。但其中絕大多數人會希望有一種更簡單的方式,他們不想自己配置所有這些部分。這正是我們這次合作推出的東西之一。
主持人:我想把這個區別說得更清楚一點。Bedrock Managed Agents 是一種托管式服務;但使用者也可以用 AgentCore,自己去接入不同模型,無論模型是在 AWS 上,還是在別的雲上。Sam,這是不是就構成了它和 OpenAI 在 Azure 上那種形式的區別?簡單說,在 Azure 上,使用者主要是直接訪問 OpenAI API;而在 Amazon 上,這次是一個更完整的托管式 agent 服務。這樣理解對嗎?
Sam Altman: 正確,是的。
主持人:你對此很有信心?它在各種條款和範圍上都界定正確,未來不會成為問題?
Sam Altman: 是的。我認為事情會隨著時間推移而演進,但作為一個起點,我對這個方式非常有信心。
主持人:這會是 AWS 的獨家產品嗎?還是說你們也預計會在其他雲上提供類似的托管式使用體驗(managed experience)?
Sam Altman: 是的,我們會和 Amazon 獨家做這件事,我們對此很興奮。
主持人:這種獨家的成分有多少是因為,「看,我們用的是 Amazon 的所有 API,所以它當然只在 Amazon 上」?還是說,這不是簡單的「我們用了 Amazon API」,而是整個托管式使用體驗(managed experience)的理念本身,目前就會放在 Amazon 上?
Sam Altman: 從精神上說,我們希望這是兩家公司之間的一次共同努力。
主持人:明白了。公關稿裡提到了一點,這也回到 Matt 剛才說的:你理論上可以調用其他 API,然後自己把所有東西粘在一起。但在這個案例裡,客戶數據會留在 AWS 之內。所以 OpenAI 到底能看到什麼?這句話是什麼意思?
Matt Garman: 是的。整個東西基本上都會留在你的 VPC 裡,所以數據會在 Bedrock 環境內受到保護。
註:VPC 是 Virtual Private Cloud,可以理解為企業在 AWS 裡劃出來的一塊「私有云網路空間」
主持人:明白了。這個產品會通過 Bedrock 運行在 OpenAI 模型上,而這些模型會跑在 Trainium 上嗎?
Matt Garman: 它們會通過不同方式混合運行——有一部分會在 Trainium 上,有一部分會在 GPU 上。
註:Trainium 是 AWS 自研的 AI 加速晶片,用於支持大模型訓練和推理。與英偉達 GPU 類似,它屬於底層算力基礎設施。對於普通企業客戶來說,通常不需要直接接觸 Trainium,而是通過 Bedrock 這類托管服務間接使用底層算力
主持人:這只是時間因素造成的嗎?因為我記得你們幾個月前的公告裡提到……
Matt Garman: 一部分是時間因素,一部分是能力因素。我認為我們會在共同構建系統的過程中混合使用不同組件,為不同部分使用合適的基礎設施。但隨著時間推移,越來越多部分會運行在 Trainium 上。
Sam Altman: 我們非常期待讓這些模型跑在 Trainium 上。
主持人:我可以想象。Matt,關於 Trainium,我有一個快速問題,也是一個更一般性的問題。我現在是這樣理解 Trainium 的,想確認一下是不是正確。Trainium 這個名字非常不幸,因為未來它真正重要的地方其實會是推理。它最主要的呈現方式,會是通過 Bedrock 這樣的托管式服務(managed services)。也就是說,客戶甚至不一定知道自己具體在使用什麼計算資源。這樣理解公平嗎?
Matt Garman: 首先,我願意為 AWS 所有服務的糟糕命名承擔責任。
主持人:沒關係,我有一個靠口口相傳的網站叫 Stratechery,所以我完全理解糟糕命名這件事。
Sam Altman: 我覺得 Trainium 這個詞挺酷的。
Matt Garman: 它確實挺酷。
主持人:這個詞是挺酷的,只是感覺它更像一顆推理晶片,而不是訓練晶片。
Matt Garman: 是的。不過,先不談命名,它對於訓練和推理都有用。說真的,這是一顆讓我們非常興奮的晶片。無論是當前世代還是後續版本,我們都認為它會成為一個巨大的業務,也會成為我們共同要做的很多事情的重要推動力。
順便說一句,我認為和 GPU 一樣,你會通過抽象層來和很多這類加速晶片互動。絕大多數客戶其實也不會直接和 GPU 互動,除非可能是在自己的筆記本電腦上用於圖形之類的場景。但當你和 OpenAI 互動時,即便它們底層跑在 GPU 上,你也不是在和 GPU 對話;當你和 Claude 對話時,不管它底層是 GPU、Trainium 還是 TPU,你也不是在和那些晶片對話,你是在和介面對話。
而外面絕大多數推理,都是由少數幾個模型完成的。所以無論是 5 個、10 個、20 個還是 100 個模型,都不是幾百萬人在直接面向這些晶片編程。未來也會如此,因為這些系統太複雜、規模太大。如果你要去訓練一個模型,沒有多少人有足夠的錢去訓練模型,也沒有多少人真正有能力管理它們。它們是非常複雜的系統,而 OpenAI 團隊從大型計算集群中榨取價值的能力非常驚人。但沒有多少人擁有這樣的團隊。無論具體是什麼晶片,我認為這對所有加速晶片來說都會成立。
Sam Altman: Ben,我越來越覺得,我們作為一家公司要做的事情,是成為一家 token 工廠。但客戶真正關心的是,我們能以最低價格交付最好的 intelligence unit,而且能按他們想要的數量、按他們想要的容量交付。
主持人:你認為我們會繼續堅持現在這種定價方式嗎?也就是說,按 tokens 定價。從長期看,這合理嗎?
Sam Altman: 不合理。事實上,我們剛發布的 5.5 模型就是一個有趣的例子。它的單一 token 成本比 5.4 高很多,但它完成同樣答案所需的 token 數量大幅減少。實際上,你並不關心這個答案花了多少 token,你只想讓這件工作完成。你想要的是一個價格,以及你能夠獲得的容量。
所以也許我剛才說「token 工廠」是錯的。我們更像是一家智能工廠(ntelligence factory),或者類似的東西。我們想以最低價格提供尽可能多的「智能能力(intelligence units)」。至於是一個更大的模型跑更少的 tokens,還是一個更小的模型跑很多 tokens;是 GPU、Trainium,還是別的東西;或者我們用其他任何創造性的方式來做,我不認為客戶會在意。
事實上,他們根本不會直接接觸這些東西。當你把東西放進 Codex,或者在 SRE,也就是 Stateful Runtime Environment 里構建一種新的 agent 時,你根本不應該需要思考這些問題。你應該只是驚訝於自己用這麼低的成本得到了這麼多東西。
主持人:token 使用量減少,是模型本身帶來的,還是配套系統(Harness)帶來的?
Sam Altman: 主要是模型,也有一點點配套系統(Harness)的作用。
主持人:明白了。Matt,順便問一下,剛才我問了 Sam 關於獨家的問題。你是否預計未來會為其他模型提供類似的 managed service?
Matt Garman: 我們現在專注於和 OpenAI 做這件事。我們對雙方正在共同構建的事情非常興奮。至於更長遠的未來,那是很長的一段時間。
主持人:「更長遠的未來是很長的一段時間」,這個回答我先讓你保留。沒關係,我必須問這個問題。
關於客戶,我還有一個問題。Sam,結合你剛才的觀點,我也想聽聽你們兩位的看法。當客戶真正進入生產環境時,OpenAI 的責任到哪裡結束,AWS 的責任從哪裡開始?在我聽起來,如果所有數據都在 AWS 上,並且數據留在那裡,而客戶是在更高層面操作,那麼這最終是 AWS 的責任?從消費者角度看,我這樣理解對嗎?
Matt Garman: 是的,我認為這是對的。當你需要聯繫某個人時,你會聯繫 AWS support 來幫助你。這是你 AWS 環境的一部分,是你在 AWS 上構建出來的。你的 AWS account reps 會在那裡幫助你。當我們構建它時,也會請 OpenAI 的同事參與,幫助你弄清楚如何最好地利用這個產品,或者處理類似問題。在某些情況下,如果我們遇到需要他們幫助解決的 bug,我們會升級給他們。但 AWS 會是你直接互動的一線支援。
主持人:Sam,你怎麼看這項業務相對於 OpenAI 核心 API 業務的規模?
Sam Altman: 我希望它會非常大。我們正在為此投入大量精力,也承諾購買大量算力。我相信這裡會有很多收入來支撐這一切。我越來越相信的一個框架是:當價格足夠低時,對 intelligence 的需求本質上是沒有上限的。
主持人:所以從這個角度看,它的需求彈性很強?價格下降,需求上升?
Sam Altman: 當然有這一點。但換個例子,你降低水的價格,也許你會多喝一點水,也許你會從一天洗一次澡變成一天洗兩次澡,這裡面有一定彈性。但到某個程度,你會說:「你知道嗎?我的水已經夠了。」
主持人:而且如果你必須要水,無論它多貴你都會買。
Sam Altman: 對於其他公用事業也是這樣。如果電更便宜,你當然會用更多電。但如果你把 intelligence 想成一種公用事業,我不知道還有哪種公用事業會讓我覺得:「我就是想要更多。只要價格足夠低,我就會繼續用更多。」
Matt Garman: 有趣的是,计算能力在很大程度上实际上也是这样。想想今天一个计算周期的成本,相比 30 年前不知道便宜了多少个数量级,而今天售出的计算量比以往任何时候都多。
主持人: 对。至少在达到极高规模、成本变得重要之前,人们通常不会真的去想计算成本。总体来说,从战略角度看,大家只是默认自己拥有计算能力。那 AI 要走到这一步,还需要多长路?也就是说,大家不再把「我在这里花了多少钱」作为第一反应。
Sam Altman: 我不认为这现在是第一反应。现在有远更多客户问我们:「不管价格多少,你能不能给我更多?我只需要更多容量,我愿意多付钱。」相比之下,和我们争价格的人少得多。
但我确实认为,我们会继续把价格大幅降下来,降幅会非常惊人。也许我们越这么做,想要流入这个领域的财富就越多、越来越多、越来越多。但我有信心,我们会继续显著降低当下这个 intelligence 水平的成本。
有一件事多少让我有点惊讶,我不知道它会不会一直如此,但至少在今天,总市场需求中有相当大一部分集中在绝对前沿模型上。
主持人: 对,这方面有很多问题。服务前沿模型非常昂贵,人们其实可以用前一个版本。但你的意思是,不管怎样,人们就是想用最前沿的?
Sam Altman: 到目前为止,是的。
Matt Garman: 我认为这是一个很好的信号,说明我们离真正想达到的状态还很远,需求还有太多没有被满足。我确实认为这有点像 40 年前的计算需求。当时一台电脑极其昂贵,而现在每个人手机里的计算能力都远远超过当时,而且我们卖出了数十亿台这样的设备。
我认为 AI 世界也会发生同样的事情。今天,所有人都想使用前沿模型,因为你需要它才能完成大量有用的工作,而且大家对外面的能力非常兴奋。
我认为随着时间推移,你会拥有一组混合模型。顺便说一句,一些较小模型将能够完成某些事情,甚至是最新 OpenAI 模型尚未能完成的事情。但它们会随着时间推移变得更小、更便宜、更快。同时,也会有那些超大型模型,去尝试攻克癌症以及其他类似问题。
但我認為我們仍然處在可能性的早期階段。當你在可能性的早期階段就看到這麼多需求和這麼快的增長時,未來會非常令人興奮。
主持人:有沒有一種比較犬儒的看法:Sam,你有一批客戶會說,「我們很想用 OpenAI 模型,但我們的所有東西都在 AWS 上,我們不搬。」Matt,你這邊則是,「看,我們所有東西都在 AWS 上,你能不能把 OpenAI 模型弄過來?」所以這件事只是滿足這種需求。而事實證明,因為 AWS 是最大的,所以這個需求量大到天文數字。這是不是最簡單的答案?還是說這裡還有另一層,即你們確實認為能交付一種高度差異化的東西,並且它也會為你們雙方吸引新客戶?
Sam Altman: 我們當然非常高興能夠接觸到 AWS 客戶,而且很多人都非常喜歡 AWS。是的,這句話是真的。
Matt Garman: 這一部分肯定是真的。
主持人:(笑)對。
Matt Garman: 反過來也一樣,我們的客戶也非常興奮能夠獲得 OpenAI 技術。
Sam Altman: 但我確實認為,我們可以一起構建出某種不可思議的新東西。我希望一年後,當人們回頭看這件事時,大家談論的最重要內容不會是:「哦,終於可以通過 AWS 訪問這些模型了。」或者類似的話。而是:「哇,我們之前沒有意識到這個新產品有多重要。」
我認為,在模型、配套系統(Harness)和能力層面,我們已經接近一種全新的計算形態。它會讓人感覺和現有這些「我需要這個模型的 API」之類的思路非常不同。
Matt Garman: 我完全同意,這正是關鍵。第一部分很好,也很不錯;但第二部分,我認為才是讓我們所有人真正興奮的地方。
主持人:說到這一點,我剛剛提到,我想回到這個話題。我有一個理論,不一定正確,我很好奇你們怎麼看,也就是關於「還有什麼東西需要被構建」。具體來說,最終可能會出現一個真正的 middleware 或中間層。在一個組織中,會有各種不同的數據庫、SaaS 應用,以及各種數據碎片,它們橫跨不同系統。上面會有一個 agent layer 或配套系統(Harness)。中間似乎還有一些東西需要被構建。OpenAI Frontier 在某種程度上觸及了這個問題。這是不是其中的一部分?還是說這是未來要構建的東西?又或者我完全想錯了,我們根本不需要這個東西?
Sam Altman: 你完全說對了,我們確實需要那裡的某種東西。最近我和客戶交流,尤其是大型企業,他們會說:「我想要某種 agent runtime environment;我想要一個管理層,可以把我的數據連接到 agents,同時確保我理解 token 花費在哪裡、沒有花在哪裡,並且有某種監督能力;我還想要某種 workspace」——希望那會是 Codex——「也就是給我的員工使用的類似東西。」
人們所要求的這組東西,正在變得非常一致。但現在還需要去把整個產品真正構建出來。
主持人:听起來幾乎需要一個雙重 agent layer。一個 agent layer 用來維護中間層,不斷深入各種數據源裡探索;另一個則是真正的用戶界面層,人們在那裡實際進行互動。這符合我們要走的方向嗎?還是我說偏了?
Sam Altman: 對這兩點,我都同意這是今天世界可能呈現出來的樣子。但隨著模型變得真正聰明,我不認為我們已經知道未來架構到底會是什麼樣。
現在,在你可以稱之為 user agent layer 的這一層,人們確實想和多個 agents 互動。我們讓你可以為這個東西構建 agent,為那個東西構建 agent,它們可以彼此對話,等等。然後在公司管理層,人們會有各種控制機制,幫助 AI 去探索文件系統中的文件。
主持人:然後在某個時刻,你會意識到,自己只是沒有理由地抱著過去不放。這些事情本來就應該在模型裡完成。
Sam Altman: 這正是我想說的。在某個時刻,你可能會說:「事實上,我們已經有如此驚人的能力了,那就重新設計整個架構吧。」
Matt Garman: 是的,我同意。我認為這裡確實會出現某種不同的東西。我不確定我們現在是否已經都知道它到底是什麼,但這也是這件事的美妙之處。你讓客戶去使用、去構建,然後你可以從他們那裡學習,弄清楚如何讓這些東西對他們來說更容易、更快、更好。
主持人:Sam,這是我們第二次做這種產品發布訪談。上一次是和 Kevin Scott 一起聊 New Bing。當時你對自己給 Google 帶來的威脅相當有信心。你覺得後來結果如何?
注:Kevin Scott 是 Microsoft 首席技術官。New Bing 是 Microsoft 於 2023 年 2 月推出的 AI 搜尋產品,由 OpenAI 技術支持,試圖將傳統搜尋從「返回鏈接」升級為「直接生成答案與輔助完成任務」的互動方式。當時,New Bing 被視為 Microsoft 借助 OpenAI 挑戰 Google 搜尋霸權的重要嘗試。
Sam Altman: 我覺得我們做得比我預期更好。ChatGPT 是,我認為,自 Facebook 以來第一個真正大規模的新消費級產品。
主持人:這其實就是答案嗎?也就是說,你們做得比你預期更好,但它主要體現在 ChatGPT 上,而不是其他領域?
Sam Altman: 不,我認為我們在 API 上也做得相當好,尤其是 Codex。但那並不是我當時想的事情。當時我想的是,也許這些新型語言界面會改變人們在互聯網上尋找信息的方式。而且,Google 也是一家絕對非凡的公司。我認為從它所做事情的廣度和深度來看,Google 在很多方面仍然被低估了。但相對而言,我對 ChatGPT 的表現感到滿意。
主持人:Matt,我也有一個類似的 Google 問題想問你。Google 這周剛剛在台上,Thomas Kurian(Google Cloud 的 CEO)講了他們完全整合的技術棧,從模型到晶片,再到 agent layer,上上下下都是一體化的。你今天是和另一家公司高管一起出現,從定義上說,Amazon 並不是完全內部整合的。
此前有很多人批評你們沒有一個前沿級 edge model。但現在我們進入了推理時代,你們又習慣服務大量公司。那麼有沒有一種情況是,你們因為保持某種中立性,反而處在了一個更好的位置?這是有意為之,還是說你們意外地來到了一個很好的位置,只是之前沒意識到它會變得這麼重要?
Matt Garman: 有一點是有意的。自從我們開始做 AWS 以來,我們一直把合作夥伴視為支援終端客戶的關鍵部分。從一開始,這就是我們戰略中非常重要的一部分:與合作夥伴深度合作。也許和其他一些公司不同,我們認為,如果合作夥伴成功了,如果他們是在我們之上或者和我們一起構建,那麼我們也就成功了,這很棒。
我們把它看作是在一起把蛋糕做大,那就是勝利。但這不一定是其他人看世界的方式。有時候他們會說,「我必須擁有一切。」這也沒問題,這是一種看法。
但我認為選擇權很重要。這樣最好的產品才會勝出。順便說一句,在這樣的世界裡,你可以有第一方產品,也可以有很多第三方產品。但我們的觀點是,我們希望客戶能夠選擇最適合他們的東西。如果最適合他們的是你自己構建的東西,那很好。
對我們來說,如果最好的東西是我們的合作夥伴構建的,但它運行在我們之上,我們也把這看作勝利,因為這是對客戶最好的東西。我們長期以來一直這麼想,而這實際上也是我們在 AI 世界裡構建 Bedrock 平臺的方式。我們希望支持廣泛的模型,支持廣泛的能力。事實一直如此,從數據庫到計算平臺,再到其他東西都是如此。
所以我認為,這是一項有意的戰略。我也認為,這是客戶欣賞的一種戰略,因為他們喜歡這種方式。我們也很興奮能繼續沿著這個方向深入下去。
主持人:是的,這很有趣。這裡有軟體、平臺、基礎設施之間的平衡,每個人都說自己會服務所有人。但感覺上,如果回到 AWS 剛開始的時候,它是從 I,也就是 Infrastructure 開始的。從我的角度看,這幾乎給了你們最大的靈活性,讓你們可以和 Sam 在中間相遇。Sam 有很強的 S,也就是 Software;你們一起構建的是一個 P,也就是 Platform。我想可以這麼說。
Matt Garman: 沒錯。確實有些地方會變得比較難。比如我們說,「我們只有一個 S3」,並沒有其他 S3 產品,這一部分是真的。所以有些核心組件,就像你說的,在基礎設施層面,我們確實會非常重視自己構建的東西。
但當你沿著技術棧往上走時,我認為能力集合會變得更廣。無論如何,我都不認為任何一家公司會擁有所有應用。當你沿著技術棧向下走,進入模型和服務層時,數量會變少;再往下到基礎設施層,數量會更少。而我們的觀點是,擁抱整個合作夥伴集合,對我們的終端客戶來說是好事。
主持人:Sam,有什麼最後想說的嗎?
Sam Altman: 我覺得 Matt 說得非常好。我真的認為,現在開發者可以構建的新一代產品,蘊含著巨大的潛力。考慮到我們預期未來一年模型能力會以非常陡峭的曲線進步,我們能夠一起踏上這段旅程,並努力真正構建一個平臺來賦能它,這個時機非常好。我認為人們會喜歡它。
主持人:很好。Matt、Sam,感謝你們來到 Stratechery。
Matt Garman: 太棒了。感謝邀請我們。
Sam Altman: 謝謝。
[原文鏈接]
歡迎加入律動 BlockBeats 官方社群:
Telegram 訂閱群:https://t.me/theblockbeats
Telegram 交流群:https://t.me/BlockBeats_App
Twitter 官方帳號:https://twitter.com/BlockBeatsAsia