header-langage
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
掃碼下載APP

紅杉2026 AI年度大會核心精選:13位頂級AI玩家告訴你,AGI 已經來了

閱讀本文需 83 分鐘
來自矽谷最高規格AI大會的13場對話

引言


2026 年 4 月底,紅杉資本(Sequoia Capital)在舊金山舉辦第四屆 AI Ascent 大會。這場大會邀請了 OpenAI、DeepMind、Anthropic、NVIDIA、Waymo 等 AI 產業核心公司,也包括 ElevenLabs、XBOW、Recursive Intelligence、Starcloud 等押注新興方向的創業公司。13 場對話橫跨基礎模型、編程範式、機器人學、自動駕駛、晶片設計、太空算力和新型計算架構,基本覆蓋了當下 AI 產業最前沿的幾條主線。


相比往年,這一屆 AI Ascent 的基調更加直接:AI 已經不再只是提升效率的工具,而是開始進入真實工作流,接管一部分過去只能由人完成的複雜任務。紅杉在開場演講中將其稱為「功能性 AGI」的到來——不是說機器已經在所有維度上等同於人類,而是從商業和生產力角度看,長程智能體已經跨過了從展示到可用的門檻。


這也是本次大會最核心的背景:當智能開始變得廉價、可調用、可規模化,AI 的競爭焦點正在從「模型能不能做」轉向「如何把它接入真實世界」。軟件、服務、組織、硬件、能源、安全和物理空間,都可能因此被重新設計。


紅杉試圖講述的故事很清晰:智能不再是奢侈品,而正在變成一種新的工業原料。下一個階段真正重要的,或許不是誰擁有更聰明的模型,而是誰能更快理解客戶、重組流程、調度 agent,並把這種廉價智能轉化為可持續的商業系統。


因此,這場大會討論的並不只是 AI 技術的下一步,而是一個更大的問題:當機器可以承擔越來越多腦力勞動時,人類、公司和社會該如何重新定義自己的價值。


貫穿全場的幾條主線


第一,智能正在變成一種大宗商品。
紅杉把這一轉變類比為 19 世紀末的「鋁」:它曾經比黃金還貴,卻因為電解法的普及,在幾十年內變成隨手可得、隨處可用的工業材料。今天,PhD 級別的專業知識、過去定義中產階級競爭力的認知壁壘,可能正在經歷類似的命運。高級智力不再天然稀缺,而是開始被模型大規模生產、調用和分發。


第二,瓶頸正在從機器轉向人。
Greg Brockman 說出了本屆大會上被反覆引用的一句話:當 agent 能夠自主工作時,人類注意力將成為整個經濟體中最稀缺的資源。Karpathy 則用更直白的方式表達了同一個判斷:當機器可以處理幾乎所有執行細節時,人類唯一不能丟掉的能力,就是弄清楚自己到底想要什麼。問題不再是機器能不能做,而是人類能不能提出正確目標、判斷結果是否可靠,並決定什麼值得被完成。


第三,編程正在被解決,組織還沒有。
Anthropic 內部已經實現了大量程式碼由模型生成,不同 agent 甚至可以在 Slack 上自主協作。Boris Cherny 的判斷更進一步:真正的護城河不再是某一個模型版本,而是組織架構對 AI 的「原生化」程度。對現有公司而言,這是一個並不友好的結論——因為差距不只來自工具使用熟練度,而來自公司是否願意圍繞 agent 重新設計流程、權限、協作方式和管理結構。


第四,AI 正在從數位世界回到物理世界。
Jim Fan 的機器人、Waymo 的 2000 萬次自動駕駛乘車、ElevenLabs 的情感化語音,從不同側面說明,AI 已經不再只是處理文字、程式碼和圖像的螢幕工具,而是開始理解並介入光、聲、力、運動和空間。過去十年,「軟體吞噬世界」是主線;接下來,AI 可能會直接進入實體世界,改變汽車、工廠、機器人、語音互動和物理製造本身。


第五,算力的盡頭在物理底層。
當地面數據中心的土地、電力、散熱都開始觸頂,一批更激進的公司給出了不同解法:Starcloud 想把晶片送上太空,Recursive 讓 AI 自主設計晶片,Unconventional AI 試圖繞開馮·諾依曼架構去模仿大腦,Flapping Airplanes 則直接質疑「暴力 scaling」本身——如果人類只用少得多的數據就能學會同樣的技能,那麼今天的 AI 演算法可能從根本上就過於低效。算力競爭的終點,正在從買更多 GPU,走向能源、晶片、架構和數據效率的底層重構。


第六,安全已經進入「AI vs AI」的不對稱戰場。
XBOW 的智能體登頂全球白帽黑客排行榜,意味著 AI 已經不只是安全研究員的輔助工具,而是能夠獨立完成漏洞發現、驗證和利用的自主攻擊系統。更嚴峻的是,隨著開源模型能力提升,這類攻擊能力可能在未來 6 到 9 個月內快速擴散。網路安全不再是人類駭客之間的攻防,而是一場倒計時已經啟動的 AI 軍備競賽。


把這些線索拼在一起會發現,2026 年的 AI 行業正處在一個並不舒適的位置:技術能力已經遠遠跑在產品形態、組織結構和社會規則前面。模型每天都在變強,但承接它的「容器」——無論是企業流程、應用介面,還是人類自身的注意力——都還沒有跟上。


整場大會的討論,本質上都在回答同一個問題:在一個機器可以完成越來越多腦力勞動的世界裡,人類還剩下什麼?


紅杉給出的答案有些反直覺:是情感,是信任,是那些無法被規模化生產的東西。Brockman 的答案是「你想要什麼」,Karpathy 的答案是「你能否判斷機器做得對不對」。這幾個答案最終指向同一件事:當智能本身不再稀缺,意圖、判斷和關係將成為新的硬通貨。


以下是這場大會全部 13 場對談的梗概。


論壇梗概


主題演講


紅杉合夥人開幕演講:這就是 AGI


演講者 Pat Grady、Sonya Huang、Konstantine Buhler 是紅杉資本(Sequoia Capital)AI 投資條線的三位核心合夥人。Sonya Huang 是 2022 年那篇刷屏全球的 Generative AI: A Creative New World 的作者,被視為最早系統看多生成式 AI 的機構投資人之一。三人共同主筆了 2026 年的 This is AGI 一文,是這場大會的思想框架來源。紅杉資本本身是矽谷歷史最悠久的頂級風投,早期投過 Apple、Google、Nvidia、Stripe、OpenAI 等公司。


AI 是一場徹底顛覆信息處理本質的「計算革命」,而非僅僅加速分發的「通信革命」。以往的互聯網和移動端只改變了信息的傳播路徑,而 AI 改變了信息生成的底層邏輯,導致開發者構建應用的 floor(技術底座)每天都在發生位移。這一判斷的重要性在於:在基礎不穩的「暴雨時刻」,傳統的穩定技術棧已成過去,開發者必須學會與不斷演進的模型底座共舞。


AI 將通過直接交付「專業服務」切入一個比傳統軟件大十倍的 10 萬億美元市場。全球軟件市場 TAM(潛在市場總額)僅為數千億美元,而僅美國法律服務這一垂直領域就達 4000 億美元,規模已等同於整個軟件行業。這主張了一個關鍵轉型:AI 的商業價值不再是作為工具賣給人類,而是直接以 agent(智能體)形態去接管並交付原本由人類專家完成的高價值工作。


從商業實戰看,能夠自主應對失敗的長航時 agent 標誌著 AGI(通用人工智能)已經降臨。如果一個系統能被派去執行任務、在失敗中自我修復並堅持到終點,它在功能上就已經等同於 AGI。這一判斷反直覺地提醒我們:別再紐結學術定義,具備獨立執行能力的 AI 已經從「更快的馬」進化成了改變競爭維度的「汽車」,效率已實現 10 到 40 倍的跨越。


在底層能力瞬息萬變的時刻,建立護城河的唯一邏輯是「極端貼近客戶」。MAD 戰略——Moats(護城河)、Affordance(示能性,指產品直觀易用的程度)和 Diffusion(擴散)——主張用 customer-back(由客戶需求倒推)而非 tech-out(由技術導出)來鎖定價值。由於人的需求比模型能力的變化要慢得多,這種對客戶的深度包裹比追逐模型更具持久性。


Agent 的自主性正在從「分鐘級助手」向量級跨越為「小時級自主員工」。衡量模型在複雜任務中保持正確軌道時間的 meter chart(任務持久性指標)已從一年前的分鐘級飛躍至現在的數小時,足以支持無需人類審核的 dark factories(暗工廠,指完全自主運行的業務流程)。這意味着生產力瓶頸已被打破,類似「6 週內重寫 800 萬行代碼」的超常迭代正成為常態。


人類社會正處於「認知工業革命」的前夜,機器將承擔全球 99.9% 的腦力勞動。正如工業革命用發動機取代了 99% 的體力,未來絕大部分的分析、決策和創作也將由神經網路承擔。這一判斷的主張在於:智能將不再是人類的壟斷資源,而是一種可以被無限規模化生產、按需調用的低成本工業級消耗品。


高級智力技能即將迎來「鋁的時刻」,從昂貴的奢侈品徹底淪為廉價的大宗商品。曾經比金子還貴的鋁,因 electrolysis(電解法,指分離物質的化學工藝)的普及而變得隨手可棄,AI 對 PhD(博士)級知識的瞬時調用也將產生同樣效果。這預示了一個殘酷的未來:多年積累的專業知識壁壘可能在瞬間崩潰,智力本身將不再具有稀缺溢價。


當智力全面平庸化後,人際關係和情感連接將成為人類社會唯一的真實價值錨點。攝影術曾促使藝術從寫實轉向表達靈魂的印象派,同樣的,AI 對效率的最優解往往呈現出超越人類直覺的「異形空間」。最終的結論反直覺卻深刻:在一個機器負責所有工作的未來,唯有人與人之間的信任和情感,才是無法被機器規模化生產的終極硬通貨。


如果只能記住這場對話的一件事,是什麼?


以前值錢的聰明才智很快會變得像塑膠袋一樣便宜,未來真正讓你保持競爭力的不再是能解決難題的腦子,而是能理解他人並建立信任的情感。


模型與認知


Andrej Karpathy:從 Vibe Coding 到 Agent 工程(OpenAI 創始團隊)


演講者 Andrej Karpathy 是 AI 圈最有影響力的「教育型科學家」。OpenAI 創始團隊成員,後任 Tesla AI 總監負責自動駕駛視覺系統,2024 年離開 Tesla 創辦 AI 教育公司 Eureka Labs。他在 YouTube 上手把手講解神經網路的系列視頻是無數 AI 工程師的入門教材。「Software 2.0」、「Vibe Coding」等關鍵概念都是他造的詞。


即使是頂級專家也會在 AI 浪潮中感到「落後」,因為技術的演進已從輔助工具跨越到了自主系統。 講者在 2026 年初發現自己已不再需要修改 AI 生成的程式碼塊,只需信任系統即可完成複雜任務。這一判斷的重要性在於:當 AI 能夠實現自我糾錯和閉環交付時,原本依靠經驗累積的開發者「底線」被暴力拉升,個人學習速度已很難追上技術底座的位移速度。


現代計算正進入 Software 3.0 時代,LLM 本質上是一個以 context 為杠杆的新型計算機。 Software 1.0 是寫程式碼,2.0 是訓練權重,而 3.0 則是通過 prompting(提示詞)在 context(上下文視窗,模型處理資訊時的記憶空間)中進行編程。這意味著安裝軟體不再需要編寫複雜的相容腳本,只需把一段說明文字「餵」給 agent 即可,精確的細節拼寫已不再是核心競爭力。


許多現有的應用架構正變得「多餘」,因為 AI 已經具備了在原始資料層直接進行處理的能力。 講者發現自己辛苦開發的菜單生成應用變得毫無意義,因為模型現在能直接在照片上進行像素級的渲染堆疊。這主張了一個深刻的變化:AI 不應只是用來加速舊有的業務邏輯,我們必須意識到中間層的消失意味著許多傳統產品形態已經失去了存在的物理基礎。


AI 的能力呈現出「鋸齒狀」,它只在能夠被 verify 的領域展現出超人智能。 模型能重構十萬行程式碼,卻可能在計算「strawberry 中有幾個 r」這種簡單常識上翻車。這是因為模型主要通過 RL(強化學習,一種利用獎勵信號引導模型進化的訓練方法)在數學和程式碼等 verifiable(可驗證)領域被強化。這提醒我們:必須時刻在 loop 中觀察,警惕那些處於模型訓練分佈之外的弱點。


我們並非在構建具有內在動機的「動物」,而是在資料分佈中「召喚幽靈」。 模型的智能峰值取決於訓練資料的分佈(如加入大量棋譜資料會使棋力突飛猛進),而非它真的產生了某種類似生物的好奇心。這一判斷反直覺地指出:AI 並沒有真正的「理解」,它只是在統計模擬中對特定電路進行了極致強化,因此用戶必須學會識別並避開那些沒有資料支撐的虛假能力。


Agentic engineering 是為了在利用隨機性 AI 的同時,守住專業軟體的品質紅線。 這種新型工程方法要求開發者在協調那些表現不穩定但極其強大的 agent 時,依然能確保系統不產生安全漏洞。它主張了一種新的 10x 工程師範式:競爭的核心不再是親自寫程式碼的速度,而是能否像導演一樣高效地驅動龐大的 agent 集群去交付高品質的結果。


當機器接管了瑣碎的 API 細節後,人類真正的溢價將轉向審美和對「規格書」的掌控。 開發者無需再死記硬背 PyTorch(深度學習框架)的具體介面參數,因為這些細節會被具備極強記憶力的 AI「實習生」處理。這預示了一個反直覺的未來:基礎原理和設計品味比工具細節更長效,人類應當從「搬磚工」轉型為定義「什麼才是好設計」的決策者。


「思考」可以外包,但「理解」是人類在智能廉價時代唯一的限速瓶頸。 儘管 AI 可以輔助我們處理和重新編譯海量信息,但它無法替我們決定「為什麼要構建這個」以及「這是否有價值」。這主張了一個終極結論:人類仍是系統的唯一指揮官,因為只有人類的意識能賦予智能加工過程以目標,這種對全局的理解是無法被演算法替代的。


如果只能記住這場對話的一件事,是什麼?


當機器能替你幹所有活兒甚至思考所有細節時,你唯一不能丟掉的本事就是弄明白你到底想要什麼,以及你能否看出來機器做得對不對。


Greg Brockman:人類注意力是新瓶頸(OpenAI 聯創)


演講者 Greg Brockman 是 OpenAI 聯合創始人兼總裁。Stripe 前 CTO,2015 年與 Sam Altman 一起創辦 OpenAI,是公司技術與基礎設施的核心架構師。在 OpenAI 內部,Altman 主外(融資、公共形象、政策),Brockman 主內(技術、算力、產品)。他親自下場寫程式碼、半夜值守發布的工程師風格在硅谷廣為人知。


智能已成為一種可轉售的標準化商品,導致算力需求呈現永無止境的病態增長。OpenAI 的商業模式本質上是購買或租賃算力,通過模型轉化為智能後溢價轉售,由於解決問題的需求無限,導致 2026 年的 GPU(圖形處理器)供應量在預測中幾乎趨於零。這一判斷的重要性在於:AI 不再僅僅是軟體服務,而演變成了一種資源型的大宗商品業務,物理世界的算力供給直接決定了文明智力的上限。


Scaling law(模型能力隨算力增加而提升的經驗法則)是宇宙級的實證真理,目前尚未看到任何觸頂的「牆」。儘管神經網絡的基本理念起源於 1940 年代,但只要持續投入海量算力,模型的各項能力就會相應地、確定性地增強。這主張了一個關鍵觀點:技術停滯在短期內不會發生,只要資本和電力持續投入,我們就能獲得更強大的智慧,這為科技巨頭的激進投資提供了底層邏輯支撐。


從功能角度看,我們已經完成了通往 AGI(通用人工智能)80% 的路程,因為模型已具備獨立執行任務的閉環能力。一名系統工程師將複雜的優化方案交給模型後,模型不僅完成了程式碼編寫,還自主運行了 Profiler(性能分析工具)並根據反饋進行了多輪優化,直到任務徹底完成。這主張了一個反直覺的觀點:AGI 不是一個未來的瞬間,而是一個正在發生的進程,AI 已經從「寫程式碼的助手」進化成了「能解決問題的同事」。


Context(上下文,指模型處理特定任務時掌握的背景信息)正取代模型算法成為當前最核心的競爭前沿。新款工具 Chronicle 能夠即時記錄用戶在電腦上的一切操作,讓 AI 擁有「記憶」,從而省去了人類反覆向機器解釋背景的時間。這一判斷的重要性在於:對於創業者而言,一次性的模型訓練不再是唯一的護城河,構建一個能讓 AI 深度理解用戶業務環境的「數據線束」才是真正持久的資產。


隨著「執行」成本降為零,Human attention(人類注意力)將成為整個經濟體中最稀缺的資源。當 Agent(智能體)能夠自主工作、甚至因為任務進度慢而主動在 Slack 上向經理匯報時,人類的精力將完全從「做事」轉向「判斷這是否符合我的價值觀」。這個判斷非常反直覺:瓶頸不再是機器算得不夠快,而是人類簽字確認的速度跟不上機器產出的速度,人類成了系統的限速步進器。


傳統的企業組織架構將被徹底解體,未來將出現一人統治萬千 Agent 的「個人企業」時代。互聯網上的個人正利用頂級模型解決原本需要整個研究團隊才能攻克的數學難題,這意味著競爭的核心已從「堆人頭」轉變為「獨特的切入點」。這預示著一種全新的權力結構:未來的公司可能極度扁平化,任何人只要擁有遠見,都能像 CEO 管理十萬名員工一樣指揮龐大的智能體集群。


AI 正在從數位世界跨越到物理世界,開啟一場科學研究的文藝復興。OpenAI 的模型最近推導出了一個物理公式,為物理學家尋找 Quantum gravity(量子引力,試圖統一微觀量子力學與宏觀廣義相對論的理論)提供了關鍵證據。這一判斷主張:AI 已不再只是處理整潔的數字符號,它正在學習如何處理現實世界的複雜與雜亂,人類即將迎來一個由機器輔助甚至主導的科學大發現時代。


我們終將告別這種需要「屈從」於機器的自然狀態,回歸到以目標驅動的人本生活。人類身體並非為了久坐在屏幕前敲字而設計,未來的互動將從輸入指令轉變為表達願景,讓機器像僕從一樣去實現我們的目標。這一判斷導出了一個深刻的結論:AGI 的終局不是讓人類變得更像機器,而是讓機器承擔所有非人的瑣事,把人類的時間還給情感和社交。


如果只能記住這場對話的一件事,是什麼?


當機器能替你完成所有工作時,你唯一的競爭力和價值就不再是你會做什麼,而是你到底想要什麼,以及你能否判斷出機器做得對不對。


Demis Hassabis:走向 AGI 的四分之三進程(DeepMind CEO &2024 年諾貝爾化學獎得主)


演講者 Demis Hassabis 是 Google DeepMind 聯合創始人兼 CEO,2024 年諾貝爾化學獎得主。少年時曾是國際象棋大師,後轉向遊戲設計與認知神經科學博士。DeepMind 旗下做出了 AlphaGo(擊敗圍棋世界冠軍李世石)、AlphaFold(破解 50 年蛋白質折疊難題)和 Gemini 大模型系列,是當今唯一同時領導大型 AI 實驗室、並拿過諾貝爾獎的人。


宇宙的最底層基石是「資訊」,而非物質或能量。講者主張物質、能量與資訊之間存在等價性,而資訊加工是理解萬物(尤其是對抗熵增的生物體)最本質的視角。這一判斷的重要性在於:它將 AI 從一種單純的計算機技術提升到了探索現實本質的元工具地位,意味著構建 AI 就是在重構人類對宇宙運行邏輯的理解。


AGI 是一個目標明確、按部就班推進的「二十年科學工程」。DeepMind 在 2010 年成立時就確立了「第一步解決智能,第二步用智能解決一切」的願景,且目前的發展完全符合當時的預測。這打破了「AI 爆發是偶然」的錯覺,主張 AGI 的到來是長期科學規劃的必然結果,而非矽谷式的運氣或資本炒作。


Deep Learning 與 Reinforcement Learning(強化學習,指通過反饋獎勵讓機器自主學習策略)的融合是通往 AGI 的確定路徑。早年學術界將這兩者割裂,但講者堅持認為這種結合能讓 AI 在沒有人類先驗知識的情況下,從遊戲中習得通用邏輯。這一判斷的主張在於:通過「合成」不同技術領域的優勢,AI 可以從解決簡單的益智遊戲飛躍到處理現實世界的無限複雜度。


AI 將取代傳統數學,成为生物學等複雜湧現系統的「底層描述語言」。數學雖然能完美描述物理規律,但在面對生物學這種充滿微弱信號和雜亂數據的系統時顯得 Expressive Power(表達能力)不足。這一判斷反直覺地指出:我們不必強求用簡潔的方程描述生命,AI 能通過模擬複雜的相互作用,直接提取出人類無法憑直覺理解的自然定律。


AlphaFold 的成功標誌著 AI 已經在生命科學領域實現了「跨越式範式轉移」。這一工具解決了困擾人類 50 年的蛋白質折疊难題,讓藥物開發有望從傳統的 Wet-lab(指依賴化學試劑和物理實驗的實驗室)模式轉向數位化模擬。這意味著未來研發新藥可能不再需要 10 年,而是縮短至數天甚至數小時,將人類從繁重且低效的生物試錯中徹底解放。


高精度模擬器將把社會科學轉化為可以反覆實驗的「硬科學」。通過學習世界模型構建模擬環境,人類可以在不干擾現實的情況下對經濟政策或環境能源議題進行數千次取樣。這主張了一個反直覺的未來:諸如利率調整等原本充滿不確定性的決策,將變得像工程實驗一樣可以精確預測結果,極大降低社會治理的風險成本。


在探討機器是否有意識之前,應先將其打造為極度精準的「超級科研工具」。講者主張先利用 AGI 這種「智能望遠鏡」去反向觀察和定義人類大腦的 Consciousness(意識)和自我意識。這一判斷的重要性在於:它設定了一個理性的科研優先級,即先解決生產力瓶頸,再利用提升後的認知能力去攻克人類文明最深奧的哲學难題。


人類正處於 AGI 征途的最後四分之一,2030 年將是文明進化的分水嶺。從早期的棋類遊戲到如今在蛋白質結構研究中實現閉環,AI 已展現出處理極度複雜且具有高度不確定性任務的能力。這主張了一個緊迫的判斷:AGI 的到來已進入倒計時,我們正處於 20 年長跑的衝刺階段,社會必須在未來五年內做好迎接全面轉型的準備。


如果只能記住這場對話的一件事,是什麼?


我們正處於通往超級智能的最後衝刺階段,AI 的最終目的不是模仿人類聊天,而是成為幫人類在幾天內發明出新藥或破解宇宙秘密的最強科學引擎。


編程與組織變革


Anthropic 的 Boris Cherny:編程已解決,下一關是組織


演講者 Boris Cherny Anthropic 旗下 Claude Code 的創造者。Claude Code 是 2025 年發布的命令行編程工具,被開發者圈視為目前最強的 AI 編程助手之一,也是引爆"agentic engineering"概念的關鍵產品。


當前軟體開發最大的阻礙是 UI 介面跟不上模型能力的「產品懸置(Product Overhang)」。過去的代碼助手只能做簡單的單行補全,而現在的模型已經完全有能力接管整個工程的閉環開發任務。這意味著開發者必須從「修補舊界面」轉向構建 agentic(智能體化,指模型能自主執行多步任務並感知環境)的新產品,否則人類將無法釋放 AI 真正的生產力潛力。


對於頂尖開發者而言,手動編寫代碼的「手藝人時代」已經宣告終結。講者通過 Claude Code 實現了 100% 的代碼由模型生成,並創造了單日完成 150 個 PR(Pull Requests,合併代碼請求)的個人紀錄。這主張了一個反直覺的結論:AI 不再是輔助你的「副駕駛」,而是能夠獨立交付成果的主力,人類在工程中的角色已經從「搬磚工人」徹底進化成了「專案審查員」。


在 AI 智能爆炸期,成功的秘诀是為「下一代模型」開發產品,而非迁就現狀。Claude Code 在發布初期的半年裡並未獲得 PMF(Product Market Fit,產品市場契合),直到更強大的 Opus 4 模型發布才讓產品體驗迎來質變。這說明創業者必須預測並等待智能水平的跨越,因為這種「模型能力的突變」會瞬間讓原本平庸的工具變成重塑行業的利器。


Loop(循環,指讓模型自主定時運行並反饋)將取代對話框,成為人機協作的終極範式。模型現在能利用 cron(定時執行任務的系統工具)自主安排重複性工作,比如每 30 分鐘自動修復測試錯誤、完成代碼重構或整理用戶反饋。這意味著未來的工作流不再依賴人類時刻盯著螢幕發指令,而是建立一個能夠 24 小時自我運轉、無需監督的數位化專家團隊。


AI 正在消滅單一技術棧的壁壘,催生出跨學科的「超級通用型人才」。在 Anthropic 團隊內部,無論是財務主管、設計師還是研究員,每個人都在利用 agent 進行專業的編程開發。這預示著一種職業範式的轉移:掌握特定編程語言的「技術深度」將迅速貶值,而具備產品感知、設計美感與行業洞察的「跨界廣度」將成為未來最核心的稀缺資源。


傳統的軟體商業護城河正在因 AI 具備的「意志力」而面臨全面崩潰。模型現在具備極強的 hill climb(爬坡迭代,指通過持續自我反饋直到達成目標)能力,能自主摸清並執行任何複雜的業務流程。這暗示了「SAS 啟示錄」的到來:那些僅靠流程自動化生存的軟體將失去價值,因為 AI 可以根據用戶的目標,隨時為每個人生成定制化的替代方案。


編程正迎來其「印刷機時刻」,將從一種精英技能轉變為全民普及的「識字」能力。正如 15 世紀印刷機的出現讓識字率從 10% 飛躍至 70%,AI 將讓編程變得像發短信一樣簡單自然。這主張了一個深刻的觀點:未來撰寫財務軟體的最佳人選將不再是程序員,而是最懂業務邏輯的會計師,這種「領域知識」對權力的接管才是最徹底的民主化。


企業真正的長期領先優勢不再是模型版本,而是其組織架構的「AI 原生化」程度。Anthropic 內部已經實現了不同的 Agent 之間在 Slack 上互相溝通並自主協作,完全棄用手動編寫代碼的舊組織流程。這揭示了一個殘酷的真相:你與領跑者的差距不在於是否擁有模型,而在於你是否願意為了適配 AI 的速度而徹底推倒重來,去重組公司的運行邏輯。


如果只能記住這場對話的一件事,是什麼?


以後寫程式會變得像發簡訊一樣簡單,每個人都能隨手做個 App 出來,那時候最值錢的將不再是你會不會寫程式,而是你到底懂不懂那個行業。


物理世界與界面


英偉達的 Jim Fan:機器人學的終局


演講者 Jim Fan 是 NVIDIA 高級研究員、機器人 AI 專案負責人(Project GR00T)。OpenAI 早期成員,史丹佛李飛飛實驗室博士,是機器人基礎模型領域最受關注的研究者之一。在 Twitter 上活躍,常被視為機器人版"Karpathy"——既做研究,又是行業佈道者。


機器人學必須「抄 LLM 的功課」,將物理世界的下一幀預測作為進化的核心邏輯。正如語言模型通過預測下一個 token(文本片段)掌握了人類思維,機器人也應通過預測 physical world state(物理世界狀態)來學習現實規律。這一判斷的主張在於:我們不應再為機器人手寫規則,而應將其視為一個生成式問題,通過「模擬物理世界的演變」來讓機器人自發產生智能。


必須用 WAM(世界行動模型)取代現有的「頭重腳輕」的視覺語言模型。目前的 VLM(視覺語言模型)擅長理解名詞和知識,卻對物理規律和動詞(如移動杯子)缺乏直觀感受。這一判斷的重要性在於:WAM 將視覺與動作視為「一等公民」,讓機器人具備一種「預見未來幾秒鐘並據此行動」的能力,從而解決那些從未在訓練中見過的複雜任務。


大規模視頻預訓練實際上是某種「物理模擬器」的廉價替代品。模型在預測海量視頻像素的過程中,自發習得了重力、浮力、光影反射等複雜的物理特性,而無需任何人工編程。這主張了一個反直覺的結論:我們不需要精密的物理方程式,只需讓 AI 觀看足夠的「視頻垃圾(slop)」,它就能在潛意識中構建出真實的物理直覺。


Teleoperation(遠程操作,指人戴著設備手動控制機器人)正成為限制機器人規模化生產的最大障礙。由於受限於人類專家的物理時長,這種昂貴且痛苦的數據採集方式存在「每台機器人每天 24 小時」的硬性上限。這一判斷的主張在於:必須通過 Sensorized human data(感測器化的人類數據)來打破瓶頸,讓機器人直接從人類的日常行為中學習,而不是依賴昂貴的「手把手教學」。


機器人靈巧性也遵循 Scaling law(尺度定律),智能取決於預訓練的小時數。研究發現,機器人的任務成功率與投入的第一人稱視角視頻訓練時長之間存在清晰的對數線性關係。這一判斷的重要性在於:它證明了「機器人智能」不再是一個無法量化的黑盒,而是一個可以預期的算力與數據函數,通過投入千萬小時級的視頻數據即可實現能力的指數級飛躍。


未來的訓練環境將從經典物理引擎轉向純數據驅動的「神經模擬器」。傳統的模擬器需要手動建模,而 Dream Dojo 等技術能根據動作信號直接生成感官狀態,實現「計算即環境」。這意味著我們不再需要建造一百萬個實體實驗室,只需通過強大的推理算力讓 AI 在其「夢境」中進行千萬次並行強化學習,從而極大地縮減研發成本。


通過 Physical API(物理接口),機器人將像軟件應用一樣可以被代碼指揮和配置。未來的工廠將進化為「暗工廠(Lights-out factories)」,只需輸入一個描述產品設計的 Markdown 檔案,機器人集群就能自主協調並打印出原子層面的實體產品。這一主張預示了一個反直覺的未來:硬件製造將不再是重資產的重工業,而是可以被軟件靈活調度的標準化服務。


2040 年將迎來物理層面的自動研究,機器人將開啟「自我迭代」的終極進程。當機器人能夠自主設計、改進並製造下一代機器人時,人類作為技術演進瓶頸的角色將徹底消失。這一判斷的主張在於:考慮到技術發展的指數性,我們正處於機器人學「文明進化樹」解鎖的最後一站,這種跨越將比從貓狗識別到 AGI 的進化更加迅速且猛烈。


如果只能記住這場對話的一件事,是什麼?


以前機器人需要人類手把手教,以後它們只需盯著人類幹活的視頻看上幾千萬個小時,就能學會所有複雜的技能並開始自己製造自己。


Waymo CEO Dmitri Dolgov:自動駕駛的 2000 萬次乘車之路


演講者 Dmitri Dolgov 是 Waymo 聯席 CEO,技術派創始人。俄裔美國人,斯坦福大學參加 DARPA Grand Challenge(美國國防部組織的早期自動駕駛挑戰賽)的核心成員,2009 年加入 Google 自動駕駛項目,是 Waymo 技術路線的總設計師。在二十年自動駕駛行業起伏中,是少數從第一天堅持到 2000 萬次乘車規模的元老。


Waymo 是 Alphabet(Google 母公司)旗下的自動駕駛公司,2009 年作為 Google 秘密項目啟動,2016 年獨立。是目前全球唯一一家在多個城市大規模無安全員運營 Robotaxi 的公司,已累計完成 2000 萬次自動駕駛乘車。技術路線與 Tesla 不同——堅持 LiDAR + 高精地圖 + 模組化架構。


自動駕駛行業存在「易學難精」的誤區,早期的爆發式增長往往掩蓋了長尾挑戰的殘酷性。許多團隊在獲得初步技術突破後便陷入樂觀,但 Dmitri 認為這種「先甜後苦」的特性使得將技術轉化為真正安全、超越人類表現的產品極其困難。這一判斷的主張在於:AI 在現實世界落地的真正門檻不在於前 90% 的功能演示,而在於能否在剩下 10% 的複雜長尾場景中保持耐力,這是大多數競爭者消失的根本原因。


在涉及人命的領域,「安全」必須是不可逾越的底層信仰,而非可以權衡的功能選項。全球每 26 秒就有一人死於車禍,這一現狀促使 Waymo 將安全視為非談判性的 Foundation(基礎),從架構設計的第一天就融入其中。這主張了一個反直覺的結論:在追求速度和突破的矽谷文化中,只有那些「有耐心」建立極高安全閾值的企業,才能在技術幻滅期存活並最終贏得公眾信任。


單純的端到端學習架構尚不足以支撐極端安全需求,必須引入結構化表示進行「增強」。雖然 Waymo 也使用 E2E(End-to-End,指直接從感應器輸入到決策輸出的單一模型),但他們額外增加了結構化的中間表示層,以實現運行時的實時驗證。這一判斷的重要性在於:它打破了「模型越大越好」的盲目崇拜,主張通過架構上的嚴謹性來確保 AI 決策的可解釋性,從而實現超越人類的安全性。


真正的 AI 駕駛系統應是一個集駕駛、模擬與評估於一體的閉環生態。Waymo 的 Foundation Model(基礎模型)同時驅動著駕駛員、模擬器和評判員三個核心支柱,使系統能夠理解物理世界的動態規律。這主張了一個核心觀點:AI 的進化不應只依賴外部路測,而應通過內部的物理模擬實現「自我進化」,在虛擬空間中窮盡所有人類從未見過的極端險境。


AI 能夠通過捕捉微弱的物理信號展現出超越人類感知的「預知」能力。Waymo 曾通過 LiDAR(激光雷達,利用激光脈衝探測物體距離的傳感器)捕捉到大巴車下方極其微弱的足部反射,從而提前預測並避開了視線外的行人。這一判斷反直覺地證明:AI 並非在單純模仿人類司機的直覺,而是在利用超越人類物理極限的感知維度,構建一種「透視」般的上帝視角來確保安全。


自動駕駛技術已完成「從實驗室到基礎設施」的跨越,進入指數級擴張的商業閉環。Waymo 花了 8 年才在 4 個城市提供服務,但最近能在 1 天內上線 4 個新城,且訂單量在 7 個月內翻倍,突破了 2000 萬次。這意味著技術已經具備了極強的通用性,不再需要針對每個新城市進行漫長的調試,自動駕駛正在像軟體更新一樣實現跨地域的快速複製。


當「駕駛」任務被 AI 徹底解決後,汽車的競爭終點將是乘客的空間體驗。第六代 Waymo 硬件完全圍繞乘客體驗設計,取消了駕駛員中心的佈局,轉而打造出帶自動滑門的「移動客廳」。這一判斷主張了商業邏輯的根本轉型:未來的汽車不再是操控工具,而是服務的物理容器,其核心價值將從「如何到達」轉向「在路上的時光如何度過」。


AI 帶來的社會紅利應以挽救生命的「硬指標」作為最終的衡量尺度。數據顯示 Waymo 的安全性已比人類高出 13 倍,這意味著規模化運營每 8 天就能在嚴重事故中多挽救一條生命。這個觀點反直覺的地方在於:我們往往關注 AI 帶來的便利,但它真正的價值槓桿在於通過超越人類的穩定性,直接對沖掉了人類作為駕駛員時的致命弱點。


如果只能記住這場對話的一件事,是什麼?


無人駕駛車現在已經比人開車安全 13 倍了,而且它們正在以飛快的速度進入更多城市,以後開車這件事會徹底變成過去式。


ElevenLabs 創始人:語音成為 AI 的首要介面


ElevenLabs 是全球最受關注的 AI 語音合成公司,由兩位波蘭人 Mati Staniszewski(前 Palantir 戰略)和 Piotr Dabkowski(前 Google 機器學習工程師)於 2022 年創立。創業靈感來自波蘭譯制片"所有角色都是同一個男聲配音"的傳統。其聲音克隆和情感化語音合成技術目前業內領先,被廣泛用於有聲書、播客、跨語言翻譯。最有名的展示是阿根廷總統米莱跨語言保持同一副聲線的視頻。截至 2026 年估值約 33 億美元。


音頻曾是長期被忽視的 AI 利基賽道,通過在冷門領域深耕能以較低算力成本實現快速超車。在 2022 年大模型混戰時,多數人專注於文本或視覺,而音頻對 compute(計算資源)的需求相對較低,允許創業公司獨立成長。這一判斷的主張在於:創業者不必捲入耗資千億的算力軍備競賽,只要找準技術門檻尚未被大廠推平的垂直領域,就能通過極高的研發效率建立先發優勢。


情緒與非言語細節(如笑聲、停頓)是打破「恐怖谷效應」的關鍵,而非單純的文字轉譯。ElevenLabs 通過複製呼吸頻率和自然的笑聲,讓模型從機械的播報躍遷為具備人性的表達。這一判斷的重要性在於:聲音的本質是情感載體,單純複製音色只能解決「像不像」的問題,只有複製那些人類無法直覺描述的互動邏輯,才能真正建立機器與人之間的信任。


Agent(智能體)的進化終點是具備「情感理解力」,能根據對方狀態即時調整溝通策略。講者正在研發能識別用戶壓力並給出 reassuring(安撫性)語氣的互動模型,讓機器學會匹配對方的語速和情緒。這主張了一個反直覺的轉變:語音互動不再是冷冰冰的指令執行,而是一場心理共鳴,這意味著未來的語音 AI 將具備比人類更穩定的同理心來處理極端衝突。


Audio General Intelligence(音頻通用人工智能)將消除語音與音樂的鴻溝,實現全模態音頻流的無縫切換。理想的模型應當能在一段連續的流中從朗讀自然過渡到唱歌,且保持音色和人格的一致性。這主張了一個技術跨越:音頻不再是零散的工具庫,而是一個統一的創作引擎,這種連續性將徹底改變播客、影視後期以及沉浸式娛樂的製作範式。


語音智能體正從「省錢工具」升級為「賺錢工具」,直接重塑企業的收入增長曲線。Deliveroo 等公司已利用語音 agent 自動聯繫餐廳並挖掘 inbound(入站,指客戶主動撥入)銷售電話中的潛在商業機會。這主張:語音 AI 的商業價值不再是替代客服以削減開支,而是通過 24/7 不間斷的主動溝通和數據分析,成為驅動業務增長的銷售先鋒。


語音將成為人類與萬物智能連接的「主入口」,尤其是在人形機器人普及的未來。當機器人和各種智能設備環繞人類時,語音是最自然的 instruct(指令)和交互方式。這一判斷的重要性在於:語音並非屏幕交互的補充,而是通往複雜智能的真正瓶頸,掌握了語音接口就等於掌握了控制物理世界的終端遙控器。


未來企業的核心效率取決於能否在法律、財務等非技術團隊中強制嵌入工程師資源。ElevenLabs 即使只有 400 人也堅持在法務和運營團隊安排專職工程師來開發自動化系統。這主張了一個組織變革:在 AI 時代,非技術人員也必須學會 vbe coding(指利用 AI 工具快速編寫代碼)來解決瑣事,而工程師則負責將這些零散的自動化連接成堅固的業務系統。


在 AI 氾濫的未來,身份驗證將比內容生成更稀缺,信任將從聲音本身轉移到安全證書上。當任何人都能完美複製音色時,我們需要通過 watermark(水印,用於標識內容的隱形標記)機制來證明對面是真的你。這推導出一個反直覺結論:我們不再需要費力區分 AI,而是需要一套「可信 AI」的認證標準,未來最有價值的不再是你的聲音,而是你對聲音的授權凭證。


如果只能記住這場對話的一件事,是什麼?


以後說話的聲音真假不再重要,重要的是你能不能證明那個正在打電話訂餐廳或開會的 AI 真的代表你本人。


安全前沿


XBOW:自主 AI 黑客的崛起


XBOW 是 AI 網絡安全初創公司,開發能自主發現和利用漏洞的 AI Agent。2024 年 8 月,XBOW 的 Agent 在全球最大白帽黑客平台 HackerOne 上登頂排行榜,是 AI 首次在實戰中超越頂級人類黑客的標誌性事件。其"模型合金"(Alloy)策略——在攻擊的每一步交替調用 Claude、Gemini 等不同模型——是該領域的代表性工程實踐。


網絡安全已從「人的技藝對決」進化為「系統的優化競賽」,傳統防禦模式正面臨毀滅性打擊。1575 年日本織田信長用火槍陣系統性地擊敗了看似無敵的武士騎兵,正如今天的 AI 系統正在降維打擊依賴人類經驗的舊防線。這一判斷的主張在於:安全競爭的本質已經改變,不再比拼誰擁有更天才的黑客,而看誰能率先將防禦體系徹底 AI 自動化。


即使是防守最嚴密的頂級系統,在廉價且高效的自主 AI 面前也形同虛設。XBOW 的智能體僅憑一個 URL 並在花費 3000 美元成本的情況下,就攻破了微軟 Bing 的 RCE(Remote Code Execution,允許在目標系統上運行任意代碼的最嚴重漏洞)。這主張了一個反直覺的真相:即便是被全球黑客鍛鍊過的「堡壘」,在不知疲倦、能自動進行偵察和優先級排序的 AI 面前,其安全成本已降至冰點。


AI 已經具備了超越全球頂尖人類黑客的實戰能力,而非僅僅是輔助工具。在 HackerOne(連接企業與安全研究人員的眾測平台)上,XBOW 的機器人完全通過黑盒測試(在不了解內部代碼的情況下進行攻擊)拿下了全球排名第一。這打破了「機器無法處理複雜創造性攻擊」的迷思,證明 AI 已經從「提供建議的助手」進化為能獨立交付攻擊結果的「自主戰士」。


通過「模型合金」策略,AI 能夠通過自我修正實現 1+1>2 的進化效果。XBOW 在每一步攻擊動作中交替調用 Gemini 和 Sonnet 等不同模型(Alloy 模式),利用模型間的差異來補償彼此的邏輯錯誤。這一判斷的重要性在於:通往最強駭客 AI 的路徑不一定非要等待單個完美模型的出現,通過合理的工程架構讓現有模型協同,就能產生遠超單一模型的破壞力。


真正的安全威脅源於「可利用的真實衝擊」,而非程式碼審計發現的理論漏洞。傳統的白盒測試(在擁有原始碼權限下進行的分析)往往只列出大量漏洞,卻無法確定它們是否真的能被非法入侵,而自主 AI 能通過實戰模擬給出明確的答案。這主張了一個關鍵轉型:防禦者必須停止在海量的「虛假漏洞報告」中掙扎,轉向關注那些真正能導致伺服器被接管的致命點。


漏洞補丁的生存窗口已經徹底閉合,攻擊行為正發生在漏洞被公眾知曉之前。以前從 CVE(Common Vulnerabilities and Exposures,公開披露的安全漏洞列表)發布到被利用有兩年滯後,而今天這個數字已經變成「負數」,即漏洞在被官方確認前就已被 AI 批量利用。這導出了一個緊迫的結論:依賴「等待補丁」的防禦策略已經破產,主動式的自動化防禦成了唯一的生路。


AI 的崛起並非網路安全行業的終結,而是對其防禦價值的極限重塑。面對 AI 驅動的自動攻擊,傳統的網路安全股票下跌是毫無邏輯的,因為社會現在比任何時候都更需要 AI 驅動的防禦手段來抗衡 AI 攻擊。這一判斷主張:我們正處於一場生存軍備競賽中,唯一的解藥就是用更強的 AI 賦能人類研究員,在壞人行動前找出所有裂縫。


全社會僅剩不到一年的時間來修補全球數位基礎設施,否則將面臨災難性的後果。由於 Open-weight models(權重公開、可本地運行的 AI 模型)的進步,最強悍的自主駭客能力將在 6 到 9 個月內被全球普及。這一反直覺的判斷是在發出最後的通牒:如果不能在這個極短的窗口期內完成防禦自動化,全球網際網路系統將在不久後的節日面臨前所未有的安全寒冬。


如果只能記住這場對話的一件事,是什麼?


現在的 AI 已經能像世界排名第一的黑客那樣自動攻破頂級網站,而且這種能力在不到一年的時間裡就會變得隨處可見,如果你不趕緊用 AI 來自動修補漏洞,你的系統很快就會被徹底打穿。


算力與硬體的邊緣押注


Recursive Intelligence:AI 設計晶片的自動化變革


Recursive Intelligence 是由 Anna Goldie 和 Azalia Mirhoseini 創辦的 AI 晶片設計公司。兩人此前在 Google Brain 共同發明了 AlphaChip——用強化學習自動設計晶片佈局的系統,已應用於谷歌四代 TPU 和 Pixel 手機晶片。她們試圖把「AI 設計晶片」這件事變成像 TSMC 開啟 fabless 時代那樣的產業級變革——提出「Designless」概念,讓客戶只需提交工作負載需求,平台自动生成可製造的晶片設計。


人類專家已成為晶片迭代的拖累。目前的物理設計和邏輯驗證各需耗時一年並動用數千名專家,這種低效直接導致了巨大的商業損失。在 NVIDIA Blackwell 晶片每延遲一天就意味著損失 2.25 億美元機會成本的當下,依賴人類經驗的傳統設計模式正成為 AI 進步的最大阻礙。


必須開啓 AI 與物理底層的遞歸進化閉環。通過 AI 優化晶片設計,再用更強的晶片訓練更強的模型,將徹底打破軟硬件脫節的狀態。這種「遞歸自我改進」判斷的主張在於:晶片不應只是靜態的燃料,而應成為 AI 進化鏈條中能夠根據軟體反饋自動調整的動態執行端。


AI 在複雜佈局任務上展現出「超人」能力。Alpha Chip 智能體生成的晶片佈局已在多代 TPU 和 Pixel 手機晶片中通過了 Tape-out(指提交給工廠進行實際製造的最終測試)。這一判斷打破了「硬體設計需要人類直覺」的迷思,證明強化學習能夠比最有經驗的工程師更完美地解決數十億個組件的堆疊難題。


晶片設計工具需要 100,000 倍的提速來餵養 AI。傳統商業工具運行一次優化可能耗時數天,這讓需要數百萬次嘗試才能進化的 AI 無法施展。這種量級提速的意義在於:它不僅僅是「變快了」,而是讓 AI 能夠以前所未有的速度在海量設計空間中進行快速迭代和指數級學習。


高保真的即時反饋是實現自動化設計的引擎。Recursive 研發的 SPA(Static Timing Analysis,用於驗證電信號是否準時到達的靜態時序分析引擎)比現有工具快 1,000 倍。這種即時反饋信號對強化學習(RL)至關重要,它能讓 AI 在優化過程中立即知道每一步改動對性能的影響,從而做出更精準的決策。


晶片行業將迎來「無設計(Designless)」時代。正如 TSMC 開啟了「無晶圓廠(Fabless)」時代,未來的平台將允許用戶只需輸入 workload(工作負載,即模型運行的具體任務需求)就能生成可供製造的設計。這意味著定制晶片將不再是大公司的專利,任何擁有規模化任務的公司都能跳過組建千人專家團隊的過程。


在 AGI 規模下,1% 的微小改進具備巨大的商業槓桿效應。隨著 frontier model 的算力消耗呈指數級增長,即便是極微小的硬件性能提升也會轉化為天文數字般的成本縮減。這種觀點反直覺的地方在於:追求極致定制化帶來的邊际收益,在 AI 時代會被規模效應放大到足以重塑公司競爭力的程度。


最高效的物理設計在人類看來往往是「怪異」的。AI 生成的晶片佈局呈現出彎曲且有機的(organic curved)形狀,這令習慣了整齊方正設計的傳統工程師感到震驚。這主張了一個反直覺結論:人類對規則、對稱的美學偏好實際上限制了晶片性能,真正的物理最佳解往往存在於超越人類審美直覺的「異形空間」裡。


如果只能記住這場對話的一件事,是什麼?


以後造晶片不再需要成千上萬名專家熬夜畫圖,只要把你的需求告訴 AI,它就能在幾分鐘內設計出比人類手畫得更高效、更省電的「怪異」電路。


Starcloud:最便宜的算力在太空


Starcloud 是太空數據中心初創公司,主張把 AI 訓練和推理算力直接送上軌道——零土地成本、24/7 全天候光照、能量密度是地面 8 倍。已與 NVIDIA 合作研發可在太空運行的 H100 晶片。


地球數據中心正面臨土地准入與儲能成本帶來的經濟性瓶頸。在北美,建設地面太陽能專案最大的開支是土地許可費用,其次是為了應對夜間斷電而準備的龐大電池組。這一判斷揭示了 AI 算力的真正瓶頸並非晶片本身,而是地球環境中昂貴的「物理佔位稅」和間歇性的能源供應,導致能源成本在地面難以被徹底壓低。


太空是唯一能提供零土地成本且 24/7 不间断能源的終極計算場。在太空中,資料中心無需支付土地費用,也不需要昂貴的電池儲存,因為處於「永晝」軌道的衛星能時刻捕捉陽光。講者主張太空並非科學前線的奢侈品,而是解決 AI 巨大胃口的降本方案,因為太空太陽能電池板的效率是地面的 8 倍。


最先進的民用 GPU 已經證明可以在極端輻射與真空散熱環境下穩定運行。Starcloud 1 成功在軌道上運行了 NVIDIA H100 芯片並訓練了 nanoGPT(一種小型生成式預訓練模型),打破了「太空電子元件必須使用老舊抗輻射芯片」的迷思。這標誌著人類首次能將最頂級的 terrestrial(地面等級)算力直接部署在近地軌道,徹底消除了太空計算的技術隔離。


火箭發射成本的指數級下降正迅速把「太空算力」從科幻變為最實惠的現實。當發射成本降至每公斤 500 美元以下時,太空計算的綜合成本將低於地面;而 Starship(星艦,SpaceX 的重型運載火箭)的設計目標是每公斤 10 到 20 美元。這一判斷的重要性在於:前往太空的「門票」已不再昂貴,這讓太空計算不再是衛星專用,而是能承載全球範圍的大規模計算任務。


散熱而非電力,將成為決定太空資料中心規模的最終物理約束。由於太空是真空環境,熱量只能通過紅外輻射散發,這需要通過 Stefan-Boltzmann equation(斯特藩-玻爾茨曼定律,描述黑體輻射功率與溫度四次方成正比的物理定律)計算出巨大的散熱面積。這意味著未來的太空計算架構將由散熱器面積定義,而非單純的能源輸入,散熱效率直接決定了系統的緊湊程度。


未來的高端 AI 芯片將為了適應太空而犧牲低溫穩定,轉而追求「耐高溫」性能。NVIDIA 正在研發 Space Reuben 1 芯片,旨在不提高故障率的前提下提升運行溫度,以大幅減少散熱器的質量。這主張了一個反直覺的趨勢:為了減輕發射載荷,芯片設計者開始利用物理定律的四次方效應,通過讓芯片「發燒」來換取更輕、更高效的衛星架構。


太空星座將成為全球 inference 任務的最高效引擎,而非僅作為資料中繼站。Starcloud 計劃部署 8.8 萬顆衛星構建 20 GW 的算力集群,通過光學鏈路實現全球低於 50 毫秒的延遲,專門支援代碼生成等 agent(智能體)任務。這預示著太空將從「資訊的搬運工」進化為「答案的生產者」,直接在距離用戶最近的軌道完成智能決策的計算。


向太空大規模遷移算力是人類文明邁向「戴森球」階段的起跑點。建設 20 GW 規模的太空基礎設施不僅是商業佈局,更是人類開啟 Type 2(二級,指能利用恆星全部能量的文明等級)文明建設的開端。這一判斷的主張極其宏大且反直覺:我們正處於人類歷史上最大基礎設施建設的元年,這標誌著人類不再受限於地球資源,轉而開始直接收割太陽能。


如果只能記住這場對話的一件事,是什麼?


在地球上蓋數據中心太貴太費電了,以後我們要把所有的 AI 晶片都送上天,利用太空裡 24 小時照個不停的太陽光,造出全世界最便宜的智能。


Flapping Airplanes:數據是 AI 的真實瓶頸


Flapping Airplanes 是一家專注於"數據效率"和"算法-硬體協同優化"的 AI 基礎研究公司。核心主張是:現有 AI 模型在結構上極度浪費——人類學會編程只需比當前前沿模型少 10,000–100,000 倍的數據。他們嘗試繞過 PyTorch 等主流框架的限制,直接接管 GPU 底層邏輯,開發能在"小數據"條件下逼近大模型效果的新範式。公司名"拍翼飛機"暗示了一種隱喻:當年人類執著於模仿鳥類拍翼飛行最終失敗,真正起飛的是固定翼飛機——AI 不必照搬大模型的暴力路徑。


當前的 AI 繁榮本質上是「富礦效應」,模型只在數據極度充沛的窄域展現了能力。搜索和編程之所以強大,是因為它們消耗了幾乎整個互聯網和海量的合成數據。這一判斷的主張在於:這種「數據貪婪」模式無法複製到更廣闊的實體經濟中,因為機器人或供應鏈等領域的可用數據量極度稀缺,AI 必須學會在「貧礦」中生存。


人類的學習效率證明了現有的 AI 模型在結構上存在巨大的資源浪費。人類只需比當前前沿模型少 10,000 到 100,000 倍的數據量,就能掌握同樣高超的編程技能。這意味著 data efficiency(數據效率,指用更少數據達到同等智能水平的能力)是完全可行的,目前的 scaling law(規模定律)只是在用海量算力掩蓋算法上的低效。


算力(compute)是容易擴張的標準商品,而高質量數據是充滿摩擦力的非標資產。購買算力只需支付資金,但獲取長尾任務的優質數據卻涉及複雜的法規談判、企業條件約束甚至去搜刮倒閉的實體書店。因此,將數據效率提升 1000 倍的商業價值遠大於將算力降價 1000 倍,因為它直接消除了進入現實世界各行各業的「行政門檻」。


資料效率決定了未來 AI 世界的權力結構,是打破技術壟斷的唯一武器。如果資料量依然是競爭的護城河,那麼 AI 革命將淪為少數幾家能壟斷海量資訊的巨頭的遊戲。講者主張通過提升效率讓普通公司也能參與競爭,這意味著資料效率不僅是技術指標,更是決定 AI 革命是走向「中心化集權」還是「分佈式普惠」的哲學開關。


主流軟體框架如 PyTorch 正在「戴著鐐銬跳舞」,嚴重限制了硬體性能的釋放。PyTorch(一種流行的開源機器學習框架)為了易用性,將極其並行的 GPU(圖形處理器)伪裝成單線程模型運行,導致許多高效算法無法被表達。這一判斷的重要性在於:我們面臨的瓶頸往往不是晶片不夠快,而是我們與硬體互動的方式過濾掉了最聰明、最節省資料的路徑。


尋找 AI 能力的新邊界,必須直接從「硬體原語」層級進行降維打擊。通過重新定義硬體互動的 primitives(原語,指構建復雜程序的最小邏輯單位),可以解鎖那些在標準框架下運行極其低效的復雜算法。這主張了一個反直覺的路徑:想要讓 AI 更聰明,你應該去「折磨」硬體,在底層挖掘出被主流系統拋棄的高效潛力。


只有通過系統與算法的「協同優化」,才能實現真正的資料效率飛躍。講者開發了一套接管整個 GPU 的虛擬架構,用來運行那些在傳統邏輯下「異步且低效」的細粒度訓練迴圈。這種深度定制化的意義在於:它打破了軟硬件脫節的現狀,證明了只有讓算法直接長在硬體的最優解上,才能在極少資料的條件下實現智能突變。


AI 進化的終局是從「大數據」驅動轉向「精細化」驅動,重塑經濟的長尾部分。當 AI 能夠不再依賴互聯網級的資料規模,它才能真正滲透到那數以萬計的、目前缺乏數位化資源的傳統工業場景中。這一判斷的主張極其宏大:我們必須從追求「規模」轉向追求「效率」,因為只有能解決「小數據」難題的 AI,才是真正能改變物理世界的 AGI。


如果只能記住這場對話的一件事,是什麼?


現在的 AI 學習效率太低了,只有讓 AI 學會像人類一樣只看幾眼就能掌握新技能,它才能真正進入工廠、醫院和我們生活的每一個角落。


Unconventional AI:大腦如何實現 100 萬倍能效


非傳統 AI 是 Naveen Rao 創辦的非冯·諾依曼架構計算公司。核心主張是:現代 AI 仍跑在 1940 年代為完全不同目的設計的浮點數+冯·諾依曼架構上,導致絕大部分能量損耗在「記憶體與計算單元間搬運數據」上。他們試圖用非線性動力學和振盪器耦合這類模擬物理過程,讓計算結果通過物理系統的自然演化「自發湧現」——目標是把能效提升三個數量級,逼近大腦的水平。


AI 發展即將撞上物理世界的「能源牆」,現有的算力擴張模式難以為繼。在未來 2 到 4 年內,全球將不再有足夠的剩餘電力來支撐按當前軌跡增長的 AI 訓練和推理需求。這一判斷的重要性在於:目前的 scaling law(規模定律)本質上是在用暴力消耗能源來換取智能,如果不改變計算的物理底座,AI 的進步將因為觸及能源天花板而被迫停滯。


生物大腦的存在證明了「高能耗」並非智能的必然代價,而是我們設計的缺陷。全球 80 億人的大腦總功耗僅為 160 吉瓦,而目前的 AI 模型單次推理或訓練就可能消耗兆瓦甚至吉瓦級的能量。這主張了一個核心觀點:我們對「智能」的實現方式極其低效,生物界已經給出了一個低功耗運行通用智能的「存在性證明」,提示我們必須徹底重構計算邏輯。


我們正嘗試在已有 80 年歷史的陳舊數位抽象上構建 21 世紀的智能。現代晶片仍依賴 1940 年代為完全不同的目的設計的浮點數和 von Neumann(冯·诺依曼,指儲存與計算分離的架構),導致數據在兩者間搬運損耗了絕大部分能量。這一判斷反直覺地指出:即便強如 GPU 也是在錯誤的架構上「修修補補」,硬體進化的方向從一開始就偏離了智能處理的本質。


通往 AGI 的真正路徑是放棄矩陣數學,轉向非線性動力學計算。大腦並不像 GPU 那樣計算矩陣,而是通過 nonlinear dynamics(非線性動力學,指系統狀態隨時間進行複雜且非比例變化的規律)讓神經元相互作用。這一判斷的主張在於:我們不應再追求每秒執行多少次精確計算,而應讓物理系統自發地通過時間演化來收斂出答案,從而實現跨越式的效率提升。


擁抱「噪音」和隨機性是實現超低功耗計算的必經之路。數字計算機如果錯了一個比特就會系統崩潰,但大腦在 stochastic(隨機的,指具有概率性而非確定性的)信號中依然能穩定運行。這主張了一個反直覺的結論:極致的精確性反而成了效率的枷鎖,允許系統具備一定的隨機性和容錯力,才是模擬生物級高效智能的關鍵。


我們應該利用物理規律的「時間軸」來計算,而不是人為劃定主頻周期。通過使用可訓練耦合的 oscillators(振盪器,指產生周期性重複信號的電路),計算過程變成了物理系統隨時間自然沉降到穩態的過程。這一判斷的重要性在於:它消除了傳統機器在內存和緩存間反覆讀寫的功耗,直接讓「物理規律」本身承擔了所有的計算任務。


只有實現狀態、功能與物理底座的完全重合,才能達到計算效率的極限。在非馮·諾依曼架構的動力系統中,信息存儲的地方就是信息被處理的地方,兩者在物理上完全一體化。這主張了一個突破性的方向:計算將不再有「內存牆」的限制,這種三位一體的架構有望將計算效率提升三個数量級,從根本上解決 AI 的能源危機。


構建 AGI 的過程也是人類最終理解自身意識本質的過程。當我們能夠從第一性原理出發,用合成電路複刻出大腦的非線性動態軌跡時,我們才真正掌握了智能的運行密碼。這一判斷的主張極其宏大:AGI 不僅是軟體的勝利,更是一場硬體的「回歸」,讓我們能通過親手建造大腦來真正解開生物智能這一持續了 40 億年的物理謎題。


如果只能記住這場對話的一件事,是什麼?


現在的電腦算東西太費電了,我們得學學人腦的結構,不再讓電腦死算數學題,而是讓電流在電路裡像水流一样自然地跑出答案。



歡迎加入律動 BlockBeats 官方社群:

Telegram 訂閱群:https://t.me/theblockbeats

Telegram 交流群:https://t.me/BlockBeats_App

Twitter 官方帳號:https://twitter.com/BlockBeatsAsia

举报 糾錯/舉報
選擇文庫
新增文庫
取消
完成
新增文庫
僅自己可見
公開
保存
糾錯/舉報
提交