影片標題:AI 代幣的供應與需求 | Dylan Patel 採訪
影片作者:Invest Like The Best
編譯:Peggy,BlockBeats
編者按:在 AI 模型能力持續跨越、Claude Code、Cursor 等工具被企業大規模接入的背景下,行業討論正從「模型有多強」轉向「模型如何進入生產」。但當 AI 編程、自動化分析和數據建模逐漸成為新的共識,一個更基礎的問題開始浮現:當執行成本被快速壓低時,真正稀缺的究竟是人力、資本,還是對前沿模型和代幣的使用權?

左為主持人 Patrick O'Shaughnessy,右為 Dylan Patel
本文整理自 Patrick O'Shaughnessy 與 SemiAnalysis 創始人 Dylan Patel 的一場對談。Dylan 長期關注 AI 基礎設施、半導體供應鏈與模型經濟學,在這場對話中,他從自身公司 Claude Code 支出暴漲出發,討論了 AI 如何改變企業組織、信息服務、代幣需求、算力供應鏈以及社會情緒。
這場對談最值得關注的,不是某個模型又一次刷新 benchmark,而是它提供了一種理解 AI 經濟的方式——把 AI 看作一種正在重新分配執行能力、組織效率和產業利潤的生產系統,而不僅是一次軟體工具升級。
這場對談大致可以從五個角度理解。
首先,是執行成本被打穿。 過去,想法並不稀缺,真正困難的是把想法變成產品、系統和可交付服務。現在,Claude Code 讓非技術人員也能寫程式碼、搭應用、做數據分析,原本需要一個團隊長期維護的工作,開始由少數人借助模型完成。SemiAnalysis 的 Claude Code 年化支出已經達到 700 萬美元,超過其薪資支出的四分之一,這說明 AI 不再只是提效工具,而正在變成企業新的生產資本。
其次,是信息服务行业最先被重寫。 Dylan 所在的業務本質上是出售分析、諮詢和資料集,而這正是最容易被 AI 商品化的領域。芯片逆向分析、能源電網建模、宏觀經濟指標搭建,過去可能需要一個團隊長期投入,現在可以由少數人在幾周內搭出可用產品。這意味著,AI 對信息服務公司的壓力不是「是否會替代人」,而是「誰能更快重做同行的產品」。不採用 AI 的公司會被更快的公司商品化,而採用 AI 的公司也必須持續提高標準,避免被下一批更高效的競爭者反向替代。
更深一層,是 token 正在變成新的生產資料。 過去企業購買軟件訂閱,核心問題是工具是否好用;現在,前沿模型的訪問權、rate limit、企業合同和 token 預算,開始直接決定生產能力。越強的模型並不一定意味著更高成本,因為更聰明的 token 可能用更少步驟完成更高價值的任務。真正的競爭,正在從「誰使用 AI」轉向「誰能拿到最強模型,並把最昂貴的 token 用在最高價值的場景」。
這種需求還會繼續傳導到整條供應鏈。 token 使用量暴漲,最終會變成對 GPU、CPU、內存、FPGA、PCB、銅箔、半導體設備和晶圓廠資本支出的持續壓力。文中提到的「牛鞭效應」正是這一邏輯:下游看似只是模型調用需求增加,傳到上游卻可能變成數倍放大的訂單、擴產和漲價。AI 產業的利潤分配因此不會只停留在模型公司和 NVIDIA,而會沿著半導體與數據中心供應鏈繼續外溢。
最後,是 AI 的社會反彈可能提前到來。 當 AI 真正進入工作流,公眾對岗位替代、能源消耗、數據中心擴張和權力集中的擔憂也會同步上升。Dylan 甚至預測,三個月內可能出現針對 AI 的大規模抗議。對模型公司來說,持續強調「AI 將改變世界」未必能緩解焦慮,反而可能強化普通人對失控感的想象。AI 行業接下來需要證明的,不只是技術能力,而是它如何在當下創造具體、可感知的公共價值。
如今,AI 的核心問題,正在從「模型能做什麼」轉向「誰能獲得模型、如何使用模型,以及誰能捕獲模型創造的價值」。在這個意義上,本文討論的對象已經不只是 Claude Code、Anthropic 或某一家 AI 公司,而是一場圍繞生產力、資本支出、組織效率和社會接受度展開的結構性重排。
以下為原文內容(為便於閱讀理解,原內容有所整編):
·AI 的核心變數正在從「能不能做」轉向「值不值得做」,執行成本驟降後,真正稀缺的是能被模型放大的高價值想法。
·Claude Code 支出占薪資成本 25% 僅是開始,AI 正從軟件工具變成企業新的生產資本。
·前沿模型的競爭不再只是能力競爭,而是 token 獲取權競爭;誰能更早、更穩定地拿到最強模型,誰就可能形成新的商業壁壘。
·信息服務行業會最先被 AI 重構,因為數據、分析和研究的生產成本正在快速下降,慢公司會被更快的公司商品化。
·Token 需求不會因為舊模型降價而放緩,因為每一次模型變強,都會釋放新的高價值用例,並把用戶推向更貴的前沿模型。
·AI 帶來的最大變化不是讓人少工作,而是讓少數人用同樣時間完成數倍產出;不能創造並捕獲 token 價值的人,會被鎖在「永久底層」。
·算力短缺正在向整個半導體供應鏈擴散,從 GPU、CPU、內存到 PCB、銅箔和設備廠商,AI 需求已經變成全產業鏈的價格推力。
·AI 的經濟價值很難被傳統 GDP 捕捉,真正的問題不只是模型公司賺了多少錢,而是 token 生成的決策、效率和連鎖影響究竟創造了多少「幽靈 GDP」。
Patrick O'Shaughnessy(主持人):
你之前跟我講過一個很精彩的故事,是關於你們團隊今年在 token 使用量上的巨大變化。你能再講一遍嗎?它讓你對這個世界正在發生什麼有了什麼理解?
Dylan Patel(SemiAnalysis 創始人):
去年,我們以為自己已經是 AI 的重度用戶了。每個人都在用 ChatGPT,每個人都在用 Claude,我也給團隊提供他們想要的各種訂閱。那時候,公司在這方面的支出大概是幾萬美元級別。
但今年,支出開始飙升。真正的起點大概是在去年 12 月底,隨著 Opus 的出現。這裡面也包括 Doug,也就是我們的總裁 Douglas Lawler。他基本上是在帶頭推動非技術人員用 AI 寫程式碼。可以說,他一點點把整個公司都帶進去了。當然,工程師本來就在用,但從今年 1 月開始,我們的支出明顯拐頭向上,然後迅速爆發。
我們後來和 Anthropic 簽了企業合同。上次我跟你聊的時候,我們的年化支出大概是 500 萬美元;現在已經到了 700 萬美元。
Patrick O'Shaughnessy:
而且那還是上週的數字。
Dylan Patel:
對,其中很大一部分就是使用量本身。真正有趣的是,以前從來沒寫過程式碼的人,現在也在用 Claude Code,而且有些人一天就能花掉幾千美元。但從公司整體來看,我們現在每年在 Claude Code 上的支出已經到了 700 萬美元,而我們的薪資支出大概是 2500 萬美元。也就是說,Claude Code 的支出已經超過薪資支出的 25%。
如果這個趨勢持續下去,到年底它甚至可能超過薪資總額的 100%。這有點驚人。幸運的是,我現在並不需要在「人」和「AI」之間二選一,因為公司增長很快。更像是:我不需要那麼快招人,但可以在 AI 上花更多錢,而且它確實有效,公司也能增長得更快。
但我覺得,其他公司遲早也會開始面對這個問題:如果一個人用 Claude Code 就能完成 5 個、10 個、甚至 15 個人的工作,那接下來怎麼辦?第一,可能確實應該裁人;第二,目前這些使用場景又非常廣泛。
舉個例子,我們在俄勒岡有一個逆向工程實驗室,已經建設了一年半。裡面有很多高端設備,比如顯微鏡、掃描電子顯微鏡。這個實驗室的核心用途是逆向分析晶片,提取晶片架構,分析其製造所使用的材料。這些也是我們出售的數據之一。
但分析這類數據過去是一個非常緩慢的過程。現在,我們團隊裡有一個人,只花了幾千美元的 Claude token,就做出了一個應用。這個應用可以進行 GPU 加速,跑在我們放在 CoreWeave 的伺服器上。我們只要發給它一張晶片圖片,它就能自動在圖像上標出每一種材料的位置:這裡是銅,這裡是鉭,這裡是鍺,這裡是鈷。然後你就可以非常快速地對整個晶片堆疊結構進行有限元分析,而且是可視化的,還有完整的圖形介面和儀表板。
這個人以前在英特爾工作過,他說,在過去,這本來是一個完整團隊要做和維護的事情。現在類似的事情放到整個公司來看,簡直不可思議。
還有一個我覺得特別有趣的例子,是 Malcolm。他以前是一家大銀行的經濟學家。那家銀行的經濟學部門可能有 100 到 200 人。他現在做出來的東西非常驚人。
他把各種數據都接了進來,包括 FRED 數據、就業報告,以及其他來自不同 API 的數據集。我們也和一些數據供應商簽了合同,拿到了 API 訪問權限。然後他把所有數據拉進來,開始跑回歸,分析不同經濟變化對經濟的通脹或通縮影響。
美國勞工統計局有一整套任務分類,大概有 2000 項任務。Malcolm 用 AI 去評估:哪些任務現在可以由 AI 完成,哪些不能,並按照一套 rubric 給它們打分。結果顯示,大概有 3% 的任務現在已經可以用 AI 完成。
於是他創造了一個指標,用來衡量哪些事情可以被 AI 完成,以及當這些事情被 AI 完成時,會帶來多大的通縮效應。產出可能會上升,但因為成本下降得太厲害,理論上 GDP 反而可能收縮。他把這個叫作「Phantom GDP」(幽靈 GDP)。
他基於這個概念做了一整套分析,還建立了一個全新的語言模型 benchmark,包含大約 2000 個 eval。
Patrick O'Shaughnessy:
這些都是他一個人做的?
Dylan Patel:
對,全部是他一個人做的。他跟我說:「兄弟,這在以前得是一個 200 人的經濟學家團隊花一年時間才能完成的事。」他現在完全沉浸在 Claude 裡,說一切都變了。
Patrick O'Shaughnessy:
作為一個企業經營者,你怎麼理解這件事?你們從幾乎沒有這項支出,變成現在它已經接近薪資支出的 25%,而且還在繼續上升。到了什麼節點你會覺得:等等,我是不是該踩剎車了?是不是該控制一下支出?也許我們不需要總是用今天剛發布的最前沿模型,比如 Opus 4.7,而是可以換成更便宜一點的模型?
Dylan Patel:
歸根結底,我所從事的是信息業務。我們銷售的是分析,提供建議,還建立數據集。我看不到有什麼理由認為這些事情不會以相當快的速度被完全商品化。
如果我不持續改進,最早銷售的第一個數據產品,現在已經有更多人開始做類似的事情了。我們之所以還能賣得出去,是因為我們不斷把它做得更好、更細。但我們在 2023 年做這件事的方式,其實和現在其他人正在做的方式已經沒有特別大的區別了。如果我不繼續提高標準,我就會被商品化。如果我行動不夠快,我也會失去優勢。
所以問題是:是的,AI 會商品化很多事物,就像它正在商品化軟體一樣。但那些行動足夠快、能掌握客戶關係、持續提供優秀服務並不斷改進服務的人,不會萎縮,反而會增長得更快。那些無能、什麼都不做的人會輸。
所以這其實有點像一個生存問題:如果我不採用 AI,別人就會採用,然後他們會打敗我。
另一個很簡單的例子是能源領域。我們過去一年左右一直有幾位能源分析師,試圖搭建一個能源模型。這個模型非常複雜,而能源數據服務市場大概有 9 億美元規模,所以它顯然是一個我很想進入的巨大市場。但儘管我們團隊已經有人做了一年,我們其實並沒有真正切入能源數據服務業務。
然後,「Claude Code 精神病」來了。我們有一位負責數據中心能源與工業業務的人,名叫 Jeremy。他開始使用 Claude Code 之後,情況突然變了。三週時間裡,他花了很多錢,一天大概能花 6000 美元,確實非常誇張。但他抓取了美國每一座發電廠、每一條高於某個電壓等級的輸電線路,並從各種公開數據源裡建立了整個美國電網的地圖,同時還接入了很多需求側數據。
我們把它做成了一個儀表板,可以查看和分析美國各個微區域的電力短缺和過剩情況,以及很多細節。這個東西幾周之內就搭起來了。
後來我們把它展示給一些已經購買我們數據中心數據集的客戶,其中也包括能源交易員。他們看完之後說:「哇,這個做了多久?這很不錯,比某某公司還好。」然後我們進一步了解,發現那個「某某公司」有 100 個人,已經在這件事上做了十年。
當然,我們現在的產品還沒有他們那麼完整、那麼穩健,但在某些方面,它已經更好了。所以我現在是在商品化這些能源數據服務公司。但反過來,如果我不跑得更快,誰又會來商品化我?
所以,從企業主的角度看,問題不是「我是不是花了很多錢」。是的,我確實花了很多錢。但問題是,這些錢給我帶來了什麼?它有沒有帶來更多收入?如果答案是有,那這筆錢就是值得的。
Patrick O'Shaughnessy:
你會不會擔心,到最後,那些控制資本、負責投資資本的人,也就是那些經常因為你們做的事情而雇用你們的人會說:「我們自己也有分析師,而且他們也很聰明,我們幹脆自己做不就好了?」如果這件事變得這麼容易,那麼在什麼節點上,它會不會全部回流到投資機構內部?畢竟它們最有可能從這些數據和洞察中獲得最大槓桿。
Dylan Patel:
首先,任何信息服务業務本質上都是這樣:我從一條信息中獲得的價值,顯然沒有客戶從這條信息中獲得的價值大。
如果我以 1 美元的價格把信息賣給你,你之所以願意花這 1 美元買,是因為你知道這條信息能幫助你做出一個決策,而這個決策能讓你賺到超過 1 美元。也就是說,你獲得了套利機會。你從我這裡賺到的錢,比我通過賣這條信息賺到的錢更多。
投資基金本身當然也有自己的信息服務能力。尤其是像 Jane Street、Citadel 這類機構,它們在數據方面非常細,非常深入。但這些機構依然會購買我們的數據,而且還在繼續購買,並且和我們的合作還在增長。
我覺得這裡面有某種「it factor」。我們行動更快,更靈活,團隊更小,而且專注在一個非常具体的領域:AI 基礎設施,以及它所引發的巨大變革,包括 AI、token 經濟和相關的一整套東西。我們能更早看到方向,也能更快搭建東西。
所以,投資專業人士當然會嘗試自己做一些我們做的事情。但更多時候,他們會直接購買我們的數據,然後在此基礎上繼續構建。對他們來說,買我們的數據再往上做,通常比自己從零開始搭建更便宜。當然,最終肯定也會有人嘗試自己做。
Patrick O'Shaughnessy:
我覺得每次和你聊天,我最後都會回到同一個問題:代幣的供給和需求。現在世界上最讓我感興趣的就是這個。你自己的這些經歷,讓你對需求側有什麼新的理解嗎?當你自己非常切身地感受到這一點之後,你對代幣需求這件事的判斷有變化嗎?
Dylan Patel:
如果我們退一步,從宏觀角度看,Anthropic 的 ARR 可能已經從 90 億美元增長到 350 億、400 億美元左右。等這期節目播出的時候,也許已經到了 400 億到 450 億美元。
但它們的算力增長並沒有達到同樣的幅度。如果你算一下,並且假設它們沒有減少研發算力——它們顯然沒有減少,因為它們還在發布新模型,比如 Metis、Opus 4、Opus 4.7——那就說明一件事:它們新增的算力,即使全部都投向推理,它們的毛利率下限也在 72% 左右。
現實中,一部分新增算力很可能也進入了研發,所以它們實際毛利率可能還高於 72%。要知道,今年年初有人洩露過它們融資文件中的一部分信息,當時顯示的毛利率大概只有 30% 多。
一個業務到底怎麼才能在這麼短時間裡把毛利率提升到這種程度?原則上,是因為需求太高了。它們可以收緊使用額度、速率限制以及各種限制。真正重要的是,你要有 Anthropic 的客戶經理,要有企業合同,並且能獲得你需要的 rate limit 提升。否則,代幣最終一定會變得極度搶手。
誰付得起,誰就能拿到。Anthropic 面對的也是同樣的問題——當然這不算問題,這只是資本主義運作方式的現實。是的,客戶每年可能會向它們支付 400 億美元的代幣費用,但這些代幣在客戶那裡創造的價值,遠遠超過 400 億美元。
不同企業每個代幣所創造的價值不同。但隨著模型越來越智能,真正重要的就變成了:誰能獲得這些最智能的代幣,並把它們用在最有價值的事情上。
作為一個人,你要決定的是:怎樣使用這些代幣,才能增長業務、創造價值。很多人都會想要代幣,也會消耗代幣。但那些在舊金山用 Claude 生成軟件產品的普通 SaaS 創業公司,未必真的創造了巨大價值。所以遲早,它們會被代幣價格擠出去。
Patrick O'Shaughnessy:
我今天在飛來的路上就遇到了這個情況。Opus 4.7 一釋出,我立刻就想用 4.7,而且是馬上用。結果我被限流了,根本用不了。我甚至已經沒法再想像繼續用 4.6 了,雖然過去幾周我一直很滿意 4.6,它明明已經很強了。
你會驚訝於人們這麼執著地想使用最貴、最前沿的模型嗎?
Dylan Patel:
完全不驚訝。我過去一個半月裡最搞笑的記憶之一,就是我和我的朋友 Leopold 一起,幾乎跪在 Anthropic 聯合創始人面前,求他給我們 Metis 的訪問權限。
我們知道它存在,所以我們就說:「拜託,讓我們用一下吧。」然後他說:「我不知道你們在說什麼。」
Patrick O'Shaughnessy:
當那個價格表,或者說 eval card 出來的時候,你是什麼反應?
Dylan Patel:
其實在灣區之前就有傳聞,我們大概知道它應該會非常強。如果你看 benchmark,當然 benchmark 會不斷變化,但 Mephisto / Metis 很可能是過去兩年裡模型能力最大的一次躍升。
我覺得這一點非常重要:它強到 Anthropic 甚至不想完全釋出它。儘管它們已經向部分客戶公布了價格,並且進行了選擇性釋出,比如面向網路安全相關場景。它的 token 成本可能是 5 倍甚至 10 倍,但它們仍然不想全面放出來,因為擔心它對現實世界造成的影響。
所以現在放給我們的,是一個更差、更弱的版本,也就是 Opus 4.7。而且它們在模型卡裡明確說了:我們實際上在網路安全能力上有意做了更差的預優化。不知道你有沒有讀到那部分。
所以我想說的是:無論你是誰,只要你有足夠資本,你就應該去買 Anthropic 的企業訂閱,按 token 付費,而不是用那些普通訂閱。因為這樣你就不會那麼容易被限流。
然後你必須想清楚:怎樣把這些 token 用在最高價值的任務上,並從中賺錢。因為從根本上說,也許一年後、兩年後,很多生意本質上就是在做 token 套利。token 很強大,但關鍵是你要知道把它們指向哪裡。
再往後三四年,模型自己可能就會知道應該如何使用代幣,如何創造最大價值。
如果你回頭看任何一個 benchmark,就會發現:過去達到某個能力層級需要的成本是 X,現在可能只需要原來的百分之一,甚至千分之一。比如 DeepSeek 達到 GPT-4 級別能力時,成本大概是 GPT-4 的六百分之一。此後,GPT-4 級模型的成本還在繼續下降。
當然,現在已經沒有人真的在乎 GPT-4 級模型了。大家想要的是前沿模型,因為前沿模型才能創造真正有經濟價值的東西。不過,GPT-4 級模型仍然可以被用於一些場景,只是那些場景通常更小。
所以真正推動需求的,不是舊能力變便宜了,而是新用例不斷出現。你現在用的是 Opus 4.6 或 Opus 4.7 這一層級的模型。一年後,如果我要獲得今天同等質量的模型能力,我的支出可能只有 7 萬美元,也許會便宜 100 倍。
但這不重要。因為到時候,我一定會使用一個更強的模型,去做更有價值的事情。
Anthropic 的 Metis 作為模型本身更貴,但它完成同一件事所消耗的代幣少得多。所以在大多數任務上,它實際上比 Opus 4.6 更便宜。
Dylan Patel:
因為它效率高得多。即使每一個代幣本身更「聰明」、更貴,它完成任務所需要的代幣數量更少。
Patrick O'Shaughnessy:
上次見你的時候,Metis 可能剛剛發布,或者說模型卡剛剛出來。你當時說,它強到讓你有點害怕。你這句話是什麼意思?
Dylan Patel:
Anthropic 在 2025 年的目標,甚至從 2024 年開始,就是:到 2025 年底,他們希望模型裡能有一個 L4 水平的軟體工程師。總體來說,他們用 Opus 4.6 基本做到了。
但他們沒有說的是,如果你看 Metis,再對比 benchmark,它更像是一個 L6 工程師。L4 大概是相對初級的軟體工程師,而 L6 已經是經驗相當豐富的工程師了。
我記得 Anthropic 說過,這個模型在內部大概從 2 月就可用了。也就是說,兩個月時間裡,它們就從 L4 工程師躍升到了 L6 工程師。那接下來會發生什麼?
當你思考模型進步時,會發現它其實還在加速。Anthropic 的發布節奏在壓縮,OpenAI 的發布節奏也在壓縮。為什麼?因為通常來說,要做出更好的模型,你需要幾個東西。
首先,你需要強大的算力。算力非常昂貴,而且有它自己的時間尺度。我們會跟蹤這些東西,它確實在增長,但短期內基本是已經確定的。你已經簽下來的算力,大體上已經定了。當然,中間會有延遲和調整,也可能想辦法再多弄一點,但整體上是比較固定的。
其次,你需要非常優秀的研究人員。現在公司願意為這些人支付數千萬美元。
最後,是實現能力。歷史上,實現一直非常困難。如果我有一個想法,我還得把它實現出來,而實現是很難的。但現在,想法到處都是,實現變得非常容易。它很貴,但非常容易。
所以問題變成了:一個人要如何決定該實現哪些想法?結果是,當實現變得容易太多時,你就可以實現更多想法,在這個跑步機上跑得更快。
這可以發生在 AI 模型研究裡,所以模型發布節奏從過去的六個月縮短到兩個月。也可以發生在其他領域。比如我想把美國每一座發電廠、每一條輸電線路都建模出來,跑回歸,分析微觀區域的供需關係——現在我也可以做。
想法本身是便宜的。關鍵是,哪個想法有意義?哪個想法值得你投入資本,去購買 token,把它實現出來?因為實現能力已經在那裡了。這是最關鍵的變化。
如果實現成本繼續下降——而它確實正在下降——我們甚至還沒有真正拿到 Metis。Opus 4.7 才剛剛發布幾個小時,但我們團隊內部已經非常興奮了。
接下來,這會給世界帶來什麼?我認為它會重新排序經濟運行方式。
過去,執行非常重要,因為執行很難;想法則很便宜。現在,想法不僅便宜,而且非常充足,但執行也變得非常容易。因此,真正值得做的,只剩下那些足夠好的想法——它們能證明,哪怕實現已經極其便宜,你仍然值得為它花錢。
Patrick O'Shaughnessy:
所以你是真的害怕嗎?還是說,它只是引入了一種很難把握的不確定性?
Dylan Patel:
不確定性肯定存在。但我確實覺得,這會帶來某種恐懼。問題在於,社會要如何重組自己?
當你生活在一個「實現某件事的能力」本身已經沒那麼重要的世界裡,什麼才重要?重要的是,你能否為 AI 選擇正確的想法,讓它去實現;你能否把這個想法賣出去,或者把 AI 實現出來的東西賣出去;你能否為這個方向籌集資本。這些才會變得重要。
這也回到前面那個問題:永遠擁有最新模型非常重要。那誰能獲得最新模型?
Anthropic 有一個項目,我知道它不叫 Earwig,但我喜歡故意叫它 Earwig,來調侃 Anthropic 的人。它們只把 Metis 提供給某些公司,用於網路安全場景。我認為這種事情會持續發生:模型的部署範圍會越來越窄,越來越不面向大眾。
註:Earwig 本義是「蠼螋」,一種小蟲子,中文裡也常叫「耳夾子蟲」。這裡更像是一個帶戲謔意味的外號:一方面 earwig 聽起來像某種蟲子,另一方面也有一點「偷偷鑽進耳朵裡」「暗中影響人」的聯想。
我知道 OpenAI、Anthropic 以及其他公司都會說,他們希望讓所有人都擁有強大的 AI。但 AI 非常昂貴。誰來為數萬億美元的基礎設施買單?是那些有錢,並且能用 AI 構建有用東西的人。
而且,你也不希望別人蒸餾你的模型,所以你不會大範圍發布它。你會把它提供給越來越少的一批客戶。然後,這些客戶之間也會開始爭奪 token。
除非 Anthropic 大幅漲價。它們完全可以把 Opus 的價格翻倍,而我還是會繼續付錢。我敢說,大多數用戶也會繼續付。但我認為,這甚至不能解決它們巨大的產能問題。
所以問題就變成了:這個循環會在哪裡結束?當 token 使用量,以及這些 token 所帶來的額外價值,越來越集中在少數公司手裡,會發生什麼?
我現在沒有 Metis。但誰有?頂級銀行有。現在它們可能只是在網路安全裡使用它,但我能想像一個世界:因為我有 Anthropic 的企業合約,也因為 Anthropic 的人還算喜歡我,所以他們可能願意給我們稍微更早一點的訪問權限,或者稍微更高一點的 rate limit。我當然希望這種事發生。
然後我的競爭對手沒有這些訪問權限,我就可以擊敗他們。
也可能是另一種情況。比如 Citadel 的 Ken Griffin,他人脈極強,也非常有錢。他可能去和 OpenAI 或 Anthropic 簽一個協議,說:「我每年先買 100 億美元的 token。你們每次發布新模型,我先把前 100 億美元的 token 買走,然後其他人再用。」
那會發生什麼?他就可能在市場裡碾壓所有人。
這只是一個例子。它也可能發生在網路安全領域,比如 Anthropic 擔心模型會讓人更容易黑進系統。也可能發生在像我這樣的資訊服務行業裡,我用它去碾壓別人。
我認為這件事的影響範圍非常廣。我們不知道這些模型到底能做什麼。Anthropic 不知道,OpenAI 不知道,沒有人知道。最終還是要靠終端用戶自己去發現:這些 token 到底能被用在哪裡?能構建出什麼?能想象出什麼?
這當然會極大提高生產力,對人類來說也有非常積極的一面。但問題是,資源和使用權會如何集中?
Patrick O'Shaughnessy:
現在,機器人或者說 robotics 消耗的 token,和其他領域相比幾乎可以忽略不計。你怎麼看?它會不會成為第二條需求曲線?這裡方圓一英里內,每天都有新的機器人創業公司出現,試圖做出一些有趣的東西。
Dylan Patel:
這裡有一個概念,叫「軟體層面的奇點」(software-only singularity)。也就是說,世界可能先出現一個只發生在軟體裡的 AI 奇點。但問題是,世界的大部分仍然是物理的。你會看到,世界最終會圍繞硬體組織,而不只是軟體。所以我認為,所謂「軟體奇點」只會是一個短暫階段,而不是終局。因為我們最終還是會進入物理世界。
一旦軟體變得非常容易,機器人真正困難的部分是什麼?是編程、微控制器、執行器,以及控制所有這些東西。這些現在都非常難。
AI 模型有一個很有趣的特點:它們的學習效率其實很低。只是因為我們給了它們海量數據,它們才學會了東西,並在某些方面超過了人類。
但機器人現在的模型,比如 VLA,也就是 Vision-Language-Action,視覺-語言-動作模型,現在很熱門,但我認為它可能不是最終能夠繼續擴展下去的東西。它們的數據效率很低,而我們也沒辦法足夠快地擴大機器人數據規模。
未來一定會有某種方式,可以對機器人模型進行大規模預訓練。就像人類在一生中不斷看到各種數據一樣。人類真正厲害的地方在於,我們非常「樣本高效」。一個例子、兩個例子,我們就能學會。
如果把這種能力應用到機器人上,情況就會完全不同。一旦出現軟體層面的奇點,實現變得非常便宜,任何人都可以開始構建這些模型。接下來,人們就可以開始構建真正有用的機器人。
所以我認為,在未來 6 到 18 個月內,我們會開始看到機器人領域的真正突破。關鍵能力是 few-shot learning,也就是少樣本學習。到那時,會有一個預訓練好的機器人模型,然後你雇用或者購買一個機器人,給它展示幾個例子,它就能完成任務。
你告訴它把這兩個東西疊起來,它就能做。你告訴它:「這個東西其實可以保持平衡。」它就會開始嘗試並完成。相信我,我自己已經把東西打翻過很多次了。
所以我認為,機器人會出現少樣本學習能力。
現在確實已經有很多公司在做機器人,有些是為了廣告展示,有些是做一些很簡單的任務。但接下來會變得非常細分。比如專門用來疊衣服的機器人,或者更細分一點,專門清潔黑板的機器人。它可能是一種租賃服務,也可能是一個模型包,你下載到標準機器人上,它就能執行這個任務,然後你按使用付費。
無論如何,物理商品領域都會迎來巨大的加速,也會產生通縮效應。而這最終會繼續推動 token 需求瘋狂增長。所以我個人不認為 token 需求會放緩。
Patrick O'Shaughnessy:
從 Metis 的結果,以及它的構建方式中,你還學到了什麼關於這個世界的新東西嗎?換句話說,如果把 scaling laws 的各個組成部分拆開來看,比如預訓練這一塊……
Dylan Patel:
它是一個比之前模型大得多的模型。10 萬塊 Blackwell,等價於上一代數十萬塊芯片。當然,TPU 和 Triton 有各自不同的發布節奏,所以不能完全一一對應。但最終來說,是的,Metis 是一個明顯更大的模型。它證明 scaling laws 仍然有效。它所展示的一切都說明,趨勢線還在繼續:把更多算力投入模型,模型就會變得更好。
而且整個過程中,不只是「更多算力讓模型變好」。與此同時,我們也在不斷獲得計算效率上的提升。實驗室投入的所有研發算力,最終都轉化成了一件事:如果我想要某個能力層級的模型,每隔六個月,或者現在每隔兩個月,達到這個能力所需的成本都會大幅下降。但如果我再把規模極大地拉上去,也仍然能得到巨大的能力躍升。
所以,是的,它證明這件事還在繼續發生。Google 和 Anthropic 在訓練側並不是 GPU 的重度用戶。OpenAI 接下來應該也會推出新一代模型。我覺得他們在 scaling 上採取的是一種更理性、更有原則的小步推進方式。而 Anthropic 這次則是做了一次巨大跳躍。
今年我們會看到越來越好的模型,而且發布節奏只會越來越快。
Patrick O'Shaughnessy:
我們這場對話已經聊了很久,但幾乎沒有怎麼提 OpenAI。這在以前會是一件很奇怪的事。
Dylan Patel:
這正是有趣的地方。現在很多人會說:所以 Anthropic 已經贏了,對吧?它們 2 月就有了 Metis,但甚至沒有發布,因為它們覺得沒必要。它們的算力已經賣光了,收入每個月還在增加 100 億美元。然後今天又發布了 Opus 4.7,而這一切都發生在 OpenAI 傳聞中的 Spud 發布之前——《The Information》等媒體都報導過這個傳聞。
所以表面上看,Anthropic 明顯領先了,OpenAI 好像完了。但有趣的是,Anthropic 在算力上受限非常明顯,它們能擴張的速度有限。Dario 以前還曾經得意地說,OpenAI 在算力投入上太激進了,而 Anthropic 的 scaling 更理性。但現在 Anthropic 可能會想:我們當初真應該有更多算力。
OpenAI 則完全有能力支付這些賬單。事實上,它們已經籌資了很多錢,用來獲得更多增量算力。除此之外,它們之前還以非常激進、甚至有點「不負責任」的規模,從 Oracle、CoreWeave、SoftBank、Microsoft 等公司購買算力。現在它們也從 Amazon 那裡拿到了 Trainium。
所以 OpenAI 在算力上做了一件非常瘋狂的事,而且它們也知道自己還需要更多。
有趣的是,如果我們拿 Opus 4.6 來看,先暫時不考慮模型繼續變強,只看這項技術的擴散。你和我可能會在模型發布第一天就立刻用上,但其他企業需要時間。人們也需要時間學習。那種「Claude 覺醒時刻」不會同時擊中所有人。所以到年底,假設一個 Opus 4.6 級別的模型,整個經濟體每年願意為它花 1000 億美元,我覺得這並不夸張。畢竟現在已經在花 400 億美元了。
Patrick O'Shaughnessy:
這基本上只是線性外推。
Dylan Patel:
對,這是線性外推,不是指數級外推。要實現指數級增長,你需要更好的模型。但 Anthropic 不會有足夠算力去滿足這些需求。所以,假設 OpenAI 或 Google 很快也達到這個能力層級,誰下一個做到都可以。
Anthropic 也許能收取 70% 的毛利率,但如果 OpenAI 下一個達到同等能力,即使它只收 50% 的毛利率,它也會吃到所有這些增量需求。而且它大概率同樣沒有足夠算力服務所有用戶。所以,也許 Metis 這樣一個模型,如果全世界有足夠算力,可能能帶來 5000 億美元收入,甚至更誇張。市場對這些 token 的需求太強了,而算力供應又極其有限。
我們已經從 H100 價格暴漲中看到這一點了。GPU 的可用壽命也在不斷延長。很明顯,即使是二線實驗室,它們的 token 也會賣光,更不用說一線實驗室了。一線實驗室會有更好的利潤率,但二線實驗室也會賣光,甚至三線實驗室可能也接近賣光。
最強模型所能創造的經濟價值,正在比基礎設施向人們提供這些 token 的能力增長得更快。所以這個缺口會繼續擴大。模型實驗室的利潤率也會繼續上升,直到硬體供應鏈和基礎設施供應鏈上的人反應過來:等等,為什麼我不直接提高自己的利潤率?
Patrick O'Shaughnessy:
所以可以說,你今天對需求側的判斷,尤其是你們 SemiAnalysis 自己的例子,是完全爆炸式的。而更廣泛地說,隨著人們進入你所說的「AI 精神病」狀態,親身感受到自己能做什麼,感受到實現難度幾乎完全消失,我自己也確實有這種體會。短短幾周裡,我自己的 token 支出已經徹底飆升。
這聽起來是一個相當好的需求側判斷。那在需求側,我們還有什麼遺漏的嗎?如果你不使用更多 token,你就永遠無法擺脫「永久底層」。你能展開講講這句話嗎?
也就是說,要么你使用更多 token,並且通過這些 token 創造出超額經濟價值;但很多人現在的用法很無聊、很懶惰。他們會想:「那我以後每天只工作一小時,不工作八小時,讓 AI 替我完成大部分工作。」
Dylan Patel:
那是無聊的方式。更酷的方式是:我仍然每天工作八小時,但我完成八倍的工作量,也許賺五倍的錢。也許不一定能賺到五倍,但方向應該是這樣。
當然,如果你只是打一份工,這很難做到。確實有人會同時做多份工作,也有人會創辦公司、開始賣東西。在所有人都使用 AI、它變成行業標配之前,你要先抓住 AI 帶來的經濟價值。因為它現在還沒有完全成為標配。如果你不使用更多 token,不從這些 token 中創造價值,並且捕獲這些價值,你就無法擺脫永久底層。
這裡其實有三個不同的問題:第一,使用更多 token;第二,從這些 token 中創造價值;第三,從你用 token 創造出來的價值中捕獲價值。如果你不能完成這三件事,隨著模型能力繼續飆升,資源又可能進一步集中,你就永遠無法擺脫永久底層。
好,我們來談供應側。現在到底發生了什麼?如果需求曲線爆炸式上升,那麼為了服務所有這些代幣,整個供應堆疊的前沿正在發生什麼變化?隨著需求飆升,供應側所有東西都在漲價。無論是 NVIDIA GPU,還是其他環節,價格都在上漲。與此同時,它們的使用壽命也在延長。
H100 的價格走勢就是這樣。過去有人認為 GPU 的有效壽命不到五年,這完全是胡說。現在一些三四年前的 Hopper 集群,正在重新簽三年或四年的合同;一些 A100 集群也在續簽未來幾年的合同。
所以 GPU 的有效壽命顯然不是五年,甚至可能是七年或八年。我們還不知道,等 Hopper 真正走到那個階段再看。但很明顯,它不是五年。而且在續約時,價格還在上漲。
這意味著,一個集群的毛利率實際上並不是 35%,而是更高。雲層的利潤率正在擴張。硬件層的利潤率也非常健康,NVIDIA 仍然在收取大約 75% 之類的毛利率。再往供應鏈下游看,內存環節的利潤率顯然也已經大幅上升。光模組、邏輯晶片等領域也出現了大額預付款,利潤率在緩慢上升。
更重要的是,像 NVIDIA 這樣造晶片的公司,正在支付巨額預付款。所以即便毛利率沒有明顯上升,資金成本、現金流時點,或者投資資本回報率,也在上升。
你可以在整個供應鏈上看到這一點。ASML 已經完全賣光了,它需要 Carl Zeiss 更快擴產。沿著供應鏈看,每個環節要麼已經售罄,利潤率上升;要麼收到預付款,從而提高投資資本回報率,因為它實際需要投入的資本更低。
這是一條貫穿整個供應鏈的一致趨勢。甚至連 PCB 都是這樣。製造 PCB 需要銅箔,而銅箔也賣光了,人們開始為銅箔支付預付款。
可以說,只要這個東西還有「脈搏」,只要它處在供應鏈裡並且已經售罄,人們就會撲上去爭奪更多增量供給,並且提前爭奪未來幾年的供應。
Dylan Patel:
供應鏈通常反應很快。但這一次有一個很獨特的地方:今天的供應鏈比以往任何時候都更複雜,我們正在建造的東西也比以往任何時候都更複雜,所以交付周期更長。不是說其他行業沒有出現過 18 個月的交付周期,而是這一次,新增供給的建設本身需要好幾年。
記憶體就是這樣。記憶體產能每年只能以較低的兩位數百分比增長,比如 20%、30% 左右。NAND 甚至更低,DRAM 稍微高一點。即便 2025 年底需求信號已經非常強,記憶體公司也立即開始反應,但真正的新增產能並不會馬上到來。
在原本每年 20% 到 30% 的增長之外,它們當然可以再稍微擠一擠產能。但真正意義上的新增供給,要到 2028 年才會出現。最早也可能是 2027 年末,但大概率還是 2028 年。這是非常獨特的。即使它們想以最快速度擴產,供給也不會立刻到來。
結果就是,記憶體價格已經漲上天了。而且我告訴你,尤其是 DRAM,價格至少還會再翻一倍、兩倍,甚至三倍。
有人會說:「記憶體這個故事已經被講烂了,大家都懂。」但其實不是,你們並沒有真正理解。DRAM 從現在開始仍然可能再翻倍或翻兩三倍,因為所需產能就是這麼大。它們必須從其他地方搶產能。而在資本主義經濟中,從其他地方搶產能的唯一方式,就是通過更高價格摧毀部分需求。我們不是在搞配給制度,所以最終一定會發生這種事。利潤率會繼續上升。
我認為邏輯晶片也存在巨大的產能問題。台積電剛剛發布財報,它們一直在上調資本支出。但建造晶圓廠終究需要相當長時間。它們正在盡一切努力,從每一座現有工廠中擠出更多產出。但台積電沒有快速漲價,因為它們是「好人」。它們漲價大概只是個位數,而不是像記憶體廠商那樣出現三位數漲幅。
所以最終你會看到這樣一個市場:台積電是一家偉大的公司,但它真的會把所有價值都提取出來嗎?未必。
我剛才提到過一些東西,比如 PCB 所需的銅箔、玻璃纖維、激光器。這些都是大家相對理解、但又很細分的供應鏈,它們現在也非常緊張。再往上游看,半導體晶圓製造設備供應鏈,我仍然認為它雖然已經漲了很多,但市場還是嚴重低估了它的重要性。
台積電今年的資本支出指引是 560 億美元。我們從 1 月開始的預測是 574 億美元,而且可能還會再略微上調,因為我們看到它們還有一些增加資本支出的方式。
但人們沒有真正關注的是:這對明年意味著什麼?對後年又意味著什麼?
結果是,三年後,台積電可能會把資本支出提高到 1000 億美元。也許兩年後,也就是 2028 年,它們真的可能花 1000 億美元做資本支出。我是認真說的,台積電 2028 年可能會花 1000 億美元做資本支出。
很多人無法想象這個數字。但這對它的下游供應鏈意味著什麼?對 Lam Research、Applied Materials、ASML 這樣的公司意味著什麼?對更下游的供應鏈,比如 MKS Instruments 這類公司,又意味著什麼?
牛鞭效應會被進一步放大。
註:文中說的「牛鞭效應」,指的是指的是供應鏈裡的放大效應。具體而言,AI 需求在最下游看起來只是 token 使用量暴漲,但傳導到上游供應鏈時,會被一層層放大,最後變成更誇張的擴產、漲價和搶產能。
如果台積電真的想在 2028 年花 1000 億美元資本支出,而我認為這確實有可能,很多人會覺得這很瘋狂,但它真的可能發生。
Patrick O'Shaughnessy:
那晶片生態中的其他部分呢?GPU 一直佔據絕對主導地位。但 CPU、ASIC 或其他東西,會不會作為新的機會和瓶頸出現?不只是 NVIDIA GPU 的主導地位之外,還有哪些環節值得關注?
Dylan Patel:
是的,ASIC 明顯正在起飛。不過我想先從 AI 晶片本身稍微跳開,講講其他東西。我們做過一個關於 FPGA 的專案,結果發現,每一個下一代 AI 機架裡,大概要用到 120 個 FPGA。那這會對所有 FPGA 公司意味著什麼?
CPU 方面也是一樣。所有這些強化學習環境,再加上你和我生生成的那些「廢碼」——現在它們都跑在某個 Vercel 實例、某個 AWS 實例,或者我們隨手啟動的某個雲資源上。所有這些都需要 CPU。所以 CPU 現在也完全賣光了,而且需求正在快速上升。
Patrick O'Shaughnessy:
幫大家理解一下,CPU 在整個體系裡到底扮演什麼角色?
Dylan Patel:
主要有兩個原因解釋為什麼你需要大量 CPU。
第一,是強化學習。做強化學習時,CPU 非常關鍵。
過去,你會把整個互聯網的數據扔進模型裡訓練,然後模型吐出一些結果。現在,你仍然會把互聯網數據放進模型裡,但之後你還會把模型放進一個環境中,對它說:「來,試試看。」模型會嘗試很多不同的事情。最後,這個環境會評估它嘗試的結果是否成功,並給它打分。這些環境可以是任何事物。它可以很簡單,比如檢查輸出文本是不是符合正確格式,或者結構化輸出是否正確。也可以非常複雜。
現在人們已經開始進入非常複雜的場景了。比如:「我想讓你打開這個文件,修改它,編輯它,更新它,然後提交到某個網站。」或者:「我想讓你打開西門子的物理仿真軟件,編輯這個 CAD 模型。」所以,這些環境會變得越來越複雜。而這些環境運行在 CPU 上,不運行在 GPU 上,也不運行在 ASIC 上。
ASIC 或 GPU 負責運行模型本身:從環境中接收輸入數據,把它送入模型,生成不同的輸出路徑,也就是模型認為可以解決問題的不同方式。然後,這些路徑會被評估和打分。那些成功的路徑會被拿來繼續訓練模型、更新模型,再不斷迭代。所以,這是 CPU 非常有用的第一個地方。
第二個地方是部署。
當你有了這些很強的模型,並把它們部署出去時,模型會生成代碼,生成各種有用的輸出。但這些輸出不是從 GPU 直接進入人的大腦。它們會從 GPU 或 ASIC 出來,進入某個你部署的應用,而那個應用本身通常運行在 CPU 上。
所以,這又是另一個需求非常大的領域。CPU 在很大程度上已經賣光了。
Patrick O'Shaughnessy:
在你持續評估供給和需求走向,並嘗試成為全世界最了解這兩件事的人時,有哪些事情是你希望自己知道、但現在還不知道的?
Dylan Patel:
我覺得對我們來說,也是對所有人來說,最難理解的部分,是 tokenomics,也就是 token 的經濟學。我們對運行基礎設施需要多少成本、token 的成本是多少、模型成本是多少、這些實驗室的利潤率是多少,其實有非常好的判斷。但真正難建模的是使用量和採用速度。
我們在 1 月的時候,對 2 月做過一些非常激進的預測,結果 Anthropic 輕鬆超過了。那我們該怎麼校準這個模型?應該用什麼數據源?到 2 月,我們又對 3 月做了非常激進的假設,結果它們又超過了。大家看到「新增 100 億美元收入」這個數字時,反應都是:什麼情況?它們到底怎麼新增了 100 億美元收入?誰在用這些 token?為什麼用?他們到底在用這些 token 構建什麼?更重要的是,他們用這些 token 構建出來的東西,究竟如何擴散到經濟中?又創造了多少價值?
這並不是一個能被 GDP 統計輕易捕捉到的東西。比如,我使用 token 所創造的全部價值,最終會轉化成更好的信息。然後我把這些信息賣出去,而且相較於過去別人賣信息的價格,我是以更低價格賣出的。
這些信息隨後進入整個經濟系統,讓人們做出更好的投資決策,或者更好的競爭決策。比如他們是半導體公司、數據中心公司,或者 hyperscaler,那麼這些信息的價值到底是多少?它對經濟產生了什麼影響?
從任何主觀指標看,這顯然是非常驚人的。但問題是,「幽靈 GDP」在哪裡?Phantom GDP 到底是什麼?我們該如何追踪真實的經濟價值?
因為現有 GDP 指標並不準確。如果你問 Dylan Patel 創造了多少 GDP,那數字會非常小,和我認為自己實際創造的價值相比,根本不成比例。
所以最終的問題是:這些 token 到底創造了多少價值?不只是簡單地看直接收入,而是看它們帶來的連鎖效應。它們做成的所有事情,後續影響到底是什麼?
我覺得這才是真正的問題,也是最難衡量的挑戰。我認為我們對供給側已經有非常好的判斷。對需求側的很多信號,我們也有非常好的判斷。但這些 token 究竟創造了什麼價值,這件事很難量化和測量。我希望我們每三個月都能做一次這樣的對話,因為變化實在太快了。
Patrick O'Shaughnessy:
那你覺得接下來會發生什麼?比如三個月後,我再來舊金山和你見面,你預期會看到什麼?
Dylan Patel:
大規模抗議。
Patrick O'Shaughnessy
針對 AI 的抗議?展開講講。
Dylan Patel
人們討厭 AI。AI 現在甚至比 ICE、比政客還不受歡迎。我也不知道 Pew 是怎麼做調查的,但顯然 AI 比政客還不受歡迎。
隨著 Anthropic 增加這麼多收入,它會開始在下游引發商業變化。人們會越來越害怕 AI。他們會開始把越來越多自己的問題,以及很多長期存在的全球性深層問題,都歸咎於 AI。
這些問題會浮出水面,然後被歸因到 AI 身上。很可能會有一些政治人物,或者社交媒體上的人、影響者,開始把 AI 武器化,用來攻擊別人。
你去看一些新聞文章下面的評論。Sam Altman 家裡兩週內兩次被人扔燃燒瓶,評論區裡居然有人在叫好。這只是一個開始。所以我認為,三個月內我們會看到針對 AI 的大規模抗議。
Patrick O'Shaughnessy:
那抵消這種情緒的力量是什麼?AI 行業應該怎麼提前應對?
Dylan Patel:
首先,Sam Altman 和 Dario 應該停止接受採訪。他們太沒有個人魅力了。我不知道他們到底在做什麼。每一次採訪都會讓普通人更討厭他們。比如 Sam Altman 上 Tucker Carlson 的節目,可能讓所有共和黨人都更討厭 OpenAI。Dario 也是一樣。他們真的沒有什麼魅力。這是第一點。
第二,他們需要開始展示 AI 能做出的積極、鼓舞人心的事情。
第三,他們需要停止不斷談論「AI 能力將如何改變整個世界」。因為人們聽到這種能力,只會感到害怕。尤其是當他們和這項技術沒有任何真實連接時。
Patrick O'Shaughnessy
他們不知道怎麼使用它。
Dylan Patel:
而且他們和它沒有連接。普通人不認識 Anthropic 的員工,也不認識 OpenAI 的員工。普通人不知道這些人是誰,不知道他們的目標是什麼。他們只會把這些公司看成某種偷偷摸摸的小集團:幾千個人聚在一家公司裡,要改變世界、自動化所有工作、摧毀社會。很多人眼裡就是這樣。
再加上,這些公司還在資助和推動建設大量數據中心和發電廠,而這些東西在公眾看來會汙染世界。人們並不真正理解發生了什麼。所以這些公司必須停止談論那個「未來即將發生的巨大變化」,只談現在:AI 在當下如何帶來積極作用。我認為,這需要一次巨大的組織重塑和品牌重塑。
Patrick O'Shaughnessy:
我很喜歡和你做這樣的對話。感謝你的時間。
Dylan Patel:
太棒了,謝謝。
[視頻鏈接]
歡迎加入律動 BlockBeats 官方社群:
Telegram 訂閱群:https://t.me/theblockbeats
Telegram 交流群:https://t.me/BlockBeats_App
Twitter 官方帳號:https://twitter.com/BlockBeatsAsia