加密貨幣交易所 加密貨幣交易所
Ctrl+D 加密貨幣交易所
ads
首頁 > SHIB > Info

a16z:巨額計算成本壓力下,不同企業該如何選擇 AI 基礎設施?_人工智能:Bafi Finance Token

Author:

Time:1900/1/1 0:00:00

撰文:GuidoAppenzeller、MattBornstein和MartinCasado

來源:a16z

圖片來源:由無界AI工具生成

生成式人工智能的熱潮是以計算為基礎的。它的一個特性是,增加更多的計算量會直接導致更好的產品。通常情況下,研發投資與產品的價值更直接相關,而且這種關系明顯是次線性的。但目前人工智能的情況并非如此,今天推動該行業發展的主要因素僅僅是訓練和推理的成本。

雖然我們不知道真實的數字,但我們從可靠的消息來源聽說,算力的供應十分緊張,需求超過了10倍!所以我們認為,現在,以最低的總成本獲得計算資源已經成為人工智能公司成功的決定因素。

事實上,我們已經看到許多公司在計算資源上花費的資金占其總籌資額的80%以上。

在這篇文章中,我們試圖分解AI公司的成本因素。絕對數字當然會隨著時間的推移而變化,但我們不然我AI公司受計算資源的訪問限制將立即緩解。因此,希望這是一個有助于思考的框架。

為什么AI模型的計算成本如此之高?

生成式人工智能模型種類繁多,推理和訓練成本取決于模型的大小和類型。幸運的是,今天最流行的模型大多是基于Transformer的架構,其中包括熱門的大型語言模型,如GPT-3、GPT-J或BERT。雖然transformer的推理和學習操作的確切數量是特定于模型的,但有一個相當準確的經驗法則僅取決于參數的數量模型以及輸入和輸出Token的數量。

Token基本上是幾個字符的短序列。它們對應于單詞或單詞的一部分。獲得對token的直覺的最好方法是使用公開的在線標記器嘗試標記化。對于GPT-3,一個token的平均長度是4個字符。

Transformer的經驗法則是,對于一個具有p個參數的輸入和一個長度為n個token的輸出序列的模型,前向通過大約需要2*n*p浮點運算1。對同一模型的訓練,每個token大約需要6*p浮點運算。你可以通過將其乘以訓練數據中的token量來估算總的訓練成本。

Transformer的內存需求也取決于模型大小。對于推理,我們需要p個模型參數來適應內存。對于學習,我們需要在前向和后向傳遞之間存儲每個參數的額外中間值。假設我們使用32位浮點數,這就是每個參數需要額外的8個字節。對于訓練一個1750億個參數的模型,我們需要在內存中保留超過一兆字節的數據--這超過了目前存在的任何GPU,需要我們將模型分割到不同的卡上。推理和訓練的內存需求可以通過使用更短長度的浮點值來優化,16位已成為普遍現象,預計在不久的將來會有8位。

CZ回應“a16z投票反對在BNB Chain上部署Uniswap V3”:人民投票與金錢投票是完全不同的:金色財經報道,針對“a16z投票反對在BNB Chain上部署Uniswap V3”一事,幣安首席執行官 CZ 在社交媒體上發問:“UniSwap 是由 a16z 控制的嗎?”此外,CZ 還表示,人民投票與金錢投票是完全不同的,鏈上投票意味著巨鯨可能會控制區塊鏈,就像股東一樣,幣安已經在會議上就這個問題進行了討論。[2023/2/6 11:50:16]

上表是幾個流行模型的規模和計算成本。GPT-3有大約1750億個參數,對應1,024個token的輸入和輸出,計算成本大約為350萬億次浮點運算。訓練一個像GPT-3這樣的模型需要大約3.14*10^23的浮點運算。其他模型如Meta的LLaMA有更高的計算要求。訓練這樣的模型是人類迄今為止承擔的計算量較大的任務之一。

總結一下:人工智能基礎設施之所以昂貴,是因為底層的算法問題在計算上極其困難。與用GPT-3生成一個單詞的復雜性相比,對一個有一百萬個條目的數據庫表進行排序的算法復雜性是微不足道的。這意味著你要選擇能夠解決你的用例的最小模型。

好消息是,對于transformer,我們可以很容易地估計出一個特定大小的模型將消耗多少計算和內存。因此,選擇合適的硬件成為下一個考慮因素。

GPU的時間和成本爭論

計算復雜性是如何轉化為時間的?一個處理器核心通常可以在每個周期執行1-2條指令,由于DennardScaling的結束,在過去的15年中,處理器的時鐘速率一直穩定在3GHz左右。在不利用任何并行架構的情況下,執行單個GPT-3推理操作將需要350TFLOPS/(3GHz*1FLOP)或116,000秒,或32小時。這是非常不切實際的;相反,我們需要專門的芯片來加速這項任務。

實際上,今天所有的AI模型都在使用大量專用內核的卡上運行。例如,英偉達A100圖形處理器有512個"張量核心",可以在一個周期內完成4×4矩陣乘法。人工智能加速器卡通常被稱為GPU,因為該架構最初是為桌面游戲開發的。在未來,我們預計人工智能將日益成為一個獨特的產品系列。

加密投資公司Asymmetric獲10億美元融資,a16z、Solana等創始人參投:金色財經報道,前微軟戰略部門高管 Joe McCann 創立的新投資公司 Asymmetric 已籌集了 10 億美元的資金,a16z創始人及合伙人 Marc Andreessen 和 Chris Dixon、 Solana 聯合創始人 Anatoly Yakovenko 和 Raj Gokal、CMS Holdings 負責人兼聯合創始人Dan Matuszewski、Coinbase 前總裁 Asiff Hirji、 Brevan Howard 前投資組合經理 Chris Cecere、Aurate 創始人 Bouchra Darawazh、Drizly 創始人 Brett Beller等參與支持。

Asymmetric 將設置兩種投資工具:風險投資基金和流動性基金,前者將負責代幣交易分配,后者將利用最復雜的算法分析工具進行投資。McCann 表示,該公司是更注重技術的投資公司,他表示:我們對加密貨幣持非常技術性的看法,談到開源工具,這實際上就是我建立業務的基礎”。(The Block)[2022/4/27 5:14:02]

A100的標稱性能為312TFLOPS,理論上可以將GPT-3的推理時間縮短到1秒左右。然然而,由于多種原因,這是一個過于簡化的計算。首先,對于大多數用例來說,瓶頸不是GPU的計算能力,而是將數據從專門的圖形存儲器送到張量核心的能力。其次,1750億個權重將占用700GB,無法放入任何GPU的圖形存儲器中。需要使用分區和權重流等技術。第三,有一些優化,正在被用來加速計算。但是,總的來說,上面的數字讓我們對當今LLM的總體計算成本有了直觀的了解。

訓練一個transformer模型每個標記花費的時間大約是進行推理的三倍。然而,考慮到訓練數據集比推理提示大3億倍,訓練需要10億倍的時間。在單個GPU上,訓練需要數十年;在實踐中,這是在專用數據中心的大型計算集群上進行的,或者更有可能是在云端。訓練也比推理更難并行化,因為更新的權重必須在節點之間進行交換。GPU之間的內存和帶寬往往成為一個更重要的因素,高速互連和專用結構是很常見的。對于訓練非常大的模型,創建一個合適的網絡設置可能是首要挑戰。展望未來,AI加速器將在卡上甚至芯片上具備聯網能力。

那么,這種計算復雜性如何轉化為成本?正如我們在上面看到的,一個GPT-3推理,在A100上大約需要1秒鐘,對于1000個token的原始計算成本在0.0002美元到0.0014美元之間。這是一個非常低的價格點,使得大多數基于文本的人工智能用例在經濟上是可行的。

a16z宣布推出使用零知識證明技術的空投領取工具:金色財經報道,加密風投機構a16z在官網宣布推出使用零知識證明技術的空投領取工具,使得加密項目方向活躍貢獻者發放空投時保護貢獻者的地址隱私,特別是根據用戶鏈下活動空投代幣的情況下。

具體而言,潛在的空投接收者可以通過公共渠道(如 Telegram、Discord、Twitter 或 Signal)提供消息(稱為“承諾”);然后,空投者通過將這些承諾散列在一起,構建一個Merkle樹。隨后,潛在的接受者可以通過提供零知識Merkle證明,證明他們是樹內承諾的作者,而無需透露是哪一個,從而聲稱自己的空投份額。

a16z稱,以這種方式申領代幣將收件人的公共地址與所有其他有權空投的用戶的公共地址混合在一起,從而保護他們的匿名性。[2022/3/28 14:21:12]

另一方面,訓練GPT-3則要昂貴得多。在上述速率下,再次僅計算3.14*10^23FLOPS的計算成本,我們可以估計到A100卡上的單次訓練費用為56萬美元。在實踐中,對于訓練,我們不會在GPU上獲得近100%的效率;但是我們也可以使用優化來減少訓練時間。其他對GPT-3訓練成本的估計從50萬美元到460萬美元不等,取決于硬件假設。請注意,這是一次運行的成本,而不是整體成本。可能需要多次運行,而云供應商將希望得到長期的承諾。訓練頂級的模型仍然很昂貴,但對于資金充足的初創公司來說是可以承受的。

總而言之,當今的生成式人工智能需要對人工智能基礎設施進行大量投資。沒有理由相信這會在不久的將來發生改變。訓練像GPT-3這樣的模型是人類有史以來計算量最大的任務之一。雖然GPU變得越來越快,而且我們找到了優化訓練的方法,但人工智能的快速擴張抵消了這兩種影響。

AI基礎設施的考慮因素

至此,我們已嘗試讓您對進行AI模型訓練和推理所需的規模以及驅動它們的底層參數有了一定的了解。在這種背景下,我們現在想就如何決定使用哪種AI基礎設施提供一些實用指南。

外部與內部基礎設施

GPU很酷。許多工程師和有工程意識的創始人都偏向于配置自己的人工智能硬件,這不僅是因為它可以對模型訓練進行細粒度控制,還因為利用大量計算能力會帶來一些樂趣。

然而,現實是,許多初創公司--尤其是應用程序公司--不需要在第一天就建立自己的人工智能基礎設施。相反,像OpenAI或HuggingFace和Replicate這樣的托管模型服務使創始人能夠迅速搜索產品與市場的契合度,而不需要管理底層基礎設施或模型。

A16z合伙人引用名言回擊Jack Dorsey:Web 3離勝利已經不遠了:金色財經報道,針對Jack Dorsey發表的Web 3言論,a16z合伙人Chris Dixon再次做出回擊,他引用名言稱:“首先他們無視于你,而后是嘲笑你,接著是批斗你,再來就是你的勝利之日。”Chris Dixon表示,Web 3現在處于“被批斗”的階段,暗示距離勝利已經不遠了。[2021/12/21 7:54:18]

這些服務已經變得如此之好,以至于許多公司可以直接依附于它們。開發人員可以通過提示工程和高階微調抽象實現對模型性能的有意義的控制。這些服務的定價是基于消費的,所以它也經常比運行單獨的基礎設施更便宜。我們已經看到一些應用程序公司產生了超過5000萬美元的ARR,估值超過10億美元,它們在后臺運行托管模型服務。

另一方面,一些初創公司--特別是那些訓練新的基礎模型或建立垂直整合的人工智能應用--無法避免直接在GPU上運行自己的模型。要么是因為模型實際上是產品并且團隊正在尋找“模型-市場契合度”,要么是因為需要對訓練和/或推理進行細粒度控制才能實現某些功能或大規模降低邊際成本。無論哪種方式,管理基礎架構都可以成為競爭優勢的來源。

云與數據中心的構建

在大多數情況下,云是你的AI基礎設施的正確位置。對大多數初創企業和大公司來說,較少的前期成本,擴大和縮小規模的能力,區域可用性,以及較少因建立自己的數據中心而分心,是具有吸引力的。

但這一規則也有幾個例外:

如果你的運營規模非常大,運行你自己的數據中心可能會變得更有成本效益。確切的價位根據地理位置和設置而不同,但通常需要每年超過5000萬美元的基礎設施支出。

你需要非常具體的硬件,而這些硬件你無法從云供應商那里獲得。例如,沒有廣泛使用的GPU類型,以及不尋常的內存、存儲或網絡要求。

出于地緣的考慮,你無法找到一個可以接受的云。

如果你確實想建立自己的數據中心,對于自己的設置,已經有了全面的GPU價格/性能分析。除了卡本身的成本和性能外,硬件的選擇還取決于電源、空間和冷卻。例如,兩塊RTX3080Ti卡加在一起的原始計算能力與A100相似,但各自的功耗是700W與300W。在三年的生命周期內,以0.10美元/千瓦時的市場價格計算,3500千瓦時的功率差異使RTX3080Ti的成本增加了近2倍。

動態 | a16z加密以1500萬美元收購6%的MKR:據btcmanager消息,9月24日,Andreessen Horowitz的專業加密貨幣和區塊鏈基金a16z加密已經購買了MakerDAO的MKR令牌供應量的6%,總價值1500萬美元。[2018/9/25]

綜上所述,我們預計絕大部分初創企業都會使用云計算。

比較云服務提供商

亞馬遜網絡服務、微軟Azure和谷歌云平臺都提供GPU實例,但也出現了新的供應商,專門專注于人工智能工作負載。下面是我們看到的許多創始人用來選擇云供應商的框架:

價格:下表顯示了截至2023年4月7日一些主要和較小的專業云的價格。該數據僅供參考,因為實例在網絡帶寬、數據出口成本、CPU和網絡的額外成本、可用折扣和其他因素方面有很大的不同。

特定硬件的計算能力是一種商品。直截了當地講,我們會期望價格相當統一,但事實并非如此。雖然云計算之間存在著實質性的功能差異,但它們不足以解釋按需NVIDIAA100的定價在供應商之間相差近4倍。

在價格范圍的頂端,大型公共云根據品牌聲譽、經過驗證的可靠性以及管理各種工作負載的需要收取溢價。較小的專業AI提供商通過運行專用數據中心或套利其他云來提供較低的價格。

實際上,大多數大型買家直接與云供應商談判價格,通常承諾一些最低支出要求以及最低時間承諾。談判之后,云計算之間的價格差異會有所縮小,但我們看到上表中的排名保持相對穩定。同樣重要的是要注意,小公司可以從專業云中獲得積極的定價,而不需要大量的支出承諾。

可用性:最強大的GPU在過去12個多月里一直供不應求。

考慮到前三大云計算供應商的巨大購買力和資源池,認它們擁有最佳可用性是合乎邏輯的。但是,有點令人驚訝的是,許多初創企業并沒有發現這是真的。大的云服務商有大量的硬件,但也有大量的客戶需求需要滿足--例如,Azure是ChatGPT的主要主機--并且不斷增加/釋放容量以滿足需求。同時,Nvidia已經承諾在整個行業廣泛提供硬件,包括為新的專業供應商分配。。

因此,許多初創公司在較小的云計算供應商那里發現了更多可用的芯片,包括尖端的NvidiaH100s。如果你愿意與較新的基礎設施公司合作,你可能會減少硬件的等待時間,并可能在這個過程中節省資金。

計算交付模式:今天的大型云只提供帶有專用GPU的實例,原因是GPU虛擬化仍是一個未解決的問題。專業的人工智能云提供其他模式,如容器或批處理作業,可以處理單個任務,而不產生實例的啟動和拆卸成本。如果你對這種模式感到滿意,它可以大大降低成本。

網絡互連:具體到培訓方面,網絡帶寬是選擇供應商的一個主要因素。訓練某些大型模型時,需要在節點之間使用專用網絡的集群,如NVLink。對于圖像生成,出口流量費用也是一個主要的成本驅動因素。

客戶支持:大型云供應商為數以千計的產品SKU中的大量客戶提供服務。除非你是一個大客戶,否則很難得到客戶支持的關注,或得到問題解決。另一方面,許多專門的人工智能云,甚至為小客戶提供快速和響應的支持。這部分是因為他們的運營規模較小,但也因為他們的工作負載更加同質化,所以他們更有動力去關注人工智能的具體功能和錯誤。

比較GPU

在其他條件相同的情況下,最高端的GPU在幾乎所有的工作負載上都會表現最好。然而,正如你在下面的表格中所看到的,最好的硬件也是相當昂貴的。為你的特定應用選擇正確類型的GPU可以大大降低成本,并可能在可行和不可行的商業模式之間產生差異。

決定在列表中走多遠——即為您的應用程序確定最具成本效益的GPU選擇——主要是一個技術決策,超出了本文的范圍。但我們將在下面分享一些我們認為最重要的選擇標準:

訓練與推理:正如我們在上面第一節中所看到的,訓練一個Transformer模型需要我們存儲8個字節的數據用于訓練,此外還有模型權重。這意味著一個典型的擁有12GB內存的高端消費級GPU幾乎不能用來訓練一個40億參數的模型。在實踐中,訓練大型模型是在機器集群上進行的,每臺服務器最好有許多GPU,大量的VRAM,以及服務器之間的高帶寬連接。

具體來說,許多模型在英偉達H100上的成本效益最高,但就目前而言,它很難找到,通常需要一年以上的長期承諾。而英偉達A100運行著大多數模型訓練;它更容易找到,但對于大型集群,可能也需要長期承諾。

內存要求:大型LLM的參數數量太多,無法裝入任何卡中。它們需要被分割到多個卡中,并需要一個類似于訓練的設置。換句話說,即使是LLM推理,您也可能需要H100或A100。但是較小的模型需要更少的VRAM。雖然A100仍然很受歡迎,但我們已經看到初創公司使用A10、A40、A4000、A5000和A6000,甚至是RTX卡。

硬件支持:雖然與我們交談過的公司中的絕大多數工作負載都在英偉達上運行,但也有一些公司開始嘗試使用其他供應商。最常見的是谷歌的TPU,而英特爾的Gaudi2似乎也得到了一些關注。這些供應商所面臨的挑戰是,你的模型的性能往往高度依賴于這些芯片的軟件優化的可用性。你可能必須做一個PoC,以了解性能。

延遲要求:一般來說,對延遲不太敏感的工作負載可以使用功率較小的GPU。這可以減少3-4倍的計算成本。另一方面,面向用戶的應用程序往往需要高端卡來提供有吸引力的實時用戶體驗。優化模型往往是必要的,以使成本達到一個可控的范圍。

峰值:生成式人工智能公司經常看到需求的急劇上升,因為這項技術是如此新穎且令人興奮。在新產品發布的基礎上,請求量在一天內增加10倍,或每周持續增長50%,這是很正常的。在低端GPU上處理這些峰值通常更容易,因為更多的計算節點可能會按需提供。如果這種流量來自參與度較低或留存率較低的用戶,那么以犧牲性能為代價,以較低成本的資源為此類流量提供服務通常也是有意義的。

優化和調度模型

軟件優化可以極大地影響模型的運行時間-10倍的收益并不罕見。然而,你需要確定哪些方法對你的特定模型和系統最有效。

有些技術對相當廣泛的模型有效。使用較短的浮點表示或量化實現的加速通常與位數的減少成線性關系。這有時需要修改模型,但現在有越來越多的技術可以實現混合或更短精度的自動工作。修剪神經網絡通過忽略低值的權重來減少權重的數量。結合高效的稀疏矩陣乘法,這可以在現代GPU上實現大幅提速。此外,另一組優化技術解決了內存帶寬瓶頸。

其他的優化是高度針對模型的。例如,StableDiffusion在推理所需的VRAM量方面取得了重大進展。還有一類優化是針對硬件的。英偉達的TensorML包括一些優化,但只能在英偉達的硬件上運行。最后,但同樣重要的是,人工智能任務的調度可以創造巨大的性能瓶頸或改進。將模型分配到GPU上,以盡量減少權重的交換,如果有多個GPU可用,則為任務挑選最佳GPU,以及通過提前批處理工作負載來盡量減少停機時間,這些都是常見的技術。

最后,模型優化仍然是一門黑魔法,我們接觸過的大多數初創公司都與第三方合作,以幫助解決其中一些軟件方面的問題。通常,這些不是傳統的MLops供應商,而是專門針對特定生成模型進行優化的公司。

人工智能基礎設施成本將如何演變?

在過去的幾年里,我們看到模型參數和GPU計算能力都呈指數級增長。目前還不清楚這種趨勢是否會繼續。

今天,人們普遍認為,在最佳參數數量和訓練數據集的大小之間存在著一種關系。今天最好的LLM是在CommonCrawl上訓練的。訓練語料庫還包括維基百科和一個圖書集,盡管兩者都要小得多。其他想法,如轉錄視頻或音頻內容,也被提出來,但這些都沒有接近的規模。目前還不清楚我們是否能獲得一個比已經使用的數據集大10倍的非合成訓練數據集。

GPU性能將繼續提高,但速度也會變慢。摩爾定律仍然完好無損,允許更多的晶體管和更多的內核,但功率和I/O正在成為限制因素。此外,許多用于優化的低垂果實已經被摘下。

然而,這并不意味著我們預計對計算容量的需求不會增加。即使模型和訓練集的增長放緩,人工智能行業的增長和人工智能開發者數量的增加將推動對更多更快的GPU的需求。在模型的開發階段,很大一部分GPU容量被開發人員用于測試,而這種需求隨著人數的增加而線性增長。沒有跡象表明,我們今天的GPU短缺將在不久的將來減輕。

這種持續的人工智能基礎設施的高成本是否會形成護城河,使新進入者無法追趕資金充足的在位者?我們還不知道這個問題的答案。今天,LLM的訓練成本可能看起來像護城河,但Alpaca或StableDiffusion等開源模型表明這些市場仍處于早期階段并且可能會迅速變化。隨著時間的推移,新興AI軟件堆棧的成本結構可能開始看起來更像傳統軟件行業。

最終,這將是一件好事:歷史表明,這會帶來充滿活力的生態系統,并為創業者提供快速創新和大量機會。

感謝MoinNadeem和ShangdaXu在寫作過程中的投入和指導。

Tags:人工智能GPTKENTOKEN人工智能幣交易人工智能chatGPT下載Shon TokenBafi Finance Token

SHIB
再創造富神話,一文揭密PEPE背后的NFT勢力_MEME:MEM

原文作者:0xmin 原文來源:TechFlow深潮 “醋不及防”,PEPE神話又開始讓眾人開始因別人家的發財故事而感到焦慮.

1900/1/1 0:00:00
深度解讀以太坊質押的現狀與未來發展_ETH:TRAMSV1 Token

原文作者:Ignas 原文編譯:Kxp,BlockBeatsEthereum質押機制的現在和未來可以概括為以下四個方面: 市場領袖 最佳收益率 趨勢 未來的催化劑 ETH在Crypto中擁有最好.

1900/1/1 0:00:00
一文概覽吉爾吉斯斯坦的比特幣挖礦現狀_比特幣:UFLOKI

吉爾吉斯斯坦與比特幣礦工的關系很復雜。如果做得好,比特幣開采對吉爾吉斯斯坦來說可謂是一個巨大的機會。吉爾吉斯斯坦,一個位于中亞山區的小型發展中國家,比特幣正成為其出口貿易越來越重要的組成部分.

1900/1/1 0:00:00
為什么說zkRollup的可行性起源于零知識證明的計算代理思想_FOA:IONZ幣

撰文:FoxTechCTO林彥熹,FoxTech首席科學家孟鉉濟 前言 Prover和Verifier之間的計算代理思想是零知識證明的核心內容之一.

1900/1/1 0:00:00
PEPE 上幣安了,誰將成為下一個 meme 王者?_PEPE:EPE

作者:Flowie、餅干,ChainCatcherPEPE上幣安了。幣安宣布將在創新區上線Pepe,并將在北京時間今晚24:00開放PEPE/USDT、PEPE/TUSD交易對.

1900/1/1 0:00:00
ChatGPT類應用服務 數據合規有特殊性嗎?_CHA:pccschain

王融?騰訊研究院首席數據法律專家 本期觀點摘要: 1.ChatGPT等AI應用服務商直接面向個人提供服務,收集并處理個人信息,可被視為個人信息保護合規主體——數據控制者.

1900/1/1 0:00:00
ads