《電子技術應用》
您所在的位置:首頁 > 模擬設計 > 業界動態 > 英偉達經濟學:在購買GPU上每花1美元,就能賺取7美元!

英偉達經濟學:在購買GPU上每花1美元,就能賺取7美元!

2024-07-02
來源:芯智訊

英偉達(Nvidia) 超大規模和 HPC 業務副總裁兼總經理 Ian Buck 近日在美國銀行證券 2024 年全球技術大會上表示,客戶正在投資數十億美元購買新的英偉達硬件,以跟上更新的 AI 大模型的需求,從而提高收入和生產力。

Buck表示,競相建設大型數據中心的公司將特別受益,并在數據中心四到五年的使用壽命內獲得豐厚的回報。即“云提供商在購買 GPU 上花費的每一美元,四年內(通過提供算力服務,GAAS)都能收回 5 美元?!?/p>

“如果用于推理,則更有利可圖,每花費 1 美元,在同樣的時間段內就能產生 7 美元的營業額,并且這個數字還在增長?!盉uck說道。

英偉達創始人、總裁兼首席執行官黃仁勛和執行副總裁兼首席財務官Colette Kress此前也曾表達過同樣的觀點。

他們此前曾表示,借助CUDA算法創新,英偉達將H100的LLM推斷速度提升至原來的3倍,這可以將Llama 3這類的模型的成本降低到原來的三分之一。而H200在推理性能上較H100幾乎翻了一番,為生產部署帶來了巨大的價值。例如,使用7000億參數的LLama 3,單臺HGX H200服務器可以每秒輸出24000個Token,同時支持超過2400名用戶。這意味著,按照現有的定價來看,托管Llama3的API供應商每花費1美元在英偉達HGX H200服務器上,未來四年內就可從Llama3 token計費中賺取7美元收入。

圍繞 Llama、Mistral 或 Gemma 的 AI 推理模型正在不斷發展,并由Token提供服務。英偉達正在將開源 AI 模型打包到名為 Nvidia 推理微服務 (NIM) 的容器中。

英偉達最新推出的Blackwell 針對推理進行了優化。該 GPU 支持 FP4 和 FP6 數據類型,在運行低強度 AI 工作負載時可進一步提高能效。根據官方的數據,與Hopper相比,Blackwell 訓練速度比H100快4倍,推斷速度快30倍,并且能夠實時運行萬億參數大語言模型生成式AI??蛇M一步將成本和能耗降低到原來的25分之一。這似乎呼應了黃仁勛多次喊出的“買的越多,省的越多”的口號。但是不可忽視的是,英偉達GPU價格也在快速上漲。

為 Rubin GPU做準備

很多云提供商提前兩年就已經開始規劃新的數據中心,并希望了解未來的AI GPU 架構會是什么樣子。

英偉達在6月初的Computex 2024展會上宣布,Blackwell芯片現已開始投產,即將替代Hopper芯片。2025年將會推出Blackwell Ultra GPU芯片。英偉達還公布了下一代集成HBM4的名為“Rubin”的AI平臺,該GPU將于2026年發布,以替代Blackwell和Blackwell Ultra GPU。

“對我們來說,做到這一點真的很重要——數據中心不是憑空而來的,它們是大型建設項目。他們需要了解Blackwell 數據中心會是什么樣子,它與Hopper數據中心有何不同?”Buck說。

Blackwell 提供了一個轉向更密集的計算形式和使用液體冷卻等技術的機會,因為空氣冷卻效率不高。

英偉達已經宣布每年都會推出一款新的 GPU的節奏,這有助于公司跟上 AI 發展的步伐,進而幫助客戶規劃產品和 AI 戰略。

Buck說:“英偉達已經與那些最大的客戶針對Rubin GPU探討了一段時間——他們知道我們的目標和時間表?!?/p>

AI 的速度和能力與硬件直接相關。在 GPU 上投入的資金越多,AI公司就能訓練出更大的模型,從而帶來更多收入。

微軟和谷歌將自己的未來寄托在人工智能上,并競相開發更強大的大型語言模型。微軟嚴重依賴新的 GPU 來支撐其 GPT-4 后端,而谷歌則依賴其 TPU 來運行其人工智能基礎設施。

Blackwell供不應求

英偉達目前正在生產 Blackwell GPU,樣品很快就會發布。但客戶可以預料,首批 GPU(將于年底發貨)將供不應求。

“每一項新技術的轉型都會帶來……供需方面的挑戰。我們在 Hopper 上就經歷過這種情況,Blackwell 的產能提升也將面臨類似的供需限制……今年年底到明年,”Buck 說道。

Buck還表示,數據中心公司正在淘汰 CPU 基礎設施,為更多 GPU 騰出空間。Hopper GPU 可能會被保留,而基于舊 Ampere 和 Volta 架構的舊 GPU 則會被轉售。

英偉達將保留多個級別的 GPU,隨著 Blackwell 的不斷發展,Hopper 將成為其主流 AI GPU。英偉達已經進行了多項硬件和軟件改進,以提高 Hopper 的性能。

未來所有云提供商都將提供 Blackwell GPU 和服務器。

專家模型

Buck 表示,GPT-4 模型大約有 1.8 萬億個參數,由于 AI 擴展尚未達到極限,參數數量還將繼續增長。

“人類大腦的規模大概相當于 1000 億到 150 萬億個參數,具體數量取決于個人,取決于大腦中的神經元和連接。目前,人工智能的參數規模約為 2 萬億……我們尚未進行推理?!盉uck說道。

未來將會有一個包含數萬億個參數的大型模型,在此基礎上會構建更小、更專業的模型。參數數量越多對英偉達越有利,因為它有助于銷售更多 GPU。

英偉達正在調整其 GPU 架構,從原來的基礎模型方法轉向混合專家模型。專家混合涉及多個神經網絡通過相互參考來驗證答案。

Buck說:“1.8 萬億參數的 GPT 模型有 16 個不同的神經網絡,它們都試圖回答各自層的部分問題,然后商討、會面并決定正確答案是什么?!?/p>

即將推出的 GB200 NVL72 機架式服務器配備 72 個 Blackwell GPU 和 36 個 Grace CPU,專為混合專家模型而設計。多個 GPU 和 CPU 相互連接,從而支持混合專家模型。

“這些家伙都可以相互通信,而不會在 I/O 上受阻。這種演變在模型架構中不斷發生,”Buck 說。

鎖定客戶的技巧

英偉達首席執行官黃仁勛本月在 HPE 的 Discover 大會上發表了一些激烈的言論,呼吁人們購買更多該公司的硬件和軟件。

英偉達和 HPE 宣布推出一系列新產品,其名稱簡單明了,為“Nvidia AI Computing by HPE”。

“我們設計了小號、中號、大號和特大號,你可以選擇。而且正如你所知,你買得越多,省得越多,”黃在 Discover 的舞臺上說道。

黃仁勛今年早些時候還發表了另一條備受爭議的言論,當時他說未來的程序員不需要學習如何編寫代碼。但在 Nvidia GPU 上加載 AI 模型需要了解命令行和腳本,以創建和運行 AI 環境。

英偉達的專有言論和在人工智能市場的完全主導地位使其成為反壟斷調查的目標。

當 Buck 試圖淡化人們對 CUDA 的擔憂時,他必須小心謹慎,他表示“護城河是一個復雜的詞”。

英偉達兩位高管都表示,CUDA 是其 GPU 的必備軟件——要最大限度地發揮 GPU 的性能,就需要 CUDA。開源軟件可以與 Nvidia GPU 配合使用,但無法提供 CUDA 庫和運行時的強大功能。

向下兼容性和連續性是英偉達的獨特優勢,英偉達對AI 模型和軟件的支持可以延續到下一代 GPU。但對于英特爾的 Gaudi 等 ASIC 則不然,它們必須針對每個新模型重新進行調整。


Magazine.Subscription.jpg

本站內容除特別聲明的原創文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。
主站蜘蛛池模板: 国产成社区在线视频观看 | 成人免费国产gav视频在线 | 草草在线影院 | 国产国产精品人在线观看 | 久草热视频在线观看 | 免费特级黄毛片 | 下面一进一出好爽视频 | 欧美人禽 | 亚洲国产欧美日韩一区二区三区 | 欧美一级特黄一片免费 | 黄色视屏免费观看 | 日韩精品一区二区三区 在线观看 | 成人黄色一级毛片 | 欧美日韩综合一区 | 成人免费动漫在线看网站 | 免费v片在线观看视频网站 免费不卡中文字幕在线 | 一级特级全黄 | 日韩视频在线免费 | 福利片免费观看 | 老湿影院在线免费观看 | 理论片中文字幕在线精品 | 日韩精品视频一区二区三区 | 啪啪亚洲 | 日本经典在线三级视频 | 免费高清在线影片一区 | 成人黄色毛片 | 天天摸天天碰天天碰 | 国产无套在线观看视频 | www.成人在线视频 | 免费视频中文字幕 | 国内精品免费麻豆网站91麻豆 | 污免费观看 | 中文字幕亚洲天堂 | 欧美日韩资源 | 日韩黄视频 | 免费乱理伦片在线观看影院 | 天天射天天| 国产一区二区三区在线观看免费 | 国产区亚洲区 | 日韩欧美国产高清在线观看 | 色天使色婷婷丁香久久综合 |