剛剛,黃仁勛院士(Jensen Huang)再向行業扔下重磅“核彈”。
北京時間2月26日,AI芯片巨頭英偉達(NVIDIA)宣布推出全新NVIDIA RTX 500和1000 Ada一代消費級GPU(圖形處理器)加速芯片,全面支持在輕薄筆記本電腦等移動設備中運行生成式AI(AIGC)軟件。
英偉達表示,與僅使用CPU的配置相比,全新RTX 500 GPU可為Stable Diffusion等模型提供高達14倍(1400%)的生成式AI性能,利用AI 進行照片編輯的速度提高3倍,3D渲染的圖形性能提高10倍,從而成功實現了生產力的巨大提升。
作為入門款GPU產品,英偉達RTX 500將成為全球內置AIGC技術且價格最便宜的GPU芯片。
同時,這也意味著,黃仁勛持續降低AI PC設備門檻,即將大量出貨英偉達GPU芯片,消費者買筆記本電腦免費送AI的時代真的要來了!
據悉,英偉達RTX 500和RTX 1000均采用與RTX 4090、L40服務器GPU一樣的Ada Lovelace架構,或采用臺積電4N(5nm)工藝,擁有神經處理單元(NPU)、第三代RT 核心、第四代Tensor Core、Ada一代CUDA內核、專用GPU內存、DLSS 3光線追蹤技術、第八代NVIDIA AV1(NVENC)編碼器等一系列旗艦AI芯片才擁有的重要配置。
英偉達稱,隨著AIGC和混合工作環境成為新標準,無論是內容創建者、研究人員還是工程師,幾乎每位專業人士都需要一臺強大AI加速功能的筆記本電腦來幫助用戶應對行業挑戰。而RTX 500和1000 GPU通過AI為各地緊湊型設計的筆記本電腦用戶提升工作流程。
具體來說,首先,基于NVIDIA Ada Lovelace架構,RTX 500和 1000 GPU芯片擁有第三代RT核心,光線追蹤性能比上一代提升了2倍,可實現高保真、逼真的渲染。
其次,搭載的第四代Tensor Core AI加速技術,吞吐量是上一代的2倍,可應用于深度學習訓練、推理和基于AI的創意工作負載。
再次,與上一代相比,擁有最新CUDA內核的RTX 500和1000 GPU,單精度浮點(FP32)吞吐量提高30%;而第八代 NVIDIA 編碼器支持AV1,效率比H.264高出40%。
最后,RTX 500 GPU配備4GB GPU專用內存,RTX 1000 GPU配備 6GB GPU專用內存,可處理更大的項目、數據集和多應用工作流程,全面支持部分復雜3D場景和AI應用研發。
另外,內置NPU的RTX 500和1000 GPU芯片,可提供最高193 TOPS的 AI性能,滿足日常AI工作流程。如果你希望利用AI來實現深度學習、數據科學、高級渲染等工作流程,英偉達還提供RTX 2000、3000、3500、4000和5000 Ada筆記本電腦GPU,最高支持682 TOPS的AI性能。
很顯然,黃院士的想法就是:一旦要用AI,就要買英偉達GPU顯卡。沒有更高性能的CPU難以開發和使用AIGC應用程序。
“你買的越多,你省的就越多。”黃仁勛曾表示。
英偉達透露,全新NVIDIA RTX 500和1000 Ada一代筆記本電腦GPU將于今年春天在戴爾、惠普、聯想和MSI等移動工作設備中應用。
實際上,鈦媒體App編輯手中的一臺Redmi Book 15E,由于沒有內置NVIDIA獨立顯卡。因此,我們安裝很多支持CUDA如NVIDIA App等多款 AI應用就會顯示“安裝無法繼續”——GPU已深深改變了我們的生活。
近期公布的英偉達最新財報顯示,2024財年,英偉達營收609.22億美元,同比增長126%;凈利潤同比增長581%,至297.60億美元,成為地表最強的公司。
受利好業績影響,英偉達美股持續大漲。
2023年,英偉達股價已累計上漲236%,進入2024年英偉達股價短短兩個月漲幅又超過63.05%,最新市值在2萬億美元左右。
如今,新的AI時代下,全球科技巨頭排行發生了重大變化:英偉達超越了谷歌、亞馬遜等一眾巨頭,已成為全球第三大科技公司,僅次于微軟、蘋果。
隨著股價暴漲,英偉達聯合創始人兼CEO黃仁勛身價也水漲船高,最新增加85億美元,至681億美元,成為全球第21位最富有的人,不僅超越科赫工業CEO查爾斯·科赫(Charles Koch),而且也成功超過中國首富、農夫山泉創始人兼董事長鐘睒睒。
對于中國市場,英偉達也首次提到,華為是英偉達最重要的競爭對手之一。同時,黃仁勛對外確認,英偉達正在向客戶提供A100/H800 AI 芯片的替代樣品,同時遵守了美國商務部半導體出口管制規定。
黃仁勛最近接受《Wired》對話時坦言,華為是非常好的公司。盡管他們受到現有半導體處理技術的限制,但他們仍然可以通過將許多芯片聚集在一起來構建非常強大的系統。
黃仁勛強調,英偉達非常期望去中國市場進行業務競爭,并希望“我們能夠成功地服務于市場”。
2月26日晚,美國存儲芯片巨頭美光科技(Micron Technology)宣布,該公司已開始批量生產其用于AI加速的先進Micron 24GB HBM3E內存方案,提供高達1.2 TB/s帶寬,相比競爭對手功耗降低30%,應用于英偉達H200 Tensor Core GPU,最快將于2024年第二季度出貨。
隨著英偉達A100、H100芯片的成功量產,英偉達正瞄向AI超算云Nvidia DGX Cloud、AI軟件棧Nvidia AI Enterprise等全新業務。
黃仁勛早前表示,生成式AI使每個(軟件)企業都擁抱加速計算,提高吞吐量,而英偉達將利用Nvidia AI Enterprise,對這些企業所有的軟件堆棧進行管理、優化、修補。而谷歌成為了Nvidia AI Enterprise的最新合作方。
“我們將其推向市場的方式是將Nvidia AI Enterprise視為操作系統,每年每個GPU收取4500美元。我的猜測是,世界上每一家在專有云和私有云中部署軟件的軟件企業公司,都將在Nvidia AI Enterprise上運行。”黃仁勛表示。
半導體行業機構Futurum Research首席執行官丹尼爾·紐曼 (Daniel Newman) 認為,“英特爾曾經是業界的霸主。而現在,很多公司正聯合起來,以確保英偉達不會變得太強大?!?/p>
綜合多方消息,3月18日舉行的GTC大會上,英偉達將推出基于下一代Blackwell GPU架構的新款B100 AI芯片,采用臺積電3nm制程工藝、三星提供最新HBM存儲技術,據推測B100性能至少是H200的兩倍、也就是H100的整整四倍,預計B100將成為全球最強大的AI芯片。