国产午夜精品一二区免费_成人免费无码大片a毛片拍搐_最近中文字幕hd免费高清在线_午夜福利极品视频_女人被爽到高潮视频免费国产_欧美极品少妇性运交_靠比网站在线观看_亚洲午夜精品video_久久亚洲AV成人无码国产一区_国产黄色自拍亚洲性爱自拍

五年大漲1800%,英偉達市值有望超過英特爾

日期:2020-07-08 / 人氣: / 來源:

[概要說明]英特爾公司(Intel)過去50年來一直是美國芯片產(chǎn)業(yè)龍頭,但英偉達(Nvidia)近來急起直追,眼看市值就快要追上英特爾。截至2日收盤止,英偉達市值為2,364 61億美元。
路透報導,不久后,「美國頂尖芯片制造商」的頭銜也許將要易主。英特爾公司(Intel)過去50年來一直是美國芯片產(chǎn)業(yè)龍頭,但英偉達(Nvidia)近來急起直追,眼看市值就快要追上英特爾。
截至2日收盤止,英偉達市值為2,364.61億美元,英特爾市值為2,503.56億美元。從市值走勢圖來看,兩者差距日益縮小,且英偉達大有迎頭趕上的架式。
自從美股標普500指數(shù)3月23日觸底以來,美國芯片股表現(xiàn)大致上都超越大盤。但英特爾股價的反彈力道顯然不如英偉達強勁。今年來,英特爾股價仍下跌1%,而英偉達年初迄今飆漲64%。
股價反映兩者運勢的消長。英偉達股價飆勁十足的一大原因是,投資人看好遠距工作趨勢將助長英偉達的資料中心事業(yè),而人工智慧(AI)是讓英偉達行情水漲船高的另一題材。
同時,英特爾則面臨重重挑戰(zhàn),包括龐大的供應鏈被疫情打亂,以及10納米 處理器「Tiger Lake」的相關開發(fā)成本升高。最近蘋果公司宣布Mac電腦未來將舍棄英特爾芯片、改用自家設計的ARM架構芯片,是另一記象征性的打擊。
巴隆周刊(Barron's)指出,過去五年來,英偉達股價飆漲18倍,反映投資人對英偉達不斷的蛻變報以喝彩。
英偉達原本以小眾(利基)型繪圖芯片廠商著稱,為游戲機提供硬件;后來事業(yè)版圖擴及AI領域,AI應用使資料中心業(yè)務欣欣向榮;最近宣布與豪華車商賓士(Mercedes- Benz)合作,攜手打造車用運算系統(tǒng)及AI運算基礎架構,更讓英偉達轉型成車用硬件、軟件和服務通吃的「平臺公司」,不只是芯片制造商。
英偉達執(zhí)行長黃仁勛告訴巴隆周刊:「眾人以為我們是電動游戲公司,但我們其實是加速運算公司,而電動游戲是我們第一個殺手級應用?!?/div>
英偉達的AI芯片霸主之路!
Nvidia的誕生還要追溯到多媒體PC機時代。在上世紀90年代,PC機走向了多媒體時代,其中3D游戲又是多媒體時代最閃耀的明星。為了能加速3D游戲的運行,圖像處理芯片就成了多媒體PC時代的一種熱門新品類。最初,加速3D游戲運行在常規(guī)的顯示卡之外還需要一張3D加速卡,而3D加速卡的首創(chuàng)者——3dfx也憑借著其Voodoo系列加速卡成為了當時的3D加速引領者。
看到了3D顯示這個巨大機會的并不只3dfx一家公司。Nvidia于上世紀90年代中成立,公司的目標市場就是顯示市場。1998年,Nvidia推出了TNT系列顯卡,擁有了與3dfx同臺競技的資格。之后,3dfx的后幾代顯卡產(chǎn)品存在各種問題,而Nvidia卻在2000年順勢拿出了同時支持3D加速和transformation and lighting (T&L,指一系列圖像處理中需要的坐標和光照變幻運算)的GeForce系列顯卡,在性能上大幅領先3dfx,并最終奠定了其游戲顯卡領域的霸主地位。事實上,在GeForce之前,顯卡并不負責繁重的T&L計算,而必須由CPU來做這些運算;GeForce是第一個用顯卡支持T&L來大幅提升系統(tǒng)性能的顯卡,并且Nvidia認為顯卡支持了之前必須由CPU來完成的工作,因此提出了GPU這個概念??梢哉fGeForce是Nvidia最重要的產(chǎn)品之一,同時我們也可以從GeForce的誕生看到Nvidia并不是拘泥于產(chǎn)品傳統(tǒng)品類定義的公司,而是會積極地拓寬其產(chǎn)品的應用范圍。這樣的公司基因也直接造就了之后Nvidia在人工智能領域的領先地位。
在推出GPU之后,Nvidia順利地占領了游戲顯卡市場的主導地位。游戲市場雖然不小,但是其增長天花板也較低。因此,Nvidia也在嘗試各種不同的市場機會。
在2000年左右,學術界對于使用GPU做通用計算(GPGPU)產(chǎn)生了興趣。當時,主要面向執(zhí)行通用算法的CPU是執(zhí)行科學計算的主力,但是CPU為了能在通用算法上都有較好的性能,因此很多芯片面積事實上用在了片上內(nèi)存和分支預測等控制邏輯,而真正用于計算的單元并不多。相反,GPU架構中的控制邏輯較為簡單,絕大多數(shù)芯片面積都用于渲染、多邊形等計算。學術界發(fā)現(xiàn),科學運算中的矩陣等計算可以很簡單地映射到GPU的處理單元,因此能實現(xiàn)非常高的計算性能。
當時,GPGPU最主要的瓶頸在于難以使用。由于GPU是面向圖像應用而開發(fā),因此要在其編程模型中支持通用高性能計算并不容易,需要許多手工調(diào)試和編碼,因此造成了很高的門檻,能熟練使用的人并不多。另一方面是廠商對于GPGPU應用的態(tài)度。事實上,當時GPGPU的研究主要在學術界,在工業(yè)界并沒有很多人清楚GPGPU未來能有多少價值,不少公司雖然也有研究GPGPU的團隊,但是大多僅僅是做一些評估和嘗試性的工作,并沒有認真打算大規(guī)模應用。
Nvidia對于GPGPU卻是抱著另一種態(tài)度。在2006年,Nvidia推出了Tesla架構。在這個架構中,Nvidia一改之前使用矢量計算單元做渲染的做法,而是把一個矢量計算單元拆成了多個標量計算渲染單元,并稱之為“unified shader”。這樣一來,Tesla GPU的渲染單元除了在渲染性能更強之外,也更適合做通用計算了。在2007年,Nvidia順勢推出了CUDA系列編程環(huán)境。CUDA是GPGPU領域的一個創(chuàng)舉,通過CUDA可以大大降低用GPU做通用計算的難度,因此大大降低了GPGPU應用的門檻。
究竟是Nvidia之前就策劃要做GPGPU,因此才推出Tesla架構以及CUDA,還是Nvidia在推出Tesla架構之后為了充分發(fā)揮其潛力而順便推出CUDA,我們今天不得而知。但是,我們能看到的是,CUDA首先在GPGPU領域引起了很大的反響,因此在第二年有了開源版本的OpenCL來在其他GPU上實現(xiàn)類似的功能;另一方面,我們看到Nvidia在GPU領域最大的競爭對手AMD在當時對于GPGPU并沒有太多動作,以至于一年后的OpenCL事實上是蘋果而非由AMD發(fā)起的。在當時,蘋果希望能在各種設備(尤其是移動設備)上充分利用GPU來完成計算,因此發(fā)起了OpenCL組織,參與的公司除了蘋果之外還有ARM、AMD、Nvidia等。然而,為了兼容性考量,OpenCL并無法在所有GPU上都實現(xiàn)最優(yōu)的性能,因此相比于專注于給自家GPU做優(yōu)化的CUDA來說性能差了一截。AMD在當時并沒有自己提出一個與CUDA爭鋒相對的協(xié)議而只是選擇加入OpenCL組織也證明了當時AMD對于GPGPU的觀望態(tài)度。
時間走到了2012年,Nvidia在經(jīng)過移動市場的失望后,迎來了新的藍海市場。2012年的重要性在于,深度學習開山鼻祖之一的Geoff Hinton的學生Alex Krizhevsky成功訓練出了深度卷積神經(jīng)網(wǎng)絡AlexNet,并憑借該網(wǎng)絡在圖像分類識別領域大幅提升了性能(15%的錯誤率,比第二名真正高出了十個絕對百分點),從而成為人工智能的標志性事件。
在2012年之前,絕大多數(shù)圖像分類任務都是使用類似支持矢量機(SVM)這樣的經(jīng)典算法實現(xiàn)。SVM這樣的算法非常適合應用在數(shù)據(jù)量較少的應用中。然而,隨著互聯(lián)網(wǎng)時代的來臨,人們積累的數(shù)據(jù)量遠遠大于之前的時代,而在擁有大量數(shù)據(jù)的情況下,神經(jīng)網(wǎng)絡就成了理論上更好的選擇。然而,在當時訓練一個深層神經(jīng)網(wǎng)絡還存在一個挑戰(zhàn),就是算力問題。使用普通的CPU在ImageNet上訓練一個深度學習網(wǎng)絡需要數(shù)年的時間,因此無法實用。而Alex Krizhevsky的創(chuàng)舉在于使用Nvidia GPU成功訓練了一個性能有突破性提升的深度神經(jīng)網(wǎng)絡,從而開啟了新的人工智能時代。
AlexNet性能的大幅提升使得人工智能在圖像分類等有大量實際應用的場景達到了可用的性能,而Nvidia GPU則伴隨著深度學習模型訓練和推理所需要的大量算力成為了人工智能時代的新基礎設施。這也可以說是Nvidia數(shù)年前在GPGPU領域投資所收獲的回報:如果沒有CUDA這樣的高性能GPGPU編程工具,或許AlexNet就無法被訓練出來,而人工智能時代可能就無法被開啟。而在之后,隨著深度學習網(wǎng)絡熱潮的興起,高校和工業(yè)界在越來越多的場景使用深度學習——目前在圖像、語音、自然語言處理、推薦系統(tǒng)等大量場景深度學習都已經(jīng)落地。隨之而來的是對于GPU算力的進一步需求,而Nvidia也是順勢而為,在最近幾年接連推出為了人工智能而優(yōu)化的GPU以及相關配套軟件資源(用于推理的TensorRT,基于CUDA的高性能深度學習加速庫CuDNN,CuBLAS等等),從而讓自己在人工智能時代的地位更加穩(wěn)固。反觀AMD,事實上由于AMD一直處于追趕階段,因此遲遲不敢下決心去做一些新的嘗試。當年GPGPU領域AMD投入不足,導致Nvidia的CUDA占據(jù)了先機。在性能上,AMD所依賴的通用OpenCL性能據(jù)調(diào)查比起CUDA要差30%以上。更關鍵的是AMD的人工智能開發(fā)者生態(tài)一直做不起來,因為OpenCL性能差且使用不方便,導致使用OpenCL的開發(fā)者少,開發(fā)者少就更少人能為OpenCL開發(fā)方便的接口和共享設計資源,這進一步導致OpenCL開發(fā)社區(qū)人氣不足,有GPGPU開發(fā)需求的開發(fā)者都會把Nvidia的CUDA作為其第一選擇。在GPU硬件上,直到Nvidia已經(jīng)推出專門針對人工智能優(yōu)化的TensorCore之后,AMD對于要不要在GPU上加入對人工智能的支持仍然遲疑不決,一直到2018年才推出對人工智能的相關支持,因此導致在人工智能領域遠遠落后了。最后必須指出的是,一直以來AMD的思路都是性價比,而人工智能的主要客戶卻是對于價格不怎么敏感的企業(yè)客戶,因此AMD之前的低價戰(zhàn)術也沒辦法打動這些客戶。
目前,Nvidia已經(jīng)占據(jù)了人工智能算力領域的主導位置。在數(shù)據(jù)中心領域,即使有一些初創(chuàng)公司推出訓練和推理加速芯片,但是想要取代Nvidia需要相當長的時間。首先,大規(guī)模部署芯片對于產(chǎn)品的可靠性有相當高的需求,而且分布式系統(tǒng)是一個系統(tǒng)工程,需要芯片在各類指標上(不只是算力,還包括通信,接口帶寬等)都達到優(yōu)秀的指標,光這一點就需要初創(chuàng)公司相當多的時間去打磨。此外,Nvidia更高的壁壘在于開發(fā)者生態(tài),需要開發(fā)出一個易用的編程模型和相關編譯器的難度并不亞于設計芯片,而要孵化開發(fā)者生態(tài)則需要更多的時間。我們認為,至少在未來3-5年內(nèi),Nvidia在數(shù)據(jù)中心的地位難以被撼動。
但這并不意味著Nvidia在人工智能時代就可以高枕無憂。Nvidia 的軟肋仍然在于其移動端——隨著人工智能從云端逐漸走向邊緣和終端,邊緣和終端類的AI加速芯片或許是其他公司的機會。Nvidia之前推出的終端/邊緣類產(chǎn)品并不算特別領先或成功,例如Jetson系列終端GPU的能效比并不領先,芯片架構也是沿用數(shù)年前的設計。我們認為,AI加速在終端的市場份額可能會占據(jù)總體AI芯片市場不小的份額,如果Nvidia無法抓住終端AI市場,那么其最終在整個AI市場的份額可能會被局限在云端數(shù)據(jù)中心。


Go To Top 回頂部