成人av在线资源一区,亚洲av日韩av一区,欧美丰满熟妇乱XXXXX图片,狠狠做五月深爱婷婷伊人,桔子av一区二区三区,四虎国产精品永久在线网址,国产尤物精品人妻在线,中文字幕av一区二区三区欲色
    您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
    此為臨時鏈接,僅用于文章預覽,將在時失效
    芯片設計 正文
    發私信給趙之齊
    發送

    0

    自研芯片公司:英偉達在前,其余公司能否望其項背?

    本文作者: 趙之齊   2024-12-17 11:10
    導語:道阻且長,各家公司如何打出自己的王牌產品?

    在追求構建更強大人工智能(AI)模型的當下,一般的通用芯片已難以支撐,行業對人工智能芯片的需求顯著增長。在AI芯片領域,有英偉達(NVIDIA)、超威半導體(AMD)、英特爾(Intel)等耳熟能詳的大公司持續深耕,也有Groq、SambaNova Systems、Cerebras Systems等后起之秀雨后春筍般涌出。AI勢頭正盛,未來AI芯片領域中,誰能躋身前列?雷峰網根據行業現有報告,梳理目前頂尖的AI硬件公司,回顧其發展動態。

    自研芯片公司:英偉達在前,其余公司能否望其項背?

    主要的芯片領導者

    1.英偉達NVIDIA

    受益于生成式AI市場的爆發,英偉達成了數據中心人工智能芯片領域霸主——據統計,英偉達目前在數據中心AI市場擁有98%的市場份額,相比之下,AMD僅有1.2%的市場份額,英特爾則只有不到1%,英偉達的領導者地位毋庸置疑。

    1990年代以來,英偉達一直在為游戲領域生產圖形處理單元(GPU),PlayStation3和Xbox都使用英偉達的視頻圖形陣列。同時,英偉達也生產Volta、XavierTesla等人工智能芯片,其芯片組旨在解決各行業的業務問題。例如,Xavier是自動駕駛解決方案的基礎,Volta則是針對數據中心;而DGX?A100H100是英偉達成功的旗艦AI芯片,專為數據中心的AI訓練和推理而設計。目前為止,英偉達發布了H200、B200GB200芯片,HGX服務器(如結合了8個此類芯片的HGX H200和HGX B200);將更多芯片組合成大型叢集的NVL系列和GB200 SuperPod。

    不過,需指出的是,由于英偉達的AI芯片價格高昂,且存在供應不足的問題,部分客戶也希望選擇其他替代產品。

    而在云端GPU上,英偉達也幾乎處于壟斷地位,大多數云端廠商只將英偉達GPU作為云端GPU。英偉達也推出了DGX Cloud產品,直接向企業提供云端的GPU基礎架構。

    近年來,國內廠商華為海思、景嘉微、海光信息、寒武紀、芯原股份、龍芯中科等,也在加速GPU領域的研發。

    2、超威半導體(AMD)

    AMD是一家擁有CPU、GPU和AI加速器產品的芯片制造商。在ChatGPT引發生成式AI熱潮后,人們對英偉達AI硬件的需求迅速增加,導致其采購更難。在2023年開始,有初創公司、研究機構、企業和科技巨頭開始采用AMD硬件。

    2023年底,AMD發布了新一代AI/HPC專用加速器Instinct MI300系列,包括純GPU設計的MI300X、CPU+GPU融合設計的MI300A,全面對標英偉達H100系列。由于AI算力需求激增,MI300銷量增長迅速,在2024年二季度的收入超過10億美元,成為AMD有史以來增長速度最快的產品。

    據悉,AMD將發布MI350系列來取代MI300,并與英偉達的H200競爭。此外,Instinct MI325X預計于2024年第四季度發貨,與H200的大規模交付僅相差一個季度——AMD表示,在運行Llama 3.1 和Mixtral 等大型AI模型時,MI325X的推理性能會比現有市場領先者H200高出20%至40%。

    AMD也與HuggingFace等機器學習公司合作,使數據科學家能更有效地使用他們的硬件。不過,開發硬件的同時,軟件生態系統也至關重要,因硬件效能很大程度上依賴軟件優化。例如,AMD和英偉達在H100和MI300基準測試上存在公開分歧,分歧焦點是基準測試中使用的包和浮點數。根據最新的基準測試,對于70B LLM的推理,MI300似乎更好、或與H100相當。

    3.英特爾Intel

    英特爾是CPU市場最大的廠商,擁有悠久的半導體開發歷史。2017年,英特爾成為全球第一家銷售額突破10億美元大關的AI芯片公司。

    英特爾的至強CPU適用于各種工作,包括數據中心的處理,對其商業成功產生了影響。在2024年9月底,英特爾發布了新一代至強6性能核處理器,代號Granite Ridge,專為滿足AI、數據分析、科學計算等計算密集型業務的需求而設計。據官方數據,與第五代至強相比,至強6處理器擁有多達2倍的每路核心數,平均單核性能提升高達1.2倍,平均每瓦性能提升高達1.6倍。

    此外,Gaudi3是英特爾最新的AI加速器處理器,英特爾稱其比英偉達的H100 GPU更快、更有效率,在訓練大語言模型方面比H100快1.7倍,并且,Gaudi3的成本預算遠比H100低。不過,自2024年4月公開發布以來,目前對Gaudi3性能的基準測試仍較有限。

    生產AI芯片的公共云提供商

    4.AWS

    AWS生產用于模型訓練的Tranium芯片和用于推理的Inferentia芯片。在2024年12月,AWS宣布Trainium2正式可用,其性能比第一代產品提升4倍,能在極短的時間內訓練基礎模型和大語言模型,且能源效率提升多達2倍。AWS將推出一款由數十萬顆自研Trainium芯片組成的巨型人工智能超級計算機。蘋果也會成為其最新的芯片客戶之一。

    雷峰網還了解到,在全球云計算服務市場中,AWS獨占近半壁江山。根據2022年的統計,AWS占據全球IaaS市場份額的40%。不過,AWS是在谷歌之后才開始構建自己的芯片。

    5.谷歌云平臺

    TPU是谷歌推出的神經網絡專用芯片,為優化自身的TensorFlow機器學習框架而打造。其Google Cloud TPU為翻譯、照片、搜索、助手和Gmail 等產品提供支持,也可以通過Google Cloud使用。

    谷歌在2016年發布了TPU,在2024年推出第六代TPU:Trillium。谷歌表示,Trillium TPU每一晶片峰值計算效能提升了4.7 倍,是“相當驚人的表現”,且Trillium TPU可以更快速地訓練下一代基礎模型,以較短的延遲時間與較低成本提供模型服務。谷歌亦強調這一產品的永續特質:與TPU v5e相比,Trillium TPU的能源效率高出67%。

    除此之外,Edge TPU是谷歌Alphabet的另一款加速器芯片,它適用于多種設備類型的原型設計和生產設備,比一分硬幣還小,專為智能手機、平板電腦和物聯網設備等邊緣設備而設計。

    6.阿里巴巴

    阿里巴巴于2019年發布了首款AI芯片“含光800”,這款云端AI芯片是當時全球最高性能的AI推理芯片,主要應用于視覺場景。據悉,其基于12nm工藝與自研架構,集成了170億晶體管,性能峰值算力達820 TOPS。在業界標準的ResNet-50測試中,推理性能達到78563 IPS,比當時業界最好的AI芯片性能高出四倍;能效比達500 IPS/W,是第二名的3.3倍。

    7.IBM

    IBM于2022年發布其最新的深度學習芯片——人工智能單元(AIU)。IBM表示,這是其第一個完整的系統單芯片,旨在比通用CPU更快、更有效率地運行和訓練深度學習模型。IBM正在考慮使用這些芯片為其生成式AI平臺watson.x提供支持。

    AIU基于“IBM Telum處理器”構建,該處理器為IBM Z大型機服務器的AI處理功能提供支持。Telum處理器推出時的突出用例包括欺詐檢測等。IBM還展示了合并計算和內存可以提高效率,并在North Pole處理器原型中得到演示。

    領先的AI芯片初創公司

    一些AI芯片行業的初創公司盡管才剛剛成立,卻已經籌集了數百萬美元,未來我們可能會更頻繁聽到它們的名字。

    8.Groq

    Groq由谷歌前員工創立。其自研的LPU(語言處理器),旨在以前所未有的速度加速AI模型。在2024年,Groq憑借自研的硬件加速器LPU,達成了500個token/s的神級推理速度,秒殺ChatGPT。行內人士認為,Groq代表了可用速度的一步變化,為LLM提供了新的用例。Groq創始人表示,Groq的存在是為了消除“貧富差距”,幫助AI社區中的每個人蓬勃發展。

    Groq專注于LLM推理,并發布了Llama-270B的基準測試。2024年第一季度,該公司表示,有7萬名開發人員在其云平臺上注冊并構建了1.9萬個新應用程序。而早在2022年3月1日,Groq收購了Maxeler,后者為金融服務提供高性能計算(HPC)解決方案。Groq已經籌集了約3.5億美元,并生產了GroqChip?處理器、GroqCard?加速器等。

    9.SambaNova Systems

    SambaNova Systems成立于2017年,旨在為大量生成式AI工作負載開發高性能、高精度硬件軟件系統。該公司開發了全球首款面向萬億參數規模AI模型的AI芯片系統——基于可重構數據流單元 (RDU) 的AI芯片SN40L。據悉,該芯片專門為運行企業應用程序的大型語言模型而構建,其設計目標是能承載ChatGPT高級版本兩倍容量以上的大模型,可為一個擁有5萬億個參數的模型提供服務。對比英偉達的H100芯片,SN40L不僅推理性能達到了H100的3.1倍,在訓練性能也達到了H100的2倍,而總擁有成本更僅有其1/10。

    不僅如此,SambaNova Systems還將其平臺出租給企業。SambaNova的人工智能平臺即服務方式,使其系統更易于采用,并鼓勵硬件重復使用以實現循環經濟。該公司也已籌集了超過11億美元的資金。

    10.Cerebras Systems

    Cerebras Systems成立于2015年,推動了芯片設計領域的一場革命——將整片晶圓制成一個巨大的芯片。其于2019年推出的WSE-1,具有1.2萬億個晶體管和40萬個處理核心,可同時專注于AI和HPC(高性能計算機群)的工作負載。

    而在2021年,Cerebras推出專為超級計算機任務打造的Wafer Scale Engine 2(WSE-2),為當時全球最大AI芯片。與其之前推出的WSE-1相比,WSE-2在面積上沒有變化,但擁有創紀錄的2.6萬億個晶體管以及85萬個AI優化核,其芯片的所有性能特征,均比一代增加了一倍以上。2024年3月,Cerebras發布擁有4萬億個晶體管和90萬個AI核心的WSE-3,將用于訓練一些業界最大的人工智能模型,理論上能訓練多達24萬億個參數的AI模型。WSE-3采用臺積電先進的5納米工藝技術,將其現有最快AI芯片的世界紀錄提升了一倍。

    雷峰網(公眾號:雷峰網)了解到,Cerebras的系統還與阿斯利康和葛蘭素史克等制藥公司及研究實驗室合作,如利用生物數據集訓練大規模的語言模型,能顯著縮短AI模型訓練時間、加快研發進程,對新藥的發現和開發具有重要意義。

    11.Etched

    他們選擇為了效率而犧牲了靈活性——將變壓器架構刻錄到芯片中。

    Etched宣布推出一款針對Transformer架構專用的ASIC芯片“Sohu”。據稱,8個Sohu芯片每秒可以生成500,000個token,遠超過配備8張英偉達最新的B200 GPU加速卡的服務器約10倍,其AI性能達到英偉達H100的20倍——這也意味著Sohu芯片將可以大幅降低現有AI數據中心的采購成本和安裝成本。

    不過,目前,這些都是基于團隊的內部測量,許多問題還沒有得到解答:模型過時時如何處置?用戶是否需要購買新芯片,還是舊芯片可以用下一個模型重新配置?他們如何運行基準測試,使用了哪種量化和模型?此外,考慮到每隔幾個月就會發布新模型,將模型刻錄到芯片中的做法是否可持續,這一答案也令人期待。

    12.Tenstorrent

    Tenstorrent生產高性能AI芯片Wormhole芯片,可擴展且成本效益高;還有供研究人員使用的臺式機和由Wormhole芯片驅動的服務器(例如Tenstorrent Galaxy)。該公司還為其解決方案提供軟件棧。據悉,Tenstorrent于2024年12月從包括杰夫·貝佐斯(Jeff Bezos)在內的投資者那里籌集了7億美元,估值超過26億美元。

    即將到來的AI硬件生產商有哪些?

    還有一些引人注目的AI硬件解決方案,但由于它們是市場新手,目前對其有效性的基準測試有限。

    蘋果作為一家主要的芯片設計商,也在自研數據中心AI芯片——項目名為ACDC。據稱,該公司正在與臺積電合作設計和生產這些人工智能芯片。這些服務器芯片的主要焦點可能是AI推理,其中涉及經過訓練的機器學習模型從新數據中得出結論。而就在2024年12月底,有消息稱蘋果正與博通合作開發AI芯片,是其首個專為人工智能設計的服務器芯片,或為行業帶來更深刻的變革。

    Meta也努力想在生成式AI領域趕上競爭對手。在英特爾宣布其最新AI加速器硬件的第二天,Meta公布其芯片研發的最新成果:下一代 MTIA(Meta Training and Inference Accelerator),MTIA是專為Meta AI工作負載而設計的定制芯片系列。據悉,下一代MTIA基于臺積電5nm技術,據稱與MTIAv1相比性能提高了3倍。MTIA目前供Meta內部使用,但未來如果Meta推出基于LLaMa的企業生成AI產品,這些芯片可以為此類產品提供支持。

    此外,微軟于2023年11月推出Maia AI加速器。還有總部位于韓國的初創公司Rebellions在2024年籌集了1.24億美元,專注于LLM推理。

    還有一些AI芯片生產商 ,如Graphcore,一家成立于2016年的英國公司,已發布其旗艦AI芯片IPU-POD256,能提供64 petaFLOPS的AI計算。該公司已獲得了約7億美元的融資,與DDN、Pure Storage和Vast Data等數據存儲公司建立了戰略合作伙伴關系,其AI芯片服務于牛津大學OMI量化金融研究院、布里斯托大學和加州大學伯克利分校等研究機構。不過,該公司的長期生存能力面臨風險,因其每年虧損約2億美元,2024年10月,軟銀(Softbank)以多于6億美元的價格收購了它。

    而成立于2012年、專注于邊緣AI的Mythic,走的是一條非常規的路線——模擬計算架構,旨在提供節能的邊緣AI計算。它推出了模擬計算引擎(ACE)M1076 AMP、MM1076 key card等產品,并已籌集了約1.65億美元的資金。不過,Mythic在2023年3月的融資中解雇了大部分員工并重組了業務。

    同時,OpenAI也在籌集資金打造自己的AI硬件。


    雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知。

    分享:
    相關文章
    最新文章
    請填寫申請人資料
    姓名
    電話
    郵箱
    微信號
    作品鏈接
    個人簡介
    為了您的賬戶安全,請驗證郵箱
    您的郵箱還未驗證,完成可獲20積分喲!
    請驗證您的郵箱
    立即驗證
    完善賬號信息
    您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
    立即設置 以后再說