芯原可擴充的高效能GPGPU-AI運算IP賦能汽車與邊緣伺服器AI解決方案
芯原可擴充的高效能GPGPU-AI運算IP賦能汽車與邊緣伺服器AI解決方案
提供高算力密度的AI加速能力、多晶片擴充支援及3D堆疊記憶體整合能力
中國上海--(BUSINESS WIRE)--(美國商業資訊)-- (美國商業資訊)-- 芯原股份(芯原,股票代號:688521.SH)今日宣布其高效能、可擴充的GPGPU-AI運算IP的最新進展,這些IP現已為下一代汽車電子和邊緣伺服器應用提供強勁賦能。透過將可程式化平行運算能力與人工智慧(AI)加速器相融合,這些IP在熱和功耗受限的環境下,能夠高效支援大語言模型(LLM)推理、多模態感知以及即時決策等複雜的AI工作負載。
芯原的GPGPU-AI運算IP以高效能通用圖形處理器(GPGPU)架構為基礎,並整合專用AI加速器,可為AI應用提供卓越的運算能力。其可程式化AI加速器與稀疏感知運算引擎透過先進的排程技術,可加快以Transformer架構為基礎的矩陣密集型模型的運行。此外,這些IP支援用於混合精確度運算的多種資料格式,包括INT4/8、FP4/8、BF16、FP16/32/64和TF32,並支援多種高頻寬介面,包括3D堆疊記憶體、LPDDR5X、HBM、PCIe Gen5/Gen6和CXL。該IP還支援多晶片、多卡擴充部署,具備系統級可擴充性,滿足大規模AI應用的部署需求。
芯原的GPGPU-AI運算IP原生支援PyTorch、TensorFlow、ONNX和TVM等主流AI架構,涵蓋訓練與推理流程。此外,它還支援與主流的GPGPU程式設計語言相容的通用運算語言(GPCL),以及主流的編譯器。這些能力高度契合目前大語言模型在算力和可擴充性方面的需求,包括DeepSeek等代表性模型。
芯原策略長、執行副總裁、IP事業部總經理戴偉進表示:「邊緣伺服器在推理與增量訓練等場景下對AI算力的需求正呈指數級成長。這一趨勢不僅要求極高的運算效率,也對架構的可程式設計性提出了更高要求。芯原的GPGPU-AI運算處理器在架構設計上實現了GPGPU通用運算與AI加速器的深度融合,可在細粒度層級實現高效協同,相關優勢已在多個高效能AI運算系統中得到驗證。近期DeepSeek的技術突破進一步彰顯出提升AI運算效率以因應日益複雜工作負載的重要性。我們的最新一代GPGPU-AI運算IP已全面最佳化,可高效支援專家混合(MoE)模型,並提升了核心間通訊效率。同時,透過與多家頂尖AI運算客戶的深度合作,我們已對處理器架構進行了最佳化,以充分利用3D堆疊儲存技術所提供的充足頻寬。芯原將持續與生態合作夥伴攜手合作,加快推動這些先進技術在實際應用中的大規模採用。」
關於芯原
芯原微電子(上海)股份有限公司(芯原股份,688521.SH)是一家憑藉自主半導體IP,為客戶提供平台化、全方位、一站式晶片客製化服務和半導體IP授權服務的企業。如欲瞭解更多資訊,請造訪:http://www.verisilicon.com
免責聲明:本公告之原文版本乃官方授權版本。譯文僅供方便瞭解之用,煩請參照原文,原文版本乃唯一具法律效力之版本。