La NPU a bassissima energia di VeriSilicon fornisce oltre 40 TOPS per l'inferenza LLM on-device nelle applicazioni mobili
La NPU a bassissima energia di VeriSilicon fornisce oltre 40 TOPS per l'inferenza LLM on-device nelle applicazioni mobili
L'architettura a efficienza energetica si estende su dispositivi abilitati all'IA, inclusi i telefoni IA e i PC IA
SHANGHAI--(BUSINESS WIRE)--VeriSilicon (688521.SH) ha annunciato oggi che il suo IP NPU (Neural Network Processing Unit) a bassissima energia e ad alte prestazioni supporta ora l'inferenza on-device di grandi modelli linguistici (LLM) con prestazioni di calcolo IA che vanno oltre i 40 TOPS. Questa architettura NPU a efficienza energetica è stata appositamente sviluppata per soddisfare la domanda in crescita di capacità di IA generativa sulle piattaforme mobili. Non solo offre potenti prestazioni di calcolo per i PC basati sull'IA e altri dispositivi, ma è anche ottimizzata per rispondere alle sfide sempre più elevate in termini di efficienza energetica dei telefoni e altre piattaforme mobili con tecnologia IA.
Il testo originale del presente annuncio, redatto nella lingua di partenza, è la versione ufficiale che fa fede. Le traduzioni sono offerte unicamente per comodità del lettore e devono rinviare al testo in lingua originale, che è l'unico giuridicamente valido.
Contacts
Contatto per i media: press@verisilicon.com