La NPU de consumo ultrabajo de VeriSilicon proporciona más de 40 TOPS para la inferencia en el dispositivo de LLM en aplicaciones móviles
La NPU de consumo ultrabajo de VeriSilicon proporciona más de 40 TOPS para la inferencia en el dispositivo de LLM en aplicaciones móviles
La arquitectura de bajo consumo se adapta a todos los dispositivos con IA, incluidos los teléfonos y las PC con IA.
SHANGHÁI--(BUSINESS WIRE)--VeriSilicon (688521.SH) anunció hoy que su IP de Unidad de Procesamiento de Redes Neuronales (Neural Network Processing Unit, NPU) de consumo ultrabajo y alto rendimiento admite ahora la inferencia en el dispositivo de modelos de lenguaje de gran tamaño (LLM) con un rendimiento de cálculo de IA que supera los 40 TOPS. Esta arquitectura NPU de bajo consumo está diseñada específicamente para satisfacer la creciente demanda de capacidades de IA generativa en plataformas móviles. No solo ofrece un potente rendimiento de cálculo para las PC con IA y otros dispositivos finales, sino que también está optimizada para responder a los retos de eficiencia energética cada vez más exigentes de los teléfonos y demás plataformas móviles con IA.
Basada en una arquitectura altamente configurable y escalable, la IP de NPU de consumo energético ultrabajo de VeriSilicon admite el cálculo de precisión mixta, la optimización avanzada de la dispersión y el procesamiento paralelo. Su diseño incorpora una gestión eficiente de la memoria y una aceleración que tiene en cuenta la dispersión, lo que reduce la sobrecarga computacional y la latencia, garantizando un procesamiento de IA fluido y con capacidad de respuesta. Compatible además con cientos de algoritmos de IA, incluidos AI-NR y AI-SR, y con los principales modelos de IA, como Stable Diffusion y LLaMA-7B. También puede integrarse perfectamente con otras IP de procesamiento de VeriSilicon para permitir la computación heterogénea, lo que ayuda a los diseñadores de SoC a desarrollar soluciones de IA completas que satisfagan las diversas necesidades de las aplicaciones.
La IP de NPU de consumo ultrabajo de VeriSilicon también es compatible con marcos de IA populares como TensorFlow Lite, ONNX y PyTorch, lo que acelera el despliegue y simplifica la integración para los clientes en varios casos de uso de IA.
«Los dispositivos móviles, como los smartphones, están evolucionando para convertirse en servidores personales de IA. Con el rápido avance de las tecnologías AIGC y LLM multimodal, la demanda de computación de IA está creciendo exponencialmente y se está convirtiendo en un diferenciador clave en los productos móviles», explicó Weijin Dai, director de estrategia, vicepresidente ejecutivo y director general de la división IP de VeriSilicon. «Uno de los desafíos más críticos a la hora de soportar cargas de trabajo de computación de IA tan elevadas es el control del consumo de energía. VeriSilicon ha estado invirtiendo continuamente en el desarrollo de NPU de consumo energético ultrabajo para teléfonos y PC con IA. A través de una colaboración con los principales socios de SoC, estamos muy contentos de ver que nuestra tecnología se ha realizado en silicio para los teléfonos con IA y PC con IA de próxima generación».
Acerca de VeriSilicon
VeriSilicon ha asumido el compromiso de ofrecer a sus clientes servicios de silicio personalizados basados en plataformas, abarcativos e integrales y servicios de licencias de IP de semiconductores que aprovechen su IP de semiconductores interno. Para más información, visite www.verisilicon.com
El texto original en el idioma fuente de este comunicado es la versión oficial autorizada. Las traducciones solo se suministran como adaptación y deben cotejarse con el texto en el idioma fuente, que es la única versión del texto que tendrá un efecto legal.
Contacts
Contacto con los medios de comunicación: press@verisilicon.com