Redes neuronales cuantificadas para la inferencia de FPGA

La cuantificación de baja precisión para redes neuronales admite las especificaciones de aplicaciones de IA al proporcionar un mayor rendimiento para el mismo espacio o reducir el uso de recursos. El punto flotante de bloque (BFP) es particularmente útil en este escenario debido a su alto rango dinámico que permite una menor precisión mientras mantiene la precisión. Cualquier caída en la precisión se puede recuperar mediante el reentrenamiento utilizando nuestro software de código abierto.