FERRAMENTAS LINUX: O TensorFlow Lite agora é compatível com o uso de OpenCL para inferência de GPU muito mais rápida

terça-feira, 18 de agosto de 2020

O TensorFlow Lite agora é compatível com o uso de OpenCL para inferência de GPU muito mais rápida



Confira !!



O TensorFlow Lite para inferência de IA em dispositivos móveis agora tem suporte para fazer uso do OpenCL em dispositivos Android. Ao fazer isso, o desempenho do TFLite apresenta cerca de 2x de aceleração em relação ao back-end OpenGL existente.

Para pouca surpresa, os desenvolvedores do TensorFlow estão descobrindo que seu novo back-end OpenCL para TFLite é muito mais rápido do que o back-end OpenGL para inferência móvel. Graças a melhores habilidades de perfil de desempenho, suporte FP16 nativo, memória constante e OpenCL sendo melhor projetado para computação do que OpenGL ES com sombreadores de computação, o desempenho do TFLite é muito melhorado - e especialmente em comparação com a inferência nos núcleos de CPU SoC móveis.

Mais informações sobre o novo back-end OpenCL para TensorFlow Lite por meio do blog TensorFlow.org . "Nosso novo backend OpenCL é quase duas vezes mais rápido que o backend OpenGL, mas se sai especialmente melhor em dispositivos Adreno (anotados com SD), pois ajustamos os tamanhos dos grupos de trabalho com os criadores de perfil de desempenho de Adreno mencionados anteriormente. "

Fonte

Até a próxima !

Nenhum comentário:

Postar um comentário