sábado, 1 de fevereiro de 2020
O Intel MKL-DNN / DNNL 1.2 é lançado com os aprimoramentos de desempenho para o aprendizado profundo em CPUs
confira !!
A Intel lançou na sexta-feira a Biblioteca de Rede Neural Profunda (DNNL) versão 1.2, anteriormente conhecida como MKL-DNN. Com esta versão, novos recursos e melhor desempenho.
Na frente do desempenho, o Intel DNNL 1.2 traz melhor inferência int8 no hardware anterior ao AVX512, enquanto a inferência int8 também é aprimorada para dados espaciais 3D em todas as CPUs. A inferência Int8 também é suportada em GPUs nesta versão. Também há um melhor desempenho no DNNL 1.2 quando se trata de convoluções anteriores em 1D.
O Intel DNNL 1.2 também apresenta uma primitiva de multiplicação matriz-matriz de uso geral e uma variedade de outras primitivas.
Downloads e mais detalhes sobre a Deep Neural Network Library 1.2 via GitHub .
Fonte
Até a próxima !!
Assinar:
Postar comentários (Atom)
Nenhum comentário:
Postar um comentário