quinta-feira, 12 de dezembro de 2019
A Versão MKL-DNN / DNNL 2.0 Beta 3 da Intel adiciona a compilador SYCL + Data Parallel C ++
Confira !!
A biblioteca de rede neural profunda (DNNL) MKL-DNN da Intel, que é de código aberto e atende a aplicativos de aprendizado profundo como Tensorflow, PyTorch, DeepLearning4J e outros, está chegando ao lançamento da versão 2.0. Com o DNNL 2.0, agora é compatível com o Data Parallel C ++ como a nova linguagem da Intel, como parte de sua iniciativa oneAPI.
O MKL-DNN / DNNL 2.0 Beta 3 foi lançado na quarta-feira e, pelo que sei, é seu primeiro lançamento público de teste do próximo 2.0. Notável no DNNL 2.0 está suportando extensões de API SYCL e interoperabilidade agora com o código SYCL, a linguagem de programação baseada em C ++ de fonte única, apoiada pelo Khronos Group e crucial para a nova iniciativa oneAPI da Intel .
Além da integração com SYCL, a versão 2.0 também adiciona compilador Intel DPC ++ e suporte a tempo de execução. O Data Parallel C ++ é a nova linguagem de programação direta da Intel criada para oneAPI e com suporte a vários dispositivos / aceleradores em mente.
Com a compilação Data Parallel C ++, há a aceleração da GPU, mas apenas para a Intel atualmente. Com o oneAPI baseado nos padrões Khronos e a Intel tentando ser aberta, o suporte para outras GPUs de fornecedores deve ser tecnicamente possível, mas aparentemente não é um esforço neste momento. " GPUs não Intel não são suportadas. A API da biblioteca permite criar um mecanismo DNNL por índice (a ordem dos dispositivos é determinada pelo tempo de execução SYCL), e não há verificação de dispositivos GPU não Intel. Para ter mais controle , os usuários podem criar um mecanismo DNNL passando o dispositivo SYCL e o contexto explicitamente. "
O MKL-DNN / DNNL 2.0 Beta 3 está disponível no GitHub. Juntamente com as versões existentes do GCC OpenMP, Intel OpenMP e Threading Building Blocks (TBB), também está agora o DPC ++ com suporte para aceleração de GPU Intel.
Fonte
Até a próxima !!
Assinar:
Postar comentários (Atom)
Nenhum comentário:
Postar um comentário