sábado, 28 de dezembro de 2019
O Google IREE está para demonstrar o aprendizado de máquina via Vulkan com o MLIR
Confira !!
Um dos novos avanços em IR do compilador de código-fonte aberto de 2019 foi o Google / Tensorflow MLIR como sendoa a Representação Intermediária Multinível projetada para os modelos / estruturas de aprendizado de máquina. Com o projeto "IREE" do Google, o MLIR pode ser acelerado pelo Vulkan, permitindo assim o aprendizado de máquina por meio desta API de gráficos / computação de alto desempenho.
O MLIR está se tornando um subprojeto do LLVM e tem crescente suporte da indústria para este RI de aprendizado de máquina. O IREE do Google é um ambiente de execução experimental para o MLIR fazer uso das modernas APIs de aceleração de hardware. Em outras palavras, fazer o MLIR rodar como Vulkan e outras camadas de abstração de hardware. O IREE também possui um interpretador de CPU para rodar em CPUs x86 / ARM tradicionais.
O IREE também espera demonstrar o potencial de aprendizado de máquina nos mecanismos de jogo. A partir da documentação oficial, " Uma observação que impulsionou o desenvolvimento do IREE é uma das cargas de trabalho de ML que não é muito diferente das cargas de trabalho tradicionais de renderização de jogos: a matemática é executada em buffers com níveis variados de simultaneidade e pedidos de maneira em pipeline contra aceleradores projetados para de fato, a maioria do ML é executada no mesmo hardware que foi projetado para jogos! Nossa abordagem é usar o compilador para transformar as cargas de trabalho do ML em aquelas que parecem assustadoramente semelhantes às que um jogo executa por processam cargas de trabalho, otimizam para baixa latência e execução previsível e integram-se bem aos sistemas existentes para uso em lote e interativo. "
Mas antes de ficar muito empolgado, o ambiente IREE do Google está sendo feito para fins de pesquisa / demonstração. Mas, embora possa não se transformar em uma oferta totalmente suportada para executar o MLIR em diferentes aceleradores, todo o código é de código aberto via GitHub e veremos para onde ele vai até 2020.
Fonte
Até a próxima!!
Assinar:
Postar comentários (Atom)
Nenhum comentário:
Postar um comentário