FERRAMENTAS LINUX: O evento Intel Vision 2022 mostra os processadores com o Habana Gaudi 2, Greco, 12th Gen Core HX, IPUs

quarta-feira, 11 de maio de 2022

O evento Intel Vision 2022 mostra os processadores com o Habana Gaudi 2, Greco, 12th Gen Core HX, IPUs

 



Confira !!

Ontem foi o primeiro dia do evento da Intel chamado  "Intel Vision", esse evento mostra os anúncios mais importantes da área de software e hardware.

No seu primeiro dia do evento, a Intel fez o lançamento formal dos seus processadores  Core HX "Alder Lake" de 12ª geração para as estações de trabalho móveis. Os processadores Intel Core HX de 12ª geração apresentam até 16 núcleos e uma velocidade de clock de até 5 GHz com o carro-chefe Core i9 12900HX.


A Intel diz que agora está enviando seus SKUs iniciais para os processadores escaláveis ​​"Sapphire Rapids" da 4ª geração Intel Xeon. O envio é "o primeiro de muitos SKUs", enquanto eles estarão aumentando até o final de 2022. Os detalhes sobre esses SKUs iniciais ainda são leves e aprenderemos mais no final do ano e, esperançosamente, quando finalmente colocarmos as mãos no Sapphire Rapids para benchmarking.


Já falamos sobre a GPU de servidor Arctic Sound M (ATS-M) da Intel há algum tempo, principalmente no contexto do suporte ao driver Linux de código aberto. A Intel está usando o Vision 2022 para falar sobre os recursos de codificação de hardware AV1 do Arctic Sound M, uma meta de desempenho de 150 TOPS e o suporte à pilha de software oneAPI de código aberto. O lançamento formal do ATS-M agora está marcado para o terceiro trimestre.


No lado do data center, a Intel também está apresentando mais detalhes de sua Unidade de Processamento de Infraestrutura (IPU) na Vision 2022. Este ano tem sua plataforma FPGA "Oak Springs Canyon" e "Mount Evans" ASIC, enquanto 2023 ~ 2024 verá o Hot Springs Plataforma Canyon e Mount Morgan ASIC com conectividade de 400 GB/s, acima de 200 GB/s. Para 2025/2026, eles têm uma oferta de última geração não anunciada que oferecerá recursos de 800 GB/s.


A Intel continua falando sobre seu ecossistema de software de código aberto para IPUs e todos os seus outros produtos. É ótimo ver seus esforços de software de código aberto continuarem a toda velocidade sob a liderança de Pat Gelsinger.


O Habana Gaudi2 está sendo anunciado como seu processador de IA de próxima geração para treinamento e inferência. A Intel adquiriu o Habana Labs em 2019 e o Gaudi2 agora está pronto como seu acelerador de IA de última geração. A Intel está promovendo o Gaudi2 como oferecendo desempenho de treinamento de IA duas vezes melhor do que as atuais ofertas baseadas no NVIDIA A100. Gaudi2 desce para a fabricação de 7 nm, passa de 8 para 24 TPCs para decodificação e processamento de mídia, possui 96 GB de memória HBM2e e um cache SRAM de 48 MB, oferece rede de 24 x 100 GbE e possui um TDP de 600 Watts.




O Habana Greco também foi anunciado como sua nova oferta otimizada para eficiência de inferência de aprendizado profundo. A Greco estará enviando para os clientes no segundo semestre do ano. Passar do Habana Goya existente para o Greco significa fabricação de 16 nm para 7 nm, memória DDR4 de 40 GB/s até 204 GB/s LPDDR5, vários novos recursos de hardware e ser um cartão HHHL de slot único com um TDP de 75 Watts em comparação com um empate de 200 Watts com Goya.


Os hardwares Intel Habana Gaudi2 e Greco continuarão usando o pacote de software SynapseAI. Isso vai junto com seu driver de kernel Habana Labs AI de código aberto e seus componentes de software de espaço de usuário de código aberto, incluindo o compilador. Originalmente, os componentes do espaço do usuário do Habana Labs eram de código fechado e foi isso que causou muito atrito com os desenvolvedores do kernel Linux upstream, já que o driver do kernel era de código aberto e upstream. No ano passado, a Intel abriu o código SynapseAI Core para resolver esses problemas anteriores de blob binário.


No lado do software, a Intel está anunciando o "Projeto Apollo" como uma coleção de mais de 30 soluções de IA de código aberto projetadas para tornar a IA mais acessível para ambientes locais, na nuvem e de borda.











Até a próxima !!

Nenhum comentário:

Postar um comentário