Intel lança a Extensão para PyTorch 2.7 com suporte a LLMs como DeepSeek-R1 e Microsoft Phi-4, otimizações para Intel Xeon e integração com oneDNN 3.7.2. Baixe agora e acelere seus modelos de IA e deep learning!
A Intel acaba de lançar a versão 2.7 da Intel Extension for PyTorch, trazendo melhorias significativas para desenvolvedores de IA e machine learning.
Esta atualização inclui suporte a novos modelos de linguagem de grande porte (LLMs), otimizações de desempenho e aprimoramentos para hardware Intel Xeon moderno, garantindo maior eficiência em tarefas de deep learning.
Principais Novidades da Intel Extension for PyTorch 2.7
1. Suporte a Modelos Avançados de IA
A nova versão adiciona compatibilidade com:
DeepSeek-R1, incluindo otimizações para precisão INT8 em processadores Intel Xeon.
Microsoft Phi-4 (Phi-4-mini e Phi-4-multimodal), ampliando as possibilidades para aplicações multimodais.
2. Otimizações de Desempenho para LLMs
A extensão inclui:
Melhorias na inferência e treinamento de modelos de linguagem.
Documentação aprimorada para manuseio de modelos multimodais e DeepSeek-R1.
3. Atualização para oneDNN 3.7.2
A biblioteca de rede neural da Intel foi rebaseada para a versão mais recente, garantindo maior velocidade e eficiência em operações de deep learning.
Por Que Essa Atualização é Importante?
Com o crescimento exponencial de LLMs e IA generativa, otimizações de hardware são essenciais para reduzir custos computacionais. A Intel Extension for PyTorch 2.7 permite que empresas e pesquisadores:
✔ Acelerem inferência em servidores Intel Xeon.
✔ Reduzam latência em modelos multimodais.
✔ Maximizem eficiência energética em data centers.
Como Baixar e Começar a Usar
A extensão está disponível no GitHub da Intel, com documentação detalhada para integração em projetos de machine learning.
Nenhum comentário:
Postar um comentário