Ollama v0.19 - AI Radar

About Ollama v0.19

## Aceleração Massiva de Modelos Locais no Apple Silicon com MLX

AI Summary

Ollama v0.19 reconstrói a inferência em Apple Silicon com base no MLX, trazendo um desempenho local muito mais rápido para fluxos de trabalho de codificação e agentes. Também adiciona suporte a NVFP4 e reutilização de cache mais inteligente, snapshots e remoção para sessões mais responsivas.

Detailed Description

Ollama v0.19: 🚀 IA local turbinada! Performance ultra-rápida em Apple Silicon com MLX, ideal para codificação e agentes. 💻 NVFP4 e cache inteligente 🧠 para sessões responsivas. Snapshots e descarte otimizado. ⚡️

Key Features

Reconstrução da inferência Apple Silicon sobre MLX para maior velocidade local.
Desempenho aprimorado para fluxos de trabalho de codificação e agentes.
Adição de suporte NVFP4.
Reutilização de cache mais inteligente.
Snapshots para sessões mais responsivas.
Eviction para sessões mais responsivas.
Comments 0

No comments yet

Be the first to share your thoughts and start the conversation!

Join the conversation

Sign in to leave a comment and share your thoughts.

0.0
0 reviews
Loading...
Loading rating distribution...
Loading...

Loading reviews...