AI Summary
Ollama v0.19 reconstrói a inferência em Apple Silicon com base no MLX, trazendo um desempenho local muito mais rápido para fluxos de trabalho de codificação e agentes. Também adiciona suporte a NVFP4 e reutilização de cache mais inteligente, snapshots e remoção para sessões mais responsivas.
No comments yet
Be the first to share your thoughts and start the conversation!