🚀 DeepSeek-OCR — a nova fronteira do OCR da @deepseek_ai, explorando a compressão de contexto óptico para LLMs, está a funcionar a uma velocidade impressionante no vLLM ⚡ (~2500 tokens/s no A100-40G) — alimentado por vllm==0.8.5 para suporte a modelos no dia 0. 🧠 Comprime contextos visuais até 20× enquanto mantém 97% de precisão OCR a <10×. 📄 Supera o GOT-OCR2.0 e o MinerU2.0 no OmniDocBench usando menos tokens de visão. 🤝 A equipe do vLLM está a trabalhar com a DeepSeek para trazer suporte oficial ao DeepSeek-OCR na próxima versão do vLLM — tornando a inferência multimodal ainda mais rápida e fácil de escalar. 🔗 #vLLM #DeepSeek #OCR #LLM #VisionAI #DeepLearning