🚀 DeepSeek-OCR — la nueva frontera de OCR de @deepseek_ai, explorando la compresión de contexto óptico para LLMs, está funcionando a una velocidad increíble en vLLM ⚡ (~2500 tokens/s en A100-40G) — impulsado por vllm==0.8.5 para soporte de modelo en el día 0. 🧠 Comprime contextos visuales hasta 20× mientras mantiene un 97% de precisión en OCR a <10×. 📄 Supera a GOT-OCR2.0 y MinerU2.0 en OmniDocBench utilizando menos tokens de visión. 🤝 El equipo de vLLM está trabajando con DeepSeek para llevar el soporte oficial de DeepSeek-OCR a la próxima versión de vLLM — haciendo que la inferencia multimodal sea aún más rápida y fácil de escalar. 🔗 #vLLM #DeepSeek #OCR #LLM #VisionAI #DeepLearning