🚀 DeepSeek-OCR — la nouvelle frontière de l'OCR de @deepseek_ai, explorant la compression de contexte optique pour les LLM, fonctionne à une vitesse fulgurante sur vLLM ⚡ (~2500 tokens/s sur A100-40G) — propulsé par vllm==0.8.5 pour le support des modèles dès le jour 0. 🧠 Compresse les contextes visuels jusqu'à 20× tout en maintenant 97% de précision OCR à <10×. 📄 Surpasse GOT-OCR2.0 & MinerU2.0 sur OmniDocBench en utilisant moins de tokens visuels. 🤝 L'équipe vLLM collabore avec DeepSeek pour intégrer le support officiel de DeepSeek-OCR dans la prochaine version de vLLM — rendant l'inférence multimodale encore plus rapide et plus facile à mettre à l'échelle. 🔗 #vLLM #DeepSeek #OCR #LLM #VisionAI #DeepLearning