🚀 DeepSeek-OCR — la nouvelle frontière de l'OCR de @deepseek_ai, explorant la compression de contexte optique pour les LLM, fonctionne à une vitesse fulgurante sur vLLM ⚡ (~2500 tokens/s sur A100-40G) — propulsé par vllm==0.8.5 pour le support des modèles dès le jour 0.
🧠 Compresse les contextes visuels jusqu'à 20× tout en maintenant 97% de précision OCR à <10×.
📄 Surpasse GOT-OCR2.0 & MinerU2.0 sur OmniDocBench en utilisant moins de tokens visuels.
🤝 L'équipe vLLM collabore avec DeepSeek pour intégrer le support officiel de DeepSeek-OCR dans la prochaine version de vLLM — rendant l'inférence multimodale encore plus rapide et plus facile à mettre à l'échelle.
🔗
#vLLM #DeepSeek #OCR #LLM #VisionAI #DeepLearning