🚀 DeepSeek-OCR — la nuova frontiera dell'OCR di @deepseek_ai, che esplora la compressione del contesto ottico per i LLM, sta funzionando a velocità fulminea su vLLM ⚡ (~2500 token/s su A100-40G) — alimentato da vllm==0.8.5 per il supporto del modello day-0. 🧠 Comprimi i contesti visivi fino a 20× mantenendo il 97% di accuratezza OCR a <10×. 📄 Supera GOT-OCR2.0 e MinerU2.0 su OmniDocBench utilizzando meno token visivi. 🤝 Il team di vLLM sta collaborando con DeepSeek per portare il supporto ufficiale di DeepSeek-OCR nella prossima versione di vLLM — rendendo l'inferenza multimodale ancora più veloce e facile da scalare. 🔗 #vLLM #DeepSeek #OCR #LLM #VisionAI #DeepLearning