🚀 DeepSeek-OCR — perbatasan baru OCR dari @deepseek_ai, mengeksplorasi kompresi konteks optik untuk LLM, berjalan sangat cepat pada vLLM ⚡ (~2500 token/dtk pada A100-40G) — didukung oleh vllm==0.8.5 untuk dukungan model hari-0. 🧠 Mengompresi konteks visual hingga 20× sambil mempertahankan akurasi OCR 97% pada <10×. 📄 Mengungguli GOT-OCR2.0 & MinerU2.0 di OmniDocBench menggunakan lebih sedikit token penglihatan. 🤝 Tim vLLM bekerja sama dengan DeepSeek untuk menghadirkan dukungan DeepSeek-OCR resmi ke rilis vLLM berikutnya — membuat inferensi multimodal lebih cepat dan lebih mudah untuk diskalakan. 🔗 #vLLM #DeepSeek #OCR #LLM #VisionAI #DeepLearning